Henning Schluß, www.henning.schluss.de.vu:

Alter Wein in neuen Schläuchen? – Zur Frage der Gemeinsamkeiten und Differenzen der aktuellen und der Bildungsreform der 70er Jahre.

In: Pädagogische Rundschau 1/2006, 60. Jg. S. 41-48.

 

Link zur zitierfähigen Druckversion (pdf)

 

Zusammenfassung

Die Behauptung, die Umstellung des Bildungssystems von der Input- auf Output-Steuerung in der gegenwärtigen Bildungsreform revolutioniere das Bildungswesen per se, wird durch eine Gegenüberstellung mit Ergebnissen der Curriculumforschung der 70er und 80er Jahre in Frage gestellt. Es zeigt sich, dass die Umstellung auf Outputsteuerung allein nicht in der Lage zur Revolution des Bildungswesens wird sein können, dass sie aber durch radikale Vereinfachung fast unlösbare methodische Probleme der alten empirischen Curriculumforschung zu lösen in der Lage ist.

 

Immer wieder wird in der aktuellen Debatte um die Bildungsreform die Meinung kolportiert, es handle sich dabei um einen Aufguss der Bildungsreform aus den 70er Jahren.[1] Alles sei schon da gewesen, nichts Neues unter der Sonne. So wird es keineswegs nur aus Lehrerkollegien berichtet,[2] sondern auch von formidablen Schulforschern.[3] Die Antwort der Protagonisten der aktuellen Bildungsreform ist, dass dies ein Missverständnis sei, denn jetzt gehe es erstmals darum, von der vormaligen „Input-Steuerung“ auf „Output-Steuerung“ umzuschalten.[4] Damit soll gesagt sein, während alle vormaligen Bildungsreformen darauf hinausliefen, die Veränderungen durch eine Veränderung der Curricula und Lehrpläne zu erreichen, also durch eine Veränderung der Anweisungen für das Lehrerhandeln, verzichtet die neue Runde der Bildungsreform auf diese Art der Steuerung. Keineswegs soll damit auf Steuerung  überhaupt verzichtet werden. Vorgegeben wird jedoch nicht mehr das was gelehrt werden soll, sondern was zu einem bestimmten Zeitpunkt gelernt sein soll. Diese Umorientierung komme einem gewandelten Verständnis staatlicher Steuerung überhaupt entgegen und entlasse die Schulen in eine größere Autonomie.[5]

Das dieses gewandelte Verständnis einen Unterschied ums Ganze mache, bleibt freilich so lange eine bloße Behauptung, wie die Wirkungsweise des curricularen Systems und des Outputsystems nicht konkret gegenübergestellt worden sind. Dabei scheint sich schon jetzt eine Schwierigkeit anzudeuten. Domänenspezifische Kompetenzanforderungen (Standards) werden wohl auch in Zukunft durch Lehr- und Rahmenpläne verbindlich gemacht. So zeigt es das Beispiel der neuen nordrhein-westfälischen Kernlehrpläne, die erstmals das Standard-Konzept umsetzen.[6] Das was nun neu „Outputorientierung“ heißt, muss demnach doch über einen Input in die Schule kommen und bleibt darüber hinaus auch mit den traditionellen Formen des curricularen Input verschränkt, der zumindest nicht vollständig aufgegeben wurde.

Dennoch soll weiter gefragt werden, ob es einen Unterschied zwischen den herkömmlichen Lehr- und Rahmenplänen und solchen, die auf Standards abstellen, gibt. Geprüft soll diese Frage am Fall der Implementation und Evaluation von Lehrplänen werden. Das Handbuch der Curriculumforschung,[7] das verschiedentlich mit dem Höhepunkt und zugleich Abschluss der Curriculumdebatte identifiziert wird, hält für diesen Zweck einen Artikel bereit, der die damals erreichbaren Untersuchungen zur Implementation von Curricula und deren Evaluation in der Zusammenschau darstellt und Probleme herausarbeitet.[8] Zwei der Ergebnisse dieser synoptischen Betrachtung sind für unsere Fragestellung wichtig.

1. Lütgert/Stephan unterschieden zwischen vier Modellen der „Dissemination und Implementation“[9] von curricularen Reformen:

 

Auch wenn zumindest die letzten beiden Modelle nicht trennscharf voneinander zu unterscheiden sind, so bleiben doch mindestens drei differente Modelle. Diese wiederum lassen sich in zwei Gruppen zusammenfassen. Die erste Gruppe bevorzugt eine Implementation curricularer Neuerungen, die auf autoritärer Durchsetzungsmacht der Hierarchie basiert, die zweite Gruppe geht von dem gemeinsamen Interesse des Problemlösens sowohl auf Seiten der Nutzer der Innovation als auch ihrer Entwickler aus, wobei Nutzer und Entwickler entweder zusammenarbeiten oder sogar die gleichen Personen in unterschiedlichen Rollen sein können (keine Lehrplankommission kommt heute mehr ohne Lehrer aus).

2. Das andere Ergebnis, das für unsere Fragestellung von Bedeutung ist, bezieht sich auf die Evaluation. Die kritische Analyse der empirischen Überprüfung der Wirksamkeit von curricularen Innovationen im deutschsprachigen Raum basiert auf Studien von Duit/Riquarts/Westphal (1976),[11] Ramsegger (1977),[12] Klafki (1977),[13] Bennwitz/Weinert (1973),[14] Brügelmann (1976),[15] Heitmeyer (1979).[16] Auf die unterschiedlichen Gegenstände und Methoden dieser Studien braucht hier nicht weiter eingegangen zu werden. Wichtig für unser Interesse ist lediglich, dass alle Untersuchungen die Wirksamkeit der curricularen Innovationen an unterschiedlichen Adressaten untersuchen. So wird die Wirkung bei Lehrern, Schülern, Eltern, Lehrbüchern, sonstigen Unterrichtsmedien oder im Unterrichtsprozess selbst oder bei mehreren dieser Adressaten erhoben. Es ist nämlich keineswegs deutlich, wer der eigentliche Adressat traditioneller Curricula ist, bzw. es sind viele Adressaten, auf die die Curricula unterschiedlich wirken können.[17] Die Untersuchung aller dieser Adressaten ist plausibel. Freilich richten sich Lehrpläne zuerst an Lehrer, wenn Sie den Lehrplan nicht umsetzen, ist er wirkungslos. Allerdings kann das Lehrpersonal zwar den neuen Lehrplan kennen, muss ihn deshalb aber noch nicht umsetzen. Darum ist es folgerichtig, den Unterricht daraufhin zu analysieren, ob die Curriculumrevision sich hier niederschlägt. Auch wenn etwas im Unterricht gemacht wird, muss es, angesichts der „losen Kopplung“ von Lehr-Lernprozessen, noch längst nicht so beim Schüler ankommen. Deshalb ist die Evaluation der Schüler unabdingbar. Curricula wirken jedoch nicht nur direkt, sondern häufig – und zuweilen, wie Vollstätt/Tillmann/et al.[18] in der aktuellsten Studie zur Lehrplanevaluation gezeigt haben – einzig in indirekter Weise, nämlich über Schulbücher, die nach den Lehrplänen gestaltet wurden und deshalb in den Unterricht auch bei strikter Lehrplanrevisionsabstinenz des Lehrpersonals auf lange Sicht den Unterricht beeinflussen. Auf kürzere Sicht könnten niederschwellige Unterrichtsmedien oder Handreichungen zum Lehrplan daraufhin untersucht werden, ob und inwiefern die Curriculumrevision sich hier niederschlägt. Nicht zuletzt kann legitim gefragt werden, ob und inwiefern die Eltern als für die Erziehung ihrer Kinder hauptverantwortliche, Innovationen im Curriculum wahrnehmen.

Es ist leicht einsehbar, dass bei einer solchen Vielfalt möglicher Adressaten eine allumfassende Evaluationen von curricularen Innovationen nicht wird geleistet werden können. Zugleich sind mögliche Vorbehalte gegen einzelne Untersuchungen immer schon eingebaut, denn das Argument, dass diese und jene Untersuchung gerade die falschen Adressaten ausgewählt habe, wird angesichts der Vielzahl möglicher Adressaten immer zutreffen. Selbst wenn eine Untersuchung auf alle möglichen Adressaten eingehen sollte, ist der Vorwurf noch immer leicht zu formulieren, dass in ihr das Verhältnis der Adressaten zueinander nicht richtig gewichtet werde. So beklagen die Autoren der Synopse zur Evaluationsforschung auch folgerichtig: „Aufgrund der Forschungslage lassen sich jedoch weder Aussagen machen über die Vollständigkeit der angeführten Determinanten noch über ihre Interdependenzen und intrafaktoriellen Varianzen. Dieser Mangel ist nicht nur auf die schmale empirische Basis der Studien zurückzuführen, sondern auch auf das Fehlen verbindender theoretischer Konzepte der Implementation“.[19]

Angesichts dieses empirischen und theoretischen Dilemmas wird nun schlagartig deutlich, worin zumindest ein Vorteil der neuen Outputorientierung liegt. Durch die Einführung dieses theoretischen Konzepts ist nur noch ein einziger möglicher Adressat von Innovationen übrig geblieben: die Schüler, genauer, die Schülerleistung.

Interessanter Weise wird in der Literatur zur Evaluation im außerschulischen Jugend-Bildungsbereich zwischen „output“ und „outcome“ unterschieden.[20] Output bezeichnet das Ende der Bemühungen des „Produzenten“, outcome dagegen den Effekt beim Klienten, also das was tatsächlich bei ihm angekommen ist. In einem Industriebetrieb sind output und outcome gewöhnlich identisch, nämlich das „Produkt“. Bei nichttrivialen Maschinen, und um solche handelt es sich nach Luhmann bei Menschen, ist beides jedoch nicht identisch, sondern Lernergebnisse sind nur lose an Lehrleistungen gekoppelt. Für Pädagogen tut sich mit dieser Unterscheidung eine wichtige Differenz auf, die das Spannungsfeld zwischen Lehrbemühen und Lernergebnissen beschreibbar macht. In der derzeitigen Diskussion zu Bildungsstandards im schulischen Kontext wird diese Unterscheidung nicht mitvollzogen. Output und outcome werden nicht unterschieden, sondern stattdessen ist von „output“ die Rede, wo Schumann et al. sinnvoller Weise von „outcome“ sprechen. Begründet wird diese Verkürzung allerdings mit einem nicht gering zu schätzenden schultheoretischen Argument: Wenn die Aufgabe der modernen Schule darin liegt, Chancengleichheit im Bezug auf Bildung anzustreben, dann kann durch die Messung der Lernergebnisse von Schülern negativ geschlussfolgert werden, in welchem Maße die Schule diesen Anspruch verfehlt hat. Allerdings kann nicht umgekehrt positiv von einem guten Abschneiden der Schüler in den Leistungstests auf ein Funktionieren der Schule rückgeschlossen werden, weil die Schülerleistungen sich auch aus anderen Quellen als dem Schulunterricht speisen könnten. Um eine solche positive Zuschreibung begründen zu können, bedarf es wiederum genauerer Untersuchungen, die noch andere Faktoren als nur den output (besser outcome) berücksichtigen und die die großen vergleichenden Untersuchungen auch anstellen, indem Sie z.B. die materiellen Ressourcen des Elternhauses erfassen.

Insofern ist Lütgert/Stephans Resümee durchaus weitsichtig, dass nicht nur eine empirische Datenbasis fehlen würde, sondern dass sich an die Erhebung solcher Daten kaum jemand wagen würde, solange die Relationen der Adressaten zueinander nicht schlüssig aufgeklärt sind.[21] Mit dem Konzept der Outputorientierung wurde dieser gordische Knoten nun keineswegs gelöst, sondern in der Manier von Alexander dem Großen mit einem einzigen Schwertstreich durchschlagen. Es wird für die empirische Evaluation von Bildungsstandards künftig nur noch ein Adressat notwendig sein. Wie die domänenspezifische Kompetenz der Schüler, die sich in Standards ausdrückt, erreicht wird, stellen die künftigen Autoren der Standards frei, denn, so die Begründung, die Umsetzung der Standards in Unterricht kann flexibel und autonom von den Schulen gehandhabt werden, die sich in Schulprogrammen und ähnlichem ein bestimmtes Profil geben und im Wettbewerb um die besten Ergebnisse konkurrieren können.[22] Sowohl vorgeschrieben als auch abgefragt wird deshalb nicht mehr das Wie (gelangen Schüler zum Können), sondern nur noch das Was (können Schüler).[23] An dieser Stelle soll keine billige Kritik an der Möglichkeit eines „teaching to the test-Effekts“ geführt werden, denn auf diese Problematik weisen die Autoren der Klieme Expertise anhand von Erfahrungen aus den USA und Skandinavien ausdrücklich hin. „Betrachtet man die Standards dieser Staaten [Maryland, Alabama und Kentucky – H.S.] im Detail, dann fällt allerdings gerade bei ihnen die Orientierung  an Testperformanz sowie Reduktion des Curriculums auf einen minimalen Katalog von Inhalten auf“.[24] In Schweden sei dies jedoch durch eine andere Testkultur und anspruchsvollere Tests anders.[25]

Allerdings kann der Optimismus der Bildungsreformer, dass sich aus der Reduktion der curricularen Vorgabe auf das Was, in Form einer noch nicht da gewesenen Pluralisierung der Schulkonzepte und der Lehr-Lernmethoden niederschlagen wird, dennoch aus dem einleuchtenden Grund skeptisch betrachtet werden, weil der Erfolgsdruck auf die Einzelschulen durch regelmäßige Vergleichstest aller Voraussicht nach erhöht wird, auf eine Erhöhung des Leistungsdrucks in der Regel von schwächeren durch mimetische Suchbewegungen im Hinblick auf erfolgreiche Schulen geantwortet wird. Nun mag man darin kein Problem, sondern die Lösung sehen, denn dass die Schwächeren von den Stärkeren lernen ist ja gerade der Sinn der Reform. Problematisch daran ist jedoch, dass keineswegs klar, sondern vielmehr umstritten ist, was die erfolgreichen Schulen eigentlich zu erfolgreichen Schulen macht[26] (vgl. die vielstimmige Diskussion darüber, was denn die in PISA erfolgreicheren Länder eigentlich erfolgreicher macht als Deutschland.)[27] Unter erhöhtem Erfolgsdruck allerdings verstärkt sich die Neigung, auf konservative Rezepte zurückzugreifen und nicht innovative Risiken einzugehen. Der Effekt könnte demnach ein doppelter sein; statt einer Pluralisierung der Schulmodelle wird eine Konzentration auf die Nachahmung von vermeintlich erfolgreichen Modellen einsetzen, statt Innovation zur Leistungssteigerung (mit dem Risiko eines zumindest zeitweisen Leistungsabfalls) wird der Rückgriff auf „bewährte“ Methoden wahrscheinlich.[28]

Mag sein, dass solchen Effekten durch die kluge Gestaltung der Tests entgegengewirkt wird, die das kreative und soziale Bildungs-Potential der Schüler in einem solchen Maße herausfordern, dass durch klassische Formen der Nachahmung und der Reduktion auf den Frontalunterricht die notwenigen fächerübergreifenden Fähigkeiten nicht trainiert werden und insofern diese Auswege obsolet werden. Die Konzentration auf domänenspezifische (was ja nichts anderes als fächerspezifisch heißt) Standards jedoch und das Abrücken von fächerübergreifenden Schlüsselkompetenzen (Selbst,- Sach-, Sozial-, Methodenkompetenz) lässt dies fraglich erscheinen.[29] 

Nähmen wir aber dennoch an, es gelänge solche Tests zu entwickeln und flächendeckend einzusetzen, die nicht unter Leistungsdruck setzen, sondern statt dessen eine Kultur des Förderns verstärken, auch dann ist das Argument, dass die Formulierung von Standards die Schule von den Zwängen des Curriculums befreit und in die Autonomie entlässt insofern überzogen, als die Schule keineswegs nur von Lehrplänen reguliert wird. Experimentelle Schule scheitert wohl derzeit in den wenigsten Fällen an einem zu rigiden Lehr- oder Rahmenplan. Schwerer wiegen andere gesetzliche Vorgaben der Schulaufsicht, die durch eine Substitution des Curriculums durch Standards keineswegs obsolet würden.[30] Dennoch mag hier ein erster Schritt gegangen sein, die lähmenden Zumutungen des Schulrechtes zu lockern. Ein Unterschied ums Ganze in der Befreiung der Schule ist so allerdings noch nicht gemacht.

Einen Unterschied ums Ganze allerdings kann die empirische Bildungsforschung selbst aufweisen. Konnte der synoptische Artikel des Handbuches zur Curriculumforschung von Lütgert und Stephan in einem Zeitraum von über zehn Jahren kaum eine Handvoll empirische Untersuchungen zur Evaluation von Curricula aufzeigen und auch bei allen diesen starke methodische Mängel diskutieren, da der Adressatenkreis des Curriculums umstritten war, ist durch die Reduktion des Adressatenkreises von Bildungsstandards auf eine einzige Adressatengruppe, nämlich die der Schüler(-leistung), für die empirische Bildungsforschung eine revolutionär andere Situation gegeben. Der Boom von empirischen Untersuchungen zu Schülerleistungsvergleichen in den letzten Jahren lässt sich dann noch erheblich steigern, wenn überall verbindlich die geforderten domänenspezifischen Kompetenzen in Standards zusammengefasst sind und diese dann evaluiert werden können. In gewisser Weise wirken hier zwei Tendenzen, die sich wechselseitig verstärken. Auf die desaströsen Ergebnisse des deutschen Bildungssystems bei den empirischen Vergleichs-Studien vor allem PISA und TIMSS reagierte die KMK mit der Formulierung von Kriterien für Bildungsstandards, welche auf dem Konzept von PISA und TIMSS aufruhen und so neue vergleichende Untersuchungen provozieren.[31] Hinzu kommt, dass diese sogenannten Schulleistungsvergleiche, die eigentlich Schülerleistungsvergleiche sind – wie alle anderen neuen Steuerungsinstrumente, wie z.B. Akkreditierungen etc. – turnusmäßig wiederholt werden müssen. Wir haben es demnach mindestens mit einem Arbeitsbeschaffungsprogramm für die empirische Bildungsforschung zu tun, was bei der aktuellen Höhe der Arbeitslosenzahlen sicher eine zu begrüßende Initiative wäre, wenn nicht, was zu befürchten steht, andere Bereiche der Erziehungswissenschaft darunter leiden.[32] In dem Fall sei zaghaft daran erinnert, dass ein Schwein nicht allein vom dauernden Wägen schwerer wird und also die Leistung des deutschen Bildungswesens wohl auch nicht durch beständiges Messen allein angehoben wird werden können.[33]

Abschließend sei jedoch noch einmal zum ersten Befund der Synopse von Lütgert und Stephan zurückgekehrt, der für unsere Frage nach dem Neuen der aktuellen Bildungsreform relevant war, die Einsicht, dass es zwei unterscheidbare Gruppen von Modellen der Implementation von Innovationen gibt. Während das eine Modell auf autoritäre Durchsetzung der Innovation in einer Hierarchie setzt, umfasst die andere Gruppe Modelle, die auf Zusammenarbeit bei der Implementation von innovativen Curricula setzen und Nutzer und Experten in ihrer Arbeit so verschränken, dass auch die Nutzer als Experten an der Entwicklung und Implementation beteiligt werden. Hier nun zeigt sich eine große Gemeinsamkeit alter curricularer Modelle und neuerer Standard-Modelle. Auch sie werden es schwer haben, ihr innovatives Potential zu entfalten, wenn sie im Duktus des „machtorientierten Bürokratiemodells“ dekretiert werden sollen. Bildungsverwaltungen tendieren zuweilen dazu, noch immer auf dieses Modell als dem vermeintlich bequemsten zu setzen und sich damit nicht nur unnötige Widerstände einzuhandeln, sondern auch den Erfolg der Innovation zu gefährden.[34] Statt dessen können in Modellen der kooperativen Entwicklung und Implementation die Chancen der Innovation besser genutzt werden, weil deutlich wird, wie die Innovation auf akute Probleme der Schulpraxis reagiert und so neue Handlungsoptionen eröffnet. Wenn dies gelänge, dann könnten die Potentiale die in Standard-basierten Curricula liegen, genutzt werden, denn diese entfalten sich keineswegs von selbst (im Gegenteil sind da die Gefahren von „perversen Effekten“ hoch), sondern nur durch verantwortliche und kompetente Nutzung durch Lehrerinnen und Lehrer.

 

Der Autor: Henning Schluß, Dr. phil., Wissenschaftlicher Assistent, Humboldt-Universität zu Berlin, Institut für Erziehungswissenschaften, henning.schluss@rz.hu-berlin.de, www.henning.schluss.de.vu



[1] Für die im Zuge der Bildungsreform wieder-entdeckte Lernkultur: Meyer, Meinert A.: Stichwort: Alte oder neue Lernkultur? In: ZfE Heft 1/2005, S. 5 – 27.

[2] Willert, Albrecht: Output-orientierung im Religionsunterricht? Nordrhein-westfälische Überlegungen im Umfeld der Bildungsstandard-Debatte.  In: ZPT 3/2004, S. 241-250, S. 241.

[3] Wiarda, Jan-Martin: Chronist der Schule – Keine Reform kommt ohne ihn aus. Achim Leschinsky ist einer der führenden Bildungsforscher Deutschlands. In: DIE ZEIT 24.02.2005 Nr.9. Anders: Leschinsky, Achim: Vom Bildungsrat (nach) zu PISA. In: Z.f.Päd. 6/2005, Jg. 51, S. 818-839.

[4] Klieme, Eckhard et al.: Expertise Zur Entwicklung nationaler Bildungsstandards. BmBF, Berlin 2003, S. 11.

[5] Vgl. ebd., S. 12. Die Autoren des „Frankfurter Forums“, Gruschka, Andreas/Herrmann, Ulrich/Radtke, Frank-Olaf/Rauin, Udo/Ruhloff, Jörg/Rumpf, Horst/Winkler,  Michael: Das Bildungswesen ist kein Wirtschaftsbetrieb! - Einsprüche gegen die aktuelle Modernisierung der Bildungseinrichtungen (Manuskript 2005), sehen dies freilich insofern anders, als sie in ihrer zweiten These diagnostizieren, dass „kollegiale und demokratische Entscheidungsstrukturen zersetzt und staatliche Aufsichtsaufgaben in Selbstkontrollzwänge verschoben“ werden.

[6] Vgl. MSJK (Ministerium für Schule, Jugend und Kinder des Landes Nordrhein-Westfalen): Standards setzen. Ergebnisse überprüfen. Qualität sichern. Informationen zur Qualitätsentwicklung im allgemein bildenden Schulwesen in NRW. Düsseldorf 2004. http://www.learn-line.nrw.de/angebote/standardsicherung/downloads/Lernstandards-Druckfassung.pdf und http://www.learn-line.nrw.de/angebote/standardsicherung/. Seit dem 27.09.2004 liegen die NRW Kernlehrpläne für die Sekundarstufe I für die Fächer Deutsch, Mathematik sowie für die erste Fremdsprache ab Klasse 5 (Englisch, Französisch) vor. Sie können auf Initiative der jeweiligen Schule ab dem Schuljahr 2004/2005 in den Klassenstufen 5, 7 und 9 verbindlich eingeführt werden. Spätestens ab dem Schuljahr 2005/2006 ist eine verbindliche Einführung in Klasse 5, 7 und 9 in allen Schulen der Sekundarstufe I vorgesehen. Im Folgeschuljahr werden sie dann auch für die Klassenstufen 6, 8 und 10 verbindlich.

[7] Hameyer/Frey/Haft (Hrsg.): Handbuch der Curriculumforschung. Weinheim und Basel 1983.

[8] Lütgert, Will/Stephan, Hans-Ulrich: Implementation von Curricula: deutschsprachiger Raum. In: Hameyer/Frey/Haft (Hrsg.) Handbuch der Curriculumforschung. Weinheim und Basel 1983. S. 501-520.

[9]Dissemination (bzw. Diffusion = räumliche und zeitliche Verbreitung von Lehr-/Lernmaterialien in einem quantitativen Sinn) sowie Implementation (= Wirksamkeit von Lehr-/Lernmaterialien im Schulalltag in einem qualitativen Sinn)“ (ebd., S. 502 – Hervorhebungen im Original).

[10] Ebd., S. 502.

[11] Duit, R./Riquarts, K./Westphal, W.: Wirkungen eines Curriculum. Weinheim 1976.

[12] Ramsegger, J.: Offener Unterricht in der Erprobung: Erfahrungen mit einem didaktischen Modell. München 1977.

[13] Klafki, W.: Werkstattbericht aus dem „Marburger Grundschulprojekt“. Innovationsmöglichkeiten und Bedingungsfaktoren handlungsorientierter Curriculumreform. Und: Dokumentation der Diskussion zum „Marburger Grundschulprojekt“. In: Hameyer, U./Haft, H. (Hrsg.): Handlungsorientierte Schulforschungsprojekte. Praxisberichte, Analysen, Kritik. Weinheim 1977, S. 139-167.

[14] Bennwitz, H./Weinert, F.E.: CIEL. Ein Förderungsprogramm zur Elementarerziehung und seine wissenschaftlichen Voraussetzungen. Göttingen 1973.

[15] Brügelmann, H.: Curriculumevaluation – eine Dienstleistung für die Unterrichtspraxis. In Seybold, H. (Hrsg.): Innovation im Unterricht. Curriculumentwicklung und handlungsorientierte Forschung. Ravensburg 1976, S. 75-93.

[16] Heitmeyer, W.: Die Implementation eines politischen Reformcurriculums. Frankfurt und New York 1979.

[17] Vgl. Schluß, Henning: Lehrplanentwicklung in den neuen Ländern. Nachholenden Modernisierung oder Transformation? Schwalbach 2003, S. 22-25.

[18] Vollstädt, Witlof/Tillmann, Klaus-Jürgen/Rauin, Udo/Höhmann, Katrin/Tebrügge, Andrea: Lehrpläne im Schulalltag – Eine empirische Studie zur Akzeptanz und Wirkung von Lehrplänen in der Sek. I. Opladen 1999.

[19] Lütgert/Stephan a.a.O., S. 506.

[20] Vgl. Schumann, Michael et al.: Handbuch zum Wirksamkeitsdialog in der Offenen Kinder- und Jugendarbeit. Qualität sichern, entwickeln und verhandeln. Münster 2000, S. 17.

[21] Vgl. Lütgert/Stephans a.a.O. S. 506, 512.

[22] Für einen historisch geweiteten Blick auf das Problem der Standards vgl. Schneider, Barbara: Bildung, Bildungskanon, Bildungsstandard – eine Problemskizze. In: PR Jg. 59/2005, S. 243-266.

[23] Auf die möglichen Probleme und vergebenen Chancen einer reinen Reduktion auf dies vergleichende „Was“ weist Reinhard Stähling hin (Stähling, Reinhard: Qualitätsentwicklung statt Vergleichsarbeiten. Zu einem unfruchtbaren Verhältnis von Forschung und Schule In: Die Deutsche Schule, Heft 2/2005, S. 211-221). Am schärfsten formuliert ist diese Kritik jedoch bei Ulrich Herrmann, der dem von der KMK gegründeten Institut zur Qualitätsentwicklung im Bildungswesen, vorwirft, dass es nicht um Qualitätsentwicklung, sondern um Leistungskontrolle in den Schulen gehe (vgl. Herrmann, Ulrich: Die nationale Testservice-Agentur IQB. In: Neue Sammlung Heft 2/2005, S. 299-306).

[24] Klieme et al. A.a.O., S. 34.

[25] Ebd. S. 35.

[26] Ein Vorschlag z.B.: Groeben, Annemarie von der et al.: Unsere Standards. In: Neue Sammlung Heft 2/2005, S. 253-298..

[27] Das alltags- und das wissenschaftliche Verfahren liegen hier sehr nahe beieinander. Die wissenschaftliche Mimesis unterscheidet sich von der des alltäglichen Umgangs durch die Explikation ihrer komparativen Methoden (vgl. Schweitzer, Jochen: PISA und die Systemfrage. Für eine tabu- und ideologiefreie Analyse der PISA-Studie. In: Die Deutsche Schule Heft 2/2002, S. 148-156 und Ackeren, Isabell van: Die deutsche Schule braucht eine international vergleichende Erziehungswissenschaft. In: Die Deutsche Schule 1/2005, S. 6-12.

[28] Vgl. Bellmann, Johannes: Ökonomische Dimensionen der Bildungsreform – Unbeabsichtigte Folgen, perverse Effekte, Externalitäten. In: Neue Sammlung Heft 1/2005, S. 15-31. Unter Einsatz von Ressourcen und methodisch versiert kann das Lernen von anderen Schulen dagegen durchaus erfolgreich sein (vgl. Haenisch, Hans: Wenn Schulen von anderen Schulen lernen. Gelingensbedingungen und Wirkungen schulischer Netzwerke. In: Die Deutsche Schule, Heft 3/2003, S. 317-328). Noch zu wenig beachtet ist dabei die Variante des „Benchmarking“, das Indikatoren einer „guten Schule“ erhebt und insofern über kontraproduktive Leistungsvergleichstests, wie sie in England Tradition haben, hinausgeht (vgl. Ofenbach, Birgit: „Best pracices“ im Systemvergleich. In: PR Jg. 59/2005, S. 267-278, S. 270 ff.).

[29] Vgl. Schlömerkemper, Jörg: Bildung und soziale Zukunft. Über die schwierige Differenz zwischen Bildung und Kompetenz. In: Die Deutsche Schule, Heft 3/2004, S. 262-267.

[30] Vgl. Enja Riegels Bericht von den Erlebnissen an ihrer Reformschule und den Problemen mit der Schulaufsicht, die nur deshalb „gelöst“ werden konnten, weil Riegel selbst die Verantwortung übernahm und die Schulaufsichtsbehörden nicht um Erlaubnis fragte, sich damit allerdings z.T. über den rechtsfreien Raum hinaus bewegte (vgl. Riegel, Enja: Schule kann gelingen! Wie unsere Kinder wirklich fürs Leben lernen. Frankfurt/M. 2004).

[31] Vgl. Messner, Rudolf: Was Bildung von Produktion unterscheidet - oder die Spannung von Freiheit und Objektivierung und das Projekt der Bildungsstandards. In: Wolfgang Böttcher/Rudolf Messner: Mit Standards Menschen bilden? Hofgeismarer Vorträge 2004, Bd. 23, S. 19-45.

[32] Gruschka/Herrmann et al. a.a.O., These 5.

[33] Ofenbach a.a.O., S. 271.

[34] Vgl. Vollstädt/Tillmann/et al. a.a.O.

 

Zurück zur Homepage