PISA-Studien

Bildungsstudien der OECD

Die PISA-Studien der OECD sind internationale Schulleistungsuntersuchungen, die seit dem Jahr 2000 in dreijährlichem Turnus in den meisten Mitgliedstaaten der OECD und einer zunehmenden Anzahl von Partnerstaaten durchgeführt werden und die zum Ziel haben, alltags- und berufsrelevante Kenntnisse und Fähigkeiten Fünfzehnjähriger zu messen. Das Akronym PISA wird in den beiden Amtssprachen der OECD unterschiedlich aufgelöst: englisch als Programme for International Student Assessment (‚Programm zur internationalen Schülerbewertung‘) und französisch als Programme international pour le suivi des acquis des élèves (‚Internationales Programm zur Mitverfolgung des von Schülern Erreichten‘).[1]

PISA-Logo

Dieser Artikel behandelt die internationale Studie der OECD. Das Konzept der OECD sieht ausdrücklich die Möglichkeit vor, dass Teilnehmerstaaten den internationalen Test um nationale Komponenten erweitern. Diese Möglichkeit wurde in Deutschland 2000 bis 2018 in unterschiedlichem Ausmaß genutzt:[2]

  • Für den Bundesländervergleich PISA-E wurden zehnmal so viele Schüler getestet wie für den deutschen Beitrag zur internationalen Studie.
  • In PISA-International-Plus wurden einige Schulklassen nach einem Jahr ein zweites Mal getestet, um Lernfortschritte im Laufe des neunten oder zehnten Schuljahrs zu messen.

Außerdem bietet die OECD Erweiterungsmodule an, die nur von einem Teil der Staaten genutzt werden, z. B.:

Die OECD ließ 2011/12 eine weitere Studie umsetzen, die die Kompetenzen von 16- bis 65-Jährigen prüft: die PIAAC, von den Medien als „PISA für Erwachsene“ bezeichnet.

Die folgenden Merkmale unterscheiden PISA zum Teil deutlich von früheren Schulleistungsuntersuchungen:

  • PISA wird im Auftrag der Regierungen durchgeführt (in Deutschland: der Kultusministerkonferenz, in der Schweiz: Bund und Kantone).
  • PISA soll in regelmäßigem Turnus fortgeführt werden.
  • PISA untersucht Schüler einer Altersstufe, nicht einer schulischen Klassenstufe.
  • PISA konzentriert sich nicht auf ein einzelnes Schulfach, sondern untersucht die drei Bereiche Lesekompetenz, mathematische Kompetenz und naturwissenschaftliche Grundbildung. Dieser Bildungsbegriff wird auf Englisch als literacy und numeracy bezeichnet.
  • Aufgaben werden in „persönlich oder kulturell relevante Kontexte“ eingebettet.
  • PISA orientiert sich nicht an der Schnittmenge nationaler Curricula, sondern erhebt den Anspruch, „… über die Messung von Schulwissen hinauszugehen und die Fähigkeit zu erfassen, bereichsspezifisches Wissen und bereichsspezifische Fertigkeiten zur Bewältigung von authentischen Problemen einzusetzen.“[3]
  • Dies soll der Entwicklung von Humankapital dienen, welches die OECD als „das Wissen, die Fähigkeiten, die Kompetenzen, … die relevant sind für persönliches, soziales und ökonomisches Wohlergehen“ (OECD 1999) definiert.

Vertragsmäßige Aufgabe der OECD ist Politikberatung. PISA soll nicht nur eine Beschreibung des Ist-Zustandes liefern, sondern Verbesserungen auslösen. Insoweit PISA ein eigenes Bildungskonzept zugrunde liegt, wird zumindest implizit der Anspruch erhoben, auf die nationalen Lehrpläne zurückzuwirken.

Jede PISA-Studie umfasst die drei Bereiche Lesekompetenz, Mathematik und Naturwissenschaften. Bei jedem Durchgang wird ein Bereich vertieft untersucht: 2000 die Lesekompetenz, 2003 Mathematik, 2006 Naturwissenschaften. Dieser Zyklus wird dreimal (2009/2012/2015, 2018/2021/2024) durchlaufen. Die Ergebnisse werden jeweils im Dezember des Folgejahres veröffentlicht, die technischen Berichte einige Monate später.

Zusätzlich wird in jeder Studie ein Querschnittsthema untersucht: 2000 Lernstrategien und Selbstreguliertes Lernen, 2003 Problemlösung, 2006 Informationstechnologische Grundbildung. Diese Zusatzuntersuchung wird nicht in allen Staaten durchgeführt.

Testaufgaben

Bearbeiten

Nach jeder Testrunde wird ein Teil der Testaufgaben „freigegeben“ und veröffentlicht. Sämtliche freigegebenen Aufgaben finden sich auch online auf den Webseiten der OECD und der nationalen Projektleitungen. Die Testhefte umfassen typischerweise ungefähr zwanzig Aufgabeneinheiten. Jede Aufgabeneinheit besteht aus Einleitungsmaterial und eine bis sieben daran anschließenden Aufgaben.

Die Aufgabeneinheit „Tschadsee“ aus dem Lesetest von PISA 2000[4] zeigt beispielhaft, wie weit das literacy-Konzept von PISA gefasst ist. Die Einleitung dieser Aufgabe enthält keinen Lesetext im herkömmlichen Sinn, sondern besteht in der Hauptsache aus zwei Diagrammen („nicht-textuelles Lesematerial“), die die Schwankungen des Wasserstands in den letzten 12.000 Jahren und das Verschwinden und Auftauchen von Großtierarten darstellen. Daran schließen sich fünf Aufgaben an. Beispielhaft:

  • Frage 1: „Wie tief ist der Tschadsee heute?“ (Multiple Choice, fünf Optionen)
  • Frage 2: „In welchem Jahr ungefähr startet der Graph in Abbildung A?“ (freier Text)
  • Frage 3: „Warum hat der Autor dieses Jahr als Anfang des Graphen gewählt?“ (freier Text)

Die Fragen 4 und 5 sind dann wieder im Multiple-Choice-Format.

Durchführung und Auswertung

Bearbeiten
 
PISA-Testdokumente

PISA ist eines von mehreren Projekten, mit denen sich die OECD seit den 1990er Jahren verstärkt im Bereich Bildungsmonitoring engagiert. Die Koordination und die Endredaktion der internationalen Berichte obliegen einer kleinen Arbeitsgruppe am Hauptsitz der OECD in Paris unter Leitung des Deutschen Andreas Schleicher. Politisch wird das Projekt von einem Rat aus Regierungsvertretern gesteuert; wissenschaftlich wird es von einem Expertengremium nebst Unterausschüssen begleitet. Die Erstellung und Auswertung der Testaufgaben wurde ausgeschrieben und an ein Konsortium aus mehreren Unternehmen der Testindustrie unter Leitung des Australian Council for Educational Research (ACER) vergeben.

In den Teilnehmerstaaten wurden nationale Projektzentren eingerichtet.[5] In jedem Staat werden Stichproben von mindestens 5000 Schülern gezogen; in manchen Staaten, vor allem um Regionalvergleiche zu ermöglichen, ein Vielfaches davon.

Der Test umfasst eine zweistündige „kognitive“ Testsitzung, gefolgt von einer knapp einstündigen Fragebogensitzung („Questionnaire“). Im kognitiven Test bearbeiten nicht alle Schüler dieselben Aufgaben; 2003 wurden dreizehn verschiedene Testhefte (sowie in manchen Ländern in Sonderschulen ein Kurzheft) eingesetzt; von insgesamt 165 verschiedenen Aufgaben hatte jeder einzelne Schüler nur etwa 50 zu bearbeiten.

Die Schülerlösungen werden von angelernten Hilfskräften kodiert, digital erfasst und ans internationale Projektzentrum nach Australien zur weiteren Auswertung übermittelt. Die meisten Aufgaben werden letztlich nur als entweder „falsch“ oder „richtig“ bewertet. Je nachdem, wie viele Schüler eine Aufgabe richtig gelöst haben, wird der Aufgabe ein bestimmter „Schwierigkeitswert“ zugeordnet. Je nachdem, wie viele Aufgaben ein Schüler gelöst hat, wird dem Schüler eine bestimmte Spanne „plausibler“ „Kompetenzwerte“ zugeordnet. Schwierigkeits- und Kompetenzwerteskala werden nachträglich so skaliert, dass die Kompetenzwerte im OECD-Staatenmittel den Mittelwert 500 und die Standardabweichung 100 haben. Um auszugleichen, dass die Testhefte unterschiedlich schwierig waren und dass einzelne Aufgaben in einzelnen Staaten, zum Beispiel wegen Druckfehlern, nicht gewertet werden konnten, wird die gesamte „Skalierung“ der Schwierigkeits- und Kompetenzwerte unter Zuhilfenahme eines komplexen mathematischen Modells des Schülerantwortverhaltens, der sogenannten Item-Response-Theorie berechnet.

Die Aufgabenschwierigkeitswerte erlauben ansatzweise eine „didaktische“ Interpretation der Testergebnisse: Wenn ein Schüler beispielsweise 530 Kompetenzpunkte erzielt hat, dann kann er mit 62-prozentiger Wahrscheinlichkeit (die Zahl 62 Prozent ist willkürlich festgelegt worden) eine Aufgabe der Schwierigkeit 530 lösen. Wenn man sich nun veröffentlichte Aufgabenbeispiele anschaut, deren Schwierigkeitswert in der Nähe von 530 liegt, dann bekommt man einen Eindruck, was ein Kompetenzwert von 530 bedeutet. Allerdings muss man dabei beachten, dass der Test unter erheblichem Zeitdruck stattfindet (knapp über zwei Minuten pro Aufgabe).

Fast alle weiterführenden Auswertungen beruhen darauf, dass die statistische Verteilung der Schülerkompetenzwerte in den Teilnehmerstaaten oder feiner aufgeschlüsselten Populationen untersucht wird.

Quantitative Ergebnisse

Bearbeiten

PISA misst Schülerleistung in Punkten auf einer willkürlichen Skala. Interpretierbar werden die Punktwerte erst, wenn sie in einen Kontext gesetzt werden. Das geschieht regelmäßig durch den Vergleich zwischen verschiedenen Ländern. Die Berichte der OECD und ihrer Projektpartner bestehen dementsprechend zu einem erheblichen Teil aus Länder-Ranglisten.

Entwicklung der Leistungen

Bearbeiten

Die elementarste und meistbeachtete Statistik fasst die Schülerleistungen zu Mittelwerten zusammen. In der folgenden Tabelle sind die bisherigen Ergebnisse der mehrheitlich deutschsprachigen Staaten, einiger weiterer OECD-Staaten und der Durchschnitt der Ergebnisse der OECD-Staaten zusammengefasst.

Mittelwerte der Ergebnisse
Land Lesekompetenz
2000[6] 2003[7] 2006[8] 2009[9] 2012[10] 2015[11] 2018[12] 2022[13]
Deutschland  Deutschland 484 491 495 497 508 509 498 480
Osterreich  Österreich 507 491 490 470 490 485 484 480
Schweiz  Schweiz 494 499 499 501 509 492 484 483
Frankreich  Frankreich 505 496 488 496 505 499 493 474
Vereinigtes Konigreich  Vereinigtes Königreich 523 495 494 499 498 504 494
Italien  Italien 487 476 469 486 490 485 476 482
Spanien  Spanien 493 481 461 481 488 496 474
Polen  Polen 479 497 508 500 518 506 512 489
Niederlande  Niederlande 513 507 508 511 503 485 459
Schweden  Schweden 516 514 507 497 483 500 506 487
Finnland  Finnland 546 543 547 536 524 526 520 490
Turkei  Türkei 441 447 464 475 428 466 456
Vereinigte Staaten  Vereinigte Staaten 504 495 500 498 497 505 504
Kanada  Kanada 534 528 527 524 523 527 520 507
Mexiko  Mexiko 422 400 410 425 424 423 420 415
Japan  Japan 522 498 498 520 538 516 504 516
Korea Sud  Südkorea 525 534 556 539 536 517 514 515
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 500 494 493 496 493 487 476
Mittelwerte der Ergebnisse
Land Mathematik
2000[6] 2003[7] 2006[8] 2009[9] 2012[10] 2015[11] 2018[12] 2022[13]
Deutschland  Deutschland 490 503 504 513 514 506 500 475
Osterreich  Österreich 515 506 505 496 506 497 499 487
Schweiz  Schweiz 529 527 530 534 531 521 515 508
Frankreich  Frankreich 517 511 496 497 495 493 495 474
Vereinigtes Konigreich  Vereinigtes Königreich 529 495 492 494 492 502 489
Italien  Italien 457 466 462 483 485 490 487 471
Spanien  Spanien 476 485 480 483 484 486 481 473
Polen  Polen 470 490 495 495 518 504 516 489
Niederlande  Niederlande 538 531 526 523 512 519 493
Schweden  Schweden 510 509 502 494 478 494 502 482
Finnland  Finnland 536 544 548 541 519 511 507 484
Turkei  Türkei 423 424 445 448 420 454 453
Vereinigte Staaten  Vereinigte Staaten 493 483 474 487 481 470 478 465
Kanada  Kanada 533 532 527 527 518 516 512 497
Mexiko  Mexiko 387 385 406 419 413 408 409 395
Japan  Japan 557 534 523 529 536 532 527 536
Korea Sud  Südkorea 547 542 547 546 554 524 526 527
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 500 500 496 494 490 489 472
Mittelwerte der Ergebnisse
Land Naturwissenschaften
2000[6] 2003[7] 2006[8] 2009[9] 2012[10] 2015[11] 2018[12] 2022[13]
Deutschland  Deutschland 487 502 516 520 524 509 503 492
Osterreich  Österreich 519 491 511 494 506 495 490 491
Schweiz  Schweiz 496 513 512 517 515 506 495 503
Frankreich  Frankreich 500 511 495 498 499 495 493 487
Vereinigtes Konigreich  Vereinigtes Königreich 532 515 514 514 509 505 500
Italien  Italien 478 486 475 489 494 481 468 477
Spanien  Spanien 491 487 488 488 496 493 483 485
Polen  Polen 483 498 498 508 526 501 511 499
Niederlande  Niederlande 524 525 522 522 509 503 488
Schweden  Schweden 512 506 503 495 485 493 499 494
Finnland  Finnland 538 548 563 554 545 531 522 511
Turkei  Türkei 434 424 454 463 425 468 476
Vereinigte Staaten  Vereinigte Staaten 499 491 489 502 497 496 502 499
Kanada  Kanada 529 519 534 529 525 528 518 515
Mexiko  Mexiko 422 405 410 416 415 416 419 410
Japan  Japan 550 548 531 539 547 538 529 547
Korea Sud  Südkorea 552 538 522 538 538 516 519 528
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 500 500 501 501 493 489 485

Shanghai (China) belegt den ersten Platz in allen Fächern der Jahre 2009 und 2012. Im Jahr 2015 belegte Singapur den ersten Platz. Neben Finnland, Japan und Kanada befinden sich auch Südkorea, Neuseeland, Australien und das nicht zur OECD gehörige Territorium Hongkong regelmäßig in der Spitzengruppe. Vor der Türkei und Mexiko befinden sich am Tabellenende neben Italien regelmäßig Portugal, Griechenland und Luxemburg.

Bei einer Aufschlüsselung nach Sprachgruppen fällt auf:

  • In Belgien sind die Leistungen im niederländischsprachigen Landesteil wesentlich besser als im französischsprachigen. Sie liegen oft noch über den niederländischen Ergebnissen im internationalen Spitzenfeld.
  • In der Schweiz sind die Unterschiede zwischen der deutschen und französischen Sprachgruppe eher gering. Die italienischsprachige Schweiz liegt etwas zurück.
  • Die Ergebnisse aus Südtirol sind beachtlich und liegen durchweg in der internationalen Spitzengruppe. Dabei haben die Schulen mit deutscher Unterrichtssprache leicht besser abgeschnitten als die italienischen.
  • In Finnland schneidet die etwa fünfprozentige schwedischsprachige Minderheit um 10 bis 35 Punkte schlechter ab als die finnischsprachige Mehrheit.
  • In Kanada schneidet die englischsprachige Mehrheit merklich besser ab als die französischsprachige Minderheit.

Die Ergebnisse aus Liechtenstein haben erhöhte Fehlerbalken, weil dort kaum mehr als 350 Fünfzehnjährige wohnen. Immerhin entfallen die diversen Probleme der Stichprobenziehung, denn es wurde, wie auch in Luxemburg, ein Kompletttest aller Schüler durchgeführt. Außerdem ist Liechtenstein das einzige Land, welches nicht von nationalen Organisationen getestet wird, sondern von der Pädagogischen Hochschule St. Gallen aus der benachbarten Schweiz.

Zu den starken Unterschieden zwischen den deutschen Bundesländern siehe PISA-E.

Die Korrelation mit den TIMSS-Studien, die in einigen Staaten parallel zu PISA fortgeführt werden, ist mäßig, was offiziell mit unterschiedlichen Inhalten und mit Normierungseffekten aufgrund unterschiedlicher Teilnehmerschaft erklärt wird.

Kompetenzstufen und Risikogruppen

Bearbeiten

Um den zahlenmäßigen Ergebnissen eine anschauliche Bedeutung zu geben, teilt das Konsortium die Punkteskala willkürlich in sechs »Kompetenzstufen« und eine darunter liegende Stufe absoluter Inkompetenz. Anhand der Aufgaben, die auf einer Stufe zu lösen sind, wird dann eine verbale Beschreibung dessen, was Schüler auf einer bestimmten Stufe typischerweise können, erarbeitet. Zu beachten ist dabei, dass der Anteil der Schüler auf einer bestimmten Stufe im OECD-Mittel konstant, weil durch die Konstruktion der Schwierigkeits- und Leistungsskalen festgelegt ist. Interpretierbar sind lediglich die zumeist geringen Unterschiede zwischen Staaten.

Schüler „unterhalb“ der Stufe 1 werden international als „at risk“ bezeichnet. Die deutsche Projektleitung hat den Begriff „Risikogruppe“ jedoch ausgedehnt und die Stufe 1 darin einbezogen. Das wurde in Teilen der Öffentlichkeit verkürzt und im Gegensatz zu Aussagen der internationalen Berichte so rezipiert, als sei ein knappes Viertel aller Fünfzehnjährigen nicht in der Lage, zu rechnen und sinnerfassend zu lesen.

Einfluss des sozialen Hintergrunds

Bearbeiten

Im Anschluss an die zweistündige Testsitzung zur Messung kognitiver Leistungen bearbeiten die Schüler einen Fragebogen mit Fragen zum familiären Hintergrund, zum schulischen Umfeld, zu Lerngewohnheiten und ähnlichem. In den offiziellen Ergebnisberichten und in zahlreichen Sekundärstudien wird dargestellt, wie sich diese Kontextvariablen auf die kognitive Testleistung auswirken.

In PISA 2000 wurde festgestellt, dass der Zusammenhang zwischen Testergebnis und elterlichem Beruf in Deutschland so stark ist wie nirgendwo sonst. 2003 wurde der diesbezüglich stärkste Zusammenhang in Ungarn gefunden, 2006 in der Tschechischen Republik. Die deutschen Kennwerte (Quantildifferenzen, Gradienten und Korrelationskoeffizienten der Testleistung als Funktion einer Berufsklassifikation oder eines sozial-ökonomisch-kulturellen Indexes) lagen überwiegend im oberen Teil eines breiten Mittelfeldes; die Abweichungen vom OECD-Durchschnitt waren teilweise statistisch insignifikant.

Diesen Auswertungen liegen unterschiedliche Sozialindizes zugrunde, die zum Teil nur den Beruf der Eltern, zum Teil auch deren Bildungsabschlüsse und die Ausstattung des Haushalts mit kulturellen Besitztümern berücksichtigen. Zwischen dem deutschen Konsortium und der internationalen Projektleitung besteht Dissens über die sachgerechte Quantifizierung von sozialem Hintergrund; im deutschen Bericht zu PISA 2006 wird durchgehend ein anderer Index verwendet als im internationalen Bericht.

Ein weiteres Beispiel bei der Dateninterpretation besteht darin, dass sozialer Status und Einwanderungshintergrund stark miteinander korreliert sind. Die Daten alleine sagen nicht, inwieweit schwache Leistungen von Migrantenkindern ihrer unterdurchschnittlichen sozialen Lage oder zum Beispiel ihrer ungenügenden sprachlichen Integration zuzuschreiben sind.

In Deutschland ist überraschend, dass Einwanderer der ersten Generation (454 Punkte, Mathematikleistung 2003) im Schnitt besser abschneiden als im Land geborene Kinder zugewanderter Eltern (2. Generation, 432 Punkte); Schüler ohne Migrationshintergrund: 525 (OECD-weite Vergleichszahlen in derselben Reihenfolge: 475, 483, 523). Daraus wurde teilweise geschlossen, Kinder der zweiten Generation zeigten in Deutschland generell schlechtere Leistungen als Kinder der ersten Generation. Die weitere Aufschlüsselung hat dieses paradoxe Ergebnis jedoch damit erklärt, dass die Anteile der wichtigsten Herkunftsländer innerhalb der Kinder der ersten und der zweiten Generation deutlich unterschiedlich sind (z. B. größerer Anteil Jugendlicher aus der Türkei innerhalb der 2. Generation; vgl. die Erläuterungen zu Schülern mit Migrationshintergrund). Beim selben Herkunftsland sind die Ergebnisse der zweiten Generation durchweg besser als die der ersten.

Ein quantitativ bedeutsames Problem stellen die schwachen Leistungen türkischer Jugendlicher dar (Mathematikleistung 2003: erste Generation 382, zweite Generation 411). Erstaunlicherweise schnitten Schüler mit Migrationshintergrund bei sprachlastigen Aufgaben etwas besser ab als bei relativ sprachfreien; die Gründe dafür sind ungeklärt.[14]

Bei den PISA-Studien 2018 und 2022 waren die durchschnittlichen Testergebnisse der ersten Einwanderergeneration in Deutschland deutlich schlechter als die der zweiten Einwanderergeneration. Die durchschnittlichen Testergebnisse der zweiten Einwanderergeneration waren wiederum deutlich schlechter als die der anderen (einheimischen) Schüler („Non-immigrant students“). Diesen negativen Effekt gibt es in vielen Teilnehmerstaaten. In Deutschland und Österreich ist er besonders gravierend.

In wenigen Ländern, zum Beispiel Australien und Kanada, waren die Ergebnisse der zweiten Einwanderergeneration besser als die der einheimischen Schüler.

Für einige Länder mit wenig Zuwanderung, darunter Japan, Südkorea und Taiwan, wurden keine genauen Statistiken über Schüler mit ausländischen Vorfahren veröffentlicht. In diesen Ländern unterscheiden sich die Testergebnisse der einheimischen Schüler kaum von den durchschnittlichen Gesamtergebnissen.[15][16]

Übersicht für ausgewählte Länder

Bearbeiten
PISA-Studie 2022[16]
Land Mathematik
Gesamt Einheimische Zweite Einwanderergeneration Erste Einwanderergeneration
Deutschland  Deutschland 475 495 (+20) 457 (−18) 398 (−77)
Osterreich  Österreich 487 505 (+18) 451 (−36) 439 (−48)
Schweiz  Schweiz 508 528 (+20) 477 (−31) 472 (−36)
Frankreich  Frankreich 474 485 (+11) 438 (−36) 425 (−49)
Vereinigtes Konigreich  Vereinigtes Königreich 489 494 (+5) 507 (+18) 483 (−6)
Italien  Italien 471 476 (+5) 453 (−18) 430 (−41)
Spanien  Spanien 473 481 (+8) 459 (−14) 433 (−40)
Vereinigte Staaten  Vereinigte Staaten 465 470 (+5) 466 (+1) 441 (−24)
Kanada  Kanada 497 497 (+0) 517 (+20) 499 (+2)
Australien  Australien 487 483 (−4) 509 (+22) 506 (+19)
Japan  Japan 536 537 (+1)
Korea Sud  Südkorea 527 529 (+2)
Taiwan  Taiwan 547 549 (+2)
PISA-Studie 2018[15]
Land Lesekompetenz
Gesamt Einheimische Zweite Einwanderergeneration Erste Einwanderergeneration
Deutschland  Deutschland 498 519 (+21) 477 (−21) 405 (−93)
Osterreich  Österreich 484 500 (+16) 446 (−38) 421 (−63)
Schweiz  Schweiz 484 503 (+19) 453 (−31) 448 (−36)
Frankreich  Frankreich 493 502 (+9) 461 (−32) 425 (−68)
Vereinigtes Konigreich  Vereinigtes Königreich 504 511 (+7) 493 (−11) 488 (−16)
Italien  Italien 476 482 (+6) 445 (−31) 433 (−43)
Vereinigte Staaten  Vereinigte Staaten 505 510 (+5) 512 (+7) 479 (−26)
Kanada  Kanada 520 525 (+5) 535 (+15) 508 (−12)
Australien  Australien 503 504 (+1) 523 (+20) 501 (−2)
Korea Sud  Südkorea 514 515 (+1)
Taiwan  Taiwan 503 504 (+1)

Geschlechtsspezifische Leistungsdivergenzen

Bearbeiten

Die Ergebnisse aus PISA 2003 zeigen einen erheblichen Leistungsvorsprung der Mädchen im Lesen (34 Punkte international, 42 Punkte in Deutschland). Vierfach geringer ist der Vorsprung der Jungen in Mathematik (11 Punkte international, 9 Punkte in Deutschland). Im Problemlösen liegen Mädchen vorne (2 Punkte international, 6 Punkte in Deutschland), wobei diese Differenz nicht signifikant ist. In den Naturwissenschaften wurde ebenfalls kein signifikanter Geschlechterunterschied gefunden (international liegen Jungen vorne mit 6 Punkten, 6 Punkte in Deutschland).[17] Wuttke (2007) versucht nachzuweisen, dass dieses Ergebnis allein an der Mischung von Aufgaben aus verschiedensten Gebieten liege; in Übereinstimmung mit nationalen, lehrplannäheren Tests findet sie die Alltagsbeobachtung bestätigt, dass im Mittel Jungen in Physik, Mädchen in Biologie höhere Leistungen erzielten.

PISA 2009 hat gezeigt, dass die Kompetenzunterschiede zwischen Mädchen und Jungen seit PISA 2000 in Deutschland praktisch unverändert geblieben sind.[18] Der OECD-Bericht Equally prepared for life? How 15 year-old boys and girls perform in school untersucht geschlechtsspezifische Leistungsunterschiede und stützt sich dabei primär auf die Ergebnisse aus PISA 2009 (sowie auf die IGLU- und TIMSS-Studien). Die Forscher kommen zu dem Schluss, dass geschlechtsbezogene Vorurteile („Rollenmodelle“ und „Stereotype“ in der Sprache von PISA) die Bildungsergebnisse von Mädchen beeinflussen. Mädchen hätten eine geringere Selbsteinschätzung in Bezug auf mathematische Kompetenzen, weil Stereotype und falsche Rollenmodelle dieses forcierten, deshalb erbrächten sie schlechtere Leistungen – und nicht etwa umgekehrt. Auch die Entscheidung über den weiteren Bildungsweg und Beruf werde im Falle der Mädchen v. a. durch gesellschaftliche Entwicklungen und weniger durch die Mädchen und jungen Frauen selbst beeinflusst. Die stärker vorhandenen diagnostizierten Sprachschwächen unter Jungen werden da, wo sie überhaupt thematisiert werden, v. a. durch deren pädagogikinkompatibles Verhalten erklärt, Jungen passten weniger in eine feminisierte Lernumwelt wie Schule und lehnten als „unmännlich“ bewertete Tätigkeiten wie Lesen eher ab.[19]

Ergebnisse der PISA-Studie 2022

Bearbeiten

Die Ergebnisse der PISA-Studie 2022 wurden am 5. Dezember 2023 präsentiert. Insgesamt wurden fast 700.000 Schüler aus 81 Ländern getestet. In vielen Ländern gab es einen deutlichen Rückgang der Leistungen im Vergleich zur PISA-Studie 2018, vor allem auch in Deutschland.[20][21]

Ergebnisse der PISA-Studie 2022[16][22][23]
Lesekompetenz Mathematik Naturwissenschaften
1 Singapur  Singapur 543
2 Irland  Irland 516
2 Japan  Japan 516
4 Korea Sud  Südkorea 515
4 Taiwan  Taiwan 515
6 Estland  Estland 511
7 Macau  Macau 510
8 Kanada  Kanada 507
9 Vereinigte Staaten  Vereinigte Staaten 504
10 Neuseeland  Neuseeland 501
11 Hongkong  Hongkong 500
12 Australien  Australien 498
13 Vereinigtes Konigreich  Vereinigtes Königreich 494
14 Finnland  Finnland 490
15 Danemark  Dänemark 489
15 Polen  Polen 489
15 Tschechien  Tschechien 489
18 Schweden  Schweden 487
19 Schweiz  Schweiz 483
20 Italien  Italien 482
21 Osterreich  Österreich 480
21 Deutschland  Deutschland 480
23 Belgien  Belgien 479
24 Portugal  Portugal 477
24 Norwegen  Norwegen 477
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 476
26 Kroatien  Kroatien 475
26 Lettland  Lettland 475
28 Spanien  Spanien 474
28 Frankreich  Frankreich 474
28 Israel  Israel 474
31 Ungarn  Ungarn 473
32 Litauen  Litauen 472
33 Slowenien  Slowenien 469
34 Vietnam  Vietnam 462
35 Niederlande  Niederlande 459
36 Turkei  Türkei 456
37 Chile  Chile 448
38 Slowakei  Slowakei 447
39 Malta  Malta 445
40 Serbien  Serbien 440
41 Griechenland  Griechenland 438
42 Island  Island 436
43 Uruguay  Uruguay 430
44 Brunei  Brunei 429
45 Rumänien  Rumänien 428
45 Ukraine  Ukraine 428
47 Katar  Katar 419
48 Vereinigte Arabische Emirate  Vereinigte Arabische Emirate 417
49 Mexiko  Mexiko 415
49 Costa Rica  Costa Rica 415
51 Moldau Republik  Moldau 411
52 Brasilien  Brasilien 410
52 Jamaika  Jamaika 410
54 Kolumbien  Kolumbien 409
55 Peru  Peru 408
56 Montenegro  Montenegro 405
57 Bulgarien  Bulgarien 404
58 Argentinien  Argentinien 401
59 Panama  Panama 392
60 Malaysia  Malaysia 388
61 Kasachstan  Kasachstan 386
62 Saudi-Arabien  Saudi-Arabien 383
63 Zypern Republik  Zypern 381
64 Thailand  Thailand 379
65 Mongolei  Mongolei 378
66 Guatemala  Guatemala 374
66 Georgien  Georgien 374
68 Paraguay  Paraguay 373
69 Baku (Aserbaidschan  Aserbaidschan) 365
69 El Salvador  El Salvador 365
71 Indonesien  Indonesien 359
71 Nordmazedonien  Nordmazedonien 359
73 Albanien  Albanien 358
74 Dominikanische Republik  Dominikanische Republik 351
75 Palastina Autonomiegebiete  Palästina 349
76 Philippinen  Philippinen 347
77 Kosovo  Kosovo 342
77 Jordanien  Jordanien 342
79 Marokko  Marokko 339
80 Usbekistan  Usbekistan 336
81 Kambodscha  Kambodscha 329
1 Singapur  Singapur 575
2 Macau  Macau 552
3 Taiwan  Taiwan 547
4 Hongkong  Hongkong 540
5 Japan  Japan 536
6 Korea Sud  Südkorea 527
7 Estland  Estland 510
8 Schweiz  Schweiz 508
9 Kanada  Kanada 497
10 Niederlande  Niederlande 493
11 Irland  Irland 492
12 Belgien  Belgien 489
12 Danemark  Dänemark 489
12 Vereinigtes Konigreich  Vereinigtes Königreich 489
12 Polen  Polen 489
16 Osterreich  Österreich 487
16 Australien  Australien 487
16 Tschechien  Tschechien 487
19 Slowenien  Slowenien 485
20 Finnland  Finnland 484
21 Lettland  Lettland 483
22 Schweden  Schweden 482
23 Neuseeland  Neuseeland 479
24 Litauen  Litauen 475
24 Deutschland  Deutschland 475
26 Frankreich  Frankreich 474
27 Spanien  Spanien 473
27 Ungarn  Ungarn 473
29 Portugal  Portugal 472
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 472
30 Italien  Italien 471
31 Vietnam  Vietnam 469
32 Norwegen  Norwegen 468
33 Malta  Malta 466
34 Vereinigte Staaten  Vereinigte Staaten 465
35 Slowakei  Slowakei 464
36 Kroatien  Kroatien 463
37 Island  Island 459
38 Israel  Israel 458
39 Turkei  Türkei 453
40 Brunei  Brunei 442
41 Ukraine  Ukraine 441
42 Serbien  Serbien 440
43 Vereinigte Arabische Emirate  Vereinigte Arabische Emirate 431
44 Griechenland  Griechenland 430
45 Rumänien  Rumänien 428
46 Kasachstan  Kasachstan 425
46 Mongolei  Mongolei 425
48 Zypern Republik  Zypern 418
49 Bulgarien  Bulgarien 417
50 Moldau Republik  Moldau 414
50 Katar  Katar 414
52 Chile  Chile 412
53 Uruguay  Uruguay 409
53 Malaysia  Malaysia 409
55 Montenegro  Montenegro 406
56 Baku (Aserbaidschan  Aserbaidschan) 397
57 Mexiko  Mexiko 395
58 Thailand  Thailand 394
59 Peru  Peru 391
60 Georgien  Georgien 390
61 Saudi-Arabien  Saudi-Arabien 389
61 Nordmazedonien  Nordmazedonien 389
63 Costa Rica  Costa Rica 385
64 Kolumbien  Kolumbien 383
65 Brasilien  Brasilien 379
66 Argentinien  Argentinien 378
67 Jamaika  Jamaika 377
68 Albanien  Albanien 368
69 Palastina Autonomiegebiete  Palästina 366
69 Indonesien  Indonesien 366
71 Marokko  Marokko 365
72 Usbekistan  Usbekistan 364
73 Jordanien  Jordanien 361
74 Panama  Panama 357
75 Kosovo  Kosovo 355
75 Philippinen  Philippinen 355
77 Guatemala  Guatemala 344
78 El Salvador  El Salvador 343
79 Dominikanische Republik  Dominikanische Republik 339
80 Paraguay  Paraguay 338
81 Kambodscha  Kambodscha 336
1 Singapur  Singapur 561
2 Japan  Japan 547
3 Macau  Macau 543
4 Taiwan  Taiwan 537
5 Korea Sud  Südkorea 528
6 Estland  Estland 526
7 Hongkong  Hongkong 520
8 Kanada  Kanada 515
9 Finnland  Finnland 511
10 Australien  Australien 507
11 Neuseeland  Neuseeland 504
11 Irland  Irland 504
13 Schweiz  Schweiz 503
14 Slowenien  Slowenien 500
14 Vereinigtes Konigreich  Vereinigtes Königreich 500
16 Vereinigte Staaten  Vereinigte Staaten 499
16 Polen  Polen 499
18 Tschechien  Tschechien 498
19 Lettland  Lettland 494
19 Danemark  Dänemark 494
19 Schweden  Schweden 494
22 Deutschland  Deutschland 492
23 Osterreich  Österreich 491
23 Belgien  Belgien 491
25 Niederlande  Niederlande 488
26 Frankreich  Frankreich 487
27 Ungarn  Ungarn 486
28 Spanien  Spanien 485
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 485
29 Litauen  Litauen 484
29 Portugal  Portugal 484
31 Kroatien  Kroatien 483
32 Norwegen  Norwegen 478
33 Italien  Italien 477
34 Turkei  Türkei 476
35 Vietnam  Vietnam 472
36 Malta  Malta 466
37 Israel  Israel 465
38 Slowakei  Slowakei 462
39 Ukraine  Ukraine 450
40 Serbien  Serbien 447
40 Island  Island 447
42 Brunei  Brunei 446
43 Chile  Chile 444
44 Griechenland  Griechenland 441
45 Uruguay  Uruguay 435
46 Katar  Katar 432
46 Vereinigte Arabische Emirate  Vereinigte Arabische Emirate 432
48 Rumänien  Rumänien 428
49 Kasachstan  Kasachstan 423
50 Bulgarien  Bulgarien 421
51 Moldau Republik  Moldau 417
52 Malaysia  Malaysia 416
53 Mongolei  Mongolei 412
54 Kolumbien  Kolumbien 411
54 Costa Rica  Costa Rica 411
54 Zypern Republik  Zypern 411
57 Mexiko  Mexiko 410
58 Thailand  Thailand 409
59 Peru  Peru 408
60 Argentinien  Argentinien 406
61 Montenegro  Montenegro 403
61 Brasilien  Brasilien 403
61 Jamaika  Jamaika 403
64 Saudi-Arabien  Saudi-Arabien 390
65 Panama  Panama 388
66 Georgien  Georgien 384
67 Indonesien  Indonesien 383
68 Baku (Aserbaidschan  Aserbaidschan) 380
68 Nordmazedonien  Nordmazedonien 380
70 Albanien  Albanien 376
71 Jordanien  Jordanien 375
72 El Salvador  El Salvador 373
72 Guatemala  Guatemala 373
74 Palastina Autonomiegebiete  Palästina 369
75 Paraguay  Paraguay 368
76 Marokko  Marokko 365
77 Dominikanische Republik  Dominikanische Republik 360
78 Kosovo  Kosovo 357
79 Philippinen  Philippinen 356
80 Usbekistan  Usbekistan 355
81 Kambodscha  Kambodscha 347

Ergebnisse der PISA-Studie 2018

Bearbeiten

Die Ergebnisse der PISA-Studie 2018 wurden am 3. Dezember 2019 präsentiert. Insgesamt wurden etwa 600.000 Schüler aus 79 Ländern getestet.[24]

Ergebnisse der PISA-Studie 2018[15][25][26]
Lesekompetenz Mathematik Naturwissenschaften
1 B-S-J-Z* (China Volksrepublik  Volksrepublik China) 555
2 Singapur  Singapur 549
3 Macau  Macau 525
4 Hongkong  Hongkong 524
5 Estland  Estland 523
6 Kanada  Kanada 520
7 Finnland  Finnland 520
8 Irland  Irland 518
9 Korea Sud  Südkorea 514
10 Polen  Polen 512
11 Neuseeland  Neuseeland 506
11 Schweden  Schweden 506
13 Vereinigte Staaten  Vereinigte Staaten 505
13 Vietnam  Vietnam 505
15 Japan  Japan 504
15 Vereinigtes Konigreich  Vereinigtes Königreich 504
17 Australien  Australien 503
17 Taiwan  Taiwan 503
19 Danemark  Dänemark 501
20 Norwegen  Norwegen 499
21 Deutschland  Deutschland 498
22 Slowenien  Slowenien 495
23 Belgien  Belgien 493
23 Frankreich  Frankreich 493
25 Portugal  Portugal 492
26 Tschechien  Tschechien 490
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 487
27 Niederlande  Niederlande 485
28 Osterreich  Österreich 484
28 Schweiz  Schweiz 484
30 Lettland  Lettland 479
30 Kroatien  Kroatien 479
30 Russland  Russland 479
33 Ungarn  Ungarn 476
33 Italien  Italien 476
33 Litauen  Litauen 476
36 Belarus  Belarus 474
36 Island  Island 474
38 Israel  Israel 470
38 Luxemburg  Luxemburg 470
40 Turkei  Türkei 466
40 Ukraine  Ukraine 466
42 Slowakei  Slowakei 458
43 Griechenland  Griechenland 457
44 Chile  Chile 452
45 Malta  Malta 448
46 Serbien  Serbien 439
47 Vereinigte Arabische Emirate  Vereinigte Arabische Emirate 432
48 Rumänien  Rumänien 428
49 Uruguay  Uruguay 427
50 Costa Rica  Costa Rica 426
51 Zypern Republik  Zypern 424
51 Moldau Republik  Moldau 424
53 Montenegro  Montenegro 421
54 Mexiko  Mexiko 420
54 Bulgarien  Bulgarien 420
56 Jordanien  Jordanien 419
57 Malaysia  Malaysia 415
58 Brasilien  Brasilien 413
59 Kolumbien  Kolumbien 412
60 Brunei  Brunei 408
61 Katar  Katar 407
62 Albanien  Albanien 405
63 Bosnien und Herzegowina  Bosnien und Herzegowina 403
64 Argentinien  Argentinien 402
65 Peru  Peru 401
66 Saudi-Arabien  Saudi-Arabien 399
67 Nordmazedonien  Nordmazedonien 393
67 Thailand  Thailand 393
69 Aserbaidschan  Aserbaidschan 389
70 Kasachstan  Kasachstan 387
71 Georgien  Georgien 380
72 Panama  Panama 377
73 Indonesien  Indonesien 371
74 Marokko  Marokko 359
75 Kosovo  Kosovo 353
75 Libanon  Libanon 353
77 Dominikanische Republik  Dominikanische Republik 342
78 Philippinen  Philippinen 340
1 B-S-J-Z* (China Volksrepublik  Volksrepublik China) 591
2 Singapur  Singapur 569
3 Macau  Macau 558
4 Hongkong  Hongkong 551
5 Taiwan  Taiwan 531
6 Japan  Japan 527
7 Korea Sud  Südkorea 526
8 Estland  Estland 523
9 Niederlande  Niederlande 519
10 Polen  Polen 516
11 Schweiz  Schweiz 515
12 Kanada  Kanada 512
13 Danemark  Dänemark 509
14 Slowenien  Slowenien 509
15 Belgien  Belgien 508
16 Finnland  Finnland 507
17 Schweden  Schweden 502
17 Vereinigtes Konigreich  Vereinigtes Königreich 502
19 Norwegen  Norwegen 501
20 Deutschland  Deutschland 500
20 Irland  Irland 500
22 Tschechien  Tschechien 499
22 Osterreich  Österreich 499
24 Lettland  Lettland 496
24 Vietnam  Vietnam 496
26 Frankreich  Frankreich 495
26 Island  Island 495
28 Neuseeland  Neuseeland 494
29 Portugal  Portugal 492
30 Australien  Australien 491
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 489
31 Russland  Russland 488
32 Italien  Italien 487
33 Slowakei  Slowakei 486
34 Luxemburg  Luxemburg 483
35 Litauen  Litauen 481
35 Spanien  Spanien 481
35 Ungarn  Ungarn 481
38 Vereinigte Staaten  Vereinigte Staaten 478
39 Belarus  Belarus 472
39 Malta  Malta 472
41 Kroatien  Kroatien 464
42 Israel  Israel 463
43 Turkei  Türkei 454
44 Ukraine  Ukraine 453
45 Zypern Republik  Zypern 451
45 Griechenland  Griechenland 451
47 Serbien  Serbien 448
48 Malaysia  Malaysia 440
49 Albanien  Albanien 437
50 Bulgarien  Bulgarien 436
51 Vereinigte Arabische Emirate  Vereinigte Arabische Emirate 435
52 Brunei  Brunei 430
52 Montenegro  Montenegro 430
52 Rumänien  Rumänien 430
55 Kasachstan  Kasachstan 423
56 Moldau Republik  Moldau 421
57 Aserbaidschan  Aserbaidschan 420
58 Thailand  Thailand 419
59 Uruguay  Uruguay 418
60 Chile  Chile 417
61 Katar  Katar 414
62 Mexiko  Mexiko 409
63 Bosnien und Herzegowina  Bosnien und Herzegowina 406
64 Costa Rica  Costa Rica 402
65 Jordanien  Jordanien 400
65 Peru  Peru 400
67 Georgien  Georgien 398
68 Nordmazedonien  Nordmazedonien 394
69 Libanon  Libanon 393
70 Kolumbien  Kolumbien 391
71 Brasilien  Brasilien 384
72 Argentinien  Argentinien 379
72 Indonesien  Indonesien 379
74 Saudi-Arabien  Saudi-Arabien 373
75 Marokko  Marokko 368
76 Kosovo  Kosovo 366
77 Panama  Panama 353
77 Philippinen  Philippinen 353
79 Dominikanische Republik  Dominikanische Republik 325
1 B-S-J-Z* (China Volksrepublik  Volksrepublik China) 590
2 Singapur  Singapur 551
3 Macau  Macau 544
4 Vietnam  Vietnam 543
5 Estland  Estland 530
6 Japan  Japan 529
7 Finnland  Finnland 522
8 Korea Sud  Südkorea 519
9 Kanada  Kanada 518
10 Hongkong  Hongkong 517
11 Taiwan  Taiwan 516
12 Polen  Polen 511
13 Neuseeland  Neuseeland 508
14 Slowenien  Slowenien 507
15 Vereinigtes Konigreich  Vereinigtes Königreich 505
16 Australien  Australien 503
16 Deutschland  Deutschland 503
16 Niederlande  Niederlande 503
19 Vereinigte Staaten  Vereinigte Staaten 502
20 Belgien  Belgien 499
20 Schweden  Schweden 499
22 Tschechien  Tschechien 497
23 Irland  Irland 496
24 Schweiz  Schweiz 495
25 Danemark  Dänemark 493
25 Frankreich  Frankreich 493
27 Portugal  Portugal 492
28 Osterreich  Österreich 490
28 Norwegen  Norwegen 490
Organisation für wirtschaftliche Zusammenarbeit und Entwicklung  OECD-Durchschnitt 489
30 Lettland  Lettland 487
31 Spanien  Spanien 483
32 Litauen  Litauen 482
33 Ungarn  Ungarn 481
34 Russland  Russland 478
35 Luxemburg  Luxemburg 477
36 Island  Island 475
37 Kroatien  Kroatien 472
38 Belarus  Belarus 471
39 Ukraine  Ukraine 469
40 Italien  Italien 468
40 Turkei  Türkei 468
42 Slowakei  Slowakei 464
43 Israel  Israel 462
44 Malta  Malta 457
45 Griechenland  Griechenland 452
46 Chile  Chile 444
47 Serbien  Serbien 440
48 Zypern Republik  Zypern 439
49 Malaysia  Malaysia 438
50 Vereinigte Arabische Emirate  Vereinigte Arabische Emirate 434
51 Brunei  Brunei 431
52 Jordanien  Jordanien 429
53 Moldau Republik  Moldau 428
54 Rumänien  Rumänien 426
54 Thailand  Thailand 426
54 Uruguay  Uruguay 426
57 Bulgarien  Bulgarien 424
58 Mexiko  Mexiko 419
58 Katar  Katar 419
60 Albanien  Albanien 417
61 Costa Rica  Costa Rica 416
62 Montenegro  Montenegro 415
63 Kolumbien  Kolumbien 413
63 Nordmazedonien  Nordmazedonien 413
65 Argentinien  Argentinien 404
65 Brasilien  Brasilien 404
65 Peru  Peru 404
68 Aserbaidschan  Aserbaidschan 398
68 Bosnien und Herzegowina  Bosnien und Herzegowina 398
70 Kasachstan  Kasachstan 397
71 Indonesien  Indonesien 396
72 Saudi-Arabien  Saudi-Arabien 386
73 Libanon  Libanon 384
74 Georgien  Georgien 383
75 Marokko  Marokko 377
76 Kosovo  Kosovo 365
76 Panama  Panama 365
78 Philippinen  Philippinen 357
79 Dominikanische Republik  Dominikanische Republik 336

*PISA-Tests wurden nur in Beijing, Shanghai, Jiangsu und Zhejiang durchgeführt.

Rezeption

Bearbeiten

PISA 2000, PISA 2003 und PISA 2006 haben in einigen Teilnehmerstaaten ein heftiges Medienecho ausgelöst; in Deutschland ist das Wort „PISA“ zum Inbegriff aller Probleme des Bildungswesens geworden.

In Deutschland

Bearbeiten

Deutschland hatte in den 1970er und 80er Jahren an keinem internationalen Schulvergleich teilgenommen. Der Richtungswechsel begann mit der Teilnahme an der Mathematikstudie TIMSS 1995. Die mittelmäßigen Ergebnisse wurden von Bildungspolitikern und Fachlehrern ausgiebig diskutiert, drangen aber nur kurz an die breite Öffentlichkeit.

Die Veröffentlichung der ersten PISA-Ergebnisse Ende 2001 wurde durch Vorabberichte mehrere Wochen lang vorbereitet und erzielte ein so überwältigendes Medien-Echo, dass bald von einem „PISA-Schock“ gesprochen wurde, was an den „Sputnikschock“ und die Debatte der 1960er Jahre um die von Georg Picht beschworene „Bildungskatastrophe“ erinnerte.

Ende 2002 beherrschte PISA erneut die Schlagzeilen, weil zum ersten Mal ein Leistungsvergleich zwischen den Bundesländern veröffentlicht wurde. Das Nord-Süd-Gefälle überraschte relativ wenig; in vielen Kommentaren wurde es durch den Verweis relativiert, dass in Bayern die Abiturquote zu niedrig und ein bestimmter statistischer Kennwert für soziale Selektivität besonders hoch sei (siehe Hauptartikel PISA-E).

Wenige Tage vor der Veröffentlichung von PISA 2006 (Teilergebnisse waren auch diesmal an die Presse durchgesickert) eskalierte der Konflikt zwischen der OECD und der deutschen Projektgruppe. Andreas Schleicher bezog sich auf den OECD-Bericht, dem zufolge weder in den drei Bereichen Naturwissenschaft, Mathematik, Leseleistung noch bei der Koppelung der Ergebnisse mit sozialer Herkunft Verbesserungen erreicht wurden, die über den statistischen Fehlerbereich hinausgingen. Die naturwissenschaftliche Aufgabenstellung sei im Wesentlichen neu konzipiert, in den wenigen Testaufgaben, die sowohl 2003 als auch 2006 verwendet wurden, seien die Leistungen unverändert. Umweltthemen hätten Deutschland 2006 begünstigt. Der deutsche Projektleiter Manfred Prenzel behauptete demgegenüber, die Ergebnisse seien sehr wohl zu vergleichen. Diese unterschiedlichen Einschätzungen stehen auch in den offiziellen Berichten.[27][28]

CDU-Kultusminister, insbesondere die hessische Ministerin Karin Wolff, nahmen das zum Anlass, Schleichers Entlassung zu fordern. Akut warf man ihm vor, mit der Kommentierung einer Vorveröffentlichung eine selbstgesetzte Sperrfrist verletzt zu haben. Die grundlegenden Vorwürfe an ihn waren:

  • Schleicher maße sich die Rolle eines „Supervisors“ an, der vorgebe, wie die Daten interpretiert werden dürfen.
  • Man gebe viel Geld aus, um Trends zu messen, und erfahre nun, wie problematisch Vergleiche über 3 und 6 Jahre hinweg sind.

Die OECD wies diese Vorwürfe zurück. Die Interpretation entspreche den Ergebnissen der Studie. Eine Vergleichbarkeit über die Jahre sei sehr wohl gegeben, allerdings nicht in den jeweils neu getesteten Einzelbereichen. Es sei so geplant gewesen, dass aufbauend alle drei Jahre ein neuer Bereich getestet werde. Nach der Leseleistung 2000 waren dies 2003 die mathematischen und 2006 erst die naturwissenschaftlichen Kenntnisse.

Einige CDU-Kultusminister erwogen laut, aus der PISA-Studie auszusteigen. Als Alternativen wurden der Bildungsmonitor der wirtschaftsnahen Initiative Neue Soziale Marktwirtschaft oder das Institut zur Qualitätsentwicklung im Bildungswesen genannt. Gleichzeitig drohte die OECD dem deutschen Projektleiter damit, dem ländervergleichenden PISA-E-Test das Label „PISA“ zu entziehen, wenn er die Daten nach seiner eigenen Methode skaliere, da dies dann nichts mehr mit PISA zu tun habe.

Der PISA-Konflikt reiht sich ein in eine Auseinandersetzung zwischen konservativen Bildungspolitikern in Deutschland und internationalen Organisationen. Streitpunkt war jedes Mal das dreigliedrige Schulsystem und die Frage, ob dieses Migrantenkinder und Kinder aus unteren Schichten benachteilige. Im Dezember 2006 wurde ein entsprechendes Papier der EU-Kommission zurückgewiesen, und im Frühjahr 2007 wurde der UN-Beobachter für das Menschenrecht auf Bildung, Vernor Muñoz, für seinen kritischen Bericht scharf angegriffen. Bereits im Sommer 2007 wurde die internationale jährlich erscheinende OECD-Studie Bildung auf einen Blick von konservativen Lehrerverbänden als „ideologisch“ bezeichnet. Ein großes Problem der Pisastudie liegt darin, dass die OECD lediglich zwischen Schülern, die in Deutschland geboren sind, und solchen, die im Ausland geboren sind, unterscheidet. Auf diese Weise lassen sich die schulischen Erfolge von Migrantenkindern und Kindern mit „rein deutschen Wurzeln“ nur bedingt vergleichen.

Den Leistungseinbruch von 2018 (498 Punkte) auf 2022 (480) beschrieben die Pisa-Autoren als ein komplettes Schuljahr, das die 2022 Schüler in Mathematik und Lesen gegenüber den 2018er Schülern zurücklägen. Während die COVID-19-Pandemie als bedeutender Grund für Unterrichtsausfälle im untersuchten Zeitraum gilt, wurde auch dem stark gestiegenen Anteil von Migranten aus bildungsfernen Schichten eine wichtige Rolle zugeschrieben. Der Anteil von Migranten in den Klassen hatte sich 2022 gegenüber 2012 verdoppelt. Von den 26 Prozent mit Migrationshintergrund 2022 sahen die Pisa-Autoren zudem bei 42 Prozent eine sozioökonomische Benachteiligung. Die deutschen Schüler ohne einen solchen Hintergrund lagen bei Mathematik und Lesen 59, beziehungsweise 67 Punkte vor ihren Mitschülern.[29]

In Österreich

Bearbeiten

In Österreich trat der „PISA-Schock“ verspätet ein: Nachdem man sich 2000 noch daran delektiert hatte, deutlich besser als Deutschland abgeschnitten zu haben, wurde das Ergebnis aus 2003 als „Absturz“ wahrgenommen. Daraufhin veranlasste Bildungsministerin Elisabeth Gehrer eine Überprüfung durch die Statistiker Erich Neuwirth, Ivo Ponocny und Wilfried Grossmann, die in ihrem 2006 erschienenen Untersuchungsbericht[30] zahlreiche Ungereimtheiten bei der Stichprobenziehung und Datenauswertung zutage förderten. Insbesondere war 2000 die Stichprobe in den Berufsschulen nicht korrekt gezogen worden. In einem Vorwort zu diesem Untersuchungsbericht spielt der PISA-Koordinator der OECD, Andreas Schleicher, die Korrekturen herunter und behauptet, die OECD habe bislang darauf hingewiesen, dass eine Interpretation der österreichischen Ergebnisse nur „eingeschränkt zulässig“ gewesen sei. Nach weiterer Verzögerung hat die OECD Anfang 2007 nahezu unbeachtet die Ergebnisse von Neuwirth et al. in den internationalen Datensatz übernommen und damit die österreichischen Ergebnisse aus 2000 offiziell nach unten korrigiert. Diesen korrigierten Daten zufolge hat es nie einen Absturz gegeben; 2000 und 2003 lagen die österreichischen Schülerleistungen gleichermaßen im Mittelfeld; es gab keine statistisch signifikanten Veränderungen.[31]

Aufschlussreich ist die offensichtliche Falschberechnung des PISA-Ergebnisses für 2000 deshalb, weil durch den angeblichen PISA-Absturz von 2000 auf 2003 zunächst der neu angetretenen konservativen Regierung bescheinigt werden sollte, sie habe durch ihre Bildungspolitik den Absturz verschuldet. Die nach den Wahlen im Oktober 2006 zurückgetretene konservative Unterrichtsministerin Elisabeth Gehrer (ÖVP) wollte hingegen durch die von ihr beauftragte Schlechter-Bewertung des unter einer sozialdemokratischen Regierung zustande gekommenen Ergebnisses für 2000 den Absturz widerlegen. Beide Male wurde das österreichische PISA-Ergebnis parteipolitisch instrumentalisiert bzw. nach oben und dann nach unten gerechnet, ohne dass das PISA-Reglement hinreichend klar festgelegt hätte, wie Ergebnisse richtig zu berechnen und Stichproben weltweit einheitlich festzulegen sind.

Auch das Ergebnis der PISA-Studie 2009 wirft grundsätzliche Fragen bezüglich Validität und Aussagekraft auf. Das PISA-Konsortium räumte offiziell ein, dass zahlreiche Fragebögen deutliche Spuren eines von den Lehrergewerkschaften ausgerufenen Boykotts aufwiesen.[32] Dennoch wurde die österreichische Stichprobe ausgewertet, nachdem jene Fragebögen ausgeschieden worden waren. Das Ergebnis fiel in allen drei Bereichen deutlich schlechter aus als in den Testdurchgängen davor (2000–2006) und danach (2012), was für eine Verfälschung des Ergebnisses durch den Boykott spricht. In jahresübergreifenden Trendvergleichen schließt die OECD die österreichischen Daten für 2009 jetzt aus und bezeichnet sie als fehlend, ohne eine Erklärung dafür zu liefern.[33]

Ähnlich wie in Deutschland sind soziale Unterschiede auffällig. Die Regierungsparteien (ÖVP und FPÖ) verwiesen bevorzugt auf schlechte Deutschkenntnisse von Ausländerkindern. Die damalige Ministerin Gehrer konstatierte weiterhin ein Fehlverhalten von Eltern, die sich zu wenig um ihre Kinder kümmern würden. Die Opposition (SPÖ und Grüne) äußerte den Vorschlag, statt des stark diversifizierten Schulensystems eine Gesamtschule einzuführen. Diese Idee ist stark beeinflusst vom finnischen Vorbild. Im dortigen Schulsystem gibt es zwar extreme Leistungsunterschiede innerhalb, aber kaum zwischen den Schulen. In Österreich jedoch war das Gegenteil zu spüren.

Ein am Fall Österreich virulent gewordenes technisch-statistisches Problem scheint indes weiterhin ungelöst zu sein, denn PISA wird in den einzelnen Ländern nach wie vor nicht nach einheitlichen Kriterien durchgeführt. In Österreich werden auch Lehrlinge, Migranten ohne Deutschkenntnisse und Sonderschüler getestet. Für PISA 2009 wurden in Tirol etwa an der Hauptschule Neustift ausschließlich drei Schüler mit Migrationshintergrund ausgelost, die keine reguläre Schullaufbahn hinter sich hatten, erst seit wenigen Jahren in Österreich lebten und mit 16 Jahren auch gar nicht der target population anzugehören scheinen.[34]

In Südtirol

Bearbeiten

Das italienische PISA-Zentrum INVALSI ermöglicht seit 2003 den Regionen und autonomen Provinzen an PISA mit einer so großen Stichprobe teilzunehmen, dass eine separate Auswertung zulässig ist. Für die Autonome Provinz Bozen – Südtirol werden die deutschsprachigen Testhefte aus Österreich übernommen. Die Provinz erzielt in den deutschsprachigen Schulen regelmäßig weit über dem nationalen Durchschnitt liegende Ergebnisse. Ein Grund für diese sehr positiven Ergebnisse ist, dass in Südtirol Schüler mit Migrationshintergrund vorwiegend die italienischsprachigen Schulen besuchen.[35]

In Luxemburg

Bearbeiten

Luxemburg liegt in den drei geprüften Fächern – Lesen, Mathematik und Naturwissenschaften – unter dem OECD-Durchschnitt und rangiert hinter den meisten anderen europäischen Ländern. Bei der Interpretation der Resultate können u. a. folgende Hintergründe wichtig sein:

  • Der Ausländeranteil liegt bei 44,5 % (2013, statec.lu).
  • Die Vielsprachigkeit ist sehr stark ausgeprägt (Luxemburgisch, Deutsch, Französisch und Englisch sowie oft eine weitere Sprache wie Portugiesisch)
  • Die Gesamtheit der Schülerschaft wurde getestet, es ist also keine Verzerrung möglich durch günstige Stichprobenwahl.

Das Modell Finnland

Bearbeiten

Finnland wurde in der öffentlichen Rezeption in Deutschland und Österreich allgemein als „Testsieger“ angesehen. Zahlreiche Erklärungen für das exzellente Abschneiden Finnlands wurden vorgeschlagen (siehe auch: Bildungssystem Finnland):

  • eine in der Reformation verwurzelte Lesetradition,
  • hohe Motivation, lesen zu lernen, durch Filme in Originalsprache mit Untertiteln in Fernsehen und Kino
  • vergleichsweise geringe soziale Unterschiede in der Bevölkerung,
  • aufgrund der vergleichsweise geringen Zuwanderung wenig Probleme mit zuwanderungsbedingter mangelnder Sprachbeherrschung,
  • ein ungegliedertes Gesamtschulsystem,
  • hervorragende personelle Ausstattung der Schulen, unter anderem mit Sozialpädagogen; wo erforderlich, kommt eine zweite Lehrkraft in den Unterricht,
  • höhere Qualität der Lehrer: Lehrer werden aus den besten 10 Prozent eines Jahrgangs in einem umfangreichen Verfahren vor, während und nach dem Studium ausgewählt.[36]
  • Klassenstärken von in der Regel weniger als 20 Schülern,
  • hervorragende materielle Ausstattung der Schulen: freundliche Gebäude, Bibliothek, Kantine,
  • weitgehende Autonomie der Schulen verbunden mit wirkungsvoller Qualitätskontrolle. Statt detaillierte Lehrpläne vorzuschreiben, beschränkt sich die finnische Bildungsbürokratie darauf, Lernziele vorzugeben und landesweite Tests zu erarbeiten, mit denen überprüft wird, wie gut die Ziele erreicht wurden,
  • Vertrautheit mit standardisierten Tests.

Die Begeisterung für Finnland rief auch kritische Stimmen auf den Plan, die darauf hinwiesen, dass Alkoholismus unter finnischen Schülern weitverbreitet und die Selbstmordrate alarmierend hoch sei. Aus statistischer Sicht relativiert sich das gute Abschneiden Finnlands, sobald man demographische, insbesondere soziale, Hintergrundvariablen kontrolliert.

Die Schulstrukturdebatte

Bearbeiten

Befürworter der Gesamtschule nutzten die PISA-Ergebnisse für eine Neuauflage der deutschen und österreichischen Schulstrukturdebatte. Sie verwiesen insbesondere auf:

  • das hervorragende Abschneiden Finnlands und einiger anderer Staaten,
  • die überdurchschnittliche Korrelation zwischen den deutschen Testergebnissen und dem sozialen bzw. Migrations-Hintergrund,
  • die starke Korrelation zwischen Wahl des Schultyps und familiärem Hintergrund.

Gegner wenden ein, dass die PISA-Ergebnisse keineswegs eindeutig sind:

  • Auch „Testverlierer“ haben Gesamtschulsysteme.
  • Im innerdeutschen Vergleich schneiden Länder, die wie Bayern konsequent an einem gegliederten Schulsystem mit harten Aufnahmebedingungen für höhere Schulen festhalten, am besten ab.
  • Die Verhältnisse in Deutschland und Finnland sind aus einer ganzen Reihe von Gründen nicht vergleichbar; es ist völlig spekulativ, den finnischen Erfolg primär der Schulstruktur zuzuschreiben.
  • Die Lehrer in Finnland sind anders ausgewählt und besser ausgebildet als in Deutschland, so dass nicht die Schulform oder -struktur, sondern die Qualität der Lehrer über den Bildungsstandard mitentscheiden kann.

Politische Reaktionen

Bearbeiten

Als unmittelbare Reaktion auf den PISA-Schock beschlossen die deutschen Kultusminister die Entwicklung bundesweiter „Bildungsstandards“ und die Gründung des Instituts zur Qualitätsentwicklung im Bildungswesen, das diese Standards in Form von Testaufgaben operationalisiert.

Rückwirkung auf die Schulen

Bearbeiten

Es war politisch von Anfang an beabsichtigt, dass PISA auf die Schulwirklichkeit zurückwirken solle. Beteiligte Mathematikdidaktiker hofften beispielsweise, ihre Vorstellung von sinnvollem Unterricht durchzusetzen (Meyerhöfer in Jahnke/Meyerhöfer 2007). Konkret spürbar ist der Einfluss der PISA-Beispielaufgaben zum Beispiel, wenn in neuen Mathematiklehrplänen verstärktes Gewicht auf das Arbeiten mit Graphiken und Tabellen gelegt wird.

Die PISA-Studien haben nicht nur ein außergewöhnliches Medienecho, sondern auch heftige wissenschaftliche Debatten ausgelöst. Aufgrund der Komplexität des Gegenstands ist die Kritik ein interdisziplinäres Unterfangen, an dem sich sowohl Pädagogen als auch Psychologen und andere Wissenschaftler mit statistischer Fachkunde (Mathematiker, Physiker, Ökonomen) beteiligen. Je nach Herkunft haben sie ihre Anmerkungen an weit gestreuten, zum Teil entlegenen Stellen veröffentlicht. Erst mit einiger Verzögerung erschienen erste Sammelbände, die die zuvor verstreute Kritik bündelten (Jahnke/Meyerhöfer 2006, erweitert 2007; Hopmann/Brinek/Retzl 2007).

Im Mai 2014 veröffentlichten der Pädagogikprofessor Heinz-Dieter Meyer (State University of New York) und die Schulleiterin Katie Zahedi einen offenen Brief,[37] der auf negative Folgen von PISA hinwies und die Forderung erhob, den dreijährigen Testzyklus zugunsten einer Denkpause zu unterbrechen; diesem Aufruf schlossen sich Hunderte Pädagogikprofessoren, Vertreter von Lehrerverbänden und prominente Intellektuelle (u. a. Noam Chomsky, Konrad Liessmann) an.

Zielsetzung von PISA

Bearbeiten

Das utilitaristische Bildungsziel von PISA wird insbesondere von frankophonen Autoren kritisiert: Es bewirke zunächst einmal eine Verzerrung der Testergebnisse zugunsten angelsächsischer Staaten und sodann einen Druck, Lehrpläne so anzupassen, dass unmittelbar alltagsrelevante Fertigkeiten ein größeres Gewicht bekämen. Das bedrohe zum Beispiel die Spezifität des französischen Mathematikunterrichts, der großen Wert auf strenge Beweise legt. In diesem Zusammenhang wird auf die ökonomische Zielsetzung der OECD und auf die Intransparenz und mangelnde demokratische Legitimität der Entscheidungsprozesse bei PISA hingewiesen. Ein ähnlicher Einwand lautet, dass PISA mit seinen Schwerpunkten Mathematik, Muttersprache und Naturwissenschaften die Marginalisierung gesellschaftswissenschaftlicher und musischer Fächer forciere.

Der Mathematikdidaktiker Thomas Jahnke kritisiert den Grundgedanken, Bildung „standardisieren“ zu wollen (vgl. Bildungsstandards) und deutet PISA auch als Markterschließung der Testindustrie.[38] Der Philosoph Konrad Paul Liessmann kritisiert PISA als ökonomischen Versuch, die (humanistische) Bildung im Grunde abschaffen zu wollen und durch simples Wissen (im Gegensatz zu Bildung) zu ersetzen. Er beklagt die Transformation der Bildungseinrichtung Schule in eine Berufsschule für Kinder und damit das Ende des bewussten und geistigen Menschen und seine Reduktion auf einen Arbeitnehmer und Konsumenten.[39]

Zentral an der PISA-Studie beteiligte Wissenschaftler, wie der Bildungsforscher Eckhard Klieme, bestätigen in diesem Zusammenhang durchaus, dass die Studie auch ein Instrument der Bildungspolitik sei und die OECD eine Agenda mit PISA verfolge. Sie halten dem aber entgegen, dass sie als verantwortliche Wissenschaftler eigene Beiträge in die öffentliche Debatte einbringen, um PISA nicht instrumentalisieren zu lassen, und alle Ergebnisse offen vorlägen. Denn letztlich seien die Studien dennoch ein „Instrument der Aufklärung, das uns viel über die Probleme unseres Bildungssystems verrät und zu mehr Ehrlichkeit und Transparenz beiträgt“.[40]

Methodik: Validität der Instrumente

Bearbeiten

Im Anschluss an die Testungen 2000 und 2003 wurde jeweils nur ein kleiner Teil der eingesetzten Aufgaben (der „Instrumente“ in der Sprache der Psychologie) veröffentlicht. Eine Vielzahl von Autoren hat diese Aufgabenbeispiele kritisiert, besonders gründlich der Mathematikdidaktiker Meyerhöfer. In einer didaktischen Analyse mit Methoden der objektiven Hermeneutik zeigt er, dass PISA dem Anspruch, eine spezielle „Mathematische Literalität“ zu testen, nicht gerecht wird.

Das seit den allerersten vergleichenden Schulstudien ungelöste Übersetzungsproblem bewirkt auf verschiedenen Wegen eine Verzerrung der internationalen Vergleiche:

  • Herkunft der Aufgaben (überwiegend aus dem angelsächsischen Bereich und den Niederlanden)
  • unterschiedliche Lesbarkeit verschiedener Sprachen
  • Texte werden beim Übersetzen tendenziell länger; Aufgabentexte sind im Deutschen um ca. 16 % länger als im Englischen (Puchhammer in Hopmann/Brinek/Retzl 2007).
  • Wenn Übersetzer die Aufgabe verstehen, neigen sie dazu, Hilfen zu geben (Freudenthal 1975).
  • Wenn Übersetzer nicht alle Fußangeln erkennen, kann die Aufgabe wiederum erheblich schwerer geraten.
  • In einzelnen Aufgaben sind manifeste Übersetzungsfehler unterlaufen.[41][42]

Ein weiteres Problem ist die unterschiedliche Vertrautheit mit dem Aufgabenformat. Meyerhöfer spricht hier von „Testfähigkeit“; in den USA wird schon lange über die Bedeutung von „testwiseness“ diskutiert. Wuttke (2007) hat entdeckt, dass bis zu 10 Prozent der deutschsprachigen Schüler das Multiple-Choice-Format nicht verstehen und mehr als eine Antwortalternative ankreuzen.

Zusätzlich ist zu berücksichtigen, dass dieselben Aufgaben in verschiedenen Sprach- und Kulturkontexten nicht als gleichwertig bezüglich ihrer Schwierigkeit betrachtet werden können. Damit ist ein Unterschied der Ergebnisse zu erwarten, der nicht in der Leistungsfähigkeit der Probanden, sondern im Bereich der sprachlichen Übersetzbarkeit und Interpretierbarkeit der Aufgabenstellung liegt.[43]

Methodik: Validität der Statistik

Bearbeiten

Bei der Auswertung von PISA und ähnlichen Studien stellt sich das Grundproblem, dass Leistungsunterschiede innerhalb eines jeden Staats wesentlich größer sind als typische Unterschiede zwischen Staaten. Es ist deshalb eine Messgenauigkeit im unteren Prozentbereich erforderlich, um statistisch signifikante Aussagen über solche Unterschiede treffen zu können. In PISA wird das formal durch die Verwendung sehr großer Stichproben (etwa 5000 Schüler/Staat) erreicht. Die offiziellen Standardfehler berücksichtigen jedoch nicht mögliche systematische Verzerrungen (Wuttke 2007). Solche Verzerrungen werden unter anderem bewirkt durch:

  • Unzuverlässige Ausgangsdaten (es gibt keine Urlisten mit allen Fünfzehnjährigen; die Stichprobenziehung ist extrem kompliziert und nicht überprüfbar).
  • Leistungsabhängige Teilnahmeneigung (2007 wurde bekannt, dass die Teilnahmeneigung in manchen Staaten so gering ist, dass Schüler mit bis zu 50 Dollar oder einem freien Tag für die Teilnahme belohnt wurden).
  • uneinheitlicher Ausschluss von lernbehinderten Schülern (Hörmann in Hopmann/Brinek/Retzl 2007)
  • Einige Staaten, darunter Finnland, haben Legastheniker vom Test ausgeschlossen (OECD: Technische Berichte).

Interpretation der Ergebnisse

Bearbeiten

Aus systemtheoretischer Sicht wird kritisiert, dass die Systemgrenzen in PISA nicht sachgerecht seien (verglichen werden Staaten, auch wenn diese kein einheitliches Bildungssystem haben); dass die Gleichsetzung von Schülerleistung mit Schulsystemleistung nicht gerechtfertigt ist (weil es außer dem Schulsystem eine ganze Reihe anderer Eingangsgrößen gibt); dass ein Systemvergleich nur Denkanstöße, aber keine politischen Handlungsempfehlungen liefern kann (Bank 2008). Konkret kann man zum Beispiel die Vorbildfunktion des finnischen Schulsystems in Zweifel ziehen, wenn man die Eingangsgröße „Migrantenanteil“ herausrechnet und nicht mit einem fiktiven gesamtdeutschen Schulsystem, sondern konkret mit dem sächsischen oder bayerischen vergleicht (Bender 2006). Wenn man die PISA-Erfolge in Relation zu den Bildungsausgaben setzt, erscheint das finnische System sogar als vergleichsweise ineffizient (Bank 2008).

Das von PISA postulierte Bildungsziel „literacy“ führt zu einer Verwischung der Grenze zwischen den einzelnen Testgebieten. Die Ergebnisse sind hochkorreliert. Deshalb argumentiert Heiner Rindermann (2006), dass man PISA in guter Näherung als einen Intelligenztest deuten kann.

Weitere Analysen

Bearbeiten

Das kriminologische Forschungsinstitut Niedersachsen e. V. stellte 2007 fest, dass jene Gruppen bei PISA am schlechtesten abschnitten, die sich durch den höchsten Medienkonsum auszeichnen.[44]

Datennutzung

Bearbeiten

Die Daten der Studie können zudem auf verschiedenen Wegen weiterverwendet werden, um auch über den ursprünglich geplanten Rahmen hinaus für Forschung und öffentliche Information von Nutzen zu sein.

  • Die OECD bietet auf ihrer Website einen Data-Explorer an, mit dem verschiedene grundlegende Auswertungen auch ohne ein eigenes Statistikprogramm angefordert werden können.
  • Ebenfalls auf der OECD-Seite stehen die internationalen Originaldaten aller Erhebungszeitpunkte öffentlich zum Download zur Verfügung.
  • Forschende können außerdem auf Antrag am Forschungsdatenzentrum am Institut zur Qualitätsentwicklung im Bildungswesen für Re- und Sekundäranalysen Zugriff auf die deutschen Originaldaten aller Erhebungen erhalten.

Siehe auch

Bearbeiten

Literatur

Bearbeiten

PISA-Studien, International

Bearbeiten

PISA-Studien, Deutschland

Bearbeiten
  • J. Baumert u. a.: PISA 2000. Basiskompetenzen von Schülerinnen und Schülern im internationalen Vergleich. Deutsches PISA-Konsortium. Leske + Budrich, Opladen 2001, ISBN 3-8100-3344-8.
  • M. Prenzel u. a. (Hrsg.): PISA 2003. Ergebnisse des zweiten internationalen Vergleichs. Deutsches PISA-Konsortium. Zusammenfassung. Leibniz-Institut für die Pädagogik der Naturwissenschaften, Kiel 2004 (Kurzfassung (Memento vom 18. Juni 2006 im Internet Archive); PDF; 235 kB)
  • M. Prenzel u. a. (Hrsg.): PISA 2003. Der Bildungsstand der Jugendlichen in Deutschland – Ergebnisse des zweiten internationalen Vergleichs. Waxmann, Münster 2004, ISBN 3-8309-1455-5.
  • M. Prenzel u. a. (Hrsg.): PISA 2006. Die Ergebnisse der dritten internationalen Vergleichsstudie. Waxmann, Münster u. a. 2007, ISBN 978-3-8309-1900-1.
  • OECD: PISA 2006 – Schulleistungen im internationalen Vergleich – Naturwissenschaftliche Kompetenzen für die Welt von morgen W. Bertelsmann Verlag, Bielefeld 2008, ISBN 978-3-7639-3582-6.
  • PISA-Konsortium Deutschland (Hrsg.): PISA 2006 in Deutschland. Die Kompetenzen der Jugendlichen im dritten Ländervergleich. Waxmann, Münster u. a. 2008, ISBN 978-3-8309-2099-1.
  • Andreas Frey, Päivi Taskinen, Kerstin Schütte, PISA-Konsortium Deutschland (Hrsg.): PISA 2006 Skalenhandbuch. Dokumentation der Erhebungsinstrumente. Waxmann, Münster u. a. 2009, ISBN 978-3-8309-2160-8.
  • Eckhard Klieme, Cordula Artelt, Johannes Hartig, Nina Jude, Olaf Köller, Manfred Prenzel, Wolfgang Schneider, Petra Stanat (Hrsg.): PISA 2009. Bilanz nach einem Jahrzehnt. Waxmann, Münster u. a. 2010, ISBN 978-3-8309-2450-0.

Übersicht Schulleistungsstudien

Bearbeiten

Zusammenfassungen, Rezensionen, Kritiken

Bearbeiten
  • Dittmar Graf: Die schiefe Tour von PISA – Wieso die Vorzeigestudie nicht wissenschaftlich ist. In: Skeptiker (Zeitschrift). Nr. 3, 2017, S. 112–120.
  • Hans Brügelmann: PISA & Co: Nutzen und Grenzen von Leistungsvergleichen – auf internationaler, institutioneller und individueller Ebene. Vorbereitungstext für einen Beitrag zur Enzyklopädie Erziehungswissenschaft Online. Online unter Hans Brügelmann PISA & Co: Nutzen und Grenzen von Leistungsvergleichen 1 – auf internationaler, institutioneller und individueller Ebene2 [Abruf: 30. Juni 2012]
  • Johann C. Fuhrmann, Norbert Beckmann-Dierkes: „Finnlands PISA-Erfolge: Mythos und Übertragbarkeit“, KAS-Auslandsinformationen 07/2011. Berlin 2011, S. 6–22.
  • Joachim Wuttke: PISA: Nachträge zu einer nicht geführten Debatte. In: Mitteilungen der Gesellschaft für Didaktik der Mathematik. Band 87, 2009, S. 22–34. (didaktik-der-mathematik.de; PDF; 843 kB)
  • Armin von Bogdandy, Matthias Goldmann: The Exercise of International Public Authority through National Policy Assessment. The OECD’s PISA Policy as a Paradigm for a New International Standard Instrument. In: International Organizations Law Review. Band 5, 2008, S. 241–298. (online verfügbar als NYU Institute for International Law and Justice Working Paper (Memento vom 12. Januar 2016 im Internet Archive))
  • Volker Bank: Vom Wert des Vergleichs. In: Chemnitzer Europastudien. Band 8, 2008, S. 257–274.
  • Stefan Hopmann, Gertrude Brinek, Martin Retzl (Hrsg.): PISA zufolge PISA. PISA According to PISA. LIT-Verlag, Wien 2007, ISBN 978-3-8258-0946-1. (Zweisprachiger Sammelband mit Beiträgen von siebzehn Forschern)
  • Joachim Wuttke: Die Insignifikanz signifikanter Unterschiede. Der Genauigkeitsanspruch von PISA ist illusorisch. In: T. Jahnke, Meyerhöfer: PISA & Co – Kritik eines Programms. 2. Auflage. Franzbecker, Hildesheim 2007. Online-Fassung (2013) im SSOAR (PDF; 1,4 MB)
  • Thomas Jahnke, Wolfram Meyerhöfer (Hrsg.): PISA & Co – Kritik eines Programms. 2. Auflage. Franzbecker, Hildesheim 2007, ISBN 978-3-88120-464-4. (Sammelband mit Beiträgen von neun Forschern)
  • Erich Neuwirth, Ivo Ponocny, Wilfried Grossmann (Hrsg.): PISA 2000 und PISA 2003. Vertiefende Analysen und Beiträge zur Methodik. Leykam, Graz 2006, ISBN 3-7011-7569-1 (Umfassendes Erratum zu den österreichischen Ergebnissen aus PISA 2000)
  • Peter Bender: Was sagen uns PISA & Co., wenn wir uns auf sie einlassen? in: Jahnke, Meyerhöfer (2006), S. 281–337.
  • Hans Brügelmann, Hans Werner Heymann: PISA – Befunde, Deutungen, Folgerungen. In: Pädagogik. Band 54, Heft 3, Berlin 2002, S. 40–43. ISSN 0233-0873
  • Josef Kraus: Der PISA Schwindel. Unsere Kinder sind besser als ihr Ruf. Wie Eltern und Schule Potentiale fördern können. Signum, Wien 2005, ISBN 3-85436-376-1 (Bewusst polemische Streitschrift)
  • W. Potthoff, J. Schneider, F. Schrage: Impulse für die aktive Schule. Vorschläge zur besseren Zentrierung und Profilierung des Bildungswesens nach PISA. Reformpädagogischer Verlag, Freiburg 2004, ISBN 3-925416-27-7.
  • Volker Ladenthin: PISA – Recht und Grenzen einer globalen empirischen Studie. Eine bildungstheoretische Betrachtung. (PDF; 255 kB). In: Vierteljahrsschrift für wissenschaftliche Pädagogik. Band 79, Nr. 3, Paderborn 2003, S. 354–375.
  • Hans Freudenthal: Pupils achievements internationally compared --- the IEA. In: Educational studies in mathematics. Band 6, Dordrecht 1975, S. 127–186. ISSN 0013-1954 (Kritik am grundsätzlichen Ansatz internationaler Vergleichsstudien)
Bearbeiten

International

Deutschland

Österreich

Schweiz

Kritik

Einzelnachweise

Bearbeiten
  1. Organisation für wirtschaftliche Zusammenarbeit und Entwicklung
  2. Deutsche Projektleitung 2012, 2015 und 2018 Deutsche Projektleitung 2009 am Deutschen Institut für Internationale Pädagogische Forschung Deutsche Projektleitung 2003 und 2006 – IPN an der Uni Kiel
  3. Internationale Grundkonzeption laut deutscher Projektleitung 2000
  4. OECD-Veröffentlichung mit Aufgabenbeispielen (PDF; 418 kB). Es ist nicht ganz klar, ob die Lizenzbedingungen der OECD ein Einbinden in die WP gestatten würden.
  5. Für Details siehe Methodik der PISA-Studien.
  6. a b c OECD: First results from the OECD Programme for International Student Assessment (PISA) 2000
  7. a b c OECD: Learning for Tomorrow’s World - First Results from PISA 2003
  8. a b c OECD: The Programme for International Student Assessment (PISA)
  9. a b c OECD: PISA 2009 Results: Executive Summary
  10. a b c OECD: PISA 2012 Results in Focus
  11. a b c OECD: PISA 2015 Results in Focus
  12. a b c OECD: PISA 2018 Results
  13. a b c OECD: PISA 2022 Results
  14. Ramm u. a.: Soziokulturelle Herkunft: Migration. In: PISA 2003: Der Bildungsstand der Jugendlichen in Deutschland – Ergebnisse des zweiten internationalen Vergleichs. Waxmann, Münster 2004, ISBN 3-8309-1455-5, S. 269/270.
  15. a b c PISA 2018 Results - COMBINED EXECUTIVE SUMMARIES. Organisation for Economic Co-operation and Development, 3. Dezember 2019, abgerufen am 18. Oktober 2022 (englisch).
  16. a b c PISA 2022 Results - The State of Learning and Equity in Education. Organisation for Economic Co-operation and Development, 5. Dezember 2023, abgerufen am 31. Dezember 2023 (englisch).
  17. PISA-Konsortium Deutschland: PISA 2003: Ergebnisse des zweiten internationalen Vergleichs – Zusammenfassung. (Memento vom 17. Mai 2012 im Internet Archive) (PDF; 263 kB) S. 20–21.
  18. E. Klieme u. a.: PISA 2009 Bilanz nach einem Jahrzehnt – Zusammenfassung. (Memento vom 20. September 2011 im Internet Archive) (PDF; 1,5 MB) S. 16.
  19. OECD: Geschlechtsbezogene Vorurteile beeinflussen die Bildungsergebnisse von Jungen und Mädchen. Abgerufen am 22. Dezember 2010.
  20. Der Pisa-Erfolg der anderen. In: Spiegel Online. 5. Dezember 2023, abgerufen am 31. Dezember 2023.
  21. Neuer Pisa-Schock: Deutsche Schüler so schlecht wie nie. In: Süddeutsche Zeitung. 5. Dezember 2023, abgerufen am 31. Dezember 2023.
  22. Andreas Schleicher: PISA 2022 - Insights and Interpretations. Organisation for Economic Co-operation and Development, 5. Dezember 2023, abgerufen am 31. Dezember 2023 (englisch).
  23. Doris Lewalter, Jennifer Diedrich, Frank Goldhammer, Olaf Köller, Kristina Reiss: PISA 2022 - Analyse der Bildungsergebnisse in Deutschland. Technische Universität München, abgerufen am 31. Dezember 2023.
  24. Neue Pisa-Studie wird vorgelegt. In: Süddeutsche Zeitung. 3. Dezember 2019, abgerufen am 17. Oktober 2022.
  25. Andreas Schleicher: Insights and Interpretations. Organisation for Economic Co-operation and Development, 3. Dezember 2019, abgerufen am 18. Oktober 2022 (englisch).
  26. Kristina Reiss, Mirjam Weis, Eckhard Klieme, Olaf Köller: PISA 2018 - Grundbildung im internationalen Vergleich. Technische Universität München, abgerufen am 18. Oktober 2022.
  27. PISA 2006: Naturwissenschaftliche Kompetenzen für die Welt von Morgen. OECD Briefing Note für Deutschland
  28. Zusammenfassung der deutschen Ergebnisse durch das Kieler (Memento vom 24. März 2012 im Internet Archive) (PDF; 391 kB) IPN
  29. Marc Felix Serrao: "Deutschland wird immer bunter und immer dümmer: warum die katastrophalen Pisa-Ergebnisse keine Überraschung sind" NZZ vom 5. Dezember 2023
  30. E. Neuwirth, I. Ponocny, W. Grossmann (Hrsg.): PISA 2000 und PISA 2003: Vertiefende Analysen und Beiträge zur Methodik. Leykam, Graz 2006.
  31. Vgl. den diesbezüglichen Artikel in der Online-Fassung der liberalen österreichischen Tageszeitung Der Standard: Stichprobenfehler verursachte «Pisa-Absturz». Abgerufen am 19. April 2011.
  32. Siehe S. 135 des PISA-Berichtes PISA 2009 RESULTS: LEARNING TRENDS. Change in Student Performance since 2000. Vol. V. Abgerufen am 18. April 2011.
  33. PISA 2012 Ergebnisse: Was Schülerinnen und Schüler wissen und können. Band 1, 2014, ISBN 978-3-7639-5321-9, S. 400, 323, 417.
  34. Und dann sind wieder die Lehrer schuld. In: Tiroler Tageszeitung. Nr. 128, 10. Mai 2009, S. 2.
  35. Schüler mit Migrationshintergrund an Südtirols Schulen. diebaz.com, 10. November 2023
  36. McKinsey-Studie zu PISA September 2007 (englisch) (Memento vom 10. August 2011 im Internet Archive)
  37. oecdpisaletter.org
  38. T. Jahnke: Die PISA-Unternehmer. In: Forschung & Lehre. Band 15, 2008, S. 26–27.
  39. K. P. Liessmann: Theorie der Unbildung. Die Irrtümer der Wissensgesellschaft. Paul Zsolnay, Wien 2006.
  40. Eckhard Klieme, DIPF, Warum wir PISA brauchen. (= Leibniz-Journal. 1/2015). leibniz-gemeinschaft.de
  41. „Dachboden“ statt „Boden des Dachgeschosses“ für „attic floor“, „Hemisphäre“ statt „Erdhälfte“ für „hemisphere“, „Forschung“ für „scientific experiments“ – vgl. Wuttke (2007)
  42. Joachim Wuttke: Pisa – ein teurer Zufallsgenerator. In: Berliner Zeitung. 8. Dezember 2007, abgerufen am 18. Juni 2015.
  43. More or Less. BBC Radio 4, 22. April 2011, abgerufen am 14. Juni 2013.
  44. Christian Pfeiffer u. a.: Die PISA-Verlierer – Opfer des Medienkonsums. (PDF; 150 kB). KFN Hannover. (kfn.de (Memento vom 25. Februar 2016 im Internet Archive))