Künstliche Intelligenz
Permanente Schulferien dank KI?
Wie beeinflusst die Weiterentwicklung maschinellen Lernens unser Verständnis von schulischem Lernen? Was bedeutet das für unsere Bildungsziele? Die GEW-Landesfachgruppe Gymnasien stellt erste Aspekte des Themas KI in der Schule zur Diskussion.
Kultusministerin Theresa Schopper hat sich gegenüber der dpa Anfang August zum KI-motivierten Wandel an unseren Schulen so geäußert: „Wir werden voraussichtlich deutlich mehr zu mündlichen Prüfungen übergehen, weil man nur so herausfinden kann, ob etwas wirklich verstanden worden ist. [...] Unsere Schulwelt wird sich durch Künstliche Intelligenz verändern. Es ist absurd zu glauben, das macht an der Schultür Halt. [...] Kinder und Jugendliche müssen in der Schule lernen, wie man Fake News erkennen kann, wie man Medien sinnvoll nutzen kann und wo die Grenzen liegen. Da haben wir in der Schule eine große Aufgabe.“
Um es gleich vorwegzunehmen: Da es wenige Tätigkeiten gibt, bei denen im beruflichen Alltag mehr an Einfühlungsvermögen, Herzenswärme, Spontaneität und Kreativität erforderlich ist, werden wir Lehrkräfte wohl noch sehr lange Zeit auf einen Dauerplatz am Swimmingpool warten müssen – glücklicherweise.
Nach Laurie Andersons Installation ist es vielleicht unsere menschliche Sehnsucht nach einer verlässlichen Problemlösung, die uns von Maschinen zu viel erwarten und sie sogar als „intelligent“ anthropomorphisieren lässt. Auf der Seite der Hersteller ist „humanizing technology“ allerdings tatsächlich inzwischen ein zentrales Verkaufsargument geworden. Künstliche Intelligenz (KI) ist vielleicht artifiziell, aber sicher nicht „intelligent“.
Es handelt sich um Verfahren maschinellen Lernens, bei denen aus einer großen eingelesenen Datenmenge in vielfältiger Form (Text, Grafik, Tonfolgen, Programmcode und so weiter) ein Output generiert wird. Die Geschwindigkeit und (aus einem rein quantifizierenden Sprachmodell errechnete) sprachliche Gewandtheit, mit der zum Beispiel GPT-4 auf unsere Anfragen („prompts“) reagiert, erzeugt bei uns Anwender*innen allerdings die Illusion eines geistreichen Gegenübers.
Die aktuellen technologischen Entwicklungen rund um die sogenannte KI lassen uns im schulischen Kontext unserer Gymnasien erneut darüber nachdenken, worin eigentlich die Essenz unserer natürlichen menschlichen Intelligenz besteht, wie genau wir diese in Lernprozessen entwickeln und welche Bildungsziele wir überhaupt verfolgen wollen. Die Weiterentwicklung maschinellen Lernens wirkt direkt auch auf unser Verständnis von schulischem Lernen zurück.
Da wir mit dem Thema KI in der Schule offensichtlich relativ am Anfang eines langen Reflexionsprozesses stehen, stellen wir von der GEW-Landesfachgruppe Gymnasien hier erste Aspekte zur Diskussion.
1. Digitalität und Moderne
Armin Nassehi hat von soziologischer Seite gezeigt, inwiefern Digitalität an die innere Grundstruktur unserer modernen Gesellschaft andockt (Muster. Theorie der digitalen Gesellschaft. 2019):
- „Digitalität ist eine technische Form [...], deren Struktur ein ähnliches Ordnungsproblem löst wie die Funktionssysteme der modernen Gesellschaft: auf dem Boden eines einfältigen Mediums vielfältige Formen zu entwickeln.“
- „Ihre brutal einfache Codierung und Medialität in binären Mustern ist der Boden für den vielfältigen, kaum begrenzbaren Einsatz in allen Bereichen der Gesellschaft.“
Trifft Nassehis Theorie von einer inneren Entsprechung von Digitalität und Moderne zu, lässt das erwarten, dass wir uns noch sehr lange mit dem Thema Digitalität beschäftigen werden und gar nicht umhinkommen, einen zweckpragmatischen, kritischen Reflexionsprozess zu kultivieren. Ein solcher dürfte sich allerdings gut in ein anspruchsvolles Gesamttableau gymnasialer Bildung einfügen.
2. Entgrenztes Angebot KI-basierter Anwendungen
Folgt man Nassehis Analyse, so mutet es wenig erfolgversprechend an, entweder auf eine freiwillige Selbstbegrenzung oder auf ein Moratorium für KI-Power zu hoffen. Vielmehr werden wir zeitnah auch für unseren Schulbereich mit einer großen Angebotsvielfalt KI-basierter Anwendungen rechnen müssen. Und wir werden als Lehrkräfte die didaktische Herausforderung zu bewältigen haben, wo genau in unserem Unterricht die Integration KI-basierter Systeme sinnvoll ist, und vor allem auch: wo nicht. Als mögliche Anwendungsfelder sind zum Beispiel denkbar: Adaptive Ausgestaltung individualisierter Lernprozesse oder auch die Metareflexion über Lernprozesse, wenn die Schüler*innen selbst Sprachmodelle trainieren.
Schon jetzt sehen wir uns auch auf Seiten der Schüler*innen mit einer wachsenden Nutzung leistungsfähiger KI-basierter Anwendungen konfrontiert: Diese Anwendungen schreiben Dialoge in Fremdsprachen, Gedichtanalysen in Deutsch, Bildanalysen in Kunst, Programmcodes in Informatik und so weiter. Und das Standardformat der GFS („Gleichwertige Feststellung von Schüler*innenleistungen“) wird, was die Authentizität der Urheberschaft angeht, noch fragwürdiger.
Wir Lehrkräfte werden kaum auf eine wirksame Selbstverpflichtung der Schüler*innen zur Offenlegung ihrer KI-Nutzung hoffen können. Und schon jetzt hält die Leistungsfähigkeit entsprechender (selbst KI-basierter) Analysetools zur Erkennung KI-generierter Inhalte mit der Entwicklung der Sprachmodelle nicht Schritt. Einen Überprüfungswettlauf bei der Auffindung von KI-Spuren bei Schüler*innenleistungen können wir als Lehrkräfte nicht gewinnen. Und wir sollten das auch gar nicht wollen, weil sonst ein permanentes Misstrauen gegenüber unseren Schüler*innen die fragile Lehr-Lern-Interaktion belastet. Wir werden wohl genauer hinschauen, welche Lernleistungen in der Präsenzphase des Unterrichts erbracht werden müssen und welche in häuslicher Arbeit erledigt werden können, und vielleicht in den verschiedenen schulischen Fachdisziplinen neu durchdenken, was genau wie beherrscht werden muss.
Es ist also zu erwarten, dass die alltäglichen didaktischen Entscheidungen aufwändiger werden. Die Verantwortung für deren Gelingen darf nicht allein der einzelnen Lehrkraft überlassen werden. Wir brauchen einen klaren rechtlichen Rahmen für den Einsatz von KI im Schulbereich, organisatorische und inhaltliche Unterstützung der schulischen Fachschaften und mehr Zeit für Teamarbeit.
3. Quantifizierender Reduktionismus
Die Vielfalt der KI-Anwendungen wird erst möglich durch deren quantifizierenden Reduktionismus, der ohne Rücksicht auf den semantischen Wert Texte rein nach Mustern der statistischen Wahrscheinlichkeit zusammensetzen lässt. Daher scheitert KI auch oftmals an mathematischen Problemstellungen, die logische Schlussfolgerungen erforderten.
Auch wenn der Umfang des genutzten Trainingsmaterials immer größer wird, führt das bislang nicht dazu, dass diese Modelle die gesellschaftliche Vielfalt adäquat repräsentieren. Vielmehr kommt es zu Verkürzungen, Verzerrungen, zur Halluzination von fehlerhaften Fakten, zur Mainstreamisierung kultureller Vielfalt bis hin zu gravierender sexistischer und rassistischer Ausgrenzung. Es bleibt abzuwarten, inwiefern sich solche Defizite mit unserer Unterrichtspraxis (zum Beispiel im Hinblick auf die Grundprinzipien im Beutelsbacher Konsens) vermitteln lassen.
Signal-Präsidentin Meredith Whittaker kritisiert jedenfalls seit Jahren, dass sich in den großen Sprachmodellen die Machtmittel in den Händen weniger privater Konzerne perpetuieren: „Sogenannte KI basiert von Natur aus auf einer Machtbeziehung: Es gibt Menschen, die entscheiden, wie und welche Daten gesammelt werden und was sie bedeuten, und Menschen, über die diese Daten etwas aussagen sollen. [...] KI ist ja abhängig von Überwachung, denn sie braucht Daten. Überwachung ist die Basis des Geschäftsmodells der Tech-Unternehmen: Auf Basis dieser Daten werden Modelle erstellt, um diese zu verkaufen oder um den Zugang zu ihnen zu verkaufen, für gezielte Werbung und so weiter.“ (MIT Technology Review 6/22)
Und KI-Forscherin Kate Crawford spricht von „epistemological ‚flattening‘ of complex social contexts into clean ‚signal‘ for the purposes of prediction.“ (Enchanted Determinism: Power without Responsibility in AI, 2020)
Demgegenüber vertreten wir in der GEW-Landesfachgruppe Gymnasien energisch, dass die Reflexionstiefe im Umgang mit Komplexität, Vielfalt und Ambiguität kultureller Phänomene ein zentrales Qualitätsmerkmal gymnasialer Allgemeinbildung bleiben muss.
4. Demokratie und Wahrheit
Eingebettet ist unsere Vorstellung von gymnasialer Bildung in ein umfassendes emanzipatorisches Bildungsverständnis, welches auf eine „umfassende Verwirklichung des Menschenrechts auf Bildung“ abzielt, der „freien Entfaltung der Persönlichkeit“ dient und darum bemüht ist, „Ungleichheiten abzubauen“ und „Benachteiligungen entgegenzuwirken“ (Beschluss GEWerkschaftstag 2013).
Überhaupt sind wir in einer Zeit von Fake News und Deepfakes der Meinung, dass unsere Schüler*innen ein verlässliches Grundgerüst geprüfter Bildungsinhalte brauchen, an welchem kritische Reflexionsfähigkeit, Medienkompetenz und so weiter entwickelt werden können. Nur mit einem robusten und zugleich aufgeschlossenen Weltverständnis werden sie diese neuen Herausforderungen meistern.
Übungsmaterial dafür können auch offene KI-Systeme sein, welche die Forderung nach einer größeren Transparenz bei Programmcode, Trainingsdaten und Filtermechanismen erfüllen und welche überhaupt im schulischen Bereich rechts- und datenschutzkonform eingesetzt werden können. Das Zentrum für Schulqualität und Lehrerbildung (ZSL) schreibt dazu in seinen FAQs: „Damit ist ein Großteil der auf dem Markt verfügbaren KI-Chatbots für den unterrichtlichen Einsatz im Unterricht mit schutzbefohlenen Minderjährigen nicht erlaubt.“
Sind die Desiderate der Offenheit und Rechtskonformität im Betrieb erfüllt, ist darauf zu achten, dass tatsächlich auch alle Schüler*innen an der Anwendung partizipieren können. Für den Einsatz im Bildungswesen brauchen wir also KI-Anwendungen, die sich ohne Einschränkungen sozusagen an die Spielregeln unserer pluralen, demokratischen Gesellschaft halten.
5. Ökologische und soziale Implikationen
Last but not least werden wir auch die Ermöglichungsbedingungen von KI-Anwendungen sehr genau kritisch reflektieren müssen. Gemessen an der Anzahl ihrer Parameter sind die Modelle in den letzten Jahrzehnten exponentiell gewachsen. Deren Betrieb erfordert immense Rechnerleistungen mit entsprechendem Energie- und Rohstoffverbrauch.
Und außerdem stehen hinter vielen bestehenden KI-Anwendungen massive soziale Ungerechtigkeiten in der Gestalt ungezählter Klickarbeiter*innen vor allem des globalen Südens. In einem bemerkenswerten Essay (The Exploited Labor Behind Artificial Intelligence; Noema 13. Oktober 2022) resümieren die Autorinnen ernüchtert: „Far from the sophisticated, sentient machines portrayed in media and pop culture, so-called AI systems are fueled by millions of underpaid workers around the world, performing repetitive tasks under precarious labor conditions.“
Und Kate Crawford kommt in ihrer wegweisenden aktuellen Bestandsaufnahme (Atlas of AI. Power, Politics and the Planetary Costs of Artificial Intelligence. 2021) zu einer ernüchternden Einschätzung: „The practices of data accumulation over many years have contributed to a powerful extractive logic, a logic that is now a core feature of how the AI field works. This logic has enriched the tech companies with the largest data pipelines, while the space free from data collection have dramatically diminished. [...] The way data is understood, captured, classified, and named is fundamentally an act of world-making and containment. It has enormous ramifications for the way artificial intelligence works in the world and which communities are most affected. The myth of data collection as a benevolent practice in computer science has obscured its operations of power, protecting those who profit most while avoiding responsibility for its consequences.“
Inzwischen wird deutlich, dass das Thema KI in komplexe gesellschaftliche Problemstellungen führt. Und allein schon deshalb dürfte sich die unterrichtliche Auseinandersetzung damit als äußerst lohnenswert erweisen.
Ausgewählte weitere Links zum Thema
Zur Einführung:
- GEW und Helmut-Schmidt-Universität, Hamburg (PDF)
- Zentrum für Schulqualität und Lehrerbildung (ZSL): FAQs zu KI
- Bildungsserver
- Deutsches Schulportal der Robert Bosch Stiftung
- Beat Döbeli Honegger (2023): Chat GPT und Schule (PDF)
Weiterführende Informationen:
- Ethische Leitlinien für die Nutzung von KI und Daten für Lehr- und Lernzwecke (Europäische Kommission, 25. Oktober 2022)
- Handlungsleitfaden textgenerierende KI vom Schulministerium NRW (PDF)
- Zum AI-Act des EU-Parlaments
- Deutscher Ethikrat: Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz (März 23; besonders Teil 6 Bildung)
- Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (Hintergrundpapier Nr. 26, 21. April 2023: Steffen Albrecht: ChatGPT und andere Computermodelle zur Sprachverarbeitung – Grundlagen, Anwendungspotenziale und mögliche Auswirkungen)
GEW-Beschluss:
Einzelaspekte und Initiativen:
- Checkliste Desinformationsstrategien (PDF)
- klicksafe: Desinformation und Meinung
- Aufruf Künstliche Intelligenz (KI), Offenheit und Pädagogik (11. April 2023)
- Tübingen AI Center: Schokoroboter und Deepfakes. Ein Comic-Essay über Künstliche Intelligenz aus der Perspektive von Jugendlichen
- KI macht Schule (Inititative von Stipendiat:innen der Studienstiftung)
- Forschungsgruppe „Daten, algorithmische Systeme und Ethik“ am Weizenbaum Institut