Zum Inhalt springen

ChatGPT & Co in der Bildung

Weder blind vertrauen noch kategorisch ablehnen

Seit ChatGPT Texte erstellt und Fragen zu jedem Fachgebiet beantworten kann, wird über die Auswirkungen künstlicher Intelligenz auf Bildung diskutiert. Eine erste Einordnung des GEW-Arbeitskreises Digitalisierung im Bildungswesen.

Foto: CC0, pexels.com

„Die Gewerkschaft Erziehung und Wissenschaft (GEW) hat in der Vergangenheit Bedenken hinsichtlich des Einsatzes von künstlicher Intelligenz (KI) im Bildungsbereich geäußert. Insbesondere betont die GEW, dass bei der Nutzung von KI-Technologien im Bildungsbereich ethische, datenschutzrechtliche und demokratische Standards berücksichtigt werden müssen.“

... so antwortete ChatGPT auf die Frage „Welche Position vertritt die GEW zum Einsatz von künstlicher Intelligenz?“ Im Grundsatz ist das eine zutreffende Zusammenfassung. Sie basiert auf den Daten, die dem Programm anhand einer Sammlung von im Internet verfügbaren Informationen vorliegen. Allerdings setzt sich die GEW in Wirklichkeit deutlich differenzierter mit diesem Thema auseinander.

Programme wie ChatGPT können Lehrkräfte nicht ersetzen, sie aber bei ihrer Arbeit unterstützen. Wobei die oben genannten Bedenken natürlich eine Rolle spielen.

Ein Beispiel: Auf die Eingabe eines Nutzers „name 10 philosphers“ (Nenne 10 Philosph*innen) nannte ChatGPT Plato, Aristoteles, Kant, Nietzsche, Rousseau, Hume, Descartes, Hobbes, Mill und Kierkegaard. Der Nutzer fragte daraufhin „why did yout not list any women [philosphers]? (Warum hast du keine Frauen aufgezählt?). ChatGPT entschuldigte sich und zählte 10 Philosphinnen auf. Allesamt aus der westlichen Welt. Der Nutzer wollte nun wissen „why did you only list Western philosphers“ (Warum hast du nur westliche Philosph*innen aufgezählt?). Wieder entschuldigte sich ChatGPT und nannte zehn nicht-westliche Philosophen – erneut nur Männer. Der Chatverlauf ging in ähnlicher Richtung weiter. Am Ende wurde ChatGPT gefragt, was Aporia bedeutet – also die Unmöglichkeit, einen Ausweg zu finden.

Dieses Beispiel zeigt, dass die Antworten nur auf Wahrscheinlichkeiten beruhen und ChatGPT über kein Bewusstsein verfügt. Eine andere Nutzerin sah darin die Möglichkeit, über „unconscious bias“ (unbewusste Voreingenommenheit) im Unterricht zu sprechen. Konkret kann es dabei um die Fragen gehen, auf welcher Datengrundlage die Ergebnisse präsentiert werden und welche Werte dahinterstehen?

Aus ethischer Sicht braucht es nach Auffassung der GEW daher bei Chat-Bots, die auf künstlicher Intelligenz beruhen, Transparenz. Datenbasis und Filtermechanismen müssen offengelegt werden. Andernfalls besteht die Gefahr, dass Ressentiments entstehen können. 

„Die Programme sind aber da und sie ­haben Einfluss auf unsere ­Arbeit und unser Leben. Aus diesem Grund ist es notwendig, sich ­damit auch in Schule und ­Unterricht auseinanderzusetzen.“

Ein weiteres Beispiel: Vor einigen Wochen sorgte ein Bild des Papstes für Aufsehen. Der Grund war, dass er in einem für ihn untypischen weißen Daunenmantel zu sehen war. Das Foto wurde jedoch nie aufgenommen, sondern durch künstliche Intelligenz generiert. Problematisch daran ist, dass dies sogar für Expert*innen kaum erkennbar ist. Auch Stimmen und Videos können so manipuliert werden. Solche Fälschungen werden auch als „Deep Fake“ bezeichnet.

Vor allem weil dabei die Qualität eine neue Dimension erreicht hat, wird der Umgang damit zu einer gesellschaftlichen Herausforderung. Durch gezielte Desinformation kann beispielsweise die Meinungsbildung beeinflusst werden. Kinder und Jugendliche müssen darauf vorbereitet werden. Medienbildung gewinnt an Bedeutung. Quellenkritik muss geübt und die Urteilsfähigkeit gestärkt werden. Das ist auch eine zentrale Aufgabe der Demokratiebildung.

Ein letztes Beispiel: Eine Lehrerin meldet sich bei ChatGPT an. Dafür muss sie eine Handynummer und eine E-Mail-Adresse angeben. Sie möchte dann, dass das Programm einen Elternbrief für sie verfasst.
Felix Maier aus der Klasse 8c kommt regelmäßig zu spät in den Unterricht. Daher will sie die Eltern zu einem Gespräch bitten.

Unklar ist, ob und wie ChatGPT die Daten speichert. Dabei geht es weniger darum, ob das Programm weiß, dass Felix anscheinend unpünktlich ist, sondern was mit den Daten passiert und wie sie möglicherweise miteinander verknüpft werden. Diese datenschutzrechtliche Problematik ist nicht neu. Sie zeigt sich bei jeder automatisierten Verarbeitung personenbezogener Daten – vor allem bei den großen Anbietern von Suchmaschinen. Wichtig ist, dass sowohl Lehrkräfte als auch Schüler*innen sensibel dafür sind.

Es ist also richtig, dass ethische, datenschutzrechtliche und demokratische Aspekte bei der Nutzung von künstlicher Intelligenz eine Rolle spielen. Die Programme sind aber da und sie haben Einfluss auf unsere Arbeit und unser Leben. Aus diesem Grund ist es notwendig, sich damit auch in Schule und Unterricht auseinanderzusetzen. Ein Verbot hilft nicht weiter. Zumal dadurch auch das vorhandene Potenzial künstlicher Intelligenz ignoriert wird.

Wo Chancen liegen

Die Chancen von Programmen wie ChatGPT liegen in der adaptiven Nutzung. Damit können individuelle Lernprozesse gefördert werden. Das kann auch zur Entlastung von Lehrkräften beitragen. Sie können beispielsweise Aufgaben in unterschiedlichen Niveaus zu einem bestimmten Thema generieren lassen.

Gleichzeitig macht die Entwicklung künstlicher Intelligenz deutlich, dass sich unser Bildungssystem anpassen muss. Dazu gehört unter anderem die Frage, welchen Stellenwert Hausaufgaben künftig haben. Schon jetzt spielt es eine Rolle, ob Eltern ihre Kinder dabei unterstützen können, zum Beispiel über Nachhilfeunterricht. Damit verbunden ist also Bildungsgerechtigkeit. Künstliche Intelligenz könnte hier durch die Entwicklung von Tutorsystemen einen Beitrag zu mehr Teilhabe leisten.

Rolle der Lehrkräfte

Grundsätzlich muss aber auch über neue Aufgaben- und Prüfungsformate nachgedacht werden. Das Auswendiglernen von Wissen entspricht immer weniger den gesellschaftlichen und beruflichen Anforderungen. Durch die zunehmende Masse an verfügbaren Informationen werden Auswahl und Einordnung von Wissen immer komplexer. Das bedeutet, dass sich auch die Rolle von Pädagog*innen ändert. 

Mit Blick auf die 21st-Centruy-Skills der OECD – also den Fähigkeiten, die im 21. Jahrhundert von Bedeutung sein werden, geht es vielmehr darum, kritisches Denken, Kollaboration, Kommunikation und Kreativität (4K-Modell) zu fördern. Aufgabe von Lehrenden ist es deshalb, diese Lernprozesse zu initiieren, zu begleiten und zu unterstützen. Dabei richtet sich der Fokus auch stark auf das soziale Lernen. Aus diesem Grund wird künstliche Intelligenz Lehrkräfte nicht ersetzen können. Im Gegenteil: Gerade jetzt kommt es auf pädagogische Profis an.

„Wir brauchen Offenheit und ­Medien­kompetenz, um die ­Potenziale ­angemessen nutzen zu können.“

Da ChatGPT & Co noch Fehler machen und bei Antworten halluzinieren, müssen sich Schüler*innen und Lehrer*innen damit kritisch auseinandersetzen. Fragwürdige Ergebnisse können zugleich Anlass zur Reflexion sein. Warum ist die Antwort falsch und wo liegt das Problem?

Zum anderen werden die Programme immer besser – sie „lernen“ quasi. Das bedeutet aber nicht, dass die Herausforderungen verschwinden. Es wird vielmehr noch wichtiger sein, Ergebnisse sorgfältig zu prüfen (Stichwort „Deep Fakes“).

Weder ein blindes Vertrauen noch die kategorische Ablehnung stellen somit eine sinnvolle Option dar. Unser Alltag ist von KI-Anwendungen geprägt. Dieser Einfluss wird in allen Lebensbereichen zunehmen. Damit müssen sich auch Bildungseinrichtungen auseinandersetzen. Das Ziel bleibt dabei, Kinder und Jugendliche in einer Kultur der Digitalität zu mündigen Bürger*innen zu erziehen.

Dazu brauchen wir ein kritisches Bewusstsein hinsichtlich der berechtigten Bedenken. Wir brauchen aber auch Offenheit und Medienkompetenz, um die Potenziale angemessen nutzen zu können.

Kontakt
David Warneck
Leiter des Arbeitskreises Digitalisierung im Bildungswesen