Zum Inhalt springen

Gastbeitrag von Birgita Dusse

Chatbot oder Verbot?

Wie verändert der Einsatz „Künstlicher Intelligenz“ die Lern- und Prüfungskultur an Schulen?

Generative KI-Anwendungen an Schulen: Das Beispiel ChatGPT

Als die generative KI-Anwendung ChatGPT für normale Internetnutzer:innen geöffnet wurde, führte dies zu einer breiten Medienberichterstattung. Schulbezogene Artikel kursierten hierbei häufig um die Frage, was Textgeneratoren für die Zukunft der Hausaufgaben bedeuten. Schreiben Schüler:innen jetzt also nur noch ab? Zumal ChatGPT nicht nur Texte generiert, sondern auch Mathematikaufgaben beantwortet sowie Codes programmiert.

Manche Schüler:innen nutzen zwar ChatGPT. Die KI-Anwendung ganz zu verbieten, hilft angesichts der weiten Verbreitung aber wenig. Mehrere Bundesländer haben deshalb bereits Leitfäden zum Umgang mit KI-Anwendungen an Schulen veröffentlicht – neben NRW z.B. Thüringen und Berlin. In den Leitfäden gilt die nicht gekennzeichnete Übernahme eines KI-generierten Textes als Täuschungsversuch mit entsprechenden Konsequenzen. 1 Sich kritisch-reflektiv mit KI, Algorithmen und Big Data an Schulen auseinanderzusetzen, ist umso wichtiger, je schneller sich KI-Anwendungen wie Text- oder Bildgeneratoren entwickeln und verbreiten.

In Zeiten von Fakenews wird Medienkompetenz zu einer Schlüsselkompetenz.

Im Unterricht können KI-Anwendungen Anlass für Unterrichtseinheiten zu Quellenkritik bieten: Wie glaubwürdig ist z. B. die Antwort eines KI-basierten Textgenerators? ChatGPT ist dafür bekannt, eloquent zu plappern, aber häufig zu „halluzinieren“, d. h. inhaltlich fehlerhafte Texte auszuspucken und das ohne Quellenhinweise. Um zu begreifen, wie ein Textgenerator arbeitet, ist es wichtig zu verstehen, wie große Sprachmodelle wie ChatGPT überhaupt funktionieren und produziert werden. Dies bleibt oft eine Blackbox. Die neuronalen Netzwerke der Großen Sprachmodelle werden mit immensen Datenmengen trainiert. Die KI kann aber nur so gut sein wie ihre Trainingsdaten und deren Modellierung. Sind diese diskriminierend, verzerrend, basieren sie auf Behauptungen oder sind sie veraltet, sind es die generierten Texte oder Bilder auch. Denn KI-generierte Texte oder Bilder basieren auf der statistischen Wahrscheinlichkeit, wie ein Text/ein Bild auf eine bestimmte Art fortgeführt wird.

Gute Textgeneratoren haben einen Nachtrainingsprozess durchlaufen, bei dem echte Menschen verzerrende und diskriminierende Effekte herausgefiltert haben. Häufig sind dies schlecht bezahlte Clickworker:innen im Globalen Süden. Beim Nachtraining von ChatGPT kam es dabei neben ausbeuterischen Arbeitsbedingungen auch zu Retraumatisierungen, wie am Beispiel eines Artikels über kenianische Clickarbeiter:innen im Times Magazine aufgezeigt wurde.2

OpenAI, die Firma hinter ChatGPT, warnt selbst vor verzerrenden Effekten und empfiehlt ChatGPT erst ab einem Alter von 18 bzw. ab 13 Jahren mit Erlaubnis der Eltern zu nutzen. Mehrere Datenschutzbeauftragte der Bundesländer haben eine ausführliche Anfrage an OpenAI gestellt, weil sie sich um die Einhaltung der DSGVO im Zusammenhang mit der Nutzung der KI-Anwendung sorgen.3

In der Schule sollte vermittelt werden, die mittels KI entstandenen Texte oder Bilder einzuordnen und zu bewerten – sowohl hinsichtlich des Wahrheitsgehalts als auch sexistisch oder rassistisch verzerrender Effekte. Auch das „Prompten“, also die möglichst genaue Befehlseingabe bei generativen KIs will gelernt sein. Um die Glaubwürdigkeit von KI-generierten Texten zu bewerten, braucht es neben Medienkompetenz schließlich aber auch weiterhin ein fundiertes fachliches Wissen.

Quelle: Canva Pro

Jenseits von ChatGPT – Weitere Anwendungsgebiete von KI an Schulen

ChatGPT und andere generative KI-Anwendungen sind nur die Spitze des Eisbergs. Intelligente Tutorielle Systeme (ITS) und Learning Analytics, d.h. die algorithmisch gesteuerte Auswertung gesammelter Daten von Lernenden und Lernumgebungen, sind bereits jetzt im Einsatz und sollen ausgebaut werden. Die Ständige Wissenschaftliche Kommission der Kultusministerkonferenz möchte beispielsweise die Entwicklung von ITS und Learning Analytics fördern. Hierbei steht zu befürchten, dass Konzepte, die Bildung auf messbare Lernschritte verengen, Überhand nehmen. Auch bilden die durch Big Data entstehenden Datenmengen für den Bildungsbereich Kontroll- und Überwachungsmöglichkeiten, die die GEW kritisch sieht.4 Bei Learning Analytics sind nicht nur Datenschutzfragen kritisch zu bewerten, sondern auch die Effekte, die z.B. beim Nudging („anstupsen“) entstehen. Die eingesetzten Technologien sind nie neutral, sondern werden aufgrund bestimmter Wahrnehmungen und Konzepte modelliert. Dies ist aber häufig für die Anwender:innen gar nicht überschaubar.5

Befürworter:innen des KI-Einsatzes an Schulen führen immer wieder die bessere Möglichkeit zum individualisierten Lernen an. Doch führt der Einsatz von KI wirklich zu einer besseren Würdigung individueller Lernmöglichkeiten oder nicht eher doch zu einer stärkeren Standardisierung? Vorsicht ist geboten, KI nicht als Allheilmittel zu sehen und auch die Diskriminierungsgefahren von KI-gesteuerten Prozessen in den Blick zu nehmen. Algorithmische Entscheidungen basieren auf Messbarmachung, Standardisierung und statistischen Berechnungen. Wer entscheidet darüber, welche Trainingsdaten benutzt werden und wie die Modellierung stattfindet?

Gerade für den unter Datenschutzaspekten hochsensiblen Schulbereich stellt sich die Frage, ob eine datengetriebene Schulentwicklung gewollt ist und wie viele Daten zu viel sind. Das EU-Parlament hat kürzlich mit dem KI-Gesetz Bildung als KI-Hochrisikobereich eingestuft. Herausforderungen für die Lern- und Prüfungskultur

Welche Herausforderungen hat KI für das Lernen?

Verlernen Schüler:innen das eigenständige Schreiben und Nachdenken durch den Einsatz von KI an Schulen? Angesichts ohnehin bestehender Förderbedarfe beim Schreiben könnte es sich negativ auswirken, wenn Schüler:innen KI-generierte Texte für Aufgabenstellungen einfach abschreiben und weniger selbst schreiben üben. Auch hier werden bereits Lösungen diskutiert, z.B. Kontrollmechanismen wie Wasserzeichen für KI-generierte Texte bzw. für menschengeschriebene Texte. KI sollte als Werkzeug betrachtet werden, das im besten Falle kreativ und produktiv eingesetzt werden kann. Das Selbstlernen kann KI nicht ersetzen, gerade wenn KI-generierte Ergebnisse beurteilt werden sollen.

Aus Sicht der GEW gilt es aber auch, eine Kultur des Vertrauens zu pflegen und die intrinsische Motivation der Schüler:innen zu stärken. Denn was hat ein:e Schüler:in eigentlich davon, Texte und Aufgabenlösungen einfach abzuschreiben? Fokussiert die Schule das Lernen und nicht die Notengebung, stellt sich die Frage anders, als wenn Ziffernnoten und Wettbewerb im Zentrum stehen. Das Ziel sollte eine Schule sein, in der Schüler:innen gerne, gut und gemeinsam lernen.

Derzeit werden auch automatisierte Prüfungsformate diskutiert, zum Beispiel von KI-unterstützte Korrekturen von Arbeiten und Klausuren. Werden Schüler:innen also bald von Prüfbots geprüft? Mangelnde zeitliche und personelle Ressourcen sollten zumindest nicht dazu führen, automatisierte Formate einzuführen, die noch weiter auf standardisierte und messbare Verfahren abzielen. Zudem werden Stimmen lauter, die den KI-Einsatz als Lösung gegen den Lehrkräftemangel präsentieren. Hier gilt es als Bildungsgewerkschaft dagegenzuhalten und die eigenen Positionen für mehr Ressourcen im Bildungsbereich zu betonen. Die Debatte um KI bietet nämlich auch die Chance, neue Prüfungsformate auszuprobieren, die mehr kritische Reflexion und Interpretation und weniger Abfragewissen integrieren. Mündliche Prüfungsgespräche, in denen die schriftlichen Arbeiten besprochen werden, sind eine Möglichkeit oder die Darlegung der einzelnen Arbeitsschritte.

Quelle: Canva Pro

GEW-Positionen und Aktivitäten zu KI im Bildungsbereich

Noch vor dem durch ChatGPT beschleunigten KI-Schub beschloss die GEW beim Gewerkschaftstag 2022 einen Antrag zu „Learning Analytics, Big Data und Algorithmen im Bildungsbereich“.6 Die GEW macht sich hierin für eine datenpolitische Bildung stark, die Wissen über Algorithmen – eingebettet in soziale Bezüge – vermittelt, um die Blackbox Digitalisierung zu decodieren und demokratisch zu gestalten. Lernende und Lehrende benötigen hierzu informatisches, aber auch instrumentelles, analytisches und strukturelles Wissen über die Prozesse und Akteure. Schule braucht Zeit und Möglichkeiten, um kreativ mit Medien zu experimentieren und diese didaktisch sinnvoll einzusetzen.

Die GEW fordert Transparenz bei behördlich eingeführten technologischen Systemen im Bildungsbereich. Wenn pädagogische Prozesse, Lernsettings, Diagnostik, Forschung oder personenbezogene Auswertungen algorithmisch gesteuert werden, müssen die Grundlagen der dahinterstehenden Algorithmen verständlich offengelegt werden. Deshalb setzt sich die GEW für mehr Angebote zur datenpolitischen Bildung für Lehrkräfte ein. Automatisierte Verhaltens- und Leistungskontrollen lehnt die GEW ab. Eine politische Technikfolgenabschätzung sollte es möglichst geben, bevor digitale Technologien eingeführt werden. KI-Systeme im Bildungswesen dürfen nicht hinter dem Rücken der Beschäftigten eingeführt werden.

Im September erscheint der Leitfaden „Automatisierte Lernsysteme und KI-Anwendungen an Schulen“, zu dem die GEW einen Text über Mitbestimmungsmöglichkeiten aus der Beschäftigtenperspektive beigetragen hat.

Die aktuelle explosionsartige Entwicklung von KI-Anwendungen zeigt, wie wichtig es ist, sich als Bildungsgewerkschaft in die Debatte einzubringen. Im Mai 2023 fand eine Onlinetagung des GEW-Hauptvorstandes zum Thema statt, auf der rege diskutiert wurde und u. a. nichtkommerzielle Alternativen zu ChatGPT & Co. ins Auge gefasst wurden.7

Die HV-AG „Bildung in der digitalen Welt“ hat sich dieses Jahr KI als Schwerpunktthema gesetzt. Am 16./17. November in Göttingen findet die Tagung „KI’ne gute Bildung ohne Algorithmen? ‚Künstliche Intelligenz‘ und Big Data im Bildungsbereich“ statt, die sich an GEW-Mitglieder und Interessierte richtet. Referieren werden u.a. Timo Daum, Derya Gür-Şeker, Nele Hirsch und Heidrun Allert.


1Schulministerium NRW (2023): Umgang mit textgenerierenden KI-Systemen: https://www.schulministerium.nrw/system/files/media/document/file/handlungsleitfaden_ki_msb_nrw_230223.pdf S. 8f.;

Senatsverwaltung für Bildung, Jugend und Familie Berlin (2023): Empfehlungen zum Umgang mit KI-Anwendungen am Beispiel von ChatGPT: Download unter: https://www.berlin.de/sen/bjf/service/presse/pressearchiv-2023/pressemitteilung.1316517.php;

Freistaat Thüringen, Ministerium für Bildung, Jugend und Sport (2023): Umgang mit generativen KI-Modellen: https://www.schulministerium.nrw/system/files/media/document/file/handlungsleitfaden_ki_msb_nrw_230223.pdf

2: Eva Wolfangel (2023): ChatGPT. Ausgebeutet um die KI zu zähmen, in Zeit Online: https://www.zeit.de/digital/2023-01/chatgpt-ki-training-arbeitsbedingungen-kenia

Meredith Whittaker (2023): Künstliche Intelligenz. Vermessung bis ins Innerste: https://netzpolitik.org/2023/kuenstliche-intelligenz-vermessung-bis-ins-innerste/

3https://www.heise.de/news/DSGVO-So-grillen-Datenschuetzer-OpenAI-9159102.html

4: Vgl. GEW-Hauptvorstand (2022): Stellungnahme zum SWK-Gutachten „Digitalisierung im Bildungssystem“, https://www.gew.de/fileadmin/media/publikationen/hv/Bildung-digital/20221220-GEW-CD-2022-Stellungnahme-SW-K1.pdf 

5: Vgl. Sigrid Hartong (2019): Learning Analytics und Big Data in der Bildung, GEW-Hauptvorstand Frankfurt: https://www.gew.de/index.php?eID=dumpFile&t=f&f=91791&token=702ec8d5f9770206a4aa8a1079750ec9021b90bf&sdownload=&n=Learning-analytics-2019-web-IVZ.pdf

6: Beschluss: https://www.gew.de/fileadmin/media/publikationen/hv/Bildung-digital/20230223-LearningAnalytics-LDin-2023-web.pdf 

7: Tagungsbericht von Nadine Emmerich: https://www.gew.de/aktuelles/detailseite/wir-brauchen-eine-ki-in-oeffentlicher-hand Weitere aktuelle Informationen und Positionen der GEW zum Thema Bildung in der digitalen Welt sowie KI findet ihr unter https://www.gew.de/bildung-digital und https://www.gew.de/ki

Kontakt
Birgita Dusse
Referentin „Bildung in der digitalen Welt“
Adresse Reifenberger Straße 21
60489 Frankfurt am Main
Telefon:  069-78973-308