Schüler und Studenten nutzen Künstliche Intelligenz wie das Programm ChatGPT nicht nur zum Lernen, sondern auch zum Betrügen. In Hamburg gibt es mehrere Fälle bei Abi-Klausuren. Beim Korrigieren werden Lehrkräfte mitunter ebenfalls misstrauisch – doch das reicht als Schummel-Beweis wohl nicht aus.
Einzelne Hamburger Schüler sind nach einem Medienbericht bei Schummelversuchen in Klausuren für das Abitur mithilfe einer Chatsoftware mit Künstlicher Intelligenz ertappt worden. In mindestens einem Fall habe eine Lehrkraft ein Smartphone gefunden, auf dem ein Programm wie ChatGPT geöffnet war, wie NDR 90,3 berichtet. Der Schüler habe den Betrugsversuch eingeräumt. Mit KI lassen sich eigenständig Texte zu beliebigen Fragestellungen produzieren.
Die Schulbehörde bestätigte dem NDR, dass es zudem mehrere Verdachtsfälle gibt. In weiteren Fällen waren Lehrkräfte beim Korrigieren misstrauisch geworden, weil Teile der Klausur mangelhaft, andere hingegen fehlerfrei waren, wie der Sender weiter berichtet. Die Schulen setzten daraufhin eine Software ein, die überprüft, mit welcher Wahrscheinlichkeit der Text von einer Künstlichen Intelligenz erstellt wurde. Ergebnis: wahrscheinlich wurde geschummelt. Sicher nachweisen kann die Rechtsabteilung der Schulbehörde das aber nicht.
Der Vorsitzende der Vereinigung der Hamburger Gymnasialschulleitungen, Christian Gefert, geht davon aus, dass nicht massenhaft bei den Abiturprüfungen geschummelt wurde. Er forderte im Gespräch mit NDR 90,3, dass die Schulbehörde klarer regeln sollte, wie die Schulen mit dem Thema Künstliche Intelligenz umgehen können. „Entscheidende Fragen zur Rechtssicherheit sind bisher unbeantwortet.“
Über die Hälfte der Schüler hat Erfahrung mit ChatGPT
Sowohl bei Schülern als auch Studenten sind Programme wie ChatGPT äußerst beliebt. In Deutschland haben laut einer Umfrage vom Digitalverband Bitkom über die Hälfte der Schüler die Anwendung schon mal genutzt. Seit ihrer Veröffentlichung vor einigen Monaten ist ein Hype um Künstliche Intelligenzen entstanden.
Entwickler OpenAI warnt bereits seit längerer Zeit vor ernsthaften Risiken der Technik, die immer weiter hinzulernt. „Wir versklaven KI, oder sie versklavt uns“, sagte der Chef des Unternehmens, Sam Altman, bereits 2016 dem Magazin „New Yorker“. Er wirbt derzeit deswegen unter anderem für staatliche Regeln für den Sektor, um potenzielle Risiken einzudämmen. „Unser Ziel ist es, digitale Intelligenz so voranzubringen, dass es am wahrscheinlichsten ist, dass sie der Menschheit als Ganzes nutzt“, hieß es von OpenAI in der Vergangenheit.