Die Chancen und Risiken im Unialltag

Seit dem Start von ChatGPT, von OpenAI, freuen sich viele über die Möglichkeiten, die diese künstliche Intelligenz mit sich bringt: Wir können uns mit dem Bot unterhalten, er kann uns ganze Texte schreiben und in Sekunden für uns Informationen zusammenstellen, ohne dass wir stundenlang selbst das Internet durchsuchen müssen. Gerade Studierende und Schüler*innen sind begeistert – auf einmal sind Hausarbeiten und Referate kein Problem mehr. Oder?

Um dieser Frage näher auf den Grund zu gehen, haben wir mit Jannik Leuchtmann gesprochen. Er studiert Theologie und Geschichte auf Lehramt im Master und hält Vorträge an Schulen über die Anwendbarkeit von KI in der Didaktik. In seiner kommenden Masterarbeit möchte er die Chancen und Herausforderungen von ChatGPT in der Religionsdidaktik untersuchen.  

Wie bist du auf das Thema gekommen? 

Ich habe das Aufkommen von ChatGPT recht schnell mitbekommen und war beeindruck von dem, was ChatGPT leisten kann. KI im Generellen hat einen wahnsinnig großen Anwendungsbereich. Das geht von selbstfahrenden Autos bis zur Medizinethik. ChatGPT ist nur ein Teil davon und mein Schwerpunkt ist wiederum nur ein ganz kleiner Aspekt dieses Bots, spezifisch auf den Einsatz in der Didaktik. Dann habe ich mich mit einer Gruppe aus befreundeten Dozierenden, Lehrkräften und Studierenden zusammengetan und wir haben uns über die Monate jeden Donnerstag unsere neuen Erkenntnisse mitgeteilt.

Es ging darum, was der Chat-Bot alles leisten kann, wie wir das nutzen können und auch ganz klar um die Frage: Wo sind seine Grenzen? Wir waren eine Interessengruppe, die sich für ihren jeweiligen Fachbereich mit dem Thema befasst hat. Das Ziel war es, seine praktische Anwendbarkeit im Bereich schulischer Bildung zu untersuchen. 

Wie eine Art Buchclub für KIs? 

Das ist ein sehr guter Vergleich. 

Was genau sind Large Language Models? 

LLMs, oder eben Large Language Models, sind das, was wir gerade für ChatGPT oder ähnliche Programme als KI präsentiert kriegen. Auf Basis eines riesigen Datensatzes und einem Verständnis – Verständnis ist hier auch wieder schwierig – aber einem Verstehen von menschlicher Sprache, ist es möglich, eine nahezu menschliche Diskussion mit dem Chat-Bot zu führen. LLMs analysieren große Textmengen und berechnen mithilfe von Wahrscheinlichkeiten passende Sätze und Wörter. Der Datensatz hat zu jeder Thematik etwas, aber dessen recht oberflächliches Wissen ist für ein bestimmtes Thema nicht unbedingt so präzise, wie das von einer Person mit Doktortitel. Auf das Niveau würde ich ihn derzeitig nicht setzen. Aber er hat eben ein Verständnis von Sprache, und zwar in über 100 verschiedenen Sprachen. 

Wie zum Beispiel der Google-Übersetzer? 

Den großen Unterschied zwischen ChatGPT und dem Google-Übersetzer würde ich darin sehen, dass man ChatGPT den ‚Prompt‘, also den Befehl, geben kann, die Sprache schöner zu übersetzen. Im Englischen gibt es zum Beispiel die Redewendung ‚es regnet Hunde und Katzen‘, dieses Idiom übersetzt ChatGPT nicht wörtlich, sondern sucht ein entsprechendes Idiom aus der Sprache, in die übersetzt werden soll. Die Arbeit mit GPT-Programmen und LLMs hat den Vorteil, dass man ein elaborierendes Gespräch mit ihnen führen kann. Es ist wichtig, zu betonen, dass es sich hier nicht um eine KI wie aus Filmen handelt. Es ist ein Sprachmodell. Es kann aufgrund von Wahrscheinlichkeiten und durch gut gefüttertes Grundmaterial mit Sprache umgehen. Nicht mehr, aber auch nicht weniger.  

Das bedeutet, dass es kein eigenes Wissen hat? 

Ganz genau. Es hat einen großen Fundus an Daten, auf den es zurückgreift, beispielsweise Wikipedia und allerlei Fachliteratur. Allerdings hat es keinen eigenen Antrieb. Man tendiert als Mensch sehr schnell dazu, es zu personalisieren. Diese bewusste Distanzierung ist in meinen Augen wichtig.  

ChatGPT war in letzter Zeit bei Studierenden und Schüler*innen sehr beliebt, um damit Hausaufgaben oder Hausarbeiten zu schreiben. Ist der Bot ein gutes Werkzeug dafür? 

Ich persönlich würde die These aufstellen, dass man mit den jetzigen Mitteln recht gute Ergebnisse bekommen könnte, aber: Die Hochschule hat sich derzeitig entschieden, den Einsatz, die Hilfe und die Benutzung von KI in irgendeiner Form für Hausarbeiten als nicht erlaubt zu erklären. Es sei denn, es wurde von den Dozierenden explizit erlaubt und vorher mit ihnen abgesprochen. Es gibt viele Ansätze für ChatGPT und auch viele Probleme damit, die noch beleuchtet werden müssen.

Im Bereich Schule gibt es auch einige Fragen, die geklärt sein müssen: Wenn das Arbeiten mit dem Bot erlaubt ist, dann muss es für alle Schüler*innen zugänglich sein, ansonsten gibt es einen exzessiven Vorteil für einige. Oder es wird ganz verboten. Eine lückenlose Kontrolle, ob etwas von einer KI geschrieben wurde, ist aber schwierig, da auch die gängigen KI-Checker häufig falsche Ergebnisse produzieren. 

Wie könnte ChatGPT im Studium genutzt werden? 

Eine Nutzung müsste fachwissenschaftlich durchdacht, von den Gremien erlaubt und als adäquate Prüfungsleistung anerkannt sein. Wenn die Nutzung erlaubt ist, würde ich empfehlen, zum Beispiel einen Anhang am Ende einer Hausarbeit zu setzen, in dem genau aufgeschlüsselt wird, welche Daten ich dem Bot gegeben und wie ich mit ihm geredet habe. Im Grunde brauchen wir einen Rechenweg für ChatGPT in geisteswissenschaftlichen Arbeiten, da nicht immer derselbe Prompt zwangsweise dieselbe Antwort herausgibt. Wenn ich eine einfache Frage stelle, dann bekomme ich auch eine einfache Antwort. Und er macht seine Fehler und verkauft diese Fehler aber wiederum sehr gut, weil er sie wortgewaltig und überzeugend als Wahrheit deklariert.  

Ist einer dieser Fehler zum Beispiel, dass ChatGPT keine Quellen angeben kann, oder das Problem, dass die von ihm angegebenen Quellen häufig gar nicht existieren? 

Genau. Das kann dadurch erklärt werden, dass es sich eben um ein Sprachmodell handelt. Er weiß, wie eine wissenschaftliche Arbeit normalerweise aussieht, er weiß, wie eine Fußnote aussieht, kann selbst aber keine Literaturangaben machen, weil er nach Wahrscheinlichkeiten arbeitet. Er schaut nicht in seinen Daten nach, über welche Fußnote er ein Buch gefunden hat, sondern er erstellt eine Fußnote, die nur so aussieht, als wäre sie richtig. Was man aber vor allem mit dem neuen GPT-4 machen kann, ist die Übersetzung von Texten, die man nicht versteht. Zum Beispiel bei komplexer und langer Fachliteratur oder denen in einer anderen Sprache. Diese Texte kann man dem Bot geben und sich den Inhalt dieser Texte vereinfachen oder übersetzen lassen. Darin ist er galaktisch. Ich glaube, dass eine unserer größten Chancen mit ihm ist, dass die Sprachbarrieren zwischen wissenschaftlichen Arbeiten durchbrochen werden können.  

Wäre das Übersetzen von Texten durch den Bot eine Methode, die für wissenschaftliche Arbeiten erlaubt werden könnte? 

Das ist genau die Frage und einer der Prozesse, zu dem ich sagen würde, dass das mit den Dozierenden abgesprochen werden müsste. Aktuell ist es so: Was nicht explizit erlaubt wurde, ist verboten. Ich persönlich schätze die Vorteile für diese Anwendungen als größer ein als ihre Nachteile, kann die Uniperspektive jedoch auch verstehen. Das ist eine bahnbrechend neue Methodik, auf die wir in unserem jetzigen System nicht vorbereitet sind.

Da werden wir in Zukunft auf offene Kommunikation setzen müssen und – so leid es mir für Studierende auch tut – die Bedenken der Dozierenden ernst nehmen. Ich würde mir aber wünschen, dass man die Anwendung genau aufteilen würde: was ist erlaubt und was nicht? Die eigenen Texte im Hinblick auf Grammatik und Rechtschreibfehler zu korrigieren und das Übersetzen von fremdsprachigen Texten könnte vielleicht erlaubt werden, während das Erstellen von ganzen Textabsätzen nicht erlaubt wäre. 

Du gehst auch an Schulen und hältst zur dem Thema Vorträge. Was erzählst du da?

Ich erkläre Lehrkräften, was Kls, insbeosndere LLMs sind, welche Herausforderungen und Chancen sie mit sich bringen und gebe ihnen praktische Anwendungsbeispiele. Beispielsweise Erstellung von Arbeitsmaterialien, Planung von Unterricht oder Evaluation von abgehaltenem Unterricht. Dabei ist mir wichtig, die KI nicht als Vorschreiber, sondern als möglichen Diskussionspartner und als Werkzeug begreifbar zu machen.

Hast du abschließend noch einen Tipp für Studierende? 

Ich sage mal so, ich würde davor warnen, das als ‚Hausarbeit auf Knopfdruck‘ anzusehen. Wie mit jedem anderen digitalen Tool muss gelernt werden, damit umzugehen. Setzt euch nicht hin und versucht, die Leistung von ChatGPT als eure eigene auszugeben, kassiert dafür nicht einen Fehlversuch oder einen Plagiatsvorwurf. Zeigt lieber genau auf, was ihr machen wollt und beschnackt das mit euren Dozierenden. Es muss nachvollziehbar sein, was eure eigenen Gedanken sind und was vom Bot kommt. 

Vielen Dank für das Gespräch. 

Autor*in

Janne ist seit 2019 Teil der Albrecht Redaktion, zunächst als Leitung des Kulturresorts und Social Media, dann seit 2023 als stellvertretende Chefredaktion.

Autor*in

Eileen studiert Soziologie/Philosophie und ist seit Januar 2022 die Chefredakteurin. Sie leitete von Februar 2019 bis Anfang 2020 das Ressort für Gesellschaft. Danach war sie stellvertretende Chefredakteurin. Außerdem werden viele der Illustrationen im Albrecht von ihr gezeichnet.

Share.
Leave A Reply