Pro und Contra: Sollen wir bei Abschlussarbeiten zu KI-Detektiven werden?
Wie können künftig Abschlussarbeiten angemessen bewertet werden, wenn beispielsweise ChatGPT mit schreibt? Dr. Claudia Stadelmann Keller, Leiterin Qualitätssicherung Forschungsmethoden Lehre und Prof. Dr. Tobias Häberlein, Leiter Departement Informatik stellen sich der Frage, ob wir bei Abschlussarbeiten zu KI-Detektiven werden sollen.
Eine Frage, zwei Meinungen: Prof. Dr. Tobias Häberlein und Dr. Claudia Stadelmann Keller.
PRO: Claudia Stadelmann Keller
Die Frage beantworte ich mit JA. Allerdings geht es mir nicht um die Detektion «ob», sondern um «wie» KI eingesetzt wurde. Das «ob» ist schnell beantwortet und liegt schon im Schreibstil auf der Hand: Oberflächliche, überlange und nichtssagende «Wiki-Einheitsbreitexte» benötigen nicht mal ein Tool für die Detektion von KI. Das erkennen wir von blossem Auge. Auch wenn der Beweis in der Folge zugegebenermassen schwierig ist.
Wir haben als Hochschule die Pflicht, auf die Richtigkeit des Inhaltes und die akademische Redlichkeit einer wissenschaftlichen Abschlussarbeit zu achten und diese bestmöglich zu prüfen. Solange die KI ihrem Namen noch nicht gerecht wird und lediglich Informationen unreferenziert aneinanderreiht (man kann es auch plagiieren oder stehlen nennen), und solange die Studierenden den Nutzen der KI überschätzen (wie wir an der diesjährigen Kohorte gesehen haben), ist es an uns Prüfern, diese Defizite mühselig aufzudecken. Quellen müssen geprüft und Inhalte verifiziert werden.
Damit findet aber auch bei uns Prüfern ein Learning statt, welches uns ermöglicht, den Studierenden anhand konkreter Beispiele die Risiken von KI aufzuzeigen und die akademisch redliche Nutzung von KI zu fördern.
CONTRA: Tobias Häberlein
Die aktuellen Technologien der generativen KI sind weit davon entfernt, autonom kohärente und tiefgründige akademische Arbeiten zu erstellen. Generative KI kann unterstützen oder Ideen generieren. Aber die Fähigkeit, einen roten Faden zu spinnen oder eine Arbeit auszugestalten, bleibt (noch) eindeutig menschlich.
Durch einen unreflektierten Gebrauch generativer KI im Schreibprozess wird nicht nur die Struktur leiden, sondern auch der Gesamtzusammenhang fragmentiert. Hier können wir aber nahezu auf genau die Kriterien zurückgreifen, die wir schon immer herangezogen haben, um die Qualität akademischer Arbeiten zu beurteilen. Daher plädiere ich dafür, unsere Energie nicht darauf zu verwenden, Technologien zu jagen und zu identifizieren, die möglicherweise im Erstellungsprozess einer Arbeit verwendet wurden.
Es spricht nichts dagegen, Transparenz über die Verwendung von KI in der Abschlussarbeit einzufordern. Aber anstatt zu KI-Detektiven zu werden, sollten wir uns als Mentoren sehen, und unsere Studierenden darauf vorbereiten, die Werkzeuge und Technologien ihrer Zeit verantwortungsvoll und effektiv einzusetzen und gleichzeitig eine kritische Haltung einzunehmen, die weit über das blosse Bewusstsein, dass ChatGPT Fakten erfinden kann, hinausgehen muss.