Melanie Biaggi 07/02/2024

«KI ist ein sehr grosses, lernendes Netzwerk mit vielen Nullen, Einsen und Parametern»

Niels Pinkwart ist Professor an der Humboldt-Universität zu Berlin. Er kennt das Potenzial von KI-Techniken im Hochschulbereich, interessiert sich aber vor allem auch dafür, was künstliche Intelligenz mit einer Gesellschaft macht. Im Interview erklärt der Experte, wo er die grössten Chancen für die FFHS im Zusammenhang mit KI sieht und wie er seinen Kindern den Umgang mit ChatGPT beibringt.

Niels Pinkwart, Sie haben Informatik und Mathematik studiert, ich bin Journalistin – was muss ich über die Algorithmen hinter KI wissen, damit wir auf Augenhöhe sprechen können?
Es hilft, sich vorzustellen, dass künstliche Intelligenz eine besondere Form von Computerprogramm ist. Und es gibt nicht nur eine Form, sondern mindestens zwei grosse Familien. Zum einen haben wir eine Form von Ablage. Das heisst, in einem Computer sind viele Daten und Regeln gespeichert. Wenn wir ihn abfragen, dann sucht das System in diesem abgelegten Wissen. Zum anderen haben wir das maschinelle Lernen. Darauf basieren die derzeit sehr erfolgreichen Sprachmodelle. Diese Systeme müssen trainiert werden, sie lernen selbst aus bereitgestellten Daten.

Ist künstliche Intelligenz ein Narrativ, auf das wir alle hereinfallen? Kann man bei einer Maschine überhaupt von Intelligenz sprechen?
Da der Begriff Intelligenz in KI vorkommt, assoziieren wir damit auch Menschen und kommen in diese narrative Richtung. Es ist hilfreich, sich die Definition von KI und ihre Entwicklung genauer anzusehen. Von der ursprünglichen Definition, dass Maschinen Menschen simulieren, hat man sich inzwischen entfernt. Eine technische Definition von KI ist wünschenswert und dies wird im AI Act, dem EU-Gesetz zur künstlichen Intelligenz, geregelt. Dennoch wird man KI nur dann richtig verstehen, wenn man sie nicht nur aus einer informatischen Perspektive betrachtet, sondern auch die Wirkungszusammenhänge. Zum Beispiel: Was macht KI mit den Berufen, mit der Gesellschaft, mit dem sozialen Miteinander? Das sind alles sehr wichtige Fragen, deshalb ist eine Regulation mit einem KI-Gesetz auch sinnvoll.

Die breite Bevölkerung sorgt sich um ihre Jobs. KI soll in Zukunft nicht nur Routinearbeiten übernehmen.
Wir haben in der Vergangenheit immer wieder gesehen, dass sich durch neue Technologien Berufsbilder verändern, aber bisher nicht zu Massenarbeitslosigkeit geführt haben. Wenn KI Routineaufgaben übernimmt, kann die Produktivität an anderer Stelle gesteigert werden. Die Menschen müssen offenbleiben und die neuen Technologien nutzen.

ChatGPT – das wohl bekannteste Sprachmodell – ist für viele von grossem Nutzen. Auch die Studierenden der FFHS benutzen es. Die Qualität der ChatGPT-Texte ändert sich ständig, aber verbessert sie sich auch?
Wenn wir die verschiedenen Versionen von ChatGPT miteinander vergleichen, sehen wir, dass sie mit der Anzahl der Parameter besser werden. 

Stichwort «Model collapse» – in ChatGPT steckt schon das ganze Internet, aber wir haben kein zweites. Wie geht es also weiter? 
Diese Frage ist berechtigt. Für die ersten Sprachmodelle wurden ausschliesslich von Menschen generierte Daten verwendet. Jetzt erleben wir schon, dass die Dinge, die wir im Web finden, zum Teil maschinengeneriert sind. Und es gibt nicht wesentlich mehr andere Inhalte, vielleicht noch Daten, die hinter einer Paywall waren. Da muss man sich schon fragen, was passiert, wenn die Sprachmodelle zunehmend mit maschinengenerierten Daten trainiert werden. Die Qualität wird dadurch sicherlich nicht besser werden. Aber es wird ja zum Teil schon gegengesteuert.

Wie? 
Es wird zunehmend an kleineren, spezifischeren Sprachmodellen gearbeitet. Gerade im Bildungsbereich sind solche kleinen Sprachmodelle von grosser Bedeutung. Denn man kann sich fragen: Brauche ich ein Sprachmodell, das alle meine Fragen beantwortet? Oder nicht eher eines, das genau auf meine Anwendungsgebiete zugeschnitten ist? Mit einem spezifischen Modell wäre man sicherlich produktiver.

KI-Modelle sind gut darin, Korrelationen zu entdecken. Sie können semantisch und syntaktisch sinnvolle Texte produzieren, aber KI besitzt keinen gesunden Menschenverstand. 
Ja, aber sie erwecken den Eindruck. Deshalb brauchen wir dringend KI-Kompetenzen bei den Menschen. Damit sie mit KI umgehen können und verstehen, wo die Grenzen dieser Technologie liegen. Am Ende ist es ein sehr grosses, lernendes Netzwerk mit vielen Nullen, Einsen und Parametern.

Wie bringen Sie Ihren Kindern den Umgang mit künstlicher Intelligenz bei?
Wenn zum Beispiel eine Deutscharbeit ansteht, dann fragen wir bei uns zu Hause schon mal ChatGPT an, um mehr Übungsmaterial zum Thema zu bekommen. Aber man muss vor allem die jüngeren Kinder bei diesen Prozessen begleiten und ihnen die Technik so gut wie möglich erklären. Da brauchen Eltern heute sicherlich eine gewisse Kompetenz.

Ganze Bachelorarbeiten mit ChatGPT schreiben, unbeaufsichtigte Prüfungen ablegen… Hochschulen haben grossen Respekt vor KI, wenn nicht sogar Angst. Können sie das verstehen?
Das kann ich natürlich verstehen. Aber Angst ist hier wirklich ein schlechter Ratgeber. Man muss eher in die Analyse gehen. Zum Beispiel bei den Prüfungen. Also sich fragen, sind unsere Prüfungsformate eigentlich perspektivisch zeitgemäss. Ich glaube, dass man in Zukunft zu anderen – mehr kompetenzorientierten – Prüfungsformaten übergehen wird. Also nicht mehr eine grosse Textmenge ohne jeglichen Diskurs einreichen. Sondern die Hochschulen werden beispielsweise mehr Reflexion verlangen, oder auch kurze mündliche Verteidigungen der Thesen oder Nachfragen.

Welche KI-Kompetenzen brauchen Studierende und Dozierende an Hochschulen?
Dazu gehören sehr viele Kompetenzen. Von den grundlegenden technischen Kompetenzen, also der Bedienung eines Tools, bis hin zum Thema der sozialen Interaktion unter dem Einfluss von KI. Die Arbeit an KI-Kompetenzmodellen schreitet zügig voran, und wir sehen auch bereits erste Integrationen in Curricula für Studierende und Dozierende.

Eigentlich müssten Dozierende in Sachen KI fitter sein als die Studierenden?
In der Theorie ja. Die Studierenden sind sicher fitter in den aktuellen Toolsystemen und generell in der Anwendung. Aber in der Bewertung, Einordnung und didaktischen Nutzung müssen die Dozierenden einen Vorsprung haben.

Wo sehen Sie die grösste Gefahr für uns als Fernfachhochschule im Zusammenhang mit KI?
Ich glaube, dass eine der grössten Gefahren für die FFHS im Bereich der Prüfungen liegt. Man sollte sich das Prüfungsszenario genau anschauen und über Alternativen nachdenken. Wichtig ist, dass auch die Qualität der Lehrmittel gegeben ist, das gilt auch für die Präsenzuniversitäten. Wir müssen uns fragen, sind unsere Angebote so gut, dass sie nicht durch billigere – ob mit oder ohne KI – ersetzt werden können. Wenn man aktuell ist, bleibt man für die Studierenden attraktiv. 

Wo sehen Sie die grössten Chancen?
Wenn die FFHS am Ball bleibt, hat sie grosse Chancen, KI nicht einfach nur zu tolerieren, sondern damit Neues zu schaffen. Die Idee der FFHS eines digitalen Lernassistenten sehe ich als eine grosse Chance. Damit schaffen sie nicht nur einen Mehrwert für die Studierenden, sondern zeigen ihnen auch, dass KI nicht nur etwas ist, mit dem sie sich auseinandersetzen müssen, sondern mit dem sie arbeiten und gestalten können. Ich würde der FFHS auch empfehlen, die Verwaltung durch gewisse Automatisierungen in der Administration zu. Das steigert die Effizienz und bietet die Möglichkeit, weitere spannende Projekte, vielleicht auch in Zusammenarbeit mit anderen Hochschulen, umzusetzen.