Dirk Srocke: ChatGPT ist in aller Munde. Aber wissen wir überhaupt, was das Tool kann?
Prof. Steffen Becker: Einerseits wissen wir natürlich, wie das Tool technisch arbeitet. Auf der anderen Seite können wir uns aber überhaupt nicht sicher sein, bis zu welchem Grad wir zuverlässige Ergebnisse erhalten, die sich sinnvoll einsetzen lassen.
Vielleicht kann man eine künstliche Intelligenz (KI) mit einer Hilfskraft vergleichen, an die ich Aufgaben delegiere. Letztlich muss ich aber immer selbst prüfen, ob das produzierte Resultat stimmig und plausibel ist.
Srocke: Hand aufs Herz: Wieviel würden Sie persönlich an so eine Hilfskraft delegieren?
Prof. Becker: Als Nichtmuttersprachler vertraue ich ChatGPT gern meine englischen Texte an – und die kommen da richtig gut poliert raus. Generell lässt sich das Tool immer dann gut einsetzen, wenn Texte produziert werden müssen. Technische Requirements oder Dokumentationen für Operationen in Programmtexten können mit so einem Werkzeug deutlich schneller, effizienter und nervenschonender als per Hand erstellt werden.
Srocke: Könnte ein Chatbot auch Übungsaufgaben für Studierende formulieren?
Prof. Becker: Das ist tatsächlich eine Frage, die wir uns im Moment stellen: Inwiefern kann ChatGPT den Studierenden helfen, selbstständig beliebig viele Aufgaben zu generieren? Um Grundfähigkeiten zu vermitteln, brauche ich nämlich relativ viele Beispiele und Übungen.
Dabei könnte man auch Antworten von Studierenden nachverfolgen und gezielt passende Aufgaben zu aktuellem Lernstand oder individuellen Lernschwächen stellen. Oder ich lasse die KI aus einer bekannten Grundstruktur maßgeschneiderte Einzelaufgaben für jeden Studierenden erstellen – samt passender Musterlösung. Damit hätten wir alles was man für einen ersten Lehrzyklus braucht. Netter Nebeneffekt: Es würde auch nicht mehr so viel voneinander abgeschrieben.
Srocke: Stimmt, dafür könnten sich Studierende die Lösung aber auch direkt von ChatGPT holen.
Prof. Becker: Das werden sie sicherlich versuchen und damit bei Wissens- oder Verstehensfragen womöglich kurzfristig durchkommen. In der Bloom-Taxonomie folgen allerdings noch die Ebenen Anwendung, Analyse, Synthese und Evaluation. Je höher man steigt, umso mehr Fehler macht ChatGPT – weil es an Trainingsdaten fehlt.
Daher sollte man sich noch viel mehr Gedanken über die Lernziele in einer modernen Gesellschaft machen. Wollen wir wirklich Leute ausbilden, die Jahreszahlen von irgendwelchen geschichtlichen Ereignissen auswendig aufsagen oder wollen wir, dass sie Informationen zielgenau finden, verifizieren und anwenden können?
Srocke: Was bedeutet das konkret für die Lehre?
Prof. Becker: Die klassische Prüfungsform mit der Klausur sehe ich nach wie vor nicht in Gefahr, weil schlicht und ergreifend kein ChatGPT zur Verfügung steht. Seminararbeiten werden allerdings daheim geschrieben und sind oft hochgradig reproduktiv oder zusammenfassend. Genau hier liegen auch die Stärken von ChatGPT. Da wäre zu hinterfragen, wie sinnvoll dieses Format künftig noch sein wird.
Auf jeden Fall wollen wir mündige Informatiker und Informatikerinnen ausbilden, die effizient mit allen verfügbaren Werkzeugen – und das umfasst nun mal auch Sprach-KIs – umgehen.
Srocke: Wird das Prompting – also die Interaktion mit dem Chatbot – damit zum Lehrstoff?
Prof. Becker: Genau diese Diskussion haben wir schon längst gestartet. Es könnte gut sein, dass wir unsere Studierenden in den kommenden Semestern schon mit KI-Werkzeugen wie Copilot oder ChatGPT programmieren üben lassen. Das ist nur folgerichtig: Warum sollten wir Werkzeuge verbannen, die ein Praktiker auf jeden Fall auch einsetzen würde?