Warum generative KI kein Taschenrechner ist: Unschärfe (#1)

Taschenrechner umgeben von unleserlichen Tasten. Gezeichnet im Manga Stil.

Vielleicht habt ihr den folgenden Satz so oder so ähnlich schon einmal gehört: „Ach, diese KI ist doch auch nichts anderes als ein Taschenrechner“ . Manchmal hört man auch folgenden Satz, gerade wenn es um Schule und Bildung geht: „Damals als wir in der Schule den Taschenrechner bekamen, haben wir ja auch nicht aufgehört Mathe zu lernen…“. Mir sind diese Sätze in letzter Zeit häufiger begegnet UND ich tue mich damit schwer. Warum? Weil es ein paar gute Argumente dafür gibt, dass generative Künstliche Intelligenz (KI) eben kein Taschenrechner ist.

Unter generativer KI wird im Folgenden immer eine Softwareanwendung verstanden, die man mit einer Eingabe füttert und die einem dann eine passende Antwort auf diese Eingabe generiert. Solche KI-Anwendungen, wie z.B. ChatGPT von Open AI, funktionieren nicht ohne große Sprachmodelle (sog. LLMs – Large Language Models) im Inneren, mit deren Hilfe die Anwendung Wortsilben (sog. Tokens) vorhersagt und so stückweise eine lesbare Antwort erzeugt.

Es folgt nun hier das 1. Argument einer Reihe von Argumenten, die ich der Übersichtlichkeit wegen auf mehrere Beiträge aufteilen werde.

KI-Sprachmodelle können mit Unschärfe umgehen

…und Taschenrechner eben nicht. Was meine ich damit? Schauen wir uns ein konkretes Beispiel an, dann wird vielleicht schon deutlich, was ich mit „Unschärfe“ meine. Stellen wir einem großen Sprachmodell die Frage: Waß ist die Haubstatt von Vrankraich?, dann bekommen wir zum Beispiel folgende Antwort:

Frankreich ist ein zentralisierter Staat, und seine Hauptstadt ist Paris. Die Hauptstadt ändert sich nicht, unabhängig von der Region oder dem Departement, über das wir sprechen. Daher ist die Hauptstadt von Frankreich, einschließlich der Region Frankreich, Paris.

Ich bemerke, dass Sie "Vrankraich" geschrieben haben, was möglicherweise ein Tippfehler oder eine Verwechslung ist. Wenn Sie sich auf eine bestimmte Stadt oder Region in Frankreich beziehen, bitte ich Sie, mir den korrekten Namen mitzuteilen, damit ich Ihnen genauere Informationen geben kann.

Offensichtlich hat das Sprachmodell „verstanden“, was ich wissen wollte, und das, obwohl ich mich bei der Fragestellung wirklich bemüht habe, die Frage mit Rechtschreibfehlern unkenntlich zu machen. Das Modell „erkennt“ in diesem Fall sogar, dass ich mich wahrscheinlich vertippt habe und spricht dies von sich aus an, ohne dass ich mit meiner Eingabe danach gefragt hätte. Diese Antwort stammt vom „Large“-Modell von Mistral AI, könnte aber auch von einem anderen großen Sprachmodell stammen.

Ein Taschenrechner kann dagegen nur Formeln berechnen, die einer mathematischen Grammatik und einem mathematischen Vokabular entsprechen. Kein Taschenrechner kann das Ergebnis von ⁵ * ɝ ausrechnen, obwohl die Symbole so aussehen wie Zahlen in einer Formel. Wir Menschen können Vermutungen und Deutungen anstellen und kommen dann vielleicht zu dem Schluss, dass mit diesen Symbolen die Formel 5 * 3 gemeint ist. Ein großes Sprachmodell könnte mit entsprechenden Trainingsdaten oder Beispielen lernen, dass hier eine Ähnlichkeit besteht. Taschenrechner können das aber nicht.

Pädagogische Perspektive

Was heißt das für Pädagogik und Bildung? Irgendwie liegt es nahe zu schauen, wo solch eine Fähigkeit – mit „unscharfer“ bzw. „fehlerhafter“ Sprache umgehen zu können – nützlich sein könnte. Sprachunterricht bzw. das Lernen einer Sprache kommt einem da vielleicht als erstes in den Sinn. Es liegt bekanntlich in der Natur der Sache, dass man beim Lernen einer neuen Sprache mit einem niedrigen Sprachniveau beginnt und einem dabei gerne noch Fehler passieren. In solch einem Kontext könnte eine generative KI als „Lernbuddy“ eingesetzt werden und beim Lernen helfen, weil diese auch mit (noch) fehlerhafter Sprache bzw. Schrift konstruktiv umgehen kann.

Ein weiterer Anwendungsfall könnte die Aufklärungsarbeit und Beratung in der Erwachsenenbildung sein. Und dort vor allem die Arbeit mit Zielgruppen, die ein niedriges Sprachniveau haben. In solchen Fällen wird auch gerne Einfache Sprache verwendet, die ein vereinfachtes Vokabular und eine einfache Grammatik benutzt. Das funktioniert bei Webseiten und Broschüren noch recht einfach, wird aber in einem echten Gespräch deutlich schwieriger. In der Theorie ist es durchaus denkbar, dass auch ein großes Sprachmodell ein Aufklärungsgespräch mit einer Person mit niedrigem Sprachniveau führt.

Aus pädagogischer Perspektive lässt sich daher auf einer eher abstrakten Ebene auch die These formulieren, dass große Sprachmodelle und generative KI aufgrund dieser besonderen Fähigkeit, mit „Unschärfe“ in der Sprache umzugehen, die Möglichkeit bieten, Kommunikationsbarrieren insbesondere für Menschen mit geringer Sprachkompetenz abzubauen. So wäre es durchaus denkbar, dass die Kommunikation mit einer solchen „intelligenten“ Maschine z.B. schambedingte Widerstände abbauen und die Partizipationsfähigkeit dieser Menschen fördern könnte.

Ein großes Problem in der Anwendung ist und bleibt aber noch die Frage des Datenschutzes. Die großen KI-Anbieter wie Open AI etc. benutzen die Eingabedaten aus ihren kostenlosen Angeboten (wie z.B. ChatGPT) für weitere Trainings ihrer Modelle. Das bedeutet, persönliche und private Information in Unterhaltungen mit diesen Modellen, werden durch das Training theoretisch öffentlich durch andere zugänglich. Dies widerspricht aber einer Vertrauensbasis, wie man sie im pädagogischen wie auch andragogischen Setting gerne hätte. Dies soll aber nicht bedeuten, dass es nicht doch irgendwann eine datenschutzkonforme Lösung hierfür geben könnte.

Die Suche nach einer guten Metapher

Wenn generative KI nicht mit einem Taschenrechner verglichen werden kann, womit kann sie dann verglichen werden? Gibt es eine Metapher, mit der wir die Funktionsweise der generativen KI leichter verständlich machen können? Ich habe selbst noch keine Metapher gefunden und nehme diese Frage daher einfach mit in den nächsten Beitrag dieser Reihe.

Mehr aus dieser Beitragsreihe

Warum generative KI kein Taschenrechner ist: Disposition (#2)

Generative KI haben eine Disposition und sind dadurch, in dem was sie Generieren, vorbestimmt.

Warum generative KI kein Taschenrechner ist: Lernfähigkeit (#3)

Generative KI sind lernfähig und können dadurch neue Fähigkeiten lernen, die nicht algorithmisch programmiert werden (können).

Credits:
Beitragsbild generiert mit aramintak/bandw-manga↗
Rechtschreibung poliert mit DeepL Write↗

Beiträge
Filter
Filter anwenden