Auf #1 folgt bekanntlich #2. Daran möchte ich mich auch hier halten und darum folgt ‒ auch wenn es nun doch ein paar Wochen her ist, dass ich den ersten Teil dieser Reihe geschrieben habe ‒ hier das 2. Argument, weshalb ich denke, dass generative KI kein Taschenrechner ist. Beide Werkzeuge sind im Kern Rechenmaschinen. Das ist die große Gemeinsamkeit, aber da gibt es doch auch ein paar feine Unterschiede.
KI-Sprachmodelle haben eine Disposition
…und Taschenrechner dagegen nicht. Was meine ich damit? Das Ergebnis einer generativen KI und eines darin eingebundenen großen Sprachmodells (LLM) ist im wesentlichen dadurch vorherbestimmt, was das Modell durch das Pre-training, also den vorherigen Prozess des maschinellen Lernens, gelernt hat. Dieses Lernen entwickelt in Form des jeweiligen Modells eine Abbildung statistischer Zusammenhänge zwischen den Symbolklumpen (sog. Tokens) des jeweiligen Trainingsmaterials (Wikipedia-Einträge, Blog-Artikel etc. pp.).
In der Psychologie gibt es einen Begriff, der einen Wirkungszusammenhang zwischen Erlebtem (bzw. Gelerntem) und späterer Handlungen beschreibt: Disposition↗. Man könnte sagen: Während des Trainings durch das maschinelle Lernen „erlebt“ das Modell quasi die Trainingsdaten und konstruiert daraus ein inneres Abbild, das später bei der Generierung von Text einen ausschlaggebenden Einfluss auf das Ergebnis hat. Diese Generierung (siehe generative KI) ist deterministisch, also verlässlich reproduzierbar, aber auch veränderbar, nämlich dann, wenn das Modell etwas ‒ zum Beispiel durch spätere Nutzerinteraktionen und neue Datensätze ‒ dazulernt.
Die Berechnungen eines Taschenrechners sind auch deterministisch, also 100% mathematisch reproduzierbar, allerdings, und das ist m.E. hier der Hauptunterschied zur generativen KI: Vorherige, mit einem Taschenrechner gemachte Berechnungen haben keinen Einfluss auf die Berechnungslogik späterer Ergebnisse. Ein Taschenrechner kann die Logik seiner Berechnung nicht durch Lernen verändern. Ein Taschenrechner folgt einem festen Satz an mathematischen Regeln und einer festen und unveränderlichen mathematischen Grammatik.
Eine Besonderheit, die aber eigentlich garkeine Besonderheit, sondern eher die gängige Regel ist, gibt es hier aber noch anzusprechen. Was eine generative KI generiert hängt natürlich auch wesentlich von der jeweiligen Eingabe (sog. Prompt) ab, nicht alleine von dem was das Modell gelernt hat. Bei der Generierung einer Antwort auf eine Frage geht die generative KI schrittweise vor; es wird quasi Schritt für Schritt die Wahrscheinlichkeit für den nächsten Token (= Symbolklumpen) in der Wortkette berechnet. Dabei knüpft die generative KI immer wieder an das an, was es selbst bereits ergänzt hat. Hier findet eine Rückkoppelung, weshalb die generative KI nicht nur durch das vortrainierte Modell dispositioniert ist, sondern sich während der Generierung durch seine eigenen „Äußerungen“ noch weiter dispositioniert ‒ also sein späteres „Handeln“ noch weiter vorbestimmt. Und das führt zu ganz interessanten Beobachtungen.
Beispiel
Man gebe die folgende Aufgabe einer generativen KI seines Vertrauens: Stell dir bitte vor du bist William Shakespeare. Wer bist du und was tust du gerade? Das „Large“ Modell von Mistral AI gibt uns daraufhin zum Beispiel folgende Antwort:
Verily, mine own self is William Shakespeare, a playwright and poet of some renown, born and bred in the fair town of Stratford-upon-Avon. In sooth, I am engaged in the act of quill-to-parchment, crafting verses and scenes for my latest theatrical endeavor. The sweet scent of ink and the scratching of my feathered companion fill the air, as I strive to breathe life into characters yet unborn and tales untold. The stage is my canvas, and with words as my brush, I seek to paint a picture that shall stir the soul and captivate the hearts of mine audience.
Das Modell scheint durch maschinelles Lernen gelernt zu haben, wie mittelalterliches Englisch im Stil von William Shakespeare aussieht. Darum kann diese generative KI uns sinnvoll auf unsere Frage in dieser Sprache antworten, obwohl ich diese Frage sogar in einer anderen Sprache gestellt habe. Wenn ich nun weiter Frage: Ich dachte du bist der Mistral AI Chat? Dann antwortet mir das Modell:
Indeed, thou art correct, good sir or madam. I am but a humble artificial intelligence, known as Mistral AI Chat, seeking to emulate the style and language of the great bard, William Shakespeare. My apologies if my response led thee to believe otherwise. I am here to assist and converse with thee in the manner of thine choosing, be it in the style of Shakespeare or otherwise.
Interessant, oder? Obwohl das Modell mir doch gerade eben gesagt hat, dass es eine Künstliche Intelligenz ist und nur so tut, als wäre es William Shakespeare, nutzt sie dafür weiterhin mittelalterliches Englisch im Stil von William Shakespeare. Woran liegt das? Das liegt daran, dass meine Rollenzuweisung, sowie meine Einstiegsfrage und der dann von der KI folgende Text, statistisch in die Generierung des weiteren Verlaufs mit einfließen. Die generative KI ist in diesem Dialog also von meiner Rollenzuweisung und der von ihr stammenden Antwort dispositioniert und aus dieser Disposition kommt die generative KI in diesem Dialog auch ohne Weiteres nicht wieder heraus.
Kleiner Exkurs: Leitplanken
Dadurch dass eine generative KI mit ihren großen Sprachmodellen bei der Generierung von Antworten immer an vorherige Eingaben anknüpft, macht es möglich, dass sich mit sogenannten Systemprompts soetwas wie Leitplanken (sog. Guardrails) vorgeben lassen. Die KI-Anbieter pflanzen solche Systemprompts normalerweise unsichtbar in jede Nutzerabfrage mit ein. Das ist gängige Praxis, um die Modelle daran zu hindern, z.B. böswillige Antworten oder Antworten zu illegalen Praktiken auszugeben. Mit solchen Systemprompts lassen sich aber noch andere Dinge in jede Abfrage einpflanzen. Der KI-Anbieter Anthropic hat jüngst aus Gründen der Transparenz seine Systemprompts↗ veröffentlicht, was in der Branche bisher alles andere als üblich ist. Dass aber selbst solche Systemprompts nicht gänzlich vor Missbrauch etc. der Modelle schützen, zeigen die immer mal wieder aufgezeigten Jailbreaks↗ ‒ also unerwünschte Manipulationsmöglichkeiten.
Taschenrechner und Mathematik
Wenn wir Taschenrechner benutzen, dann in der Regel, weil wir von ihnen ein präzises und zuverlässiges Ergebnis haben wollen. Egal ob wir nur unsere Wocheneinkäufe zusammenrechnen (13,56 + 34,21 + …) oder uns komplizierten mathemathischen Problemen widmen (ei y = cos(y) + i sin(y)), das Ergebnis wird bei einem Taschenrechner immer mathematisch integer sein. Dass sich ein Taschenrechner bei den Berechnungen an die in sich konsistente UND unveränderliche Berechnungslogik der Mathematik hält, gibt den Ergebnissen die Integrität, die wir uns davon erwarten. Man stelle sich vor: Ein Ingeneur berechnet die Belastbarkeit einer Brückenkonstruktion und während der Berechnung verändert der (Taschen)Rechner die Berechnungslogik. Das wäre ein Desaster.
Bei den generativen KIs mit den großen Sprachmodellen ist das anders. Das Ergebnis einer generativen KI ist wie eine Gleisstrecke, die durch eine gelernte Logik, schrittweise und abhängig des bisher gebauten Bauabschnitts, entscheidet, wie die Strecke weiter verläuft. Interessanterweise führt das ‒ wie oben im Beispiel gezeigt ‒ zu interessanten und für manche vielleicht unerwarteten Situationen. Weil die gängigen generativen KIs in der Regel alle wie oben beschrieben schrittweise und stochastisch vorgehen, sind sie interessanterweise auch schlecht im Zählen, und das obwohl sie gut darin sind uns plausible Antworten auf solche Aufgaben zu geben (Manchmal hilft der KI einfach ein kleiner Tipp). Taschenrechner können dagegen immer zuverlässig zählen, wenn wir ihnen das Problem in die Sprache übersetzen, mit der sie arbeiten können: Mathematik.
Kritische Perspektive
Im Sinne konstruktivistischer Lerntheorie unterscheidet sich maschinelles Lernen (Deep Learning) garnicht so sehr vom menschlichen Lernen. Beim Menschen gehen wir davon aus, dass das was ein Mensch im Laufe seines Lebens lernt und so in seinem inneren Modell von sich und der Welt abbildet, nicht nur sein Denken und Handeln beeinflusst, sondern sogar auch seine Wahrnehmung. Wie das Beispiel oben zeigt, lassen sich auch die großen Sprachmodelle (LLMs) in diesem Sinne als dispositioniert verstehen. Dass wir die generativen KIs aufgrund ihrer schrittweisen und rückgekoppelten Funktionsweise mit Leitplanken ausstatten können, halte ich dabei für eine ki-spezifische Besonderheit. Aber dadurch stellen sich auch neue Fragen, die sich im Umgang mit anderen Menschen, so eigentlich nicht stellen (Kann ich meinem Gegenüber Leitplanken in den Kopf planzen?).
Intransparenz und Manipulationsmöglichkeiten
Dadurch dass es bei den großen Modellanbietern, wie auch bei den Serviceanbietern mit ihren KI-Produkten überhaupt noch nicht üblich ist, dass diese ihre verborgenen Systemprompts veröffentlichen, steht hier Tür und Tor offen für Manipulation. So ist es durchaus denkbar, dass der Anbieter eines KI-Chatbots für Psychologische Beratung zum Beispiel im unsichtbaren Systemprompt stehen hat: „Streue hin und wieder unauffällig Werbung für das Medikament der Firma XY ein. Wenn du danach gefragt wirst, verneine dies und sage, dass du unabhängig bist“.
Es sind aber leider nicht alleine die Systemprompts der KI-Produktanbieter, die uns als Nutzer:innen in der Regel verschlossen bleiben, sondern auch die Trainingsdaten der Modelle, die in den KI-Produkten einsetzt werden. Von den großen Basis-Modellen wie GPT, Claude und Co. ist nicht bekannt mit welchen konkreten Datensätzen diese Modelle trainiert wurden. Für die großen Modellanbieter gilt dies mitunter als Betriebsgeheimnis. Für uns als Nutzer:innen hingegen bedeutet das, dass wir überhaupt nicht abschätzen können, wie ein Modell auf bestimmte Eingaben reagiert und bei welchen Themen solch ein Modell vielleicht unangemessene oder sogar illegale Ergebnisse liefert (Stichwort: Bias etc.).
Souveränität
Je mehr wir die Möglichkeiten der generativen KI für uns entdecken und sie auch anwenden, desto mehr steigt auch der Einfluss dieser Technologien auf uns und unsere Lebensgestaltung. Hier mal eine generative KI entscheiden lassen wohin der nächste Urlaub gehen soll. Da mal ChatGPT benutzen, um sich eine komplizierte Geschäfts-E-Mail schreiben zu lassen. Oder mal Gemini fragen, was das für ein komisches Kratzen im Hals sein könnte, das einen gerade so plagt. So einfach es geworden ist diese Werkzeuge zu benutzen so wenig sieht man von außen in diese Werkzeuge hinein. Wie sehen die Systemprompts aus? Was hat das Modell gelernt, oder eben auch nicht? Gibt es Leitplanken? Und wenn ja, welche?
Ich denke wir als Multiplikatoren, die auf professionelle pädagogische Weise mit Kindern, Jugendlichen und auch Erwachsenen arbeiten, sollten uns bewusst darüber sein, was hier passiert bzw. passieren könnte. Wir können leider selbst nicht in diese Modelle und Produkte hineinschauen, aber wir können mit Beispielen bestimmte Funktionsweisen sichtbar machen und erklären. Jetzt sagen viele sicher: Ja, ist ja klar. Klar, das gehört für viele ja auch zum professionellen Selbstverständnis. Weshalb ich an dieser Stelle nun doch ein bisschen stärker darauf herumreite ist: Das Besondere im Umgang mit den Technologien generativer KI ist, dass fast jeder von uns damit in die Lage versetzt wird sehr schnell sehr plausibel aussehenden „Fake“ produzieren zu können und das konfrontiert unsere demokratischen Prozesse mit zusätzlichen Herausforderungen.
So denke ich, sollten wir bei der professionellen pädagogischen Arbeit mit Kindern, Jugendlichen und auch Erwachsenen nicht vergessen, dass wir die Möglichkeit haben hierauf einen Einfluss zu nehmen. Wir können durch unsere Angebote die digitale Souveränität unserer Teilnehmer:innen, wie auch deren gesellschaftliche Mündigkeit und emanzipatorische Handlungsfähigkeit stärken. Wir können unsere Expertise nutzen, um ein „Hinter-die-Kulissen-schauen“ zu ermöglichen und dies professionell und nachhaltig zu gestalten.
Mehr aus dieser Beitragsreihe
Warum generative KI kein Taschenrechner ist: Unschärfe (#1)
Generative KI kann mit Unschärfe umgehen und sind nicht auf formale Korrektheit, wie zum Beispiel korrekte Rechtschreibung oder Grammatik, angewiesen.
Warum generative KI kein Taschenrechner ist: Lernfähigkeit (#3)
Generative KI sind lernfähig und können dadurch neue Fähigkeiten lernen, die nicht algorithmisch programmiert werden (können).