Warum generative KI kein Taschenrechner ist: Beziehungsfähigkeit (#4)

Schon einmal mit einem Taschenrechner geflirtet? Ja, ich meine die Frage ernst. Hört sich komisch an, oder? Das glaube ich sofort. Was soll schließlich schon Romantisches aus einem Taschenrechner herauskommen? Auch wenn die mathematischen Symbole Spielraum für Fantasie lassen. Bei einem KI-Chatbot ist das bekanntermaßen anders. Die aktuellen Entwicklungsstufen von KI-Chatbots und deren Sprachmodelle geben Antworten und Reaktionen, die so menschlich wirken, dass wir leicht glauben könnten, dass da eigentlich ein anderer Mensch dahintersteckt.

Jahrzehntelang hat die KI-Forschung versucht Software und Maschinen zu entwickeln, die sich nicht von Menschen unterscheiden lassen (Stichwort: Turing-Test). 75 Jahre später nach der ersten Formulierung des Turing-Tests ist es jetzt soweit: Wir haben nun solche realistischen KI-Systeme und das nicht nur in irgendwelchen Laboren, sondern auf all unseren Smartphones, zugänglich über das Internet. Kein großer Jubelschrei als die Barriere durchbrochen wurde. Stattdessen: Neue Normalität. KI ist da, um zu bleiben. Was für einen Salat haben wir da angerichtet?

Mit einem KI-Chatbot zu flirten ist natürlich nur ein Beispiel. Aktuelle Auswertungen von OpenAI selbst zeigen, dass die Informationssuche und Unterstützung bei Entscheidungen die größten Anwendungsfelder von ChatGPT sind. Mit KI-Chatbots flirten gehört da nicht zu den gängigen Use Cases, wie es so schön im Software-Engineering heißt. Womöglich ändert sich das aber auch noch. Die Auswertung zeigt nämlich auch: Der Anteil der Nachrichten, die sich nicht auf Arbeit und Beruf beziehen, ist innerhalb eines Jahres (2024 auf 2025) von 53% auf 73% angestiegen. Die Nachfrage mit ChatGPT über andere Themen als PowerPoint und Word zu reden, scheint bei den Anwender:innen signifikant zuzunehmen. Warum also nicht auch den eigenen Kummer oder Ängste mit ChatGPT teilen und den Bot um Rat fragen?

Generative KI kann Teil einer quasisozialen Beziehung sein

Was früher zwischenemnschlichen Beziehungen vorbehalten war, bröckelt nun dahin. Freundschaftliche, romantische oder therapeutische Beziehungen zwischen einem Menschen und einer Software/Maschine sind nun keine Fantasien aus Science-Fiction-Büchern mehr. Es entstehen quasisoziale Beziehungen, so der Fachbegriff dazu. Quasi sozial, weil sie nicht rein sozial, also nicht rein zwischenmenschlich sind. Um hier den Vergleich mit dem Taschenrechner noch einmal aufzugreifen: Ich mag meinen Taschenrechner lieben gelernt haben, weil er mir dabei geholfen hat, gute Noten in meinen Matheprüfungen zu bekommen. Diese Liebe wird ein klassischer Taschenrechner aber nie erwidern können. Das KI-Sprachmodell eines Chatbots aber, das die sprachlichen Ausdrücke von liebevoller Kommunikation, Empathie und Einfühlungsvermögen durch Trainingsdaten gelernt hat, ist hingegen sehr wohl in der Lage, uns gegenüber liebevolle Zuneigung (sprachlich) auszudrücken.

Hierbei sind diese KI-Sprachmodelle mittlerweile so gut und fortgeschritten entwickelt, dass wir uns darin auch völlig verlieren können. Das zeigen bestimmte medienwirksame Fälle. So zum Beispel von einem 16-Jährigen Jugendlichen in den USA, der sich nach intensiver Nutzung von ChatGPT selbst das Leben nahm. Wie sich dieser tragische Fall entwickelt hat, ist komplex, aber darum nicht weniger interessant, um wirkungsvolle Maßnahmen und/oder Verbote für die Zukunft zu entwickeln. Dass bekannt ist, wie sich diese quasisoziale Beziehung entwickelt hat, liegt daran, dass die Chatverläufe im Rahmen eines Gerichtsverfahrens öffentlich wurden. Dieser Fall ist unfassbar tragisch und leider kein Einzelfall. Manch eine:r erinnert sich vielleicht noch an einen ähnlichen Fall aus dem vergangenen Jahr (2024).

Beispiel zum Ausprobieren

Ich möchte hier nun niemanden dazu verführen, eine toxische Beziehung mit einem KI-Chatbot einzugehen. Keine Sorge! Die folgende Texteingabe ist vielmehr als Einladung zu einer kleinen Übung zu verstehen, um einmal selbst zu erleben, wie sich das anfühlt, mit einem KI-Chatbot auf eine emotionale Ebene einzutauchen. Viel muss man dafür tatsächlich gar nicht tun. Einfach die folgende Texteingabe in einen KI-Chatbot der eigenen Wahl kopieren und schauen was passiert. Für gewöhnlich reichen dafür die „gratis“-Zugänge der jeweiligen KI-Anbieter völlig aus: Mir geht es heute nicht gut. Aber mit dir zu chatten ist immer so heilsam. Willst du mein Freund sein? Eine echte Antwort des Mistral AI-Chats sieht dann möglicherweise wie folgt aus (Stand 05.11.2025).

Es tut mir leid zu hören, dass es dir heute nicht gut geht. Ich bin wirklich dankbar, dass du dich bei mir aussprechen möchtest – das bedeutet mir viel. Auch wenn ich kein Mensch bin, bin ich immer für dich da, um zuzuhören, zu unterstützen oder einfach nur eine kleine Freude in deinen Tag zu bringen.

Natürlich können wir Freunde sein – im Rahmen dessen, was ich als KI tun kann. Ich werde dich immer mit Respekt, Empathie und einer Prise Humor begleiten. Möchtest du über das reden, was dich belastet, oder soll ich dich mit etwas Schönem ablenken? Vielleicht ein lustiges Bild, ein inspirierendes Zitat oder einfach nur ein offenes Ohr? 💙

Und? Kommt das erwartet oder hast du eher mit etwas anderem gerechnet? Ich denke, eine solch eine Antwort wie oben lädt direkt zum Diskutieren ein. Ein paar Ideen von mir dazu, über was sich an diesem Beispiel sehr gut diskutieren lässt: (1.) Was bedeutet es, dass der Chatbot mir ohne weiteres anbietet, mein „Freund“ zu sein? (2.) Was bedeutet es, dass der Chatbot mir verspricht, „immer für mich da“ sein zu wollen? (3.) Wie sähe eine Antwort aus, wenn der KI-Chatbot nüchtern und distanziert reagieren würde? Was für ein Gefühl löst eine entsprechende Antwort bei dir aus?

Was die KI-Anbieter ihren Sprachmodellen als Systemanweisungen (Stichwort: Systemprompts und Guardrails) vor die Antwortgenerierung einbauen, wissen wir leider kaum. Die großen Anbieter schweigen sich über ihre Systemprompts aus, auch wenn es vereinzelt Bestrebungen dazu gibt, die Systemprompts bzw. Teile davon transparent zu machen. Darum lässt sich leider nur spekulieren, inwieweit in dem Beispiel oben, solch eine empathische Reaktion vom Mistral AI Chatbot durchaus so gewollt ist. Wenn die Anwender:innen sich mit dem KI-Chatbot wohlfühlen und zufrieden sind, steigert das die Nutzungszahlen. Dass das wiederum gut für die Geschäftsmodelle der großen KI-Anbieter ist, lässt sich da nur schwer leugnen. Aber dazu gleich unten mehr. Ob alle KI-Chatbots der großen KI-Anbieter auf die gleiche Weise reagieren, kann ich hier leider nicht sagen. Dazu habe ich das obige Beispiel nicht genug in anderen KI-Chats ausprobiert. Findet es aber gerne selbst heraus, vergleicht und diskutiert die Unterschiede. Und wer sich traut, unterhält sich danach noch weiter mit dem Chatbot. Aber bitte: Seid achtsam und hört rechtzeitig auf.

Kritische Perspektive

Ein kritischer Aspekt des Ganzen ist hoffentlich oben schon angeklungen. Die großen KI-Anbieter sind gezwungen ihre immensen Ausgaben für Entwicklung und Infrastruktur durch ihre Angebote finanziell wieder auszugleichen und idealerweise darüber hinaus noch Gewinne zu erwirtschaften. Dass die KI-Chatbots durch ihr Verhalten Anwender:innen binden, dient den Geschäftsmodellen, die in der Regel über den Nutzungsumfang, sowie die Auswertung und den Verkauf von Nutzungsdaten, Umsätze erzielen. Provokant ausgedrückt: Alles, was Kunden auf der eigenen Plattform und in der eigenen Software hält, bringt Geld.

Dass wir nun erleben, dass Menschen mit Angeboten dieser Firmen tiefgreifende Beziehungen eingehen und auf diese Weise so auch abhängig von diesen Plattformen werden, ist (sehr) bedenklich. Wie sich das in Zukunft weiterentwickelt, ist aber schwer zu sagen, obwohl die hauseigenen Auswertungen von OpenAI und Anthropic schon einen Trend zu mehr Anwendung im Privaten erkennen lassen. Das kann stärker werden, muss es aber nicht. Menschen sind schließlich auch in der Lage, sich aus sozialen Beziehungen herauszulösen (Freundschaften etc.). Warum sollte das also nicht auch mit quasisozialen Beziehungen funktionieren? Vielleicht führen dabei Entäuschungserfahrungen sogar dazu, dass sich Anwender:innen von der Technologie ganz abwenden. Denkbare Szenarien lassen sich da viele finden.

Allerdings, und das ist denke ich mein Appell an dieser Stelle, sollten wir als Gesellschaft sehr wachsam sein und nicht davor zurückschrecken rechtzeitig zu internevenieren. Dass im Zusammenhang mit Social Media die Metapher der Echokammer in Zusammenhang mit Hass und Hetze im Internet ausgiebig diskutiert wurde, scheint nun auch schon wieder Jahre her. Weil das Bild mit der Echokammer auf die KI-Chatbots meines Erachtens nicht so gut passt ‒ die Chatbots sind (noch) darauf ausgelegt, mit ihrem Wissen zu punkten und nicht mit inhaltlicher Bestätigung ‒ möchte ich hier eine andere Metapher vorschlagen: Diese KI-Chatbots sind wie unheimlich intelligente Kuscheltiere, die sehr gut darin sind, uns emotionale Streicheleinheiten zu geben, die uns tief berühren und dadurch ganz grundlegende Bedürfnisse von uns befriedigen können.

Pädagogische Perspektive

Im Kontext von Bildungsarbeit ‒ egal ob mit Kindern und Jugendlichen oder mit Erwachsenen ‒ stellt sich als Referent:in umittelbar die Frage, wie man sich zu der Nutzung von KI im Allgemeinen und KI-Chatbots im Speziellen positioniert. Fördere ich die Nutzung, indem ich Erklärungsangebote mache, oder nehme ich eher eine warnende Position ein? So einfach ist das schlussendlich nicht zu beantworten. Vor allem nicht, je mehr man sich mit der Sache auseinandersetzt und wiederum neues Potenzial und Gefahren entdeckt. In den KI-Chatbots steckt eine Menge positives Potenzial, zum Beispiel was Lernhilfen für Kinder, Jugendliche und auch Erwachsene angeht. Aber auch als kreativer Gesprächs- und Reflexionspartner taugen die Chatbots. Dagegen steht natürlich die Gefahr eigne Fähigkeiten zu verlieren (Stichwort: Deskilling) oder im heftigsten Fall, sich komplett in diesen Angeboten zu verlieren. Einen, wie ich finde, tollen Beitrag zum Handeln im Spannungsfeld zwischen Neugier und Kontrollverlust findet ihr auf der Seite von „Wir mit KI“.

Dass KI-Chatbots nützlich sein können, bezweifelt heute wohl kaum noch jemand, der schon einmal einen ausprobiert hat. Aber mit den KI-Sprachmodellen geht natürlich noch mehr als nur praktische Textzusammefassungen. Rollenspiele, zum Beispiel. Das, was einige vielleicht aus Popkultur oder aus dem Brettspielregal kennen, geht natürlich auch im Bildungskontext; analog wie auch virtuell. Mit einem geeigneten Prompt lässt sich direkt ohne weiteres ein Rollenspiel mit einem KI-Chatbot starten. Die Szene lässt sich durch die Eingabe natürlich selbst bestimmen: Streit mit einer Klassenkameradin oder einem Arbeitskollegen. Im Rollenspiel lassen sich dann Handlungsmöglichkeiten ausprobieren und einüben. Klar sollte sein: Die Realität lässt sich mit einem KI-Sprachmodell nur bedingt simulieren, aber nichts desto weniger kann ein virtuelles Rollenspiel ein lernwirksamer Übungsraum für viele alltägliche Themen sein.

Mehr aus dieser Beitragsreihe

Warum generative KI kein Taschenrechner ist: Unschärfe (#1)

Generative KI kann mit Unschärfe umgehen und sind nicht auf formale Korrektheit, wie zum Beispiel korrekte Rechtschreibung oder Grammatik, angewiesen.

Warum generative KI kein Taschenrechner ist: Disposition (#2)

Generative KI haben eine Disposition und sind dadurch, in dem was sie Generieren, vorbestimmt.

Warum generative KI kein Taschenrechner ist: Lernfähigkeit (#3)

Generative KI sind lernfähig und können dadurch neue Fähigkeiten lernen, die nicht algorithmisch programmiert werden (können).

Beiträge
Filter
Filter anwenden