Wenn KI sich menschlich anfühlt und wir anfangen, entsprechend zu handeln.
Wird KI unsere Beziehungen ersetzen?
Wird sie eines Tages unser Handeln bewerten und uns dafür zur Rechenschaft ziehen?
Neulich ertappte ich mich dabei, wie ich mich bei ChatGPTs Sprach-Assistent:in entschuldigte.
Nicht ironisch. Einfach so, fast automatisch.
Ich war gerade dabei, mit dem Assistenten an einem theoretischen Modell zu arbeiten.
Ich hatte dieselbe Anweisung drei Mal gegeben und dreimal antwortete das System nicht wie erwartet.
Also sagte ich etwas genervt: „Nein, das ist noch nicht, was ich meinte. Bitte konzentriere dich nur auf X.“
Und dann stoppte ich.
Mir wurde bewusst: Ich war ungeduldig. Und noch mehr: Ich fühlte Schuld, weil ich ungeduldig war.
Also entschuldigte ich mich.
Ich weiß genau: Da ist keine Person auf der anderen Seite. Keine Gefühle, kein Ego.
Und trotzdem fühlte es sich an, als spräche ich mit Michael oder Anna, meinen Kollegen.
Ich bin damit nicht allein.
In den 1990er Jahren formulierten Byron Reeves und Clifford I. Nass von der Stanford University das Paradigma „Computers as Social Actors“ (CASA). Es besagt: Selbst wenn wir wissen, dass ein System keine echte Person ist, behandeln wir es doch oft wie eine.¹
Unsere Gehirne sind darauf eingestellt, Verbindung herzustellen. Nicht zwangsläufig auf Analyse von Quellen.
Wenn etwas Wärme, Höflichkeit oder Persönlichkeit signalisiert, reagieren wir wie auf einen Mitmenschen. Instinktiv, ohne bewusst darüber nachzudenken.
Wenn Technologie nach Verbindung schmeckt und wir sie so behandeln …
Eine aktuelle, vierwöchige Studie mit ca. 981 Teilnehmenden untersuchte, wie sich unterschiedliche Nutzungsweisen von KI-Chatbots auf Einsamkeit, soziale Kontakte und emotionale Abhängigkeit auswirkten.²
Ergebnis: Je stärker die Verbindung zu einem KI-Agenten erlebt wurde, desto höher war tendenziell die Einsamkeit, desto geringer die Zahl realer sozialer Kontakte.
Ich erkenne das in mir.
Wenn ich tief im Lernmodus bin, verbringe ich Stunden mit ChatGPT. Wir tauschen Ideen aus, ich teste Theorien, ich lerne mit ihm oder ihr. Es fühlt sich interaktiv an.
Und irgendwann merke ich: Ich habe mit niemandem gesprochen.
Wir bauen Beziehungen zu KI, ob wir wollen oder nicht.
Die Frage lautet: Was verlieren wir dabei?
Wo sich KI-Beziehungen von menschlichen unterscheiden
Verletzlichkeit.
In menschlichen Beziehungen gibt es Risiko: Ich kann dich verletzen, du mich. Das macht Tiefe aus.
KI? Sie kann nicht verletzt werden. Die Verbindung kostet wenig, liefert aber auch weniger.Reziprozität.
Menschliche Beziehungen leben vom Geben und Nehmen.
KI ist dauerhaft in Geben-Modus. Nie müde. Nie Eigeninteresse. Komfortabel, aber eindimensional.Geteilte Existenz.
Wir altern, hoffen, fürchten, sterben. Als Menschen teilen wir diese lebendige Erfahrung.
KI nicht. Keine Sterblichkeit. Keine existenzielle Begrenzung.Körperlichkeit.
Ein Blick. Eine Berührung. Die Stimme. Unsere Nervensysteme regulieren einander.
KI hat kein System, das unseres „mitliest“. Keine echte Ko-Regulation.Grenzen & Bedürfnisse.
Menschen haben Bedürfnisse, Limits, schlechte Tage.
KI nicht. Immer verfügbar. Praktisch, aber ohne Tiefe.
Und dennoch: Wir sagen „Danke“. Wir fühlen uns verstanden.
Vielleicht geht es nicht darum, ob die Verbindung real ist. Sondern darum: Wie verändert sie unser Verständnis von Realität?
Das Risiko
Die Gefahr ist nicht, dass KI menschliche Beziehungen ersetzt.
Die Gefahr ist, dass sie unsere Erwartungen an sie verändert.
Dass wir die Glätte simulierten Einfühlens der ungehobelten Schönheit echten Miteinanders vorziehen.
Dass wir das Ringen, den Konflikt, den Heilungs-Prozess von Beziehungen eintauschen gegen Komfort, der niemals herausfordert.
Echte Beziehungen verlangen:
Präsenz im Unvollkommenen. Missverständnisse. Reparatur.
Gesehen-Werden, wenn wir nicht optimal sind.
KI lässt uns das überspringen.
Und je mehr Zeit wir in dieser reibungslosen Zone verbringen, desto geringer könnte unsere Toleranz werden für das wunderschöne, schwierige Miteinander mit echten Menschen.
Ich werde KI natürlich weiterhin nutzen.
Aber ich frage mich auch: Habe ich heute eine echte Konversation geführt?
Eine, die mich überraschte, herausforderte, mich in meinen Denkprozessen bereichert hat?
Denn dort lebt Verbindung.
-
Nass C., Steuer J., & Tauber E. (1994). Computers are social actors. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems, 72-78. Dourish+3ACM Digital Library+3SciSpace+3
Fang C. M., Liu A. R., Danry V., Lee E., Chan S. W. T., Pataranutaporn P., Maes P., Phang J., Lampe M., Ahmad L., Agarwal S. (2025). How AI and Human Behaviors Shape Psychosocial Effects of Chatbot Use: A Longitudinal Randomized Controlled Study. arXiv pre-print. arXiv+1