Wenn KI sich menschlich anfühlt und wir anfangen, entsprechend zu handeln.
Wird KI unsere Beziehungen ersetzen?
Wird sie eines Tages unser Handeln bewerten – und uns dafür zur Rechenschaft ziehen?
In den 1990er Jahren formulierten Byron Reeves und Clifford I. Nass von der Stanford University das Paradigma „Computers as Social Actors“ (CASA). Es besagt: Selbst wenn wir wissen, dass ein System keine echte Person ist – behandeln wir es doch oft wie eine.