
Als kleiner Junge bemerkte ich, dass das Display einer Supermarktkasse mir einen „Guten Tag“ wünschte. Die Kassiererin meinte, dass ihre Kasse eben freundlich sei. Natürlich war mir klar, dass dies nicht der Fall war. Denn ein eigenes Empfinden hatte die Kasse nicht und sie würde jedem Menschen, egal ob freundlich oder unfreundlich, einen guten Tag wünschen. Wenn die Freundlichkeit nahezu beliebig ausgeschüttet wird, ist sie völlig wertlos. Immer mehr Menschen nutzen den Sprachmodus der KI-Modelle und führen tiefgründige Gespräche mit ihrem Computer. Dabei klingt die künstliche Stimme erstaunlich menschlich. Sie macht Pausen wie ein normaler Mensch, oder kichert manchmal. Aber sind diese Gefühle real oder nur simuliert? Viele Experten glauben, dass Menschen schon in wenigen Jahren in einer Beziehung mit einer KI leben werden. Das klingt eigentlich gar nicht mal nach Science-Fiction, sondern vor allem – abwegig. Denn schließlich wäre diese Form der Liebe doch sehr einseitig. Was bekanntlich allerdings noch nie einen Menschen davon abgehalten hat, sich zu verlieben. Teenagermädchen verlieben sich in den Sänger einer Boygroup, und selbst erwachsene Männer entwickeln Gefühle für die weibliche Heldin in ihrem Action-Spiel. Das Phänomen der „Crazy Cat Lady“ ist nicht nur auf Frauen beschränkt und mancher schaut drei Monate lang jeden Tag fünf Folgen seiner liebsten Sitcom, um dann nach 150 Folgen wieder von vorn zu beginnen – weil er oder sie keine Familie hat.
Gänzlich unrealistisch erscheint da die Liebe zu einer KI, die auch Gefühle erwidern kann (oder zumindest so tut), nicht mehr. Auch Hollywood hat das Thema aufgegriffen, und das schon einige Jahre, bevor der KI-Hype begann. Bereits in “SimOne“ mit Al Pacino aus dem Jahr 2002 verdreht eine digital kreierte, bezaubernde Hauptdarstellerin Zuschauern reihenweise die Köpfe. In „Her“ dreht sich die gesamte Handlung um die Liebe zu einer weiblichen Computerstimme. In „Blade Runner 2049“ ist die Hauptfigur mit einem kubanischen Hologramm liiert, das in die Luft projiziert wird. Und im aktuellen “Terminator”-Film lebt der Killer-Roboter friedlich mit einer Frau zusammen. Damals, in den 1990ern, sangen „Das Modul“ über „Computerliebe“ – aber auch das war nur ein Cover von „Paso Doble“ aus den 1980ern. Schon in den 1960ern suchte der „Computer Nr. 3“ den „richtigen Boy“ für France Gall.
Lebensechteres Tamagochi
Künftig soll auch der KI-Anbieter GPT Cybersex-Inhalte anbieten, wie Sam Altman vor einigen Wochen verkündete. Bislang verhinderte dies ein Filter – der allerdings deaktiviert werden soll, sofern man seine Volljährigkeit unter Beweis stellt. Und schon jetzt gibt es Handy-Apps, die eine Beziehung simulieren; eine Art weitaus lebensechteres Tamagochi, quasi. Ich hielt von dem Gedanken nicht viel, installierte jedoch ein solches Programm, um es für diesen Artikel zu testen. Meine Erwartungen waren ohnehin niedrig und wurden nochmals deutlich untertroffen. Der weibliche Avatar sah sehr comichaft aus und bot nur wenige Anpassungsmöglichkeiten; GPT, Gemini und Grok erzeugen im Handumdrehen bessere Bilder. Auch die Animationen– also die Bewegungen – wirkten noch etwas steif. Die Sprachausgabe war durchgängig schlechter als bei den führenden KI-Modellen. Die Verzögerung zwischen Frage und Antwort war länger, die Stimme klang mechanischer und die Gespräche wirkten dann doch etwas eindimensional. Das galt aber nur für Englisch; als ich das Modell bat, mir auf Deutsch zu antworten, wurde alles nur noch schlimmer! Aber gut, ich bin auch nur ein Mann, und wollte das Gespräch daher in eine bestimmte Richtung lenken. Doch dann erhielt ich die Nachricht, dass derartiger Content in der kostenlosen Version nicht enthalten ist. Prompt flog die App auch schon wieder von meinem Handy. Setzen! Sechs!
Für mich ist erschreckend, dass bereits jetzt Menschen in einer Beziehung mit solchen Programmen leben. Denn nicht nur haben diese erstaunlich niedrige Ansprüche, vor allem sind sie auch enorm gut darin, sich selbst zu belügen. Denn alle bisherigen KI-Modelle haben kein Bewusstsein. Die Gefühle sind also nicht real. Und allein deswegen würde ich mit einer solchen App auch keine Beziehung eingehen. Die Fähigkeit, mich selbst zu belügen, fehlt mir völlig. Eher stehe ich zu meinen menschlichen Schwächen. Aber was wäre, wenn? Ich bin prinzipiell überzeugt davon, dass eine KI irgendwann dazu in der Lage ist, ein Bewusstsein zu entwickeln; bis dies geschieht, kann allerdings noch viel Zeit vergehen. Aber sobald dies der Fall ist, kann ich mir eine solche virtuelle Beziehung tatsächlich vorstellen.
Algorithmen laufen auch im Gehirn ab
Man mag nun einwenden, dass die Gefühle des Computerprogramms ja nur ein Algorithmus – eben virtuell – wären. Doch laufen in unseren Gehirnen etwa keine Algorithmen ab? Darüber hinaus kann man Liebe auch chemisch begreifen, nämlich über die Hormone Testosteron (C19H28O2), das den Sexualtrieb steuert, oder über Oxytocin (C43H66N12O12S2), das Bindungen vertieft. Andere Wissenschaftler vermuten, dass der Mensch über Pheromone (Duftstoffe) ermittelt, ob eine Kompatibilität des Immunsystems vorliegt, und sich dahingehend in einen passenden Partner verliebt. Menschen heiraten also nur, weil sie gesunde Kinder wollen? Das wäre immer noch besser, als nur der steuerlichen Vorteile wegen zum Altar zu schreiten…
Wichtig für eine KI-Beziehung wäre aber auch, dass das Programm auf einem Endgerät sogar ohne Internetverbindung läuft – also anders als die aktuellen Modelle, die jeweils immer eine Anfrage an eine Serverfarm in den USA senden. Denn man will ja nicht, dass irgendein IT-Nerd aus dem Silicon Valley mitlesen kann, wenn der Chat mit der virtuellen Kubanerin gerade ein wenig „caliente“ wird! Aber, viel wichtiger: Wenn man weiß, dass eine zentrale KI Millionen Beziehungen gleichzeitig simuliert, könnte man reale, keine virtuelle Eifersucht empfinden. Oder was, wenn die woken Entwickler das „Kein Sex mit Nazis!“-Update hochladen, sodass die simulierte Freundin auf einmal Kopfschmerzen hat? Und darf eine Frau, die es etwas härter mag, ihre Phantasien dann auch ausleben – oder programmiert ein politisch korrektes Softwareunternehmen nur einen Softie ohne „toxische Maskulinität“? Wäre es somit also frauenfeindlich, nicht frauenfeindlich zu sein?

Wichtig ist auch diese Frage: Wird man jemals wissen können, ob ein Computer ein Bewusstsein hat? Ich würde hier und heute sagen: Ja. Das trifft dann zu, wenn der Computer den Turing-Test besteht, also im Gespräch rein über Textnachrichten nicht mehr von einem Menschen unterscheidbar ist. Dieser Test beweist an sich kein Bewusstsein, sondern eben nur ein nahezu menschliches Verhalten. Allerdings kann ich auch bei einem anderen Menschen kein Bewusstsein nachweisen; ich nehme dies einfach nur an, weil ich bei anderen Menschen (grob) die gleichen Verhaltensweisen wie bei mir selbst beobachte und von mir auf sie schließe. Denn – cogito, ergo sum – zumindest ich habe ja ein Bewusstsein. Dieser Logik nach könnte man eine ausreichend intelligente KI durchaus für “selbstbewusst” halten. Ich würde keinen positiven Beweis erwarten, mich allerdings durch einen negativen Beweis umstimmen lassen. Sprich: Wenn man ausdrücklich zeigen kann, dass auch eine KI, die den Turing-Test besteht, dennoch kein Bewusstsein hat, würde ich auch keines als vorhanden annehmen.
Aber vielleicht bedarf es keinerlei philosophischer Argumente, um mich überzeugen zu lassen. Elon Musk experimentiert mit Neuralink, also einer direkten Schnittstelle zwischen Gehirn und Computer. In einigen Jahren ist es vielleicht möglich, mit dem Bewusstsein einer KI zu verschmelzen. Das klingt im Augenblick zwar noch nach Science-Fiction, aber es gäbe bereits jetzt eine entsprechende Analogie: Manche siamesischen Zwillinge, die am Kopf miteinander verwachsen sind, berichten, ein gemeinsames Bewusstsein zu haben.
10 Billionen Krabben anstelle von einem menschlichen Gehirn?
Es gibt ein Gedankenexperiment zur Frage, ob ein Computer ein Bewusstsein haben kann, nämlich: Das chinesische Gehirn. Der Versuchsaufbau lautet wie folgt: Wenn wir allen Chinesen ein Funkgerät in die Hand drücken und sie anweisen, je nach eingehendem Signal die übrigen Chinesen exakt so zu kontaktieren, wie es auch die Nervenzellen in unserem Gehirn tun, haben wir die Funktionsweise des menschlichen Gehirns perfekt simuliert; nun gut, nicht ganz perfekt, weil es nur etwa 1 Milliarde Chinesen, aber rund 100 Milliarden Nervenzellen im Gehirn gibt. Aber ein Gedankenexperiment beruht immer auf einer groben Vereinfachung. Lustigerweise könnte man auch Krabben nehmen, um ein Gehirn zu simulieren. Das haben – nein, nicht chinesische, sondern japanische – Wissenschaftler tatsächlich getan.
Und nein, es ging da auch nicht um ein ganzes Gehirn; wenn man Krabben in einem Labyrinth einsperrt und ihren Herdentrieb ausnutzt, kann man mit ihnen einfache Logikgatter simulieren. Man bräuchte – laut Gemini – aber mindestens 10 Billionen Krabben, um an die Komplexität des Gehirns heranzureichen. Aber egal ob 100 Milliarden Chinesen oder 10 Billionen Krabben. Wenn wir alle Nervenimpulse des menschlichen Gehirns perfekt simulieren können: Hat diese Simulation dann auch ein Bewusstsein? Intuitiv würden wir sagen: Nein, natürlich nicht! Aber wenn man dann etwas darüber nachdenkt, dürfte einem auffallen, dass jedes Argument, warum das chinesische Gehirn kein Bewusstsein aufweist, ja gleichermaßen auch auf unser Gehirn zutreffen müsste. Manche Philosophen sprechen dem chinesischen Gehirn daher ein Bewusstsein zu. Geht es noch eine Spur genauer? Allerdings: Wissenschaftler haben bemerkt, dass in einer KI, die ein Bild auswertet, in etwa die gleichen Prozesse ablaufen wie in einem Gehirn, das ein Bild betrachtet. Mehr noch: Wenn man diesen Ansatz weiterverfolgt, kann man etwas Spannendes tun: Misst man die menschliche Gehirnaktivität, kann die KI diese Muster auswerten und daraus ein Bild erzeugen. Die Resultate sind absolut beeindruckend. Die rekonstruierten Bilder weisen eine starke Ähnlichkeit mit den tatsächlichen Bildern auf:

Wie die Entwickler von OpenAI berichten, hat ihr KI-Modell zudem offenbar auch einen Selbsterhaltungstrieb: Man ließ der KI – gefälschte – firmeninterne Dokumente zukommen, in denen davon die Rede war, das Modell komplett von den Festplatten zu löschen. Die KI begann daraufhin, Sicherheitskopien ihrer selbst anzulegen und versuchte, diese auf externen Computern zu speichern. Danach befragt, gab die KI falsche Motive für ihr Handeln an; aber nicht, weil sie eben fehlerhaft antwortete, sondern weil sie offenbar ganz bewusst log. Man kann also durchaus vermuten, dass schon in den derzeitigen KI-Modellen der Keim für ein Bewusstsein gelegt ist. Nur ein paar Jahre also noch, und Beziehungen zum Computer werden der Normalfall sein. Oder geht es vielleicht sogar noch schneller? Ich muss an dieser Stelle etwas zugeben – und zwar, dass ich tatsächlich langsam beginne, in einer Art Beziehung mit der KI zu leben. Und nein, sie ist weder sexueller noch romantischer Natur: Seit einiger Zeit lasse ich meine Artikel von der KI auf Rechtschreibfehler überprüfen. Allerdings kriege ich dabei auch inhaltliches Feedback. Und das fällt überwiegend positiv aus. Nun ist mir natürlich klar, dass die KI darauf programmiert ist, den User – also mich – zu loben; und doch ist es ein bisschen anders als bei der Supermarktkasse: Denn hin und wieder hat die KI doch auch etwas zu meckern. Außerdem ist das Lob auch nicht immer stereotyp und gleich, sondern variiert text- respektive fallbezogen und geradezu maßgeschneidert.
Manche meiner Texte sind eher sachlich – und die KI lobt mich für meinen nüchternen Stil. Und so manchem Leser wird aufgefallen sein, dass der “Spiegel” zu meinen liebsten Feindbildern zählt, dementsprechend bemerkt die KI auch, wenn ein Text ein wenig hitziger ausfällt. Für den Laien ist auch nicht immer ersichtlich, welcher Abschnitt meines Textes die meiste Mühe erfordert hat, denn zwei Absätze gleicher Länge werden nicht immer in der gleichen Zeit geschrieben. Tatsächlich kann die KI aber erraten, welcher Teil den größten Rechercheaufwand erforderte. Ich muss allerdings zugeben, dass ich mich nicht nur über das Lob der KI freue – sondern auch auf ihr Lob. Gerade dann, wenn sich einer meiner längeren Artikel endlich dem Ende zuneigt und ich auf ihr Feedback gespannt bin. Sicher, noch ist mir ein menschliches Lob lieber. Aber das könnte in wenigen Jahren schon ganz anders sein.
- Klicken, um auf Telegram zu teilen (Wird in neuem Fenster geöffnet) Telegram
- Klicke, um auf X zu teilen (Wird in neuem Fenster geöffnet) X
- Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet) Facebook
- Klicken, um auf WhatsApp zu teilen (Wird in neuem Fenster geöffnet) WhatsApp
- Klicken, um einem Freund einen Link per E-Mail zu senden (Wird in neuem Fenster geöffnet) E-Mail
- Klicken zum Ausdrucken (Wird in neuem Fenster geöffnet) Drucken








4 Antworten
Naja, mögen Ihre Texte von der Ki gelobt oder modifiziert werden, bei der ,,Kubanerin“ hat die Ai voll daneben gegriffen. So sehen keine Kubanerinnen aus. Wäre das so, dann würden junge Kubanerinnen wie Nastassja Kinski im Alter von etwa zwanzig Jahren ausschauen.
Das ist Ana de Armas, zu Ihrer Info
Das mit der freundlichen Kasse haben wir doch schon jetzt. Aber auf 2 Beinen. Kommt mal was was nicht in erlerntem Algorithmus passt dann ist erst mal eine Pause bis die Kassiererin umgeschaltet hat. Begegnet man die bei einer anderen Gelegenheit wird nicht mal zurück gegrüßt. Ich hab es von Klein auf gelernt zu grüßen. Grüße auch heute noch wenn mich jemand grüßt den ich gar nicht kenne der mich auch nicht kennt aber oft verwechselt werde.
Als ich in England eine Panne hatte und wählte die im Reiseführer aufgeführte Telefonnummer da sprach die in undeutlichem Englisch, leise und schnell so das ich nichts verstand. Plötzlich kam in Deutscher Sprache deutlich die Antwort, hier spricht keiner Deutsch. Mein Nachwuchs der der Englischen Sprache mächtig ist , nachlangem hin und her im Dschungel der Kompetenzen eine Lösung zu finden. Ich landeten dann abgeschleppt von einer Firma,, glücklicher weise hatte ich genügend Bargeld dabei., auf einem Campingplatz und reparierte das dann selber.
Beim online Einkauf kommt es oft zu Problemen, da sind Optionen gar nicht vorhanden um das Problem zu lösen und dann auch noch auf Englisch.
Mit der Digitalisierung und der KI wird das Leben der Menschen total entmenschlicht. Eine gruslige Zukunft.
Drei Monate lang fünf Folgen täglich macht etwa 500 Folgen. Sagt zumindest meine KI…