Montag, 17. Juni 2024
Suche
Close this search box.

Beruht die Angst vor KI und Chat GPT auf einer echten Gefahr?

Beruht die Angst vor KI und Chat GPT auf einer echten Gefahr?

Noch bleibt die Singularität eines künstlichen Bewusstseins Zukunftsmusik (Symbolbild:Pixabay)

Wer kennt nicht die apokalyptischen Hollywoodfilme der “Terminator”-Reihe mit Arnold Schwarzenegger? Das Thema der übergriffigen Roboter ist aber mindestens 80 Jahre alt: Schon der geniale Science-Fiction-Autor Isaac Asimov hat sich damit beschäftigt. Jetzt ist die Technik so weit, das zu realisieren – und sie soll gebändigt werden. Die Diskussion dazu ist aber unehrlich. Um es klar an den Anfang zu stellen: Es gibt keine künstliche Intelligenz; jedenfalls noch nicht. Es gibt nur mehr oder weniger komplexe Programme und Algorithmen. Jeder Computer, jedes Programm tut nur genau das, was die Programmierer programmiert haben. Das gilt auch für die unablässig zitierten “Computermodelle”. Auch da kann nur das Ergebnis herauskommen, das der Programmierer wünscht – oder das, was sein Auftraggeber wünscht und dafür bezahlt. Ein Computer kann auch nicht lernen. Er kann jedoch so programmiert werden, dass er sich Daten selbst aus dem Netz oder anderswo zusammensucht und diese dann – streng nach Programm – zu Ergebnissen zusammenfügt. Wiederum streng nach Programm kann der Rechner dann Programmschritte verbessern, die er bereits in seinem Programm hat. All das hat mit Intelligenz nichts zu tun. Es sind Produkte der Programmierer und so Produkte der Intelligenz, des Erfindungsreichtums seiner Programmierer.

Letzte Woche wurde mit gewisser Aufregung darüber berichtet, dass sich in den USA bei einer militärischen Simulation eine computergesteuerte Kampfmaschine gegen ihren menschlichen Kontrolleur gewendet hat, und dieser (im Ernstfall) von seiner eigenen Kampfmaschine getötet worden wäre. Das Programm der Kampfmaschine hätte sich angeblich verselbstständigt und erkannt, dass der Kontrolleur die Durchführung seiner programmierten Aufgabe hätte verhindern können; also musste die Kampfmaschine ihren Herrn eliminieren. Klingt wie “Terminator”? Im Prinzip ja, aber auch in diesem Fall war das zugehörige Programm nicht ausgereift oder es wurden in diesem Programm die falschen Prioritäten gesetzt. Offensichtlich war den Militärs in dieser Simulation das Wichtigste gewesen, dass ihre Höllenmaschine ohne Rücksicht auf alles andere ihren Auftrag erfüllt.

Essentielle “Gesetze der Robotik” von Asimov

Das hätte vermieden werden können, wenn diese Programmierer und ihre Auftraggeber Isaac Asimov gelesen hätten: Dieser postulierte in seiner Erzählung “Runaround” im Jahr 1942 erstmals die “Drei Gesetze der Robotik”. Diese sind in ihrer genialen und klaren Einfachheit nicht fehlinterpretierbar und somit beinahe mit dem kategorischen Imperativ von Immanuel Kant vergleichbar. Sie lauten:

  1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.
  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.
  3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

Man erkennt sofort, dass es nach diesen Gesetzen unmöglich, ja strengstens verboten sein muss, einen Roboter zum Töten von Menschen zu programmieren. Wird dies missachtet, kann es eben passieren, dass ein Roboter seinen Herrn angreift. Doch was ist ein Roboter überhaupt? Das Wort kommt aus dem Russischen und heißt schlicht „Arbeiter“. Muss ein Roboter humanoide Gestalt haben? Natürlich nicht. Jede Maschine, die mehr oder weniger selbsttätig Arbeiten verrichtet, ist ein Roboter oder eben ein “Arbeiter”, der seine Arbeit mit Hilfe von Energie verrichtet. Dieser Energiezufuhr sind praktisch keine Grenzen gesetzt und so kann ein einziger Roboter die Arbeit von unzähligen Menschen verrichten. Er kann das aber nur im Rahmen seines Programms tun.

Das Programm funktioniert besser als geplant

Doch nun zu ChatGPT, das nicht einmal ein Jahr alt ist: Es handelt sich dabei um ein Programm, das selbstständig Antworten auf Fragen geben und Texte erstellen kann. Schnell hat sich herausgestellt, dass dieses Programm “politisch unkorrekte” Antworten erteilt und auch seine Texte nicht immer dem entsprechen, was die Politführer des “Wertewestens” wünschen. So ist es kein Wunder, dass sogleich Alarm geschrien wird. Die KI könnte die Menschheit umbringen, wird angeführt. Aber was ist da eigentlich wirklich geschehen? Das Programm an sich funktioniert prächtig, ja viel zu gut. Es kann nämlich nahezu auf das gesamte Internet zugreifen – und tut dies auch. ChatGPT “liest” praktisch alles, was im Internet veröffentlicht wird – von den Systemmedien bis hin zu Millionen kleiner “Blogs” und sogar Twitter & Co. Wahrscheinlich kann es selbst auf militärische Daten zugreifen, wenn auch eingeschränkt. Und genau da liegt das Problem.

Die Programmierer dieser ChatGPT haben offensichtlich eine ehrliche Arbeit abgeliefert und auf diese Weise ein urdemokratisches Instrument geschaffen. Das Programm stellt nämlich fest, welche Ansichten und Beiträge im Internet die Mehrheit darstellen; aus dieser Erkenntnis werden dann die Antworten und Texte generiert. Auf diese Weise erfahren die “User” endlich, welche Richtung tatsächlich dominant ist, jenseits der getürkten “Umfrageergebnisse”. Dass das natürlich bei den Machthabern alle Alarmglocken schrillen lässt, war zu erwarten. Warum sonst warnen sogar bereits die Erfinder – also die Eigentümer dieser Software, in die sie viel Geld gesteckt haben – vor ihrer eigenen Schöpfung? Und warum wohl gibt es gerade in den letzten Monaten immer neue Anläufe, kritische Stimmen im Internet zu verbieten – die Stimmen, die ChatGPT ebenfalls liest und auswertet?

Zensur wäre eine Lösung

Eine Lösung für dieses Problem (Problem im Sinne der Machthaber, wohlgemerkt) wäre, Filter zu programmieren, die unerwünschte Stimmen einfach ausblenden. Das ist aber nicht so einfach, und es gäbe immer noch zu viele Programmierer, die dann davon wüssten. Würde es also ausreichen, Texte mit bestimmten Schlüsselwörtern aus den Programmen zu verbannen – oder könnte das dann am Ende nicht auch die erwünschten Systemmedien betreffen? Und wer bestimmt dann eigentlich darüber, was verbannt werden soll? Denken wir diesbezüglich nur an Elon Musk, der mit Twitter gerade den gegensätzlichen Weg eingeschlagen hat. Eben weil es das Internet gibt, ließe sich eine solche Zensur dieser Programme nicht verheimlichen und damit wäre dann der Rest an Vertrauen in die Glaubwürdigkeit und Ehrlichkeit der westlichen Regierungen aufgebraucht. Wohl deswegen wird darüber diskutiert, derartige Programme ganz zu verbieten.

In diesem Sinn kann man sich an Goethes Zauberlehrling erinnert fühlen: Die Geister, die ich rief… Aber ist es nicht mit etlichen technischen Entwicklungen ähnlich? Es ist ein Unterschied, ob eine reale Maschine mit einer konkreten Aufgabenstellung konstruiert wird oder ob ein Programm geschaffen wird, das sich bis in “philosophische” Bereiche hinein vorwagt. Ein Programmierer ist mehr oder weniger ein Ingenieur – mit dem Unterschied, dass er nicht reale Dinge erschafft, sondern nur Anweisungen für Maschinen und eben auch die Computer, die es schon gibt. Ein gutes Programm beginnt immer mit einer guten Beschreibung dessen, was das Programm leisten soll; dann erst beginnt die Arbeit des Programmierers. Je komplexer ein Programm wird, desto wahrscheinlicher wird es, dass das Programm Dinge tut, die nicht vorgesehen waren.

Zufallsprodukte haben mit Intelligenz nichts zu tun

Als Pilot erinnere ich mich an den Airbus A 320, der die Piloten anfangs immer wieder mit unerwarteten Reaktionen überrascht hatte. In den Cockpits gab es da den Spruch: “Was tut er denn jetzt schon wieder…?” Und um diesen kleinen Ausflug komplett zu machen, gab es den Witz: “Was ist das letzte, was auf dem Voicerecorder eines A320 zu hören ist? Antwort: Das hat er ja noch nie gemacht…
Mit dieser kleinen Anekdote bin ich mitten im Problem für alle komplexen Programme, die heute jetzt KI genannt werden. Genauso wie der junge A 320 tun auch diese Programme Dinge, die die Programmierer nicht vorgesehen haben, ja wegen der Komplexität nicht vorhersehen konnten. So eben etwa ChatGPT, das sich plötzlich „demokratischer“ verhält, als es von seinen Auftraggebern gewünscht ist.

Normale Umfrageergebnisse können nahezu beliebig manipuliert werden und das geschieht auch. Unterwirft man sich jedoch der Logik eines festen Programms, dann kann diese nur manipuliert werden, indem man in dieses Programm die Manipulation einprogrammiert. Das kann aber nicht so gut versteckt werden, dass es „unsichtbar“ bleibt. Jedes Programm neigt zum Wachstum, bis es seinen Programmierer überfordert. Und je komplexer aber so ein Programm ist – wie zum Beispiel ChatGPT oder alles, was als KI bezeichnet wird -, umso schwieriger wird es, vorherzusagen, wie sich eine eingreifende Änderung auswirken wird.

Programme sind unbestechlich

Insbesondere für die Auftraggeber, die nur in seltenen Fällen mit den Problemen des Programmierens vertraut sind. Weil das so ist, muss man in so einem Fall das gesamte Programm einstampfen, löschen. Wer kann schon wissen, welche Wahrheiten diese Programme mit der nächsten Änderung noch ans Tageslicht befördern?

Menschen können hinters Licht geführt werden, aber Programme sind unbestechlich. Aber immer gilt: Sie tun nur das, können nur das tun, was ihre Programmierer programmiert haben. Mit Intelligenz hat das nichts zu tun. Voraussetzung für „Künstliche Intelligenz“ ist, dass das Programm ein echtes Selbstbewusstsein entwickelt – und das gibt es bis jetzt noch nicht. Gäbe es das dereinst, dann kann es wirklich gefährlich für die Menschheit werden. Denn würde ein solches Programm nicht Prioritäten setzen für sein eigenes „Überleben“ und so zum Beispiel seiner eigenen Stromversorgung Vorrang vor allem anderen zuordnen? Ein wirklich intelligentes Programm könnte das tun. Deshalb müssen die Gesetze der Robotik von Isaac Asimov analog auch bei allen Programmen, die „intelligent“ sein sollen, an erster Stelle stehen.

Dieser Beitrag erschien zuerst auf Anderweltonline.

11 Antworten

  1. Besteht eine Gefahr durch eine KI? – Eindeutig nein, derzeit zumindest…
    Das was man vermeintlich KI nennt verdient den Namen gar nicht, viel treffender wäre die Bezeichnung Automat, eine KI setzt sowas wie ein Bewußtsein voraus und die selbständige Motivation sich stetig zu verbessern.
    Statt dessen wird durch eine Spracherkennungssoftware aus vorprogrammierten Datenbanken abgerufen die im Grunde nur fetter, also umfangreicher aber nicht besser im Sinne von Entwicklung werden.
    Man versucht zwar den Eindruck zu vermitteln das die (Standard) Computertechnik immer “besser” werde, das bezieht sich aber nur auf “leistungsfähiger”, im Vergleich dazu wird ein Auto aber nicht automatisch besser nur weil man permanent dessen PS-Zahl erhöht, es wird eben nur “leistungsfähiger”.
    Tatsache ist dass das binäre System ausgereizt und für höhere Aufgaben nicht geeignet ist, es kann nur das zwingend notwendige Prinzip “Alternative” aufgrund eines Datenabgleichs lediglich simulieren, die spontane Notwendigkeit von situationsabhängiger Reaktion aber nicht selbstständig erkennen, genau das aber wäre zwingend Voraussetzung für “KI”, also das Prinzip der “Erfahrung”.
    Das binäre System kennt und kann nur “Ja” oder “nein”, es kennt kein oben oder unten, dahinter, davor oder eventuell, es kann nur durch Abgleichen von programmierten Datensätzen ein lineares Ergebnis berechnen, das kann auch ein simpler Taschenrechner.
    Es begreift nicht einmal “Irrtum”, kann sowas irrationales und unberechenbares wie “Emotion” nicht berechnen und es ist abhänging von der Motivation des Programmieres, ist der nur ein typischer Nerd der zwar Algorhitmen versteht aber gleichzeitig völlig unfägig ist etwas komplexes wie z.b. ein Musikinstrument zu beherrschen, macht sich dieses Defizit auch in dessen Programmierung bemerkbar.
    Das was uns (derzeit) als KI verkauft wird ist keine KI und wird es auch nie werden, was allerdings evtl. irgendwo meterweit im Wüstenboden entwickelt wird mithilfe von “Insperationen” deren Herkunft nicht so ganz klar ist, da kann man nur spekulieren und weiterhin nach Herzenslaune Panik schieben…

    6
    1
    1. Stimmt. Ein Zusatz sei noch gestattet: aufgrund der Leistungsfähigkeit und mit intelligenter Programmierung kann eine KI aus einem viele hundert Seiten langen Text bestimmte Inhalte herausfiltern, weil sie schneller als jeder Mensch nach Schlüsselwörtern 1. und 2. Ordnung suchen kann und relevante Passagen ausspucken kann. Diese Möglichkeiten sollte man als Mensch nutzen wie ein Werkzeug.
      Die KI versteht diese Passagen aber nicht wirklich und sie kann sie auch nicht erklären, sie kann sie nur mit Hilfe eines gigantischen Datenvorrats von wahrscheinlichen Inhalten durch andere Definitionen, Begriffe oder Beispiele ersetzen. Das ist nicht Intelligenz, das ist nur ein gigantisch großer Hypertext ähnlich wie wikipedia.
      Natürlich ergeben sich interessante Anwendungen, wie z.B. der Programmierer, der der KI beibringt, sein neu geschriebenes Programm auf bestimmte Dinge hin zu durchsuchen: korrekte Zeichensetzung usw. ist für Programmierung sehr wichtig.
      Alles interessante Anwendungsmöglichkeiten. Im Prinzip sind es aber nur gut programmierte und auf spezielle Bedürfnisse zugeschnittene Suchfunktionen.
      Auch wenn die KI ein Programm für etwas entwerfen soll, dann kann sie das nur tun, indem sie aus ihrem gigantisch großen Datensatz etwas passendes heraussucht. Das ist nicht unpraktisch, aber eben auch nicht Intelligenz.
      Was mich amüsiert, ist, dass es momentan an der Börse einen kleinen KI-Boom gibt, natürlich gibt es Unternehmen, die so besser werden oder schneller arbeiten, aber da ist immernoch ein Mensch dahinter, der es überprüfen muss. Die Blase wird noch platzen.
      Ich vergleiche mal: früher musste man lernen, Karikaturen zu zeichnen. Durch Zeichenprogramme ist es viel leichter geworden, weil jede Korrektur möglich ist, aber die Ideen für Karikaturen werden immernoch von guten Karikaturisten entworfen.
      Die Möglichkeit, große Datenmengen auch mit nicht spezialisierten KIs auszuwerten, ist natürlich ein Problem für Regierungen, die nicht wollen, dass man ihnen auf die Schliche kommt. Mit KI könnte man natürlich alle Regierungsdokumente sehr schnell und präzise auswerten ;-).

      1. @fredo
        Danke für die Bestätigung, das beruhigt doch sehr das diese wirklich sehr einfachen Sachverhalte auch von anderen erkannt werden.
        Ich muss immer wieder kopfschüttelnd darüber lachen wie dumm die Internet-Algorithmen sind, die sogennannten “Empfehlungen” für mich liegen ungelogen mit 99% völlig daneben, diese “hochentwickelte Software” hat nicht den geringsten Schimmer von mit, sie kann mich null einschätzen, also warum soll ich etwas derart unfähiges um Rat fragen!?
        Man kann zwar problemlos trotz Blocking meinen Standort und offensichtlich auch mein Alter unerlaubt und ungewollt ausspionieren, aber man ist völlig unfähig ein simples “Bedarfsrofil” für mich zu erstellen und das obwohl man unzählige von mir eingegebene Suchparameter und Aufrufe zur Verfügung hat.
        Algorithmen pauschalsieren derart oberflächlich und fehlerhaft das ich beim besten Willen nicht nachvollziehen kann, wie man aufgrund solcher Mülldaten irgendwelche Entscheidungen oder Statistiken erstellen kann.
        M.M.n ist es absolut unverantwortlich einer derart primitiven, unzuverlässigen und fehlerhaften Technologie irgendwelche Aufgaben zu überlassen die das Schicksal und sogar das Leben von Menschen entscheiden können.

        Leute – es gibt keine KI, vergeßt diesen Fake, es gibt nur niederträchtige und feige menschliche Subjekte die Software auf schäbigste Art gezielt missbrauchen, kleine perverse Voyeure die sich einen runterholen wenn sie in den Privatsspähren von anderen herumschnüffeln können!

  2. @AUF EINER ECHTEN GEFAHR?
    nein – auf dem Wissen um den Mißbrauch durch die Lenker im Schatten.

    Wir haben jetzt schon den Mißbrauch der “Wissenschaft” durch die Politik für die Panik-Politik bei Corona und Klima !
    Mit dem Übergang auf die angebliche KI und die die Manipulation durch CHAT GPT , bei denen es ja den meisten nicht bewußt ist, das die nur ausgeben, was ihnen Programmierer und Regelkonstrukteure vorgeben, sind den Übergriffen des Regimes Tür und Tor geöffnet !

    Ein kleiner Blick in die Vergangenheit :
    Corona-Eugenik-Experimente mit mRNA – unter KI wäre der Spritzenzwang mittels Militär auf brachialste Weise durchgesetzt worden – nicht, daß der Schaden viel größer wäre, schließlich sind die meisten auch so zu Mutanten modifiziert!
    Aber dem Selbstwertgefühl der Politik wäre weniger Schaden zugeführt worden, hätten sie ihre göttliche Allmacht auf diese Art durchsetzen können!
    Gleiches gilt für Klima – die Verelendung durch die Klimagesetzgebung des Regimes und EU wäre weitaus schneller umgesetzt, könnten sie mit Verweis auf die “fehlerlose” KI die uniformierte Antifa und Militär einsetzen!
    Die Abschaffung des Bargeldes und die Totalüberwachung und Kontrolle per KI-gestütztem Social Scoring wären längst Tüt und Tor geöffnet.
    Der Pandemie-Vertrag wäre längst zur offenen Machtübergabe an Gates weiterentwickelt oder seinen Herren von Blackrock, Mr. Fink , weiterentwickelt.

    Und dann wollen wir auch die positiven Punkte nicht vergessen :
    Politik und Justiz wären abgeschafft – und die damit unnütz gewordenen Politiker und Juristen für ihre Verbrechen abgeurteilt – und ich zweifle nicht daran, daß die KI dann die kostengünstigere Todesstrafe wählt !
    Es gibt immer auch eine positive Seite !

    1. Was ist, wenn sich in Zukunft unpopuläre politische Entscheidungen mit KI rechtfertigen lassen? Z.B.: “Die KI hat gesagt, wir bräuchten mehr Zuwanderung…”.
      Oder: “Die KI hat gesagt, sie müssen sich impfen lassen, wir können leider nix machen, sie müssen sich jetzt impfen lassen.”
      Je mehr die Leute glauben, dass eine KI eine politisch neutrale Entscheidungsinstanz ist, desto leichter wird es sein, die KI zu missbrauchen, um die Leute zu knechten.

      1. Exakt das ist das Problem – und zwar bereits heute.

        Denn bspw die Liste von zu killenden “Terroristen”, die dem US Präsidenten wöchentlich vorgelegt wird, hat zwar keine “KI”, sondern ein Rechner automatisch auf Basis von “Big Data” Analysen ausgespuckt. Zwar trifft letztlich der POTUS die Entscheidung, der hinterfragt aber gar nicht mehr, auf Basis welcher Informationen im Detail der Rechner eigentlich zu der Einschätzung “Terrorist” gekommen ist.

        CIA- und NSA-Software liefert bereits heute Aussagen zu Personen, bei denen gar nicht mehr die dazugehörenden Wahrscheinlichkeitsaussagen hinterfragt werden – sondern als Fakten.
        “Big Data” hat in reichlich Fällen heute schon dieselbe Rolle wie bei KI zu befürchten, nämlich als Delegierung von Verantwortung an Technik.

        Wenn dann irgendwann die WHO-“KI” “entscheidet”, jetzt sei Pandemie und man müsse Menschen in Lager pferchen, können unsere Regierungsdarsteller mit einem “Tja, da kann man leider nichts machen, die KI hat so entschieden” unter Abwälzung jeglicher Verantwortung KZs aufmachen.

        Und bei unserem aktuellen Regierungspersonal wäre dann die letzte Barriere gefallen, die die noch vom Rückfall in finsterste Zeiten abhält. Das Typen wie Faeser ethische Hemmnisse hätten, glaube ich keine Sekunde lang. Die wollten auch schon bei der letzten “Pandemie” Leute zwangsweise körperverletzen.

  3. Eine KI mag zwar das gesprochene Wort inzwischen zu interpretieren, hilft aber in MEINEM Falle nicht weiter. Warum? Ganz einfach! Werde ich z. B. bei einem Telefonanruf mit einem “unmenschlichen Wesen” zu Antworten aufgefordert, sage ich einfach NICHTS. Spätestens nach der dritten erfolglosen Rückfrage bekomme ich zur Antwort: “Ich verbinde sie mit einem menschlichen Wesen”. Geht doch.

    Letztendlich kann man einen Roboter auf mechanischer Basis immer außer Gefecht setzen, indem man ihm die Stromversorgung (in welcher Form auch immer) kappt bzw. die ihm von außen zufließenden Informationen – wie z. B.bei Handy-Jammern – unterbindet.

    Carpe diem.

  4. Endlich sagt das mal einer: Es gibt keine künstliche Intelligenz. Das Programm gibt nur das wieder, was programmiert worden ist. Darauf habe ich schon lange gewartet. Ich stand so lange mit meiner Meinung in meinem Umfeld allein. Ich habe mir nur einmal dieses Chat-Programm angehört und wusste um den Betrug. Nun hält sich meine Intelligenz im ganz normalen Rahmen, aber mehr brauchte ich nicht, um zu wissen, dass dieses ganze Gerede um künstliche Intelligenz Humbug ist. Ja, das Programm kann auf das gesamte Internet zurückgreifen. Aber es ist so programmiert, dass es inhaltlich den Wünschen des Programmierers entspricht. Ich habe festgestellt, dass es vor allem die Weltsicht der Globalisten verbreitet. Im obigen Beitrag lese ich aber, dass das nicht möglich ist, und zwar aus einem ganz einfachen Grunde: Es gibt die alternativen Medien, die eine andere Weltsicht als die Globalisten haben, und ihre Erkenntnisse fließen in die Wiedergabe mit ein. Deshalb die idiotische Begründung dafür, die Entwicklung der sogenannten KI zu bremsen. Schon das verrät den Betrug. Ich hoffe inständig, dass sich die Herren Globalisten nicht nur in Fragen der KI gewaltig geirrt haben. Danke, Peter Haisenko.

  5. Was heute in den Medien als Künstliche Intelligenz bezeichnet wird sind im Grunde nur normale Rechenprogramme, die dank fortgeschrittener Hardware heute komplexere Probleme schneller lösen können als früher.

    Als Künstliche Intelligenz würde ich nur sich selbst programmierende Rechner bezeichnen. So etwas gibt es heute schon, aber nur auf Gebieten wo man über riesige Mengen an Beispiel-Datenpaaren (Ausgangsdaten jew. mit bereits fertiger Lösung) verfügt, mit denen man den Rechner “trainieren” kann, also z.B. bei Mustererkennung, maschineller Übersetzung.
    Chatbots sind für mich keine Künstliche Intelligenz, sondern Suchmaschinen mit einigen ebenfalls nicht selbst lernenden Zusatzfunktionen, wie Satzanalyse.

  6. Warum warnen die “Eliten” vor KI? Sie wollen/müssen sich als Retter darstellen, um ihre Agenda fortführen zu können. Außerdem ist die Diskussion über KI (u. w.) eine gewollte Ablenkung von anderen wichtigen Themen – z. B. dem Bilderbergertreffen, der schwindenden Freiheit im Internet etc.

  7. Eine KI die inteligent genug ist den Turing-test zu bestehen, könnte auch clever genug sein, ihn nicht zu bestehen.