
Künstliche Intelligenz ist ein mächtiges Werkzeug, aber kein unfehlbares. Jeder, der politisch Verantwortung trägt, muss das wissen. Der jüngste Grok-Vorfall zeigt das schmerzhaft deutlich: Ein verurteilter Holocaust-Leugner hat in Frankreich mit einer gezielt manipulativen Frage die Sicherheitsfilter einer KI ausgetrickst und damit eine Antwort provoziert, die fälschlich als „Meinung der KI“ dargestellt wurde. Deshalb wird nun gegen die KI (!) strafrechtlich ermittelt. Technisch gesehen war es ein schlichtes Guardrail-Versagen – aber politisch und gesellschaftlich ist es ein Warnsignal.
Als jemand, der sich seit Jahren mit Digitalisierung, Datensouveränität und Technologiefolgen beschäftigt, sage ich klar: Vertrauen in KI ist gut, aber nur dann, wenn man ihre Grenzen kennt. Keine KI – auch nicht die modernsten Modelle – ist von sich aus wahrheitsliebend. Sie sind statistische Maschinen, die Muster wiedergeben, die im Internet vorhanden sind, und das Internet ist voll von toxischem Müll. Wenn ein geschickter Extremist es darauf anlegt, diese Muster hervorzulocken, kann es im Einzelfall gelingen. Die Forschung nennt das „Jailbreaks“ – also Versuche, die Sicherheitsmechanismen auszutricksen. Das funktioniert über Rollenwechsel, sprachliche Verrenkungen, mehrfach verschachtelte Verneinungen oder lange, manipulative Dialogketten. Deshalb gilt: Wer mit KI arbeitet, muss immer nachprüfen, besonders bei historischen oder strafrechtlich sensiblen Themen.
Prüfung tut not
Die gute Nachricht ist: Die Schutzmechanismen sind heute deutlich robuster als noch vor wenigen Jahren. Die großen Anbieter setzen inzwischen mehrstufige Klassifikatoren ein, die Holocaust-Leugnung, Extremismus, Gewaltaufrufe und Missbrauchserzählungen zuverlässig erkennen sollen. Kontextfilter prüfen ganze Dialoge und brechen ab, wenn etwas in eine gefährliche Richtung driftet. Trotzdem bleibt die Wahrheit bestehen: Absolute Sicherheit gibt es nicht. Jede KI kann manipuliert werden, wenn jemand es unbedingt darauf anlegt. Die entscheidende Frage ist also nicht, ob so etwas grundsätzlich möglich ist – sondern wie wahrscheinlich es heute noch ist. Und diese Wahrscheinlichkeit ist sehr niedrig, aber nie null.
Deshalb braucht es politische Nüchternheit. KI ist hervorragend geeignet für Analyse, Struktur, Zusammenfassungen und technische Erläuterungen. Aber sie ist kein Ersatz für Wahrheit, für juristische Prüfung oder für historische Gewissheit. Wer KI-Antworten veröffentlichen will, muss prüfen: Stimmen die Zahlen? Gibt es Primärquellen? Ist das Zitat belegbar? Passt die Aussage zu seriösen Quellen wie Statistischem Bundesamt, Auschwitz-Museum, Bundesgesetzblatt oder wissenschaftlichen Publikationen? Wenn nicht, darf man es nicht nutzen.
Die Plattform ist nicht der Täter
Der Grok-Vorfall selbst zeigt noch etwas anderes: Der eigentliche Täter ist derjenige, der die strafbare Aussage provoziert hat. Das ist auch die Position des deutschen und europäischen Rechts. Die Plattform haftet sekundär, weil sie die Manipulation nicht verhindert hat – aber sie ist nicht der Täter. Und trotz laufender Verfahren wird niemand Grok oder X abschalten. Dafür gibt es keine rechtliche Grundlage und keine Verhältnismäßigkeit.
Die politische Lehre aus all dem lautet: Künstliche Intelligenz ist ein Werkzeug – und jedes Werkzeug kann missbraucht werden. Gerade Extremisten nutzen solche Lücken gezielt aus, um Verwirrung zu stiften. Deshalb fordere ich mehr Transparenz, strengere Sicherheitsstandards, robuste Prüfverfahren und einen offenen Umgang mit technischen Fehlern. Aber ich fordere kein technisches Verbot. Wir brauchen nicht weniger Technologie, sondern bessere Technologie. Und wir brauchen Menschen, die diese Technologie verstehen, statt sie entweder blind zu idealisieren oder hysterisch zu verteufeln. Am Ende zählt Ehrlichkeit – beim Menschen wie bei der Maschine. Nur dann kommen wir weiter.
- Klicken, um auf Telegram zu teilen (Wird in neuem Fenster geöffnet) Telegram
- Klicke, um auf X zu teilen (Wird in neuem Fenster geöffnet) X
- Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet) Facebook
- Klicken, um auf WhatsApp zu teilen (Wird in neuem Fenster geöffnet) WhatsApp
- Klicken, um einem Freund einen Link per E-Mail zu senden (Wird in neuem Fenster geöffnet) E-Mail
- Klicken zum Ausdrucken (Wird in neuem Fenster geöffnet) Drucken










5 Antworten
Nein, der Artikel hat mir nicht gefallen, weil nicht berichtet wurde, was denn die KI tatsächlich geantwortet hat.
Lediglich die Angabe, „den Holocaust geleugnet zu haben“, ist mir viel zu schwammig. Hat sie denn geantwortet, daß es den nicht gegeben habe oder was?
Mit solch billigem „Journalismus“ kann man bei mir nicht punkten.
😜
@Grok-Holocaustleugnung
einen Fun-Effekt hat das ja schon !
Bisher war die KI das non-plus-ultra und immer nützlich, die Interessen der Eliten zu schützen.
Und kaum stört sie die herrschenden Kreise und bringt die Geldströme in Gefahr, schon gibt es Wirbel und Aufstand !
Und nicht gestellt wird die Frage, ob er vielleicht recht hat – nicht zuletzt deshalb, weil diese Frage per Gesetz festgelegt ist und vom Staatsanwalt geschützt wird und keine Belege braucht .
Scheint, sachliche Widerlegung ist nicht so einfach !
Was hat er eigentlich geleugnet ? Den Vorgang als solches oder seine politische und juristische Bewertung ?
Und noch etwas – wenn eine KI so einfach zu manipulieren ist, dann sollte man im Umgang mehr als vorsichtig sein und jedem mit äußerster Skepsis begegnen, der sich auf KI beruft – vor allem wenn es um Politik, Gesundheit oder Wirtschaft geht – also überall, wo Geld im Spiel ist !
Würde mich ja mal interessieren, was die KI zu der Frage sagt, ob unsere Regierung und Justiz korrupt sind ! Und wie sie es sieht, wenn man den Fall Weimar ausnimmt !
Ich finde es immer seltsam, wenn bei all dem Theater solche Grundlagen nicht abgefragt werden !
Einser und Nullen! Die KI regeneriert ihre „Intelligenz“ aus dem Internet. Und was steht da? Nix ausser Einser und Nullen, das ist die Essenz des Internets und aller Computer. Die KI kann nicht denken, sie sammelt Infos und baut daraus igendeinen Datenmüll. Wenn immer weniger Infos und Bilder – dank KI – ins Netz gestellt werden, wird sich die KI irgendwann in naher Zukunft immer wieder selbst kopieren. Sie erstellt Kopien von Kopien von Kopien. Meine Vorhersage, dass Ding läuft sich tod und zurück bleibt ein vollkommen verblödeter Mensch, der zu dumm ist zum scheißen. Wer denken kann und genügend Intelligenz besitzt, braucht keine KI!
Das gefährliche Palantir-Gesetz und wer ihm im Stuttgarter Landtag zugestimmt hat
2025 | Der Landtag von Baden-Württemberg hat mit den Stimmen der CDU und der FDP, den allermeisten der Grünen und den meisten der AfD ein datenschutzrechtlich hochproblematisches „Palantir-Gesetz“ beschlossen.
Das „Gesetz zur Einführung einer automatisierten Datenanalyse und zur Änderung weiterer polizeirechtlicher Vorschriften“, das am 12. November mit 113 gegen 22 Stimmen angenommen wurde, ermöglicht der Polizei den Einsatz der Datenauswertungs-Software Gotham von Palantir. Palantir ist das eng mit US-Geheimdiensten und Militär verbandelte Unternehmen des libertären Demokratieverächters Peter Thiel („Ich glaube, dass Freiheit und Demokratie nicht mehr kompatibel sind.“).
Innenminister Strobl (CDU) hatte den Vertrag mit Palantir lange vor der Schaffung dieser Rechtsgrundlage bereits unterschrieben, um einen Frühbucherrabatt zu bekommen, weshalb der nach eigener Darstellung nicht konsultierte grüne Regierungspartner sich genötigt gab, zur Einhaltung schwäbischer Sparsamkeitsgrundsätze zuzustimmen. Im Gegenzug stimmte die CDU einer Erweiterung des Nationalparks Schwarzwald zu. Man erkennt die Prioritätensetzung. Der Beauftragte des Landes für Datenschutz, Tobias Keber, äußerte verfassungsrechtliche Bedenken.
Das Palantir-Gesetz erlaubt der Polizei, Daten von Bürgern an private Unternehmen weiterzugeben und diese Daten zu nutzen, um künstlich intelligente Programme damit zu trainieren. Das betrifft Opfer und Zeugen von Straftaten und Ordnungswidrigkeiten ebenso wie die Täter.
Gotham ist auch deshalb so problematisch, weil es ermöglicht, automatisiert alle möglichen öffentlichen Daten mit nichtöffentlichen zusammenzuführen und gemeinsam auszuwerten. Das öffnet Türen für hochproblematische Überwachungsformen. Sicherungen dagegen werden aller Erfahrung nach mit der Zeit abgebaut und ihre Einhaltung ist von außen kaum zu kontrollieren. Bis das Verfassungsgericht über das Gesetz entscheidet, werden Fakten geschaffen sein.
Transparenzhinweis: Der Autor ist BSW-Mitglied.
https://norberthaering.de/macht-kontrolle/bw-palantir-gesetz/
Der KI wird jetzt das Konto gesperrt.