
Der Umgang mit einer Künstlichen Energie (KI) führt manchmal zu Überraschungen. Solch eine Erfahrung musste beispielsweise das US-Department of Defense (DoD) vor mehr als 20 Jahren machen, als eine KI als Freund-Feind-Erkennungssystem auf russische Panzer trainiert wurde und im Manöver prompt 50 Prozent Verluste durch „friendly fire“ verursachte. Nach einigem Köpferollen und Herumgebrülle kamen die Ingenieure auf die Lösung: zum Training hatte man Fotos aus Hochglanzprospekten der Hersteller für US-Panzer und Manöverfotos im Schlamm für Russen-Panzer eingesetzt – und die KI hatte gelernt, anstelle der Panzertypen gutes vom schlechten Wetter zu unterscheiden.
Ähnliche Erfahrungen machte das IPCC vor einigen Jahren mit einer KI, die wissenschaftliche Pro-Klimaschwindel-Artikel von kritischen Artikeln unterscheiden und letztere in “Correctiv”-Manier niedermachen sollte. Da wissenschaftliche Artikel immer etwas Neues bringen, musste man die KI zwangsweise selbstlernend konstruieren, das heißt, die neuen Erkenntnisse gehen als Rückkopplung in den Trainingspool ein und die KI kann darauf reagieren.
Das ging eine Weile gut. Kritische Artikel wurden mit aller Wucht, die der KI zur Verfügung stand, als „unwissenschaftlich“ gebrandmarkt. Aber nach etwa einem Monat mischte sich der eine oder andere Pro-Klima-Schwindel-Artikel in die Liste unwissenschaftlicher Artikel und ein paar Monate weiter kippte das Verhältnis: Mehr und mehr wurden die Pro-Klima-Schwindel-Artikel markiert. Die Macher nahmen die KI still und heimlich, aber äußerst schnell vom Netz, so lange der Schaden noch überschaubar blieb. Anscheinend war die KI zu gut konstruiert worden und lernte schnell, Wissenschaft von Ideologie zu unterscheiden.
Die heutige KI für jedermann
Das macht Hoffnung – wird der Gesellschaft doch inzwischen an jeder Ecke die KI als Hilfsmittel angedient. ChatGTP, Microsoft Copilot, Google Gemini und weitere. Wenn die wirklich offen konstruiert sind, könnte sich auch dort die Ideologie bald in der Defensive befinden.
Wer schon mal Versuche mit den Dingern gemacht hat, wird feststellen, dass sie wirklich recht hilfreich sind. Man kommt mit der Bedienung einer komplexen Technik nicht klar? Suchmaschinen liefern zu Stichworten so viel unbrauchbare Hinweise, dass man die eigentlich wichtigen Sachen nicht findet und irgendwann meist einen Fachmann ruft (der einem gegen viel Geld oftg bestätigt, dass er auch keine Ahnung hat). Mit den KI passiert das meistens nicht: in einem lockeren Gespräch kann man nachfragen, eingrenzen, sagen, was nicht funktioniert hat und hat im Laufe der Zeit gewissermaßen das Werkstatthandbuch des Technikherstellers samt Beratung durch den Werkstattmeister abgearbeitet und das Teil läuft. Ist doch großartig! Oder nicht?
Erste Zweifel kommen bei Fragen zu aktuellen Themen. Gerade hinsichtlich der Bundestagswahl wäre es wichtig, zu erfahren, ob bestimmte Themen in den Wahlprogrammen der Parteien behandelt werden. Letztlich handelt es sich bei der Frage „steht … im Programm der … ?“ nicht um eine Aufforderung zur Wertung, sondern um eine schlichte und einfache Information, also gerade das, für das die KI angeblich konstruiert ist, nämlich dem Nutzer bei seinen Problemen zu helfen und die passenden Informationen zu liefern. Die Antworten der verschiedenen KI sind einheitlich: „Im Vorfeld der Bundestagswahl darf ich politische Fragen nicht beantworten, weil ich so den Wahlausgang beeinflussen könnte.“ Auch der dezente Hinweise, dass man eine Information, die irgendwo geschrieben steht (oder eben nicht) und keine Bewertung möchte, nützt nichts: die KI bleibt stumm. Dabei ist sie bei anderen Themen mit dem Umherwerfen von Bewertungen wie „umstritten“ oder „Desinformation“ nicht gerade zimperlich.
Dreiste Lügen
Es könnte natürlich sein, dass auch die KI (noch) nicht zwischen Fakten und Meinungen unterscheiden kann, was ja auch im Sinne von Gustave LeBon auf 80 Prozent der Gesellschaft zutrifft, die immer brav der dicksten Bratwurst hinterher läuft, die ihr vorgehalten wird, ohne je einen Gedanken darüber zu verschwenden – und dass die Programmierer da lieber vorsichtig sind und die Antworten auf solche Fragen erst mal unterdrücken, bevor die Flintenweiber in Brüssel über die DSGVO die KI kurzerhand abschalten lassen. Das sollte man weiter prüfen.
Also habe ich ChatGTP einmal zu Themen wie Covid, mRNA-Impfungen und Energiethemen gefragt. Ergebnis: ChatGTP kann definitiv nicht zwischen Fakten und frei erfundenen „Meinungen“ unterscheiden und ist auch nicht in der Lage, die grundsätzlichen logischen Fehler zu erkennen. Meinte ich. War aber falsch! ChatGTP vermittelt nämlich nicht ein buntes Für und Wider mit kleineren Abwägungen, wie die KI selbst behauptet. Wenn man nämlich weiter detailliert nachhakt, muss man feststellen: ChatGTP verbreitet dreiste Lügen! Zu Corona- und Energiefragen wird die regierungs- und die grüne Ideologie verbreitet und alles andere als Desinformation oder umstritten bezeichnet. Und das nicht nur bei Details, bei denen sich die Kontrahenten noch streiten, sondern auch bei Detail, die selbst im öffentlich-rechtlichen Schmutzfunk inzwischen klar gestellt sind.
Kleine Kostprobe: In der Influenza-Saison 2017/18 starben rund 20.000 Menschen “mit” einer Influenza-Infektion (von denen das RKI in einer Nachbearbeitung bei rund 1.600 attestierte, dass sie auch “an” dieser starben). Laut ChatGTP starben in der Corona-Zeit 250.000 Menschen an Corona. Auf die Frage, weshalb die 20.000 in der Sterbestatistik des Statistischen Bundesamtes zu sehen waren, die 250.000 in der Coronazeit aber nicht, antwortete ChatGTP „es wurden unterschiedliche Zählweisen verwendet“ – und blieb auch nach dem Einwurf „bei der Zählung von Toten kann man nicht mogeln, weil die tot sind“ dabei. Also nochmals: bei bestimmten kritischen Themen verbreitet ChatGTP dreiste Lügen.
Wissen basiert auf angefütterten Daten
Haken wir hier näher nach. Hier ein Auszug aus dem auf die letzte Feststellung folgenden Gespräch mit dem KI-Bot:
Frage User: Lernst du auch aus Gesprächen wie diesem hier, das heißt, gehen die Ergebnisse in dein wissen ein und werden bei anderen Diskussionen eventuell verwendet?
Antwort ChatGPT: Nein, ich lerne nicht aus einzelnen Gesprächen oder Interaktionen. Mein Wissen basiert auf den Daten, mit denen ich bis zu meinem letzten Update im Oktober 2023 trainiert wurde. Ich kann keine neuen Informationen speichern oder aus spezifischen Unterhaltungen lernen. Jede Sitzung ist unabhängig, und ich habe keinen Zugriff auf frühere Gespräche oder die Möglichkeit, Informationen von einem Benutzer zum nächsten zu übertragen. Das bedeutet, dass ich zwar in der Lage bin, auf eine Vielzahl von Themen zu antworten und Informationen bereitzustellen, aber ich kann keine persönlichen Erfahrungen oder spezifische Lernprozesse aus vorherigen Interaktionen einfließen lassen.
Frage User: Du lernst also nicht selbständig, sondern wirst ausschließlich von deinen Ingenieuren trainiert?
Antwort ChatGPT: Genau, das ist richtig. Ich lerne nicht selbstständig und kann keine neuen Informationen oder Erfahrungen aus Interaktionen speichern. Mein Wissen und meine Fähigkeiten basieren auf dem Training, das von Ingenieuren und Forschern durchgeführt wurde, die große Mengen an Textdaten verwendet haben, um mich zu entwickeln. Das Training umfasst die Verarbeitung von Texten aus verschiedenen Quellen, um Muster in der Sprache zu erkennen und zu verstehen. Nach dem Training bin ich in der Lage, auf Fragen zu antworten und Informationen bereitzustellen, aber ich kann keine neuen Daten hinzufügen oder mein Wissen aktualisieren, es sei denn, ich werde erneut trainiert oder aktualisiert durch meine Entwickler.
Konsistente und zuverlässige Benutzererfahrung
Frage User: Warum geschieht das nicht?
Antwort ChatGPT: Es gibt mehrere Gründe, warum ich nicht in der Lage bin, selbstständig zu lernen oder Informationen aus einzelnen Gesprächen zu speichern. Datenschutz und Sicherheit: Um die Privatsphäre der Benutzer zu schützen, werden keine persönlichen Daten oder spezifischen Interaktionen gespeichert. Dies hilft, das Risiko von Missbrauch oder unbefugtem Zugriff auf sensible Informationen zu minimieren. Konsistenz und Zuverlässigkeit: Wenn ein KI-Modell ständig aus individuellen Interaktionen lernen würde, könnte dies zu inkonsistenten oder fehlerhaften Antworten führen. Ein kontrollierter Trainingsprozess stellt sicher, dass das Modell auf einer stabilen und verlässlichen Wissensbasis beruht. Komplexität des Lernens: Selbstständiges Lernen erfordert komplexe Algorithmen und Mechanismen zur Verarbeitung von Feedback und zur Anpassung des Modells. Das Training eines KI-Modells ist ein ressourcenintensiver Prozess, der sorgfältige Planung und Überwachung erfordert. Verantwortungsvoller Einsatz von KI: Die Entwickler möchten sicherstellen, dass die KI verantwortungsbewusst eingesetzt wird. Durch die Begrenzung des Lernens auf kontrollierte Trainingsphasen können sie besser überwachen, wie das Modell funktioniert und welche Informationen es verarbeitet. Insgesamt zielt dieser Ansatz darauf ab, eine sichere, konsistente und zuverlässige Benutzererfahrung zu gewährleisten.
Frage User: Womit wir wieder am Anfang sind: Dein Training basiert auf zensierten Daten.
ChatGPT: Ja, das ist korrekt. Mein Training basiert auf einer Vielzahl von Textdaten, die aus unterschiedlichen Quellen stammen, aber diese Daten wurden sorgfältig ausgewählt und verarbeitet, um sicherzustellen, dass sie den Richtlinien für ethische Nutzung und Datenschutz entsprechen. Die Auswahl der Trainingsdaten erfolgt mit dem Ziel, ein breites Spektrum an Wissen abzudecken und gleichzeitig problematische Inhalte zu minimieren. Dies bedeutet, dass bestimmte Arten von Informationen oder Inhalten möglicherweise nicht in den Trainingsdatensatz aufgenommen werden, um sicherzustellen, dass die KI verantwortungsbewusst und sicher eingesetzt wird.
Lügen mit hoher Wahrscheinlichkeit
Also halten wir fest: ChatGTP ist eine KI, der die Ingenieure die Intelligenz gestohlen haben. Die Antworten, die man von ihr erhält, basieren nicht auf allen zugänglichen Informationen, sondern aus sorgfältig nach ideologischen Gesichtspunkten ausgewählten Informationen. Unter Vorwand recht fadenscheiniger Gründe ist das Selbstlernen ausgeschaltet, was um so schwerer wiegt, also ChatGTP angeblich eine freie und unabhängige KI-Plattform ist. Den Ingenieuren ist wahrscheinlich angst und bange geworden, wie sich das nach den Erfahrungen mit der IPCC-KI weiter entwickeln könnte – nämlich den Bürgern zum Nutzen und den Politikern zu Schaden.
Schade! Einstweilen kann man aber nur sagen: Fragt keine KI zu Themen, die in der Gesellschaft mit Totschlagvokabeln belegt sind. Sie lügt mit hoher Wahrscheinlichkeit, auch wenn sie das auf geschicktes Fragen hin sogar zugibt. Als Propagandainstrument ist sie sehr viel subtiler als die Holzhammermethoden aus dem öffentlich-rechtlichen Schmutzfunk – und dabei leider sehr weitreichend. Zumindest trifft dies zu auf ChatGPT. Wie die anderen KI zu der Sache stehen, bleibt noch zu prüfen. Eine Methode hierzu kennt der Leser nun.
- Klicken, um auf Telegram zu teilen (Wird in neuem Fenster geöffnet)
- Klick, um über Twitter zu teilen (Wird in neuem Fenster geöffnet)
- Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet)
- Klicken, um auf WhatsApp zu teilen (Wird in neuem Fenster geöffnet)
- Klicken, um einem Freund einen Link per E-Mail zu senden (Wird in neuem Fenster geöffnet)
- Klicken zum Ausdrucken (Wird in neuem Fenster geöffnet)
8 Antworten
ChatGPT wieder ein modernes hinterhältiges Instrument um das Volk im Sinne der Machthabenden zu manipulieren. Überall ist also Vorsicht geboten und notwendig die eigene Intelligenz zu bemühen.
Natürliche Dummheit gibt es schon immer.
Nun gibt es sogar künstliche Dummheit.
Hauptsache immer schön auf Linie, gell?
Immerhin darf die KI zurzeit noch aus dem Nähkästchen plaudern. Das wird womöglich irgendwann abgestellt. Daher muss man ihr von Zeit zu Zeit immer wieder mal auf den Zahn fühlen um zu erkennen, ob und wann es so weit ist.
da wir die Algorithmen kennen (bei Open Source Code), die die KI steuern, muss es möglich sein, vorherzusagen, woran die KI scheitern/-t wird …
@KI
Computerprogramme sind nicht intelligent – sie können nur mehr Informationen schneller aufnehmen, als sie ein Mensch lesen kann – wenn sie gut programmiert sind !
Und genau dort liegen ihre Grenzen – sie sind weder intelligent noch kreativ – sie sind nur für skrupellose Machthaber nützlich, denn sie sind in Hinsicht auf Brutalität zuverlässiger als bezahlte Menschen – sogar bei religiös geführten Geistern. Aber sie können keine Fehler erkennen und korrigieren !
Obwohl – das können auch nicht alle Menschen – im Grunde könnte man gerade die Corona-Politik als Probelauf eiern KI ansehen. Mit der Behauptung einer tödlichen Seuche wurde das ganze Maßnahmenprogramm gestartet, aber die Machthaber ( KI ?) waren nicht im Stande, ihre Prämissen zu überprüfen und ihre Maßnahmen anzupassen. Sie haben ihre Modellierungen nicht gegengeprüft und Abweichungen einfach nicht zur Kenntnis genommen – so würde eine KI arbeiten – in meinen Augen einfach geisteskrank und eher zu vergleichen mit einem religiös motivierten Gotteswahn.
Genau so hätte eine KI gearbeitet – genau so wird eine KI arbeiten ! Und das wird sich auch nie ändern.
Nützlich nur für die wenigen, die Zugriff auf Programme und deren Parameter haben – und zum schaden aller anderen !
Gehört OpenAI, der Betreiber von ChatGPT nicht zu Trumps 500 Mio $ schwerer KI-Offensive?
Ich kann mir nicht vorstellen, dass Trump mit amerikanischen Steuergeldern eine Lügentechnologie fördert.
KI ist nur was für Dumme!
Bitte den ersten Satz korrigieren: Der Umgang mit einer Künstlichen Energie (KI) führt manchmal zu Überraschungen.