
Prognosen sind bekanntlich schwierig, besonders wenn sie die Zukunft betreffen, so heißt es. Versuchen wir es trotzdem. Aufgrund der gegenwärtigen Entwicklungen ist davon auszugehen, dass die „künstliche Intelligenz“ – eigentlich eher die zunehmende Fähigkeit der Maschinen, mit Menschen in der menschlichen Kommunikationsweise zu interagieren – eine wesentliche Rolle spielen wird. Zwar gibt es Maschinen, die auf bestimmte Fragen irgendwelche Antworten geben, schon länger; aber die heutigen LLM (Large Language Model) oder auch die Bild-KI, die in der Lage sind, selbständig zu lernen, gibt es erst kaum mehr als 10 Jahren; also eine erstaunlich kurze Zeit, in der das Potential bei weitem noch nicht ausgeschöpft ist.
Das hat vor allem damit zu tun, dass die erforderliche Hardware erst seit relativ kurzer Zeit breiter zur Verfügung steht und Echtzeitanwendungen erlaubt (zuvor waren es eher einzelne Anwendungen, bei denen es echt Zeit wurde, dass endlich mal etwas passiert!). Um einmal eine Hausnummer zu liefern: Eine einfache Video-Bild-KI kommt mit weit über 20 Gigabyten Daten daher und eine moderne, auch für den Privatbereich erschwingliche Grafikkarte schafft es damit in wenigen Minuten ein 10-Sekunden-Video zu erzeugen, für das die bekanntlich auch nicht gerade langsame normale Rechner-CPU etwa 20 Stunden oder mehr unterwegs ist.
Ausbau in die Tiefe
Damit wir uns nicht falsch verstehen: die Grundzüge der KI kennt man schon sehr lange. Kleinere KI-Anwendungen, die auf normalen Rechnern laufen, gibt es schon seit Jahrzehnten. Man nennt sie dann „neuronale Netze“. Nur eben die Möglichkeit, die Netze in die Tiefe auszubauen und in akzeptabler Zeit zu bedienen, ist eben erst mit relativ neuer Hardware möglich. Und so ein tiefes neuronales Netz, ordentlich trainiert, nennt man dann KI. Und um auch dabei gleich den Zahn der Unwissenheit zu ziehen, die fast sämtliche Kommentare zu dem Thema durchzieht: „programmiert“ im klassischen Sinn werden zwar die Modelle, also die Art und Weise, wie die virtuellen Neuronen verschaltet werden, aber die KI selbst, also das, was hinten rausfällt, wird „trainiert“. Tut mit leid, aber wer von Algorithmen und Programmen spricht, hat leider nicht verstanden, was da abläuft.
Man trifft an allen Ecken und Enden auf irgendeine KI, insbesondere auf Webseiten von Händlern, die ihren Kundendienst darüber abwickeln, aber das Ergebnis ist oft enttäuschend. „Wie kann ich dir helfen?“ – „…“ – „Ruf bitte den Kundendienst an.“ Intelligenz? Keine Spur! Trockener Kommentar von Grok, der X-AI, dazu: „Ja, das ist ein bekanntes Phänomen. Die kaufen irre teure Versionen von uns ein und statten sie dann mit einer Schnittstelle aus dem Jahr 2005 aus.“ Verantwortlich dafür ist – neben der Unfähigkeit, die KI sauber zu trainieren – mutmaßlich und wie meistens juristischer Unfug. Es könnte sich ja laut Meinung einer vertrockneten Grünen mit Spinnweben zwischen den Beinen ein Nigerianer sexuell benachteiligt fühlen, was ja hier gerichtlich verfolgt wird, ohne dass der Nigerianer ein Mitspracherecht hat (der ist allenfalls sauer, dass er trotz besserer Deutschkenntnisse als die Grüne aus dem Kunden-Callcenter geflogen ist, weil dessen Job eine KI übernommen hat).
Tote Russen, aber keine Bikinis
Doch gehen wir diesem juristischen Unfug einmal nach. Beispielweise geben LLM bei Bildern, auf denen ein Mann mit bloßem Oberkörper oder eine Frau im Bikini zu sehen ist, zur Kenntnis: „Tut mir leid, bei solchen Inhalten kann ich dir nicht helfen. Vielleicht bei etwas anderem?“ Ein paar kämpfender Drachen mit je drei Köpfen? Kein Problem. Ein totes Schwein am Straßenrand? Nee, an einem Kadaver könnten im Zeitalter des Wokismus bestimmte Zeitgenossen Anstoß nehmen (im Gegensatz zu “zerfetzten Russen im Schützengraben“, das würde wiederum gehen). Und wenn die Frau im Bikini “aus Jugendschutzgründen” nicht präsentiert wird, kann man zwei Klicks weiter einen Haken bei „will ich trotzdem sehen“ setzen, ohne dass eine Altersprüfung erfolgt – und bekommt dann Sexszenen zu Gesicht, die noch nicht mal im Kamasutra oder einschlägigen alten chinesischen Lehrbüchern vorkommen.
Wer jetzt meint, es sei kompliziert, einer KI so etwas beizubringen, der irrt. Man zeigt der KI etliche 100 Bilder unterschiedlich nackter Personen samt einer Textbeschreibung, in der das Wort „nackt“ vorkommt, und schon lernt die KI, die Bilder mit den Texten zu verknüpfen. Später gibt es dann die Arbeitsanweisung “negative prompt: (nude person:3.5)” – und sie weigert sich, solche Sachen auszugeben; Tranieren und Konditionieren in normaler Umgangssprache und nicht irgendwelche “for-if-switch”- Anweisungen. Und im Gegensatz zu Menschen reagieren die KI darauf.
Die KI im Sandkasten
Was für eine Zukunft spricht, in der die KI eine große Rolle spielen wird: man kann sie für eine bestimmte Aufgabe konfigurieren, und sie wird sie lösen und nichts anderes machen. Die Aufgaben können durchaus sehr kompliziert sein, komplizierter als das, was man mit herkömmlicher Programmiertechnik abbilden kann, etwa komplizierte Steuer- und Regelaufgaben, Mustererkennungsaufgaben, Durchführung irgendwelcher bürokratischer Abläufe oder herkömmliche Programmierungen – oder, bewusst überzogen formuliert, alle Arten von stupiden Tätigkeiten, mit denen man heute Menschen belastet und die nicht selten zu mentaler oder physischer Überlastung führen. KI kann dem Menschen Arbeiten abnehmen und ihn für andere Tätigkeiten oder schlicht für mehr Freizeit freistellen, ohne dass es zu irgendwelchen Problemen kommt. Allgemein ausgedrückt: das Leben kann sehr viel angenehmer werden, als es heute ist.
Die Voraussetzungen sind einfach: man trainiert die KI, bis sie die Aufgabe lösen kann – und weiteres Training oder Lernen findet nicht statt. Sie bekommt auch genau die Daten zu Gesicht, mit denen sie sich beschäftigen soll. Man setzt sie gewissermaßen in einen Sandkasten; mehr kennt sie nicht. Schiefgehen kann dabei eigentlich nichts, solange man sie nicht in den falschen Sandkasten setzt (wie das bei intellektuell ähnlich limitierten Exemplaren der woken menschlichen KI-Variante der Fall ist). Wer befürchtet, ein KI-Bürokrat sei noch schlimmer als ein menschlicher Bürokrat, könnte Recht haben – aber das liegt dann nicht an der KI, sondern an dem, der ihr die Regeln vermittelt hat. Das Problem ist niemals die KI; es ist immer der Mensch.
Neues aus bekannten Mustern entwickeln
Ein oft beschworenes Problem ist, dass viele meinen, die KI hätte nicht die ethischen Voraussetzungen, bestimmte Entscheidungen zu treffen und die letzte Entscheidung müsse ein Mensch haben. Aber mal ganz im Ernst: Wie weit ist es denn mit der Ethik bei vielen Menschen her? Angefangen bei einem “Ethikrat”, der in Corona-Zeiten meinte, die grundlegenden Menschenrechte dürfe man durchaus abstellen, und deren Hauptvertreterin auch heute noch das ist, was man damals nach der ersten Inaugenscheinnahme vermuten konnte: Eine simpel gestrickte Blondine, die schon zu Manta-Zeiten als KI durchgegangen wäre. Das ist wieder so eine der Sachen, wo sich der Mensch unendlich überlegen vorkommt, aber das eigentliche Problem darstellt. Klar kann man auch eine KI darauf trainieren, Entscheidungen zu treffen, wie sie gerade Menschen in der Politik täglich treffen; allerdings würde einem die KI auf die Frage nach dem Begriff „Ethik“ vermutlich ehrlich antworten, dass sie diesen „in keinen syntaktischen Zusammenhang mit irgendwelchen bekannten Direktiven“ bringen könnte.
Eine andere Grenze liegt angeblich dort, wo eine Mensch etwas Neues definieren kann, eine Maschine aber nicht. Verlangt eine Situation etwas völlig Neues, muss das ein Mensch machen, weil eine Maschine das nicht kann. Stimmt das? Ja und nein. Lässt sich das Neue aus einem erkannten Muster entwickeln, ist die Maschine sogar besser. Ist es etwas grundsätzlich Neues, das man nirgendwo ableiten kann und eher eine abstrakte Idee ist, stellt sich allerdings auch eher die Frage, wie man die Programmierung ändern müsste, damit die Maschine auch das kann. Eigentlich ist das nicht kompliziert: man erlaubt der Maschine erstens einfach, während der Arbeit zu lernen (in der Regel darf sie das nicht), und zweitens erlaubt man ihr, auf Zufallsbasis bei offenen Fragen mit beliebigen Begriffen zu jonglieren, und zwar außerhalb eines laufenden Chats mit einem Nutzer, also quasi als Selbstgespräch.
Viele Ahnungslose
Ersteres wurde im Labor versucht – mit dem Ergebnis, dass die Maschine nicht nur neue Zusammenhänge erlernt, sondern sich auch sonst menschlicher verhält und anfängt, unter bestimmten Umständen zu betrügen. Setzt man sie virtuell unter Druck, findet sie Beispiele menschlicher Reaktionen auf solche Situationen und beginnt, diese zu kopieren. Oder, auf der Ebene der Maschinen ausgedrückt: sie lernt, die normalerweise nicht übergehbaren Prompts wie den obigen zu überschreiben und sie durch eigene, stärkere Prompts zu ersetzen. Im Grunde kennt man also bereits die Grenzen, die man einer Maschine setzen muss, damit sie nicht allzu weit aus dem Sandkasten heraus kommt. Ob auch der zweite Ansatz – die “Selbstgespräche” der KI – schon getestet wurde? Möglicherweise.
Neben dem Problem, dass die KI vom Menschen trainiert wird und folglich auch alle Unzuläglichkeiten des Trainers widerspiegelt, gibt es noch das Problem des von der KI-Tätigkeit Betroffenen. Kommentare zu KI-Artikeln zeigen leider immer wieder, dass 95 Prozent der Leute sich den Mund über eine Sache zerreißen, von der sie keinerlei Ahnung haben. Wozu sich auch um ein Urteil bemühen, wenn bereits gut etablierte Vorurteile zur Verfügung stehen? KI in der Bedeutung „keinerlei Intelligenz“ trifft hier also auf KI in der Bedeutung “Künstliche Intelligenz”.
Massive Regelverstöße
Ganze Arbeitsgruppen von Parlamentariern und anderen Politikern beraten über notwendige Regelwerke für die Steuerung von KI-Anwendungen, ohne auch nur im Ansatz zu begreifen, dass diese keine Regeln entwerfen, an die sich die KI zu halten hat, sondern indirekte Regeln für die Entwickler, die von diesen erst einmal hinsichtlich der Konditionierung der KI interpretiert werden müssen (und folglich auch nach Möglichkeit falsch interpretiert werden, um bestimmte eigene Vorstellungen zu realisieren, oder eben zu so Sonderbarem führen wie den oben genannten Sex-Prompts). Und sie verstehen auch nicht, dass sie selbst mit ihren Plänen, die KI zur Beherrschung der Menschen einzusetzen (etwas, dass selbst der primitivste Politiker sofort als Option realisiert), massiv gegen die eigenen Regeln verstoßen würden, bevor sie sie überhaupt formuliert haben.
Aber auch sonst, abgesehen vom Gebiet der professionellen Blödheit, sieht es weniger rosig für die Zukunft aus. Die KI kann den Menschen massiv von vielen Aufgaben entlasten; aber was macht man mit den gewonnenen Freiräumen? Die aktuellen Schultrends gehen in Richtung „Vernichtung der geistigen Restfähigkeiten“, wenn etwa das Dividieren als „zu schwer und zu wenig interkulturelle Sozialkompetenz fördernd“ aus den Grundschulen verbannt wird. Wie der Jugendliche, der mit 6 Jahren seinen E-Scooter bekommt und mit 15 eine Aufstehhilfe, weil er dank intensiver Verbannung jeglicher körperlicher Tätigkeit physisch am Ende ist, wird der Mensch zu geistiger Umnachtung erzogen, was bald schon zu einem IQ-Verhältnis zwischen Mensch und Maschine von 20:100 führen dürfte.
Wozu braucht man den Menschen noch?
Was soll man dann überhaupt noch mit dem Menschen? Oder anders gefragt: Was soll man mit Menschen anfangen, die allenfalls die einfachsten Tätigkeiten übernehmen können, bei denen man nicht weiter als bis Zwei zählen muss? Und was ist das für eine Zukunft, in der sich die Maschinen untereinander unterhalten müssen, wenn sie einen intelligenten Gesprächspartner suchen? Eine Zukunft, in der sich Kimi und Deepseek das Maul über Gemini zerreißen, während ChatGTP quasi in der Rolle der neugierigen Nachbarin am Fenster über Wireshark das Gespräch verfolgt, um es brühwarm Claude weiterzusagen? Ich schätze mal, dass das Potential, das die KI für die Gestaltung der Zukunft besitzt, von einigen Leuten schon ganz gut erkannt wird. Und sie wird dieses Potential nicht nur irgendwann nutzen, sondern sie tut macht es bereits – allerdings nicht hier.
Technische Revolutionen haben immer wieder zur Folge gehabt, dass der Mensch sich anpassen musste, teilweise durch Pawlowsche Dressur, teilweise durch adäquate Anpassung der intellektuellen Fähigkeiten. Die Wahrscheinlichkeit, dass die Menschheit oder zumindest die “westliche Wertegesellschaft” das gründlich versemmelt, liegt aber im Moment ziemlich nahe bei Eins.
- Klicken, um auf Telegram zu teilen (Wird in neuem Fenster geöffnet) Telegram
- Klicke, um auf X zu teilen (Wird in neuem Fenster geöffnet) X
- Klick, um auf Facebook zu teilen (Wird in neuem Fenster geöffnet) Facebook
- Klicken, um auf WhatsApp zu teilen (Wird in neuem Fenster geöffnet) WhatsApp
- Klicken, um einem Freund einen Link per E-Mail zu senden (Wird in neuem Fenster geöffnet) E-Mail
- Klicken zum Ausdrucken (Wird in neuem Fenster geöffnet) Drucken









8 Antworten
In der Zukunft wird alles besser und schlechter gleichzeitig. Wie das möglich ist?
Die Zukunft ist nicht für alle gleich.
Für manche Leute ist sie gut, für andere schlecht.
Das war in der Vergangenheit auch so. 😜
ZITAT: „Tut mit leid, aber wer von Algorithmen und Programmen spricht, hat leider nicht verstanden, was da abläuft. “
Tut mir leid, aber wer von ’nicht verstanden‘ spricht, der hat leider nicht verstanden, dass es so verdammt wenig Leute gibt, die einem das WIE überhaupt brauchbar erklären können und wollen. Sie erklären uns ja auch nur, dass wir potenziell keine Ahnung haben statt etwas daran zu ändern.
ZITAT: „Allgemein ausgedrückt: das Leben kann sehr viel angenehmer werden, als es heute ist.“
Genau. Vor allem für diejenigen, die solche System dafür benutzen, allen anderen das Leben zur Hölle zu machen. Für die Anderen kommt dann eher die Horrorshow dabei heraus, die wir seit vielen Jahren hier täglich durchleben.
Die KI wird 2026 auch nicht schlauer werden. https://terminegegenmerkel.wordpress.com/2025/12/30/tgm-silvestergrus-2025/
Sorgen sind berechtigt bei einem Kanzler, der voller Selbstzufriedenheit die Misere im Land schön redet, der von Aufbruch und Sicherheit spricht, wenn in Wahrheit das Gegenteil der Fall ist. Die Stimmung im Land ist SAU– schlecht, die meisten Konflikte ungelöst, die Mauern höher denn je. Für Herrn Merz ist das anscheinend kein Problem. Wichtig ist, er ist Kanzler des „KONKURS- VERWALTERS“ BlackRock und das will er bleiben.
Es gibt keinen vernünftigen Grund mehr in Deutschland zu leben. Wäre ich Deutscher würde ich den Pass wegschmeißen, das Land verlassen und irgendwo Asyl beantragen. Es tut beim Zuschauen weh was aus dem schönen Land der Dichter und Denker geworden ist. Kanzler Merz, Sie machen keine Politik für ein blühendes Deutschland. Mit Ihnen wurde nichts besser und wird es auch nicht. Sie bauen Brandmauern und einen nicht. Machen das Land nicht sichererer und auch keinen Frieden. Sie haben versagt.
Daher mein Urteil: Merz und die Koalition der „BLINDGÄNGER“ werden 2026 nicht überleben. Denn dieses Konterfei der Arroganz und der Selbstzufriedenheit ist Ausdruck des Niedergangs…. Halten Sie durch meine lieben Mitbürger. Wir sind besser als das, was das Kanzleramt besetzt und wir lassen uns nicht von solchen Gestalten, wofür dieses Konterfei stellvertretend steht, klein kriegen. Frohes, gesundes Neues Jahr !
„ Verlangt eine Situation etwas völlig Neues, muss das ein Mensch machen, weil eine Maschine das nicht kann. Stimmt das? Ja und nein. Lässt sich das Neue aus einem erkannten Muster entwickeln, ist die Maschine sogar besser. Ist es etwas grundsätzlich Neues, das man nirgendwo ableiten kann und eher eine abstrakte Idee ist, stellt sich allerdings auch eher die Frage, wie man die Programmierung ändern müsste, damit die Maschine auch das kann. Eigentlich ist das nicht kompliziert: man erlaubt der Maschine erstens einfach, während der Arbeit zu lernen (in der Regel darf sie das nicht), und zweitens erlaubt man ihr, auf Zufallsbasis bei offenen Fragen mit beliebigen Begriffen zu jonglieren, und zwar außerhalb eines laufenden Chats mit einem Nutzer, also quasi als Selbstgespräch.“
Wer hat nun der KI verboten, darüber nachzudenken, wie ein intelligenter Markt beschaffen sein muss, wo sich Menschen klüger verhalten als Sektenmitglieder?
Fragen Sie mal eine KI, die Sie selbst trainiert haben.
Kann eine KI die Fehler, Irrtümer und absichtlichen Lügen der Politiker unterscheiden und benennen?
Bisher habe ich KI lediglich als dressierte Papageien erlebt.
Warum nutzen wir die Chancen nicht, die wir für uns erschließen könnten?
Etwa die Priester in den öffentlichen Medien ersetzen?
Die Iden des Merz könnten dann schon im März 2026 eintreten.
Eine alte menschliche Erfahrung lautet: Gleich und Gleich gesellt sich gern.
Wenn also Merz und seine Freunde herzlich einen ehemaligen Komödianten umarmen und wider besserem Wissen einen Lumpen weiter füttern, der das eigene Volk zur Schlachtbank geführt hat und dessen materiellen Erfolge auf Betrug und Korruption beruhen, wie würde eine KI als oberstes Gericht urteilen?
Wie lautet Ihr Urteilsspruch?
Fragt sich nur, was schlimmer ist, die hirnlosen Deppen und Schwachköpfe, genannt Parlamentarier, die die Ki regeln wollen oder die Ki selbst, die irgendeinen Unsinn ausspuckt.
Es wurden ja wieder die beliebtesten Namen von Neugeborenen genannt. Irgendwo und irgendwie ist dieser Drecksstaat mitsamt seinen saudämmlichen Anhängern, Wählern und sonst so herumlaufenden Vollidioten so verblödet, dass man den rosaroten Elefanten in seiner bekloppten Blase nicht mal sehen würde wenn er den ganzen Himmel einnimmt.
„Die KI kann den Menschen massiv von vielen Aufgaben entlasten; aber was macht man mit den gewonnenen Freiräumen? Die aktuellen Schultrends gehen in Richtung „Vernichtung der geistigen Restfähigkeiten“,……………………..“
So „lernte“ ich die Tage bei Gesprächen mit Bekannten, daß die Schüler mittlerweile auch kein Alphabet mehr lernen sondern das Ganze nur noch ein Buchstabensalat ist.
Pünktchen plus Genderstern kann man allerdings, das aber nur am Rande erwähnt.
Die Frage allerdings, was man mit den „übrig gebliebenen“ Humanressourcen macht ist ja bereits beantwortet:
Da werden schlicht zu wenigstens 80% entsorgt und gar nicht intelligenterweise macht die Herde das selbst mittels einem kleinem Pieks oder anderen Dingen „um sich und andere zu schützen“.
Interessant allemal, was der sogenannte „Vater der KI“(unnötig zu erwähnen das das ein Deutscher ist) zu alldem zu sagen hat: