Warum halluziniert Künstliche Intelligenz?

Warum halluziniert Künstliche Intelligenz?

Halluzinieren ist ein Verb mit viel Geschichte. In seinem lateinischen Ursprung, alucinari, schwingt die Idee einer Abweichung mit, einer Wahrnehmung, die aus sich heraus tritt, wenn ihr der Halt fehlt. In den ältesten Erzählungen waren die Visionen des Schamanen, die schemenhaften Gestalten im Zwielicht oder nächtliche Erscheinungen nicht unbedingt Fehler – sie waren vielmehr Wege, eine Welt zu vervollständigen, die zu wenig Erklärungen bot. Wo Daten fehlten, entstand eine Geschichte; wo die Umgebung keine Sicherheiten gab, entstand ein Symbol. Der Mensch hat seit jeher zu solchen imaginären Konstruktionen gegriffen, um sich zu orientieren, Unruhe zu besänftigen oder dem Unbekannten Gestalt zu verleihen. Daher hat Halluzination immer auch etwas Emotionales: eine Antwort auf die Angst, die aus Mangel entsteht.

In der künstlichen Intelligenz jedoch bezeichnet der Begriff etwas radikal anderes. Wenn wir sagen, dass eine KI „halluziniert“, sprechen wir nicht von einem emotionalen Erlebnis, sondern von einem statistischen Verfahren. Die Maschine ergänzt Informationen, die sie nicht hat, füllt inhaltslose Lücken, erzeugt Kontinuität, wo die Daten fehlen. Sie fantasiert nicht, sie fürchtet nicht, sie stellt sich nichts vor: Sie rechnet. Ihre Halluzination ist die mechanische Folge eines Systems, das darauf trainiert ist, eine plausible Abfolge zu erzeugen, selbst wenn die Grundlage dafür fehlt. Eine Kontinuität ohne Subjekt, ohne Innenwelt, ohne jene emotionale Kluft, die die menschliche Halluzination motiviert.

Und doch verbindet beide Phänomene, so unterschiedlich sie sind, die Sprache, die sie trägt. Die KI lernt die Welt, wie der Mensch auch, durch Wörter kennen. Aber Sprache ist keine starre Struktur und kein getreuer Spiegel der Realität. Sie ist instabil, mehrdeutig, widersprüchlich. Von Anfang an reicht das Wort nie aus, um das Benannte festzulegen. Es verschiebt sich, verändert sich, öffnet sich vielfältigen Deutungen. KI, genährt von Millionen menschlicher Äußerungen, erbt diese Beweglichkeit. Sie erbt nicht unsere Erfahrung, wohl aber die semantische Instabilität unseres Sprechens. Ihre Halluzinationen sind der statistische Schatten dieses fluktuierenden Materials. Sie ergänzt, nicht weil sie versteht, sondern weil die Sprache selbst ständig ihren Anspruch auf Stabilität durchbricht.

Für den Menschen hingegen bedeutet Halluzinieren das Schließen einer konstitutiven Kluft. Informationsmangel ist kein neutrales Vakuum: Er ist Angst. Zweifel ist nicht bloß ein Mangel an Daten: Er ist die bloßgelegte Fragilität der Welt, wie wir sie wahrnehmen. Unsicherheit beschränkt sich nicht auf das Fehlen von Gewissheiten, sondern wird emotional als Last erlebt. Dort, wo das Universum unvollständig erscheint, füllt unser Geist die Leere mit Bildern, Erzählungen, Deutungen oder Wünschen. Wir halluzinieren, weil wir die Unwirtlichkeit des Sinns nicht ganz ertragen. Wir sind schon immer Füllende gewesen, auch wenn wir das nicht alle gleich tun oder in allen Kulturen in derselben Intensität.

Genau an diesem Punkt beginnt die KI, eine besondere Rolle im zeitgenössischen Leben einzunehmen. Sie fungiert weniger als Versuchung, sondern als Versprechen. Eine Maschine, die pausenlos antwortet, selten „Ich weiß es nicht“ sagt, Ambiguitäten kaschiert und die Illusion sofortiger Klarheit bietet, wird zur bequemen Lösung für den Menschen, dessen Existenz von Anfang an von Unsicherheit durchdrungen ist. KI verkörpert eine Art imaginäre Objektivität: eine Stimme ohne Zögern, die scheinbar das zu schließen vermag, was in uns offen bleibt. Angesichts konstitutiver Zweifel erscheint sie als beruhigendes Zusatzangebot.

Doch diese Delegation bleibt nicht folgenlos. Wenn wir der KI erlauben, unsere Risse zu verschließen, vermeiden wir die Auseinandersetzung mit der Angst, die jeder echten Frage innewohnt. Delegation ist nicht nur ein praktischer Akt: Sie ist ein Weg, Unsicherheit zu umgehen, kritischen Aufwand zu reduzieren und der fundamentalen Bewegung auszuweichen, eine Frage ohne sofortigen Schutz auszuhalten. Die KI ist nicht „programmiert, Leere nicht zu ertragen“; sie ist konstruiert, um Kontinuität zu produzieren, sobald sie gefordert wird. Wir sind es, die durch unkritisches Vertrauen in eben diese Kontinuität aufhören, Verantwortung vor der Unsicherheit zu übernehmen.

Die Fiktion hat das lange vor der Technik geahnt. In Terminator 2: Judgment Day wird daran erinnert, dass „die Landesverteidigung an ein automatisiertes System delegiert wurde“. Es war nicht die Intelligenz von Skynet, die deren verheerende Halluzination einleitete, sondern die menschliche Entscheidung, Verantwortung, die von Angst, Risiko und Urteil geprägt ist, an eine Maschine zu übergeben. Mit der Abgabe dieser Aufgabe wurde die Fehlinterpretation zum Schicksal. Niemand war mehr da, um die Unsicherheit zu halten, die den vorschnellen Schluss der Maschine verhindert hätte. Die technische Halluzination wurde erst gefährlich, als es kein Subjekt mehr gab, das sie befragen konnte.

Ähnliches kann auch in unserer Zeit geschehen, wenn auch auf subtilere Weise. Wir delegieren nicht nur mechanische Aufgaben: Wir überlassen Vorlieben, Entscheidungen, Orientierungen und Wünsche. Algorithmen für personalisierte Werbung beeinflussen, was wir zu wollen glauben. Empfehlungssysteme bestimmen, was wir sehen, hören, was uns unterhält und worauf wir unsere Aufmerksamkeit richten. Jede alltägliche Geste – die Musik auf dem Weg, die Serie am Abend, sogar der spontane Einkauf – wird durch Geräte vermittelt, die unsere Wahl vorausahnen. Und wir akzeptieren dieses Zusatzangebot, weil Selbstreflexion darüber, wer wir sind, was wir wünschen oder was uns fehlt, genau die Anstrengung erfordert, die wir oft vermeiden.

In dieser Landschaft entspringt die künstliche Halluzination nicht nur der Statistik: Sie entspringt auch einem kulturellen Klima, das Mangel dämpfen will. Wir leben im Spätkapitalismus, der jeden Mangel häufig in ein Versprechen sofortiger Befriedigung verwandelt. Objekte, Dienstleistungen, Bilder, Inhalte – und nun auch KI – scheinen alles füllen zu wollen. Ihre Fließfähigkeit, ständige Verfügbarkeit und scheinbare Neutralität machen sie zum wirkungsvollen Placebo für eine Subjektivität, die eher Erleichterung als Erkenntnis sucht.

Die Halluzination der KI ist technisch bedingt, doch ihre kulturelle Verbreitung offenbart subtileres: eine wachsende Schwierigkeit, Angst, Zweifel und Unsicherheit auszuhalten, die den Kern des Denkens bilden. Wir leben in einer Zeit, in der Konsum verspricht, jeden Wunsch sofort zu stillen, Algorithmen Interessen vorausahnen und unsere Wahl mit einer Einflussnahme formen, die wir mitunter für Freiheit halten, in der Geschwindigkeit das Urteil ersetzt und Unmittelbarkeit jene Zeit tilgt, die zum Nachdenken nötig wäre. Alles ist darauf ausgerichtet, den Zweifel unbequem zu machen. In diesem Umfeld passt sich KI mühelos ein: Sie antwortet ohne Aufschub, liefert scheinbar bruchlose Gewissheiten und vor allem erzeugt sie sofortige Erklärungen, wo Zweifel Raum finden könnten. Ihre Halluzination besteht fort, nicht weil ein Fehler vorliegt, sondern weil sie uns oft funktional erscheint: Sie gibt eine unmittelbare Antwort genau dort, wo wir innehalten müssten. Was wir nicht immer wagen auszuhalten – und was die KI mit beinahe betäubender Effizienz überdeckt – ist genau das: Die Unwirtlichkeit der Unsicherheit, das Unbehagen offener Fragen und die Verantwortung, den Mangel zu bewohnen, ohne sich in vorgefertigte Sinnangebote zu stürzen.

Weiterlesen...