Warum wir unberechenbar sein sollten?
Computergestützte Irreduzibilität und die Grenzen der Vorhersage
Wir glauben, Algorithmen kennen uns. Sie wissen, was uns interessiert, was wir mögen, ja sogar, was wir wollen, bevor wir danach suchen. Doch dieses Gefühl von Präzision ist trügerisch. Es ist kein Wissen, sondern Anpassung. Es gibt eine operative Grenze: Nicht jedes Verhalten lässt sich auf eine Vorhersage reduzieren. Diese Grenze – die Irreduzibilität – markiert, wie weit Vorhersagesysteme gehen können.
Algorithmen kennen uns nicht. Sie optimieren nur, was wir jetzt tun.
Die computergestützte Irreduzibilität beschreibt eine präzise Grenze der Vorhersage: Es gibt Prozesse, deren Ergebnis nicht bekannt sein kann, ohne den Prozess selbst auszuführen. Das Konzept, das von Stephen Wolfram entwickelt wurde, weist nicht auf einen Mangel an Informationen oder Zufälligkeit hin, sondern auf die Unmöglichkeit, bestimmte Systeme in eine kürzere Formel als ihre eigene Entwicklung zu komprimieren.
Lange Zeit haben wir die Welt unter einer impliziten Annahme betrachtet: Wenn wir die Gesetze kennen, die ein System regieren, und seine Anfangsbedingungen, können wir seinen zukünftigen Zustand antizipieren. Diese Idee strukturiert nicht nur die klassische Physik, sondern auch eine allgemeine Art, die Realität zu verstehen: die Zukunft als etwas, das im Prinzip von der Gegenwart aus zugänglich ist.
Die Irreduzibilität führt eine entscheidende Nuance ein. Es gibt Systeme, bei denen diese Erwartung fehlschlägt, nicht weil die Regeln unbekannt oder komplex sind, sondern weil es keine Möglichkeit gibt, ihre Entwicklung zu „beschleunigen“. Das System lässt keine Abkürzungen zu. Um zu wissen, was an einem bestimmten Punkt geschieht, ist es notwendig, alle dazwischenliegenden Zustände zu durchlaufen, die dorthin führen.
Das bedeutet, dass das Wissen der Regel nicht dem Wissen des Ergebnisses gleichkommt. Man kann vollständig verstehen, wie das System funktioniert und dennoch seinen zukünftigen Zustand nicht antizipieren, ohne es Schritt für Schritt auszuführen. Der Prozess kann nicht durch eine verkürzte Vorhersage ersetzt werden.
Die Konsequenz ist streng: Es gibt Prozesse, deren Zukunft nicht verfügbar ist, bevor sie eintritt. Es ist nicht so, dass das System im absoluten Sinne unvorhersehbar ist, sondern dass es nicht auf eine einfachere Form reduzierbar ist, die es ermöglicht, es zu antizipieren. Die einzige Möglichkeit, seine Entwicklung zu kennen, besteht darin, sie sich entfalten zu lassen.
Diese Grenze ist im rechnerischen Bereich formell, führt aber eine umfassendere Idee ein: Nicht jedes System lässt sich verlustfrei in einer Vorabprojektion zusammenfassen. Es gibt Dynamiken, deren Struktur durchlaufen werden muss, um bekannt zu werden.
Inwiefern ist der Mensch irreduzibel?
Die Übertragung der Idee der Irreduzibilität auf den Menschen erfordert eine wichtige Präzisierung: Wir sprechen nicht von einer formalen Eigenschaft, wie bei den von Stephen Wolfram beschriebenen Computersystemen, sondern von einer operativen Analogie. Es wird nicht behauptet, dass der Mensch im gleichen technischen Sinne irreduzibel ist, sondern dass sein Verhalten vergleichbare Grenzen aufweist, wenn es darum geht, antizipiert oder in einem Modell komprimiert zu werden.
Der Mensch ist kein System mit expliziten, geschlossenen und zugänglichen Regeln. Wir verfügen über keine „Übergangsfunktion“, die, ausgehend von Anfangsbedingungen, eine umfassende Projektion seiner Entwicklung ermöglichen würde. Stattdessen entfaltet sich das menschliche Leben in einem offenen Umfeld: geprägt von Kontext, Sprache, Geschichte, Interaktion und Kontingenz. Jede Entscheidung folgt nicht nur der vorhergehenden, sondern verändert auch die Bedingungen, unter denen die nächsten stattfinden werden.
In diesem Rahmen ist die Analogie zur Irreduzibilität klar: nicht weil es keine Regeln oder Regelmäßigkeiten gibt, sondern weil es nicht möglich ist, die gesamte Trajektorie in einer ausreichenden Vorabvorhersage zu komprimieren.
Dies bedeutet nicht, dass menschliches Verhalten generell unvorhersehbar ist. Es gibt stabile Muster: Gewohnheiten, Präferenzen, soziale Dynamiken. Auf ihnen operieren Disziplinen wie die Wirtschaft, Psychologie oder Marketing erfolgreich. Es ist genau diese Dimension, die es Vorhersagesystemen ermöglicht zu funktionieren.
Aber das ist nicht die Gesamtheit des Verhaltens. Es gibt immer eine Dimension, die nicht umfassend antizipiert werden kann: Entscheidungen, die sich nicht direkt aus der Vergangenheit ableiten, Richtungswechsel, Unterbrechungen, unvorhergesehene Variationen. Nicht weil dem System Struktur fehlt, sondern weil es nicht vollständig in ihr komprimiert ist.
Die präziseste Formulierung wäre diese: Menschliches Verhalten enthält reduzierbare und nicht reduzierbare Komponenten. Es ist kein absolut chaotisches System, aber auch kein vollständig modellierbares.
Diese Grenze hat eine direkte Konsequenz auf die Erfahrung.
Wir können das zukünftige Leben nicht wie ein verfügbares Objekt organisieren. Wir können planen, projizieren, schätzen. Aber keine dieser Operationen erfasst die Gesamtheit dessen, was geschehen wird. Jede Vorhersage ist notwendigerweise partiell, weil die Entwicklung der Erfahrung selbst Informationen erzeugt, die vorher nicht existierten.
Hier wird die Analogie zur Irreduzibilität besonders deutlich: Es ist nicht so, dass die Zukunft vollständig unbekannt ist, sondern dass sie nicht vollständig verfügbar ist, bevor sie gelebt wird.
Dieser Zustand hat zwei Seiten.
Einerseits ermöglicht er das Unerwartete. Neuheit, Kreativität, Bruch sind keine Anomalien, sondern Konsequenzen daraus, dass die Trajektorie nicht vollständig in einer Vorabprojektion festgelegt ist. Wäre das Leben vollständig reduzierbar, wäre es auch vollständig vorhersehbar und in diesem Sinne geschlossen.
Andererseits setzt es der Kontrolle eine Grenze. Wir können den Verlauf unserer eigenen Erfahrung nicht umfassend antizipieren. Das Verständnis erscheint nach dem Prozess, nicht davor. Das Leben wird im Nachhinein verstanden, weil erst dann die Informationen verfügbar sind, die der Prozess selbst hervorgebracht hat.
Wir bewegen uns also in einem Zwischenraum: Es gibt Regelmäßigkeiten, aber keinen Abschluss; es gibt Struktur, aber keine vollständige Vorhersage. Diese Spannung – zwischen dem, was antizipiert werden kann, und dem, was sich nur entfalten kann – definiert den Rahmen, in dem die menschliche Erfahrung stattfindet.
Doch diese Grenze ist nicht nur eine theoretische Frage über die menschliche Erfahrung. Sie hat eine direkte Konsequenz für den Ort, an dem heute versucht wird, Verhalten systematisch zu antizipieren: Empfehlungsalgorithmen. Um zu verstehen, wie diese Systeme funktionieren, muss man einen Schritt zurückgehen und sie in den Rahmen stellen, in dem sie Sinn ergeben. Es geht nicht nur um Technologie, sondern um ein Wirtschaftsmodell, das strukturell davon abhängt, Aufmerksamkeit zu erfassen, zu messen und zu optimieren. Die Frage ist nicht mehr nur, ob sie uns vorhersagen können, sondern warum sie es müssen.
Aufmerksamkeit: die wirtschaftliche Grundlage des Systems
Aufmerksamkeit ist nicht mehr nur ein psychologisches oder kulturelles Phänomen. Sie ist eine zentrale Wirtschaftsgröße. Im Jahr 2014 betrug der globale Werbemarkt rund 523 Milliarden Dollar. Im Jahr 2024 überstieg er erstmals eine Billion und wird voraussichtlich 1,24 Billionen im Jahr 2026 erreichen. In nur einem Jahrzehnt hat sich das System praktisch verdoppelt, mit jährlichen Wachstumsraten von etwa 6–8 % und kurzfristigen Prognosen von über 10 %.
Entscheidend ist jedoch nicht nur das Wachstum, sondern seine Form. Die digitale Werbung konzentriert bereits mehr als 70 % der globalen Investitionen und nimmt weiter zu. In Märkten wie den USA wächst sie mit Raten von fast 15 % pro Jahr. Die zeitgenössische Werbewirtschaft dreht sich nicht mehr um traditionelle Medien, sondern um Plattformen, die in der Lage sind, Aufmerksamkeit in Echtzeit zu erfassen, zu messen und zu optimieren.
Dieser Wert ist zudem nicht verteilt, sondern konzentriert. Google und Meta beherrschen einen Großteil des globalen Marktes. Im Falle von Google macht Werbung – über die Suche, YouTube und sein Netzwerk – etwa 75 % des Gesamtumsatzes aus, mit über 260 Milliarden Dollar jährlich. Meta ist noch abhängiger: Über 95 % seiner Einnahmen – über 160 Milliarden Dollar, hauptsächlich aus Facebook, Instagram und WhatsApp – stammen aus Werbung. Das jüngste Wachstum wurde zudem durch gleichzeitige Anstiege bei Impressionen und dem Preis pro Anzeige gestützt, was eine Intensivierung des Modells widerspiegelt.
Zu diesem Kern kommen Amazon, das sein Handelsökosystem zu einer erstklassigen Werbeplattform gemacht hat, und ByteDance – mit TikTok –, das eine der effektivsten Infrastrukturen zur Erfassung von Aufmerksamkeit in Kurzvideos aufgebaut hat. Es handelt sich nicht um isolierte Dienste, sondern um eine Reihe von Systemen, die einen Großteil des täglichen Zugangs zu Informationen, Unterhaltung und Konsum organisieren.
Deshalb ist Aufmerksamkeit zu einem erstklassigen Wirtschaftsgut geworden. Jede gehaltene Sekunde, jede Interaktion, jeder Eindruck kann zu Einnahmen werden. Das Modell ist direkt: Aufmerksamkeit erfassen, verlängern und umwandeln.
Doch hier entsteht das strukturelle Problem. Dieses System muss Verhalten antizipieren, um effizient zu funktionieren. Und doch ist das Objekt, auf das es operiert – menschliches Verhalten – nicht vollständig reduzierbar. Es kann nicht in eine global zuverlässige Vorhersage komprimiert werden.
Die Konsequenz ist nicht das Versagen des Systems, sondern seine Neukonfiguration. Wenn es das Subjekt nicht als Ganzes vorhersagen kann, muss es das Problem bis zu dem einzigen Punkt reduzieren, an dem die Vorhersage noch machbar ist: die unmittelbare Gegenwart. Hier findet die Ökonomie der Aufmerksamkeit ihre operative Form.
Dieses Wirtschaftssystem ist nicht neutral: Es hängt davon ab, Verhalten auf die Gegenwart zu reduzieren.
Warum Algorithmen nicht vorhersagen, sondern sich anpassen
Das Wirtschaftsmodell, das der Aufmerksamkeitsökonomie zugrunde liegt, erfordert etwas sehr Konkretes: Verhaltensantizipation. Jeder Eindruck, jede gehaltene Sekunde, jede Interaktion hat Wert, weil sie in Einnahmen umgewandelt werden kann. Doch diese Anforderung stößt an eine bereits beschriebene Grenze: Menschliches Verhalten ist nicht vollständig reduzierbar.
Das bedeutet nicht, dass nichts vorhergesagt werden kann. Tatsächlich funktionieren Empfehlungssysteme gerade deshalb, weil es Regelmäßigkeiten gibt. Es ist jedoch auch nicht möglich, ein Modell zu konstruieren, das die vollständige Trajektorie eines Individuums zuverlässig antizipiert. Man kann nicht wissen, was eine Person in einer Woche tun wird, mit dem gleichen Grad an Genauigkeit, mit dem man abschätzen kann, was sie in den nächsten Sekunden tun wird.
Das ist der Reibungspunkt. Und auch der Wendepunkt.
Empfehlungsalgorithmen lösen dieses Problem nicht. Sie umgehen es. Anstatt zu versuchen, das Subjekt als Ganzes vorherzusagen, reduzieren sie den Umfang der Vorhersage auf das einzige Niveau, auf dem sie noch praktikabel ist: die unmittelbare Gegenwart.
Die Frage lautet nicht mehr „Wer ist dieser Benutzer?“ oder „Was wird er in Zukunft tun?“, sondern wird viel enger gefasst: Was wird er am ehesten jetzt tun?
Diese Verschiebung verändert die Natur des Systems vollständig. Die Analyseeinheit ist nicht mehr die Person als Trajektorie, sondern die punktuelle Entscheidung: ein Klick, eine Pause, ein Scrollen, eine Wiederholung. Jede dieser Aktionen benötigt keine vollständige Theorie des Subjekts, um antizipiert zu werden. Es genügt, zu beobachten, was gerade geschehen ist.
In diesem Sinne konstruiert der Algorithmus kein stabiles Modell des Benutzers. Er passt sich kontinuierlich an ihn an. Er beobachtet eine Aktion, modifiziert die Umgebung, beobachtet erneut. Er muss nicht wissen, wohin der Benutzer geht; es genügt ihm, die Wahrscheinlichkeit zu erhöhen, dass er weitermacht.
Hier findet die entscheidende Wendung statt: Eine globale Vorhersage wird durch Echtzeit-Anpassung ersetzt. Diese Reduktion ist jedoch nicht nur zeitlich. Sie ist auch eine Reduktion des Niveaus, auf dem Verhalten modelliert wird.
Auf langen Skalen ist das Relevante oft das Komplexeste: persönliche Geschichte, Identität, kultureller Kontext, tiefe Motivationen. All das ist jedoch schwer zu parametrisieren, langsam zu verarbeiten und vor allem instabil.
Auf kurzen Skalen hingegen treten viel grundlegendere Regelmäßigkeiten klarer hervor: Aufmerksamkeit für Neuheiten, Wiederholung jüngster Muster, Sensibilität für kleine Variationen. Es ist nicht notwendig, das Subjekt zu verstehen, um auf diese Dynamiken einzuwirken. Es genügt zu erkennen, wie es reagiert.
Deshalb wirken Algorithmen, obwohl sie Biologie oder tiefenpsychologische Aspekte nicht explizit modellieren, letztlich auf dieser Ebene. Nicht, weil sie „wahrer“ wäre, sondern weil sie besser vorhersagbar ist.
In der Praxis bedeutet dies, dass das System den Benutzer als eine Abfolge von Antworten auf unmittelbare Reize behandelt. Nicht in einem ontologischen Sinne – es behauptet nicht, dass der Mensch das ist –, sondern in einem operativen Sinne: Es ist die einzige Ebene, auf der die Vorhersage kontinuierlich aufrechterhalten werden kann.
Das erklärt ihre Wirksamkeit.
Algorithmen funktionieren, weil menschliches Verhalten reduzierbare Komponenten enthält. Es gibt Muster, Gewohnheiten, wiederkehrende Antworten, die beobachtet und genutzt werden können. Und kurzfristig sind diese Muster stabil genug, um nützliche Vorhersagen zu treffen.
Aber es erklärt auch ihre Grenze.
Was außerhalb dieses Modells bleibt, ist alles, was sich nicht in diesem Rahmen komprimieren lässt: Entscheidungen, die nicht auf sofortige Optimierung reagieren, Richtungswechsel, Unterbrechungen, Variationen, die sich nicht direkt aus der jüngsten Vergangenheit ableiten.
Der Schlüssel ist also nicht, dass der Mensch generell unvorhersehbar ist. Es ist, dass er nicht vollständig reduzierbar ist. Und Empfehlungssysteme funktionieren gerade deshalb, weil sie nicht versuchen, alles zu erfassen: Sie konzentrieren sich auf den Teil, der modelliert werden kann.
Das Ergebnis ist keine Vorhersage des Subjekts, sondern eine Lenkung seiner Aufmerksamkeit in der Gegenwart. Der Algorithmus muss nicht wissen, wer du bist. Er muss wissen, was du am ehesten jetzt tun wirst. Und entsprechend handeln.
Dem Algorithmus folgen oder ihn verlassen
All dies geschieht nicht abstrakt. Es manifestiert sich in einer sehr konkreten und wiedererkennbaren Erfahrung. Wir öffnen eine Plattform und haben das Gefühl, der Algorithmus kennt uns. Er weiß, was uns interessiert, was uns gefällt, ja sogar, was wir sehen wollen, bevor wir danach suchen. Die Reihenfolge scheint abgestimmt, fast persönlich. Es handelt sich nicht um eine zufällige Ansammlung von Inhalten, sondern um etwas, das mit beunruhigender Präzision zu uns passt.
Danach erfolgt eine fast unmerkliche Verschiebung. Wir hören auf, den Algorithmus als bloßes Mittel zu nutzen, und beginnen, ihn als einen Raum zu bewohnen, in dem wir finden, wonach wir suchen. Wir treten ein in der Erwartung, etwas Interessantes zu entdecken, und suchen allmählich nicht mehr außerhalb. Was im Feed erscheint, beginnt, die Suche selbst zu ersetzen. Es ist nicht so, dass der Algorithmus unsere Fragen beantwortet, sondern er beginnt, sie zu definieren.
Doch dieses Gefühl des Wissens ist trügerisch. Der Algorithmus kennt uns nicht in dem Sinne, wie wir es gewöhnlich denken. Er weiß nicht, wer wir sind, oder was wir im vitalen Sinne wollen, oder wohin wir uns bewegen wollen. Er hat keinen Zugang zu diesen Dimensionen und braucht sie auch nicht. Das Einzige, was er tun kann – und mit enormer Effizienz tut –, ist abzuschätzen, was wir am ehesten jetzt tun werden.
Das System konstruiert kein Verständnis des Subjekts, sondern eine kontinuierliche Reaktion auf das unmittelbare Verhalten. Es erkennt, was unsere Aufmerksamkeit fesselt, was sie verlängert, was uns im System hält, und organisiert die Umgebung entsprechend. Es gibt keine Absicht, uns zu verstehen, sondern nur den Fluss anzupassen, damit wir im System bleiben. Die Erfahrung wird so zu einer Abfolge von Reizen, die immer präziser auf unsere unmittelbaren Reaktionen abgestimmt sind.
Deshalb ist es so fesselnd. Weil es nicht auf dem basiert, was wir im Laufe der Zeit sind, sondern auf dem, was wir in jedem Augenblick tun. Und auf dieser Ebene ist die Präzision ausreichend, um die Aufmerksamkeit über lange Zeiträume aufrechtzuerhalten.
Das Problem tritt auf, wenn diese Funktionsweise beginnt, den Rest der Erfahrung zu kolonisieren. Die Aufmerksamkeit erschöpft sich in diesem Kreislauf der unmittelbaren Reaktion. Was außen vor bleibt – was nicht durch diese ständige Anpassung vermittelt wird – erscheint langsamer, undurchsichtiger, weniger intensiv. Es kommt zu einer Umkehrung: Wir beginnen, die Erfahrung am Maßstab des Algorithmus zu messen.
Wir suchen draußen die gleiche Intensität, die das System innen erzeugt. Wir erwarten, dass die Realität mit der gleichen Unmittelbarkeit reagiert, mit der gleichen Fähigkeit, unsere Aufmerksamkeit in Sekundenbruchteilen zu fesseln, mit der gleichen konstanten Abfolge relevanter Reize. Und wenn sie es nicht tut – wenn sie Zeit, Mühe, Warten erfordert –, wird sie als unzureichend empfunden.
Doch diese Intensität ist nicht neutral. Sie basiert auf einer sehr konkreten Logik: dem Verstärken dessen, was kurzfristig bereits antizipiert werden kann. Der Algorithmus erweitert unsere Erfahrung nicht, er optimiert sie um unsere unmittelbare Reaktion. Er gibt uns eine Version von uns selbst zurück, die innerhalb dieses Systems gut funktioniert.
Dem Algorithmus unterworfen zu sein, bedeutet nicht, einer Maschine unterworfen zu sein, die uns kennt, sondern einem System, das auf dem Teil von uns operiert, der am leichtesten vorhersagbar ist: das, was bereits reagiert, was passt, was sich wiederholen lässt. In diesem Sinne bleiben wir in der unmittelbaren Gegenwart fixiert, in einer Logik von Reiz und Reaktion.
Dort herauszukommen bedeutet nicht, das System abzulehnen oder völlig unberechenbar zu werden. Es bedeutet, seinen Geltungsbereich nicht zu verwechseln. Es bedeutet, die Definition dessen, was uns interessiert, was wir suchen, was wir mit unserer Zeit anfangen wollen, nicht an ihn zu delegieren.
Denn es gibt Fragen, die der Algorithmus nicht beantworten kann – und die ihn auch nicht interessieren –: Was wollen wir sein, wohin wollen wir gehen, welchen Sinn geben wir dem, was wir tun, wenn wir nicht auf einen Reiz reagieren.
Diese Fragen erscheinen nicht im Feed. Sie leiten sich nicht aus einem Muster ab. Sie lassen sich nicht aus einer Pause oder einem Klick ableiten. Sie erfordern eine andere Beziehung zur Erfahrung, eine, die nicht in der unmittelbaren Gegenwart komprimiert ist.
Unberechenbar zu sein ist in diesem Kontext keine abstrakte Geste. Es ist eine Möglichkeit, nicht vollständig auf jenen Teil von uns beschränkt zu bleiben, der modelliert, verstärkt und ausgenutzt werden kann. Es bedeutet, die Möglichkeit offen zu halten, abzuweichen, zu unterbrechen, zu suchen, ohne dass die Antwort bereits vorbereitet ist.
Nicht weil der Algorithmus unzureichend ist, sondern weil er nicht dafür konzipiert ist.
Je präziser er erscheint, desto mehr fixiert er uns in der Gegenwart. Je besser er funktioniert, desto enger ist der Rahmen, in dem er uns erkennt. Wenn wir diese Präzision mit Wissen verwechseln, akzeptieren wir letztendlich, dass das, was im Feed erscheint, definiert, wer wir sind und wer wir sein können.
Doch der Algorithmus kennt uns nicht. Er hält uns am Reagieren.
Er sagt nicht voraus, wer wir sind; er optimiert das, was wir jetzt tun.