Dlaczego powinniśmy być nieprzewidywalni?
Obliczeniowa nieredukowalność i granice przewidywalności
Wierzymy, że algorytmy nas znają. Że wiedzą, co nas interesuje, co nam się podoba, nawet to, czego chcemy, zanim to wyszukamy. Ale to poczucie precyzji jest mylące. To nie jest wiedza, to dostosowanie. Istnieje granica operacyjna: nie każde zachowanie można sprowadzić do przewidywania z wyprzedzeniem. Ta granica — nieredukowalność — wyznacza, jak daleko mogą zajść systemy przewidywania.
Algorytmy nas nie znają. Jedynie optymalizują to, co robimy teraz.
Nieredukowalność obliczeniowa opisuje precyzyjną granicę przewidywania: istnieją procesy, których wyniku nie można poznać bez uruchomienia samego procesu. Koncepcja, opracowana przez Stephena Wolframa, nie wskazuje na brak informacji ani na losowość, ale na niemożność skompresowania pewnych systemów w krótszą formułę niż ich własna ewolucja.
Przez długi czas postrzegaliśmy świat zgodnie z ukrytym założeniem: jeśli znamy prawa rządzące systemem i jego warunki początkowe, możemy przewidzieć jego przyszły stan. Ten pomysł nie tylko strukturyzuje fizykę klasyczną, ale także ogólny sposób rozumienia rzeczywistości: przyszłość jako coś, co w zasadzie jest dostępne z teraźniejszości.
Nieredukowalność wprowadza decydujący niuans. Istnieją systemy, w których to oczekiwanie zawodzi, nie dlatego, że zasady są nieznane lub złożone, ale dlatego, że nie ma sposobu na „przyspieszenie” ich ewolucji. System nie dopuszcza skrótów. Aby dowiedzieć się, co dzieje się w określonym punkcie, konieczne jest prześledzenie wszystkich pośrednich stanów, które do niego prowadzą.
Oznacza to, że znajomość reguły nie jest równoznaczna ze znajomością wyniku. Można całkowicie zrozumieć, jak działa system, a mimo to nie być w stanie przewidzieć jego przyszłego stanu bez uruchomienia go krok po kroku. Procesu nie można zastąpić skróconą prognozą.
Konsekwencja jest ścisła: istnieją procesy, których przyszłość nie jest dostępna, zanim się wydarzą. Nie chodzi o to, że system jest nieprzewidywalny w sensie absolutnym, ale że nie jest redukowalny do prostszej formy, która pozwoliłaby go przewidzieć. Jedynym sposobem poznania jego ewolucji jest pozwolenie mu na rozwój.
Ta granica jest formalna w dziedzinie obliczeniowej, ale wprowadza szerszą ideę: nie każdy system można podsumować bez strat w wcześniejszym przewidywaniu. Istnieją dynamiki, których struktura wymaga prześledzenia, aby je poznać.
W jakim sensie człowiek jest nieredukowalny?
Przeniesienie idei nieredukowalności na człowieka wymaga ważnego sprecyzowania: nie mówimy o formalnej właściwości, jak w systemach obliczeniowych opisanych przez Stephena Wolframa, ale o analogii operacyjnej. Nie twierdzi się, że człowiek jest nieredukowalny w tym samym technicznym sensie, ale że jego zachowanie wykazuje porównywalne granice, jeśli chodzi o przewidywanie lub kompresowanie w model.
Człowiek nie jest systemem o jawnych, zamkniętych i dostępnych zasadach. Nie dysponujemy „funkcją przejścia”, która, biorąc pod uwagę początkowe warunki, pozwalałaby na wyczerpujące przewidywanie jego ewolucji. Zamiast tego życie ludzkie rozwija się w otwartym środowisku: przeplatanym kontekstem, językiem, historią, interakcją i przypadkowością. Każda decyzja nie tylko następuje po poprzedniej, ale modyfikuje warunki, w jakich nastąpią kolejne.
W tych ramach analogia z nieredukowalnością jest jasna: nie dlatego, że nie ma reguł czy prawidłowości, ale dlatego, że nie jest możliwe skompresowanie całej trajektorii w wystarczającą wcześniejszą prognozę.
Nie oznacza to, że zachowanie ludzkie jest ogólnie nieprzewidywalne. Istnieją stabilne wzorce: nawyki, preferencje, dynamiki społeczne. Na nich z powodzeniem działają takie dyscypliny jak ekonomia, psychologia czy marketing. To właśnie ten wymiar pozwala na funkcjonowanie systemów przewidywania.
Ale to nie całe zachowanie. Zawsze istnieje wymiar, którego nie można wyczerpująco przewidzieć: decyzje, które nie wynikają bezpośrednio z przeszłości, zmiany kierunku, przerwy, nieprzewidziane warianty. Nie dlatego, że systemowi brakuje struktury, ale dlatego, że nie jest w niej całkowicie skompresowany.
Najdokładniejszym sformułowaniem byłoby to: zachowanie ludzkie zawiera składniki redukowalne i nieredukowalne. Nie jest absolutnie chaotycznym systemem, ale też nie jest całkowicie modelowalnym.
Ta granica ma bezpośrednią konsekwencję dla doświadczenia.
Nie możemy organizować przyszłego życia tak, jakby było dostępnym obiektem. Możemy planować, przewidywać, szacować. Ale żadna z tych operacji nie obejmuje całości tego, co nastąpi. Każde przewidywanie jest z konieczności częściowe, ponieważ sam rozwój doświadczenia generuje informacje, które wcześniej nie istniały.
W tym miejscu analogia z nieredukowalnością staje się szczególnie jasna: nie chodzi o to, że przyszłość jest całkowicie nieznana, ale że nie jest całkowicie dostępna, zanim zostanie przeżyta.
Ten warunek ma dwie strony.
Z jednej strony, umożliwia to, co nieoczekiwane. Nowość, kreatywność, przełom nie są anomaliami, ale konsekwencjami tego, że trajektoria nie jest całkowicie ustalona we wcześniejszej prognozie. Gdyby życie było całkowicie redukowalne, byłoby również całkowicie przewidywalne, a w tym sensie zamknięte.
Z drugiej strony, wprowadza granicę kontroli. Nie możemy wyczerpująco przewidzieć przebiegu naszego własnego doświadczenia. Zrozumienie pojawia się po procesie, a nie przed nim. Życie rozumie się w retrospekcji, ponieważ tylko wtedy dostępne są informacje, które sam proces wytworzył.
Poruszamy się zatem w przestrzeni pośredniej: istnieją prawidłowości, ale nie zamknięcie; istnieje struktura, ale nie całkowite przewidywanie. To napięcie — między tym, co można przewidzieć, a tym, co może jedynie się rozwijać — definiuje ramy, w których odbywa się ludzkie doświadczenie.
Ale ta granica nie jest tylko teoretycznym pytaniem o ludzkie doświadczenie. Ma bezpośrednie konsekwencje w miejscu, gdzie dziś systematycznie próbuje się przewidywać zachowanie: w algorytmach rekomendacji. Zrozumienie, jak działają te systemy, wymaga cofnięcia się o krok i umieszczenia ich w ramach, w których nabierają sensu. Nie chodzi tylko o technologię, ale o model ekonomiczny, który strukturalnie zależy od pozyskiwania, mierzenia i optymalizacji uwagi. Pytanie nie brzmi już tylko, czy mogą nas przewidywać, ale dlaczego muszą to robić.
Uwaga: ekonomiczne podstawy systemu
Uwaga nie jest już tylko zjawiskiem psychologicznym czy kulturowym. Jest centralną wielkością ekonomiczną. W 2014 roku globalny rynek reklamowy wynosił około 523 miliardy dolarów. W 2024 roku po raz pierwszy przekroczył bilion, a prognozy przewidują, że w 2026 roku osiągnie 1,24 biliona. W ciągu zaledwie dekady system praktycznie podwoił się, z rocznymi wzrostami rzędu 6–8% i prognozami powyżej 10% w krótkim terminie.
Ale decydujący jest nie tylko wzrost, ale także jego forma. Reklama cyfrowa koncentruje już ponad 70% globalnych inwestycji i nadal rośnie. Na rynkach takich jak Stany Zjednoczone, rośnie w tempie bliskim 15% rocznie. Współczesna ekonomia reklamowa nie kręci się już wokół tradycyjnych mediów, ale wokół platform zdolnych do pozyskiwania, mierzenia i optymalizacji uwagi w czasie rzeczywistym.
Ponadto, ta wartość nie jest rozłożona, jest skoncentrowana. Google i Meta zdobywają dominującą część globalnego rynku. W przypadku Google, reklama — poprzez wyszukiwarkę, YouTube i jej sieć — stanowi około 75% całkowitych przychodów, z ponad 260 miliardami dolarów rocznie. Meta jest jeszcze bardziej zależna: ponad 95% jej przychodów — ponad 160 miliardów, pochodzących głównie z Facebooka, Instagrama i WhatsAppa — pochodzi z reklamy. Jej ostatni wzrost był również wspierany przez jednoczesne zwiększenie liczby wyświetleń i ceny za reklamę, co odzwierciedla intensyfikację modelu.
Do tego rdzenia dołącza Amazon, który przekształcił swój ekosystem handlowy w pierwszorzędną platformę reklamową, oraz ByteDance — z TikTokiem — zbudował jedną z najskuteczniejszych infrastruktur do pozyskiwania uwagi w krótkich filmach. Nie chodzi o pojedyncze usługi, ale o zestaw systemów, które organizują dużą część codziennego dostępu do informacji, rozrywki i konsumpcji.
Dlatego uwaga stała się pierwszorzędnym aktywem ekonomicznym. Każda zatrzymana sekunda, każda interakcja, każde wyświetlenie może przekształcić się w dochód. Model jest bezpośredni: pozyskać uwagę, przedłużyć ją i przekształcić.
Ale tutaj pojawia się problem strukturalny. Ten system musi przewidywać zachowanie, aby działać efektywnie. A jednak obiekt, na którym działa — ludzkie zachowanie — nie jest całkowicie redukowalny. Nie można go skompresować w globalną, niezawodną prognozę.
Konsekwencją nie jest awaria systemu, ale jego rekonfiguracja. Jeśli nie może przewidzieć podmiotu w całości, musi zredukować problem do jedynego punktu, w którym przewidywanie jest nadal możliwe: do najbliższej teraźniejszości. Tam właśnie ekonomia uwagi znajduje swoją formę operacyjną.
Ten system ekonomiczny nie jest neutralny: zależy od redukowania zachowania do teraźniejszości.
Dlaczego algorytmy nie przewidują, ale się dostosowują
Model ekonomiczny, który stanowi podstawę ekonomii uwagi, wymaga czegoś bardzo konkretnego: przewidywania zachowania. Każde wyświetlenie, każda zatrzymana sekunda, każda interakcja ma wartość, ponieważ może przekształcić się w dochód. Ale to wymaganie napotyka na granicę, którą już opisaliśmy: ludzkie zachowanie nie jest całkowicie redukowalne.
Nie oznacza to, że niczego nie można przewidzieć. W rzeczywistości systemy rekomendacji działają właśnie dlatego, że istnieją regularności. Ale nie jest też możliwe zbudowanie modelu, który niezawodnie przewidziałby całą trajektorię jednostki. Nie można wiedzieć, co ktoś zrobi za tydzień z takim samym stopniem precyzji, z jakim można oszacować, co zrobi w najbliższych sekundach.
To jest punkt tarcia. A także punkt zwrotny.
Algorytmy rekomendacji nie rozwiązują tego problemu. Omijają go. Zamiast próbować przewidzieć podmiot w całości, redukują zakres przewidywania do jedynego poziomu, gdzie jest ono wciąż możliwe: do najbliższej teraźniejszości.
Pytanie przestaje brzmieć „kim jest ten użytkownik” lub „co zrobi w przyszłości”, a staje się znacznie bardziej ograniczone: co najprawdopodobniej zrobi teraz.
To przesunięcie całkowicie zmienia naturę systemu. Jednostką analizy nie jest już osoba jako trajektoria, ale punktualna decyzja: kliknięcie, pauza, przewinięcie, powtórzenie. Każda z tych akcji nie wymaga pełnej teorii podmiotu, aby ją przewidzieć. Wystarczy obserwować, co właśnie się stało.
W tym sensie algorytm nie buduje stabilnego modelu użytkownika. Ciągle się do niego dostosowuje. Obserwuje akcję, modyfikuje środowisko, ponownie obserwuje. Nie musi wiedzieć, dokąd zmierza użytkownik; wystarczy mu zwiększyć prawdopodobieństwo, że będzie kontynuował.
W tym miejscu następuje decydujący zwrot: globalne przewidywanie zostaje zastąpione adaptacją w czasie rzeczywistym. Ale ta redukcja nie jest tylko czasowa. Jest również redukcją poziomu, na którym modeluje się zachowanie.
W długich skalach istotne jest zwykle to, co najbardziej złożone: historia osobista, tożsamość, kontekst kulturowy, głębokie motywacje. Ale to wszystko jest trudne do sparametryzowania, wolno przetwarzane i, co najważniejsze, niestabilne.
Natomiast w krótkich skalach z większą jasnością pojawiają się podstawowe prawidłowości: uwaga na nowości, powtarzanie ostatnich wzorców, wrażliwość na drobne wariacje. Nie trzeba rozumieć podmiotu, aby operować na tej dynamice. Wystarczy wykryć, jak reaguje.
Dlatego, choć algorytmy nie modelują wprost biologii czy głębokiej psychologii, to jednak działają na tym poziomie. Nie dlatego, że jest to bardziej prawdziwe, ale dlatego, że jest bardziej przewidywalne.
W praktyce oznacza to, że system traktuje użytkownika jako sekwencję odpowiedzi na natychmiastowe bodźce. Nie w sensie ontologicznym — nie twierdzi, że człowiek tym jest — ale w sensie operacyjnym: to jedyny poziom, na którym przewidywanie może być ciągle podtrzymywane.
To wyjaśnia ich skuteczność.
Algorytmy działają, ponieważ ludzkie zachowanie zawiera składniki redukowalne. Istnieją wzorce, nawyki, powtarzające się odpowiedzi, które można obserwować i wykorzystywać. A w krótkim terminie te wzorce są wystarczająco stabilne, aby budować użyteczne przewidywania.
Ale to również wyjaśnia ich granicę.
Poza tym modelem pozostaje wszystko, co nie może być skompresowane w te ramy: decyzje, które nie odpowiadają natychmiastowej optymalizacji, zmiany kierunku, przerwy, wariacje, które nie wynikają bezpośrednio z niedawnej przeszłości.
Kluczem więc nie jest to, że człowiek jest ogólnie nieprzewidywalny. Chodzi o to, że nie jest całkowicie redukowalny. A systemy rekomendacji działają właśnie dlatego, że nie próbują objąć wszystkiego: koncentrują się na części, która może być modelowana.
Wynikiem nie jest przewidywanie podmiotu, ale zarządzanie jego uwagą w teraźniejszości. Algorytm nie musi wiedzieć, kim jesteś. Musi wiedzieć, co najprawdopodobniej zrobisz teraz. I działać odpowiednio.
Podążaj za algorytmem lub go opuść
Wszystko to nie dzieje się abstrakcyjnie. Objawia się w bardzo konkretnym i rozpoznawalnym doświadczeniu. Otwieramy platformę i czujemy, że algorytm nas zna. Że wie, co nas interesuje, co nam się podoba, nawet to, co chcemy zobaczyć, zanim to wyszukamy. Sekwencja wydaje się dostrojona, niemal osobista. To nie jest przypadkowe nagromadzenie treści, ale coś, co pasuje do nas z niepokojącą precyzją.
Od tego momentu następuje niemal niezauważalne przesunięcie. Przestajemy używać algorytmu jako narzędzia i zaczynamy go zamieszkiwać tak, jakby był przestrzenią, w której znajdujemy to, czego szukamy. Wchodzimy, oczekując odkrycia czegoś, co nas interesuje, i stopniowo przestajemy szukać poza nim. To, co pojawia się w feedzie, zaczyna zastępować samo poszukiwanie. Nie chodzi o to, że algorytm odpowiada na nasze pytania, ale o to, że zaczyna je definiować.
Ale to poczucie wiedzy jest mylące. Algorytm nas nie zna w sensie, w jakim zazwyczaj myślimy. Nie wie, kim jesteśmy, czego chcemy w sensie życiowym, ani dokąd zmierzamy. Nie ma dostępu do tych wymiarów, ani ich nie potrzebuje. Jedyne, co może zrobić — i robi to z ogromną skutecznością — to oszacować, co najprawdopodobniej zrobimy teraz.
System nie buduje zrozumienia podmiotu, ale ciągłą odpowiedź na natychmiastowe zachowanie. Wykrywa, co przyciąga naszą uwagę, co ją przedłuża, co nas zatrzymuje, i reorganizuje środowisko w zależności od tego. Nie ma zamiaru nas zrozumieć, a jedynie dostosować przepływ, abyśmy w nim pozostali. Doświadczenie staje się w ten sposób sekwencją bodźców coraz bardziej dostrojonych do naszych natychmiastowych odpowiedzi.
Dlatego jest tak pochłaniające. Ponieważ nie działa na to, kim jesteśmy w czasie, ale na to, co robimy w każdej chwili. A na tym poziomie precyzja jest wystarczająca, aby utrzymać uwagę przez długie okresy.
Problem pojawia się, gdy to funkcjonowanie zaczyna kolonizować resztę doświadczenia. Uwaga wyczerpuje się w tym obwodzie natychmiastowej odpowiedzi. To, co pozostaje na zewnątrz — to, co nie jest mediowane przez to ciągłe dostosowanie — wydaje się wolniejsze, bardziej mętne, mniej intensywne. Następuje wówczas odwrócenie: zaczynamy mierzyć doświadczenie według standardu algorytmu.
Szukamy na zewnątrz tej samej intensywności, którą system wytwarza w środku. Oczekujemy, że rzeczywistość będzie reagować z tą samą natychmiastowością, z tą samą zdolnością do przyciągania naszej uwagi w ciągu sekund, z tą samą stałą sukcesją istotnych bodźców. A gdy tego nie robi — gdy wymaga czasu, wysiłku, oczekiwania — jest postrzegana jako niewystarczająca.
Ale ta intensywność nie jest neutralna. Jest zbudowana na bardzo konkretnej logice: wzmocnienia tego, co można już przewidzieć w krótkim terminie. Algorytm nie poszerza naszego doświadczenia, optymalizuje je wokół naszej natychmiastowej odpowiedzi. Zwraca nam wersję nas samych, która dobrze funkcjonuje w tym systemie.
Podleganie algorytmowi to nie podleganie maszynie, która nas zna, ale systemowi, który działa na tej części nas, która jest najłatwiej przewidywalna: co już odpowiada, co pasuje, co może się powtarzać. W tym sensie jesteśmy unieruchomieni w najbliższej teraźniejszości, w logice bodziec-reakcja.
Wychodzenie z tego nie oznacza odrzucenia systemu ani stania się całkowicie nieprzewidywalnym. Oznacza to, że nie należy błędnie postrzegać jego zakresu. Oznacza to, że nie należy mu powierzać definiowania tego, co nas interesuje, czego szukamy, co chcemy robić z naszym czasem.
Ponieważ istnieją pytania, na które algorytm nie może odpowiedzieć — i które go nie interesują —: kim chcemy być, dokąd chcemy zmierzać, jaki sens nadajemy temu, co robimy, gdy nie reagujemy na bodziec.
Te pytania nie pojawiają się w feedzie. Nie wynikają z wzorca. Nie można ich wywnioskować z pauzy lub kliknięcia. Wymagają innej relacji z doświadczeniem, takiej, która nie jest skompresowana w najbliższej teraźniejszości.
Bycie nieprzewidywalnym w tym kontekście nie jest abstrakcyjnym gestem. Jest sposobem na to, by nie być całkowicie ograniczonym do tej części nas, która może być modelowana, wzmacniana i wykorzystywana. Jest to utrzymywanie otwartej możliwości odchylenia się, przerwania, poszukiwania bez gotowej odpowiedzi.
Nie dlatego, że algorytm jest niewystarczający, ale dlatego, że nie został do tego zaprojektowany.
Im bardziej precyzyjny się wydaje, tym bardziej nas unieruchamia w teraźniejszości. Im lepiej działa, tym węższe są ramy, w których nas rozpoznaje. Jeśli pomylimy tę precyzję z wiedzą, w końcu akceptujemy, że to, co pojawia się w feedzie, definiuje to, kim jesteśmy i kim możemy być.
Ale algorytm nas nie zna. Utrzymuje nas w reagowaniu.
Nie przewiduje, kim jesteśmy; optymalizuje to, co robimy teraz.