¿Perché dovremmo essere imprevedibili?

¿Perché dovremmo essere imprevedibili?

· 15 min di lettura

L'irriducibilità computazionale e il limite della previsione

Crediamo che gli algoritmi ci conoscano. Che sappiano cosa ci interessa, cosa ci piace, persino cosa vogliamo prima ancora di cercarlo. Ma questa sensazione di precisione è ingannevole. Non è conoscenza, è adattamento. Esiste un limite operativo: non ogni comportamento può essere ridotto a una previsione anticipata. Questo limite – l'irriducibilità – segna fino a che punto i sistemi di previsione possono spingersi.

Gli algoritmi non ci conoscono. Ottimizzano solo ciò che facciamo ora.

L'irriducibilità computazionale descrive un limite preciso alla previsione: esistono processi il cui risultato non può essere conosciuto senza eseguire il processo stesso. Il concetto, sviluppato da Stephen Wolfram, non indica una mancanza di informazione o il caso, ma l'impossibilità di comprimere certi sistemi in una formula più breve della loro stessa evoluzione.

Per lungo tempo abbiamo pensato il mondo sotto una premessa implicita: se conosciamo le leggi che governano un sistema e le sue condizioni iniziali, possiamo anticiparne lo stato futuro. Questa idea non solo struttura la fisica classica, ma anche un modo generale di intendere la realtà: il futuro come qualcosa, in linea di principio, accessibile dal presente.

L'irriducibilità introduce una sfumatura decisiva. Ci sono sistemi in cui questa aspettativa fallisce, non perché le regole siano sconosciute o complesse, ma perché non esiste un modo per “accelerare” la loro evoluzione. Il sistema non ammette scorciatoie. Per sapere cosa succede in un dato punto, è necessario percorrere tutti gli stati intermedi che vi conducono.

Ciò implica che la conoscenza della regola non equivale alla conoscenza del risultato. Puoi comprendere completamente come funziona il sistema e, ciononostante, non essere in grado di anticiparne lo stato futuro senza eseguirlo passo dopo passo. Il processo non può essere sostituito da una previsione abbreviata.

La conseguenza è stretta: ci sono processi il cui futuro non è disponibile prima che si verifichi. Non è che il sistema sia imprevedibile in senso assoluto, ma che non è riducibile a una forma più semplice che permetta di anticiparlo. L'unico modo per conoscere la sua evoluzione è lasciarla svolgere.

Questo limite è formale nell'ambito computazionale, ma introduce un'idea più ampia: non ogni sistema può essere riassunto senza perdita in una proiezione precedente. Ci sono dinamiche la cui struttura esige di essere percorsa per essere conosciuta.

In che senso l'essere umano è irriducibile?

Trasferire l'idea di irriducibilità all'essere umano richiede una precisazione importante: non stiamo parlando di una proprietà formale, come nei sistemi computazionali descritti da Stephen Wolfram, ma di un'analogia operativa. Non si afferma che l'essere umano sia irriducibile nello stesso senso tecnico, ma che il suo comportamento presenta limiti paragonabili quando si tratta di essere anticipato o compresso in un modello.

L'essere umano non è un sistema con regole esplicite, chiuse e accessibili. Non disponiamo di una “funzione di transizione” che, date alcune condizioni iniziali, permetta di proiettare in modo esaustivo la sua evoluzione. Invece, la vita umana si svolge in un ambiente aperto: attraversato da contesto, linguaggio, storia, interazione e contingenza. Ogni decisione non solo segue la precedente, ma modifica le condizioni in cui le successive avranno luogo.

In questo contesto, l'analogia con l'irriducibilità è chiara: non perché non esistano regole o regolarità, ma perché non è possibile comprimere l'intera traiettoria in una previsione sufficiente.

Questo non implica che il comportamento umano sia imprevedibile in generale. Esistono schemi stabili: abitudini, preferenze, dinamiche sociali. Su di essi operano con successo discipline come l'economia, la psicologia o il marketing. È precisamente questa dimensione che permette ai sistemi di previsione di funzionare.

Ma questa non è la totalità del comportamento. C'è sempre una dimensione che non può essere anticipata in modo esaustivo: decisioni che non derivano direttamente dal passato, cambiamenti di direzione, interruzioni, variazioni non previste. Non perché il sistema manchi di struttura, ma perché non è completamente compresso in essa.

La formulazione più precisa sarebbe questa: il comportamento umano contiene componenti riducibili e componenti non riducibili. Non è un sistema caotico assoluto, ma nemmeno uno completamente modellabile.

Questo limite ha una conseguenza diretta sull'esperienza.

Non possiamo organizzare la vita futura come se fosse un oggetto disponibile. Possiamo pianificare, proiettare, stimare. Ma nessuna di queste operazioni cattura la totalità di ciò che accadrà. Ogni previsione è necessariamente parziale, perché lo stesso sviluppo dell'esperienza genera informazioni che prima non esistevano.

Qui l'analogia con l'irriducibilità diventa particolarmente chiara: non è che il futuro sia completamente sconosciuto, ma che non è completamente disponibile prima di essere vissuto.

Questa condizione ha un doppio volto.

Da un lato, rende possibile l'inaspettato. La novità, la creatività, la rottura non sono anomalie, ma conseguenze del fatto che la traiettoria non è completamente fissata in una proiezione precedente. Se la vita fosse totalmente riducibile, sarebbe anche totalmente prevedibile e, in quel senso, chiusa.

D'altro canto, introduce un limite al controllo. Non possiamo anticipare in modo esaustivo il corso della nostra stessa esperienza. La comprensione appare dopo il processo, non prima. La vita si comprende in retrospettiva perché solo allora si dispone delle informazioni che il processo stesso ha prodotto.

Ci muoviamo, quindi, in uno spazio intermedio: ci sono regolarità, ma non chiusura; c'è struttura, ma non previsione totale. Questa tensione – tra ciò che può essere anticipato e ciò che può solo svolgersi – definisce il quadro in cui si svolge l'esperienza umana.

Ma questo limite non è solo una questione teorica sull'esperienza umana. Ha una conseguenza diretta nel luogo in cui oggi si tenta di anticipare sistematicamente il comportamento: gli algoritmi di raccomandazione. Capire come operano questi sistemi richiede di fare un passo indietro e collocarli nel quadro in cui acquisiscono significato. Non si tratta solo di tecnologia, ma di un modello economico che dipende strutturalmente dalla cattura, misurazione e ottimizzazione dell'attenzione. La questione non è più solo se possono prevederci, ma perché devono farlo.

L'attenzione: la base economica del sistema

L'attenzione non è più solo un fenomeno psicologico o culturale. È una grandezza economica centrale. Nel 2014, il mercato pubblicitario globale si aggirava intorno ai 523 miliardi di dollari. Nel 2024 ha superato per la prima volta i mille miliardi, e si prevede che raggiungerà 1,24 mila miliardi nel 2026. In appena un decennio, il sistema si è praticamente raddoppiato, con crescite annuali intorno al 6–8% sostenute e previsioni superiori al 10% nel breve termine.

Ma la cosa decisiva non è solo la crescita, ma la sua forma. La pubblicità digitale concentra già più del 70% degli investimenti globali e continua ad aumentare. In mercati come gli Stati Uniti, cresce a ritmi vicini al 15% annuo. L'economia pubblicitaria contemporanea non ruota più intorno ai media tradizionali, ma intorno a piattaforme capaci di catturare, misurare e ottimizzare l'attenzione in tempo reale.

Inoltre, questo valore non è distribuito, è concentrato. Google e Meta catturano una parte dominante del mercato globale. Nel caso di Google, la pubblicità —attraverso Search, YouTube e la sua rete— rappresenta circa il 75% dei suoi ricavi totali, con oltre 260 miliardi di dollari all'anno. Meta è ancora più dipendente: più del 95% dei suoi ricavi —oltre 160 miliardi, provenienti principalmente da Facebook, Instagram e WhatsApp— proviene dalla pubblicità. La loro crescita recente si è sostenuta, inoltre, su aumenti simultanei delle impressioni e del prezzo per annuncio, il che riflette un'intensificazione del modello.

A questo nucleo si aggiungono Amazon, che ha trasformato il suo ecosistema commerciale in una piattaforma pubblicitaria di primo ordine, e ByteDance —con TikTok—, che ha costruito una delle infrastrutture più efficaci per la cattura dell'attenzione nei video brevi. Non si tratta di servizi isolati, ma di un insieme di sistemi che organizzano buona parte dell'accesso quotidiano a informazione, intrattenimento e consumo.

Per questo l'attenzione è diventata un asset economico di prim'ordine. Ogni secondo trattenuto, ogni interazione, ogni impressione può trasformarsi in guadagno. Il modello è diretto: catturare attenzione, prolungarla e convertirla.

Ma qui appare il problema strutturale. Questo sistema ha bisogno di anticipare il comportamento per funzionare con efficienza. E, tuttavia, l'oggetto su cui opera —il comportamento umano— non è completamente riducibile. Non può essere compresso in una previsione globale affidabile.

La conseguenza non è il fallimento del sistema, ma la sua riconfigurazione. Se non può prevedere il soggetto nel suo insieme, deve ridurre il problema fino all'unico punto in cui la previsione rimane fattibile: il presente immediato. È qui che l'economia dell'attenzione trova la sua forma operativa.

Questo sistema economico non è neutrale: dipende dalla riduzione del comportamento al presente.

Perché gli algoritmi non prevedono, ma si adattano

Il modello economico che sostiene l'economia dell'attenzione richiede qualcosa di molto specifico: anticipare il comportamento. Ogni impression, ogni secondo trattenuto, ogni interazione ha valore perché può trasformarsi in guadagno. Ma questa esigenza si scontra con un limite che abbiamo già descritto: il comportamento umano non è completamente riducibile.

Questo non significa che non si possa prevedere nulla. Infatti, i sistemi di raccomandazione funzionano proprio perché ci sono delle regolarità. Ma non è nemmeno possibile costruire un modello che anticipi in modo affidabile l'intera traiettoria di un individuo. Non si può sapere cosa farà una persona tra una settimana con lo stesso grado di precisione con cui si può stimare cosa farà nei prossimi secondi.

Questo è il punto di attrito. E anche il punto di svolta.

Gli algoritmi di raccomandazione non risolvono questo problema. Lo aggirano. Invece di tentare di prevedere il soggetto nel suo insieme, riducono la portata della previsione fino all'unico livello in cui essa rimane fattibile: il presente immediato.

La domanda non è più “chi è questo utente” o “cosa farà in futuro”, ma diventa qualcosa di molto più circoscritto: cosa è più probabile che faccia ora.

Questo spostamento cambia completamente la natura del sistema. L'unità di analisi non è più la persona come traiettoria, ma la decisione puntuale: un click, una pausa, uno scroll, una ripetizione. Ciascuna di queste azioni non ha bisogno di una teoria completa del soggetto per essere anticipata. Basta osservare ciò che è appena accaduto.

In questo senso, l'algoritmo non costruisce un modello stabile dell'utente. Si adatta continuamente ad esso. Osserva un'azione, modifica l'ambiente, osserva di nuovo. Non ha bisogno di sapere dove sta andando l'utente; gli basta aumentare la probabilità che continui.

Qui si verifica la svolta decisiva: la previsione globale è sostituita dall'adattamento in tempo reale. Ma questa riduzione non è solo temporale. È anche una riduzione del livello in cui il comportamento viene modellato.

Su scale lunghe, ciò che è rilevante è solitamente ciò che è più complesso: storia personale, identità, contesto culturale, motivazioni profonde. Ma tutto ciò è difficile da parametrizzare, lento da elaborare e, soprattutto, instabile.

Invece, su scale brevi, ciò che appare con più chiarezza sono regolarità molto più basilari: attenzione alla novità, ripetizione di schemi recenti, sensibilità a piccole variazioni. Non è necessario comprendere il soggetto per operare su queste dinamiche. Basta rilevare come risponde.

Per questo, sebbene gli algoritmi non modellino esplicitamente la biologia o la psicologia profonda, finiscono per operare a quel livello. Non perché sia più vero, ma perché è più prevedibile.

In pratica, questo implica che il sistema tratta l'utente come una sequenza di risposte a stimoli immediati. Non in senso ontologico —non afferma che l'essere umano sia questo—, ma in senso operativo: è l'unico livello in cui la previsione può sostenersi in modo continuo.

Questo spiega la sua efficacia.

Gli algoritmi funzionano perché il comportamento umano contiene componenti riducibili. Ci sono schemi, abitudini, risposte ricorrenti che possono essere osservate e sfruttate. E nel breve termine, questi schemi sono sufficientemente stabili per costruire previsioni utili.

Ma spiega anche il suo limite.

Ciò che rimane fuori da quel modello è tutto ciò che non può essere compresso in quel quadro: decisioni che non rispondono a un'ottimizzazione immediata, cambiamenti di direzione, interruzioni, variazioni che non derivano direttamente dal passato recente.

La chiave, quindi, non è che l'essere umano sia imprevedibile in generale. È che non è completamente riducibile. E i sistemi di raccomandazione funzionano proprio perché non tentano di abbracciare tutto: si concentrano sulla parte che può essere modellata.

Il risultato non è una previsione del soggetto, ma una gestione della sua attenzione nel presente. L'algoritmo non ha bisogno di sapere chi sei. Ha bisogno di sapere cosa è più probabile che tu faccia ora. E agire di conseguenza.

Seguire l'algoritmo o uscirne

Tutto questo non avviene in astratto. Si manifesta in un'esperienza molto concreta e riconoscibile. Apriamo una piattaforma e sentiamo che l'algoritmo ci conosce. Che sa cosa ci interessa, cosa ci piace, persino cosa vogliamo vedere prima ancora di cercarlo. La sequenza sembra affinata, quasi personale. Non è un'accumulazione casuale di contenuti, ma qualcosa che si adatta a noi con una precisione inquietante.

Da lì si produce uno spostamento quasi impercettibile. Smettiamo di usare l'algoritmo come un mezzo e cominciamo ad abitarlo come se fosse uno spazio dove trovare ciò che cerchiamo. Entriamo aspettandoci di scoprire qualcosa che ci interessa, e a poco a poco smettiamo di cercare fuori. Ciò che appare nel feed comincia a sostituire la ricerca stessa. Non è che l'algoritmo risponda alle nostre domande, è che comincia a definirle.

Ma questa sensazione di conoscenza è ingannevole. L'algoritmo non ci conosce nel senso in cui pensiamo di solito. Non sa chi siamo, né cosa vogliamo in un senso vitale, né dove vogliamo dirigerci. Non ha accesso a queste dimensioni, né ne ha bisogno. L'unica cosa che può fare —e fa con enorme efficacia— è stimare cosa è più probabile che facciamo ora.

Il sistema non costruisce una comprensione del soggetto, ma una risposta continua al comportamento immediato. Rileva cosa cattura la nostra attenzione, cosa la prolunga, cosa ci mantiene all'interno, e riorganizza l'ambiente in funzione di ciò. Non c'è intenzione di capirci, solo di regolare il flusso affinché rimaniamo al suo interno. L'esperienza si trasforma così in una sequenza di stimoli sempre più affinati alle nostre risposte immediate.

Per questo è così assorbente. Perché non lavora su ciò che siamo nel tempo, ma su ciò che facciamo in ogni istante. E a quel livello, la precisione è sufficiente a sostenere l'attenzione per lunghi periodi.

Il problema appare quando questo funzionamento comincia a colonizzare il resto dell'esperienza. L'attenzione si esaurisce in quel circuito di risposta immediata. Ciò che resta fuori —ciò che non è mediato da quell'adattamento continuo— appare più lento, più opaco, meno intenso. Si produce allora un'inversione: cominciamo a misurare l'esperienza secondo lo standard dell'algoritmo.

Cerchiamo fuori la stessa intensità che il sistema produce dentro. Ci aspettiamo che la realtà risponda con la stessa immediatezza, con la stessa capacità di catturare la nostra attenzione in pochi secondi, con la stessa successione costante di stimoli rilevanti. E quando non lo fa —quando richiede tempo, sforzo, attesa— viene percepita come insufficiente.

Ma questa intensità non è neutrale. È costruita su una logica molto concreta: quella di rafforzare ciò che può già essere anticipato nel breve termine. L'algoritmo non amplia la nostra esperienza, la ottimizza attorno alla nostra risposta immediata. Ci restituisce una versione di noi stessi che funziona bene all'interno di quel sistema.

Restare soggetti all'algoritmo non significa restare soggetti a una macchina che ci conosce, ma a un sistema che opera sulla parte di noi più facilmente prevedibile: ciò che già risponde, ciò che si adatta, ciò che può ripetersi. In questo senso, restiamo fissati nel presente immediato, in una logica di stimolo e risposta.

Uscire da lì non significa rifiutare il sistema né diventare completamente imprevedibili. Significa non confondere la sua portata. Significa non delegare ad esso la definizione di ciò che ci interessa, di ciò che cerchiamo, di ciò che vogliamo fare con il nostro tempo.

Perché ci sono domande a cui l'algoritmo non può rispondere —e che nemmeno gli interessano—: cosa vogliamo essere, dove vogliamo andare, che senso diamo a ciò che facciamo quando non stiamo reagendo a uno stimolo.

Queste domande non appaiono nel feed. Non derivano da un pattern. Non possono essere inferite da una pausa o da un click. Richiedono un'altra relazione con l'esperienza, una che non è compressa nel presente immediato.

Essere imprevedibili, in questo contesto, non è un gesto astratto. È un modo per non rimanere completamente confinati a quella parte di noi che può essere modellata, rafforzata e sfruttata. È mantenere aperta la possibilità di deviare, di interrompere, di cercare senza che la risposta sia già pronta.

Non perché l'algoritmo sia insufficiente, ma perché non è progettato per quello.

Quanto più preciso sembra, tanto più ci fissa nel presente. Quanto meglio funziona, tanto più stretto è il quadro in cui ci riconosce. Se confondiamo quella precisione con la conoscenza, finiamo per accettare che ciò che appare nel feed definisce ciò che siamo e ciò che possiamo essere.

Ma l'algoritmo non ci conosce. Ci mantiene a reagire.
Non predice chi siamo; ottimizza ciò che facciamo ora.

Continua a leggere...