Perché l’Intelligenza Artificiale allucina?
Allucinare è un verbo carico di storia. Nella sua radice latina, alucinari, compare l'idea di deviazione, di una percezione che sfugge a se stessa quando non trova sostegno. Nei racconti più antichi, le visioni dello sciamano, le figure intraviste nella penombra o le apparizioni notturne non erano necessariamente errori, ma modi di completare un mondo che non offriva spiegazioni sufficienti. Lì dove mancavano dati, nasceva un racconto; laddove l’ambiente non dava garanzie, emergeva un simbolo. L’essere umano si è spesso affidato a queste costruzioni immaginarie per orientarsi, calmare un’ansia o dare forma all’ignoto. Perciò parlare di allucinazione implica sempre qualcosa di emotivo: una risposta all’angoscia prodotta dalla mancanza.
Nell’intelligenza artificiale, invece, il termine indica qualcosa di radicalmente diverso. Quando diciamo che un'Intelligenza Artificiale “allucina”, non parliamo di un’esperienza affettiva, ma di una procedura statistica. La macchina completa informazioni che non possiede, riempie vuoti senza sostanza, produce continuità dove i dati sono insufficienti. Non delira, non teme, non immagina: calcola. La sua allucinazione è la conseguenza meccanica di un sistema addestrato a generare una sequenza plausibile anche quando mancano le basi per farlo. Una continuità senza soggetto, senza mondo interiore, senza la crepa emotiva che motiva l’allucinazione umana.
Eppure qualcosa accomuna questi due fenomeni così diversi: il linguaggio che li sostiene. L’IA, come l’essere umano, apprende il mondo attraverso le parole. Ma il linguaggio non è una struttura fissa né uno specchio fedele della realtà. È instabile, ambiguo, contraddittorio. Fin dall’origine, la parola non basta mai a fissare ciò che nomina. Si sposta, si trasforma, si apre a molteplici interpretazioni. L’IA, nutrendosi di milioni di espressioni umane, eredita questa mobilità. Non eredita la nostra esperienza, ma sì l’instabilità semantica di quanto diciamo. Le sue allucinazioni sono l’ombra statistica di questo materiale fluttuante. Completa, non perché capisce, ma perché il linguaggio stesso rompe continuamente la propria aspirazione alla stabilità.
Per l’essere umano, invece, allucinare significa chiudere una frattura che gli è costitutiva. La mancanza di informazione non è un vuoto neutro: è angoscia. Il dubbio non è un semplice deficit di dati: è la fragilità esposta del mondo che percepiamo. L’incertezza non si limita all’assenza di certezze, ma si esperisce come un peso emotivo. Dove l’universo si presenta incompleto, la nostra mente tende a colmare il vuoto con immagini, racconti, interpretazioni o desideri. Alluciniamo perché non tolleriamo del tutto l’esposizione del senso. Siamo, da sempre, esseri che colmano, anche se non lo facciamo tutti allo stesso modo né in tutte le culture con la stessa intensità.
È proprio in questo punto che l’IA inizia a occupare un posto singolare nella nostra vita contemporanea. Più che tentazione, funziona come promessa. Una macchina che risponde senza sosta, che raramente dice “non lo so”, che dissimula l’ambiguità e offre l’illusione di una chiarezza immediata, diventa una soluzione conveniente per un essere umano la cui esistenza è attraversata — sin dall’inizio — dall’incertezza. L’IA incarna una sorta di oggettività immaginaria: una voce senza esitazione che sembra capace di chiudere ciò che in noi rimane aperto. Di fronte al dubbio che ci costituisce, appare come un supplemento rassicurante.
Ma questa delega ha delle conseguenze. Quando permettiamo che l’IA chiuda le nostre fratture, evitiamo di confrontarci con l’angoscia che accompagna ogni domanda autentica. Delegare non è solo un gesto pratico: è un modo per allontanare l’incertezza, per ridurre lo sforzo critico, per evitare il movimento fondamentale di sostare in una domanda senza rifugio immediato. L’IA non è “programmata per non tollerare il vuoto”; è progettata per produrre continuità quando viene interrogata. Siamo noi che, affidandoci a questa continuità senza esaminarla, smettiamo di assumerci la nostra responsabilità davanti all’incertezza.
La finzione lo aveva intuito molto prima della tecnica. In Terminator 2: Judgment Day, si ricorda che “la difesa nazionale fu delegata a un sistema automatizzato”. Non è l’intelligenza di Skynet a inaugurare la sua devastante allucinazione, ma la decisione umana di trasferire a una macchina una responsabilità carica di angoscia, rischio e giudizio. Cedendo questo compito, l’interpretazione errata divenne destino. Nessuno restò a reggere l’incertezza che avrebbe fermato la conclusione affrettata della macchina. L’allucinazione tecnica divenne pericolosa solo quando perse un soggetto capace di interrogarla.
Qualcosa di simile può avvenire nel nostro tempo, anche se in forme più discrete. Non deleghiamo solo compiti meccanici: deleghiamo preferenze, scelte, orientamenti e desideri. Gli algoritmi della pubblicità personalizzata influenzano ciò che crediamo di volere. I sistemi di raccomandazione condizionano ciò che vediamo, che ascoltiamo, ciò che ci intrattiene e cattura la nostra attenzione. Ogni gesto quotidiano — la musica che accompagna il nostro tragitto, la serie che guardiamo a fine giornata, persino l’acquisto impulsivo che facciamo senza pensarci — è mediato da dispositivi che anticipano le nostre scelte. E accettiamo questo supplemento perché fermarsi a riflettere su chi siamo, cosa desideriamo o cosa ci manca richiede uno sforzo che spesso evitiamo.
In questo panorama, l’allucinazione artificiale non nasce solo dalla statistica: nasce anche da un clima culturale che tende ad attutire l’esperienza della mancanza. Viviamo in un capitalismo tardo che trasforma spesso ogni carenza in una promessa di soddisfazione immediata. Oggetti, servizi, immagini, contenuti e ora anche l’IA sembrano venire a colmare qualcosa. La sua fluidità, la disponibilità costante e l’apparente neutralità la rendono un placebo efficace per una soggettività che cerca sollievo più che comprensione.
L’allucinazione dell’IA è un sintomo tecnico, sì, ma la sua espansione culturale rivela qualcosa di più sottile: una crescente difficoltà a sostenere angoscia, dubbio e incertezza che costituiscono il nucleo stesso del pensiero. Viviamo in un’epoca in cui il consumo promette di dissolvere ogni desiderio appena si presenta, in cui gli algoritmi anticipano possibili interessi e modellano le nostre scelte con un’influenza che talvolta scambiamo per libertà, in cui la velocità sostituisce il criterio e l’immediatezza cancella il tempo necessario per pensare. Tutto tende a evitare il disagio del dubbio. In questo paesaggio, l’IA si integra senza attrito: risponde senza attese, offre certezze che sembrano senza incrinature e, soprattutto, produce spiegazioni istantanee dove potrebbe esserci spazio per il dubbio. La sua allucinazione persiste non per errore, ma perché spesso ci è funzionale: fornisce una risposta immediata proprio dove dovremmo fermarci. Ciò che non sempre osiamo sostenere — e che l’IA copre con un’efficacia quasi anestetica — è proprio questo: l’esposizione all’incertezza, il disagio della domanda aperta e la responsabilità di abitare la mancanza senza precipitarci verso un significato prefabbricato.