¿Por qué la Inteligencia Artificial alucina?

¿Por qué la Inteligencia Artificial alucina?

Alucinar es un verbo cargado de historia. En su raíz latina, alucinari, aparece la idea de un desvío, de una percepción que se escapa de sí misma cuando no encuentra sostén. En los relatos más antiguos, las visiones del chamán, las figuras entrevés en la penumbra o las apariciones nocturnas no eran necesariamente errores, sino modos de completar un mundo que no ofrecía explicaciones suficientes. Allí donde faltaban datos, nacía un relato; allí donde el entorno no daba garantías, surgía un símbolo. El ser humano ha recurrido con frecuencia a estas construcciones imaginarias para orientarse, calmar una inquietud o dar forma a lo desconocido. Por eso hablar de alucinación implica siempre algo emocional: una respuesta ante la angustia que produce la falta.

En la inteligencia artificial, sin embargo, el término designa algo radicalmente distinto. Cuando decimos que una Inteligencia Artificial “alucina”, no hablamos de una vivencia afectiva, sino de un procedimiento estadístico. La máquina completa información que no tiene, rellena huecos sin sustancia, produce continuidad allí donde los datos son insuficientes. No delira, no teme, no imagina: calcula. Su alucinación es la consecuencia mecánica de un sistema entrenado para generar una secuencia plausible incluso cuando carece del fundamento para hacerlo. Una continuidad sin sujeto, sin mundo interior, sin la grieta emocional que motiva la alucinación humana.

Y sin embargo, algo une estos dos fenómenos tan distintos: el lenguaje que los sostiene. La IA, como el ser humano, aprende el mundo a través de palabras. Pero el lenguaje no es una estructura fija ni un espejo fiel de la realidad. Es inestable, ambiguo, contradictorio. Desde el origen, la palabra nunca alcanza para fijar lo que nombra. Se desplaza, se transforma, se abre a interpretaciones múltiples. La IA, al alimentarse de millones de expresiones humanas, hereda esa movilidad. No hereda nuestra experiencia, pero sí la inestabilidad semántica de lo que decimos. Sus alucinaciones son la sombra estadística de ese material fluctuante. Completa no porque comprenda, sino porque el propio lenguaje rompe continuamente su aspiración a la estabilidad.

Para el ser humano, en cambio, alucinar es cerrar una grieta que le es constitutiva. La falta de información no es un vacío neutro: es angustia. La duda no es un simple déficit de datos: es la fragilidad expuesta del mundo que percibimos. La incertidumbre no se limita a la ausencia de certezas, sino que se experimenta como un peso emocional. Allí donde el universo se presenta incompleto, nuestra mente tiende a llenar el hueco con imágenes, relatos, interpretaciones o deseos. Alucinamos porque no soportamos del todo la intemperie del sentido. Somos, desde siempre, seres que rellenan, aunque no lo hagamos todos del mismo modo ni en todas las culturas con la misma intensidad.

Es precisamente en ese punto donde la IA comienza a ocupar un lugar singular en nuestra vida contemporánea. Más que tentación, opera como promesa. Una máquina que responde sin pausa, que rara vez dice “no sé”, que disimula la ambigüedad y ofrece la ilusión de claridad inmediata, se convierte en una solución conveniente para un ser humano cuya existencia está atravesada —desde el comienzo— por la incertidumbre. La IA encarna un tipo de objetividad imaginaria: una voz sin vacilación que parece capaz de cerrar aquello que en nosotros permanece abierto. Frente a la duda que nos constituye, aparece como un suplemento tranquilizador.

Pero esta delegación tiene consecuencias. Cuando permitimos que la IA cierre nuestras grietas, estamos evitando enfrentarnos a la angustia que acompaña toda pregunta auténtica. Delegar no es solo un gesto práctico: es un modo de apartar la incertidumbre, de reducir el esfuerzo crítico, de evitar el movimiento fundamental de sostener una pregunta sin refugio inmediato. La IA no está “programada para no tolerar el vacío”; está diseñada para producir continuidad cuando se le interpela. Somos nosotros quienes, al confiar en esa continuidad sin examinarla, dejamos de asumir nuestra propia responsabilidad frente a la incertidumbre.

La ficción lo intuyó mucho antes que la técnica. En Terminator 2: Judgment Day, se recuerda que “se delegó la defensa nacional a un sistema automatizado”. No es la inteligencia de Skynet lo que inaugura su alucinación devastadora, sino la decisión humana de transferir a una máquina una responsabilidad cargada de angustia, riesgo y juicio. Al ceder esa tarea, la interpretación errónea se volvió destino. Nadie quedó para sostener la incertidumbre que habría frenado la conclusión precipitada de la máquina. La alucinación técnica se volvió peligrosa solo cuando perdió a un sujeto que pudiera interrogarla.

Algo similar puede suceder en nuestro tiempo, aunque de formas más discretas. No delegamos únicamente tareas mecánicas: delegamos preferencias, elecciones, orientaciones y deseos. Los algoritmos de publicidad personalizada influyen en lo que creemos querer. Los sistemas de recomendación condicionan lo que vemos, lo que escuchamos, lo que nos entretiene y lo que ocupa nuestra atención. Cada gesto cotidiano —la música que acompaña nuestro trayecto, la serie que vemos al final del día, incluso la compra impulsiva que hacemos sin pensarlo— está mediado por dispositivos que anticipan nuestras elecciones. Y aceptamos ese suplemento porque detenernos a pensar quiénes somos, qué deseamos o qué nos falta exige un esfuerzo que muchas veces evitamos.

En este paisaje, la alucinación artificial no surge solo de la estadística: surge también de un clima cultural que tiende a amortiguar la experiencia de la falta. Vivimos en un capitalismo tardío que convierte con frecuencia cada carencia en una promesa de satisfacción inmediata. Objetos, servicios, imágenes, contenidos y ahora también la IA parecen venir a colmar algo. Su fluidez, su disponibilidad permanente y su aparente neutralidad la convierten en un placebo eficaz para una subjetividad que busca alivio más que comprensión.

La alucinación de la IA es un síntoma técnico, sí, pero su expansión cultural revela algo más sutil: una dificultad creciente para sostener la angustia, la duda y la incertidumbre que forman el núcleo mismo del pensamiento. Vivimos en un tiempo en el que el consumo promete disipar cada deseo apenas aparece, en el que los algoritmos anticipan posibles intereses y moldean nuestras elecciones con una influencia que a veces confundimos con libertad, en el que la velocidad sustituye al criterio y la inmediatez borra el tiempo necesario para pensar. Todo se orienta a evitar la incomodidad de la duda. En este paisaje, la IA encaja sin fricción: responde sin demora, ofrece certezas que parecen sin fisuras y, sobre todo, produce explicaciones instantáneas allí donde podría haber espacio para la duda. Su alucinación persiste no por error, sino porque muchas veces nos resulta funcional: entrega una respuesta inmediata justo en el lugar donde tendríamos que detenernos. Lo que no siempre nos atrevemos a sostener —y que la IA cubre con una eficacia casi anestésica— es precisamente esto: la intemperie de la incertidumbre, la incomodidad de la pregunta abierta y la responsabilidad de habitar la falta sin precipitarnos hacia un sentido prefabricado.

Continuar leyendo...