¿Por qué deberíamos ser impredecibles?
La irreductibilidad computacional y el límite de la predicción
Creemos que los algoritmos nos conocen. Que saben lo que nos interesa, lo que nos gusta, incluso lo que queremos antes de que lo busquemos. Pero esa sensación de precisión es engañosa. No es conocimiento, es ajuste. Existe un límite operativo: no todo comportamiento puede reducirse a una predicción anticipada. Ese límite —la irreductibilidad— marca hasta dónde pueden llegar los sistemas de predicción.
Los algoritmos no nos conocen. Solo optimizan lo que hacemos ahora.
La irreductibilidad computacional describe un límite preciso a la predicción: existen procesos cuyo resultado no puede conocerse sin ejecutar el propio proceso. El concepto, desarrollado por Stephen Wolfram, no señala falta de información ni azar, sino la imposibilidad de comprimir ciertos sistemas en una fórmula más corta que su propia evolución.
Durante mucho tiempo hemos pensado el mundo bajo una premisa implícita: si conocemos las leyes que rigen un sistema y sus condiciones iniciales, podemos anticipar su estado futuro. Esta idea no solo estructura la física clásica, sino también una forma general de entender la realidad: el futuro como algo, en principio, accesible desde el presente.
La irreductibilidad introduce un matiz decisivo. Hay sistemas en los que esa expectativa falla, no porque las reglas sean desconocidas o complejas, sino porque no existe una forma de “acelerar” su evolución. El sistema no admite atajos. Para saber qué ocurre en un punto determinado, es necesario recorrer todos los estados intermedios que conducen hasta él.
Esto implica que el conocimiento de la regla no equivale al conocimiento del resultado. Puedes comprender completamente cómo funciona el sistema y, aun así, no poder anticipar su estado futuro sin ejecutarlo paso a paso. El proceso no puede sustituirse por una predicción abreviada.
La consecuencia es estricta: hay procesos cuyo futuro no está disponible antes de que ocurra. No es que el sistema sea impredecible en sentido absoluto, sino que no es reducible a una forma más simple que permita anticiparlo. La única forma de conocer su evolución es dejar que se despliegue.
Este límite es formal en el ámbito computacional, pero introduce una idea más amplia: no todo sistema puede resumirse sin pérdida en una proyección previa. Hay dinámicas cuya estructura exige ser recorrida para ser conocida.
¿En qué sentido el ser humano es irreductible?
Trasladar la idea de irreductibilidad al ser humano exige una precisión importante: no estamos hablando de una propiedad formal, como en los sistemas computacionales descritos por Stephen Wolfram, sino de una analogía operativa. No se afirma que el ser humano sea irreductible en el mismo sentido técnico, sino que su comportamiento presenta límites comparables a la hora de ser anticipado o comprimido en un modelo.
El ser humano no es un sistema con reglas explícitas, cerradas y accesibles. No disponemos de una “función de transición” que, dadas unas condiciones iniciales, permita proyectar de forma exhaustiva su evolución. En lugar de eso, la vida humana se despliega en un entorno abierto: atravesado por contexto, lenguaje, historia, interacción y contingencia. Cada decisión no solo sigue a la anterior, sino que modifica las condiciones en las que las siguientes tendrán lugar.
En este marco, la analogía con la irreductibilidad es clara: no porque no existan reglas o regularidades, sino porque no es posible comprimir la trayectoria completa en una predicción previa suficiente.
Esto no implica que el comportamiento humano sea impredecible en general. Existen patrones estables: hábitos, preferencias, dinámicas sociales. Sobre ellos operan con éxito disciplinas como la economía, la psicología o el marketing. Es precisamente esa dimensión la que permite que sistemas de predicción funcionen.
Pero esa no es la totalidad del comportamiento. Siempre hay una dimensión que no puede anticiparse de forma exhaustiva: decisiones que no se derivan directamente del pasado, cambios de dirección, interrupciones, variaciones no previstas. No porque el sistema carezca de estructura, sino porque no está completamente comprimido en ella.
La formulación más precisa sería esta: el comportamiento humano contiene componentes reducibles y componentes no reducibles. No es un sistema caótico absoluto, pero tampoco uno completamente modelizable.
Este límite tiene una consecuencia directa sobre la experiencia.
No podemos organizar la vida futura como si fuera un objeto disponible. Podemos planificar, proyectar, estimar. Pero ninguna de esas operaciones captura la totalidad de lo que ocurrirá. Toda previsión es necesariamente parcial, porque el propio desarrollo de la experiencia genera información que antes no existía.
Aquí la analogía con la irreductibilidad se vuelve especialmente clara: no es que el futuro sea completamente desconocido, sino que no está completamente disponible antes de ser vivido.
Esta condición tiene una doble cara.
Por un lado, hace posible lo inesperado. La novedad, la creatividad, la ruptura no son anomalías, sino consecuencias de que la trayectoria no esté completamente fijada en una proyección previa. Si la vida fuera totalmente reducible, sería también totalmente previsible y, en ese sentido, cerrada.
Por otro lado, introduce un límite al control. No podemos anticipar exhaustivamente el curso de nuestra propia experiencia. La comprensión aparece después del proceso, no antes. La vida se entiende en retrospectiva porque solo entonces se dispone de la información que el propio proceso ha producido.
Nos movemos, por tanto, en un espacio intermedio: hay regularidades, pero no cierre; hay estructura, pero no predicción total. Esa tensión —entre lo que puede anticiparse y lo que solo puede desplegarse— define el marco en el que la experiencia humana tiene lugar.
Pero este límite no es solo una cuestión teórica sobre la experiencia humana. Tiene una consecuencia directa en el lugar donde hoy se intenta anticipar de forma sistemática el comportamiento: los algoritmos de recomendación. Entender cómo operan esos sistemas exige ir un paso más atrás y situarlos en el marco en el que adquieren sentido. No se trata solo de tecnología, sino de un modelo económico que depende de forma estructural de captar, medir y optimizar atención. La cuestión ya no es únicamente si pueden predecirnos, sino por qué necesitan hacerlo.
La atención: la base económica del sistema
La atención ya no es solo un fenómeno psicológico o cultural. Es una magnitud económica central. En 2014, el mercado publicitario global rondaba los 523.000 millones de dólares. En 2024 superó por primera vez el billón, y se proyecta que alcance 1,24 billones en 2026. En apenas una década, el sistema prácticamente se ha duplicado, con crecimientos anuales en torno al 6–8% sostenido y previsiones por encima del 10% en el corto plazo.
Pero lo decisivo no es solo el crecimiento, sino su forma. La publicidad digital ya concentra más del 70% de la inversión global y sigue aumentando. En mercados como Estados Unidos, crece a ritmos cercanos al 15% anual. La economía publicitaria contemporánea ya no gira en torno a medios tradicionales, sino en torno a plataformas capaces de capturar, medir y optimizar atención en tiempo real.
Además, este valor no está distribuido, está concentrado. Google y Meta capturan una parte dominante del mercado global. En el caso de Google, la publicidad —a través de Search, YouTube y su red— representa aproximadamente el 75% de sus ingresos totales, con más de 260.000 millones de dólares anuales. Meta es aún más dependiente: más del 95% de sus ingresos —más de 160.000 millones, procedentes principalmente de Facebook, Instagram y WhatsApp— proviene de publicidad. Su crecimiento reciente se ha sostenido, además, sobre aumentos simultáneos de impresiones y precio por anuncio, lo que refleja una intensificación del modelo.
A este núcleo se suman Amazon, que ha convertido su ecosistema comercial en una plataforma publicitaria de primer orden, y ByteDance -con TikTok-, ha construido una de las infraestructuras más eficaces de captura de atención en vídeos cortos. No se trata de servicios aislados, sino de un conjunto de sistemas que organizan buena parte del acceso cotidiano a información, entretenimiento y consumo.
Por eso la atención se ha convertido en un activo económico de primer orden. Cada segundo retenido, cada interacción, cada impresión puede convertirse en ingreso. El modelo es directo: captar atención, prolongarla y convertirla.
Pero aquí aparece el problema estructural. Este sistema necesita anticipar comportamiento para funcionar con eficiencia. Y, sin embargo, el objeto sobre el que opera —el comportamiento humano— no es completamente reducible. No puede comprimirse en una predicción global fiable.
La consecuencia no es el fallo del sistema, sino su reconfiguración. Si no puede predecir al sujeto en su conjunto, debe reducir el problema hasta el único punto donde la predicción sigue siendo viable: el presente inmediato. Ahí es donde la economía de la atención encuentra su forma operativa.
Este sistema económico no es neutral: depende de reducir el comportamiento al presente.
Por qué los algoritmos no predicen, sino que se adaptan
El modelo económico que sostiene la economía de la atención exige algo muy concreto: anticipar comportamiento. Cada impresión, cada segundo retenido, cada interacción tiene valor porque puede convertirse en ingreso. Pero esa exigencia se encuentra con un límite que ya hemos descrito: el comportamiento humano no es completamente reducible.
Esto no significa que no pueda predecirse nada. De hecho, los sistemas de recomendación funcionan precisamente porque hay regularidades. Pero tampoco es posible construir un modelo que anticipe de forma fiable la trayectoria completa de un individuo. No se puede saber qué hará una persona dentro de una semana con el mismo grado de precisión con el que se puede estimar qué hará en los próximos segundos.
Ese es el punto de fricción. Y también el punto de inflexión.
Los algoritmos de recomendación no resuelven este problema. Lo rodean. En lugar de intentar predecir al sujeto en su conjunto, reducen el alcance de la predicción hasta el único nivel donde sigue siendo viable: el presente inmediato.
La pregunta deja de ser “quién es este usuario” o “qué hará en el futuro” y pasa a ser algo mucho más acotado: qué es más probable que haga ahora.
Ese desplazamiento cambia completamente la naturaleza del sistema. La unidad de análisis ya no es la persona como trayectoria, sino la decisión puntual: un clic, una pausa, un desplazamiento, una repetición. Cada una de estas acciones no necesita una teoría completa del sujeto para ser anticipada. Basta con observar lo que acaba de ocurrir.
En ese sentido, el algoritmo no construye un modelo estable del usuario. Se ajusta continuamente a él. Observa una acción, modifica el entorno, vuelve a observar. No necesita saber hacia dónde va el usuario; le basta con aumentar la probabilidad de que continúe.
Aquí se produce el giro decisivo: la predicción global se sustituye por adaptación en tiempo real. Pero esta reducción no es solo temporal. Es también una reducción del nivel en el que se modela el comportamiento.
En escalas largas, lo relevante suele ser lo más complejo: historia personal, identidad, contexto cultural, motivaciones profundas. Pero todo eso es difícil de parametrizar, lento de procesar y, sobre todo, inestable.
En cambio, en escalas cortas, lo que aparece con más claridad son regularidades mucho más básicas: atención a la novedad, repetición de patrones recientes, sensibilidad a pequeñas variaciones. No es necesario comprender al sujeto para operar sobre estas dinámicas. Basta con detectar cómo responde.
Por eso, aunque los algoritmos no modelen explícitamente la biología o la psicología profunda, terminan operando en ese nivel. No porque sea más verdadero, sino porque es más predecible.
En la práctica, esto implica que el sistema trata al usuario como una secuencia de respuestas a estímulos inmediatos. No en un sentido ontológico —no afirma que el ser humano sea eso—, sino en un sentido operativo: es el único nivel en el que la predicción puede sostenerse de forma continua.
Esto explica su eficacia.
Los algoritmos funcionan porque el comportamiento humano contiene componentes reducibles. Hay patrones, hábitos, respuestas recurrentes que pueden observarse y explotarse. Y en el corto plazo, esos patrones son suficientemente estables como para construir predicciones útiles.
Pero también explica su límite.
Lo que queda fuera de ese modelo es todo aquello que no puede comprimirse en ese marco: decisiones que no responden a optimización inmediata, cambios de dirección, interrupciones, variaciones que no derivan directamente del pasado reciente.
La clave, entonces, no es que el ser humano sea impredecible en general. Es que no es completamente reducible. Y los sistemas de recomendación funcionan precisamente porque no intentan abarcarlo todo: se concentran en la parte que sí puede ser modelada.
El resultado no es una predicción del sujeto, sino una gestión de su atención en el presente. El algoritmo no necesita saber quién eres. Necesita saber qué es más probable que hagas ahora. Y actuar en consecuencia.
Seguir el algoritmo o salir de él
Todo esto no ocurre en abstracto. Se manifiesta en una experiencia muy concreta y reconocible. Abrimos una plataforma y sentimos que el algoritmo nos conoce. Que sabe lo que nos interesa, lo que nos gusta, incluso lo que queremos ver antes de que lo busquemos. La secuencia parece afinada, casi personal. No es una acumulación aleatoria de contenidos, sino algo que encaja con nosotros con una precisión inquietante.
A partir de ahí se produce un desplazamiento casi imperceptible. Dejamos de usar el algoritmo como un medio y empezamos a habitarlo como si fuera un espacio donde encontrar aquello que buscamos. Entramos esperando descubrir algo que nos interesa, y poco a poco dejamos de buscar fuera. Lo que aparece en el feed empieza a sustituir a la búsqueda misma. No es que el algoritmo responda a nuestras preguntas, es que empieza a definirlas.
Pero esa sensación de conocimiento es engañosa. El algoritmo no nos conoce en el sentido en que solemos pensar. No sabe quiénes somos, ni qué queremos en un sentido vital, ni hacia dónde queremos dirigirnos. No tiene acceso a esas dimensiones, ni las necesita. Lo único que puede hacer —y hace con enorme eficacia— es estimar qué es más probable que hagamos ahora.
El sistema no construye una comprensión del sujeto, sino una respuesta continua al comportamiento inmediato. Detecta qué capta nuestra atención, qué la prolonga, qué nos mantiene dentro, y reorganiza el entorno en función de eso. No hay intención de entendernos, solo de ajustar el flujo para que sigamos dentro de él. La experiencia se convierte así en una secuencia de estímulos cada vez más afinados a nuestras respuestas inmediatas.
Por eso resulta tan absorbente. Porque no trabaja sobre lo que somos en el tiempo, sino sobre lo que hacemos en cada instante. Y en ese nivel, la precisión es suficiente para sostener la atención durante largos periodos.
El problema aparece cuando ese funcionamiento empieza a colonizar el resto de la experiencia. La atención se agota en ese circuito de respuesta inmediata. Lo que queda fuera —lo que no está mediado por ese ajuste continuo— aparece más lento, más opaco, menos intenso. Se produce entonces una inversión: empezamos a medir la experiencia por el estándar del algoritmo.
Buscamos fuera la misma intensidad que el sistema produce dentro. Esperamos que la realidad responda con la misma inmediatez, con la misma capacidad de captar nuestra atención en segundos, con la misma sucesión constante de estímulos relevantes. Y cuando no lo hace —cuando exige tiempo, esfuerzo, espera— se percibe como insuficiente.
Pero esa intensidad no es neutral. Está construida sobre una lógica muy concreta: la de reforzar aquello que ya puede ser anticipado en el corto plazo. El algoritmo no amplía nuestra experiencia, la optimiza en torno a nuestra respuesta inmediata. Nos devuelve una versión de nosotros mismos que funciona bien dentro de ese sistema.
Quedar sujetos al algoritmo no es quedar sujetos a una máquina que nos conoce, sino a un sistema que opera sobre la parte de nosotros que es más fácilmente predecible: lo que ya responde, lo que encaja, lo que puede repetirse. En ese sentido, quedamos fijados en el presente inmediato, en una lógica de estímulo y respuesta.
Salir de ahí no significa rechazar el sistema ni volverse completamente impredecible. Significa no confundir su alcance. Significa no delegar en él la definición de lo que nos interesa, de lo que buscamos, de lo que queremos hacer con nuestro tiempo.
Porque hay preguntas que el algoritmo no puede responder —y que tampoco le interesan—: qué queremos ser, hacia dónde queremos ir, qué sentido damos a lo que hacemos cuando no estamos reaccionando a un estímulo.
Esas preguntas no aparecen en el feed. No se derivan de un patrón. No pueden inferirse de una pausa o de un clic. Exigen otra relación con la experiencia, una que no está comprimida en el presente inmediato.
Ser impredecibles, en este contexto, no es un gesto abstracto. Es una forma de no quedar completamente confinados a esa parte de nosotros que puede ser modelada, reforzada y explotada. Es mantener abierta la posibilidad de desviarse, de interrumpir, de buscar sin que la respuesta esté ya preparada.
No porque el algoritmo sea insuficiente, sino porque no está diseñado para eso.
Cuanto más preciso parece, más nos fija en el presente. Cuanto mejor funciona, más estrecho es el marco en el que nos reconoce. Si confundimos esa precisión con conocimiento, terminamos aceptando que lo que aparece en el feed define lo que somos y lo que podemos ser.
Pero el algoritmo no nos conoce. Nos mantiene reaccionando.
No predice quiénes somos; optimiza lo que hacemos ahora.