Por que devemos ser imprevisíveis?

Por que devemos ser imprevisíveis?

· 15 min de leitura

A irredutibilidade computacional e o limite da predição

Acreditamos que os algoritmos nos conhecem. Que sabem o que nos interessa, o que gostamos, até o que queremos antes mesmo de procurarmos. Mas essa sensação de precisão é enganosa. Não é conhecimento, é ajuste. Existe um limite operacional: nem todo comportamento pode ser reduzido a uma predição antecipada. Esse limite — a irredutibilidade — marca até onde os sistemas de predição podem ir.

Os algoritmos não nos conhecem. Apenas otimizam o que fazemos agora.

A irredutibilidade computacional descreve um limite preciso para a predição: existem processos cujo resultado não pode ser conhecido sem a execução do próprio processo. O conceito, desenvolvido por Stephen Wolfram, não aponta para a falta de informação ou acaso, mas sim para a impossibilidade de comprimir certos sistemas em uma fórmula mais curta que a sua própria evolução.

Durante muito tempo, pensamos o mundo sob uma premissa implícita: se conhecermos as leis que regem um sistema e suas condições iniciais, podemos antecipar seu estado futuro. Essa ideia não só estrutura a física clássica, mas também uma forma geral de entender a realidade: o futuro como algo, em princípio, acessível a partir do presente.

A irredutibilidade introduz uma nuance decisiva. Há sistemas em que essa expectativa falha, não porque as regras sejam desconhecidas ou complexas, mas porque não existe uma forma de “acelerar” sua evolução. O sistema não permite atalhos. Para saber o que acontece em um determinado ponto, é necessário percorrer todos os estados intermediários que levam até ele.

Isso implica que o conhecimento da regra não equivale ao conhecimento do resultado. Você pode compreender completamente como o sistema funciona e, ainda assim, não conseguir antecipar seu estado futuro sem executá-lo passo a passo. O processo não pode ser substituído por uma predição abreviada.

A consequência é estrita: há processos cujo futuro não está disponível antes que ocorram. Não é que o sistema seja imprevisível no sentido absoluto, mas que não é redutível a uma forma mais simples que permita antecipá-lo. A única forma de conhecer sua evolução é deixá-lo se desenrolar.

Esse limite é formal no âmbito computacional, mas introduz uma ideia mais ampla: nem todo sistema pode ser resumido sem perda em uma projeção prévia. Há dinâmicas cuja estrutura exige ser percorrida para ser conhecida.

Em que sentido o ser humano é irredutível?

Transferir a ideia de irredutibilidade para o ser humano exige uma precisão importante: não estamos falando de uma propriedade formal, como nos sistemas computacionais descritos por Stephen Wolfram, mas de uma analogia operacional. Não se afirma que o ser humano seja irredutível no mesmo sentido técnico, mas que seu comportamento apresenta limites comparáveis na hora de ser antecipado ou comprimido em um modelo.

O ser humano não é um sistema com regras explícitas, fechadas e acessíveis. Não dispomos de uma “função de transição” que, dadas certas condições iniciais, permita projetar de forma exaustiva sua evolução. Em vez disso, a vida humana se desenrola em um ambiente aberto: atravessado por contexto, linguagem, história, interação e contingência. Cada decisão não só segue a anterior, mas modifica as condições em que as seguintes ocorrerão.

Nesse contexto, a analogia com a irredutibilidade é clara: não porque não existam regras ou regularidades, mas porque não é possível comprimir a trajetória completa em uma predição prévia suficiente.

Isso não implica que o comportamento humano seja imprevisível em geral. Existem padrões estáveis: hábitos, preferências, dinâmicas sociais. Sobre eles operam com sucesso disciplinas como a economia, a psicologia ou o marketing. É precisamente essa dimensão que permite que sistemas de predição funcionem.

Mas essa não é a totalidade do comportamento. Sempre há uma dimensão que não pode ser antecipada de forma exaustiva: decisões que não derivam diretamente do passado, mudanças de direção, interrupções, variações não previstas. Não porque o sistema careça de estrutura, mas porque não está completamente comprimido nela.

A formulação mais precisa seria esta: o comportamento humano contém componentes redutíveis e componentes não redutíveis. Não é um sistema caótico absoluto, mas também não é um completamente modelizável.

Este limite tem uma consequência direta sobre a experiência.

Não podemos organizar a vida futura como se fosse um objeto disponível. Podemos planejar, projetar, estimar. Mas nenhuma dessas operações captura a totalidade do que ocorrerá. Toda previsão é necessariamente parcial, porque o próprio desenvolvimento da experiência gera informações que antes não existiam.

Aqui a analogia com a irredutibilidade se torna especialmente clara: não é que o futuro seja completamente desconhecido, mas que não está completamente disponível antes de ser vivido.

Essa condição tem uma dupla face.

Por um lado, torna possível o inesperado. A novidade, a criatividade, a ruptura não são anomalias, mas consequências de que a trajetória não está completamente fixada em uma projeção prévia. Se a vida fosse totalmente redutível, seria também totalmente previsível e, nesse sentido, fechada.

Por outro lado, introduz um limite ao controle. Não podemos antecipar exaustivamente o curso de nossa própria experiência. A compreensão aparece depois do processo, não antes. A vida é entendida em retrospectiva porque só então se dispõe das informações que o próprio processo produziu.

Movemo-nos, portanto, em um espaço intermediário: há regularidades, mas não fechamento; há estrutura, mas não predição total. Essa tensão — entre o que pode ser antecipado e o que só pode se desdobrar — define o quadro em que a experiência humana acontece.

Mas este limite não é apenas uma questão teórica sobre a experiência humana. Tem uma consequência direta no lugar onde hoje se tenta antecipar de forma sistemática o comportamento: os algoritmos de recomendação. Entender como esses sistemas operam exige ir um passo atrás e situá-los no contexto em que fazem sentido. Não se trata apenas de tecnologia, mas de um modelo econômico que depende estruturalmente de capturar, medir e otimizar a atenção. A questão já não é apenas se podem nos prever, mas por que precisam fazê-lo.

A atenção: a base econômica do sistema

A atenção já não é apenas um fenômeno psicológico ou cultural. É uma magnitude econômica central. Em 2014, o mercado de publicidade global girava em torno de 523 bilhões de dólares. Em 2024, superou pela primeira vez o trilhão, e projeta-se que atinja 1,24 trilhão em 2026. Em apenas uma década, o sistema praticamente duplicou, com crescimentos anuais em torno de 6–8% sustentados e previsões acima de 10% no curto prazo.

Mas o decisivo não é apenas o crescimento, mas sua forma. A publicidade digital já concentra mais de 70% do investimento global e continua a aumentar. Em mercados como os Estados Unidos, cresce a ritmos próximos de 15% anuais. A economia publicitária contemporânea já não gira em torno de mídias tradicionais, mas em torno de plataformas capazes de capturar, medir e otimizar a atenção em tempo real.

Além disso, esse valor não está distribuído, está concentrado. Google e Meta capturam uma parte dominante do mercado global. No caso do Google, a publicidade — através de Search, YouTube e sua rede — representa aproximadamente 75% de suas receitas totais, com mais de 260 bilhões de dólares anuais. A Meta é ainda mais dependente: mais de 95% de suas receitas — mais de 160 bilhões, provenientes principalmente de Facebook, Instagram e WhatsApp — vêm de publicidade. Seu crescimento recente se sustentou, além disso, em aumentos simultâneos de impressões e preço por anúncio, o que reflete uma intensificação do modelo.

A esse núcleo somam-se a Amazon, que transformou seu ecossistema comercial em uma plataforma publicitária de primeira ordem, e a ByteDance -com o TikTok-, que construiu uma das infraestruturas mais eficazes de captura de atenção em vídeos curtos. Não se trata de serviços isolados, mas de um conjunto de sistemas que organizam boa parte do acesso cotidiano a informações, entretenimento e consumo.

Por isso a atenção se tornou um ativo econômico de primeira ordem. Cada segundo retido, cada interação, cada impressão pode se converter em receita. O modelo é direto: capturar atenção, prolongá-la e convertê-la.

Mas aqui surge o problema estrutural. Este sistema precisa antecipar o comportamento para funcionar com eficiência. E, no entanto, o objeto sobre o qual opera — o comportamento humano — não é completamente redutível. Não pode ser comprimido em uma predição global confiável.

A consequência não é o fracasso do sistema, mas sua reconfiguração. Se não pode prever o sujeito em seu conjunto, deve reduzir o problema até o único ponto onde a predição continua sendo viável: o presente imediato. É aí que a economia da atenção encontra sua forma operacional.

Este sistema econômico não é neutro: depende de reduzir o comportamento ao presente.

Por que os algoritmos não preveem, mas se adaptam

O modelo econômico que sustenta a economia da atenção exige algo muito concreto: antecipar comportamento. Cada impressão, cada segundo retido, cada interação tem valor porque pode se converter em receita. Mas essa exigência encontra um limite que já descrevemos: o comportamento humano não é completamente redutível.

Isso não significa que nada possa ser previsto. De fato, os sistemas de recomendação funcionam precisamente porque há regularidades. Mas também não é possível construir um modelo que antecipe de forma confiável a trajetória completa de um indivíduo. Não se pode saber o que uma pessoa fará daqui a uma semana com o mesmo grau de precisão com que se pode estimar o que fará nos próximos segundos.

Esse é o ponto de fricção. E também o ponto de inflexão.

Os algoritmos de recomendação não resolvem esse problema. Eles o contornam. Em vez de tentar prever o sujeito em seu conjunto, reduzem o alcance da predição até o único nível onde ainda é viável: o presente imediato.

A pergunta deixa de ser “quem é este usuário” ou “o que fará no futuro” e passa a ser algo muito mais restrito: o que é mais provável que faça agora.

Esse deslocamento muda completamente a natureza do sistema. A unidade de análise já não é a pessoa como trajetória, mas a decisão pontual: um clique, uma pausa, um deslocamento, uma repetição. Cada uma dessas ações não necessita de uma teoria completa do sujeito para ser antecipada. Basta observar o que acabou de acontecer.

Nesse sentido, o algoritmo não constrói um modelo estável do usuário. Ele se ajusta continuamente a ele. Observa uma ação, modifica o ambiente, volta a observar. Não precisa saber para onde o usuário vai; basta aumentar a probabilidade de que ele continue.

Aqui ocorre a virada decisiva: a predição global é substituída pela adaptação em tempo real. Mas essa redução não é apenas temporal. É também uma redução do nível em que o comportamento é modelado.

Em escalas longas, o relevante costuma ser o mais complexo: história pessoal, identidade, contexto cultural, motivações profundas. Mas tudo isso é difícil de parametrizar, lento de processar e, acima de tudo, instável.

Em contraste, em escalas curtas, o que aparece com mais clareza são regularidades muito mais básicas: atenção à novidade, repetição de padrões recentes, sensibilidade a pequenas variações. Não é necessário compreender o sujeito para operar sobre essas dinâmicas. Basta detectar como ele responde.

Por isso, embora os algoritmos não modelem explicitamente a biologia ou a psicologia profunda, eles acabam operando nesse nível. Não porque seja mais verdadeiro, mas porque é mais previsível.

Na prática, isso implica que o sistema trata o usuário como uma sequência de respostas a estímulos imediatos. Não em um sentido ontológico — não afirma que o ser humano é isso — mas em um sentido operacional: é o único nível em que a predição pode se sustentar de forma contínua.

Isso explica sua eficácia.

Os algoritmos funcionam porque o comportamento humano contém componentes redutíveis. Há padrões, hábitos, respostas recorrentes que podem ser observados e explorados. E no curto prazo, esses padrões são suficientemente estáveis para construir previsões úteis.

Mas também explica seu limite.

O que fica fora desse modelo é tudo aquilo que não pode ser comprimido nesse quadro: decisões que não respondem à otimização imediata, mudanças de direção, interrupções, variações que não derivam diretamente do passado recente.

A chave, então, não é que o ser humano seja imprevisível em geral. É que não é completamente redutível. E os sistemas de recomendação funcionam precisamente porque não tentam abarcar tudo: eles se concentram na parte que pode ser modelada.

O resultado não é uma predição do sujeito, mas uma gestão de sua atenção no presente. O algoritmo não precisa saber quem você é. Precisa saber o que é mais provável que você faça agora. E agir de acordo.

Seguir o algoritmo ou sair dele

Tudo isso não acontece em abstrato. Manifesta-se em uma experiência muito concreta e reconhecível. Abrimos uma plataforma e sentimos que o algoritmo nos conhece. Que sabe o que nos interessa, o que gostamos, até o que queremos ver antes de procurarmos. A sequência parece afinada, quase pessoal. Não é um acúmulo aleatório de conteúdos, mas algo que se encaixa conosco com uma precisão inquietante.

A partir daí, ocorre um deslocamento quase imperceptível. Deixamos de usar o algoritmo como um meio e começamos a habitá-lo como se fosse um espaço onde encontrar aquilo que buscamos. Entramos esperando descobrir algo que nos interessa, e pouco a pouco deixamos de buscar fora. O que aparece no feed começa a substituir a própria busca. Não é que o algoritmo responda às nossas perguntas, é que ele começa a defini-las.

Mas essa sensação de conhecimento é enganosa. O algoritmo não nos conhece no sentido em que costumamos pensar. Não sabe quem somos, nem o que queremos em um sentido vital, nem para onde queremos ir. Não tem acesso a essas dimensões, nem as necessita. A única coisa que pode fazer — e faz com enorme eficácia — é estimar o que é mais provável que façamos agora.

O sistema não constrói uma compreensão do sujeito, mas uma resposta contínua ao comportamento imediato. Detecta o que capta nossa atenção, o que a prolonga, o que nos mantém dentro, e reorganiza o ambiente em função disso. Não há intenção de nos entender, apenas de ajustar o fluxo para que continuemos nele. A experiência se torna assim uma sequência de estímulos cada vez mais afinados às nossas respostas imediatas.

Por isso é tão absorvente. Porque não trabalha sobre o que somos no tempo, mas sobre o que fazemos a cada instante. E nesse nível, a precisão é suficiente para sustentar a atenção durante longos períodos.

O problema aparece quando esse funcionamento começa a colonizar o resto da experiência. A atenção se esgota nesse circuito de resposta imediata. O que fica de fora — o que não é mediado por esse ajuste contínuo — aparece mais lento, mais opaco, menos intenso. Ocorre então uma inversão: começamos a medir a experiência pelo padrão do algoritmo.

Buscamos fora a mesma intensidade que o sistema produz dentro. Esperamos que a realidade responda com a mesma imediatismo, com a mesma capacidade de captar nossa atenção em segundos, com a mesma sucessão constante de estímulos relevantes. E quando não o faz — quando exige tempo, esforço, espera — percebe-se como insuficiente.

Mas essa intensidade não é neutra. Está construída sobre uma lógica muito concreta: a de reforçar aquilo que já pode ser antecipado no curto prazo. O algoritmo não amplia nossa experiência, ele a otimiza em torno de nossa resposta imediata. Ele nos devolve uma versão de nós mesmos que funciona bem dentro desse sistema.

Ficar sujeito ao algoritmo não é ficar sujeito a uma máquina que nos conhece, mas a um sistema que opera sobre a parte de nós que é mais facilmente previsível: o que já responde, o que se encaixa, o que pode se repetir. Nesse sentido, ficamos fixados no presente imediato, em uma lógica de estímulo e resposta.

Sair daí não significa rejeitar o sistema nem se tornar completamente imprevisível. Significa não confundir seu alcance. Significa não delegar a ele a definição do que nos interessa, do que buscamos, do que queremos fazer com nosso tempo.

Porque há perguntas que o algoritmo não pode responder — e que também não lhe interessam —: o que queremos ser, para onde queremos ir, que sentido damos ao que fazemos quando não estamos reagindo a um estímulo.

Essas perguntas não aparecem no feed. Não derivam de um padrão. Não podem ser inferidas de uma pausa ou de um clique. Exigem outra relação com a experiência, uma que não está comprimida no presente imediato.

Ser imprevisível, neste contexto, não é um gesto abstrato. É uma forma de não ficarmos completamente confinados àquela parte de nós que pode ser modelada, reforçada e explorada. É manter aberta a possibilidade de desviar-se, de interromper, de buscar sem que a resposta já esteja preparada.

Não porque o algoritmo seja insuficiente, mas porque não foi projetado para isso.

Quanto mais preciso parece, mais nos fixa no presente. Quanto melhor funciona, mais estreito é o quadro em que nos reconhece. Se confundirmos essa precisão com conhecimento, acabamos aceitando que o que aparece no feed define o que somos e o que podemos ser.

Mas o algoritmo não nos conhece. Ele nos mantém reagindo.
Não prevê quem somos; otimiza o que fazemos agora.

Continue lendo...