Pourquoi devrions-nous être imprévisibles ?
L'irréductibilité computationnelle et la limite de la prédiction
Nous pensons que les algorithmes nous connaissent. Qu'ils savent ce qui nous intéresse, ce que nous aimons, même ce que nous voulons avant que nous le cherchions. Mais cette sensation de précision est trompeuse. Ce n'est pas de la connaissance, c'est un ajustement. Il existe une limite opérationnelle : tout comportement ne peut pas être réduit à une prédiction anticipée. Cette limite — l'irréductibilité — marque jusqu'où les systèmes de prédiction peuvent aller.
Les algorithmes ne nous connaissent pas. Ils optimisent seulement ce que nous faisons maintenant.
L'irréductibilité computationnelle décrit une limite précise à la prédiction : il existe des processus dont le résultat ne peut être connu sans exécuter le processus lui-même. Le concept, développé par Stephen Wolfram, ne pointe pas un manque d'information ni le hasard, mais l'impossibilité de compresser certains systèmes dans une formule plus courte que leur propre évolution.
Pendant longtemps, nous avons pensé le monde sous une prémisse implicite : si nous connaissons les lois qui régissent un système et ses conditions initiales, nous pouvons anticiper son état futur. Cette idée structure non seulement la physique classique, mais aussi une manière générale de comprendre la réalité : le futur comme quelque chose, en principe, accessible depuis le présent.
L'irréductibilité introduit une nuance décisive. Il y a des systèmes pour lesquels cette attente échoue, non pas parce que les règles sont inconnues ou complexes, mais parce qu'il n'existe aucun moyen d'« accélérer » leur évolution. Le système n'admet pas de raccourcis. Pour savoir ce qui se passe à un moment donné, il est nécessaire de parcourir tous les états intermédiaires qui y mènent.
Cela implique que la connaissance de la règle n'équivaut pas à la connaissance du résultat. Vous pouvez comprendre complètement comment le système fonctionne et, malgré tout, ne pas pouvoir anticiper son état futur sans l'exécuter pas à pas. Le processus ne peut être remplacé par une prédiction abrégée.
La conséquence est stricte : il y a des processus dont l'avenir n'est pas disponible avant qu'il ne se produise. Ce n'est pas que le système soit imprévisible au sens absolu, mais qu'il n'est pas réductible à une forme plus simple qui permettrait de l'anticiper. La seule façon de connaître son évolution est de le laisser se dérouler.
Cette limite est formelle dans le domaine computationnel, mais elle introduit une idée plus large : tout système ne peut pas être résumé sans perte dans une projection préalable. Il y a des dynamiques dont la structure exige d'être parcourue pour être connue.
En quel sens l'être humain est-il irréductible ?
Transposer l'idée d'irréductibilité à l'être humain exige une précision importante : il ne s'agit pas d'une propriété formelle, comme dans les systèmes computationnels décrits par Stephen Wolfram, mais d'une analogie opérationnelle. On n'affirme pas que l'être humain est irréductible dans le même sens technique, mais que son comportement présente des limites comparables lorsqu'il s'agit d'être anticipé ou compressé dans un modèle.
L'être humain n'est pas un système avec des règles explicites, fermées et accessibles. Nous ne disposons pas d'une « fonction de transition » qui, étant donné des conditions initiales, permettrait de projeter de manière exhaustive son évolution. Au lieu de cela, la vie humaine se déploie dans un environnement ouvert : traversé par le contexte, le langage, l'histoire, l'interaction et la contingence. Chaque décision ne suit pas seulement la précédente, mais modifie les conditions dans lesquelles les suivantes auront lieu.
Dans ce cadre, l'analogie avec l'irréductibilité est claire : non pas parce qu'il n'existe pas de règles ou de régularités, mais parce qu'il n'est pas possible de compresser la trajectoire complète dans une prédiction préalable suffisante.
Cela n'implique pas que le comportement humain soit imprévisible en général. Il existe des schémas stables : habitudes, préférences, dynamiques sociales. Des disciplines comme l'économie, la psychologie ou le marketing opèrent avec succès sur ces bases. C'est précisément cette dimension qui permet aux systèmes de prédiction de fonctionner.
Mais ce n'est pas la totalité du comportement. Il y a toujours une dimension qui ne peut être anticipée de manière exhaustive : des décisions qui ne découlent pas directement du passé, des changements de direction, des interruptions, des variations imprévues. Non pas parce que le système n'a pas de structure, mais parce qu'il n'est pas complètement compressé en elle.
La formulation la plus précise serait la suivante : le comportement humain contient des composantes réductibles et des composantes non réductibles. Ce n'est pas un système chaotique absolu, mais ce n'est pas non plus un système entièrement modélisable.
Cette limite a une conséquence directe sur l'expérience.
Nous ne pouvons pas organiser la vie future comme si c'était un objet disponible. Nous pouvons planifier, projeter, estimer. Mais aucune de ces opérations ne capture la totalité de ce qui se produira. Toute prévision est nécessairement partielle, car le développement même de l'expérience génère des informations qui n'existaient pas auparavant.
Ici, l'analogie avec l'irréductibilité devient particulièrement claire : ce n'est pas que l'avenir est complètement inconnu, mais qu'il n'est pas complètement disponible avant d'être vécu.
Cette condition a un double visage.
D'une part, elle rend possible l'inattendu. La nouveauté, la créativité, la rupture ne sont pas des anomalies, mais des conséquences du fait que la trajectoire n'est pas complètement fixée dans une projection préalable. Si la vie était totalement réductible, elle serait aussi totalement prévisible et, en ce sens, fermée.
D'autre part, elle introduit une limite au contrôle. Nous ne pouvons pas anticiper de manière exhaustive le cours de notre propre expérience. La compréhension apparaît après le processus, pas avant. La vie est comprise rétrospectivement parce que ce n'est qu'alors que l'on dispose des informations que le processus lui-même a produites.
Nous évoluons donc dans un espace intermédiaire : il y a des régularités, mais pas de fermeture ; il y a de la structure, mais pas de prédiction totale. Cette tension — entre ce qui peut être anticipé et ce qui ne peut que se déployer — définit le cadre dans lequel l'expérience humaine a lieu.
Mais cette limite n'est pas seulement une question théorique sur l'expérience humaine. Elle a une conséquence directe à l'endroit où l'on tente aujourd'hui d'anticiper systématiquement le comportement : les algorithmes de recommandation. Comprendre comment ces systèmes fonctionnent exige de faire un pas en arrière et de les situer dans le cadre où ils prennent sens. Il ne s'agit pas seulement de technologie, mais d'un modèle économique qui dépend structurellement de la capture, de la mesure et de l'optimisation de l'attention. La question n'est plus seulement de savoir s'ils peuvent nous prédire, mais pourquoi ils doivent le faire.
L'attention : la base économique du système
L'attention n'est plus seulement un phénomène psychologique ou culturel. C'est une grandeur économique centrale. En 2014, le marché publicitaire mondial avoisinait les 523 milliards de dollars. En 2024, il a dépassé pour la première fois les mille milliards, et devrait atteindre 1,24 mille milliards en 2026. En à peine une décennie, le système a pratiquement doublé, avec des croissances annuelles d'environ 6 à 8 % soutenues et des prévisions supérieures à 10 % à court terme.
Mais le facteur décisif n'est pas seulement la croissance, mais sa forme. La publicité numérique concentre déjà plus de 70 % de l'investissement mondial et continue d'augmenter. Sur des marchés comme les États-Unis, elle croît à des rythmes proches de 15 % par an. L'économie publicitaire contemporaine ne tourne plus autour des médias traditionnels, mais autour des plateformes capables de capter, de mesurer et d'optimiser l'attention en temps réel.
De plus, cette valeur n'est pas distribuée, elle est concentrée. Google et Meta captent une part dominante du marché mondial. Dans le cas de Google, la publicité — via Search, YouTube et son réseau — représente environ 75 % de ses revenus totaux, avec plus de 260 milliards de dollars par an. Meta est encore plus dépendante : plus de 95 % de ses revenus — plus de 160 milliards, provenant principalement de Facebook, Instagram et WhatsApp — proviennent de la publicité. Sa croissance récente a en outre reposé sur des augmentations simultanées des impressions et du prix par annonce, ce qui reflète une intensification du modèle.
À ce noyau s'ajoutent Amazon, qui a transformé son écosystème commercial en une plateforme publicitaire de premier ordre, et ByteDance - avec TikTok - qui a construit l'une des infrastructures les plus efficaces pour capter l'attention dans les vidéos courtes. Il ne s'agit pas de services isolés, mais d'un ensemble de systèmes qui organisent une grande partie de l'accès quotidien à l'information, au divertissement et à la consommation.
C'est pourquoi l'attention est devenue un actif économique de premier ordre. Chaque seconde retenue, chaque interaction, chaque impression peut se transformer en revenu. Le modèle est direct : capter l'attention, la prolonger et la convertir.
Mais c'est là qu'apparaît le problème structurel. Ce système a besoin d'anticiper le comportement pour fonctionner efficacement. Et pourtant, l'objet sur lequel il opère — le comportement humain — n'est pas complètement réductible. Il ne peut pas être compressé en une prédiction globale fiable.
La conséquence n'est pas l'échec du système, mais sa reconfiguration. S'il ne peut pas prédire le sujet dans son ensemble, il doit réduire le problème jusqu'au seul point où la prédiction reste viable : le présent immédiat. C'est là que l'économie de l'attention trouve sa forme opérationnelle.
Ce système économique n'est pas neutre : il dépend de la réduction du comportement au présent.
Pourquoi les algorithmes ne prédisent pas, mais s'adaptent
Le modèle économique qui sous-tend l'économie de l'attention exige quelque chose de très précis : anticiper le comportement. Chaque impression, chaque seconde retenue, chaque interaction a de la valeur parce qu'elle peut se transformer en revenu. Mais cette exigence se heurte à une limite que nous avons déjà décrite : le comportement humain n'est pas complètement réductible.
Cela ne signifie pas que l'on ne peut rien prédire. En fait, les systèmes de recommandation fonctionnent précisément parce qu'il existe des régularités. Mais il n'est pas non plus possible de construire un modèle qui anticipe de manière fiable la trajectoire complète d'un individu. On ne peut pas savoir ce qu'une personne fera dans une semaine avec le même degré de précision que l'on peut estimer ce qu'elle fera dans les prochaines secondes.
C'est le point de friction. Et aussi le point d'inflexion.
Les algorithmes de recommandation ne résolvent pas ce problème. Ils le contournent. Au lieu d'essayer de prédire le sujet dans son ensemble, ils réduisent la portée de la prédiction jusqu'au seul niveau où elle reste viable : le présent immédiat.
La question n'est plus « qui est cet utilisateur » ou « ce qu'il fera à l'avenir » et devient quelque chose de beaucoup plus limité : qu'est-il le plus susceptible de faire maintenant.
Ce déplacement change complètement la nature du système. L'unité d'analyse n'est plus la personne en tant que trajectoire, mais la décision ponctuelle : un clic, une pause, un défilement, une répétition. Chacune de ces actions n'exige pas une théorie complète du sujet pour être anticipée. Il suffit d'observer ce qui vient de se passer.
En ce sens, l'algorithme ne construit pas un modèle stable de l'utilisateur. Il s'ajuste continuellement à lui. Il observe une action, modifie l'environnement, observe à nouveau. Il n'a pas besoin de savoir où va l'utilisateur ; il lui suffit d'augmenter la probabilité qu'il continue.
C'est là que se produit le tournant décisif : la prédiction globale est remplacée par une adaptation en temps réel. Mais cette réduction n'est pas seulement temporelle. C'est aussi une réduction du niveau auquel le comportement est modélisé.
À long terme, ce qui est pertinent est souvent le plus complexe : histoire personnelle, identité, contexte culturel, motivations profondes. Mais tout cela est difficile à paramétrer, lent à traiter et, surtout, instable.
En revanche, à court terme, ce qui apparaît le plus clairement, ce sont des régularités beaucoup plus fondamentales : l'attention à la nouveauté, la répétition de schémas récents, la sensibilité aux petites variations. Il n'est pas nécessaire de comprendre le sujet pour agir sur ces dynamiques. Il suffit de détecter comment il réagit.
C'est pourquoi, bien que les algorithmes ne modélisent pas explicitement la biologie ou la psychologie profonde, ils finissent par opérer à ce niveau. Non pas parce que c'est plus vrai, mais parce que c'est plus prédictible.
En pratique, cela implique que le système traite l'utilisateur comme une séquence de réponses à des stimuli immédiats. Non pas dans un sens ontologique — il n'affirme pas que l'être humain est cela — mais dans un sens opérationnel : c'est le seul niveau où la prédiction peut se maintenir de manière continue.
Cela explique son efficacité.
Les algorithmes fonctionnent parce que le comportement humain contient des composantes réductibles. Il existe des schémas, des habitudes, des réponses récurrentes qui peuvent être observées et exploitées. Et à court terme, ces schémas sont suffisamment stables pour construire des prédictions utiles.
Mais cela explique aussi sa limite.
Ce qui reste en dehors de ce modèle, c'est tout ce qui ne peut pas être compressé dans ce cadre : des décisions qui ne répondent pas à une optimisation immédiate, des changements de direction, des interruptions, des variations qui ne découlent pas directement du passé récent.
La clé, alors, n'est pas que l'être humain soit imprévisible en général. C'est qu'il n'est pas complètement réductible. Et les systèmes de recommandation fonctionnent précisément parce qu'ils n'essaient pas de tout englober : ils se concentrent sur la partie qui peut être modélisée.
Le résultat n'est pas une prédiction du sujet, mais une gestion de son attention au présent. L'algorithme n'a pas besoin de savoir qui vous êtes. Il a besoin de savoir ce que vous ferez le plus probablement maintenant. Et d'agir en conséquence.
Suivre l'algorithme ou en sortir
Tout cela ne se produit pas en abstrait. Cela se manifeste dans une expérience très concrète et reconnaissable. Nous ouvrons une plateforme et sentons que l'algorithme nous connaît. Qu'il sait ce qui nous intéresse, ce que nous aimons, même ce que nous voulons voir avant que nous le cherchions. La séquence semble affinée, presque personnelle. Ce n'est pas une accumulation aléatoire de contenus, mais quelque chose qui nous correspond avec une précision inquiétante.
De là, un déplacement presque imperceptible se produit. Nous cessons d'utiliser l'algorithme comme un moyen et commençons à l'habiter comme s'il s'agissait d'un espace où trouver ce que nous cherchons. Nous entrons en espérant découvrir quelque chose qui nous intéresse, et peu à peu, nous cessons de chercher à l'extérieur. Ce qui apparaît dans le flux commence à remplacer la recherche elle-même. Ce n'est pas que l'algorithme répond à nos questions, c'est qu'il commence à les définir.
Mais cette sensation de connaissance est trompeuse. L'algorithme ne nous connaît pas dans le sens où nous l'entendons habituellement. Il ne sait pas qui nous sommes, ni ce que nous voulons dans un sens vital, ni où nous voulons aller. Il n'a pas accès à ces dimensions, et n'en a pas besoin. La seule chose qu'il puisse faire – et qu'il fait avec une efficacité redoutable – est d'estimer ce que nous ferons le plus probablement maintenant.
Le système ne construit pas une compréhension du sujet, mais une réponse continue au comportement immédiat. Il détecte ce qui capte notre attention, ce qui la prolonge, ce qui nous maintient à l'intérieur, et réorganise l'environnement en fonction de cela. Il n'y a aucune intention de nous comprendre, seulement d'ajuster le flux pour que nous restions dedans. L'expérience devient ainsi une séquence de stimuli de plus en plus affinés à nos réponses immédiates.
C'est pourquoi il est si absorbant. Parce qu'il ne travaille pas sur ce que nous sommes dans le temps, mais sur ce que nous faisons à chaque instant. Et à ce niveau, la précision est suffisante pour maintenir l'attention pendant de longues périodes.
Le problème apparaît lorsque ce fonctionnement commence à coloniser le reste de l'expérience. L'attention s'épuise dans ce circuit de réponse immédiate. Ce qui reste en dehors — ce qui n'est pas médiatisé par cet ajustement continu — apparaît plus lent, plus opaque, moins intense. Il se produit alors une inversion : nous commençons à mesurer l'expérience selon la norme de l'algorithme.
Nous cherchons à l'extérieur la même intensité que le système produit à l'intérieur. Nous attendons que la réalité réponde avec la même immédiateté, avec la même capacité à capter notre attention en quelques secondes, avec la même succession constante de stimuli pertinents. Et quand elle ne le fait pas — quand elle exige du temps, des efforts, de l'attente — elle est perçue comme insuffisante.
Mais cette intensité n'est pas neutre. Elle est construite sur une logique très spécifique : celle de renforcer ce qui peut déjà être anticipé à court terme. L'algorithme n'élargit pas notre expérience, il l'optimise autour de notre réponse immédiate. Il nous renvoie une version de nous-mêmes qui fonctionne bien au sein de ce système.
Être soumis à l'algorithme, ce n'est pas être soumis à une machine qui nous connaît, mais à un système qui opère sur la partie de nous qui est la plus facilement prédictible : ce qui répond déjà, ce qui correspond, ce qui peut être répété. En ce sens, nous sommes fixés dans le présent immédiat, dans une logique de stimulus et de réponse.
En sortir ne signifie pas rejeter le système ni devenir complètement imprévisible. Cela signifie ne pas se méprendre sur sa portée. Cela signifie ne pas lui déléguer la définition de ce qui nous intéresse, de ce que nous cherchons, de ce que nous voulons faire de notre temps.
Car il y a des questions auxquelles l'algorithme ne peut pas répondre — et qui ne l'intéressent pas non plus — : ce que nous voulons être, où nous voulons aller, quel sens nous donnons à ce que nous faisons quand nous ne réagissons pas à un stimulus.
Ces questions n'apparaissent pas dans le flux. Elles ne découlent pas d'un schéma. Elles ne peuvent être inférées d'une pause ou d'un clic. Elles exigent une autre relation avec l'expérience, une relation qui n'est pas compressée dans le présent immédiat.
Être imprévisible, dans ce contexte, n'est pas un geste abstrait. C'est une manière de ne pas être entièrement confiné à cette partie de nous qui peut être modelée, renforcée et exploitée. C'est maintenir ouverte la possibilité de dévier, d'interrompre, de chercher sans que la réponse ne soit déjà préparée.
Non pas parce que l'algorithme est insuffisant, mais parce qu'il n'est pas conçu pour cela.
Plus il semble précis, plus il nous fixe dans le présent. Mieux il fonctionne, plus le cadre dans lequel il nous reconnaît est étroit. Si nous confondons cette précision avec la connaissance, nous finissons par accepter que ce qui apparaît dans le flux définit ce que nous sommes et ce que nous pouvons être.
Mais l'algorithme ne nous connaît pas. Il nous maintient en réaction.
Il ne prédit pas qui nous sommes ; il optimise ce que nous faisons maintenant.