Dans un café parisien, un mardi matin ordinaire, une scène devenue presque banale se répète. Une jeune femme fait défiler son téléphone pendant que son café refroidit lentement. Son visage change d’expression toutes les quelques secondes : surprise, inquiétude, agacement. Les images passent vite — une catastrophe climatique, un scandale politique, une vidéo alarmante.

Elle lève les yeux, soupire, puis recommence à faire défiler. Ce petit geste mécanique résume peut-être mieux que n’importe quelle théorie ce que les chercheurs appellent aujourd’hui Attention Economy. Dans cet univers numérique, l’attention humaine n’est plus seulement un comportement. Elle est devenue une ressource.
| Catégorie | Informations |
|---|---|
| Concept | Attention Economy |
| Domaine | Technologies numériques et réseaux sociaux |
| Acteurs principaux | Meta Platforms, Google, TikTok |
| Principe central | Monétisation du temps et de l’engagement des utilisateurs |
| Risques associés | Polarisation, anxiété, désinformation |
| Référence |
Et comme toute ressource rare, elle se vend. Les grandes plateformes technologiques ont compris depuis longtemps que la valeur économique d’un utilisateur ne se mesure pas simplement à son abonnement ou à ses données. Elle se mesure surtout au temps qu’il passe devant l’écran. Plus un utilisateur reste, plus il voit de publicité. Et plus il voit de publicité, plus la plateforme gagne d’argent.
Le calcul est simple. Les conséquences le sont beaucoup moins. Dans les bureaux californiens de Meta Platforms ou de Google, des équipes d’ingénieurs perfectionnent depuis des années des systèmes capables de prédire ce qui retiendra l’attention. Ces systèmes sont appelés algorithmes de recommandation.
Ils observent tout. Chaque clic, chaque pause devant une vidéo, chaque partage devient une information. Petit à petit, les machines apprennent ce qui provoque le plus de réactions. Et les résultats sont parfois troublants.
Les contenus neutres retiennent rarement longtemps l’attention. En revanche, la peur, la colère ou l’indignation déclenchent presque toujours une réaction immédiate. Les utilisateurs commentent davantage, partagent plus souvent, reviennent vérifier les réactions.
Les algorithmes ont donc appris une chose simple : l’émotion intense fonctionne. Ce mécanisme crée ce que certains chercheurs appellent une boucle de profit. Un contenu alarmant attire l’attention. Cette attention augmente l’engagement. L’engagement attire davantage de publicité. La publicité génère des revenus.
Le système s’auto-alimente. Il est difficile de dire si cette dynamique était intentionnelle au départ. Certains ingénieurs affirment qu’ils cherchaient simplement à rendre les plateformes plus attractives. D’autres reconnaissent aujourd’hui que les conséquences ont été sous-estimées.
Quoi qu’il en soit, le résultat est visible. Pendant les périodes de crise — pandémie, élections, catastrophes — les flux d’information deviennent souvent plus alarmistes. Les contenus nuancés circulent moins vite. Les messages qui provoquent une réaction immédiate dominent l’espace numérique.
C’est presque mécanique. Les utilisateurs, de leur côté, entrent dans un phénomène bien connu : le doomscrolling. On continue de lire des nouvelles inquiétantes même lorsqu’elles provoquent du stress. Il y a quelque chose de paradoxal dans ce comportement.
On cherche à comprendre ce qui nous inquiète. Mais plus on cherche, plus l’algorithme nous en propose. Le cercle se referme.
Les conséquences psychologiques commencent à inquiéter certains chercheurs. Des études montrent une augmentation de l’anxiété et du sentiment d’insécurité chez les jeunes utilisateurs fortement exposés aux réseaux sociaux.
Il est difficile de prouver un lien direct. Mais la corrélation intrigue. Il y a aussi une dimension politique. Les algorithmes ont tendance à montrer davantage de contenus similaires à ceux qu’un utilisateur a déjà consultés. Peu à peu, cela peut créer des bulles d’information. À l’intérieur de ces bulles, certaines idées deviennent dominantes.
Certains spécialistes parlent d’une forme de radicalisation algorithmique. Pas nécessairement volontaire, mais produite par la logique même du système. Les plateformes privilégient ce qui retient l’attention. Et ce qui retient l’attention devient progressivement plus extrême.
C’est une dynamique presque invisible. Les utilisateurs ont souvent l’impression de choisir librement ce qu’ils regardent. Pourtant, la sélection des contenus est largement automatisée. Les algorithmes filtrent, priorisent, amplifient.
Ce qui disparaît parfois, c’est la diversité. Face à cette réalité, certains experts suggèrent de reprendre le contrôle de son attention. Désactiver certaines notifications. Limiter le temps passé sur les plateformes. Choisir activement les sources d’information.
Des gestes simples, mais pas toujours faciles. Car ces plateformes ont été conçues pour être difficiles à quitter. Les interfaces sont fluides, les recommandations infinies, les vidéos s’enchaînent automatiquement.
Tout est fait pour éviter le silence numérique. En observant ce système, il est difficile de ne pas ressentir une certaine ambivalence. Les réseaux sociaux ont permis de connecter des milliards de personnes, de partager des connaissances, de créer des communautés inattendues.
