Avant-proposLes thèmesSourcesMode débat ⚡ContribuerTélécharger
← Retour

Réseaux sociaux

La désinformation se propage 6 fois plus vite que l'information vraie. Ce n'est pas un bug. C'est le modèle économique.

la désinformation se propage 6 fois plus vite que l'information vérifiée sur Twitter/X (MIT 2018, confirmé)
1h15
par jour passées sur TikTok en moyenne par ses utilisateurs actifs, l'app la plus addictive mesurée
-40%
de bien-être mental chez les adolescentes depuis 2012, corrélé à l'essor des smartphones (Jean Twenge / APA)
40 $
revenus publicitaires générés par chaque utilisateur américain par an pour Meta (rapport annuel Meta 2023)
70%
d'augmentation de l'engagement sur les contenus clivants et émotionnellement intenses, selon les Facebook Papers
Le contexte

Les réseaux sociaux ne sont pas des outils neutres de communication. Ils sont des machines à engagement dont le modèle économique repose sur le temps passé sur la plateforme, monétisé par la publicité. Pour maximiser l'engagement, les algorithmes favorisent les contenus qui suscitent des émotions fortes : indignation, peur, colère. La désinformation produit ces émotions mieux que l'information vérifiée. Ce n'est donc pas un défaut de conception : c'est une conséquence logique du modèle publicitaire. Les Facebook Papers, documents internes de Meta révélés en 2021, montrent que la plateforme savait que ses algorithmes amplifiaient la désinformation et les contenus haineux, et a choisi de ne rien changer pour ne pas réduire l'engagement. 3 entreprises (Meta, Alphabet/Google, TikTok/ByteDance) contrôlent les espaces où se forme une partie croissante de l'opinion publique mondiale.

Objections — cliquez pour voir la réponse
"La liberté d'expression implique de ne pas réguler les réseaux sociaux."
+

La liberté d'expression protège les individus contre la censure de l'État. Elle ne crée pas une obligation pour des entreprises privées d'héberger tous les contenus sans modération. Et la vraie question n'est pas la censure : c'est l'amplification algorithmique. Un réseau social qui amplifie 6 fois plus vite la désinformation que l'information ne pratique pas la liberté d'expression, il fabrique de la désinformation industrielle. Le DSA européen commence à réguler précisément cela.

"Les gens sont libres de ne pas y aller."
+

Les addictions ne se résolvent pas par la volonté individuelle. Les réseaux sociaux ont été conçus par des équipes de psychologues et de spécialistes du comportement pour maximiser le temps passé sur la plateforme. Le 'scroll infini', les likes, les notifications, les compteurs d'abonnés sont des mécanismes documentés de conditionnement comportemental. Dire aux gens de ne pas aller sur TikTok, c'est l'équivalent de dire aux fumeurs de ne pas acheter de cigarettes : la responsabilité est d'abord dans la conception du produit.

"Les réseaux sociaux permettent aux citoyens de s'informer et de s'organiser."
+

C'est vrai et c'est précieux. Le Printemps arabe, MeToo, les Gilets jaunes ont utilisé les réseaux pour s'organiser. Mais ces mêmes réseaux ont aussi organisé l'assaut du Capitole américain, propagé des théories complotistes sur les vaccins qui ont tué des gens, et servi de vecteur à des ingérences électorales étrangères documentées. Les outils sont là. Ce qui manque, c'est la régulation de leurs effets négatifs sans interdire leurs effets positifs.

"La régulation va tuer l'innovation numérique européenne."
+

L'UE représente 450 millions de consommateurs et le marché le plus attrayant du monde. Aucune entreprise numérique ne va se retirer de l'Europe à cause du DSA ou du RGPD. Google et Meta ont payé des milliards d'amendes et sont toujours là. Ce que la régulation européenne fait, c'est fixer les règles du jeu pour un marché immense. L'innovation qui ne peut exister que sans règles est une innovation fondée sur l'exploitation des données personnelles et la manipulation psychologique.

Ce que propose la gauche
Interdire les algorithmes de recommandation fondés sur le profilage comportemental pour les mineurs
Transparence totale des algorithmes : toute plateforme doit publier ses règles d'amplification
Responsabilité des plateformes pour les contenus viraux qu'elles amplifient délibérément
Droit à la déconnexion numérique : interdire les notifications push entre 22h et 8h pour les mineurs
Financement public de médias d'information indépendants comme contrepoids aux réseaux sociaux
Éducation aux médias obligatoire dès le primaire : comprendre les algorithmes et la désinformation
"Donner aux gens ce qu'ils veulent est différent de ce qui est bon pour eux."
Tristan Harris, ex-ingénieur Google, fondateur du Center for Humane Technology, 2017
🗂ThèmesDébat📚Sources✉️Contribuer