Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Réseaux sociaux : quand le réel penche à droite, Bruxelles et la gauche parlent déjà de “danger pour la démocratie” et de « régulation »

Une chose frappe, à la lecture des réactions provoquées par l’étude finlandaise de Sitra sur les algorithmes de TikTok, X et Instagram : la panique du bloc gauchiste dès lors qu’une partie de la jeunesse européenne n’avale plus mécaniquement le récit officiel. Aussitôt que des contenus plus marqués à droite circulent davantage, la machine politico-médiatique se met en branle. Il ne s’agit plus, pour ces milieux, de comprendre pourquoi une part croissante des citoyens se détourne de la propagande institutionnelle pour regarder le réel en face ; il s’agit déjà de demander à Bruxelles d’intervenir, de surveiller, d’auditer, de corriger, autrement dit de contrôler. L’étude de Sitra, document central de cette séquence, mérite donc mieux qu’une lecture militante : elle doit être examinée de près, dans ses résultats réels, ses limites méthodologiques et ses arrière-pensées réglementaires.

Une étude très commentée, mais politiquement orientée dès son point de départ

Le document publié par Sitra en mars 2026 n’est pas un texte neutre tombé du ciel. Dès l’avant-propos, le think tank finlandais explique que son objectif stratégique est de « protéger et renouveler la démocratie européenne » et de rendre les réseaux sociaux « plus sûrs pour la démocratie », notamment contre la désinformation politique et les interférences dans le débat civique. Le commentaire introductif insiste lui aussi sur la nécessité d’un espace numérique “équitable”, “transparent” et “responsable”, dans la logique du Digital Services Act. En clair, le cadre intellectuel est posé avant même l’analyse : les plateformes sont regardées d’abord comme un risque politique à encadrer, et non comme un espace où s’exprime aussi un rejet croissant des narratifs dominants.

L’étude repose sur deux volets. D’un côté, un audit mené par le Behavioural Insights Team avec 24 avatars de 18 à 24 ans sur TikTok, Instagram et X, en Finlande, en France et en Roumanie ; de l’autre, une enquête en ligne de Bondata auprès de 3 063 jeunes adultes dans les mêmes pays. Au total, 1 719 publications politiques ont été codées manuellement. Ce n’est pas rien, mais ce n’est pas non plus une radiographie définitive de tout l’espace numérique européen. Il faut garder cela en tête au moment de lire les conclusions tonitruantes qui en ont été tirées.

Oui, l’étude observe davantage de contenus de droite. Mais elle montre aussi un tableau plus nuancé que ne le disent ses promoteurs

Le chiffre qui a servi de détonateur est connu : parmi les contenus politiques classés, 58 % sont rangés à droite, 26 % à gauche et 16 % au centre. Même lorsque certains avatars signalaient un intérêt pour des contenus de gauche, les chercheurs disent avoir continué à voir une majorité de contenus classés à droite. C’est ce résultat qui a permis de nourrir tout le discours alarmiste sur un supposé “biais dangereux pour la démocratie”.

Mais la lecture sérieuse du rapport oblige à ajouter immédiatement plusieurs précisions essentielles. D’abord, la situation varie fortement selon les pays et les plateformes. En Roumanie, les flux étaient largement dominés par des contenus centristes, notamment gouvernementaux. En France, la distribution apparaît bien plus équilibrée que le récit public ne le laisse entendre, avec dans le premier audit 51 % de contenus à droite, 40 % à gauche et 9 % au centre. Sur X en France, l’étude dit même avoir observé plus de contenus de gauche que de contenus de droite. En Finlande, Instagram a basculé d’un audit à l’autre d’une domination droitière à une domination gauchisante. Le rapport reconnaît lui-même que cette forte variation n’a pas pu être expliquée par les signaux envoyés par les avatars. Autrement dit, l’étude montre aussi une grande instabilité, ce qui affaiblit les conclusions trop catégoriques.

Ensuite, et c’est capital, les auteurs écrivent noir sur blanc qu’ils ne peuvent pas conclure à une stratégie délibérée des plateformes visant à favoriser la droite. Ils avancent plutôt l’hypothèse que les partis de droite et d’extrême droite sont plus présents sur ces plateformes et en maîtrisent mieux les codes. Cette phrase change beaucoup de choses. Elle signifie qu’on n’est pas face à une preuve de manipulation idéologique organisée par les réseaux, mais face à un possible effet de présence, d’activité, de style et d’adaptation aux formats. Ce n’est pas du tout la même chose.

Le plus embarrassant pour les censeurs : l’étude montre surtout que les contenus incriminés sont rarement illégaux

C’est sans doute le point que beaucoup de commentateurs ont préféré passer sous silence. Le rapport explique que la grande majorité des contenus politiques observés n’entrait pas dans les catégories les plus graves. Sur l’ensemble des 1 719 publications politiques recensées, 67 % relèvent d’opinions, de divertissement ou de contenus non vérifiables, 21 % d’informations jugées vraies, 7 % de propos non vérifiables, 3 % de désinformation au sens strict et 2 % de “malinformation”. Le taux de contenus contenant de la haine explicite est très faible : 1 % pour le hate speech et 4 % pour le hostile speech. Les théories du complot représentent 4 % du total.

Dit autrement, ce que l’étude désigne comme un danger pour la démocratie n’est pas principalement composé de mensonges manifestes ou d’appels à la violence. Ce sont surtout des opinions, des mèmes, des formats émotionnels, des contenus satiriques, parfois agressifs, parfois vulgaires, mais qui restent le plus souvent en deçà de la violation des règles des plateformes. Le rapport le reconnaît explicitement : beaucoup de contenus sont “opinion-based”, souvent extrêmes, mais sans enfreindre les standards communautaires. Là encore, cela change tout. Ce que certains veulent réguler davantage, ce n’est donc pas seulement l’illégal ; c’est le dissident, le dérangeant, le politiquement incorrect, le non-conforme.

Ce que redoutent vraiment les élites : la perte du monopole du cadrage

La force des réseaux sociaux n’est pas seulement d’accélérer la circulation des contenus. Elle est d’avoir brisé le vieux monopole de filtrage des partis installés, des grandes rédactions, des institutions et des experts agréés. Pendant des décennies, le réel passait par leurs grilles d’interprétation. Immigration, insécurité, crise identitaire, déclassement, souveraineté, fracture civique : tout devait être reformulé, atténué, moralement recodé. Or voilà qu’une part croissante de la jeunesse va chercher ailleurs, sur des plateformes incontrôlées, des lectures plus directes, plus brutes, parfois plus radicales aussi.

C’est ce déplacement qui affole. Car si les citoyens se tournent vers des contenus plus droitiers, ce n’est pas forcément parce qu’un algorithme les “endoctrine”. Cela peut aussi signifier qu’ils ne croient plus à la fable officielle. Que le discours dominant sur l’ouverture, le multiculturalisme heureux, la neutralité technocratique ou la moralisation permanente ne convainc plus. Que la réalité vécue, concrète, quotidienne, reprend le dessus sur la pédagogie obligatoire.

L’étude Sitra contient d’ailleurs une donnée révélatrice. Dans l’enquête Bondata, 40 % des personnes se disant “fortement à gauche” estiment que les contenus qu’elles reçoivent correspondent très mal à leurs vues, contre seulement 8 % chez celles se disant “fortement à droite”. Ce chiffre peut être lu de deux manières. Les auteurs y voient la confirmation d’un déséquilibre algorithmique. Mais on peut aussi y voir le signe que les réseaux exposent la gauche à un monde qu’elle ne contrôle plus, et que cette gauche supporte mal d’être confrontée à des opinions qui ne sont plus filtrées par ses propres intermédiaires.

Une “protection de la démocratie” qui ressemble de plus en plus à une volonté de mise au pas

Les recommandations finales du rapport sont éclairantes. Sitra demande une application rigoureuse du DSA, davantage d’accès des chercheurs et des régulateurs aux données des très grandes plateformes, des audits systémiques de long terme sur les biais idéologiques, une réforme de l’architecture des choix en ligne, des options de fil non profilé, une coordination étroite entre le DSA et l’AI Act pour l’étiquetage des contenus politiques générés par l’intelligence artificielle, et une surveillance renforcée des effets émotionnels et comportementaux des systèmes de recommandation.

Présenté poliment, cela s’appelle de la transparence, de la sécurité, de la résilience démocratique. Traduit politiquement, cela veut dire : ouvrir les boîtes noires, surveiller les flux, corriger les orientations, peser sur la hiérarchie des contenus, rendre certains formats plus difficiles à viraliser, et placer la Commission européenne en arbitre croissant du débat civique. Le rapport va même jusqu’à comparer, dans sa discussion, les réseaux sociaux au tabac, en expliquant qu’on aurait d’abord créé un produit addictif avant d’en minimiser les dégâts. La logique est claire : fabriquer le terrain intellectuel et moral d’une intervention publique de plus en plus intrusive.

Il ne s’agit plus seulement de sanctionner l’illégal, ce qui serait normal. Il s’agit de traiter comme un risque systémique toute dynamique informationnelle qui échappe aux préférences des institutions et des partis dits “démocratiques”. Or une démocratie vivante suppose précisément l’existence de contenus dérangeants, de dissensus forts, de conflits d’interprétation, de paroles irrévérencieuses et de récits concurrents.

Le rapport dit aussi autre chose : la gauche a perdu la bataille culturelle des formats

Une hypothèse du rapport est finalement beaucoup plus intéressante que son plaidoyer régulateur. Les auteurs envisagent que la droite et l’extrême droite soient simplement plus présentes sur les plateformes et en comprennent mieux le fonctionnement. C’est probablement l’un des nœuds du problème. La droite de rupture, ou du moins la critique des consensus progressistes, a mieux saisi les ressorts du numérique : brièveté, conflit, humour, ironie, incarnation, simplification, réactivité, émotion. La gauche institutionnelle, elle, continue souvent à parler comme une administration ou une ONG sous perfusion de subventions.

Autrement dit, si les contenus de droite circulent davantage, ce n’est peut-être pas d’abord parce que l’algorithme les favorise, mais parce qu’ils s’adaptent mieux à un espace numérique qui récompense l’intensité, la clarté et le choc. Cela n’innocente pas les plateformes. Mais cela rappelle que le problème des progressistes n’est pas seulement technique. Il est politique, culturel, anthropologique même : ils ne savent plus parler à des peuples qu’ils ont trop longtemps traités comme des masses à rééduquer.

Le vrai scandale, pour eux, n’est pas le biais algorithmique : c’est le retour du réel

En définitive, cette affaire dit moins quelque chose sur la toute-puissance maléfique des algorithmes que sur la fragilité du bloc dominant. Quand les élites médiatiques, universitaires et bruxelloises voient remonter des contenus qu’elles jugent trop droitiers, elles ne s’interrogent pas d’abord sur les causes réelles de cette demande sociale. Elles parlent immédiatement de risques systémiques, de protection du débat, d’intégrité civique. Le vocabulaire change, mais le réflexe demeure : reprendre la main.

C’est là que réside le cœur du sujet. Le citoyen qui doute, qui conteste, qui se détourne de la propagande, qui veut nommer les choses, devient suspect. Son fil d’actualité devient un objet d’expertise. Sa colère devient un problème de gouvernance. Son exposition au réel devient un “danger pour la démocratie”.

L’étude de Sitra ne prouve pas ce que ses relais les plus alarmistes voudraient lui faire dire. Elle montre des déséquilibres, des variations, des contenus souvent orientés à droite, des formats émotionnels, une grande imprévisibilité algorithmique. Mais elle montre aussi que l’illégal est minoritaire, que la situation diffère selon les pays, que la causalité reste incertaine, et que les auteurs eux-mêmes ne peuvent démontrer une volonté délibérée des plateformes de pousser la droite.

Le problème, pour la gauche et pour les dirigeants européens, est peut-être plus simple et plus brutal : le récit officiel ne tient plus. Et quand le réel remonte par les écrans, ils n’ont plus qu’un réflexe : réguler, labelliser, surveiller, corriger. Bref, censurer sans dire son nom.

Source principale étudiée : Algorithms and Democracy. How social media shapes young Europeans’ worldviews, Sitra Studies 256, mars 2026.

[cc] Article rédigé par la rédaction de breizh-info.com et relu et corrigé (orthographe, syntaxe) par une intelligence artificielle.

Breizh-info.com, 2026, dépêches libres de copie et de diffusion sous réserve de mention obligatoire et de lien do follow vers la source d’origine.

https://www.breizh-info.com/2026/03/24/258056/reseaux-sociaux-quand-le-reel-penche-a-droite-bruxelles-et-la-gauche-parlent-deja-de-danger-pour-la-democratie-et-de-regulation/

Écrire un commentaire

Optionnel