Les plateformes de médias sociaux deviennent-elles des zones de non-droit où la liberté d'expression est utilisée comme prétexte pour propager la haine ? Cette question est particulièrement aiguë pour X (anciennement Twitter), qui a subi un changement radical en matière de réglementation du contenu. Entre la promesse d'une parole plus libre et des abus très réels, les nouvelles politiques de la plateforme suscitent de vives inquiétudes concernant la sécurité des utilisateurs et la responsabilité des géants de la technologie. Cette évolution, loin d'être anecdotique, redéfinit les frontières de notre espace public numérique.
Modération sur X : un tournant radical sous l'ère Musk
Depuis l'acquisition par Elon Musk, X a transformé son approche de la modération du contenu, s'éloignant des politiques établies pour embrasser une philosophie de la « liberté d'expression quasi absolue ». Ce changement a entraîné une réduction drastique des équipes de modération humaine, un assouplissement des règles et une dépendance accrue aux systèmes automatisés. Auparavant, la plateforme publiait des rapports de transparence détaillés, souvent d'une cinquantaine de pages, fournissant une vue granulaire des actions menées contre la désinformation, les discours de haine et autres contenus nuisibles. Aujourd'hui, la communication est plus rare et les rapports sont plus brefs, utilisant de nouvelles métriques qui rendent les comparaisons directes difficiles.
Ce choc idéologique a eu des conséquences concrètes sur les types de contenus tolérés. Par exemple, la plateforme a démantelé sa politique contre la désinformation sur le COVID-19. De plus, des pratiques telles que le mégenrage ou le deadnaming (utilisation du nom attribué à la naissance d'une personne transgenre sans son consentement) ne sont plus systématiquement classées comme discours de haine. Ces décisions, prises au nom d'une parole moins contrainte, ont ouvert la porte à une résurgence de contenus problématiques, laissant de nombreux utilisateurs et observateurs préoccupés par la direction que prend le réseau social.
Cette nouvelle ère contraste fortement avec le passé, où, bien qu'imparfait, un équilibre était recherché entre la protection des utilisateurs et la liberté d'expression. Le démantèlement des conseils consultatifs et la réintégration de comptes précédemment bannis pour violations graves des règles ont envoyé un signal clair : la priorité n'est plus la curation rigoureuse des contenus mais la minimisation des interventions, même si des discours toxiques prospèrent.
Que disent les chiffres ? Analyse du dernier rapport de transparence
Le premier rapport de transparence publié par X en deux ans, couvrant le premier semestre 2024, présente un tableau inquiétant. Les chiffres bruts révèlent un décalage massif entre les signalements des utilisateurs et les actions de la plateforme. D'une part, les signalements ont explosé, avec plus de 224 millions de comptes et tweets signalés par les utilisateurs, contre seulement 11,6 millions au second semestre 2021 — une augmentation vertigineuse de près de 1830 %.
D'autre part, les mesures d'application n'ont pas suivi cette tendance. Le nombre de suspensions de comptes n'a augmenté que de 300 % sur la même période, passant de 1,3 million à 5,3 millions. Le fossé est encore plus frappant dans des domaines critiques comme la sécurité des enfants : sur plus de 8,9 millions de publications signalées pour mise en danger de mineurs, seules 14 571 ont été retirées. En ce qui concerne les contenus haineux, le contraste est tout aussi net : la plateforme n'a suspendu que 2 361 comptes pour cette raison, contre 104 565 au second semestre 2021.
Bien que X justifie en partie ces écarts par des changements dans les définitions et les méthodes de mesure, la tendance sous-jacente est indéniable : une action de modération significativement réduite face à une explosion des signalements. Cette situation alimente les craintes d'un environnement numérique moins sûr où les contenus les plus dangereux — notamment liés à l'exploitation des enfants et à l'incitation à la haine — échappent de plus en plus aux mailles du filet.
[Image : Graphique montrant le fossé croissant entre les signalements des utilisateurs et les actions de modération sur X]
L'IA à la barre : le nouveau pilier de la régulation des contenus
Pour compenser la réduction du personnel humain, X mise fortement sur l'intelligence artificielle. La plateforme affirme que sa modération repose sur une « combinaison de l'apprentissage automatique et de la revue humaine », l'IA agissant directement ou signalant des contenus pour vérification ultérieure. Cependant, cette dépendance croissante aux algorithmes soulève des questions fondamentales sur leur capacité à gérer la complexité et les nuances du langage humain.
Limites de la modération automatisée
Malgré les progrès, les systèmes automatisés sont connus pour leurs erreurs. Ils ont du mal à interpréter correctement le sarcasme, le langage codé ou le contexte culturel. Une étude de l'Université d'Oxford et de l'Institut Alan Turing a montré que les modèles d'IA pour la détection des discours de haine présentent des lacunes importantes : certains détectent excessivement en signalant à tort des contenus bénins, tandis que d'autres sous-détectent en laissant passer des discours de haine manifestes.
Des exemples d'échecs abondent sur d'autres plateformes :
En 2020, les systèmes de Facebook ont bloqué des publicités pour des petites entreprises en difficulté.
Cette année, l'algorithme de Meta a signalé à tort des publications du Mémorial d'Auschwitz comme violant ses normes.
Un autre problème majeur est le biais des données d'entraînement. La plupart des algorithmes sont développés à partir de jeux de données principalement issus de pays du Nord, les rendant moins efficaces pour analyser les dialectes ou les contextes culturels, comme l'arabe maghrébin. Cette insensibilité culturelle peut conduire à une modération inégale et injuste.
Impact sur les communautés marginalisées
Cette dépendance excessive à l'IA risque de nuire de manière disproportionnée aux communautés marginalisées. Leur langage, qui peut inclure des termes réappropriés ou du jargon interne, est souvent mal compris et à tort signalé comme offensant. Pendant ce temps, les formes subtiles et codées de haine qui les ciblent échappent fréquemment aux filtres algorithmiques. Le résultat est un double piège : la censure de leur expression légitime et une protection inadéquate contre le harcèlement qu'ils subissent. Confier des jugements moraux complexes à des machines risque non seulement de porter atteinte à la liberté d'expression mais aussi d'amplifier les inégalités que les plateformes prétendent combattre.
L'IA, un outil à double tranchant
L'intelligence artificielle est un outil puissant, mais ce n'est pas une solution miracle. Sans une surveillance humaine rigoureuse, des données d'entraînement diversifiées et des politiques claires, les systèmes de modération automatisée peuvent aggraver les problèmes qu'ils cherchent à résoudre, créant un environnement à la fois trop restrictif pour certains et trop laxiste pour d'autres.
Conséquences réelles : quand la parole en ligne alimente la violence
La clémence de la modération sur X n'est pas un simple débat théorique ; elle a des répercussions tangibles dans le monde réel. Un cas récent au Royaume-Uni l'illustre de manière dramatique. Au milieu d'émeutes en partie déclenchées par des désinformations sur les réseaux sociaux, une femme a posté un tweet appelant à « mettre le feu à tous les foutus hôtels pleins de bâtards ».
Son message complet était sans équivoque :
« Déportation de masse maintenant, mettez le feu à tous les






