Le piattaforme di social media stanno diventando zone senza legge dove la libertà di espressione è usata come pretesto per diffondere odio? Questa domanda è particolarmente pressante per X (precedentemente Twitter), che ha subito un cambiamento radicale nella regolamentazione dei contenuti. Tra la promessa di una maggiore libertà di parola e gli abusi molto reali, le nuove politiche della piattaforma sollevano profonde preoccupazioni sulla sicurezza degli utenti e sulla responsabilità dei giganti tecnologici. Questa evoluzione, lontana dall'essere aneddotica, sta ridefinendo i confini del nostro spazio pubblico digitale.
Moderazione su X: un punto di svolta radicale nell'era Musk
Dall'acquisizione da parte di Elon Musk, X ha trasformato il suo approccio alla moderazione dei contenuti, abbandonando le politiche consolidate per abbracciare una filosofia di “quasi assoluta libertà di parola.” Questo cambiamento ha comportato una riduzione drastica dei team di moderazione umana, un allentamento delle regole e un maggiore affidamento sui sistemi automatizzati. In precedenza, la piattaforma pubblicava dettagliati rapporti di trasparenza, spesso di cinquanta pagine, fornendo una vista granulare delle azioni intraprese contro la disinformazione, il discorso d'odio e altri contenuti dannosi. Oggi, la comunicazione è più rara e i rapporti sono più brevi, utilizzando nuove metriche che rendono difficile il confronto diretto.
Questo cambiamento ideologico ha avuto conseguenze concrete sui tipi di contenuti tollerati. Ad esempio, la piattaforma ha smantellato la sua politica contro la disinformazione sul COVID-19. Inoltre, pratiche come il misgendering o il deadnaming (utilizzare il nome assegnato alla nascita di una persona transgender senza il suo consenso) non sono più sistematicamente classificate come discorso d'odio. Queste decisioni, prese in nome di una libertà di parola meno vincolata, hanno aperto la porta a una rinascita di contenuti problematici, lasciando molti utenti e osservatori preoccupati per la direzione che sta prendendo il social network.
Questa nuova era contrasta nettamente con il passato, dove, sebbene imperfetta, si cercava un equilibrio tra la protezione degli utenti e la libertà di parola. Lo smantellamento dei consigli consultivi e la reintegrazione di account precedentemente bannati per gravi violazioni delle regole hanno inviato un chiaro segnale: la priorità non è più una rigorosa curatela dei contenuti ma minimizzare le interferenze, anche se il discorso tossico prolifera.
Cosa dicono i numeri? Analisi dell'ultimo rapporto di trasparenza
Il primo rapporto di trasparenza pubblicato da X in due anni, che copre la prima metà del 2024, presenta un quadro preoccupante. I numeri grezzi rivelano una massiccia disconnessione tra le segnalazioni degli utenti e le azioni della piattaforma. Da un lato, le segnalazioni sono esplose, con oltre 224 milioni di account e tweet segnalati dagli utenti, rispetto a soli 11,6 milioni nella seconda metà del 2021 — un aumento sconcertante di quasi il 1830%.
Dall'altro lato, le misure di applicazione non hanno seguito questa tendenza. Il numero di sospensioni di account è aumentato solo del 300% nello stesso periodo, passando da 1,3 milioni a 5,3 milioni. La discrepanza è ancora più evidente in aree critiche come la sicurezza dei minori: su oltre 8,9 milioni di post segnalati per mettere in pericolo i minori, solo 14.571 sono stati rimossi. Per quanto riguarda i contenuti odiosi, il contrasto è altrettanto netto: la piattaforma ha sospeso solo 2.361 account per questo motivo, rispetto a 104.565 nella seconda metà del 2021.
Anche se X giustifica in parte queste discrepanze con cambiamenti nelle definizioni e nei metodi di misurazione, la tendenza sottostante è innegabile: una significativa riduzione delle azioni di moderazione di fronte a un numero crescente di segnalazioni. Questa situazione alimenta i timori di un ambiente digitale meno sicuro, dove i contenuti più pericolosi—soprattutto quelli relativi allo sfruttamento dei minori e all'incitamento all'odio—sfuggono sempre più tra le maglie.
[Immagine: Grafico che mostra il crescente divario tra le segnalazioni degli utenti e le azioni di moderazione su X]
L'IA al comando: la nuova colonna portante della regolazione dei contenuti
Per compensare la riduzione del personale umano, X punta fortemente sull'intelligenza artificiale. La piattaforma afferma che la sua moderazione si basa su una “combinazione di machine learning e revisione umana,” con l'IA che agisce direttamente o segnala i contenuti per ulteriori verifiche. Tuttavia, questo crescente affidamento sugli algoritmi solleva questioni fondamentali sulla loro capacità di gestire la complessità e le sfumature del linguaggio umano.
Limitazioni della moderazione automatizzata
Nonostante i progressi, i sistemi automatizzati sono noti per i loro errori. Lottano per interpretare correttamente il sarcasmo, il linguaggio codificato o il contesto culturale. Uno studio dell'Università di Oxford e dell'Alan Turing Institute ha dimostrato che i modelli di intelligenza artificiale per il rilevamento del discorso d'odio hanno significative carenze: alcuni sovra-detectano segnalando erroneamente contenuti innocui, mentre altri sotto-detectano lasciando passare discorsi chiaramente odiosi.
Esempi di fallimenti abbondano su altre piattaforme:
Nel 2020, i sistemi di Facebook hanno bloccato gli annunci per piccole imprese in difficoltà.
Quest'anno, l'algoritmo di Meta ha erroneamente segnalato i post dell'Auschwitz Memorial come violazione dei suoi standard.
Un altro problema importante è il pregiudizio nei dati di addestramento. La maggior parte degli algoritmi è sviluppata da dataset provenienti principalmente dai paesi del Nord, rendendoli meno efficaci nell'analizzare dialetti o contesti culturali, come l'arabo maghrebino. Questa insensibilità culturale può portare a moderazione ineguale e ingiusta.
Impatto sulle comunità marginalizzate
Questa eccessiva dipendenza dall'IA rischia di danneggiare in modo sproporzionato le comunità marginalizzate. Il loro linguaggio, che può includere termini riappropriati o gergo interno, è spesso frainteso e erroneamente segnalato come offensivo. Nel frattempo, le forme sottili e codificate di odio che li prendono di mira sfuggono frequentemente ai filtri algoritmici. Il risultato è un doppio vincolo: censura della loro legittima espressione e protezione inadeguata contro le molestie che affrontano. Affidare a macchine complesse giudizi morali rischia non solo di violare la libertà di espressione, ma anche di amplificare le disuguaglianze che le piattaforme dichiarano di combattere.
IA, uno strumento a doppio taglio
L'intelligenza artificiale è uno strumento potente, ma non è una panacea. Senza un rigoroso controllo umano, dati eterogenei di addestramento e politiche chiare, i sistemi di moderazione automatizzati possono peggiorare i problemi che cercano di risolvere, creando un ambiente al contempo troppo restrittivo per alcuni e troppo permissivo per altri.
Conseguenze reali: quando il discorso online alimenta la violenza
La tolleranza nella moderazione di X non è solo un dibattito teorico; ha conseguenze reali nel mondo reale. Un caso recente nel Regno Unito lo illustra drammaticamente. Durante le rivolte scatenate in parte dalla disinformazione sui social media, una donna ha pubblicato un tweet esortando a “incendiare tutti i maledetti alberghi pieni di bastardi.”
Il suo






