Cum putem naviga un spațiu digital care susține libera expresie, având în același timp nevoie să protejeze utilizatorii de pericol? Această întrebare se află în centrul dezbaterii în curs privind moderarea conținutului pe X (fostul Twitter), o platformă care a devenit un punct central pentru discursuri globale, dezbateri politice și răspândirea rapidă a informațiilor. Provocarea de a găsi un echilibru este mai complexă ca niciodată, modelată de tehnologii în evoluție, politici în schimbare și evenimente reale care testează limitele guvernării online.
Peisajul în schimbare al moderării pe X
Într-o mișcare semnificativă după o pauză de doi ani, X a lansat un raport de transparență în septembrie 2024, oferind o privire asupra practicilor sale curente de moderare. Datele dezvăluie o tendință confuză: în timp ce rapoartele utilizatorilor despre conținut nociv au explodat, acțiunile de aplicare ale platformei nu au ținut pasul.
În prima jumătate a anului 2024, utilizatorii au raportat peste 224 de milioane de conturi și tweet-uri, o creștere uluitoare de 1.830% comparativ cu cele 11,6 milioane raportate la sfârșitul anului 2021. În ciuda acestei creșteri, numărul de suspendări de conturi a crescut doar cu aproximativ 300%, de la 1,3 milioane la 5,3 milioane. Această discrepanță sugerează o schimbare fundamentală în modul în care X identifică și acționează asupra încălcărilor politicii.
Schimbările sunt și mai clare prin politicile platformei în evoluție. Sub noua conducere, regulile privind dezinformarea despre COVID-19 au fost retrase, iar acțiuni precum misgendering-ul sau deadnaming-ul nu mai sunt clasificate ca discurs de ură. Această redefinire are un impact direct asupra metricilor de aplicare. De exemplu:
Conduită urâtă: Suspendările pentru conduită urâtă au scăzut dramatic la doar 2.361 de conturi, comparativ cu 104.565 în a doua jumătate a anului 2021.
Siguranța copilului: Din mai mult de 8,9 milioane de postări raportate pentru preocupări legate de siguranța copilului, X a eliminat doar 14.571.
Această nouă abordare, detaliată într-un raport condensat de 15 pagini, contrastează puternic cu dezvăluirile cuprinzătoare de 50 de pagini din trecut. Ne arată un sistem care se confruntă cu un volum imens de rapoarte în timp ce operează sub un set de reguli revizuit și, probabil, mai indulgent.
Mechanismele suspendării: Cum decide X?
Înțelegerea cine este suspendat și de ce necesită depășirea statisticilor pentru a privi comportamentele de bază. Cercetările privind dinamica moderării în timpul evenimentelor geopolitice majore, precum invazia Rusiei în Ucraina din 2022 și alegerile prezidențiale din Franța, oferă perspective cruciale asupra tiparelor operaționale ale platformei.
Studiile care analizează peste 270 de milioane de tweet-uri au identificat tendințe clare în crearea și suspendarea conturilor în perioadele de discurs controversat cu volum mare. În aceste perioade, există creșteri notabile în crearea de conturi suspecte, multe dintre acestea fiind suspendate puțin timp după apariția lor.
Conturi noi vs. vechi: O poziție proactivă
Una dintre cele mai importante descoperiri este că Twitter pare să fie mult mai proactiv în suspendarea conturilor nou create comparativ cu cele vechi. Multe conturi malițioase sunt suspendate în doar câteva zile de la crearea lor, sugerând că vechimea contului este un factor cheie în sistemele de detectare ale platformei. Durata de viață a unui cont suspendat depinde adesea de nivelul său de activitate; conturile noi, hiper-active, pot fi semnalate și eliminate mai rapid, în timp ce conturile mai vechi care se angajează în comportamente similare ar putea persista mai mult timp.
Această abordare proactivă față de conturile noi este probabil o strategie de a combate comportamentul neautentic coordonat, cum ar fi rețelele de bot și campaniile de spam, care adesea se bazează pe conturi noi pentru a-și amplifica mesajele înainte de a fi detectate.
Comportamente care declanșează suspendarea
Conturile suspendate, fie că sunt noi sau vechi, tind să prezinte modele comportamentale specifice care le diferențiază de utilizatorii tipici. Acestea includ:
Utilizarea excesivă a răspunsurilor și mențiunilor: În loc să creeze conținut original, aceste conturi adesea inundă răspunsurile utilizatorilor legitimi cu spam, hărțuire sau propagandă.
Tweeting la frecvență înaltă: Utilizatorii suspendați adesea tweet-uiește la o rată mult mai mare decât utilizatorii activi, indicând un comportament automatizat sau obsesiv. Timpul mediu dintre tweet-uri pentru un utilizator suspendat este semnificativ mai scurt.
Distribuirea de conținut nociv: O analiză calitativă dezvăluie că conturile suspendate sunt mult mai predispuse să împărtășească conținut clasificat ca spam sau nociv (inclusiv discurs de ură, limbaj abuziv și agresiune) decât conturile active.
În timpul alegerilor din Franța din 2022, de exemplu, conturile suspendate erau mai predispuse să amplifice hashtag-uri distructive precum #toutsaufmacron (oricine în afară de Macron). Similar, în faza inițială a conflictului din Ucraina, multe conturi suspendate au fost descoperite că promovau spamuri legate de criptomonede. Aceste modele arată că suspendarea este adesea legată de abuzuri clare ale platformei destinate manipulării conversațiilor sau exploatării atenției utilizatorilor.
O notă despre transparența datelor
Cercetătorii se confruntă cu provocări semnificative în studiul moderării. Platformele precum X nu divulgă ora exactă sau motivul specific al suspendării unui cont. Analiștii trebuie adesea să folosească proxy-uri, cum ar fi ultima activitate vizibilă a unui cont, pentru a estima când a fost eliminat. În plus, întreruperea accesului gratuit la API pentru cercetători a făcut mai dificilă monitorizarea și analiza independentă a acestor tendințe, ridicând îngrijorări cu privire la responsabilitatea platformei.
Creșterea moderării prin AI: O sabie cu două tăișuri?
La baza strategiei de moderare a X este o dependență tot mai mare de inteligența artificială. Platforma afirmă că folosește o „combinație de învățare automată și revizuire umană”, unde sistemele AI fie iau măsuri directe, fie semnalează conținut pentru moderatori umani. În timp ce această abordare este necesară pentru a gestiona volumul imens de conținut, este plină de provocări și dileme etice.
Sistemele de moderare prin AI au fost de mult timp recunoscute ca imperfecte. Ele întâmpină adesea dificultăți cu nuanțele limbajului uman, conducând la erori semnificative:
Cecitate contextuală: Frecvent, AI nu reușește să înțeleagă sarcasmul, satira sau limbajul codificat folosit de comunitățile marginalizate, conducând la alarme false unde un conținut benign este semnalat ca nociv.
Părtinire în seturile de date: Multe algoritme sunt antrenate pe seturi de date în principal din Nordul Global, ceea ce poate duce la insensibilitate culturală și lingvistică. Un memoriu de la Centrul pentru Democrație și Tehnologie a subliniat cum acest lucru conduce la o precizie slabă de moderare în dialecte precum arabă maghrebiană.
Performanță inconsistentă: Un studiu din 2021 realizat de Oxford și Institutul Alan Turing a testat mai multe modele de detectare a discursului de ură cu AI și a constatat diferențe semnificative de performanță. Unele modele, precum Perspective API de la Google, tind să semnalizeze excesiv conținut non-agresiv, în timp ce altele nu detectau suficiente exemple clare de discurs de ură.
Aceste limitări pot explica scăderea accentuată a acțiunilor împotriva discursului de ură pe X, deoarece AI are dificultăți în identificarea întregului spectru de retorică nocivă. Consecințele sunt reale, așa cum s-a observat când AI-ul Facebook a blocat greșit reclame de la întreprinderi mici în 2020 sau a semnalat postări de la Muzeul de la Auschwitz ca încălcând standardele comunității în 2024. Supra-reliancea pe AI nu doar că nu reușește să prindă actorii malițioși, dar și riscă să suprime exprimate legitime, în special din comunități care deja se confruntă cu cenzura.
Coarda etică a automatizării
Putem avea încredere în mașini să facă judecăți morale despre comunicarea umană? Pe măsură ce platformele automatizează tot mai mult moderarea, riscă să amplifice prejudecățile existente și să ia decizii opace care afectează libera exprimare. Experți de la AI Now Institute pledează pentru o mai mare responsabilitate, îndemnând platformele să adopte standarde etice și să crească transparența în jurul sistemelor lor AI. Acest lucru este deosebit de critic pe măsură ce aceste decizii automate modelează discursul public în jurul unor evenimente cheie, cum ar fi alegerile.
În timp ce provocările moderării digitale sunt imense, alte sectoare tehnologice arată cum sistemele inteligente pot fi utilizate cu rezultate mai previzibile și benefice. În domeniul energiei regenerabile, de exemplu, companii precum Les Nouveaux Installateurs utilizează tehnologia nu pentru filtrarea ambiguă a conținutului, ci pentru optimizare concretă. Soluțiile lor inteligente, inclusiv gestionarea inteligentă a producției de panouri solare, încărcarea inteligentă pentru vehicule electrice și utilizarea optimizată a pompelor de căldură, permit utilizatorilor să își controleze consumul de energie eficient. Acest lucru este realizat prin date clare, monitorizare de la distanță fiabilă și tehnologie care oferă rezultate pozitive și palpabile—un contrast izbitor cu lumea adesea opacă și predispusă la erori a moderării de conținut prin AI.
Consecințe în lumea reală: Când discursul online se răspândește
Dezbaterea despre moderare nu este doar academică; are consecințe reale, tangibile. Un caz recent în Marea Britanie subliniază diferența periculoasă între politica de platformă și siguranța publică. În urma unor revolte alimentate în mare parte de dezinformarea pe rețelele sociale, o femeie a fost acuzată pentru o postare pe X care îndemna să „se dea foc la toate hotelurile f**** pline de b****”.
Deportare în masă acum, dă foc la toate hotelurile f**** pline de b**** pentru tot ce contează, în timp ce ești la asta ia și guvernul și politicienii trădători cu ei. Mă simt fizic rău știind prin ce vor trebui să treacă aceste familii. Dacă asta mă face rasistă, așa să fie.
Utilizatorul a pledat ulterior vinovat pentru incitarea la ură rasială. Cu toate acestea, când postarea sa a fost raportată la X, platforma a determinat că aceasta nu a încălcat regulile lor. Acest incident ilustrează clar un scenariu în care conținutul considerat ilegal de o instanță este considerat acceptabil de o platformă de social media, ridicând întrebări critice despre responsabilitatea corporativă și definiția „liberei exprimări.” Este corect ca o platformă să permită postări care incită direct la violență și ură?
Aceasta nu este un fenomen izolat. Amplificarea narațiunilor divizive și nocive este o temă recurentă. Scopul actorilor malițioși este deseori nu de a se angaja într-o dezbatere de bună-credință ci de a perturba, hărțui și polua ecosistemul informațional. Prin vizarea utilizatorilor legitimi cu un volum mare de răspunsuri și mențiuni, aceste conturi suspendate reușesc să injecteze spam, propagandă și conținut de ură în conversații, degradând experiența utilizatorului și potențial radicalizând privitori.
Provocarea pentru platforme precum X este extraordinară. Trebuie să navigheze complexitățile legilor globale, normelor culturale și tensiunea mereu prezentă între susținerea unei conversații deschise și prevenirea platformelor de a deveni vectori pentru rău. Tendințele actuale sugerează că un accent mai mare pe AI și o abordare mai puțin intervențională față de anumite tipuri de discurs creează un mediu permisiv pentru comportamentele malițioase. Fără o combinație mai eficientă și transparentă de supraveghere umană și instrumente tehnologice, diferența între retorica online și răul real este probabil să se lărgească.
În cele din urmă, eficiența moderării pe X și alte platforme de social media va depinde de angajamentul lor față de transparență, responsabilitate și o înțelegere nuanțată că libertatea de exprimare nu înseamnă libertate de consecințe. Pe măsură ce aceste platforme continuă să modeleze societatea noastră, standardele pe care le stabilesc și tehnologiile pe care le adoptează vor avea un impact de durată asupra capacității noastre colective de a comunica în siguranță și constructiv.
Întrebări frecvente
Care este principala diferență în felul în care conturile noi vs. cele vechi sunt suspendate pe X?
Cercetările indică faptul că X (fostul Twitter) este semnificativ mai proactiv în suspendarea conturilor nou create comparativ cu cele vechi. Multe conturi noi care se angajează în spam sau comportament nociv sunt suspendate în decurs de câteva zile de la crearea lor, sugerând că vechimea contului este o caracteristică cheie în sistemele automate de detectare ale platformei. Conturile mai vechi care se angajează în comportamente similare pot persista pentru o perioadă mai lungă înainte de a fi suspendate.
De ce moderarea prin AI nu este o soluție perfectă?
Moderarea prin AI, deși necesară pentru a gestiona vastitatea conținutului, suferă de câteva defecte cheie. Se luptă să înțeleagă nuanța, sarcasmul și contextul cultural, ducând la alarme false (semnalizare de conținut inofensiv) și alarme negative false (lipsa detectării discursului de ură real). Modelele AI pot, de asemenea, să moștenească prejudecăți din datele lor de instruire, afectând disproporționat comunitățile marginalizate. Acest lucru poate duce la aplicarea inconsecventă și nedreaptă a regulilor platformei.
S-au schimbat recent politicile de moderare ale X?
Da, de la achiziția de către Elon Musk, politicile de moderare ale X au suferit schimbări semnificative. Platforma a retras regulile sale împotriva dezinformării despre COVID-19 și nu mai clasifică misgendering-ul sau deadnaming-ul ca discurs de ură. Acest lucru a dus la o scădere dramatică a numărului de suspendări pentru conduită urâtă, chiar și în condițiile în care rapoartele utilizatorilor despre astfel de conținuturi au crescut. Compania a devenit, de asemenea, mai puțin transparentă, cu rapoarte mai scurte și acces restricționat la date pentru cercetători.
Care sunt principalele tipuri de conținut și comportament care duc la suspendare?
Comportamentele principale care duc la suspendarea unui cont includ spam-ul, activitatea coordonată neautentică și partajarea de conținut nociv. Acest lucru se manifestă adesea prin utilizarea excesivă a răspunsurilor și mențiunilor pentru a viza alți utilizatori, tweeting la o frecvență anormal de mare și postarea de conținut care se încadrează în categorii precum discurs de ură, hărțuire, incitare la violență și promovarea escrocheriilor (cum ar fi fraudele legate de criptomonede).






















