Jak możemy poruszać się w cyfrowej przestrzeni, która promuje wolność wypowiedzi, a jednocześnie musi chronić swoich użytkowników przed szkodami? To pytanie leży u podstaw trwającej debaty na temat moderacji treści na X (dawniej Twitter), platformie, która stała się centralnym forum dla globalnych dyskusji, debat politycznych i szybkiego rozprzestrzeniania informacji. Wyzwaniem jest znalezienie równowagi, co jest bardziej skomplikowane niż kiedykolwiek, kształtowane przez rozwijające się technologie, zmieniające się polityki i wydarzenia w rzeczywistości testujące granice zarządzania online.
Zmieniający się krajobraz moderacji na X
W istotnym kroku po dwuletniej przerwie, X opublikował raport przejrzystości we wrześniu 2024 roku, przedstawiający aktualne praktyki moderacji. Dane ujawniają zaskakujący trend: chociaż liczba zgłoszeń niebezpiecznych treści od użytkowników gwałtownie wzrosła, działania egzekwujące platformy nie dotrzymują tempa.
W pierwszej połowie 2024 roku użytkownicy oznaczyli ponad 224 miliony kont i tweetów, co stanowi oszałamiający wzrost o 1830% w porównaniu do 11,6 miliona zgłoszonych pod koniec 2021 roku. Pomimo tego wzrostu, liczba zawieszeń kont wzrosła tylko o około 300%, z 1,3 miliona do 5,3 miliona. Ta rozbieżność sugeruje fundamentalną zmianę w sposobie, w jaki X identyfikuje i reaguje na naruszenia polityki.
Zmiany są dodatkowo naświetlane przez ewoluujące polityki platformy. Pod nowym kierownictwem, zasady dotyczące dezinformacji o COVID-19 zostały cofnięte, a działania takie jak misgendering czy deadnaming nie są już klasyfikowane jako mowa nienawiści. Ta redefinicja ma bezpośredni wpływ na statystyki egzekwowania. Na przykład:
Zachowanie nienawistne: Zawieszenia za zachowania nienawistne spadły dramatycznie do zaledwie 2361 kont, w porównaniu do 104 565 w drugiej połowie 2021 roku.
Bezpieczeństwo dzieci: Spośród ponad 8,9 miliona zgłoszonych postów dotyczących obaw o bezpieczeństwo dzieci, X usunął tylko 14 571.
To nowe podejście, opisane w skróconym raporcie z 15 stron, zdecydowanie kontrastuje z pełnymi ujawnieniami na 50 stron z przeszłości. Wskazuje to na system zmagający się z ogromną ilością zgłoszeń, działający według zrewidowanego i nieco bardziej łagodnego zestawu zasad.
Mechanika zawieszeń: jak X podejmuje decyzje?
Zrozumienie, kto zostaje zawieszony i dlaczego, wymaga spojrzenia poza statystyki na podstawowe zachowania. Badania nad dynamiką moderacji podczas głównych wydarzeń geopolitycznych, takich jak rosyjska inwazja na Ukrainę w 2022 roku i wybory prezydenckie we Francji, dostarczają istotnych spostrzeżeń na temat wzorców operacyjnych platformy.
Badania analizujące ponad 270 milionów tweetów zidentyfikowały wyraźne trendy w tworzeniu i zawieszaniu kont podczas okresów intensywnej, kontrowersyjnej dyskusji. W tych okresach zauważalne są wybuchy w tworzeniu podejrzanych kont, z których wiele jest zawieszanych wkrótce po ich pojawieniu się.
Nowe vs. stare konta: proaktywne podejście
Jednym z najważniejszych odkryć jest to, że Twitter wydaje się być znacznie bardziej proaktywny w zawieszaniu nowoutworzonych kont w porównaniu do starszych, już ustabilizowanych. Wiele złośliwych kont jest zawieszanych w ciągu zaledwie kilku dni od ich utworzenia, co sugeruje, że wiek konta jest kluczowym czynnikiem w systemach wykrywania platformy. Długość życia zawieszonego konta często zależy od jego poziomu aktywności; nadaktywne nowe konta mogą być szybciej flagowane i usuwane, podczas gdy starsze konta angażujące się w podobne zachowania mogą przetrwać dłużej.
To proaktywne podejście do nowych kont jest prawdopodobnie strategią zwalczania skoordynowanych działań nieautentycznych, takich jak sieci botów i kampanie spamowe, które często polegają na świeżo utworzonych kontach do wzmacniania swoich wiadomości, zanim zostaną wykryte.
Zachowania wyzwalające zawieszenie
Zawieszone konta, zarówno nowe, jak i stare, wykazują określone wzorce zachowań, które odróżniają je od typowych użytkowników. Obejmują one:
Nadmierne używanie odpowiedzi i wzmianek: Zamiast tworzyć oryginalne treści, te konta często zalewają odpowiedzi prawdziwych użytkowników spamem, napastowaniem czy propagandą.
Wysoka częstotliwość tweetowania: Zawieszeni użytkownicy często tweetują z dużo wyższą częstotliwością niż aktywni użytkownicy, wskazując na zautomatyzowane lub obsesyjne zachowanie. Średni czas między tweetami dla zawieszonego użytkownika jest znacznie krótszy.
Udostępnianie szkodliwych treści: Jakościowa analiza ujawnia, że zawieszone konta znacznie częściej dzielą się treściami sklasyfikowanymi jako spam lub szkodliwe (w tym mowa nienawiści, obraźliwy język i agresja) niż aktywne konta.
Podczas wyborów francuskich w 2022 roku, na przykład, zawieszone konta częściej wzmacniały podzielne hashtagi jak #toutsaufmacron (każdy tylko nie Macron). Podobnie, w początkowej fazie konfliktu na Ukrainie, wiele zawieszonych kont okazało się promować spam związany z kryptowalutami. Te wzorce pokazują, że zawieszenie jest często powiązane z jasnym nadużyciem platformy mającym na celu manipulowanie rozmowami lub wykorzystywanie uwagi użytkowników.
Uwagi o przejrzystości danych
Badacze napotykają znaczące wyzwania w badaniach moderacji. Platformy takie jak X nie ujawniają dokładnego czasu ani konkretnego powodu zawieszenia konta. Analitycy często muszą używać nietypowych wskaźników, takich jak ostatnia widoczna aktywność konta, aby oszacować, kiedy zostało usunięte. Co więcej, zaprzestanie darmowego dostępu do API dla badaczy utrudniło niezależne monitorowanie i analizowanie tych trendów, budząc obawy o odpowiedzialność platformy.
Wzrost moderacji AI: obosieczna broń?
W centrum strategii moderacji X znajduje się rosnące poleganie na sztucznej inteligencji. Platforma twierdzi, że używa "połączenia uczenia maszynowego i przeglądu człowieka", gdzie systemy AI albo podejmują bezpośrednie działania, albo flagują treści do przeglądu przez moderatorów. Chociaż podejście to jest koniecznie, aby poradzić sobie z ogromem treści, napotykane są istotne wyzwania i dylematy etyczne.
Systemy moderacji AI od dawna udowadniały, że są niedoskonałe. Często mają trudności z uchwyceniem niuansów ludzkiego języka, co prowadzi do poważnych błędów:
Ślepota kontekstualna: AI często nie rozumie ironii, satyry lub kodowanego języka używanego przez społeczności marginalizowane, co prowadzi do fałszywych alarmów, gdzie nieszkodliwe treści są oznaczane jako szkodliwe.
Stronniczość w zestawach danych: Wiele algorytmów jest trenowanych na zestawach danych głównie z północy globu, co może prowadzić do kulturowej i językowej niewrażliwości. Notatka z Centrum Demokracji i Technologii zwróciła uwagę, jak to prowadzi do niskiej dokładności moderacji w dialektach takich jak arabski maghrebski.
Niespójna wydajność: Badanie z 2021 roku przez Oksford i Instytut Alana Turinga przetestowało kilka modeli wykrywania mowy nienawiści AI i znalazło znaczne luki w wydajności. Niektóre modele, jak API Google Perspective, tendencjonujące do nadmiernego zaznaczania nieszkodliwych treści, podczas gdy inne niedostatecznie wykrywają oczywiste przykłady mowy nienawiści.
Te ograniczenia mogą wyjaśniać gwałtowny spadek działań przeciwko mowie nienawiści na X, ponieważ AI ma trudności z identyfikacją pełnego spektrum szkodliwej retoryki. Konsekwencje są realne, czego przykładem jest sytuacja, gdy AI Facebooka błędnie blokowało reklamy małych firm w 2020 roku czy oznaczało posty z Muzeum Auschwitz jako naruszające standardy społeczności w 2024 roku. Nadmierne poleganie na AI nie tylko nie łapie szkodliwych aktorów, ale także grozi tłumieniem legalnej ekspresji, szczególnie wśród społeczności, które już borykają się z cenzurą.
Etyczny dylemat automatyzacji
Czy możemy ufać maszynom, by dokonywały moralnych ocen dotyczących ludzkiej komunikacji? W miarę jak platformy coraz bardziej automatyzują moderację, ryzykują wzmacnianie istniejących uprzedzeń i podejmowanie nieprzejrzystych decyzji, które wpływają na wolność wypowiedzi. Eksperci z Instytutu AI Now wzywają do większej odpowiedzialności, apelując o przyjęcie przez platformy standardów etycznych i zwiększenie przejrzystości wokół ich systemów AI. Jest to szczególnie ważne, ponieważ te automatyczne decyzje kształtują debatę publiczną wokół kluczowych wydarzeń, takich jak wybory.
Chociaż wyzwania w moderacji cyfrowej są ogromne, inne sektory technologiczne pokazują, jak inteligentne systemy mogą być wprowadzone z bardziej przewidywalnymi i korzystnymi wynikami. W branży energii odnawialnej na przykład firmy takie jak Les Nouveaux Installateurs wykorzystują technologię nie do filtrowania niejasnych treści, ale do konkretnej optymalizacji. Ich inteligentne rozwiązania, w tym inteligentne zarządzanie wydajnością paneli słonecznych, inteligentne ładowanie pojazdów elektrycznych i optymalizacja użycia pomp ciepła, pozwalają użytkownikom na efektywne kontrolowanie zużycia energii. Osiąga się to poprzez wyraźne dane, niezawodny zdalny monitoring i technologię, która zapewnia namacalne, pozytywne rezultaty — wyraźny kontrast do często nieprzejrzystego i podatnego na błędy świata moderacji treści przez AI.
Konsekwencje w rzeczywistym świecie: kiedy mowa online przekształca się w działania
Debata na temat moderacji nie jest jedynie akademicka; ma ona namacalne, rzeczywiste konsekwencje. Niedawny przypadek w Wielkiej Brytanii podkreśla niebezpieczny rozdźwięk między polityką platformy a bezpieczeństwem publicznym. Po zamieszkach w dużej mierze wywołanych dezinformacją w mediach społecznościowych, kobieta została oskarżona o post na X, który wzywał do "podpalania wszystkich przeklętych hoteli pełnych tych b******."
Masa deportacji teraz, podpalcie wszystkie przek






















