Como podemos navegar em um espaço digital que defende a livre expressão enquanto também precisamos proteger seus usuários de danos? Esta questão está no centro do debate em curso sobre a moderação de conteúdo na X (anteriormente Twitter), uma plataforma que se tornou um palco central para o discurso global, debate político e a rápida disseminação de informações. O desafio de encontrar esse equilíbrio é mais complexo do que nunca, moldado por tecnologias em evolução, políticas em mudança e eventos do mundo real que testam os limites da governança online.
O Cenário em Mudança da Moderação na X
Em um movimento significativo após uma pausa de dois anos, a X lançou um relatório de transparência em setembro de 2024, oferecendo uma visão das suas práticas de moderação atuais. Os dados revelam uma tendência perplexa: enquanto os relatos de usuários sobre conteúdo nocivo dispararam, as ações de aplicação da plataforma não acompanharam no mesmo ritmo.
Durante o primeiro semestre de 2024, os usuários sinalizaram mais de 224 milhões de contas e tweets, um aumento impressionante de 1.830% em comparação aos 11,6 milhões relatados no final de 2021. Apesar desse aumento, o número de suspensões de contas cresceu apenas cerca de 300%, de 1,3 milhão para 5,3 milhões. Essa disparidade sugere uma mudança fundamental na maneira como a X identifica e age sobre violações de políticas.
As mudanças são ainda mais iluminadas pelas políticas de plataforma em evolução. Sob nova liderança, regras sobre desinformação de COVID-19 foram revertidas, e ações como misgendering ou deadnaming não são mais classificadas como discurso de ódio. Essa redefinição tem um impacto direto nas métricas de aplicação. Por exemplo:
Conduta Odiosa: As suspensões por conduta odiosa caíram dramaticamente para apenas 2.361 contas, em comparação com 104.565 na segunda metade de 2021.
Segurança Infantil: De mais de 8,9 milhões de posts relatados por preocupações com segurança infantil, a X removeu apenas 14.571.
Esta nova abordagem, detalhada em um relatório condensado de 15 páginas, contrasta fortemente com as divulgações abrangentes de 50 páginas do passado. Ela aponta para um sistema lutando com um volume imenso de relatórios, enquanto opera sob um conjunto de regras revisado e, talvez, mais leniente.
A Mecânica de Suspensão: Como a X Decide?
Entender quem é suspenso e por que requer olhar além das estatísticas para os comportamentos subjacentes. Pesquisas sobre as dinâmicas de moderação durante eventos geopolíticos importantes, como a invasão russa de 2022 à Ucrânia e a eleição presidencial francesa, fornecem insights cruciais sobre os padrões operacionais da plataforma.
Estudos analisando mais de 270 milhões de tweets identificaram tendências claras na criação e suspensão de contas durante períodos de discurso controverso de alto volume. Durante esses períodos, há picos perceptíveis na criação de contas suspeitas, muitas das quais são suspensas logo após aparecerem.
Contas Novas vs. Antigas: Uma Postura Proativa
Uma das descobertas mais significativas é que o Twitter parece ser muito mais proativo em suspender contas recém-criadas em comparação com as mais antigas e estabelecidas. Muitas contas maliciosas são suspensas em apenas alguns dias após sua criação, sugerindo que a idade da conta é um fator chave nos sistemas de detecção da plataforma. A vida útil de uma conta suspensa muitas vezes depende do seu nível de atividade; contas novas e hiperativas podem ser sinalizadas e removidas mais rapidamente, enquanto contas antigas que se envolvem em comportamento semelhante podem persistir por mais tempo.
Essa abordagem proativa para novas contas é provavelmente uma estratégia para combater comportamentos coordenados e inautênticos, como redes de bots e campanhas de spam, que muitas vezes dependem de contas recém-criadas para amplificar suas mensagens antes de serem detectadas.
Comportamentos que Desencadeiam Suspensão
Contas suspensas, sejam novas ou antigas, tendem a exibir padrões comportamentais específicos que as distinguem dos usuários típicos. Estes incluem:
Uso Excessivo de Respostas e Menções: Em vez de criar conteúdo original, essas contas frequentemente inundam as respostas de usuários legítimos com spam, assédio ou propaganda.
Alta Frequência de Tweets: Usuários suspensos costumam tweetar a uma taxa muito mais alta do que os usuários ativos, indicando comportamento automatizado ou obsessivo. O tempo médio entre tweets de um usuário suspenso é significativamente menor.
Compartilhamento de Conteúdo Nocivo: Uma análise qualitativa revela que contas suspensas têm maior probabilidade de compartilhar conteúdo classificado como spam ou prejudicial (incluindo discurso de ódio, linguagem abusiva e agressividade) do que contas ativas.
Durante a eleição francesa de 2022, por exemplo, contas suspensas foram mais propensas a amplificar hashtags divisivas como #toutsaufmacron (qualquer um menos Macron). Da mesma forma, durante a fase inicial do conflito da Ucrânia, muitas contas suspensas foram encontradas promovendo spam relacionado a criptomoedas. Esses padrões mostram que a suspensão geralmente está ligada ao abuso claro da plataforma com a intenção de manipular conversas ou explorar a atenção dos usuários.
Uma Nota sobre a Transparência dos Dados
Pesquisadores enfrentam desafios significativos no estudo da moderação. Plataformas como a X não divulgam o tempo exato ou a razão específica para a suspensão de uma conta. Analistas geralmente devem usar proxies, como a última atividade visível de uma conta, para estimar quando foi removida. Além disso, a descontinuação do acesso gratuito à API para pesquisadores tornou mais difícil monitorar e analisar essas tendências de forma independente, levantando preocupações sobre a responsabilidade da plataforma.
A Ascensão da Moderação por IA: Uma Espada de Dois Gumes?
No cerne da estratégia de moderação da X está uma dependência crescente da inteligência artificial. A plataforma afirma usar uma "combinação de aprendizado de máquina e revisão humana", onde os sistemas de IA tomam ações diretas ou sinalizam conteúdo para moderadores humanos. Enquanto essa abordagem é necessária para lidar com o enorme volume de conteúdo, ela está repleta de desafios e dilemas éticos.
Sistemas de moderação por IA há muito tempo demonstram ser imperfeitos. Eles frequentemente lutam com as nuances da linguagem humana, levando a erros significativos:
Cegueira de Contexto: A IA frequentemente falha em entender sarcasmo, sátira ou linguagem codificada usada por comunidades marginalizadas, levando a falsos positivos onde conteúdo benigno é sinalizado como prejudicial.
Viés em Conjuntos de Dados: Muitos algoritmos são treinados em conjuntos de dados principalmente do Norte Global, o que pode resultar em insensibilidade cultural e linguística. Um memorando do Centro para Democracia e Tecnologia destacou como isso leva a uma precisão ruim de moderação em dialetos como o árabe magrebino.
Performance Inconsistente: Um estudo de 2021 da Oxford e do Instituto Alan Turing testou vários modelos de detecção de discurso de ódio por IA e encontrou lacunas de desempenho significativas. Alguns modelos, como a API Perspective do Google, tendiam a sinalizar em excesso conteúdo não odioso, enquanto outros subdetectavam casos claros de discurso de ódio.
Essas limitações podem explicar a queda acentuada nas ações contra discurso de ódio na X, à medida que a IA luta para identificar toda a gama de retórica prejudicial. As consequências são reais, como se viu quando a IA do Facebook bloqueou erroneamente anúncios de pequenas empresas em 2020 ou sinalizou posts do Museu de Auschwitz como violando padrões da comunidade em 2024. A dependência excessiva da IA não apenas falha em capturar atores maliciosos, mas também corre o risco de sufocar a expressão legítima, particularmente de comunidades que já enfrentam censura.
O Equilíbrio Ético da Automação
Podemos confiar em máquinas para fazer julgamentos morais sobre a comunicação humana? À medida que as plataformas automatizam cada vez mais a moderação, elas correm o risco de amplificar preconceitos existentes e tomar decisões opacas que impactam a livre expressão. Especialistas do Instituto AI Now defendem uma maior responsabilidade, pedindo que as plataformas adotem padrões éticos e aumentem a transparência em torno de seus sistemas de IA. Isso é especialmente crítico conforme essas decisões automatizadas moldam o discurso público em eventos chave, como eleições.
Enquanto os desafios na moderação digital são imensos, outros setores tecnológicos mostram como sistemas inteligentes podem ser implantados com resultados mais previsíveis e benéficos. No campo da energia renovável, por exemplo, empresas como a Les Nouveaux Installateurs utilizam tecnologia não para a filtragem de conteúdos ambíguos, mas para a otimização concreta. Suas soluções inteligentes, incluindo gerenciamento inteligente de saída de painéis solares, carga inteligente para veículos elétricos e uso otimizado de bombas de calor, capacitam os usuários a controlar seu consumo de energia de forma eficiente. Isso é alcançado através de dados claros, monitoramento remoto confiável e tecnologia que proporciona resultados tangíveis e positivos—um contraste marcante com o mundo frequentemente opaco e propenso a erros da moderação de conteúdo por IA.
Consequências no Mundo Real: Quando o Discurso Online Transborda
O debate sobre a moderação não é meramente acadêmico; ele tem consequências tangíveis no mundo real. Um caso recente no Reino Unido destaca o perigoso abismo entre a política da plataforma e a segurança pública. Após motins amplamente alimentados por desinformação nas redes sociais, uma mulher foi processada por uma postagem na X que chamava para "tacar fogo em todos os f**** hotéis cheios de b*****."
Deportação em massa agora, taque fogo em todos os f**** hotéis cheios de b***** por mim, enquanto estiver nisso leve o traidor do governo e os políticos com eles. Fico fisicamente doente sabendo o que essas famílias terão que suportar agora. Se isso me torna racista, que seja.
A usuária mais tarde se declarou culpada por incitar ódio racial. No entanto, quando sua postagem foi relatada à X, a plataforma determinou que ela não violava suas regras. Este incidente ilustra claramente um cenário onde conteúdo considerado ilegal por um tribunal é considerado aceitável por uma plataforma de mídia social, levantando questões críticas sobre responsabilidade corporativa e a definição de "liberdade de expressão." É justo para uma plataforma permitir postagens que incitam diretamente à violência e ao ódio?
Este não é um fenômeno isolado. A amplificação de narrativas divisivas e prejudiciais é um tema recorrente. O objetivo dos atores maliciosos muitas vezes não é engajar em um debate de boa-fé, mas interromper, assediar e poluir o ecossistema de informação. Ao direcionar usuários legítimos com um alto volume de respostas e menções, essas contas suspensas injetam com sucesso spam, propaganda e conteúdo odioso em conversas normais, degradando a experiência do usuário e potencialmente radicalizando observadores.
O desafio para plataformas como a X é imenso. Eles devem navegar pelas complexidades das leis globais, normas culturais e a tensão sempre presente entre fomentar a conversa aberta e prevenir que suas plataformas se tornem vetores de dano. As tendências atuais sugerem que um maior ênfase em IA e uma abordagem mais relaxada para certos tipos de discurso estão criando um ambiente permissivo para comportamentos maliciosos. Sem uma combinação mais eficaz e transparente de supervisão humana e ferramentas tecnológicas, a lacuna entre retórica online e danos no mundo real provavelmente se ampliará.
Em última análise, a eficácia da moderação na X e em outras plataformas de mídia social dependerá de seu compromisso com a transparência, responsabilidade e uma compreensão nuances de que liberdade de expressão não significa liberdade de consequências. À medida que essas plataformas continuam a moldar nossa sociedade, os padrões que estabelecem e as tecnologias que empregam terão um impacto duradouro em nossa capacidade coletiva de se comunicar de maneira segura e construtiva.
Perguntas Frequentes
Qual é a principal diferença na suspensão de contas novas versus antigas na X?
Pesquisas indicam que a X (anteriormente Twitter) é significativamente mais proativa em suspender contas recém-criadas em comparação com as mais antigas. Muitas novas contas que se envolvem em spam ou comportamento nocivo são suspensas em poucos dias após sua criação, sugerindo que a idade da conta é uma característica chave nos sistemas de detecção automatizados da plataforma. Contas antigas que se envolvem em comportamento semelhante podem persistir por um período mais longo antes de enfrentarem a suspensão.
Por que a moderação por IA não é uma solução perfeita?
A moderação por IA, embora necessária para lidar com a vasta escala de conteúdos, sofre de várias falhas principais. Ela tem dificuldades para entender nuances, sarcasmos e contextos culturais, levando tanto a falsos positivos (sinalizando conteúdos inofensivos) quanto a falsos negativos (perdendo discursos de ódio reais). Os modelos de IA também podem herdar preconceitos de seus dados de treinamento, afetando desproporcionalmente comunidades marginalizadas. Isso pode levar a uma aplicação inconsistente e injusta das regras da plataforma.
As políticas de moderação da X mudaram recentemente?
Sim, desde a aquisição por Elon Musk, as políticas de moderação da X passaram por mudanças significativas. A plataforma reverteu suas regras contra desinformação de COVID-19 e não classifica mais misgendering ou deadnaming como discurso de ódio. Isso resultou em uma diminuição dramática no número de suspensões por conduta odiosa, mesmo com o aumento dos relatos de usuários sobre tal conteúdo. A empresa também se tornou menos transparente, com relatórios mais curtos e acesso restrito a dados para pesquisadores.
Quais são os principais tipos de conteúdo e comportamento que levam à suspensão?
Os principais comportamentos que levam à suspensão de uma conta incluem spamming, atividade inautêntica coordenada e compartilhamento de conteúdo prejudicial. Isso frequentemente se manifesta como uso excessivo de respostas e menções para direcionar outros usuários, tweeter em uma frequência anormalmente alta e postar conteúdo que se enquadra em categorias como discurso de ódio, assédio, incitação à violência e promoção de golpes (como fraudes de criptomoeda).






















