🇧🇷 Português (Brasil)

Categoria:

Moderação de redes sociais

3 de dez. de 2025

Moderação do X (Twitter) sob Elon Musk: Liberdade de expressão e direitos digitais

Experimente grátis

14 dias grátis

Conteúdo

Resuma o conteúdo com

ChatGPT

Claude

Gêmeos

Entender

Plataformas de mídia social estão se tornando zonas sem lei onde a liberdade de expressão é usada como pretexto para disseminar ódio? Esta questão é particularmente intensa para X (anteriormente Twitter), que passou por uma mudança radical na regulamentação de conteúdo. Entre a promessa de mais liberdade de expressão e abusos muito reais, as novas políticas da plataforma levantam preocupações profundas sobre a segurança dos usuários e a responsabilidade dos gigantes da tecnologia. Esta evolução, longe de ser anedótica, está redefinindo os limites de nosso espaço público digital.

Moderação no X: um ponto de virada radical na era Musk

Desde a aquisição por Elon Musk, X transformou sua abordagem de moderação de conteúdo, afastando-se de políticas estabelecidas para adotar uma filosofia de “quase total liberdade de expressão”. Essa mudança resultou em uma redução drástica das equipes de moderação humana, afrouxamento das regras e maior dependência de sistemas automatizados. Anteriormente, a plataforma publicava relatórios detalhados de transparência, muitas vezes com cerca de cinquenta páginas, fornecendo uma visão granular das ações tomadas contra desinformação, discurso de ódio e outros conteúdos prejudiciais. Hoje, a comunicação é mais escassa e os relatórios são mais breves, usando novas métricas que dificultam a comparação direta.

Essa mudança ideológica teve consequências concretas nos tipos de conteúdo tolerado. Por exemplo, a plataforma desmantelou sua política contra desinformação sobre COVID-19. Além disso, práticas como o uso incorreto de gênero ou deadnaming (uso do nome de nascimento de uma pessoa transgênero sem consentimento) não são mais sistematicamente classificadas como discurso de ódio. Essas decisões, tomadas em nome de uma expressão menos restrita, abriram espaço para o ressurgimento de conteúdos problemáticos, deixando muitos usuários e observadores preocupados com a direção que a rede social está tomando.

Essa nova era contrasta fortemente com o passado, onde, embora imperfeito, buscava-se um equilíbrio entre proteger os usuários e a liberdade de expressão. O desmantelamento de conselhos consultivos e a reintegração de contas anteriormente banidas por violações graves das regras enviaram uma mensagem clara: a prioridade já não é a curadoria rigorosa de conteúdo, mas a minimização das intervenções, mesmo que discursos tóxicos proliferem.

O que os números dizem? Análise do último relatório de transparência

O primeiro relatório de transparência publicado por X em dois anos, cobrindo o primeiro semestre de 2024, apresenta um quadro preocupante. Os números brutos revelam um enorme desconexão entre os relatórios dos usuários e as ações da plataforma. Por um lado, os relatórios explodiram, com mais de 224 milhões de contas e tweets relatados pelos usuários, em comparação com apenas 11,6 milhões no segundo semestre de 2021 — um aumento gigantesco de quase 1830%.

Por outro lado, as medidas de aplicação não acompanharam essa tendência. O número de suspensões de contas aumentou apenas 300% no mesmo período, subindo de 1,3 milhão para 5,3 milhões. A discrepância é ainda mais marcante em áreas críticas como segurança infantil: de mais de 8,9 milhões de posts relatados por colocar menores em risco, apenas 14.571 foram removidos. Em relação ao conteúdo odioso, o contraste é igualmente acentuado: a plataforma suspendeu apenas 2.361 contas por esse motivo, em comparação com 104.565 no segundo semestre de 2021.

Embora X justifique parcialmente essas lacunas por mudanças nas definições e métodos de medição, a tendência subjacente é inegável: ação de moderação significativamente reduzida diante de um número crescente de relatórios. Essa situação alimenta temores de um ambiente digital menos seguro, onde os conteúdos mais perigosos — especialmente relacionados à exploração infantil e incitação ao ódio — estão escorregando pelas frestas cada vez mais.

[Imagem: Gráfico mostrando a crescente lacuna entre relatórios dos usuários e ações de moderação no X]

IA no comando: a nova espinha dorsal da regulamentação de conteúdo

Para compensar a redução de pessoal humano, X aposta fortemente na inteligência artificial. A plataforma afirma que sua moderação é baseada em uma “combinação de aprendizado de máquina e revisão humana”, com IA atuando diretamente ou sinalizando conteúdo para verificação adicional. No entanto, essa crescente dependência de algoritmos levanta questões fundamentais sobre sua capacidade de lidar com a complexidade e nuances da linguagem humana.

Limitações da moderação automatizada

Apesar dos avanços, os sistemas automatizados são conhecidos por seus erros. Eles têm dificuldade em interpretar corretamente sarcasmo, linguagem codificada ou contexto cultural. Um estudo da Universidade de Oxford e do Instituto Alan Turing mostrou que modelos de IA para detecção de discurso de ódio têm deficiências significativas: alguns detectam em excesso ao sinalizar erroneamente conteúdo benigno, enquanto outros detectam menos, deixando passar discursos claramente odiosos.

Exemplos de falhas abundam em outras plataformas:

  • Em 2020, os sistemas do Facebook bloquearam anúncios de pequenas empresas em dificuldades.

  • Este ano, o algoritmo da Meta sinalizou erroneamente postagens do Memorial de Auschwitz como violadoras de seus padrões.

Outro grande problema é o viés nos dados de treinamento. A maioria dos algoritmos é desenvolvida a partir de conjuntos de dados majoritariamente provenientes de países do Norte, tornando-os menos eficazes na análise de dialetos ou contextos culturais, como o árabe magrebino. Essa insensibilidade cultural pode levar a uma moderação desigual e injusta.

Impacto em comunidades marginalizadas

Essa dependência excessiva da IA corre o risco de prejudicar desproporcionalmente comunidades marginalizadas. Sua linguagem, que pode incluir termos reapropriados ou jargão interno, é frequentemente mal interpretada e erroneamente sinalizada como ofensiva. Enquanto isso, as formas sutis e codificadas de ódio direcionadas a eles frequentemente escapam dos filtros algorítmicos. O resultado é um duplo problema: censura de sua expressão legítima e proteção inadequada contra o assédio que enfrentam. Confiar julgamentos morais complexos a máquinas não só corre o risco de infringir a liberdade de expressão, mas também de amplificar as desigualdades que as plataformas afirmam combater.

IA, uma ferramenta de dois gumes

A inteligência artificial é uma ferramenta poderosa, mas não é uma solução milagrosa. Sem supervisão humana rigorosa, dados de treinamento diversos e políticas claras, os sistemas automatizados de moderação podem agravar os problemas que pretendem resolver, criando um ambiente que é ao mesmo tempo muito restritivo para alguns e muito permissivo para outros.

Consequências reais: quando o discurso online alimenta a violência

A leniência na moderação do X não é apenas um debate teórico; tem repercussões tangíveis no mundo real. Um caso recente no Reino Unido ilustra isso dramaticamente. Em meio a distúrbios parcialmente desencadeados por desinformação nas mídias sociais, uma mulher postou um tweet chamando para "tacar fogo em todos os malditos hotéis cheios de canalhas".

A mensagem completa dela era inequívoca:

"Deportação em massa agora, tacar fogo em todos os malditos hotéis cheios de canalhas, eu não ligo, e enquanto isso, levem o governo e os políticos traidores com eles. [...] Se isso me faz racista, que seja."

Essa mensagem foi reportada ao X por violar suas regras. A resposta da plataforma? O tweet não violou nenhuma regra. No entanto, o sistema judiciário do Reino Unido viu isso de forma muito diferente. A autora foi processada e se declarou culpada de incitação ao ódio racial. Este exemplo destaca uma lacuna alarmante entre o que a lei considera uma infração criminal séria e o que uma plataforma global líder considera aceitável. Permitir tais chamados à violência online corre o risco de transformá-los em atos reais, colocando vidas em perigo.

A responsabilidade das plataformas em jogo

Quando um conteúdo é considerado ilegal por um tribunal, mas é permitido por uma plataforma, a questão da responsabilidade dessa plataforma surge diretamente. A imunidade frequentemente concedida aos anfitriões de conteúdo está sendo cada vez mais desafiada, especialmente quando sua frouxidão contribui para a violência offline.

Um desafio para todo o ecossistema digital

As dificuldades de moderação no X não são um caso isolado. Outros gigantes como a Meta (Facebook, Instagram) reconhecem que seus algoritmos muitas vezes falham em identificar corretamente desinformação ou discurso de ódio, gerando tanto falsos positivos quanto conteúdos prejudiciais não detectados. O problema é sistêmico e agravado pela tendência da indústria de reduzir custos substituindo moderadores humanos por soluções de IA que são mais baratas, mas também menos confiáveis.

Esse desafio é agravado pela crescente opacidade. O fechamento do CrowdTangle em agosto de 2024, uma ferramenta da Meta que permitia aos pesquisadores monitorar desinformação, e a decisão de Elon Musk de cobrar pelo acesso à API do X em 2023 limitaram significativamente a capacidade da sociedade civil e acadêmica de estudar esses fenômenos. Sem acesso a dados, torna-se quase impossível avaliar a escala do problema e responsabilizar as plataformas. Com principais eleições se aproximando ao redor do mundo, essa falta de transparência é particularmente preocupante, pois dificulta os esforços para combater campanhas de influência e manipulação.

Rumo a sistemas mais inteligentes e responsáveis?

A crise de moderação de conteúdo nos instiga a reconsiderar o design de sistemas mais confiáveis e responsáveis, digitais ou não. Buscar um equilíbrio entre tecnologia, expertise humana e responsabilidade ética é uma questão central de nosso tempo. Essa busca por otimização é encontrada em campos muito diferentes, como a transição energética.

Nesse setor, empresas como Les Nouveaux Installateurs exemplificam como uma abordagem integrada pode fornecer soluções robustas. Seu trabalho não envolve apenas a instalação de painéis solares, mas o design de um ecossistema energético inteligente para cada casa. Eles oferecem suporte completo, desde estudos energéticos iniciais até o monitoramento remoto das instalações. Suas soluções incorporam tecnologias de ponta, como controle inteligente que otimiza o autoconsumo, estações de carregamento para veículos elétricos e bombas de calor, tudo gerido por meio de um aplicativo dedicado.

Este paralelo é instrutivo. Assim como Les Nouveaux Installateurs combinam performance tecnológica (painéis, inversores, controle) com expertise humana indispensável (estudo personalizado, procedimentos administrativos, instalação por equipes qualificadas RGE), o futuro de um espaço digital saudável provavelmente reside em um modelo híbrido. Uma poderosa IA para processar volumes massivos de dados, supervisionada e complementada por moderadores humanos treinados que entendem contexto, nuances culturais e questões éticas. Combinando o melhor da máquina e do humano, podemos esperar construir sistemas mais justos e seguros.

Conselho de especialista: pense no ecossistema como um todo

Seja gerenciando o consumo de energia ou a presença online, uma visão sistêmica é essencial. Para a transição energética, isso significa não apenas instalar painéis, mas otimizar tudo com soluções de controle, armazenamento (bateria virtual) e equipamentos eficientes como bombas de calor. Les Nouveaux Installateurs oferecem uma abordagem chave na mão, garantindo máxima coerência e eficiência para seu projeto energético.

O debate sobre moderação de conteúdo no X revela uma tensão mais ampla entre inovação tecnológica e responsabilidade social. As escolhas das plataformas impactam diretamente a qualidade de nosso debate público e a segurança de nossas sociedades. O modelo atual, tendendo para automação excessiva e desengajamento humano, mostra sérias limitações. O futuro provavelmente exigirá uma regulamentação mais rigorosa, maior transparência das empresas de tecnologia e um retorno a uma visão onde a tecnologia serve para proteger os usuários em vez de expô-los ao perigo.

Perguntas frequentes sobre moderação de conteúdo no X

Quais são as principais mudanças na moderação de conteúdo no X?

Desde a aquisição por Elon Musk, as principais mudanças incluem uma redução significativa das equipes humanas de moderação, afrouxamento das regras (notadamente sobre desinformação sobre COVID e uso incorreto de gênero), aumento da dependência de IA e uma notável diminuição nas ações de moderação (suspensões, remoções) apesar de um aumento nos relatórios dos usuários.

A IA é uma solução viável para a moderação de conteúdo?

Atualmente, a IA sozinha não é uma solução viável. Os algoritmos têm dificuldade em captar as nuances da linguagem humana, como sarcasmo e contexto cultural, levando tanto à censura de conteúdo legítimo quanto à falha em detectar discurso de ódio sutil. Especialistas concordam que um modelo híbrido combinando IA com supervisão humana qualificada é essencial para uma moderação eficaz e justa.

Quais são as implicações dessas políticas para a liberdade de expressão?

A visão promovida por X de “liberdade de expressão absoluta” paradoxalmente ameaça a fala de muitos usuários. Ao permitir a proliferação de discurso de ódio, assédio e desinformação, a plataforma se torna um ambiente hostil, especialmente para minorias e grupos marginalizados que podem ser silenciados. A verdadeira liberdade de expressão exige um ambiente seguro onde todos possam falar sem temer por sua segurança.

Sobre o autor

Jason

Criador de conteúdo em

Blabla.ai

Obtenha mais vendas pelas redes sociais

Obtenha mais vendas pelas redes sociais

Obtenha mais vendas pelas redes sociais

Com o Blabla, impulsione as vendas no piloto automático, acelere seu crescimento e proteja sua marca tudo em uma plataforma.

Não é necessário cartão de crédito

Comece em 3 passos simples

Comece em 3 passos simples

Comece em 3 passos simples

1

2

3

Inscreva-se gratuitamente

Cadastre-se em apenas alguns segundos e libere o acesso às poderosas ferramentas de automação da Blabla sem nenhuma complicação de configuração.

1

2

3

Inscreva-se gratuitamente

Cadastre-se em apenas alguns segundos e libere o acesso às poderosas ferramentas de automação da Blabla sem nenhuma complicação de configuração.

1

2

3

Inscreva-se gratuitamente

Cadastre-se em apenas alguns segundos e libere o acesso às poderosas ferramentas de automação da Blabla sem nenhuma complicação de configuração.

1

Inscreva-se gratuitamente

Comece seu teste gratuito e desbloqueie o acesso às poderosas ferramentas de automação da Blabla imediatamente — sem necessidade de configuração.

2

Conecte suas redes

Conecte todas as suas contas sociais em segundos e reúna tudo em um só lugar para acesso unificado.

3

Vá ao ar em minutos

Entre no ar rapidamente e veja o Blabla lidar com comentários, DMs e respostas a anúncios enquanto você foca em escalar seu negócio.

Não é necessário cartão de crédito

Impulsione vendas

no piloto automático

Transforme seus seguidores em clientes iniciando a conversa certa no momento certo.

Decole

seu crescimento

Aumente seu alcance com maior engajamento e resultados mensuráveis.

Proteger

sua marca

Filtre comentários sensíveis, proteja sua imagem, e mantenha sua e-reputação segura.

Impulsione vendas

no piloto automático

Transforme mais visitantes em clientes iniciando conversas de vendas no momento certo.

Decole

seu crescimento

Aumente o alcance do seu conteúdo impulsionando maior engajamento e resultados mensuráveis

Proteger

sua marca

Acompanhe conversas, bloqueie negatividade, e garanta que cada interação reflita os valores da sua marca.

Impulsione vendas

no piloto automático

Transforme mais visitantes em clientes iniciando conversas de vendas no momento certo.

Decole

seu crescimento

Aumente o alcance do seu conteúdo impulsionando maior engajamento e resultados mensuráveis

Proteger

sua marca

Acompanhe conversas, bloqueie negatividade, e garanta que cada interação reflita os valores da sua marca.

Aproveite ao máximo cada conversa

Aproveite ao máximo cada conversa

Aproveite ao máximo cada conversa

Comece agora gratuitamente

Comece agora gratuitamente

Comece agora gratuitamente

Usado pelos melhores

agências

criadores

marcas

agências

diário

Usado pelos melhores

agências

criadores

marcas

agências

diário

Não é necessário cartão de crédito

Cancele com 1 clique

Configure em minutos

Suporte 24/7

Transforme cada conversa em receita.

Idioma

🇧🇷 Português (Brasil)

© Blabla. Todos os direitos reservados.

Design: Poulpo

Transforme cada conversa em receita.

EM BREVE!

Idioma

🇧🇷 Português (Brasil)

© Blabla. Todos os direitos reservados.

Design: Poulpo

Transforme cada conversa em receita.

EM BREVE!

Idioma

🇧🇷 Português (Brasil)

© Blabla. Todos os direitos reservados.

Design: Poulpo