¿Están convirtiéndose las plataformas de redes sociales en zonas sin ley donde la libertad de expresión se utiliza como pretexto para difundir odio? Esta pregunta es especialmente crítica para X (anteriormente Twitter), que ha experimentado un cambio radical en la regulación de contenido. Entre la promesa de una libertad de expresión más amplia y los abusos muy reales, las nuevas políticas de la plataforma plantean profundas preocupaciones sobre la seguridad de los usuarios y la responsabilidad de los gigantes tecnológicos. Esta evolución, lejos de ser anecdótica, está redefiniendo los límites de nuestro espacio público digital.
Moderación en X: un punto de inflexión radical en la era Musk
Desde la adquisición por parte de Elon Musk, X ha transformado su enfoque de moderación de contenido, alejándose de las políticas establecidas para adoptar una filosofía de “casi absoluta libertad de expresión”. Este cambio ha resultado en una drástica reducción de los equipos de moderación humana, un relajamiento de las reglas y una mayor dependencia de los sistemas automatizados. Anteriormente, la plataforma publicaba informes de transparencia detallados, a menudo de cincuenta páginas, proporcionando una vista detallada de las acciones tomadas contra la desinformación, el discurso de odio y otros contenidos perjudiciales. Hoy en día, la comunicación es más escasa y los informes son más breves, utilizando nuevas métricas que dificultan las comparaciones directas.
Este giro ideológico ha tenido consecuencias concretas en los tipos de contenido tolerado. Por ejemplo, la plataforma desmanteló su política contra la desinformación sobre COVID-19. Además, prácticas como nombrar incorrectamente el género o el nombre de nacimiento de una persona transgénero sin consentimiento ya no se clasifican sistemáticamente como discurso de odio. Estas decisiones, tomadas en nombre de un discurso menos restringido, han abierto la puerta a un resurgimiento de contenido problemático, dejando a muchos usuarios y observadores preocupados por la dirección que está tomando la red social.
Esta nueva era contrasta fuertemente con el pasado, donde, aunque imperfecto, se buscaba un equilibrio entre proteger a los usuarios y la libertad de expresión. El desmantelamiento de los consejos asesores y la reinstalación de cuentas previamente prohibidas por violaciones graves de las normas enviaron una señal clara: la prioridad ya no es la curaduría rigurosa de contenido, sino minimizar las intervenciones, incluso si florece el discurso tóxico.
¿Qué dicen los números? Análisis del último informe de transparencia
El primer informe de transparencia publicado por X en dos años, que cubre el primer semestre de 2024, presenta un panorama inquietante. Los números brutos revelan una desconexión masiva entre los reportes de usuarios y las acciones de la plataforma. Por un lado, los reportes han explotado, con más de 224 millones de cuentas y tweets reportados por los usuarios, en comparación con solo 11.6 millones en el segundo semestre de 2021 — un aumento asombroso de casi el 1830%.
Por otro lado, las medidas de aplicación no han seguido esta tendencia. El número de suspensiones de cuentas ha aumentado solo un 300% en el mismo periodo, pasando de 1.3 millones a 5.3 millones. La brecha es aún más llamativa en áreas críticas como la seguridad infantil: de más de 8.9 millones de publicaciones reportadas por poner en peligro a menores, solo 14,571 fueron eliminadas. En cuanto al contenido de odio, el contraste es igual de agudo: la plataforma suspendió solo 2,361 cuentas por esta razón, en comparación con 104,565 en el segundo semestre de 2021.
Aunque X justifica en parte estas brechas por cambios en definiciones y métodos de medición, la tendencia subyacente es innegable: una acción de moderación significativamente reducida frente a un creciente número de reportes. Esta situación alimenta temores de un entorno digital menos seguro donde el contenido más peligroso—especialmente relacionado con la explotación infantil y la incitación al odio—se escapa cada vez más de las rendijas.
[Imagen: Gráfico que muestra la creciente brecha entre los reportes de usuarios y las acciones de moderación en X]
IA al mando: la nueva columna vertebral de la regulación de contenido
Para compensar la reducción de personal humano, X apuesta fuertemente por la inteligencia artificial. La plataforma afirma que su moderación se basa en una “combinación de aprendizaje automático y revisión humana”, con la IA actuando directamente o señalando contenido para una verificación adicional. Sin embargo, esta creciente dependencia de los algoritmos plantea preguntas fundamentales sobre su capacidad para manejar la complejidad y los matices del lenguaje humano.
Limitaciones de la moderación automatizada
A pesar de los avances, los sistemas automatizados son conocidos por sus errores. Tienen dificultades para interpretar correctamente el sarcasmo, el lenguaje codificado o el contexto cultural. Un estudio de la Universidad de Oxford y el Instituto Alan Turing mostró que los modelos de IA para la detección de discurso de odio tienen carencias significativas: algunos detectan en exceso señalando erróneamente contenido benigno, mientras que otros detectan en defecto al dejar pasar discursos claramente odiosos.
Abundan ejemplos de fallos en otras plataformas:
En 2020, los sistemas de Facebook bloquearon anuncios para pequeñas empresas en apuros.
Este año, el algoritmo de Meta marcó erróneamente publicaciones del Memorial de Auschwitz como violaciones de sus normas.
Otro problema importante es el sesgo en los datos de entrenamiento. La mayoría de los algoritmos se desarrollan a partir de conjuntos de datos principalmente obtenidos de países del Norte, lo que los hace menos efectivos para analizar dialectos o contextos culturales, como el árabe magrebí. Esta insensibilidad cultural puede llevar a una moderación desigual e injusta.
Impacto en las comunidades marginadas
Esta sobredependencia de la IA corre el riesgo de perjudicar desproporcionadamente a las comunidades marginadas. Su lenguaje, que puede incluir términos reapropiados o jerga interna, a menudo se malinterpreta y se señala erróneamente como ofensivo. Mientras tanto, las formas sutiles y codificadas de odio hacia ellas frecuentemente escapan a los filtros algorítmicos. El resultado es un doble bind: censura de su expresión legítima y protección inadecuada contra el acoso que enfrentan. Confiar juicios morales complejos a máquinas no solo infringe la libertad de expresión sino que también amplifica las desigualdades que las plataformas afirman combatir.
IA, una herramienta de doble filo
La inteligencia artificial es una herramienta poderosa, pero no es una solución mágica. Sin una supervisión humana rigurosa, datos de entrenamiento diversos y políticas claras, los sistemas de moderación automatizada pueden agravar los problemas que pretenden resolver, creando un entorno que es tanto demasiado restrictivo para algunos como demasiado permisivo para otros.
Consecuencias reales: cuando el discurso en línea alimenta la violencia
La indulgencia en la moderación de X no es solo un debate teórico; tiene repercusiones tangibles en el mundo real. Un caso reciente en el Reino Unido ilustra esto dramáticamente. En medio de disturbios en parte desencadenados por desinformación en redes sociales, una mujer publicó un tweet llamando a “incendiar todos los malditos hoteles llenos de bastardos.”
Su mensaje completo fue inequívoco:
"






