SEGÚN UN ANÁLISIS
Los discursos de odio en X subieron un 50% tras la compra de Elon Musk
Un nuevo análisis realizado por investigadores de Berkeley registran un aumento de los ataques homófobos, racistas o contra los trans en la red social desde finales de 2022 en adelante. También han crecido los bots y cuentas no auténticas.
![El perfil de X de Elon Musk El perfil de X de Elon Musk](https://fotografias.lasexta.com/clipping/cmsimages01/2025/02/13/A8E835BD-5016-4735-B7F1-375EA5B512EB/70.jpg?crop=2048,1152,x0,y106&width=480&height=270&optimize=high&format=webply)
Publicidad
El nivel de discursos de odio en la red social X aumentó aproximadamente un 50% varios meses después de que Elon Musk adquiriera la plataforma, según un estudio realizado por Daniel Hickey, de la Universidad de California, Berkeley, y sus colegas. El trabajo, publicado en PLOS One, también indica que la cantidad de cuentas automatizadas o bots no disminuyó tras la compra.
Investigaciones previas han vinculado los discursos de odio en línea con crímenes en el mundo real, y una relación entre los bots y el fomento de la desinformación o el spam, contribuyendo a fraudes, interfiriendo en elecciones o dificultando campañas de salud pública. Estudios anteriores ya habían mostrado que, inmediatamente después de que Musk adquiriera X —entonces conocido como Twitter— el 27 de octubre de 2022, los discursos de odio aumentaron y las cuentas no auténticas no se redujeron, pese a la promesa de Musk de combatir la actividad de bots.
No obstante, hasta ahora no estaba claro si estas tendencias habían persistido durante el resto del mandato de Musk como CEO, que se prolongó hasta junio de 2023, cuando Linda Yaccarino fue nombrada directora ejecutiva. Para esclarecer esta cuestión, Hickey y su equipo utilizaron métodos previamente desarrollados para medir el discurso de odio en inglés y la actividad en X durante ese período.
El análisis reveló que el incremento en los discursos de odio, que comenzó poco antes de la adquisición de X por parte de Musk, continuó hasta mayo de 2023. La frecuencia semanal de estos mensajes fue un 50% mayor que en los meses anteriores a la compra, destacando el uso creciente de insultos homofóbicos, transfóbicos y racistas. Además, el número promedio de "me gusta" en publicaciones de odio aumentó un 70%, lo que sugiere una mayor exposición de los usuarios a este tipo de contenido. Al mismo tiempo, la presencia de cuentas automatizadas o inauténticas no disminuyó e incluso podría haber aumentado.
Más discurso de odio
Estos resultados contradicen las afirmaciones públicas de X de que la exposición a discursos de odio disminuyó tras la compra por parte de Musk.
Amalia Álvarez Benjumea, investigadora en el Instituto de Políticas y Bienes Públicos del CSIC (IPP-CSIC), declara al SMC que este estudio "supone un avance sobre investigaciones previas porque analiza un periodo más largo en X desde la compra de Twitter por Elon Musk, lo que permite a los investigadores comparar el contenido de la plataforma con el mismo periodo anterior a la compra". Según la experta, los resultados muestran "un aumento del discurso de odio en X tras la compra de la plataforma en distintos ámbitos, como racismo, homofobia y transfobia, así como también un incremento en el engagement con estos mensajes".
Walter Quattrociocchi, director del Laboratorio de Datos y Complejidad para la Sociedad de la Universidad de Roma La Sapienza, también reflexiona para el SMC sobre los hallazgos que "ofrecen una perspectiva temporal útil sobre los cambios en la moderación de contenidos y sus posibles efectos en la prevalencia de la incitación al odio" y que "se suma al debate sobre el papel de las políticas en la configuración del discurso en línea".
El investigador italiano añade que se ha demostrado "que la toxicidad en línea sigue patrones persistentes a través de diferentes plataformas y períodos de tiempo, impulsada más por la dinámica de la interacción humana que por las políticas específicas de la plataforma".
Debilidades del trabajo
Pese a los méritos del trabajo y la importancia del estudio, Álvarez Benjumea advierte que la investigación tiene limitaciones, especialmente en lo que respecta a la relación causal entre la compra de la plataforma y el crecimiento del odio en la red social. "La mayor limitación del estudio es que no puede establecer una relación causal directa entre este aumento del odio y la compra de la plataforma o los cambios en sus políticas de moderación, ya que no cuenta con un grupo de comparación adecuado", explica. "Los resultados cuantifican el aumento de los mensajes de odio, pero este crecimiento puede deberse a eventos específicos, efectos de llamada o cambios en la composición de los usuarios de X".
Asimismo, señala que el método utilizado para medir el engagement con los discursos de odio —basado en el número de "me gusta"— podría no ser del todo preciso debido a los cambios en las políticas de la plataforma durante el periodo analizado. También apunta a limitaciones en la metodología de detección del contenido de odio, que se basa en un listado predefinido de palabras. "Este enfoque puede generar falsos positivos si se identifican términos fuera de contexto, y también falsos negativos, ya que el lenguaje es flexible y cambia con el tiempo; el odio puede expresarse de manera sutil o mediante eufemismos que no están en el listado de palabras usado para la clasificación", detalla.
También Quattrociocchi advierte que la metodología utilizada, basada en herramientas de clasificación automática y métricas de engagement, tiene limitaciones inherentes, dado que los clasificadores automatizados utilizados en el estudio "pueden introducir sesgos y tener problemas con los matices contextuales, lo que puede dar lugar a una clasificación errónea del discurso".
Quattrociocchi subraya la importancia de no confundir correlación con causalidad: "Aunque el estudio identifica un aumento del discurso de odio, atribuirlo directamente a la adquisición de Musk requiere un diseño experimental más controlado". Además, recuerda que el análisis se limita a contenidos en inglés, lo que "puede no reflejar las tendencias globales de la plataforma".
Aunque, como Álvarez Benjumea, reconoce la relevancia del estudio, Quattrociocchi enfatiza que "los comportamientos tóxicos son notablemente estables a lo largo del tiempo, independientemente de los cambios en las políticas específicas de las plataformas". Para una comprensión más completa, sugiere que "los estudios futuros deberían incorporar perspectivas multiplataforma y multilingües para comprender plenamente la dinámica de la incitación al odio en los espacios en línea".
Por su parte, los autores del estudio subrayan la necesidad de fortalecer la moderación en X y de llevar a cabo más investigaciones para comprender mejor la dinámica de los discursos de odio en redes sociales. "Las políticas para reducir la exposición a contenido dañino parecen no ser suficientemente efectivas", advierten.
Referencia:
Hickey D, Fessler DMT, Lerman K, Burghardt K. X under Musk’s leadership: Substantial hate and no reduction in inauthentic activity. PLoS ONE, 2025.
Publicidad