Pese a los esfuerzos de los moderadorespor sacar el contenido nocivo de las redes sociales, el propio algoritmo de las plataformas parece trabajar en su contra y lo sigue recomendando. ¿Cómo se explica esta contradicción? Ana Freire, investigadora en Inteligencia Artificial de la Universitat Pompeu Fabra, explica en Salvados que lo que hay detrás es el propio modelo de negocio de las redes sociales.

La especialista, que considera que "en toda plataforma donde haya humanos que puedan subir contenidos de manera libre se necesita una moderación" -no tenerla, advierte, sería comparable a "quitar la Policía de las calles"-, recuerda que "las redes sociales generalmente no te cobran por su uso", sino que "su modelo de negocio es que tú hagas 'click' en sus anuncios, en contenido promocional".

Por eso, abunda, "intentan que pases el mayor tiempo posible en las redes sociales" y "para eso lo que intentan es mostrarte contenido que a ti te gusta". De esta forma, "si tú estás buscando contenido relacionado con temas de terrorismo o de suicidio, te va a sugerir más contenido relacionado con eso, aunque realmente no sea ético" y "aunque sea perjudicial para nosotros".

Freire, que ha trabajado en detección de problemas de salud mental en las redes, advierte de que existe "una comunidad muy activa de redes sociales que es la comunidad de los trastornos de la conducta alimentaria, como puede ser la anorexia o la bulimia", cuyos usuarios utilizan hashtags concretos. Si buscas este tipo de hashtags, ilustra, "la propia red social te empieza a recomendar personas que utilizan estos hashtags en sus perfiles".

Ante esta situación, Freire y su equipo propusieron "un sistema recomendador que no fuese dañino para personas vulnerables". Se lo mostraron a Twitter, cuenta, y "tuvo una buena acogida", pero llegó Elon Musk y el grupo de investigación con el que se estaban comunicando se disolvió. Toda una declaración de intenciones por parte del nuevo propietario de la plataforma.