Contenidos violentos o denigrantes sin filtros por parte de Facebook. Una filtración de sus normas internas revela cómo se les pide a los revisores que 'hagan la vista gorda' a imágenes duras.
Hace unos meses un joven turco anunciaba por la red social su suicidio. Acto seguido, se quitó la vida en directo.
Según los documentos a los que ha tenido acceso 'The Guardian', Facebook permitiría retransmitir autolesiones de los usuarios porque, dicen, no quieren censurar a personas en peligro.
"Los expertos en autolesiones nos aconsejaron que puede ser mejor dejar los videos en vivo de automutilación para emitir una alerta de ayuda", explica Mónica Bickert, jefa de Gestión de Políticas Globales de Facebook.
Lo mismo ocurre con la violencia infantil, consideran que podrían permitir que las víctimas sean identificadas y rescatadas.
laSexta Noticias se ha puesto en contacto con la compañía y aseguran que trabajan para mejorar la seguridad de Facebook. "Estamos desarrollando mejores herramientas para mantener a la comunidad de Facebook segura y hacer más sencillo a las personas denunciar problemas (...)".
Aunque algunas asociaciones denuncian que los controles son insuficientes. Vídeos violentos como el asesinato de un anciano en Cleveland seguía en la red días después a pesar de su violencia. Facebook alega que mantener estos vídeos en la red pueden ayudar a generar conciencia.
Eso sí, la multinacional es muy restrictiva cuando se trata de jefes de Estado, periodistas o colectivos que podrían ser víctimas de delito de odio o objetivo de un ataque
No se permiten publicar mensajes como: "Que alguien dispare a Trump". Pero sí, por ejemplo, cómo estrangular a una mujer, tal y como refleja su propio manual.
Facebook reconoce el error y asegura que el año que viene contratará a 3.000 revisores más que se sumarían a los 4.500 que trabajan actualmente.
Por usar un sistema de contenido adictivo
TikTok se enfrenta a la demanda de una coalición de 14 estados en EEUU por ser dañina para la salud mental infantil
Un total de 14 fiscales estatales han demandado a la red social china de vídeos TikTok por ser dañina para la salud mental infantil, acusándole de usar un sistema de contenidos adictivo para lucrarse con los usuarios más jóvenes.