"No creo que esto tenga una eficacia real". Es la confesión que hace 'Carmen' (nombre ficticio), trabajadora de una subcontrata de Meta, sobre la moderación de contenidos en redes sociales durante su conversación con Gonzo en Salvados. En concreto, se refiere a la parte de su trabajo en la que los contenidos se 'escalan' a un departamento superior, en particular cuando se trata de posibles suicidios o agresiones.

Los moderadores como ella, según explica otra trabajadora de la misma compañía, 'Vanessa', tienen cuatro opciones ante un contenido potencialmente perjudicial: permitirlo, borrarlo, advertir sobre él al usuario o 'escalarlo'. Esta última opción, detalla 'Carmen', consiste en "subir a un departamento superior" ese contenido. Un departamento superior, apostilla, del que no saben "ni dónde está".

"Hay diferentes tipos de escalaciones", apunta asimismo la moderadora, que pone como ejemplo "si están violando o a punto de hacerlo a un menor o alguien va a suicidarse y tienes una serie de cosas que te están indicando que es verdad que lo va a hacer o que podría llegar a ser real". Sin embargo, afirma que nunca llegan a saber si la empresa avisa a la Policía: "Nadie nos explica porque nos dicen: 'Esto va a otro departamento'", afirma.

"Yo no creo que sirva de mucho, si no estaría en las noticias continuamente 'hemos logrado salvar...'", reconoce. "No creo que esto tenga una eficacia real", insiste.

Para ella, es particularmente duro enfrentarse a este tipo de contenidos en los que la vida de alguien está en juego: "La responsabilidad es enorme. ¿Cómo reaccionarías tú, Gonzo, si tienes en tu pantalla alguien que dice que va a matar a alguien o alguien que está a punto de violar a un niño pequeño? La mezcla de sensaciones es tan físico que te pondrías a vomitar ahí mismo", afirma. "Y no puedes hacer nada porque lo único que puedes hacer es escalarlo, no puedes hacer nada real para esa persona, es horrible", lamenta.