Arturo Béjar es el ingeniero que puso a Meta contra las cuerdas. Contratado por el propio Mark Zuckerberg para desarrollar las herramientas de protección al usuario de la antigua Facebook -hoy también propietaria de Instagram y WhatsApp-, llegó a testificar contra la compañía ante el Senado de Estados Unidos, tras comprobar que la empresa no estaba actuando ante los daños que provocan los contenidos que se mueven en sus redes sociales.

Una decisión que no fue fácil y en la que influyó que él mismo es padre. "¿Qué no haría uno como papá?", afirma Béjar en Salvados, donde relata que habló con sus hijos antes de dar un paso al frente para denunciar las negligencias de lo que hoy es Meta y ellos le animaron a alzar la voz.

Su objetivo, explica, es que el mayor número de personas, "sobre todo los papás" y quienes elaboran las leyes, "entiendan el alcance" de unos daños de los que la compañía es plenamente consciente: "Los ejecutivos de Meta están conscientes de los daños que sus productos les hacen a los menores y han escogido no hacer nada al respecto", sentencia.

Sin embargo, meses después de aquella declaración en el Senado, Béjar lamenta que las cosas han cambiado "muy poquito" en Meta. "Se ha vuelto una compañía que se dedica más a proteger la compañía y la reputación de la compañía que a proteger a los usuarios", sostiene el antiguo empleado de Facebook.

"Como uno en realidad conoce a una persona o a una compañía es por sus acciones", incide Béjar, que cita el caso de un menor de 16 años que se suicidó después de alguien le engañase para que le enviara una foto íntima a través de las redes sociales, para después extorsionarle con la amenaza de difundirla entre su entorno. "¿Cuál es la respuesta de la compañía frente a eso?", continúa el ingeniero. "La semana que salió el artículo anunciaron que tenían herramientas para proteger frente a ese tipo de ataque", señala.

La herramienta en cuestión, sin embargo, se limita a preguntar al usuario si está seguro antes de enviar una foto de un desnudo o de visualizarla antes de hacerlo: "No hay protección en lo que están haciendo", denuncia Béjar, que incide en que, de hecho, "a través de eso saben cuándo menores están mandando desnudos". "Esa es la calidad de la compañía y de las acciones que toman frente a un niño cometiendo suicidio a través de un producto que hace eso posible", asevera.

"Una trituradora de humanidad"

Para el que fuera jefe del área de protección al usuario de Facebook, en definitiva "Meta se ha vuelto una trituradora de humanidad". Así lo asevera al final de la entrevista, tras exponer los daños que sufren los niños en las plataformas de la compañía y la inacción de esta ante los daños que está provocando.