RASTREARÁ LOS POST EN BUSCA DE SIGNOS DE ALARMA
Facebook usa inteligencia artificial para prevenir suicidios
Tras los casos de suicidios en directo que se han retransmitido a través de Facebook Live, la red social se esfuerza en la prevención. La última de sus medidas ha sido el uso de la inteligencia artificial para rastrear a los usuarios que demuestren tendencias suicidas.
Publicidad
Facebook lleva tiempo probando el uso de inteligencia artificial para prevenir suicidios entre sus usuarios. Sus algoritmos por el momento han practicado su monitorización y análisis en Estados Unidos, pero pronto se extenderán a otros países. Eso sí, no se pondrán en marcha en países de la Unión Europea porque el reglamento de protección de datos impide el trazado de perfiles personales que necesiten cierta información íntima.
Facebook no ha precisado exhaustivamente en qué se basarán sus algoritmos para identificar a usuarios con posibles tendencias suicidas. Sí se sabe que la inteligencia artificial rastreará las publicaciones y los mensajes que se intercambien en la red social, con el fin de encontrar señales de alarma.
Los programas de Facebook buscan sobre todo similitudes con publicaciones o mensajes marcados en el pasado por los usuarios como potencialmente peligrosos. Desde hace tiempo la red social tiene mecanismos para que se alerte sobre contenido inapropiado o que ofrezca algún tipo de riesgo. Las tendencias suicidas se encuadran dentro de esta categoría que puede ser reportada.
Los algoritmos también estudian las reacciones que suscitan en otros usuarios ciertas publicaciones o mensajes. Si a raíz de una de ellas afloran comentarios del estilo “¿estás bien?” o “¿te puedo ayudar en algo?”, la inteligencia artificial dispara las alarmas.
Asimismo, el software también se centra en los vídeos de Facebook Live, la plataforma de retransmisión en directo. Si los algoritmos detectan que un segmento de una retransmisión en Facebook Live tiene una gran afluencia de comentarios o reacciones, esa porción de vídeo también se marcará. Una vez hecha la selección de forma automática entrará un equipo de revisores humanos.
Estas personas son las encargadas de llevar a cabo el trabajo más decisivo, de forma que su juicio será el que incline la balanza. Si consideran que alguna de estas actitudes tiene riesgo tendrán que tomar medidas.
Facebook establece el envío de recursos de ayuda para problemas mentales como una de las medidas que pueden tomar estas personas para atajar posibles casos de suicidio. En las situaciones más urgentes, la tarea de estos trabajadores será llegar hasta contactos cercanos para ponerlos sobre aviso y permitirles lidiar con el problema de una forma más directa.
La compañía de Mark Zuckerberg señaló que en el último mes se habían remitido casos a contactos cercanos más de cien veces, y eso sólo en EEUU.
La inmensa masa de usuarios de Facebook hace que la red social se haya convertido en un reflejo de la sociedad. Si a esto se le une la capacidad de difusión, la ilusión de popularidad que generan las redes sociales, no resulta extraño que problemas personales -y sociales- como el suicidio salgan a la luz. Porque, no conviene olvidarlo, la preocupación de la compañía en este ámbito creció a medida que proliferaron algunos suicidios retransmitidos en directo mediante Facebook Live...
Publicidad