Internet
El algoritmo de Facebook promociona los contenidos divisivos, ¿sabéis para qué?
Desde la red social se fomenta la publicación de contenidos que crean polémicas y dividen a los usuarios aunque Facebook no parece decidida a solucionarlo.
Publicidad
Todos sabemos que el principal objetivo de plataformas como YouTube, Netflix, Spotify o Facebook es que les dediquemos la mayor parte de nuestro tiempo libre. Que no hagamos otras cosas más allá de seguir publicando enlaces u opiniones, viendo series y películas, escuchando música o navegando entre gatetes que saltan y hacen cosas enternecedoras mirando a la cámara.
Y como ese es el objetivo, las herramientas que han ideado la mayoría tienen que ver con la inteligencia artificial, los algoritmos y el aprendizaje automático, que están permanentemente calculando qué es lo siguiente que nos a apetecer consumir. El problema es que cuando hablamos de una red social, y el feed de noticias de nuestros amigos se termina, surge la necesidad imperiosa de obligarnos a seguir mirando a la pantalla con la excusa que sea.
Y no hay nada que nos convierta en más participativos y, por tanto, nos haga consumir más tiempo en Facebook que las noticias, debates y opiniones que son contrarias a las nuestras, y que fomentan los hilos con cientos de respuestas donde los de un bando y los del otro no se ponen de acuerdo. En realidad nunca lo harán, y los de Mark Zuckerberg lo saben.
Promoción de contenidos divisivos
Ahora, todo eso que el instinto nos decía que estaba ocurriendo se ha confirmado gracias a una investigación interna de la propia Facebook que ha sido desvelada por el Wall Street Journal, y en la que han detectado que su algoritmo, que aprende de forma automática todo lo que ve y lee en la red social, promueve contenido divisivo en sus páginas. Es más, en ese análisis de puertas hacia dentro se especifica que los usuarios quedan expuestos a contenidos sensacionalistas y polarizados de manera frecuente.
Entre esas páginas puede llegarse a la conclusión de que ese algoritmo no une a las personas, sino que parece trabajar para separarlas. Entre las sorprendentes revelaciones también descubrimos que los responsables de ese estudio pidieron a los altos ejecutivos de Facebook que tomaran medidas, pero que todos ellos "decidieron no hacerlo".
Ese equipo responsable del estudio afirma en algunas de sus dispositivas que "nuestros algoritmos explotan la atracción del cerebro humano hacia la división·, por lo que entienden que si "no se controla" afectará a los usuarios. Además, ponen en cuestión que esa promoción de los contenidos "más y más divisivos" sea el camino correcto para "atraer la atención del usuario y aumentar su tiempo en la plataforma".
En ese trabajo se habla expresamente de los grupos extremistas, y de la culpa que tuvo Facebook en el crecimiento de muchos de ellos, llegando a descubrir que el "64% de todas las uniones de grupos extremistas se debieron a nuestras herramientas de recomendación y que la mayor parte de la actividad provino de los 'Grupos a los que debería unirse' y 'Descubrir' [...] Nuestros sistemas de recomendación aumentan el problema".
Aun así, desde la compañía optaron por no actuar, aduciendo que no quieren interferir en la libertad de expresión de todos los que participan en Facebook y detallan que el propio Mark Zuckerberg es uno de los más fervientes defensores de esta teoría. Veremos de todas formas si revelaciones como las de hoy, dan un giro a esa política o si se mantiene tal cual está. ¿Qué os parece?
Publicidad