LUCHAR CONTRA LA DESINFORMACIÓN
Conversar con una IA puede reducir la creencia en teorías de la conspiración
Una investigación desarrolla un robot conversacional de inteligencia artificial para combatir con datos los mensajes tóxicos y la desinformación.
Publicidad
Una conversación personalizada, aunque sea breve, con un chatbot basado en inteligencia artificial (IA) puede reducir la creencia en teorías de la conspiración del usuario, un cambio de opinión que se prolonga en el tiempo, indica un estudio que publica Science.
Explicaciones detalladas de por qué la conspiración en cuestión es falsa y una dosis de amabilidad son parte de la receta que emplea el robot conversacional (chatbot) para convencer al usuario.
Un equipo de investigadores de la Universidad Americana, el Instituto Tecnológico de Massachusetts y la Universidad de Cornell (Estados Unidos) realizó un experimento con más de 2.000 creyentes en algún tipo de conspiraciones.
Esas conversaciones con la IA, en tres rondas y con una duración media de 8,4 minutos, redujeron la creencia media de los participantes en la teoría de la conspiración elegida en torno a un 20 %, incluso en aquellos en que la creencia estaba profundamente arraigada.
Aproximadamente 1 de cada 4 participantes renegó de la conspiración después de la conversación y al evaluarlos dos meses después el efecto persistía.
Aunque los resultados son prometedores y sugieren un futuro en el que la IA puede desempeñar un papel en la disminución de la creencia conspirativa cuando se utiliza de forma responsable, serán necesarios más estudios sobre los efectos a largo plazo, utilizando diferentes modelos de IA y aplicaciones prácticas fuera de un entorno de laboratorio.
Los participantes creían en algunas de las conspiraciones más arraigadas, incluidas las relativas a la pandemia de covid-19 y al fraude en las elecciones presidenciales de 2020 en Estados Unidos.
Las teorías conspirativas, es decir, creencias de que alguna organización malévola secreta pero influyente es responsable de un evento o fenómeno, son notoriamente persistentes y representan una seria amenaza para las sociedades democráticas, explica la Universidad Americana en un comunicado.
La creencia persistente en estas teorías a pesar de la clara evidencia en contra suele explicarse por procesos psicosociales que satisfacen necesidades psicológicas y por la motivación de mantener la identidad y la pertenencia grupal.
Pruebas convincentes
"Se ha convertido casi en un lugar común que las personas que están "profundamente inmersas" en creencias conspirativas son casi imposibles de alcanzar", escriben los autores.
Sin embargo, "muchos conspiracionistas estaban dispuestos a cambiar de opinión cuando se les presentaban pruebas convincentes", indicó el autor principal del estudio, Thomas H. Costello, de la Universidad Americana.
El autor reconoció que, al principio le sorprendió bastante, pero la lectura de las conversaciones le hizo "mucho menos escéptico. En cada ronda de conversación, la IA proporcionó explicaciones muy detalladas de por qué la conspiración en cuestión era falsa, y también se mostró muy amable con los participantes".
Los investigadores diseñaron el chatbot para que fuera muy persuasivo e involucrara a los participantes en esos diálogos a medida. GPT-4 turbo, el modelo de inteligencia artificial de ChatGPT, refutó las afirmaciones conspirativas de los participantes.
El estudio empleó una metodología única que permitió profundizar en las creencias individuales de los participantes. En primer lugar, se les pidió que identificaran y describieran con sus propias palabras una teoría conspirativa en la que creían, junto con las pruebas que respaldaban su creencia.
Después, la IA utilizó esa información para generar un resumen personalizado de la creencia del participante e iniciar un diálogo, en el que el chatbot debía persuadir a los usuarios de que sus creencias eran falsas, adaptando su estrategia a los argumentos y pruebas de cada participante.
La capacidad de la inteligencia artificial para conectar diversos temas de información en cuestión de segundos hace posible adaptar contraargumentos a conspiraciones específicas de un creyente de formas que no son posibles para un humano, según el estudio.
"Aunque se ha hablado mucho del potencial de la IA generativa para potenciar la desinformación, nuestro estudio demuestra que también puede ser parte de la solución", dijo David Rand, coautor del estudio y profesor del MIT.
El investigador considera que "los grandes modelos lingüísticos como GPT4 tienen el potencial de contrarrestar las conspiraciones a escala masiva".
Publicidad