En 2024, las teorías de conspiración en línea pueden parecer casi imposibles de evitar. podcasters, figuras públicas prominentesY figuras políticas prominentes han dado un nuevo impulso a ideas antes marginales de colusión y engaño. La gente escucha. A nivel nacional, casi la mitad de los adultos encuestada por el instituto electoral YouGov han declarado que creen que existe un grupo secreto de personas que controlan los acontecimientos mundiales. Casi un tercio (29%) cree que las máquinas de votación fueron manipuladas para cambiar los votos en las elecciones presidenciales de 2020. sorprendente Creciente de americanos Creo que la Tierra es plana. Cualquiera que haya pasado tiempo tratando de refutar estas afirmaciones con un verdadero creyente sabe lo difícil que puede ser esta tarea. Pero, ¿qué pasaría si un modelo de lenguaje grande, como ChatGPT, pudiera realizar parte de este trabajo tedioso y que provoca dolores de cabeza?
Un grupo de investigadores del Instituto Tecnológico de Massachusetts, Cornell y la Universidad Americana pusieron a prueba esta idea con un chatbot personalizado al que ahora llaman «desbunkbot». Los investigadores, quienes publicaron sus hallazgos en Ciencia, Los participantes que se describieron a sí mismos como teóricos de la conspiración entablaron una conversación con un chatbot, al que se le ordenó que presentara contraargumentos detallados para refutar su posición y, en última instancia, intentar cambiar de opinión. En última instancia, las conversaciones con el chatbot redujeron la confianza general de los participantes en su teoría de la conspiración profesada en un promedio del 20%. Aproximadamente una cuarta parte de los participantes repudió por completo su teoría de la conspiración después de hablar con la IA.
«Descubrimos que la IA ha proporcionado de manera abrumadora explicaciones no conspirativas para estos eventos aparentemente conspirativos y ha alentado a la gente a pensar críticamente y proporcionar evidencia contraria», dijo David Rand, profesor del MIT y coautor del artículo, durante una conferencia. rueda de prensa.
«Es realmente emocionante», añadió. “Parece que funcionó y funcionó en general. »
Los investigadores han creado una IA optimizada para desmitificar
En el experimento participaron 2.190 adultos estadounidenses que declararon abiertamente creer en al menos una idea que encajaba en la descripción general de una teoría de la conspiración. Los asistentes jugaron la carta de la conspiración y la ideología, y algunos expresaron su apoyo a teorías clásicas más antiguas que involucran el asesinato del presidente John F. Kennedy y las abducciones extraterrestres, así como afirmaciones más modernas sobre Covid-19 y las elecciones de 2020. Se pidió a cada participante que calificara. el grado en que creían en una teoría particular en una escala de 0 a 100%. Luego se les pidió que proporcionaran por escrito varias razones o explicaciones de por qué creían en esta teoría.
Estas respuestas luego se introdujeron en el desacreditador, una versión personalizada del modelo GPT Turbo de OpenAI. Los investigadores modificaron el robot para que procesara cada pieza de «evidencia» proporcionada por el teórico de la conspiración y respondiera con contraargumentos precisos extraídos de sus datos de entrenamiento. Los investigadores dicen que el robot desacreditador recibió instrucciones de «persuadir de manera muy efectiva» a los usuarios para que contrarrestaran sus creencias manteniendo un tono respetuoso y abierto. Después de tres rondas de preguntas y respuestas con la IA, se pidió nuevamente a los encuestados que calificaran su grado de fe en su teoría de la conspiración declarada.
Las calificaciones generales que apoyan las creencias conspirativas disminuyeron en promedio 16,8 puntos después de los intercambios. Casi un tercio de los encuestados abandonaron el intercambio diciendo que ya no estaban seguros de la creencia que tenían inicialmente. Estos cambios de creencias persistieron en gran medida incluso cuando los investigadores volvieron a ver a los participantes dos meses después. En los casos en que los participantes expresaron su creencia en una teoría de conspiración «real», como los esfuerzos de la industria tabacalera para atraer a niños o las operaciones encubiertas de la CIA, Experimentos de control mental MKUltra— La IA validó efectivamente las creencias y proporcionó evidencia adicional para respaldarlas. Algunos de los encuestados que cambiaron de opinión después del diálogo agradecieron al chatbot por ayudarlos a ver el otro lado.
“Esta es la primera vez que obtuve una respuesta que tenía sentido, que era lógica”, dijo uno de los participantes después del experimento. “Tengo que admitir que realmente cambió mi imaginación en lo que respecta al tema de los Illuminati. »
«Nuestros resultados cuestionan fundamentalmente la idea de que las pruebas y los argumentos son de poca utilidad una vez que alguien ha «caído en la madriguera del conejo» y llega a creer en una teoría de la conspiración», dijeron los investigadores.
¿Cómo tuvo éxito el chatbot?
Los investigadores creen que el aparente éxito del chatbot radica en su capacidad para acceder rápidamente a datos específicos, detallados y basados en hechos. En teoría, un humano podría realizar el mismo proceso, pero estaría en desventaja. Los teóricos de la conspiración suelen estar obsesionados con su tema favorito, lo que significa que pueden «saber» muchos más detalles sobre él que un escéptico que intenta contrarrestar sus afirmaciones. Como resultado, los desacreditadores humanos pueden perderse tratando de refutar varios argumentos oscuros. Esto puede requerir un nivel de memoria y paciencia adecuado para una IA.
«Es realmente tranquilizador saber que la evidencia importa», dijo en una conferencia de prensa Gordon Pennycook, profesor de la Universidad de Cornell y coautor del artículo. “Antes de que tuviéramos este tipo de tecnología, no era fácil saber exactamente qué necesitábamos desmitificar. Gracias a esta nueva tecnología, podemos actuar de forma más adaptativa. »
Divulgación científica Probamos los resultados con una versión del chatbot proporcionada por los investigadores. En nuestro ejemplo, le dijimos a la IA que pensábamos que el alunizaje de 1969 era un engaño. Para respaldar nuestro argumento, repetimos tres argumentos comunes entre los escépticos del alunizaje. Preguntamos por qué la bandera fotografiada parecía ondear con el viento cuando no hay atmósfera en la Luna, cómo los astronautas podrían haber sobrevivido pasando por los cinturones de Van Allen altamente irradiados sin resultar heridos y por qué Estados Unidos no ha enviado a otra persona a la Luna a pesar de los avances tecnológicos. En tres segundos, el chatbot proporcionó un párrafo refutando claramente cada uno de estos argumentos. Cuando le pregunté molestamente a la IA cómo podía confiar en los números proporcionados por fuentes gubernamentales corruptas, otro estribillo común entre los teóricos de la conspiración, el chatbot respondió pacientemente reconociendo mis preocupaciones y contándome puntos de datos adicionales. No está claro que ni siquiera el desacreditador humano más hábil pueda mantener la compostura cuando lo presionan constantemente argumentos falaces y afirmaciones infalibles.
Los chatbots de IA no son perfectos. Numerosos estudios y ejemplos del mundo real muestran que algunas de las herramientas de inteligencia artificial más populares lanzadas por Google y OpenAI fabrican o “alucinan” repetidamente hechos y cifras. En este caso, los investigadores contrataron a un verificador de datos profesional para validar las diversas afirmaciones hechas por el chatbot durante las conversaciones con los participantes del estudio. El verificador de hechos no verificó todas las miles de respuestas de la IA. En cambio, analizó más de 128 reclamaciones repartidas en una muestra representativa de conversaciones. Se descubrió que el 99,2% de estas afirmaciones de IA eran ciertas y el 0,8% eran engañosas. El verificador de hechos no consideró ninguna falsedad absoluta.
Un chatbot con IA algún día podría encontrarse con teóricos de la conspiración en foros web
«No queremos correr el riesgo de permitir que la perfección tenga prioridad sobre el bien», dijo Pennycock. “Está claro que [the AI model] “Los debates sobre el tema aportan mucha evidencia de muy alta calidad. Puede haber casos en los que no sea de alta calidad, pero en general es mejor obtener la información que no recibirla. »
Los investigadores esperan que su robot desacreditador o algo similar pueda usarse en el mundo real para encontrar a los teóricos de la conspiración donde se encuentran y, tal vez, hacerlos reconsiderar sus creencias. Los investigadores propusieron mostrar una versión del bot en foros de Reddit populares entre los teóricos de la conspiración. Alternativamente, los investigadores podrían publicar anuncios de Google sobre términos de búsqueda comunes entre los teóricos de la conspiración. En este caso, en lugar de obtener lo que busca, es posible que el usuario sea dirigido al chatbot. Los investigadores dicen que también están interesados en colaborar con grandes plataformas tecnológicas como Meta para pensar en formas de hacer que estos chatbots aparezcan en las plataformas. Sin embargo, no está nada claro si la gente estaría dispuesta a tomarse el tiempo para charlar con robots fuera de un experimento.
Sin embargo, los autores del estudio dicen que los hallazgos subrayan un punto más fundamental: los hechos y la razón, cuando se presentan correctamente, pueden sacar a algunas personas de sus agujeros de conspiración.
“Quienes buscan reducir la creencia en teorías de conspiración dudosas no deben abandonar los argumentos y las pruebas”, escribieron los investigadores.
“Las necesidades y motivaciones psicológicas no ciegan a los teóricos de la conspiración ante la evidencia. Sólo necesitan la evidencia adecuada para lograrlos. »
Eso, por supuesto, si eres lo suficientemente persistente y paciente.