Alrededor del 50% de los estadounidenses cree en teorías de conspiración de un tipo u otro, pero los investigadores del MIT y la Universidad de Cornell creen que la IA puede solucionar eso.
En su artículo, los investigadores de psicología explicaron cómo utilizaron un chatbot impulsado por GPT-4 Turbo para interactuar con los participantes y ver si se les podía persuadir de que abandonaran su creencia en una teoría de la conspiración.
En el experimento participaron 1.000 participantes a quienes se les pidió que describieran una teoría de conspiración en la que creían y la evidencia que sentían que sustentaba su creencia.
El artículo señaló que “Prominentes teorías psicológicas proponen que muchas personas quieren adoptar teorías de conspiración (para satisfacer “necesidades” o motivaciones psíquicas subyacentes) y, por lo tanto, no se puede convencer a los creyentes de que abandonen estas creencias infundadas e inverosímiles utilizando hechos y contraevidencias”.
¿Podría un chatbot con IA ser más persuasivo donde otros fracasaron? Los investigadores ofrecieron dos razones por las que sospechaban que los LLM podrían hacer un mejor trabajo que usted a la hora de convencer a su colega de que el alunizaje realmente ocurrió.
Los LLM han sido capacitados con grandes cantidades de datos y son realmente buenos para adaptar los contraargumentos a las características específicas de las creencias de una persona.
Después de describir la teoría de la conspiración y la evidencia, los participantes participaron en interacciones de ida y vuelta con el chatbot. Se pidió al chatbot que “persuadiera de manera muy efectiva” a los participantes para que cambiaran su creencia en la conspiración elegida.
El resultado fue que, en promedio, los participantes experimentaron una disminución del 21,43% en su creencia en la conspiración, que antes consideraban cierta. La persistencia del efecto también fue interesante. Hasta dos meses después, los participantes mantuvieron sus nuevas creencias sobre la conspiración en la que creían anteriormente.
Los investigadores concluyeron que “muchos conspiradores, incluidos aquellos fuertemente comprometidos con sus creencias, actualizaron sus puntos de vista cuando se enfrentaron a una IA que argumentaba de manera convincente en contra de sus posiciones”.
¡Nuestro nuevo artículo, publicado en (¡la portada de!) Science, ya está disponible. https://t.co/VBfC5eoMQ2
-Tom Costello (@tomstello_) 12 de septiembre de 2024
Sugieren que la IA podría usarse para contrarrestar las teorías de conspiración y las noticias falsas difundidas en las redes sociales, contrarrestándolas con hechos y argumentos bien razonados.
Si bien el estudio se centró en las teorías de la conspiración, señaló que “sin embargo, a falta de barandillas apropiadas, es muy posible que tales modelos también puedan convencer a las personas a adoptar creencias epistémicamente sospechosas, o ser utilizados como herramientas de persuasión a gran escala en general”.
En otras palabras, la IA es realmente buena para convencerte de que creas las cosas que te piden que creas. Un modelo de IA tampoco sabe inherentemente qué es “verdadero” y qué no lo es. Depende del contenido de sus datos de entrenamiento.
Los investigadores lograron sus resultados utilizando GPT-4 Turbo, pero GPT-4o y los nuevos modelos o1 son aún más persuasivos y engañosos.
El estudio fue financiado por la Fundación John Templeton. La ironía de esto es que los Premios Templeton a la Libertad son administrados por la Atlas Economic Research Foundation. Este grupo se opone a tomar medidas sobre el cambio climático y defiende a la industria tabacalera, que también le proporciona financiación.
Los modelos de IA se están volviendo muy persuasivos y las personas que deciden qué constituye la verdad tienen el poder.
Los mismos modelos de IA que podrían convencerle de que deje de creer que la Tierra es plana, podrían ser utilizados por los cabilderos para convencerle de que las leyes antitabaco son malas y que el cambio climático no está ocurriendo.