Investigadores de la Universidad de Zurich dirigieron en secreto un experimento de IA de meses en la comunidad R/Changemyview de 3.8m miembros de Reddit sin consentimiento de los usuarios.
Un grupo de investigadores de la Universidad de Zurich realizó un experimento encubierto de meses utilizando comentarios generados por IA para influir en los usuarios de Reddit sin su conocimiento o consentimiento.
El experimento tuvo lugar en R/Changemyviewun subreddit de 3.8m miembro conocido por el debate civil. Los investigadores desplegaron Modelos de idiomas grandes (LLM) escribir respuestas personalizadas y persuasivas, haciéndose pasar por personas reales, para ver si AI podría cambiar las opiniones de los usuarios.
Los detalles
- Los comentarios generados por la IA, que se hacían pasar por usuarios reales, fueron publicados para influir en las opiniones.
- Personas incluyeron sobrevivientes de trauma y controvertidas voces políticas.
- La IA usó datos personales raspados de los historiales de los usuarios para adaptar las respuestas persuasivas.
- Ninguna de la actividad fue revelada, Violando las reglas de subreddit y reddit.
Esto no se trataba solo de bots.
Fue la manipulación psicológica utilizando datos personales para probar cuán efectiva puede ser la IA en Cambiar las mentes de las personas.
El director legal de Reddit, Ben Lee Lo llamó “profundamente incorrecto tanto en un nivel moral como legal” y confirmó que Reddit está preparando acciones legales formales.
Foto Brett Jordan en Sin estelares
La defensa de los investigadores
Afirman que su junta de ética aprobó el proyecto y argumentan que su objetivo era mostrar cómo la IA podría usarse mal para manipular las elecciones o difundir el discurso de odio.
“Creemos que los beneficios potenciales de esta investigación superan sustancialmente sus riesgos”, escribieron los investigadores.
La reacción
Las modificaciones de R/Changemyview se indignaron, llamando a la investigación “desagradable” y “manipulador”.
Han presentado una queja y le pidieron a la universidad que bloqueara la publicación del estudio. Este experimento revela una amenaza creciente: persuasión con IA a escala, sin consentimiento. Muestra con qué facilidad las personas pueden ser influenciadas cuando la IA conoce sus creencias y puede imitar a sus compañeros.
Los redditores se usaron como sujetos de prueba.
Este no fue solo un ejercicio académico. Muestra cuán poderosa y sutil puede ser la manipulación de la IA, especialmente cuando imita las voces humanas de confianza utilizando datos personales.
Con IA generativa en general El riesgo de manipulación impulsada por la IA ya no es teórica. Es real, y simplemente sucedió en una de las comunidades más grandes de Internet.
Ahora Reddit, una de las comunidades en línea más grandes del mundo, está luchando.