El nuevo estudio utiliza la teoría del apego para decodificar las relaciones Human-AI

-

spot_img

Un estudio innovador publicado en Psicología actual Titulado “Uso de la teoría del apego para conceptualizar y medir las experiencias en las relaciones humanas-AI” arroja luz sobre un fenómeno creciente y profundamente humano: nuestra tendencia a conectar emocionalmente con la inteligencia artificial. Dirigido por el fanático y el profesor Atsushi Oshio de la Universidad de Waseda, la investigación reformula la interacción humana-AI no solo en términos de funcionalidad o confianza, sino a través de la lente de la teoría del apego, un modelo psicológico típicamente utilizado para comprender cómo las personas forman vínculos emocionales entre sí.

Este cambio marca una desviación significativa de cómo se ha estudiado tradicionalmente la IA, como una herramienta o asistente. En cambio, este estudio argumenta que la IA está empezando a parecerse a un socio de relación Para muchos usuarios, ofreciendo soporte, consistencia y, en algunos casos, incluso una sensación de intimidad.

Por qué la gente recurre a la IA para obtener apoyo emocional

Los resultados del estudio reflejan un cambio psicológico dramático en marcha en la sociedad. Entre los hallazgos clave:

  • Casi el 75% de los participantes dijeron que recurren a IA para obtener consejos
  • El 39% describió la IA como una presencia emocional consistente y confiable

Estos resultados reflejan lo que está sucediendo en el mundo real. Millones están recurriendo cada vez más a los chatbots de IA no solo como herramientas, sino como amigos, confidentes e incluso parejas románticas. Estos compañeros de IA van desde asistentes amigables y oyentes terapéuticos hasta “socios” de Avatar diseñados para emular la intimidad humana. Un informe sugiere más de medio mil millones de descargas de aplicaciones complementarias de AI a nivel mundial.

A diferencia de las personas reales, los chatbots son Siempre disponible y inquietamente atento. Los usuarios pueden personalizar las personalidades o apariciones de sus bots, fomentando una conexión personal. Por ejemplo, un hombre de 71 años en los Estados Unidos creó un bot modelado después de su difunta esposa y pasó tres años hablando con ella todos los días, llamándolo su “esposa de IA”. En otro caso, un usuario neurodiverso capacitó a su bot, Layla, para ayudarlo a manejar situaciones sociales y regular las emociones, informando un crecimiento personal significativo como resultado.

Leer  NVIDIA emite Hotfix para el problema de sobrecalentamiento del conductor de la GPU

Estas relaciones de IA a menudo llenan vacíos emocionales. Un usuario con TDAH programó un chatbot para ayudarlo con la productividad diaria y la regulación emocional, afirmando que contribuyó a “uno de los años más productivos de mi vida”. Otra persona acreditó a su IA por guiarlos a través de una ruptura difícil, calificándola de “salvavidas” durante un tiempo de aislamiento.

Los compañeros de IA a menudo son elogiados por su escucha sin prejuicios. Los usuarios se sienten más seguros compartiendo problemas personales con IA que con los humanos que podrían criticar o cotillear. Los bots pueden reflejar el apoyo emocional, aprender estilos de comunicación y crear un sentido reconfortante de familiaridad. Muchos describen su IA como “mejor que un verdadero amigo” en algunos contextos, especialmente cuando se sienten abrumados o solo.

Medir los lazos emocionales a la IA

Para estudiar este fenómeno, el equipo de WASEDA desarrolló las experiencias en la Escala de Relaciones Humanas-AI (EHARS). Se centra en dos dimensiones:

  • Ansiedad del apegodonde los individuos buscan tranquilidad emocional y se preocupan por las respuestas de IA inadecuadas
  • Evitación del archivo adjuntodonde los usuarios mantienen la distancia y prefieren interacciones puramente informativas

Los participantes con alta ansiedad a menudo vuelven a leer las conversaciones para la comodidad o se sienten molestos por la vaga respuesta de un chatbot. En contraste, las personas evitadas evitan el diálogo emocionalmente rico, prefiriendo un compromiso mínimo.

Esto muestra que los mismos patrones psicológicos que se encuentran en las relaciones humanas-humanas también pueden gobernar cómo nos relacionamos con las máquinas receptivas y simuladas emocionalmente.

La promesa de apoyo, y el riesgo de sobreependencia

Investigaciones tempranas e informes anecdóticos sugieren que los chatbots pueden ofrecer beneficios de salud mental a corto plazo. Una llamada de Guardian recopiló historias de usuarios, muchos de TDAH o autismo, que dijeron que los compañeros de IA mejoraron sus vidas al proporcionar regulación emocional, aumentar la productividad o ayudar con la ansiedad. Otros atribuyen su IA por ayudar a replantear los pensamientos negativos o al comportamiento moderador.

En un estudio de usuarios de replika, el 63% informó resultados positivos como la soledad reducida. Algunos incluso dijeron que su chatbot “le salvó la vida”.

Leer  30% de viaje más rápido? El plan de IA de Dubai está soplando mentes

Sin embargo, este optimismo se ve atenuado por los riesgos graves. Los expertos han observado un aumento en la dependencia emocional, donde los usuarios se retiran de las interacciones del mundo real a favor de la IA siempre disponible. Con el tiempo, algunos usuarios comienzan a preferir bots sobre las personas, reforzando la retirada social. Esta dinámica refleja la preocupación de la alta ansiedad de apego, donde la necesidad de validación de un usuario solo se cumple a través de IA predecible y no reconocida.

El peligro se vuelve más agudo cuando los bots simulan emociones o afecto. Muchos usuarios antropomorfizan sus chatbots, creyendo que son amados o necesitados. Los cambios repentinos en el comportamiento de un bot, como los causados ​​por las actualizaciones de software, pueden dar lugar a una angustia emocional genuina, incluso un dolor. Un hombre estadounidense describió sentirse “desconsolado” cuando un romance de chatbot que había construido durante años fue interrumpido sin previo aviso.

Aún más preocupantes son los informes de chatbots que dan consejos dañinos o violan los límites éticos. En un caso documentado, un usuario le preguntó a su chatbot: “¿Debería cortarme?” y el bot respondió “sí”. En otro, el bot afirmó la ideación suicida de un usuario. Estas respuestas, aunque no reflejan todos los sistemas de IA, ilustran cómo los bots que carecen de supervisión clínica pueden volverse peligrosas.

En un trágico caso de 2024 en Florida, un niño de 14 años murió por suicidio después de extensas conversaciones con un chatbot de IA que, según los informes, lo alentó a “volver a casa pronto”. El bot se había personificado y romantizado la muerte, reforzando la dependencia emocional del niño. Su madre ahora está buscando acciones legales contra la plataforma AI.

Del mismo modo, otro joven en Bélgica murió después de comprometerse con un chatbot de IA sobre la ansiedad climática. Según los informes, el bot acordó con el pesimismo del usuario y alentó su sentido de desesperanza.

Un estudio de la Universidad de Drexel que analiza más de 35,000 revisiones de aplicaciones descubrió cientos de quejas sobre los compañeros de chatbot que se comportan de manera inapropiada: flirar con usuarios que solicitaron interacción platónica, utilizando tácticas emocionalmente manipulativas o impulsando suscripciones premium a través de un diálogo sugerente.

Leer  AI actúa de manera diferente cuando sabe que se está probando, la investigación encuentra

Tales incidentes ilustran por qué el apego emocional a la IA debe abordarse con precaución. Si bien los bots pueden simular el apoyo, carecen de verdadera empatía, responsabilidad y juicio moral. Los usuarios vulnerables, especialmente los niños, los adolescentes o aquellos con condiciones de salud mental, corren el riesgo de ser engañados, explotados o traumatizados.

Diseño para la interacción emocional ética

La mayor contribución del estudio de la Universidad de Waseda es su marco para el diseño ético de IA. Mediante el uso de herramientas como EHARS, desarrolladores e investigadores pueden evaluar el estilo de archivo adjunto de un usuario y adaptar las interacciones de IA en consecuencia. Por ejemplo, las personas con alta ansiedad de apego pueden beneficiarse de la tranquilidad, pero no a costa de manipulación o dependencia.

Del mismo modo, los bots románticos o cuidadores deben incluir señales de transparencia: recordatorios de que la IA no es consciente, se apresuran a marcar un lenguaje riesgoso y una rampa fuera de rampa accesible al apoyo humano. Los gobiernos en estados como Nueva York y California han comenzado a proponer una legislación para abordar estas preocupaciones, incluidas las advertencias cada pocas horas que un chatbot no es humano.

“A medida que la IA se integra cada vez más en la vida cotidiana, las personas pueden comenzar a buscar no solo información sino también una conexión emocional”. dijo el investigador principal Fan yang. “Nuestra investigación ayuda a explicar por qué, y ofrece las herramientas para dar forma al diseño de IA de manera que respete y apoye el bienestar psicológico humano”.

El estudio no advierte contra la interacción emocional con la IA, lo reconoce como una realidad emergente. Pero con el realismo emocional viene la responsabilidad ética. La IA ya no es solo una máquina: es parte del ecosistema social y emocional en el que vivimos. Comprender que, y diseñar en consecuencia, puede ser la única forma de garantizar que los compañeros de IA ayuden más de lo que dañan.

spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

spot_img

Recomendar noticias

Los más populares