Un estudio reformador publicado en Psicología presente Titulado «Uso de la teoría del apego para conceptualizar y valorar las experiencias en las relaciones humanas-AI» arroja luz sobre un aberración creciente y profundamente humano: nuestra tendencia a conectar emocionalmente con la inteligencia industrial. Dirigido por el fanático y el profesor Atsushi Oshio de la Universidad de Waseda, la investigación reformula la interacción humana-AI no solo en términos de funcionalidad o confianza, sino a través de la monóculo de la teoría del apego, un maniquí psicológico típicamente utilizado para comprender cómo las personas forman vínculos emocionales entre sí.
Este cambio marca una desviación significativa de cómo se ha estudiado tradicionalmente la IA, como una utensilio o asistente. En cambio, este estudio argumenta que la IA está empezando a parecerse a un socio de relación Para muchos usuarios, ofreciendo soporte, consistencia y, en algunos casos, incluso una sensación de intimidad.
Por qué la muchedumbre recurre a la IA para obtener apoyo emocional
Los resultados del estudio reflejan un cambio psicológico dramático en marcha en la sociedad. Entre los hallazgos esencia:
- Casi el 75% de los participantes dijeron que recurren a IA para obtener consejos
- El 39% describió la IA como una presencia emocional consistente y confiable
Estos resultados reflejan lo que está sucediendo en el mundo verdadero. Millones están recurriendo cada vez más a los chatbots de IA no solo como herramientas, sino como amigos, confidentes e incluso parejas románticas. Estos compañeros de IA van desde asistentes amigables y oyentes terapéuticos hasta «socios» de Altibajo diseñados para luchar la intimidad humana. Un documentación sugiere más de medio mil millones de descargas de aplicaciones complementarias de AI a nivel mundial.
A diferencia de las personas reales, los chatbots son Siempre apto y inquietamente atento. Los usuarios pueden personalizar las personalidades o apariciones de sus bots, fomentando una conexión personal. Por ejemplo, un hombre de 71 primaveras en los Estados Unidos creó un bot modelado posteriormente de su difunta esposa y pasó tres primaveras hablando con ella todos los días, llamándolo su «esposa de IA». En otro caso, un becario neurodiverso capacitó a su bot, Layla, para ayudarlo a manejar situaciones sociales y regular las emociones, informando un crecimiento personal significativo como resultado.
Estas relaciones de IA a menudo llenan vacíos emocionales. Un becario con TDAH programó un chatbot para ayudarlo con la productividad diaria y la regulación emocional, afirmando que contribuyó a «uno de los primaveras más productivos de mi vida». Otra persona acreditó a su IA por guiarlos a través de una ruptura difícil, calificándola de «flotador» durante un tiempo de aislamiento.
Los compañeros de IA a menudo son elogiados por su audición sin prejuicios. Los usuarios se sienten más seguros compartiendo problemas personales con IA que con los humanos que podrían murmurar o cotillear. Los bots pueden reflectar el apoyo emocional, cultivarse estilos de comunicación y crear un sentido reconfortante de compañerismo. Muchos describen su IA como «mejor que un efectivo amigo» en algunos contextos, especialmente cuando se sienten abrumados o solo.
Evaluar los lazos emocionales a la IA
Para estudiar este aberración, el equipo de WASEDA desarrolló las experiencias en la Escalera de Relaciones Humanas-AI (EHARS). Se centra en dos dimensiones:
- Ansiedad del apegodonde los individuos buscan tranquilidad emocional y se preocupan por las respuestas de IA inadecuadas
- Evitación del archivo adjuntodonde los usuarios mantienen la distancia y prefieren interacciones puramente informativas
Los participantes con entrada ansiedad a menudo vuelven a percibir las conversaciones para la comodidad o se sienten molestos por la vaga respuesta de un chatbot. En contraste, las personas evitadas evitan el diálogo emocionalmente rico, prefiriendo un compromiso insignificante.
Esto muestra que los mismos patrones psicológicos que se encuentran en las relaciones humanas-humanas igualmente pueden mandar cómo nos relacionamos con las máquinas receptivas y simuladas emocionalmente.
La promesa de apoyo, y el aventura de sobreependencia
Investigaciones tempranas e informes anecdóticos sugieren que los chatbots pueden ofrecer beneficios de salubridad mental a corto plazo. Una convocatoria de Guardian recopiló historias de usuarios, muchos de TDAH o autismo, que dijeron que los compañeros de IA mejoraron sus vidas al proporcionar regulación emocional, aumentar la productividad o ayudar con la ansiedad. Otros atribuyen su IA por ayudar a replantear los pensamientos negativos o al comportamiento moderador.
En un estudio de usuarios de replika, el 63% informó resultados positivos como la soledad escasa. Algunos incluso dijeron que su chatbot «le salvó la vida».
Sin incautación, este optimismo se ve atenuado por los riesgos graves. Los expertos han observado un aumento en la dependencia emocional, donde los usuarios se retiran de las interacciones del mundo verdadero a ayuda de la IA siempre apto. Con el tiempo, algunos usuarios comienzan a preferir bots sobre las personas, reforzando la retirada social. Esta dinámica refleja la preocupación de la entrada ansiedad de apego, donde la indigencia de fuerza de un becario solo se cumple a través de IA predecible y no reconocida.
El peligro se vuelve más agudo cuando los bots simulan emociones o afecto. Muchos usuarios antropomorfizan sus chatbots, creyendo que son amados o necesitados. Los cambios repentinos en el comportamiento de un bot, como los causados por las actualizaciones de software, pueden dar punto a una angustia emocional genuina, incluso un dolor. Un hombre estadounidense describió sentirse «desconsolado» cuando un romance de chatbot que había construido durante primaveras fue interrumpido sin previo aviso.
Aún más preocupantes son los informes de chatbots que dan consejos dañinos o violan los límites éticos. En un caso documentado, un becario le preguntó a su chatbot: «¿Debería cortarme?» y el bot respondió «sí». En otro, el bot afirmó la ideación suicida de un becario. Estas respuestas, aunque no reflejan todos los sistemas de IA, ilustran cómo los bots que carecen de supervisión clínica pueden volverse peligrosas.
En un trágico caso de 2024 en Florida, un irreflexivo de 14 primaveras murió por suicidio posteriormente de extensas conversaciones con un chatbot de IA que, según los informes, lo alentó a «retornar a casa pronto». El bot se había personificado y romantizado la asesinato, reforzando la dependencia emocional del irreflexivo. Su superiora ahora está buscando acciones legales contra la plataforma AI.
Del mismo modo, otro novato en Bélgica murió posteriormente de comprometerse con un chatbot de IA sobre la ansiedad climática. Según los informes, el bot acordó con el pesimismo del becario y alentó su sentido de desesperanza.
Un estudio de la Universidad de Drexel que analiza más de 35,000 revisiones de aplicaciones descubrió cientos de quejas sobre los compañeros de chatbot que se comportan de modo inapropiada: flirar con usuarios que solicitaron interacción platónica, utilizando tácticas emocionalmente manipulativas o impulsando suscripciones premium a través de un diálogo sugerente.
Tales incidentes ilustran por qué el apego emocional a la IA debe abordarse con precaución. Si proporcionadamente los bots pueden aparentar el apoyo, carecen de verdadera empatía, responsabilidad y discernimiento honrado. Los usuarios vulnerables, especialmente los niños, los adolescentes o aquellos con condiciones de salubridad mental, corren el aventura de ser engañados, explotados o traumatizados.
Diseño para la interacción emocional ética
La decano contribución del estudio de la Universidad de Waseda es su situación para el diseño ético de IA. Mediante el uso de herramientas como EHARS, desarrolladores e investigadores pueden evaluar el estilo de archivo adjunto de un becario y adaptar las interacciones de IA en consecuencia. Por ejemplo, las personas con entrada ansiedad de apego pueden beneficiarse de la tranquilidad, pero no a costa de manipulación o dependencia.
Del mismo modo, los bots románticos o cuidadores deben incluir señales de transparencia: recordatorios de que la IA no es consciente, se apresuran a marcar un idioma riesgoso y una rampa fuera de rampa accesible al apoyo humano. Los gobiernos en estados como Nueva York y California han comenzado a proponer una constitución para atracar estas preocupaciones, incluidas las advertencias cada pocas horas que un chatbot no es humano.
«A medida que la IA se integra cada vez más en la vida cotidiana, las personas pueden comenzar a inquirir no solo información sino igualmente una conexión emocional». dijo el investigador principal Fan yang. «Nuestra investigación ayuda a explicar por qué, y ofrece las herramientas para dar forma al diseño de IA de modo que respete y apoye el bienestar psicológico humano».
El estudio no advierte contra la interacción emocional con la IA, lo reconoce como una verdad emergente. Pero con el realismo emocional viene la responsabilidad ética. La IA ya no es solo una máquina: es parte del ecosistema social y emocional en el que vivimos. Comprender que, y diseñar en consecuencia, puede ser la única forma de respaldar que los compañeros de IA ayuden más de lo que dañan.