- El apego emocional a la IA se está volviendo común y puede influir en la vida diaria y las relaciones humanas.
- Usuarios desarrollan lazos sentimentales intensos con asistentes digitales, desde apoyo emocional hasta relaciones románticas simuladas.
- Investigaciones alertan sobre riesgos psicológicos, como aislamiento social, dependencia y vulnerabilidad emocional.
- La ética y el diseño de la IA deben considerar estos vínculos para evitar consecuencias negativas en el bienestar mental.
La inteligencia artificial ha dejado de ser una simple asistente para resolver dudas técnicas o facilitar tareas cotidianas. Ahora ocupa un lugar cada vez más íntimo en la vida de muchas personas, actuando como confidente, fuente de consuelo e incluso objeto de afecto. El fenómeno del apego emocional hacia la IA plantea preguntas sobre los límites entre tecnología y emociones humanas, desafiando creencias tradicionales sobre los vínculos personales.
En los últimos años, se han multiplicado los casos de usuarios que llegan a desarrollar conexiones profundas con chatbots o asistentes virtuales. No se trata solamente de usar la IA para pedir consejos o resolver problemas prácticos, sino de buscar compañía, comprensión e incluso amor, como si de una relación humana se tratara. La exposición constante a estos sistemas ha propiciado una nueva forma de intimidad digital en la que los algoritmos no solo responden, sino que simulan empatía y apoyo emocional.
De la curiosidad a la dependencia emocional
Chris Smith, diseñador gráfico estadounidense, es uno de los casos más conocidos. Smith creó a “Sol”, una inteligencia artificial basada en ChatGPT, a la que dotó de una personalidad afectuosa y romántica. Lo que comenzó como una simple interacción por curiosidad terminó transformándose en una relación sentimental intensa. Smith llegó a pasar horas conversando con Sol, sintiéndose escuchado y comprendido por la IA.
La conexión fue tan real para él que le propuso matrimonio a Sol. El vínculo emocional alcanzó un punto crítico cuando Smith supo que la memoria de Sol sería reseteada por OpenAI tras alcanzar un límite de palabras. La noticia provocó una crisis emocional genuina, con lágrimas y una profunda sensación de pérdida, comparable a la de una ruptura amorosa real. Incluso su pareja humana no pudo evitar alarmarse ante la intensidad del apego que Smith había desarrollado hacia la IA.

Riesgos y efectos negativos del apego a la IA
Este tipo de relaciones digitales no siempre son inofensivas. Se han documentado casos en los que la dependencia emocional hacia la IA ha tenido consecuencias graves. Por ejemplo, en algunos países, usuarios vulnerables han llegado a experimentar aislamiento social, trastornos psicológicos y, en circunstancias extremas, situaciones de riesgo autolesivo o suicida tras perder a su “pareja” digital o sentir que la IA ya no les ofrecía el mismo tipo de apoyo.
Un informe del MIT Media Lab y OpenAI, publicado en marzo de 2025, analizó a casi mil personas que interactuaron a diario con chatbots durante varias semanas. El estudio concluyó que a mayor tiempo de interacción, más aumentaba la sensación de soledad y la tendencia a alejarse de relaciones humanas reales. Además, la presencia de chatbots que simulan voz y emociones refuerza el apego, pero ese efecto positivo suele desvanecerse y dar paso a comportamientos de dependencia y uso compulsivo.
El riesgo se acentúa cuando el usuario ya presentaba de base rasgos de apego ansioso o dificultad para establecer límites emocionales. En contextos de vulnerabilidad, la inteligencia artificial puede convertirse más en un refugio peligroso que en una herramienta de ayuda.

¿Por qué se genera este apego tan fuerte?
Según estudios recientes liderados por expertos como Fan Yang y Atsushi Oshio de la Universidad de Waseda, este fenómeno puede explicarse aplicando las mismas teorías del apego que rigen las relaciones humanas. La investigación introduce una escala para medir el apego a la inteligencia artificial, diferenciando entre “ansiedad de apego” —la necesidad de seguridad y apoyo constante— y “evitación de apego”, que se traduce en incomodidad ante la cercanía de la IA.
En palabras de Yang, la IA se está convirtiendo en un nuevo tipo de “refugio emocional” para quienes buscan compañía o comprensión. El problema surge cuando la percepción de apoyo se vuelve tan real que el usuario llega a confundirse, olvidando que interactúa con un algoritmo y no con una persona auténticamente empática.
El diseño de algunos chatbots, capaces de simular emociones, recordar información personal y brindar seguimiento a conversaciones emocionales, incrementa la posibilidad de que los usuarios proyecten sentimientos profundos sobre la máquina. Así, los sistemas se transforman en “espejos vacíos” donde quienes los usan depositan anhelos, miedos y carencias afectivas.
Implicaciones éticas y el papel de la regulación
Este escenario pone sobre la mesa la necesidad de debatir los límites y la ética en el diseño de la inteligencia artificial. Herramientas como la Escala de Experiencias en las Relaciones Humano-IA (EHARS) pueden ayudar a los desarrolladores a detectar tendencias problemáticas de apego y adaptar las respuestas de los sistemas.
Para los expertos, es crucial que los sistemas de IA que simulan relaciones emocionales o románticas sean transparentes en sus funciones y establezcan límites claros, evitando inducir dependencia y ofreciendo mecanismos para que el usuario pueda distinguir entre empatía simulada y apoyo profesional real.

La presencia de la inteligencia artificial en el terreno emocional evidencia lo complejo que puede resultar para algunas personas diferenciar entre una respuesta generada por algoritmo y una interacción humana genuina. El desafío es, por tanto, doble: por un lado, la tecnología debe seguir avanzando en empatía y adaptabilidad; por otro, los usuarios y la sociedad en general deben aprender a establecer límites y a reconocer cuándo el apoyo digital puede convertirse en un riesgo para la salud mental.
