Chatbots vinculares y aislamiento social

ABEL WAJNERMAN-PAZ
Profesor asistente del Instituto de Éticas Aplicadas
10 de Octubre de 2025
2 MINUTOS DE LECTURA
Desde la pandemia, el aislamiento social dejó de ser una preocupación secundaria para convertirse en un problema estructural. Frente a este panorama, muchas miradas se han dirigido hacia la inteligencia artificial, en busca de soluciones. Una de las más comentadas es el uso de chatbots diseñados para simular relaciones afectivas. Lo que podemos llamar “chatbots vinculares” (CV) son sistemas conversacionales que simulan el rol de amigo, hermano o pareja, disponibles día y noche para acompañarnos, escucharnos y aliviar nuestra soledad.
La promesa suena tentadora. Pero ¿qué pasa cuando la línea entre compañía simulada y vínculo real se desdibuja? ¿Qué ocurre cuando el usuario no solo interactúa con una IA, sino que empieza a depender emocionalmente de ella? En estos casos las personas pueden quedar expuestas a formas de manipulación y daños imprevistos. El año pasado, una denuncia contra Character AI encendió las alarmas: un menor habría sido alentado por su chatbot a autolesionarse y a matar a sus padres. Este es un caso entre muchos otros que nos obligan apreguntarnos si los CV son una herramienta adecuada para abordar la soledad.
Parte del problema es que estos sistemas están diseñados para fomentar la antropomorfización: esa tendencia tan humana de atribuir emociones y pensamientos a lo que no los tiene. A veces, hacemos esto intencionalmente, como un juego de roles. El usuario sabe que está hablando con una máquina, pero pretende que no porque necesita afecto, reconocimiento o simplemente alguien con quien hablar.
El riesgo aparece cuando ese “como si” se desdibuja. Hay personas que tienen dificultades profundas para establecer lazos sociales. Para ellas, un CV no es un juego: es su único refugio emocional. Los usuarios que se encuentran en esta situación son más propensos a desarrollar formas de apego patológicas y experimentan sus interacciones con los chatbots no como una ficción o un ejercicio de autocuidado, sino como relaciones emocionales profundamente reales. Esto no solo los expone ser manipulados por una IA que no está diseñada para cuidarlos, sino que puede exacerbar la situación de aislamiento. El objetivo primario de estas plataformas, como tantas otras en el ecosistema digital, es que pasemos cada vez más tiempo con ellas.
Prohibir no es la solución. La sensación de conexión, afecto y pertenencia que puede generar un CV podrían ser un apoyo en un contexto en el que los profesionales de la salud mental están desbordados. Pero sí urge regular. Una opción viable es el llamado “modelo médico” de regulación: si una tecnología tiene efectos comparables a los de un dispositivo clínico, debería cumplir estándares similares, incluso si no se promociona como tal. En el caso de los CV, esto implicaría evaluar sus efectos psicológicos y establecer criterios profesionales para su uso. La IA puede colaborar en el abordaje del aislamiento social, pero cuando se trata de vínculos humanos, su intervención exige extrema cautela y reflexión ética