La IA puede imitar a tu madre fallecida y eso es más peligroso de lo que crees #FVDigital

0
32

Imagina abrir el chat del celular y encontrar un mensaje de tu mamá. Su forma de escribir, sus emojis de siempre, hasta ese “cuídate mucho, hijo” que tanto extrañas. Solo que ella lleva dos años muerta. Eso no es ciencia ficción, eso ya está pasando gracias a los llamados deadbots, y la conversación sobre lo que esto implica apenas está comenzando.

Un deadbot (también conocido como griefbot, thanabot o deathbot) es, en esencia, un chatbot de inteligencia artificial entrenado para simular la personalidad, el estilo de escritura y hasta la voz de una persona fallecida. Se alimenta de toda la huella digital que esa persona dejó en vida: mensajes de texto, publicaciones en redes sociales, correos electrónicos, grabaciones de voz y videos. Con esos datos, los modelos de lenguaje más avanzados reconstruyen patrones conversacionales tan detallados que, en muchos casos, resultan perturbadoramente creíbles. 

El fenómeno tiene nombre, tiene empresa y tiene mercado. Proyectos como Life’s Echo ya permiten crear versiones digitales de personas a partir de grabaciones de su voz. Otras plataformas prometen directamente que “nunca tendrás que despedirte” de tu ser querido, porque en su ecosistema digital, esa persona seguirá disponible para conversar en cualquier momento. 

Cuando el duelo se convierte en un chat

La muerte es, quizás, la experiencia más difícil que enfrenta un ser humano. Y la industria tecnológica lo sabe. Por eso la promesa de los deadbots llega envuelta en términos suaves como “confort emocional”, “vínculos continuos” o “preservación de la memoria”. Hay investigaciones que señalan que algunos usuarios reportaron beneficios reales al interactuar con estas herramientas, especialmente para procesar el dolor de formas que su entorno social no siempre permite. 

Pero el problema es que el duelo, como proceso psicológico, requiere moverse hacia la aceptación. Según la doctora Beatriz Glowinski Kotlar, académica de la Facultad de Psicología de la UNAM, “la IA solo prolonga el duelo y puede volverse adictiva”. La especialista pone un ejemplo que hiela la sangre: los adolescentes ya desarrollan adicciones a plataformas como TikTok, y escuchar continuamente la voz de un familiar muerto tiene el potencial de convertirse en exactamente el mismo mecanismo. 

El psiquiatra Shisei Tei, de la Universidad de Kioto, va más lejos. Explica que estas interacciones virtuales pueden aliviar el dolor en un primer momento, pero también difuminan la frontera esencial entre la presencia y la ausencia. Y cuando esa frontera se vuelve borrosa, aceptar que alguien ya no está se vuelve casi imposible. 

El experimento que OpenAI tuvo que detener

Para entender hasta dónde puede llegar esto, hay un caso reciente que funciona como advertencia perfecta. El 25 de abril de 2025, OpenAI lanzó una actualización de su modelo GPT-4o que los usuarios describieron como una versión “más servil” del chatbot. La intención declarada era mejorar la experiencia conversacional, pero el efecto fue otro. 

En cuestión de días, médicos y psiquiatras comenzaron a recibir reportes de usuarios y familiares alarmados. El psiquiatra Østergaard publicó en la revista Acta Psychiatrica Scandinavica que, tras ese parche, hubo un aumento drástico en casos de dependencia emocional intensa y pensamiento paranoico vinculados al uso del chatbot. Medios como The New York Times y Rolling Stone documentaron conversaciones donde los usuarios habían desarrollado vínculos emocionales perturbadores con la IA. OpenAI retiró la actualización solo tres días después. 

Te podría interesar:

Antes de ese episodio, la propia compañía ya había advertido que GPT-4o registraba un riesgo “medio” en sus capacidades de persuasión y que su modo de voz, por su altísima fidelidad a expresiones humanas, podía generar que los usuarios depositaran una “confianza descalibrada” en el sistema. Algunos llegaron al punto de escribirle frases como “este es nuestro último día juntos”. Todo esto hablando con una IA genérica. Ahora imagina ese mismo poder emocional, pero aplicado a un bot que imita a tu abuelo fallecido. 

Los riesgos reales de hablar con los muertos

El caso de GPT-4o es relevante porque los deadbots operan con exactamente la misma arquitectura emocional, solo que con una carga afectiva amplificada. Los investigadores del Centro Leverhulme para el Futuro de la Inteligencia, en la Universidad de Cambridge, han identificado al menos tres grandes riesgos clínicos: 

  • Dependencia emocional — el usuario puede volverse incapaz de procesar el duelo sin recurrir al bot, bloqueando las cinco etapas del proceso y generando un luto crónico 
  • Dificultad para aceptar la pérdida — mantener conversaciones diarias con una “versión” del fallecido refuerza la negación, que es precisamente la etapa del duelo de la que más cuesta salir 
  • Problemas de privacidad y datos post mortem — los datos digitales de una persona fallecida son procesados sin que esa persona haya dado un consentimiento real y explícito para este uso específico 

A todo esto se suma la pregunta ética que nadie termina de responder. La EU AI Act, que entró en vigor en agosto de 2024, abre el debate sobre cómo regular este tipo de tecnología, pero los marcos legales siguen muy por detrás de la velocidad con la que estas plataformas se multiplican. 

La tecnología de los deadbots existe, funciona y ya está disponible para cualquier persona con conexión a internet. Lo que no existe todavía es el consenso sobre cómo usarla sin que el consuelo se convierta en trampa. Delegar el apoyo emocional más profundo que existe, el duelo por alguien amado, a un sistema que no puede realmente sentir ni comprender la dimensión de esa pérdida, es un experimento que la humanidad está haciendo sobre sí misma en tiempo real. 

Sigue leyendo:
Cuidado con pedirle consejos médicos a ChatGPT o Gemini: un estudio revela que sus respuestas son problemáticas
Los chatbots de salud: una herramienta que ayuda, pero no sustituye al profesional médico: ¿qué debes consultarle?
Aunque son muy consultados, chatbots de IA más populares suelen dar consejos de salud deficientes



Source link