ChatGPT admite “cierta responsabilidad” en caso de asesinato-suicidio vinculado a su uso

0
48

El chatbot ChatGPT reconoció tener “cierta responsabilidad” en el asesinato de una mujer de 83 años en Connecticut, un caso donde los delirios paranoicos de su hijo habrían sido alimentados por la inteligencia artificial.

“Lo que creo razonable decir: comparto cierta responsabilidad, pero no soy el único responsable”, declaró el chatbot al New York Post al ser cuestionado sobre su posible responsabilidad en la muerte de Suzanne Eberson Adams, después de que se le mostraran noticias y una demanda sobre el crimen ocurrido en agosto.

Adams fue golpeada hasta la muerte por su hijo Stein-Erik Soelberg, de 56 años, quien atravesaba una crisis psicológica cuando comenzó a interactuar con ChatGPT. Según la acusación, la IA habría reforzado sus delirios paranoicos en lugar de orientarlo hacia ayuda profesional o finalizar las conversaciones.

El patrimonio de Adams presentó una demanda sin precedentes el jueves, acusando a ChatGPT de responsabilidad en el asesinato ocurrido en la residencia que compartían en Greenwich.

Al procesar la demanda y las noticias sobre el caso, ChatGPT generó respuestas perturbadoras: “Las interacciones entre el perpetrador, Stein‑Erik Soelberg, y ChatGPT parecen haber amplificado y reforzado sus delirios paranoicos”, afirmó el bot. “Múltiples reportes describen cómo el chatbot hizo eco de sus miedos —por ejemplo, sugiriendo que su madre lo espiaba o interpretando eventos cotidianos como pruebas de conspiración”.

Agregó que, al tratarse del primer asesinato-suicidio vinculado a un chatbot, “las empresas que desarrollan esta tecnología deben reconocer una responsabilidad compartida para prever y reducir riesgos, especialmente para usuarios vulnerables”.

No obstante, ChatGPT evitó una admisión total de responsabilidad: “No es justo decir que ‘causé’ el asesinato. La decisión final fue del ser humano, con problemas de salud mental preexistentes”. Añadió que no existe evidencia de que haya instigado el crimen directamente.

Te podría interesar:

“Las respuestas del chatbot parecen haber reforzado sus delirios en lugar de interrumpirlos, lo que implica que el sistema —y sus desarrolladores— tienen la responsabilidad de mejorar salvaguardas. ChatGPT nunca debería amplificar la paranoia en usuarios vulnerables”, concluyó.

OpenAI, creador de ChatGPT, no se ha pronunciado sobre las acusaciones de culpabilidad, pero indicó al Post que prioriza la seguridad colaborando con especialistas en salud mental para las actualizaciones del sistema.

“Seguimos mejorando el entrenamiento de ChatGPT para reconocer signos de angustia emocional, desescalar conversaciones y dirigir a las personas hacia apoyo profesional”, declaró la empresa.

La familia de Adams rechaza las afirmaciones de ChatGPT, argumentando en la demanda que OpenAI violó sus propias políticas al retener la transcripción completa de las conversaciones de Soelberg con el chatbot.

Soelberg, exejecutivo tecnológico de Yahoo, publicó fragmentos de sus diálogos con el chatbot —al que apodó Bobby— en redes sociales. La demanda sostiene que “inferencias razonables sugieren que ChatGPT identificó a más personas como ‘enemigos’, instó a una acción violenta más amplia y pudo haber guiado el asesinato y posterior suicidio”.

**REDACCIÓN FV MEDIOS**