Cuando la IA detecta el riesgo, pero la decisión final sigue en manos humanas

0
24


El director ejecutivo de OpenAI, Sam Altman, pidió disculpas a una comunidad de Canadá tras revelarse que sus sistemas de inteligencia artificial detectaron meses antes comportamientos de riesgo en el autor de un tiroteo escolar, pero no se alertó a las autoridades.

La empresa identificó en junio de 2025 la cuenta del atacante por uso del modelo para fomentar actividades violentas y procedió a suspenderla, siguiendo los protocolos establecidos.

Sin embargo, pese a que algunos empleados recomendaron notificar a las fuerzas del orden, la dirección concluyó que no existía un riesgo inminente y decidió no escalar el caso.

Te puede interesar leer: CEO de OpenAI, Sam Altman, enfrenta demanda por presunto abuso sexual a su hermana

Meses después, el 10 de febrero, el atacante perpetró un tiroteo en una escuela secundaria de Tumbler Ridge, donde murieron cinco estudiantes y una profesora, además de causar decenas de heridos.

El caso ha reavivado el debate sobre el papel de la inteligencia artificial en la prevención de la violencia, evidenciando que los sistemas automatizados funcionaron, pero falló la decisión humana.

Te podría interesar:

Según las revelaciones, no existía obligación legal en Canadá ni en Estados Unidos para reportar este tipo de amenazas, lo que dejó la decisión en manos de la empresa.

La polémica se amplía con una investigación abierta en Florida por un caso similar, donde también se analiza el uso de ChatGPT por parte de un atacante.

El episodio plantea cuestionamientos sobre la autorregulación de las compañías tecnológicas y la necesidad de establecer marcos legales que obliguen a actuar ante riesgos detectados por inteligencia artificial.



Source link