OpenAI ChatGPT Detectó Advertencia De Tirador Pero No Actuó Antes De La Masacre Canadiense

0
62


Ocho meses antes de que Jesse Van Rootselaar matara a ocho personas en el tiroteo escolar más mortífero de Canadá, los sistemas de OpenAI marcaron su cuenta de ChatGPT por discutir escenarios de violencia con armas de fuego. Los documentos internos muestran que los empleados instaron a la notificación policial, pero la dirección se negó – una decisión que ahora está bajo intensa escrutinio.

OpenAI ChatGPT detectó advertencia de tirador meses antes de la tragedia

En junio de 2025, los sistemas de monitoreo automatizados de OpenAI identificaron la cuenta de Van Rootselaar por “fomento de actividades violentas”. Aproximadamente una docena de empleados revisaron las conversaciones, y algunos recomendaron el contacto inmediato con las autoridades canadienses. Según The Wall Street Journal, la gerencia rechazó estas preocupaciones.

OpenAI prohibió la cuenta, pero afirmó que el contenido no cumplía con los umbrales para la escalada de la aplicación de la ley. Su política requiere “planificación creíble o inminente” antes de divulgar datos de usuarios. El 10 de febrero de 2026, Van Rootselaar asesinó a su familia antes de atacar la Escuela Secundaria Tumbler Ridge, matando a cinco estudiantes y un miembro del personal, e hiriendo a 27 personas.

La creciente crisis de las amenazas detectadas por la IA

Este caso se une a un patrón inquietante de incidentes violentos relacionados con interacciones de IA. Múltiples demandas alegan que los chatbots han actuado como “coaches de suicidio” o han reforzado delusiones peligrosas. El Centro de Víctimas de los Medios Sociales presentó siete casos separados contra OpenAI en noviembre de 2025 solo. Para obtener más información sobre el papel de la IA en la configuración del futuro, visite nuestro artículo sobre el futuro de la IA.

Van Rootselaar dejó huellas digitales adicionales más allá de ChatGPT, incluyendo un juego de simulación de tiroteo en un centro comercial en Roblox y actividad en foros de gore. Los funcionarios canadienses expresan frustración porque ninguno de estos signos de advertencia desencadenaron una intervención.

El equilibrio imposible entre la privacidad y la protección

OpenAI defiende su inacción citando preocupaciones de privacidad. Un portavoz le dijo a Fox News que “ser demasiado liberal con las referencias policiales puede crear daños no deseados”. Esta postura contradice la admisión del CEO Sam Altman en julio de 2025 de que las conversaciones de ChatGPT no tienen protección de confidencialidad legal. Para obtener más información sobre las aplicaciones de la IA en diversas industrias, consulte nuestro artículo sobre las 5 aplicaciones innovadoras de la inteligencia artificial.

La posición de la empresa crea un paradoja: sus sistemas monitorean activamente las conversaciones en busca de violaciones de políticas, pero afirman que la privacidad impide actuar sobre amenazas claras. Como se señaló en el estudio de informes policiales generados por IA, este enfoque combina la vigilancia sin responsabilidad. Para una visión más profunda del papel de la IA en la aplicación de la ley, visite nuestro artículo sobre conferencias de IA de 2026.

Canadá exige respuestas mientras se disuelven los equipos de seguridad

El primer ministro de Columbia Británica, David Eby, calificó las revelaciones de “profundamente inquietantes”. El incidente coincide con el desmantelamiento de los equipos de seguridad de OpenAI, incluido el grupo Superalignment cuyo co-líder renunció por preocupaciones de seguridad que “tomaron un asiento trasero a productos brillantes”.

Con investigadores documentando un aumento en el uso de la IA para la planificación de ataques a nivel global, la tragedia de Tumbler Ridge fuerza preguntas urgentes sobre las obligaciones de las empresas de tecnología cuando sus sistemas detectan amenazas del mundo real. Mientras que los funcionarios canadienses buscan órdenes de preservación de evidencia, el mundo observa si los gigantes de la IA priorizarán las vidas humanas sobre los cálculos de riesgo corporativo.

Te podría interesar:

Definiciones y contexto

La inteligencia artificial (IA) se refiere al desarrollo de sistemas informáticos que pueden realizar tareas que normalmente requieren inteligencia humana, como comprender el lenguaje, reconocer imágenes y tomar decisiones. Los sistemas de IA como ChatGPT están diseñados para aprender de grandes conjuntos de datos y mejorar su rendimiento con el tiempo.

El aprendizaje automático es un subconjunto de la IA que implica entrenar algoritmos en datos para permitirles hacer predicciones o tomar acciones. En el contexto de ChatGPT, el aprendizaje automático se utiliza para analizar la entrada del usuario y generar respuestas relevantes y precisas.

El procesamiento de lenguaje natural (NLP) es un campo de la IA que se centra en la interacción entre computadoras y humanos en lenguaje natural. El NLP se utiliza en ChatGPT para comprender el significado y el contexto de la entrada del usuario y generar respuestas gramaticalmente correctas y relevantes.

La ética de la IA es un campo en crecimiento que explora las implicaciones morales y sociales de los sistemas de IA. A medida que la IA se integra cada vez más en nuestra vida diaria, es necesario considerar los posibles riesgos y beneficios de estos sistemas y desarrollar pautas para su desarrollo y uso.

FAQ – Preguntas frecuentes

¿Qué es ChatGPT y cómo funciona?

ChatGPT es un chatbot desarrollado por OpenAI que utiliza el procesamiento de lenguaje natural y el aprendizaje automático para generar respuestas similares a las humanas a la entrada del usuario. Funciona analizando la entrada del usuario y generando una respuesta basada en su comprensión del contexto y el significado.

¿Cuáles son los posibles riesgos y beneficios de los sistemas de IA como ChatGPT?

Los posibles riesgos de los sistemas de IA como ChatGPT incluyen la difusión de información errónea, el refuerzo de sesgos y estereotipos, y el potencial de que estos sistemas se utilicen para fines maliciosos. Los beneficios incluyen la capacidad de proporcionar apoyo y asistencia personalizados, el potencial de mejorar la comprensión y generación del lenguaje, y la capacidad de automatizar tareas rutinarias.

¿Cómo podemos garantizar que los sistemas de IA como ChatGPT se desarrollen y utilicen de manera responsable?

Para garantizar que los sistemas de IA como ChatGPT se desarrollen y utilicen de manera responsable, es necesario tener transparencia y rendición de cuentas en su desarrollo y despliegue. Esto incluye proporcionar pautas claras para su uso, garantizar que se prueben y evalúen para posibles sesgos y riesgos, y desarrollar regulaciones y leyes que gobiernen su desarrollo y uso.





Source link