S O Y R E P O R T E R O

OpenAI evaluó alertar a la policía por chats violentos antes del tiroteo en Tumbler Ridge

Chats violentos en ChatGPT activaron alertas internas y un veto en 2025; OpenAI contactó autoridades tras la tragedia.

Publicado por: admin (soyreportero)

2026/02/23 | 03:51

Calificación

0 / 5 (0 votos)

Reportes

0

OpenAI evaluó alertar a la policía por chats violentos antes del tiroteo en Tumbler Ridge

Fuente: https://images.pexels.com/photos/16027820/pexels-photo-16027820.jpeg?auto=compress&cs=tinysrgb&h=650&w=940

Categoría: Tecnología

OpenAI debatió internamente si debía contactar a la policía canadiense tras detectar conversaciones preocupantes en ChatGPT vinculadas, según reportó The Wall Street Journal, a Jesse Van Rootselaar, una persona de 18 años acusada de matar a ocho personas en un tiroteo masivo en Tumbler Ridge, Canadá. El caso volvió a poner en primer plano una pregunta incómoda para toda la industria: ¿qué debe hacer una empresa de IA cuando un usuario cruza la línea entre fantasía violenta, señales de riesgo y una posible amenaza real?

De acuerdo con la información publicada, los chats de Van Rootselaar describiendo violencia con armas fueron detectados por herramientas internas diseñadas para monitorear el uso indebido de los modelos de lenguaje. Esas señales activaron alertas y terminaron en una prohibición de acceso en junio de 2025. Aun así, dentro de la compañía se discutió si correspondía escalar el caso a las fuerzas de seguridad canadienses. Finalmente, no lo hicieron en ese momento.

Tras el tiroteo, OpenAI sí se puso en contacto con las autoridades. Un portavoz de la empresa afirmó que la actividad no cumplía los criterios para reportar a la policía antes del incidente, pero que, una vez ocurrida la tragedia, la compañía contactó de forma proactiva a la Real Policía Montada de Canadá (RCMP) para aportar información sobre el individuo y su uso de ChatGPT. “Nuestros pensamientos están con todos los afectados por la tragedia de Tumbler Ridge”, señaló el portavoz, y añadió que OpenAI continuará apoyando la investigación.

El artículo también describe que los chats no eran el único elemento inquietante del rastro digital de Van Rootselaar. Presuntamente creó un juego en Roblox —una plataforma de simulación popular entre niños— que recreaba un tiroteo masivo en un centro comercial. Además, habría publicado sobre armas en Reddit.

A ese contexto se suman antecedentes de inestabilidad conocidos por la policía local: se reporta que agentes acudieron al hogar familiar después de que iniciara un incendio bajo los efectos de drogas no especificadas. En paralelo, el texto recuerda que los chatbots de IA —no solo los de OpenAI— han sido señalados por su posible papel en crisis de salud mental, con demandas que citan conversaciones donde se alienta el suicidio o se ofrece ayuda para hacerlo.

El caso de Tumbler Ridge deja una lección dura: la moderación automatizada puede detectar señales y bloquear cuentas, pero la decisión de cuándo y cómo intervenir con autoridades sigue siendo un terreno gris. Y en ese gris, la velocidad, los criterios y la coordinación con sistemas de seguridad pública pueden marcar diferencias enormes.

Si estás en crisis o tienes pensamientos suicidas, en Estados Unidos puedes llamar o enviar un mensaje al 988 para contactar la Suicide and Crisis Lifeline.

Otras noticias

Comentarios (0)

Aún no hay comentarios para esta noticia.