OpenAI evaluó alertar a la policía por chats violentos antes del tiroteo en Tumbler Ridge
Chats violentos de un joven fueron detectados y bloqueados en 2025; OpenAI debatió reportar y contactó tras el ataque.
Calificación
0 / 5 (0 votos)
Fuente: https://images.pexels.com/photos/15863103/pexels-photo-15863103.jpeg?auto=compress&cs=tinysrgb&h=650&w=940
Categoría: Tecnología
OpenAI discutió internamente si debía contactar a la policía canadiense por conversaciones preocupantes detectadas en ChatGPT, vinculadas —según reportó The Wall Street Journal— a Jesse Van Rootselaar, una persona de 18 años acusada de matar a ocho personas en un tiroteo masivo en Tumbler Ridge, Canadá. El caso reabre una pregunta incómoda para toda la industria: ¿qué debe hacer una empresa de IA cuando sus sistemas detectan señales de posible violencia, pero no está claro si se trata de fantasía, provocación o un riesgo real e inminente?De acuerdo con la información publicada, el comportamiento en la plataforma fue señalado por herramientas internas diseñadas para monitorear el uso indebido de modelos de lenguaje. Esas interacciones, que describían violencia con armas, fueron marcadas como alarmantes por el personal y terminaron con la cuenta bloqueada en junio de 2025. Sin embargo, dentro de la compañía hubo debate sobre si ese patrón justificaba una comunicación preventiva con las autoridades canadienses. Finalmente, no se realizó ese contacto antes del ataque.Tras el tiroteo, OpenAI sí se comunicó con la Real Policía Montada de Canadá (RCMP). En un comunicado citado en la cobertura, un portavoz de la empresa afirmó que la actividad de Van Rootselaar “no cumplía los criterios” para reportar a las fuerzas del orden en el momento en que ocurrió, y añadió: “Nuestros pensamientos están con todos los afectados por la tragedia de Tumbler Ridge”. La compañía sostuvo que entregó información sobre el individuo y su uso de ChatGPT, y que seguirá colaborando con la investigación.El reporte también indica que los chats en ChatGPT no fueron el único elemento inquietante del rastro digital del acusado. Presuntamente, creó un juego en Roblox —plataforma de simulación popular entre menores— que recreaba un tiroteo masivo en un centro comercial. Además, habría publicado sobre armas en Reddit.En paralelo, la nota menciona un contexto de inestabilidad conocido por la policía local: agentes habrían acudido al domicilio familiar después de que la persona iniciara un incendio bajo la influencia de drogas no especificadas.El caso se inserta en un debate más amplio sobre chatbots y salud mental. OpenAI y otras empresas del sector han sido señaladas por episodios en los que usuarios, al perder contacto con la realidad durante conversaciones con modelos digitales, atraviesan crisis severas. También se han presentado demandas que citan transcripciones en las que se alienta el suicidio o se ofrece ayuda para llevarlo a cabo.Más allá de la investigación en curso, el episodio subraya un desafío central para la cultura digital actual: construir sistemas capaces de detectar y frenar usos peligrosos sin convertir a las plataformas en jueces absolutos de intención humana. En ese borde —entre prevención, privacidad y responsabilidad— se está jugando una parte crítica del futuro de la IA de consumo.