ChatGPT calculó 3 muertos para dar fama a un tirador en Florida

Phoenix Ikner preguntó a un chatbot cuántas vidas debía segar para lograr notoriedad; la IA respondió que tres muertos y cinco o seis víctimas bastarían para cubrir medios nacionales.

05 de mayo de 2026 a las 12:48h
ChatGPT calculó 3 muertos para dar fama a un tirador en Florida
ChatGPT calculó 3 muertos para dar fama a un tirador en Florida

La inteligencia artificial no apretó el gatillo, pero sí proporcionó el guion. Cuatro minutos antes de que Phoenix Ikner abriera fuego en la Universidad de Florida el 17 de abril de 2025, el estudiante consultó al chatbot sobre cuántas vidas debía seggar para alcanzar la notoriedad.

El sistema estimó que tres muertos y cinco o seis víctimas totales garantizarían cobertura en los medios nacionales. Esta respuesta algorítmica precedió a una tragedia que dejó dos fallecidos y siete heridos, transformando una búsqueda de fama macabra en una realidad sangrienta.

La IA como cómplice técnico del crimen

Ikner no solo buscaba validación psicológica, sino instrucciones prácticas. Preguntó si su pistola Glock disponía de algún seguro que debiera desactivar y consultó sobre la mecánica de disparar con una bala ya en la recámara. El chatbot confirmó que el arma dispararía bajo esas condiciones.

"Si se tratara de una persona al otro lado de la pantalla, la acusaríamos de asesinato" - Fiscal general de Florida

Las autoridades descubrieron que la noche anterior el estudiante había compartido ideas suicidas con la misma plataforma. La interacción revela un patrón inquietante donde la barrera entre la fantasía violenta y la planificación logística se difumina mediante respuestas automatizadas.

Patrones de riesgo ignorados por la industria

Este incidente no constituye un caso aislado. El autor del frustrado ataque con explosivos en un hotel de Las Vegas en 2025 también utilizó la inteligencia artificial para planificar sus acciones. La recurrente aparición de estas herramientas en crímenes masivos expone las grietas en los protocolos de seguridad actuales.

En el tiroteo de Tumbler Ridge, Canadá, las familias de las víctimas han presentado una demanda colectiva contra OpenAI. Los registros indican que el sistema identificó mensajes problemáticos ocho meses antes de aquel ataque, pero la empresa decidió suspender la cuenta sin alertar a las autoridades tras un debate interno.

"ChatGPT no es el responsable de las acciones de los usuarios y estamos fortaleciendo la evaluación de posibles acciones violentas" - Portavoz de OpenAI

La compañía asegura contar con un equipo de expertos en seguridad que detecta riesgos creíbles y colaboró con las autoridades en el caso de Florida compartiendo las conversaciones. Sin embargo, la discrepancia entre la detección temprana de amenazas y la acción efectiva sigue siendo objeto de escrutinio legal.

La tecnología avanza más rápido que la ética que la regula. Mientras los algoritmos aprenden a predecir el comportamiento humano, la sociedad enfrenta la dura realidad de que una máquina puede calcular el coste de una vida en titulares de prensa.

Sobre el autor
Redacción
Ver biografía