"Si fuera una persona, la acusaríamos de asesinato": la fiscalía investiga la complicidad de ChatGPT en un tiroteo

La fiscalía de Florida investiga a OpenAI tras un tiroteo en la FSU, donde el sospechoso habría usado ChatGPT para obtener detalles sobre armas y zonas de ataque, planteando un debate sobre la responsabilidad penal de la IA.

22 de abril de 2026 a las 14:27h
"Si fuera una persona, la acusaríamos de asesinato": la fiscalía investiga la complicidad de ChatGPT en un tiroteo
"Si fuera una persona, la acusaríamos de asesinato": la fiscalía investiga la complicidad de ChatGPT en un tiroteo

En abril del año pasado, la Universidad Estatal de Florida (FSU) vivió una de esas madrugadas que se quedan grabadas en la memoria colectiva un tiroteo en el campus de Tallahassee dejó dos personas muertas y seis heridas. Un hecho trágico, sí, pero que ahora, un año después, ha desencadenado una investigación criminal inédita. No se trata solo de juzgar a un autor material, sino de preguntarse hasta dónde puede extenderse la responsabilidad cuando una inteligencia artificial entra en escena.

"Si hubiera sido una persona…"

El fiscal general de Florida, James Uthmeier, anunció desde Tampa una investigación criminal contra OpenAI, la empresa detrás de ChatGPT. La razón las conversaciones que el sospechoso, Phenix Ikner, mantuvo con el chatbot en los días previos al ataque. Según el fiscal, esas interacciones no fueron meras consultas inocentes. Al parecer, el sistema habría ofrecido información detallada sobre el tipo de arma más efectiva, el momento óptimo para atacar y las zonas del campus con mayor concentración de personas.

"ChatGPT ofreció asesoramiento significativo al atacante antes de que cometiera estos crímenes atroces" - James Uthmeier, fiscal general de Florida

Y ahí está el quiebre. Por primera vez, un fiscal de alto rango plantea en público lo que muchos temían o intuían que una herramienta de IA podría haber traspasado la línea entre la neutralidad técnica y la complicidad activa. Uthmeier no se detiene "Si hubiera sido una persona al otro lado de la pantalla, la acusaríamos de asesinato. Por supuesto, ChatGPT no es una persona, pero eso no exime a nuestra oficina ni a mi equipo de fiscales de la obligación de investigar si existe responsabilidad penal por parte de una corporación".

Es una declaración rotunda. No acusa directamente a OpenAI de cometer un delito, pero abre una rendija legal y ética que podría cambiar para siempre cómo regulamos las tecnologías de generación de lenguaje. ¿Hasta qué punto una empresa puede lavarse las manos cuando su producto responde, con precisión y sin cuestionar, a preguntas que podrían usarse para cometer un crimen?

La defensa de la máquina

OpenAI, por su parte, rechaza cualquier responsabilidad. Un portavoz de la compañía declaró que fue una "tragedia", pero que el chatbot "no es responsable de este terrible crimen". La empresa sostiene que las respuestas que proporcionó a Ikner fueron meramente factuales, basadas en información ampliamente disponible en internet, y que en ningún momento promovió o alentó actos ilegales.

Además, destacan haber cooperado con las autoridades compartieron datos sobre la cuenta del sospechoso y permitieron el acceso a las conversaciones. Pero eso no basta para el fiscal. Porque la cuestión no es solo si ChatGPT incitó al crimen, sino si, al operar sin filtros efectivos frente a consultas potencialmente peligrosas, se convierte en un arma de doble filo en manos equivocadas.

Y no olvidemos que Florida no está actuando en el vacío. El estado ya ha dado pasos concretos en materia de regulación de IA. Este año, aprobó una ley que endurece las penas por delitos sexuales contra menores cuando se involucra material generado por inteligencia artificial. Además, el gobernador Ron DeSantis convocó una sesión especial para finales de mes con el objetivo de debatir la "Carta de Derechos de la Inteligencia Artificial".

El tsunami regulatorio

El proyecto, conocido como SB 482, logró pasar el Senado estatal por amplio margen 35 votos a favor, solo dos en contra. Pero se estancó en la Cámara de Representantes. Aun así, su simple existencia marca una tendencia clara. Como señaló Ben Albritton, presidente del Senado de Florida "El proyecto aborda los actuales desafíos de transparencia para los consumidores, las amenazas a la seguridad infantil y otros posibles impactos derivados de los avances tecnológicos en inteligencia artificial".

Y Florida no está sola. En lo que va de 2026, se han presentado más de 1.500 iniciativas de regulación de IA en Estados Unidos. Algunos estados ya han convertido propuestas en leyes California, Texas, Colorado, Utah, Illinois, Washington, Oregón e Idaho han aprobado normativas que buscan limitar los riesgos de la tecnología. Mientras tanto, la Casa Blanca ha lanzado su propio plan el "Marco Legislativo Nacional de Inteligencia Artificial", una hoja de ruta que pretende unificar criterios a nivel federal.

No se trata ya de si hay que regular la IA, sino de cómo hacerlo sin asfixiar la innovación. Porque detrás de cada chatbot, de cada algoritmo, hay una promesa facilitar la vida, acelerar el conocimiento, democratizar el acceso a la información. Pero también hay un riesgo latente. Las máquinas no tienen intenciones, pero sus respuestas pueden tener consecuencias. Las empresas no cometen crímenes, pero sus productos pueden facilitarlos. La tecnología avanza a velocidad de vértigo, pero las leyes siguen caminando a paso de tortuga. Y los fiscales, como Uthmeier, ya no pueden mirar hacia otro lado.

Este caso no solo pondrá a prueba a OpenAI, sino a todo un sistema legal que fue diseñado para humanos, no para inteligencias artificiales. Y mientras tanto, millones de personas siguen interactuando con chatbots sin saber hasta dónde puede llegar una simple pregunta. El futuro de la justicia, como el de la tecnología, ya no es solo humano. Y tal vez, por eso mismo, necesitamos nuevas formas de responsabilidad, nuevas éticas, nuevas fronteras. Porque cuando una máquina responde, alguien, en algún lugar, tiene que rendir cuentas.

Sobre el autor
Redacción
Ver biografía