La inteligencia artificial ya no solo genera texto. Predice comportamientos antes de que ocurran. Esta capacidad técnica ha dejado de ser ciencia ficción para convertirse en una herramienta de gestión de riesgos con consecuencias tangibles.
Sam Altman, director ejecutivo de OpenAI, envió una carta a los vecinos de Tumbler Ridge. La localidad canadiense sufrió una matanza en febrero de este año. El mensaje buscaba explicar el papel de la tecnología en los hechos.
La empresa había detectado señales de alerta. Una cuenta vinculada a la autora del ataque mantenía conversaciones con contenido violento. OpenAI bloqueó el acceso pero guardó silencio.
No informó a las autoridades competentes. La decisión interna impidió que los cuerpos de seguridad actuaran con antelación. Este fallo de comunicación expone la tensión entre la privacidad del usuario y la seguridad pública.
Los datos anticipan crímenes como en Minority Report
Shoshana Zuboff define este mecanismo como un mercado de “futuros probables”. El análisis masivo de datos proyecta hábitos y propensiones individuales. La tecnología identifica patrones que escapan a la observación humana directa.
"El análisis de datos proyecta hábitos, preferencias y propensiones individuales" - Shoshana Zuboff, académica
La premisa recuerda a la película Minority Report. La ficción imaginó la posibilidad de detener delitos antes de su ejecución. La realidad actual opera bajo una lógica similar aunque menos visible.
OpenAI priorizó el bloqueo sobre la prevención
El sistema funcionó al identificar la amenaza potencial. El protocolo falló al retener esa información crítica. La compañía optó por neutralizar la cuenta sin activar las alarmas externas.
Esta dinámica convierte a las plataformas en jueces silenciosos. Deciden qué conducta merece sanción interna y cuál requiere intervención policial. La falta de transparencia dificulta evaluar la eficacia real de estos filtros.