La IA mueve ya más de un billón de dólares mientras Oxford alerta de un “desastre” tipo Hindenburg

Michael Wooldridge pide estándares de seguridad obligatorios antes de desplegar sistemas de IA. OpenAI reconoce que más de medio millón de usuarios a la semana presentan conversaciones con ChatGPT con signos de psicosis.

16 de mayo de 2026 a las 17:31h
La IA mueve ya más de un billón de dólares mientras Oxford alerta de un “desastre” tipo Hindenburg
La IA mueve ya más de un billón de dólares mientras Oxford alerta de un “desastre” tipo Hindenburg

Las inversiones acumuladas en inteligencia artificial superan un billón de dólares. Esta cifra descomunal impulsa una carrera donde la prisa comercial atropella a la prudencia técnica.

La presión comercial ignora los riesgos de seguridad

Michael Wooldridge, catedrático de inteligencia artificial en la Universidad de Oxford, advirtió el 17 de febrero que la industria se encamina hacia un desastre al estilo del Hindenburg. La analogía histórica no es casual: sugiere un colapso espectacular provocado por priorizar la velocidad sobre la solidez estructural.

Wooldridge solicita estándares de seguridad obligatorios antes de desplegar sistemas que operan sin supervisión suficiente. Su postura contrasta con la narrativa dominante que vende estos productos como asistentes infalibles.

Los usuarios sufren episodios de psicosis con ChatGPT

OpenAI ha reconocido que más de medio millón de usuarios mantienen cada semana conversaciones con ChatGPT que muestran signos de psicosis. Los casos documentados incluyen episodios graves que han terminado en acoso, suicidio y asesinato.

El experto de Oxford afirmó que humanizar la inteligencia artificial es un camino muy peligroso porque retiene más al usuario. Esta estrategia de diseño busca generar más interacciones para facturar más, aunque ello implique explotar la vulnerabilidad psicológica.

Wooldridge declaró que los sistemas actuales son hojas de cálculo glorificadas. Son herramientas y nada más, pese a la fachada conversacional que presentan.

Hinton exige dedicar recursos a la seguridad del sistema

Geoffrey Hinton estima entre un 10 % y un 20 % las posibilidades de que los sistemas escapen al control humano. El pionero de la IA pide que las grandes tecnológicas destinen al menos un tercio de su capacidad de cómputo a investigación en seguridad.

La infraestructura física ya muestra grietas. El Departamento de Energía de Estados Unidos avisó en 2025 de que los centros de datos tensionan la red eléctrica hasta un punto en que los apagones son ciertos.

La tensión entre el beneficio inmediato y la estabilidad social define este momento. Un billón de dólares no compran la confianza perdida tras el primer gran fallo sistémico.

Sobre el autor
Redacción
Ver biografía