73 segundos bastaron: el Challenger cayó por una junta de goma, no por un fallo informático

"Resolver la inteligencia" para "resolver todo lo demás": la apuesta total de DeepMind

30 de marzo de 2026 a las 08:24h
73 segundos bastaron: el Challenger cayó por una junta de goma, no por un fallo informático
73 segundos bastaron: el Challenger cayó por una junta de goma, no por un fallo informático

En 1965, el matemático británico I. J. Good, que había trabajado junto a Alan Turing descifrando códigos nazis durante la Segunda Guerra Mundial, escribió una idea que aún resuena como un eco en las discusiones sobre inteligencia artificial si alguna vez construimos una máquina más inteligente que el ser humano, esta podría diseñar una aún mejor, desatando una "explosión de inteligencia". Y esa, dijo, sería "el último invento que el hombre necesitaría crear".

Son palabras que hoy retumba en los laboratorios de Google DeepMind, donde Demis Hassabis afirma que el objetivo no es solo construir IA útil, sino "resolver la inteligencia" para, a partir de ahí, "resolver todo lo demás". Es una ambición monumental. Pero ¿realmente estamos ante el umbral de ese último invento? ¿O estamos subestimando lo que aún cuesta convertir una idea brillante en una realidad que funcione en el mundo real?

El mito del invento que se inventa solo

La visión de una IA que se autorreplica, se mejora infinitamente y libera a la humanidad de la necesidad de innovar suena fascinante. Pero la historia nos recuerda que los grandes saltos tecnológicos no dependen solo de la genialidad o la inteligencia, sino de una red de factores invisibles normas, materiales, confianza, regulaciones, y esos pequeños detalles humanos que no caben en un algoritmo.

Un ejemplo escalofriante es el del transbordador espacial Challenger. En 1986, 73 segundos después del despegue, estalló en el aire. ¿La causa? No fue un error de cálculo ni un fallo informático. Fue una pequeña junta de goma, una junta tórica, que se volvió quebradiza por el frío. El físico Richard Feynman, en su famosa demostración durante las audiencias del desastre, sumergió la pieza en un vaso de agua helada y la aplastó con unas pinzas. El sistema era tan avanzado que una pieza tan insignificante, mal interpretada en condiciones extremas, lo derrumbó todo.

Este ejemplo se ha convertido en una metáfora poderosa en cualquier sistema complejo, el cuello de botella no suele estar en la parte más inteligente, sino en la más frágil. Y a menudo, esa fragilidad es humana, organizativa o regulatoria.

El límite de la automatización lo que la IA no puede aprobar

Imaginemos que una IA general (IAG) descubre un fármaco revolucionario en cuestión de días. Podría acelerar el screening de moléculas, predecir interacciones, simular efectos biológicos. Pero luego viene lo difícil los ensayos clínicos, la producción a escala, la logística, la aprobación regulatoria. Ninguno de esos pasos puede saltarse. Una máquina puede idear la cura, pero no convencer a una agencia sanitaria, ni negociar con proveedores, ni gestionar la desconfianza pública.

Y aquí ocurre algo curioso cuando la IA automatiza las primeras fases del descubrimiento, la intervención humana no desaparece. Simplemente se desplaza hacia los cuellos de botella restantes. Son los médicos, los reguladores, los ingenieros de proceso, quienes ahora deciden si aquella maravilla de la inteligencia artificial llega a salvar vidas o se queda en un artículo académico.

  • AlphaGo, el programa de Google DeepMind, venció a Lee Sedol en 2016, un hito que parecía demostrar la superioridad inminente de las máquinas.
  • Pero en 2023, investigadores mostraron que en posiciones inusuales, fuera del dominio de su entrenamiento, incluso los mejores motores de ajedrez podían ser derrotados sistemáticamente por aficionados humanos con conocimientos modestos.
  • El mensaje era claro la IA domina donde domina el patrón, pero flaquea donde prima la adaptación creativa.

El conocimiento que no se puede copiar

En 1908, Henry Ford no inventó el automóvil. Lo que hizo fue inventar una forma de producirlo la cadena de montaje. Y aunque cualquiera podía estudiar los planos del Ford T, nadie podía replicar fácilmente el sistema. De Italia a la Unión Soviética, delegaciones viajaron a Detroit no a leer manuales, sino a observar cómo se movían las personas, cómo se coordinaban los tiempos, cómo se transmitía el conocimiento en la fábrica.

Lo mismo ocurrió con el sistema de producción ajustada de Toyota. No era solo un diagrama de flujo; era una cultura. Rutinas diarias, confianza entre operarios, comunicación implícita. El conocimiento estaba en la práctica, no en el papel. Y sigue siéndolo.

Hoy, lugares como Silicon Valley o la City de Londres no triunfan por tener más datos o más algoritmos. Triunfan por tener redes de confianza, acceso a capital, cultura de riesgo y conocimiento tácito que no pueden descargarse de una nube. Intentar capturarlo todo, registrar cada conversación, cada decisión, cada gesto para alimentar una IA, no solo sería invasivo sería ilegal.

El Reglamento General de Protección de Datos de la Unión Europea prohíbe precisamente eso la vigilancia masiva para recopilar conocimiento humano a escala. Y la Ley de IA de la UE no abre la puerta a despliegues que requieran monitorear cada acción de cada trabajador. Hay límites éticos, legales, sociales. Y esos límites existen por una razón porque no todo debe ser optimizable.

El cuello de botella humano

La inteligencia artificial general puede abaratar la experimentación, acelerar simulaciones, reducir el tiempo de prueba y error. Pero no puede crear cadenas de suministro, no puede negociar tratados internacionales, no puede generar confianza entre equipos, no puede interpretar el contexto cultural de una decisión. Convertir una idea en un invento útil sigue dependiendo de estructuras que la IA no puede replicar ni reemplazar.

Y entonces, paradójicamente, cuando la máquina asume las tareas más complejas, los humanos no se vuelven obsoletos se vuelven decisivos. No porque seamos más inteligentes, sino porque estamos en los puntos donde el sistema se atasca en la ética, en la toma de decisiones bajo incertidumbre, en la gestión de lo imprevisible.

Los seres humanos no se están volviendo prescindibles; se están convirtiendo en los cuellos de botella más decisivos del mundo. Y tal vez, eso no sea un problema, sino una oportunidad la posibilidad de rediseñar sistemas no para eliminar a las personas, sino para potenciar lo que solo ellas pueden hacer.

Sobre el autor
Redacción
Ver biografía