En julio, una noticia corrió como la pólvora la inteligencia artificial había ganado por primera vez una medalla de oro en la Olimpiada Internacional de Matemáticas. Sonaba a hito histórico. La promesa de una nueva era, donde las máquinas no solo resuelven problemas, sino que superan a los mejores cerebros humanos en uno de los terrenos más puros del pensamiento. Pero había un problema la noticia no era cierta.
El oro que no fue
Lo que realmente ocurrió es que OpenAI publicó un breve mensaje en redes sociales uno de sus modelos había alcanzado un nivel comparable al de una medalla de oro en el examen de la Olimpiada. Una afirmación técnica, quizás ambiciosa, pero no el mismo escenario que millones de lectores interpretaron. El modelo no compitió en tiempo real, no estuvo sentado en un aula australiana con papel y lápiz, no tuvo que lidiar con el nerviosismo de un reloj contando atrás. Simplemente resolvió los problemas después del hecho, con todo el poder computacional del mundo a su disposición.
Mientras los 600 estudiantes que participaron en la competición solo podían contar con su ingenio y una hoja en blanco, los procesos de prueba de la IA consumieron recursos que podrían superar el millón de dólares en energía. Es una diferencia abismal, no solo técnica, sino ética y simbólica. Ganar una medalla no es solo acertar las respuestas es hacerlo bajo condiciones que prueban la resistencia, la creatividad y la claridad mental bajo presión.
Cuando la IA se cuela en el escenario humano
Seis grandes empresas de tecnología entre ellas Google, OpenAI y DeepSeek fueron invitadas como patrocinadoras a la Olimpiada. Su presencia no fue casual. Detrás de la escena, hay un pulso silencioso tech giants que quieren asociar su marca con los logros más elevados del pensamiento humano, aunque sea por la puerta trasera. Pero ¿es justo comparar a una IA entrenada con miles de millones de parámetros con un adolescente que estudia en una escuela pública de Rumanía o Vietnam?
El matemático Terence Tao, posiblemente el más influyente del mundo en la actualidad, ha sido claro al respecto. En una reflexión que vale como brújula ética, propone que, si la IA quiere demostrar su capacidad en matemáticas, que tenga su propio concurso, con sus propias reglas. Que no se cuela en competiciones diseñadas para humanos, con sus límites, sus errores y su esfuerzo. Que no use el prestigio de un evento centenario para inflar su currículum.
"La IA debería tener su propia competición, con sus propias reglas, en lugar de colarse en la de los humanos." - Terence Tao, matemático de UCLA
La propuesta de Tao no es un rechazo a la IA, sino una defensa de la honestidad intelectual. Las máquinas están logrando cosas asombrosas demostrar teoremas, encontrar patrones ocultos, acelerar descubrimientos. Pero todo eso no requiere borrar la línea entre lo humano y lo artificial. Al contrario cuanto más claros estemos en esa distinción, más valor tendrá cada logro, sea de uno u otro lado.
El verdadero desafío
Quizá el mayor peligro no sea que la IA resuelva problemas matemáticos, sino que lo haga de una manera que nos haga olvidar lo que significa resolverlos. No se trata solo de respuestas correctas, sino de cómo se alcanzan. De la intuición que surge de la noche a la mañana. De la frustración que precede al salto. De la mirada que se ilumina cuando algo encaja.
La inteligencia artificial puede ser un compañero formidable en la exploración del conocimiento, pero no debe robarse el escenario de los que aún luchan por entender. El oro no debe ir a quien tiene más recursos, sino a quien supera sus límites. Y mientras no sepamos diferenciar entre ambas cosas, cualquier medalla será, al final, de dudoso brillo.
El futuro de la ciencia no está en reemplazar al pensador humano, sino en amplificarlo. Y eso solo funciona si somos honestos con quién hace qué, cuándo y por qué. Porque al final, lo que más nos importa no es tener las respuestas, sino entender cómo llegamos a ellas.