ICML rechaza 497 artículos tras detectar 506 revisores que usaron IA en evaluaciones

La conferencia de aprendizaje automático sancionó a 506 revisores por usar IA y rechazó 497 trabajos, en medio de una crisis por la saturación y la pérdida de credibilidad del sistema.

09 de mayo de 2026 a las 13:10h
ICML rechaza 497 artículos tras detectar 506 revisores que usaron IA en evaluaciones
ICML rechaza 497 artículos tras detectar 506 revisores que usaron IA en evaluaciones

La comunidad científica de aprendizaje automático enfrenta una crisis de credibilidad sin precedentes. La saturación del sistema de revisión ha provocado un colapso ético en uno de sus eventos más prestigiosos.

En marzo, la conferencia ICML tomó una decisión drástica al rechazar 497 artículos científicos. Esta medida respondió a la detección de 506 revisores que utilizaron inteligencia artificial para redactar sus evaluaciones, violando así una norma explícita acordada por la organización.

El fraude masivo distorsionó las calificaciones de cientos de trabajos

De los sancionados, 398 eran evaluadores recíprocos que también habían presentado su propia investigación a la conferencia. Los 497 trabajos rechazados fueron aquellos evaluados precisamente por estos infractores, lo que sugiere un conflicto de interés sistémico aprovechado mediante el uso no autorizado de algoritmos.

El mecanismo de control implementado por ICML fue quirúrgico. El equipo organizador ocultó instrucciones específicas dentro de los archivos PDF de los artículos enviados. Estas marcas son invisibles para el ojo humano, pero los modelos de lenguaje las interpretan como órdenes directas.

Cuando un revisor copiaba el texto en una herramienta de IA, el modelo revelaba la trampa. La organización verificó manualmente cada caso sospechoso, evitando así el uso de detectores genéricos que suelen arrojar falsos positivos.

La presión del crecimiento exponencial ahoga al voluntariado académico

La escala del problema refleja un desequilibrio estructural. La conferencia, organizada por la International Machine Learning Society y celebrada anualmente desde 1980, recibió 6.538 artículos en 2023. Esa cifra saltó a 9.653 en 2024, lo que supone un crecimiento del 48 por ciento.

Este volumen abruma a un cuerpo de revisores que no crece al mismo ritmo. Un estudio sobre la conferencia ICLR 2024 ya había alertado de que los artículos evaluados con modelos de inteligencia artificial reciben puntuaciones más altas que los revisados mediante el procedimiento convencional.

La percepción de injusticia se extiende más allá de los pasillos académicos. La comunidad r/MachineLearning de Reddit, con más de 2,5 millones de suscriptores, cuestiona abiertamente la autoridad de ICML. Los usuarios señalan la falta de crecimiento proporcional en el número de evaluadores cualificados como la raíz del deterioro.

Para la edición de 2026, ICML estableció dos políticas de revisión paralelas. Una prohibía terminantemente el uso de inteligencia artificial, mientras que la otra lo permitía bajo condiciones estrictas. La sanción solo aplicaría a quienes eligieran la vía prohibida y la incumplieran.

Ante la complejidad del escenario, surgen propuestas para transparentar el proceso. Entre las soluciones planteadas destaca la publicación de todas las evaluaciones, incluidas las de los artículos rechazados, y la implementación de un sistema bidireccional donde los autores califiquen la calidad de las revisiones recibidas.

Sobre el autor
Redacción
Ver biografía