La IA de Google obtiene rendimiento de medalla de plata en la Olimpiada Internacional de Matemáticas
La herramienta desarrollada por Google DeepMind logró resolver por sí sola la mitad de los problemas de la IMO y estableció un nuevo estándar de verificación matemática automática, según un estudio publicado en Nature.
Google DeepMind volvió a sorprender al mundo académico tras anunciar que su sistema de inteligencia artificial AlphaProof alcanzó un desempeño equivalente a una medalla de plata en la Olimpiada Internacional de Matemáticas (IMO) de 2024.
La plataforma, diseñada para procesar y verificar razonamientos matemáticos complejos, consiguió resolver tres de los seis ejercicios de la competencia, un hito que consolida el avance de la matemática computacional.
Según detalla la investigación divulgada en Nature, AlphaProof se entrenó con 80 millones de enunciados matemáticos formalizados, lo que permitió a la IA aprender a encadenar pasos lógicos válidos y a corregir sus propios errores mediante técnicas de aprendizaje por refuerzo. Esta habilidad distingue al sistema de los modelos tradicionales de lenguaje, que suelen limitarse a imitar razonamientos sin comprobar la validez formal de los resultados.
En la IMO, el modelo resolvió problemas vinculados a álgebra y teoría de números, mientras que para el desafío de geometría se apoyó en AlphaGeometry 2, otra herramienta de DeepMind. A diferencia de los estudiantes, que disponen de solo cuatro horas por jornada, la IA contó con dos a tres días de procesamiento por cada prueba, una diferencia que evidencia el costo computacional todavía elevado de estas tecnologías.
Especialistas consultados, como Marta Macho-Stadler, académica de la Universidad del País Vasco, destacan que la novedad más relevante es el sistema automático de verificación de AlphaProof, capaz de validar cada paso de una demostración sin intervención humana. Sin embargo, el estudio también subraya limitaciones importantes: el modelo se desempeña bien en problemas típicos de olimpiadas, pero no alcanza la creatividad ni la intuición necesarias para afrontar desafíos matemáticos originales o de frontera.
El investigador Teodoro Calonge, de la Universidad de Valladolid, advierte que la irrupción de herramientas como AlphaProof podría obligar a replantear los formatos de evaluación y los exámenes avanzados para evitar que los modelos memoricen patrones. Según el equipo desarrollador, la IA aún falla cuando enfrenta problemas completamente nuevos, un ámbito donde la creatividad humana mantiene una ventaja decisiva.
A futuro, AlphaProof podría convertirse en una herramienta valiosa para la docencia y la investigación, con potencial para generar ejercicios, revisar demostraciones extensas y asistir en la comprobación de cálculos complejos. Pese a los avances, el propio estudio matiza que la inteligencia artificial avanza rápido, pero continúa lejos de reemplazar la creatividad matemática humana.