Courier de l'Égypte - Los humanos superaron la puntuación de oro de la IA en el principal concurso de matemáticas

Los humanos superaron la puntuación de oro de la IA en el principal concurso de matemáticas
Los humanos superaron la puntuación de oro de la IA en el principal concurso de matemáticas / Foto: Kirill Kudryavtsev - AFP/Archivos

Los humanos superaron la puntuación de oro de la IA en el principal concurso de matemáticas

Los humanos vencieron a los modelos de inteligencia artificial creados por Google y OpenAI en una importante competencia internacional de matemáticas, a pesar de que los programas alcanzaron puntajes de nivel oro por primera vez.

Tamaño del texto:

Ninguno de los modelos obtuvo la máxima puntuación, en cambio, cinco jóvenes lograron puntuaciones perfectas en la Olimpiada Internacional de Matemáticas (OMI), una prestigiosa competición anual en la que los participantes deben tener menos de 20 años.

Los organizadores del concurso advirtieron que no pudieron verificar cuánta potencia informática habían utilizado los modelos de IA o si hubo participación humana.

Google dijo el lunes que una versión avanzada de su chatbot Gemini había resuelto cinco de los seis problemas matemáticos planteados en la OMI, celebrada este mes en Queensland, Australia.

"Podemos confirmar que Google DeepMind alcanzó la tan deseada meta, obtuvo un puntaje de 35 sobre 42 puntos, un marcador de medalla de oro", dijo el gigante tecnológico estadounidense citando al presidente de la OMI, Gregor Dolinar.

"Sus soluciones fueron sorprendentes en muchos aspectos. Los evaluadores de IMO las encontraron claras, precisas y la mayoría fáciles de seguir".

Alrededor del 10 por ciento de los concursantes humanos ganaron medallas de oro y cinco recibieron puntuaciones perfectas de 42 puntos.

OpenIA, el fabricante estadounidense de ChatGPT, dijo que su modelo de razonamiento experimental también obtuvo un nivel de oro, con 35 puntos en la prueba.

"Evaluamos nuestros modelos con los problemas de la OMI de 2025, bajo las mismas reglas que los concursantes humanos", dijo en las redes sociales el investigador de OpenIA Alexander Wei.

"Para cada problema, tres ex medallistas de la OMI calificaron de forma independiente las respuestas que presentaron los modelos", agregó Wei.

Q.Tarek--CdE