
Ahora, en la carrera por liderar el desarrollo de la inteligencia artificial, acaba de suceder algo inusual. Géminis 3 DestelloEl nuevo modelo de Google ha superado a GPT-5.2 Extra High, la variante de razonamiento superior de OpenAI, en varias pruebas de rendimiento. Y eso nos obliga a repensar algunas de las reglas que dábamos por sentadas.
Un modelo rápido que también razona. El nuevo modelo de Google llega con una promesa muy concreta: demostrar que «la velocidad y la escalabilidad no tienen por qué ir a expensas de la inteligencia». Aunque ha sido diseñado pensando en la eficiencia, tanto en costo como en velocidad, Google insiste en que Gemini 3 Flash también sobresale en tareas de razonamiento.
Según la empresa, el modelo puede ajustar su capacidad de pensamiento. Es capaz de “pensar” más tiempo cuando el caso de uso lo requiere, pero también utiliza un 30% menos de tokens en promedio que el Gemini 2.5 Pro, medido con tráfico típico, para completar una amplia variedad de tareas con alta precisión y sin penalizar los tiempos de respuesta.
La verdad está en los benchmarks.. ¿Son perfectos los puntos de referencia? No. Pero siguen siendo una de las herramientas más útiles que tenemos para comparar modelos de IA.confrontarlos entre sí y detectar en qué escenarios se desenvuelven mejor o peor. Y en este ámbito, Gemini 3 Flash sale airoso.
En SimpleQA verificadoEn una prueba que mide la confiabilidad en preguntas de conocimiento, Gemini 3 Flash logra un 68,7% en comparación con el 38,0% de GPT-5.2 Extra High. En razonamiento multimodal, dentro de MMMU-Pro, el modelo de Google obtiene una puntuación del 81,2% frente al 79,5% de OpenAI. En Video-MMMU, Flash alcanza el 86,9% en comparación con el 85,9% de GPT-5.2 Extra High.
Si nos fijamos en las capacidades multilingües y culturales, Flash vuelve a estar a la cabeza, con un 91,8% frente al 89,6% de GPT-5.2 Extra High. En Global PIQA, centrado en el sentido común en 100 idiomas, la diferencia se mantiene: 92,8% para Flash versus 91,2% para el modelo OpenAI. Todo indica que Gemini 3 Flash está especialmente optimizado para captar matices fuera del inglés y razonar con mayor fluidez en contextos globales.
También destaca en el uso de herramientas y agentes. En Toolathlon, Flash obtiene una puntuación del 49,4% en comparación con el 46,3% de GPT-5.2 Extra High. En FACTS Benchmark Suite, la diferencia es más estrecha, pero todavía a favor de Google: 61,9% frente a 61,4%. En tareas de ejecución de herramientas a largo plazo, Flash parece mostrar una mayor coherencia.
Pero él no es el rey del razonamiento puro.. Ahora bien, vale la pena mirar la foto completa. Aunque Gemini 3 Flash supera al mejor modelo OpenAI en varias pruebas, si buscas razonamiento “puro”, el equilibrio cambia. En las pruebas más exigentes en este ámbito, GPT-5.2 Extra High sigue marcando la pauta.
El modelo de OpenAI lidera ARC-AGI-2, centrado en acertijos visuales, con un 52,9% frente al 33,6% de Flash. En AIME 2025, con ejecución de código, llega al 100% frente al 99,7%. Y en SWE-bench Verified, dirigido a la ingeniería de software, obtiene un 80,0% frente al 78,0% de Gemini 3 Flash.
¿Qué es exactamente GPT-5.2 Extra Alto?. A lo largo del artículo aparece varias veces el nombre GPT-5.2 Extra High, y es normal preguntarse si es algo nuevo o poco conocido. En realidad, no es un modelo que se suela mencionar al gran público.
Google utiliza esta designación en su tabla comparativa para referirse al nivel máximo de razonamiento disponible en la API OpenAI para GPT-5.2 Thinking y Pro. En la documentación oficial de OpenAI se identifica como “xhigh”.
Dónde puedes usar Gemini 3 Flash. El acceso a Gemini 3 Flash no depende del país. Si tienes acceso a la aplicación Gemini, ya estás usando este modelo, que se ha convertido en la opción predeterminada. También llega a los desarrolladores a través de API, AI Studio y Vertex AI. En Estados Unidos el despliegue va un paso más allá, ya que Gemini 3 Flash se ha convertido en el modelo por defecto del AI Mode del buscador de Google.
El precio de usar Gemini 3 Flash. Para aquellos que quieran integrar Gemini 3 Flash en sus aplicaciones, el modelo cuesta 0,50 dólares por millón de tokens de entrada y 3 dólares por millón de tokens de salida. Este es un ligero aumento con respecto a Gemini Flash 2.5, que costaba $0,30 por millón de tokens entrantes y $2,50 por millón de tokens salientes.
Una carrera cada vez más reñida. Atrás quedaron los días en los que Google intentaba enfrentar ChatGPT con Bard, o cuando OpenAI parecía estar años por delante del resto. Hoy en día, las distancias entre los grandes actores de la IA se han reducido drásticamente. La competencia es más directa, más técnica y, sobre todo, mucho más reñida.
Imágenes | Google
En | Amazon prepara una inversión de 10.000 millones en OpenAI porque si no puedes vencer a tu enemigo, lo mejor es unirte a él