Mensaje de ChainThink, 20 de mayo: Google lanzará el nuevo modelo ligero Gemini 3.2 Flash en la conferencia I/O, según reveló Bindu Reddy, CEO de Abacus.AI. Este modelo alcanza el 92% del rendimiento de GPT-5.5 en tareas de codificación e inferencia, con un costo de inferencia de solo la quinceava a la vigésima parte del de este último, y una latencia inferior a 200 milisegundos en la mayoría de las consultas. Su rendimiento general es equivalente al de GPT-5.5, pero claramente inferior al de Mythos de Anthropic.
Bindu Reddy, CEO de Abacus.AI, agregó que la técnica de destilación y esparsificación de Google comprimió los modelos de vanguardia hasta el nivel Flash sin experimentar el precipicio de rendimiento habitual.
Gemini 3.2 Flash ya mostraba signos de fuga a principios de mayo, cuando sus rastros aparecieron en paquetes de compilación de la aplicación iOS y en los metadatos de AI Studio, y posteriormente se reveló de forma anónima en las evaluaciones de LM Arena; los primeros probadores informaron que destacaba en tareas de codificación creativa, con resultados en algunas pruebas de referencia superiores a los de Gemini 3.1 Pro.
