Google lanza Gemini 3.1 Flash Lite, el modelo más rápido y económico de la serie Gemini 3
Gemini 3.1 Flash Lite ofrece velocidades de salida más rápidas, mejores benchmarks de razonamiento y precios de API bajos para aplicaciones a gran escala.
Conclusiones Clave
- Gemini 3.1 Flash Lite es el modelo de IA de Google más rápido y económico.
- El modelo está diseñado para aplicaciones de alto volumen que requieren inferencias rápidas.
Compartir este artículo
Hoy, Google presentó Gemini 3.1 Flash Lite, un nuevo modelo de inteligencia artificial diseñado para ofrecer respuestas más rápidas y costos operativos más bajos dentro de la familia de modelos Gemini 3 de la compañía.
El modelo se está implementando en versión preliminar a los desarrolladores a través de la API de Gemini en Google AI Studio y a los clientes empresariales a través de Vertex AI.
Google describió a Gemini 3.1 Flash Lite como el modelo más rápido y más eficiente en costos en la serie Gemini 3, construido específicamente para cargas de trabajo de alto volumen donde la latencia y el costo son críticos.
El precio del modelo comienza en $0.25 por millón de tokens de entrada y $1.50 por millón de tokens de salida, posicionándolo como una de las opciones más económicas en la línea actual de modelos de IA de Google.
Según los benchmarks citados por Google, Gemini 3.1 Flash Lite ofrece un tiempo hasta la primera respuesta de token 2.5 veces más rápido en comparación con Gemini 2.5 Flash y produce salidas un 45 por ciento más rápido mientras mantiene una calidad similar o mejor.
Los benchmarks de rendimiento también colocan al modelo de manera competitiva contra otros modelos de IA ligeros. Gemini 3.1 Flash Lite alcanzó una puntuación Elo de 1432 en la tabla de liderazgo de Arena AI y registró 86.9 por ciento en el benchmark de razonamiento GPQA Diamond y 76.8 por ciento en el benchmark multimodal MMMU Pro.
Google dijo que el modelo está diseñado para manejar tareas de desarrolladores de alta frecuencia como la traducción, moderación de contenido y seguimiento de instrucciones a gran escala, mientras sigue soportando cargas de trabajo más complejas como la generación de interfaces, creación de simulaciones y tareas de datos estructurados.
El lanzamiento también introduce niveles de pensamiento ajustables dentro de AI Studio y Vertex AI, permitiendo a los desarrolladores controlar cuánto razona el modelo dependiendo de la complejidad de una tarea. Esta flexibilidad tiene como objetivo ayudar a los equipos a equilibrar costo, velocidad y precisión al desplegar aplicaciones de IA a gran escala.
La serie Google Gemini, desarrollada por Google DeepMind, muestra una evolución progresiva de modelos de IA multimodales comenzando con Gemini 1.0 a finales de 2023 y mejorando a través de variaciones como Gemini 2.0 Flash. Cada iteración, especialmente en la línea Gemini 3, prioriza la mejora de la eficiencia y la velocidad, posicionando a Google de manera competitiva en el paisaje de la IA. El lanzamiento de Gemini 3.1 Flash Lite señala un hito significativo en la estrategia de Google para agilizar la IA para aplicaciones más amplias de desarrolladores y consumidores, sin integración aparente de elementos criptográficos hasta ahora.
No aplicable.
