El modelo de IA Gemini 1.5 de Google ha experimentado una mejora significativa en su evolución, lanzando dos nuevos modelos: Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002. Estas nuevas versiones no solo mejoran la calidad y eficiencia de salida, ofreciendo a los usuarios servicios más precisos y eficientes, sino que también reducen significativamente los costos de uso, haciéndolos más competitivos en términos de economicidad. Además, estas actualizaciones proporcionan límites de velocidad más altos para los usuarios, permitiendo una experiencia más fluida y rápida al manejar grandes volúmenes de datos. En resumen, la actualización de Gemini 1.5 no solo mejora el rendimiento del modelo de IA, sino que también crea un mayor valor para los usuarios.
Construir modelos seguros y fiables siempre ha sido una prioridad. Con la última versión de Gemini, el equipo de Gemini ha mejorado la capacidad del modelo de seguir las instrucciones del usuario mientras garantiza la seguridad. También se continuará ofreciendo un conjunto de filtros de seguridad para que los desarrolladores los apliquen a los modelos de Google. Para los modelos lanzados hoy, estos filtros no se aplicarán por defecto, permitiendo a los desarrolladores determinar la configuración que mejor se adapte a su caso de uso.
Se lanzará una versión mejorada del modelo Gemini 1.5 anunciado en agosto, llamada “Gemini-1.5-Flash-8B-Exp-0924”. Esta versión mejorada presenta un rendimiento significativo en casos de uso de texto y multimodales. Ahora está disponible a través de Google AI Studio y la API de Gemini.
Los modelos Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002 también ofrecerán límites de velocidad más altos. Los límites de velocidad son las restricciones diarias de uso para los usuarios. Con el modelo 1.5 Flash, los usuarios obtendrán 2,000 solicitudes por minuto (RPM), mientras que el modelo 1.5 Pro ofrecerá 1,000 RPM.
Además de las mejoras centrales en los últimos modelos, en las últimas semanas también hemos reducido la latencia con el modelo 1.5 Flash y aumentado significativamente el número de tokens de salida por segundo, permitiendo nuevos casos de uso con nuestros modelos más poderosos.
En pruebas de referencia más desafiantes como MMLU-Pro, el rendimiento del modelo ha mejorado en aproximadamente un 7%. En las pruebas de referencia de MATH y HiddenMath, el rendimiento en matemáticas mejoró significativamente en un 20%. Las tareas relacionadas con la visión y el código también han mejorado, con evaluaciones de comprensión visual y generación de código Python mejorados entre un 2-7%.
El modelo más poderoso de la serie 1.5, Gemini 1.5 Pro, ha reducido el costo del token de entrada en un 64%, el costo del token de salida en un 52% y el costo del token de caché incremental en un 64%, efectivo a partir del 1 de octubre de 2024, aplicable a avisos con menos de 128K tokens. Junto con la caché de contexto, esto continuará reduciendo los costos de uso de Gemini. XXAl igual que los modelos potentes como Claude3.5, GPT y dalle3, el costo de uso es más bajo y los precios son extremadamente competitivos.
Google también ha mejorado el modelo experimental Gemini 1.5 lanzado en agosto, presentando una versión actualizada llamada Gemini-1.5-Flash-8B-Exp-0924, que fortalece aún más las aplicaciones de texto y multimodales. Los usuarios pueden acceder a los nuevos modelos Gemini a través de Google AI Studio, la API de Gemini y Vertex AI.
Los modelos de la serie Gemini 1.5 están diseñados para lograr un rendimiento general en diversas tareas de texto, código y multimodales. El progreso continuo del modelo Gemini 1.5 tiene como objetivo abrir nuevas posibilidades para las personas, desarrolladores y empresas en el uso de IA para crear, descubrir y construir. Esto permite que Gemini 1.5 aprenda tareas complejas más rápidamente mientras mantiene la calidad y mejora la eficiencia en entrenamiento y servicio. En general, la calidad del modelo ha mejorado, con avances significativos en matemáticas, contexto a largo plazo y visión.