Evolución del modelo de IA Gemini 1.5 de Google: menor costo, mayor rendimiento, respuesta más rápida

xx
2024-11-08
Share :

El modelo de IA Gemini 1.5 de Google ha experimentado una mejora significativa en su evolución, lanzando dos nuevos modelos: Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002. Estas nuevas versiones no solo mejoran la calidad y eficiencia de salida, ofreciendo a los usuarios servicios más precisos y eficientes, sino que también reducen significativamente los costos de uso, haciéndolos más competitivos en términos de economicidad. Además, estas actualizaciones proporcionan límites de velocidad más altos para los usuarios, permitiendo una experiencia más fluida y rápida al manejar grandes volúmenes de datos. En resumen, la actualización de Gemini 1.5 no solo mejora el rendimiento del modelo de IA, sino que también crea un mayor valor para los usuarios.

Entendiendo la evolución del modelo de IA Gemini 1.5

Evolución de las funciones

Gemini-1.5-Pro-002

  • Puede analizar, clasificar y resumir de forma continua grandes cantidades de contenido en los avisos dados.
  • Puede realizar tareas de comprensión y razonamiento altamente complejas en diferentes modalidades (incluyendo video).
  • Puede ejecutar tareas de resolución de problemas más relevantes en bloques de código más largos.
  • Mantiene un alto nivel de rendimiento con ventanas contextuales ampliadas.

Gemini-1.5-Flash-002

  • Búsqueda de información visual: Utiliza conocimientos externos combinados con información extraída de imágenes o videos de entrada para responder preguntas.
  • Reconocimiento de objetos: Responde preguntas relacionadas con el reconocimiento detallado de objetos en imágenes y videos.
  • Comprensión de contenido digital: Responde preguntas y extrae información de contenidos visuales como infografías, gráficos, tablas y páginas web.
  • Generación de contenido estructurado: Genera respuestas basadas en entradas multimodales en formatos como HTML y JSON.
  • Subtítulos y descripciones: Genera descripciones de imágenes y videos con distintos niveles de detalle.
  • Razonamiento: Combina inferencias para generar nueva información sin necesidad de memoria o recuperación.
  • Audio: Analiza archivos de voz para realizar resúmenes, transcripciones y responder preguntas.
  • Procesamiento multimodal: Maneja simultáneamente diferentes tipos de medios de entrada, como video y audio.

Evolución de la configuración del sistema

Configuraciones de filtro actualizadas

Construir modelos seguros y fiables siempre ha sido una prioridad. Con la última versión de Gemini, el equipo de Gemini ha mejorado la capacidad del modelo de seguir las instrucciones del usuario mientras garantiza la seguridad. También se continuará ofreciendo un conjunto de filtros de seguridad para que los desarrolladores los apliquen a los modelos de Google. Para los modelos lanzados hoy, estos filtros no se aplicarán por defecto, permitiendo a los desarrolladores determinar la configuración que mejor se adapte a su caso de uso.

Actualizaciones experimentales de Gemini 1.5 Flash-8B

Se lanzará una versión mejorada del modelo Gemini 1.5 anunciado en agosto, llamada “Gemini-1.5-Flash-8B-Exp-0924”. Esta versión mejorada presenta un rendimiento significativo en casos de uso de texto y multimodales. Ahora está disponible a través de Google AI Studio y la API de Gemini.

Ventajas posteriores a la evolución de Gemini 1.5

Límites de velocidad altos

Los modelos Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002 también ofrecerán límites de velocidad más altos. Los límites de velocidad son las restricciones diarias de uso para los usuarios. Con el modelo 1.5 Flash, los usuarios obtendrán 2,000 solicitudes por minuto (RPM), mientras que el modelo 1.5 Pro ofrecerá 1,000 RPM.

Alta velocidad de salida, menor latencia

Además de las mejoras centrales en los últimos modelos, en las últimas semanas también hemos reducido la latencia con el modelo 1.5 Flash y aumentado significativamente el número de tokens de salida por segundo, permitiendo nuevos casos de uso con nuestros modelos más poderosos.

Rendimiento mejorado

En pruebas de referencia más desafiantes como MMLU-Pro, el rendimiento del modelo ha mejorado en aproximadamente un 7%. En las pruebas de referencia de MATH y HiddenMath, el rendimiento en matemáticas mejoró significativamente en un 20%. Las tareas relacionadas con la visión y el código también han mejorado, con evaluaciones de comprensión visual y generación de código Python mejorados entre un 2-7%.

Costos reducidos

El modelo más poderoso de la serie 1.5, Gemini 1.5 Pro, ha reducido el costo del token de entrada en un 64%, el costo del token de salida en un 52% y el costo del token de caché incremental en un 64%, efectivo a partir del 1 de octubre de 2024, aplicable a avisos con menos de 128K tokens. Junto con la caché de contexto, esto continuará reduciendo los costos de uso de Gemini. XXAl igual que los modelos potentes como Claude3.5, GPT y dalle3, el costo de uso es más bajo y los precios son extremadamente competitivos.

Otras mejoras

Google también ha mejorado el modelo experimental Gemini 1.5 lanzado en agosto, presentando una versión actualizada llamada Gemini-1.5-Flash-8B-Exp-0924, que fortalece aún más las aplicaciones de texto y multimodales. Los usuarios pueden acceder a los nuevos modelos Gemini a través de Google AI Studio, la API de Gemini y Vertex AI.

Conclusión

Los modelos de la serie Gemini 1.5 están diseñados para lograr un rendimiento general en diversas tareas de texto, código y multimodales. El progreso continuo del modelo Gemini 1.5 tiene como objetivo abrir nuevas posibilidades para las personas, desarrolladores y empresas en el uso de IA para crear, descubrir y construir. Esto permite que Gemini 1.5 aprenda tareas complejas más rápidamente mientras mantiene la calidad y mejora la eficiencia en entrenamiento y servicio. En general, la calidad del modelo ha mejorado, con avances significativos en matemáticas, contexto a largo plazo y visión.