Google Gemini 1.5 AI reevolution: moins cher, plus performant, plus réactif

xx
2024-11-08
Share :

Le modèle Gemini 1.5 AI de google a été considérablement amélioré en termes de mise à jour évolutive avec deux nouveaux modèles: gemini-1.5-pro-002 et gemini-1.5-flash-002. Ces nouveaux modèles améliorent non seulement la qualité et l’efficacité de la production et permettent aux utilisateurs d’obtenir un service plus précis et efficace, mais ils réduisent également considérablement les coûts d’utilisation, ce qui les rend plus compétitifs en termes d’économie. De plus, ces mises à jour offrent aux utilisateurs des limites de taux plus élevées, ce qui rend l’expérience plus fluide et plus rapide lorsqu’ils travaillent avec de grandes quantités de données. Dans l’ensemble, la mise à jour de Gemini 1.5 améliore non seulement les performances du modèle ia, mais crée également une plus grande valeur pour les utilisateurs.

Découvrez l’évolution du modèle Gemini 1.5 AI

Une réévolution fonctionnelle

Gemini - 1,5 - de catalogue

  • sans soudure, la classification et l’analyse que l’on peut faire dans le contenu.
  • différents modes (vidéo) des tâches très complexes et de raisonnement.
  • code pouvant être plus longue des tâches plus résoudre les problèmes connexes.
  • fenêtre contextuelle peuvent maintenir un niveau élevé de performances de plus en plus.

Gemini - 1,5 - Flash 002

  • d’informations visuelles find: connaissances externes à partir d’images ou vidéo pour répondre aux questions.
  • objet: réponse à grains fins d’identification des objets avec des images et des vidéos.
  • la compréhension du contenu numérique: répondre aux demandes d’information, graphiques, tableaux et graphiques pages d’informations extraites du contenu visuel.
  • générer des contenus structurés: conformément au format HTML et JSON utilisation d’inputs multimodale.
  • sous-titrage et la description: niveau de détail différentes images et vidéos.
  • Sans la mémoire ou la raisonnement: la combinaison de nouvelles informations.
  • audio: document synthèse vocale, transcrits et des séances de questions-réponses
  • la multimodalité: traitement simultané de plusieurs types de médias, par exemple la vidéo et les produits audio

Reevolution de la configuration du système

Updated filter settings

La construction de modèles sûrs et fiables a toujours été une priorité. Avec la dernière version de Gemini, l’équipe Gemini a amélioré la capacité du modèle à suivre les instructions de l’utilisateur tout en tenant compte de la sécurité. Et continuera à fournir un ensemble de filtres de sécurité que les développeurs pourront appliquer aux modèles Google. Pour les modèles publiés aujourd’hui, ces filtres ne sont pas appliqués par défaut afin que les développeurs puissent déterminer la configuration la plus adaptée à leur cas d’utilisation.

Gemini 1.5 Flash-8B mise à jour expérimental

Nous publierons une nouvelle version améliorée du modèle Gemini 1.5 qui a été publiée en août sous le nom de "gemini-1.5-flash-8b-exp-0924". Cette version améliorée apporte une amélioration significative des performances à la fois dans les cas d’utilisation texte et multimodaux. Il est maintenant disponible via Google AI Studio et Gemini API.

Avantages du modèle Gemini 1.5 AI après la réévolution

Limite de taux élevée

Les modèles gemini-1.5-pro-002 et gemini-1.5-flash-002 AI seront également disponibles avec des limites de débit plus élevées. La limite de taux est la limite d’utilisation quotidienne de l’utilisateur. Avec le modèle 1.5 Flash, les utilisateurs recevront 2 000 requêtes (RPM) par minute, tandis que le modèle 1.5 Pro fournira 1 000 RPM.

Vitesse de sortie élevée et latence réduite

En plus des améliorations de base apportées aux modèles les plus récents, nous avons réduit la latence avec 1.5 Flash au cours des dernières semaines et augmenté considérablement le nombre de jetons de sortie par seconde, ce qui nous a permis de mettre en œuvre de nouveaux cas d’utilisation avec nos modèles les plus puissants.

Plus de performance

Les performances du modèle ont augmenté d’environ 7% lors du test de référence mmlu-pro, plus difficile. Amélioration significative de 20% des performances mathématiques dans les benchmarks MATH et HiddenMath. Les tâches visuelles et liées au code se sont également améliorées, avec une amélioration de 2 à 7% dans l’évaluation de la compréhension visuelle et de la génération de code Python.

Le coût est inférieur

Gemini 1.5 Pro, le modèle le plus puissant de la série 1.5, avec une réduction de 64% sur les jetons d’entrée, de 52% sur les jetons de sortie et de 64% sur les jetons de cache incrémentiels, à partir du 1er octobre 2024, Conseils pour moins de 128K jetons. Avec la mise en cache contextuelle, cela continuera à réduire les coûts de construction avec Gemini. Comme avec la configuration Claude3.5, GPT, dalle3 plusieurs modèles, puissant XXAI, comparé à d’autres modèles à utiliser moins cher, le prix est très compétitif.

Autres améliorations

Google a également mis à jour le modèle expérimental Gemini 1.5 publié en août avec la mise à jour gemini-1.5-flash-8b-exp-0924. Les applications texte et multimodales sont encore améliorées. Les utilisateurs peuvent accéder au nouveau modèle Gemini via Google AI Studio, Gemini API et Vertex AI.

Conclusion

Les modèles de la série Gemini 1.5 sont conçus pour obtenir des performances générales dans diverses tâches de texte, de code et multimodales. Le but de la progression continue du modèle Gemini 1.5 est d’ouvrir de nouvelles possibilités aux personnes, aux développeurs et aux entreprises qui utilisent l’intelligence artificielle pour créer, découvrir et construire. Permet à Gemini 1.5 d’apprendre des tâches complexes plus rapidement et de maintenir la qualité tout en améliorant l’efficacité de la formation et du service. Dans l’ensemble, la qualité générale des modèles s’est améliorée et les mathématiques, le contexte à long terme et la vision ont progressé davantage.