Google Gemini 1,5 hat das leistungsmodell neu entwickelt: billiger, leistungsstärker und schneller

xx
2024-11-08
Share :

Diese neuen Modelle erhöhen nicht nur die Qualität und Effizienz der Ausgabe, wodurch Benutzer genauere und effizientere Dienste erhalten, sondern senken auch die Nutzungskosten erheblich, was ihre Wirtschaftlichkeit wettbewerbsfähiger macht. Darüber hinaus bieten diese Updates den Benutzern höhere Geschwindigkeitsbegrenzungen, sodass sie beim Umgang mit großen Datenmengen ein reibungsloseres und schnelleres Erlebnis haben.

Zusammenfassend lässt sich sagen, dass das Update von Gemini 1.5 nicht nur die Leistung des KI-Modells verbessert, sondern auch einen höheren Mehrwert für die Benutzer schafft.

Es wird gezeigt, wie sich das modell unter Gemini 1,5 verbessert

Funktionale erneuerung

Gemini-1.5-Pro-002

  • Nahtlose Analyse, Klassifizierung und Zusammenfassung großer Mengen an Inhalten in einem gegebenen Hinweis.
  • Hochkomplexe Verständnis- und Schlussfolgerungsaufgaben für verschiedene Modalitäten (einschließlich Video).
  • Relevantere Problemlösungsaufgaben über längere Codeblöcke hinweg durchführen.
  • Hohes Leistungsniveau auch in größeren Kontextfenstern beibehalten.

Gemini-1.5-Flash-002

  • Visuelle Informationssuche: Kombination externer Kenntnisse mit aus Eingabebildern oder -videos extrahierten Informationen.
  • Objekterkennung: Feinkörnige Identifizierung von Objekten in Bildern und Videos.
  • Verständnis digitaler Inhalte: Extraktion von Informationen aus Infografiken, Diagrammen, Grafiken, Tabellen und Webseiten.
  • Generierung strukturierter Inhalte: Erstellung von Antworten basierend auf multimodalen Eingaben in Formaten wie HTML und JSON.
  • Untertitelung und Beschreibung: Erstellung von Bild- und Videobeschreibungen unterschiedlicher Detaillierungsgrade.
  • Schlussfolgerung: Kombination und Inferenz neuer Informationen ohne Gedächtnis oder Erinnerung.
  • Audio: Analyse von Sprachdateien zur Erstellung von Zusammenfassungen, Transkriptionen und zur Beantwortung von Fragen.
  • Multimodale Verarbeitung: Gleichzeitige Verarbeitung verschiedener Eingabemedien wie Video und Audio.

Die system-konfiguration entwickelt sich

Systemkonfigurationsfortschritt

Aktualisierte Filtereinstellungen: Der Aufbau sicherer und zuverlässiger Modelle war schon immer ein prominenter Schwerpunkt. Mit der neuesten Version von Gemini hat das Gemini-Team die Fähigkeit des Modells verbessert, Anwenderanweisungen unter Einhaltung der Sicherheit zu befolgen. Zudem wird weiterhin eine Reihe von Sicherheitsfiltern bereitgestellt, die Entwickler auf die Modelle von Google anwenden können. Bei den heute veröffentlichten Modellen sind diese Filter standardmäßig nicht aktiviert, sodass Entwickler die Konfiguration wählen können, die ihren Anwendungsfällen am besten entspricht.

Experimentelle Updates von Gemini 1.5 Flash-8B:

Gemini-1.5-Flash-8B-Exp-0924: Eine verbesserte Version des im August veröffentlichten Gemini 1.5-Modells, die signifikante Leistungssteigerungen bei Text- und multimodalen Anwendungsfällen zeigt. Verfügbar über Google AI Studio und die Gemini API.

Das modell hat sich nach der evolution verbessert

Geschwindigkeit verringern

Bereits die grenze für die geschwindigkeiten Von Gemini -1,5 auf jeden fall wird Von 002 und Gemini- 1,5 auf jeden fall eine höhere grenze vorsehen. Die begrenzung ist die tägliche bezugsbeschränkung der nutzer. Aktiviert ihr 1,5 Flash modelle, können die teilnehmer an RPM Pro minute 2.000 anfrage (RPM) erhalten, und 1,5 Pro modell können 1.000 namen eines Waren aus RPM eingeben.

Erhebliche durchlaufgeschwindigkeit, verzögerte senkung

Zusätzlich zur erstellung Von kernverbesserungen an den jüngsten modellen, konnten wir in den letzten wochen die verzögerungen durch 1,5 Flash reduzieren und die zahl der strommengen pro sekunde deutlich erhöhen, wobei wir an unseren mächtigsten modellen festhalten, um neue beispiele zu finden.

Es ist robuster.

In einem anspruchsvoller mmu-test machte das modell eine leistungssteigerung Von etwa sieben prozent.In den vergleichstests wurden die mathematischen leistungen deutlich um 20 prozent erhöht.Die mit dem sehen und dem code verbundenen aufgaben wurden ebenfalls verbessert, durch das sichtverständnis und Python -programmheft um 2,7%.

Das ist billiger.

Bei der ersten 1,5 serienreihe Von 1,5-pro, können sie dem geken-preisnachlass für tod uber 64%, dem export Von tokens 52 prozent und dem wachstum Von token uber uber 64 prozent, das am 1. Oktober 2024 in kraft getreten ist, zuschreiben. Gilt nämlich für die weniger als 128K tokens. Dazu kommt noch der kontexttext, wodurch sich die kosten für den Gemini weiter senken lassen. (paraceltics) ähnlich den paraceltisten (paraceltics), die mehrdimensionale modell de3,5, GPT, dalle3 (dynamische XXX) aufnehmen, sind sie im vergleich zu anderen modellen billiger und teuer.

Andere verbesserungen

Und google konnte bereits die im August veröffentlichten modelle Von Gemini 1,5 erweitern, und an die strom-version Gemini -1,5 -8b-exp-0924 angeschlossen werden, wobei texte und multimod-anwendungen immer stärker unterstützt werden. Die nutzer können das neue Gemini Studio über das Google AI Studio, Gemini API und verai besuchen.

Conclusion

Das modell Gemini 1,5 ist auf die erstellung gewöhnlicher leistungen für text, code und mehrformalige aufgaben ausgelegt. Das Gemini 1,5 modell verfolgt einen zweck, das menschen, entwicklern und unternehmen neue möglichkeiten bietet, mittels künstlicher intelligenz dinge zu schaffen, zu entdecken und aufzubauen. Gemini 1,5 zu ermöglichen, komplexere aufgaben schneller zu erlernen und die qualität zu erhalten sowie ausbildung und leistungsfähigkeit zu verbessern. Insgesamt haben sich die modelle besser entwickelt, in mathematik, in langfristigen kontext und in vision.