Il modello AI Gemini 1.5 di Google ha ottenuto significativi miglioramenti attraverso l'aggiornamento evolutivo, introducendo due nuovi modelli: Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002. Questi nuovi modelli non solo migliorano la qualità e l'efficienza delle uscite, offrendo servizi più accurati ed efficienti agli utenti, ma riducono anche significativamente i costi di utilizzo, rendendoli più competitivi in termini economici. Inoltre, questi aggiornamenti forniscono agli utenti limiti di velocità più elevati, migliorando l'esperienza utente nel trattare grandi quantità di dati in modo più fluido e veloce. In generale, l'aggiornamento di Gemini 1.5 ha migliorato le prestazioni del modello AI e ha creato maggior valore per gli utenti.
La costruzione di modelli sicuri e affidabili è sempre stata una priorità. Grazie alla versione più recente di Gemini, il team di Gemini ha migliorato la capacità del modello di seguire le istruzioni degli utenti mantenendo al contempo la sicurezza. Continuerà a fornire un set di filtri di sicurezza per gli sviluppatori da applicare ai modelli di Google. Per i modelli rilasciati oggi, tali filtri non saranno applicati per impostazione predefinita, così che gli sviluppatori possano determinare la configurazione più adatta ai loro casi d'uso.
Pubblicheremo una versione migliorata del modello Gemini 1.5 rilasciato ad agosto, chiamata "Gemini-1.5-Flash-8B-Exp-0924". Questa versione migliorata mostra significativi aumenti di prestazioni per l'uso in testo e multimodale. È ora disponibile tramite Google AI Studio e l'API Gemini.
I modelli Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002 offriranno limiti di velocità più elevati. Il limite di velocità è il limite di utilizzo giornaliero degli utenti. Con il modello 1.5 Flash, gli utenti otterranno 2.000 richieste al minuto (RPM), mentre il modello 1.5 Pro offrirà 1.000 RPM.
Oltre ai miglioramenti di base al modello più recente, nelle ultime settimane abbiamo anche ridotto la latenza con il modello 1.5 Flash e aumentato significativamente il numero di token di output per secondo, portando nuovi casi d'uso con il nostro modello più potente.
Prestazioni migliorate del 7% circa nei benchmark MMLU-Pro più impegnativi.Prestazioni matematiche migliorate del 20% nei benchmark MATH e HiddenMath.Compiti visivi e relativi al codice migliorati, con incrementi di prestazioni del 2-7% nelle valutazioni della comprensione visiva e della generazione di codice Python.
Il modello più potente della serie 1.5, Gemini 1.5 Pro, ha visto una riduzione del prezzo dell'64% per i token di input, del 52% per i token di output, e del 64% per i token di cache incrementale, efficaci dal 1 ottobre 2024 per i prompt con meno di 128K token. Inoltre, con la cache del contesto, ciò ridurrà ulteriormente i costi di utilizzo di Gemini. Come Claude3.5, GPT, dalle3 e altri modelli potenti, i costi di utilizzo sono più bassi e i prezzi estremamente competitivi.
Google ha anche aggiornato il modello sperimentale Gemini 1.5 rilasciato ad agosto, introducendo la versione migliorata Gemini-1.5-Flash-8B-Exp-0924, ulteriormente potenziata nelle applicazioni testuali e multimodali. Gli utenti possono accedere al nuovo modello Gemini tramite Google AI Studio, l'API Gemini e Vertex AI.
La serie di modelli Gemini 1.5 è progettata per fornire prestazioni generali eccellenti nei vari compiti testuali, di codifica e multimodali. I progressi continui del modello Gemini 1.5 mirano ad aprire nuove possibilità per persone, sviluppatori e aziende nell'uso dell'intelligenza artificiale per creare, scoprire e costruire. Questo consente a Gemini 1.5 di apprendere i compiti complessi più rapidamente pur mantenendo la qualità, migliorando al contempo l'efficienza di addestramento e di servizio. In generale, la qualità complessiva del modello è migliorata, con progressi significativi nelle capacità matematiche, nella comprensione del contesto lungo termine e nella visione.