O modelo de IA Gemini 1.5 da Google recebeu melhoramentos significativos através da atualização evolutiva, lançando dois novos modelos: Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002. Esses novos modelos não apenas melhoram a qualidade e a eficiência das saídas, proporcionando serviços mais precisos e eficientes aos usuários, mas também reduzem significativamente os custos de uso, tornando-se mais competitivos em termos econômicos. Além disso, essas atualizações fornecem limites de taxa mais altos para os usuários, melhorando a experiência ao tratar grandes quantidades de dados de forma mais fluida e rápida. Em geral, a atualização do Gemini 1.5 não apenas melhora o desempenho do modelo de IA, mas também cria mais valor para os usuários.
Construir modelos seguros e confiáveis sempre foi uma prioridade. Com a versão mais recente do Gemini, a equipe do Gemini melhorou a capacidade do modelo de seguir as instruções dos usuários mantendo a segurança. Continuará fornecendo um conjunto de filtros de segurança para que os desenvolvedores apliquem aos modelos do Google. Para os modelos lançados hoje, esses filtros não serão aplicados por padrão, permitindo que os desenvolvedores determinem a configuração mais adequada para seus casos de uso.
Lançaremos uma versão melhorada do modelo Gemini 1.5 lançado em agosto, chamada "Gemini-1.5-Flash-8B-Exp-0924". Esta versão melhorada apresenta aumentos de desempenho significativos para usos em texto e multimodal. Está agora disponível através do Google AI Studio e da API Gemini.
Os modelos Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002 oferecerão limites de taxa mais altos. O limite de taxa é o limite diário de uso dos usuários. Com o modelo 1.5 Flash, os usuários obterão 2.000 pedidos por minuto (RPM), enquanto o modelo 1.5 Pro oferecerá 1.000 RPM.
Além das melhorias principais no modelo mais recente, nas últimas semanas também reduzimos a latência com o modelo 1.5 Flash e aumentamos significativamente o número de tokens de saída por segundo, possibilitando novos casos de uso com nosso modelo mais potente.
Desempenho melhorado em cerca de 7% nos benchmarks mais desafiadores MMLU-Pro. Desempenho matemático melhorado em 20% nos benchmarks de MATH e HiddenMath. Tarefas relacionadas a visão e código também foram melhoradas, com aumentos de desempenho de 2-7% nas avaliações de compreensão visual e geração de código Python.
O modelo mais potente da série 1.5, Gemini 1.5 Pro, teve uma redução de preço de 64% para tokens de entrada, 52% para tokens de saída e 64% para tokens de cache incremental, efetivas a partir de 1º de outubro de 2024 para prompts com menos de 128K tokens. Além disso, com o cache de contexto, isso continuará reduzindo os custos de uso do Gemini. Como Claude3.5, GPT, dalle3 e outros modelos poderosos, os custos de uso são mais baixos e os preços extremamente competitivos.
A Google também atualizou o modelo experimental Gemini 1.5 lançado em agosto, lançando a versão melhorada Gemini-1.5-Flash-8B-Exp-0924, ainda mais reforçada para aplicações textuais e multimodais. Os usuários podem acessar o novo modelo Gemini através do Google AI Studio, da API Gemini e do Vertex AI.
A série de modelos Gemini 1.5 é projetada para fornecer desempenho geral excelente em várias tarefas textuais, de codificação e multimodais. Os avanços contínuos do modelo Gemini 1.5 visam abrir novas possibilidades para pessoas, desenvolvedores e empresas no uso da inteligência artificial para criar, descobrir e construir. Isso permite que o Gemini 1.5 aprenda tarefas complexas mais rapidamente, mantendo a qualidade e, ao mesmo tempo, melhorando a eficiência de treinamento e serviço. Em geral, a qualidade geral do modelo melhorou significativamente, especialmente nas capacidades matemáticas, na compreensão de contexto de longo prazo e na visão.