Google Gemini 1.5 modelo AI reevolução: menos custo, mais desempenho, mais responsivo

xx
2024-11-08
Share :

O modelo de IA Gemini 1.5 da Google recebeu melhoramentos significativos através da atualização evolutiva, lançando dois novos modelos: Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002. Esses novos modelos não apenas melhoram a qualidade e a eficiência das saídas, proporcionando serviços mais precisos e eficientes aos usuários, mas também reduzem significativamente os custos de uso, tornando-se mais competitivos em termos econômicos. Além disso, essas atualizações fornecem limites de taxa mais altos para os usuários, melhorando a experiência ao tratar grandes quantidades de dados de forma mais fluida e rápida. Em geral, a atualização do Gemini 1.5 não apenas melhora o desempenho do modelo de IA, mas também cria mais valor para os usuários.

Compreendendo a Evolução do Modelo de IA Gemini 1.5

Evolução das Funcionalidades

Gemini-1.5-Pro-002

  • Pode analisar, classificar e resumir grandes quantidades de conteúdo de um prompt fornecido de maneira contínua.
  • Pode executar tarefas de compreensão e raciocínio altamente complexas em diferentes modalidades (incluindo vídeos).
  • Pode realizar tarefas de resolução de problemas mais relevantes em blocos de código mais longos.
  • Pode manter um alto nível de desempenho mesmo com janelas de contexto maiores.

Gemini-1.5-Flash-002

  • Pesquisa de informações visuais: responde a perguntas usando conhecimento externo combinado com as informações extraídas das imagens ou vídeos de entrada.
  • Reconhecimento de objetos: responde a perguntas relacionadas à identificação detalhada de objetos em imagens e vídeos.
  • Compreensão de conteúdo digital: responde a perguntas e extrai informações de conteúdos visuais como infográficos, gráficos, diagramas, tabelas e páginas web.
  • Geração de conteúdo estruturado: gera respostas com base em entradas multimodais em formatos como HTML e JSON.
  • Legendas e descrições: gera descrições de imagens e vídeos em diferentes níveis de detalhe.
  • Raciocínio: combina e infere novas informações sem necessidade de memória ou recuperação.
  • Áudio: analisa arquivos de áudio para resumir, transcrever e responder a perguntas.
  • Processamento multimodal: processa simultaneamente vários tipos de entradas multimídia, como vídeo e áudio.

Evolução da Configuração do Sistema

Configurações de filtro atualizadas

Construir modelos seguros e confiáveis sempre foi uma prioridade. Com a versão mais recente do Gemini, a equipe do Gemini melhorou a capacidade do modelo de seguir as instruções dos usuários mantendo a segurança. Continuará fornecendo um conjunto de filtros de segurança para que os desenvolvedores apliquem aos modelos do Google. Para os modelos lançados hoje, esses filtros não serão aplicados por padrão, permitindo que os desenvolvedores determinem a configuração mais adequada para seus casos de uso.

Atualizações Experimentais Gemini 1.5 Flash-8B

Lançaremos uma versão melhorada do modelo Gemini 1.5 lançado em agosto, chamada "Gemini-1.5-Flash-8B-Exp-0924". Esta versão melhorada apresenta aumentos de desempenho significativos para usos em texto e multimodal. Está agora disponível através do Google AI Studio e da API Gemini.

Vantagens da Evolução do Modelo de IA Gemini 1.5

Limites de Taxa Mais Altos

Os modelos Gemini-1.5-Pro-002 e Gemini-1.5-Flash-002 oferecerão limites de taxa mais altos. O limite de taxa é o limite diário de uso dos usuários. Com o modelo 1.5 Flash, os usuários obterão 2.000 pedidos por minuto (RPM), enquanto o modelo 1.5 Pro oferecerá 1.000 RPM.

Velocidade de Saída Alta, Redução de Latência

Além das melhorias principais no modelo mais recente, nas últimas semanas também reduzimos a latência com o modelo 1.5 Flash e aumentamos significativamente o número de tokens de saída por segundo, possibilitando novos casos de uso com nosso modelo mais potente.

Desempenho Mais Forte

Desempenho melhorado em cerca de 7% nos benchmarks mais desafiadores MMLU-Pro. Desempenho matemático melhorado em 20% nos benchmarks de MATH e HiddenMath. Tarefas relacionadas a visão e código também foram melhoradas, com aumentos de desempenho de 2-7% nas avaliações de compreensão visual e geração de código Python.

Custos Mais Baixos

O modelo mais potente da série 1.5, Gemini 1.5 Pro, teve uma redução de preço de 64% para tokens de entrada, 52% para tokens de saída e 64% para tokens de cache incremental, efetivas a partir de 1º de outubro de 2024 para prompts com menos de 128K tokens. Além disso, com o cache de contexto, isso continuará reduzindo os custos de uso do Gemini. Como Claude3.5, GPT, dalle3 e outros modelos poderosos, os custos de uso são mais baixos e os preços extremamente competitivos.

Outras Melhorias

A Google também atualizou o modelo experimental Gemini 1.5 lançado em agosto, lançando a versão melhorada Gemini-1.5-Flash-8B-Exp-0924, ainda mais reforçada para aplicações textuais e multimodais. Os usuários podem acessar o novo modelo Gemini através do Google AI Studio, da API Gemini e do Vertex AI.

Conclusão

A série de modelos Gemini 1.5 é projetada para fornecer desempenho geral excelente em várias tarefas textuais, de codificação e multimodais. Os avanços contínuos do modelo Gemini 1.5 visam abrir novas possibilidades para pessoas, desenvolvedores e empresas no uso da inteligência artificial para criar, descobrir e construir. Isso permite que o Gemini 1.5 aprenda tarefas complexas mais rapidamente, mantendo a qualidade e, ao mesmo tempo, melhorando a eficiência de treinamento e serviço. Em geral, a qualidade geral do modelo melhorou significativamente, especialmente nas capacidades matemáticas, na compreensão de contexto de longo prazo e na visão.