Code Velocity
Modelos de IA

Gemini 3.1 Pro: Modelo com Raciocínio Avançado

·6 min de leitura·Google, Google DeepMind·Fonte original
Compartilhar
Comparativo de benchmarks do Gemini 3.1 Pro mostrando scores no ARC-AGI-2 e RE-Bench versus Gemini 3 Pro e outros modelos de fronteira

Resultados de Benchmark do Gemini 3.1 Pro

O Google DeepMind lançou o Gemini 3.1 Pro em 19 de fevereiro de 2026. O modelo mais que dobra a performance de raciocínio do seu predecessor, marcando 77.1% no ARC-AGI-2 comparado ao resultado do Gemini 3 Pro.

O Gemini 3.1 Pro é projetado para tarefas onde uma resposta direta não é suficiente: design de algoritmos, síntese de dados em larga escala, workflows agênticos e código complexo.

Gemini 3.1 Pro vs Claude Opus 4.6 vs GPT-5.2

BenchmarkGemini 3.1 ProClaude Opus 4.6GPT-5.2-Codex
ARC-AGI-277.1%
RE-Bench (R&D ML)1.27
Terminal-Bench 2.0#164.0%
Humanity's Last Exam#1
Contexto (entrada)1M200K (1M beta)400K
Contexto (saída)64K128K128K

Cada modelo lidera em áreas diferentes. Gemini 3.1 Pro se destaca em benchmarks de raciocínio novo. Claude Opus 4.6 lidera em código agêntico e raciocínio multidisciplinar. GPT-5.2-Codex oferece performance competitiva em código com preço mais baixo.

Funcionalidades Principais para Desenvolvedores

Profundidade de Raciocínio Configurável

O Gemini 3.1 Pro introduz um parâmetro thinking_level que controla quão profundamente o modelo raciocina antes de responder. Thinking baixo é rápido e barato para tarefas rotineiras. Thinking alto aplica mais computação para problemas complexos.

É conceitualmente similar ao pensamento adaptativo e controles de esforço no Claude Opus 4.6, embora a implementação do Gemini exponha o controle como um parâmetro explícito da API em vez de um comportamento adaptativo do modelo.

Endpoint de Tools Customizadas

Um endpoint separado, gemini-3.1-pro-preview-customtools, é otimizado para aplicações agênticas que combinam comandos bash com tools customizadas. O endpoint prioriza a seleção e invocação correta de ferramentas, reduzindo erros quando agentes interagem com sistemas externos.

Entrada de URL do YouTube

Desenvolvedores agora podem passar URLs do YouTube diretamente nos prompts. O modelo analisa o conteúdo de vídeo automaticamente, habilitando workflows que combinam compreensão de vídeo com geração de código ou tarefas de documentação.

Processamento Multimodal

O Gemini 3.1 Pro lida com texto, imagens, áudio, vídeo e código em um único contexto. Com janela de entrada de 1M tokens, pode processar codebases inteiras, documentos longos de pesquisa ou workflows profundamente aninhados em uma única passagem.

RE-Bench: Performance em Pesquisa de ML

No RE-Bench, que avalia capacidades de pesquisa e desenvolvimento em ML, Gemini 3.1 Pro alcança um score normalizado por humano de 1.27, acima dos 1.04 do Gemini 3 Pro. O modelo completou tarefas de otimização em 47 segundos comparado à referência humana de 94 segundos.

Disponibilidade do Gemini 3.1 Pro

O Gemini 3.1 Pro está disponível no app Gemini, Google Cloud Vertex AI, Google AI Studio e na API Gemini. Preços específicos variam por plataforma. O modelo está em preview com disponibilidade geral esperada em breve.

Perguntas Frequentes

O que é o Gemini 3.1 Pro?
Gemini 3.1 Pro é a atualização otimizada para raciocínio da série Gemini 3, lançada pelo Google DeepMind em 19 de fevereiro de 2026. Marca 77.1% no ARC-AGI-2, mais que dobrando a performance de raciocínio do Gemini 3 Pro. O modelo suporta 1M tokens de contexto de entrada e 64K tokens de saída, e introduz um parâmetro thinking_level que permite desenvolvedores controlarem quão profundamente o modelo raciocina antes de responder.
Como o Gemini 3.1 Pro se compara ao Claude Opus 4.6?
Gemini 3.1 Pro e Claude Opus 4.6 têm diferentes pontos fortes. Gemini 3.1 Pro lidera no ARC-AGI-2 (77.1%) e RE-Bench para R&D de ML, enquanto Claude Opus 4.6 ocupa a posição #1 no Terminal-Bench 2.0 para código agêntico e Humanity's Last Exam para raciocínio multidisciplinar. Ambos oferecem janelas de contexto de 1M tokens. A escolha depende da tarefa: Gemini se destaca em tarefas de raciocínio novo, Claude em trabalho sustentado de código.
O que é o parâmetro thinking_level no Gemini 3.1 Pro?
O parâmetro thinking_level permite desenvolvedores controlarem a profundidade máxima de raciocínio que o modelo aplica antes de produzir uma resposta. Thinking baixo é mais rápido e barato para tarefas diretas. Thinking alto aloca mais tempo de computação para problemas complexos. Isso dá aos desenvolvedores controle explícito sobre o trade-off custo-velocidade-qualidade, similar aos controles de esforço no Claude Opus 4.6.
O que é o endpoint de tools customizadas no Gemini 3.1 Pro?
O Gemini 3.1 Pro inclui um endpoint de API separado chamado gemini-3.1-pro-preview-customtools, otimizado para priorizar ferramentas customizadas de desenvolvedores. Ao construir aplicações agênticas com uma mistura de comandos bash e tools customizadas, este endpoint garante que o modelo selecione e invoque a ferramenta correta. É especialmente útil para desenvolvedores construindo agentes de IA que precisam interagir com sistemas externos e APIs.

Fique Atualizado

Receba as últimas novidades de IA no seu e-mail.

Compartilhar