A OpenAI anunciou nesta segunda-feira (14) a chegada da nova família de modelos GPT-4.1 à sua API. A linha inclui as versões GPT-4.1, GPT-4.1 mini e GPT-4.1 nano, que, segundo a empresa, superam os modelos anteriores — GPT-4o e GPT-4o mini — em diversas frentes, especialmente em tarefas de programação e interpretação de instruções. Uma das grandes novidades é o suporte a janelas de contexto de até 1 milhão de tokens.
Desenvolvidos com foco em aplicações práticas e resultado de colaborações com a comunidade de desenvolvedores, os novos modelos também foram atualizados com um novo corte de conhecimento: agora, abrangem informações até junho de 2024.
Avanços em desempenho técnico
O GPT-4.1 demonstrou melhorias expressivas em benchmarks voltados à engenharia de software. No SWE-bench Verified, por exemplo, o modelo atingiu 54,6% de sucesso — um avanço de mais de 20 pontos percentuais em relação ao GPT-4o, consolidando sua posição como um dos melhores modelos para programação.
Além disso, a OpenAI afirma que o GPT-4.1 aprimorou a geração de código com menos edições desnecessárias, especialmente em diffs. Em testes internos, a frequência de alterações extrínsecas caiu de 9% para 2%. Também foram observadas melhorias notáveis em tarefas de frontend, com 80% dos avaliadores humanos preferindo os sites gerados pelo GPT-4.1 em comparação aos anteriores.
Entre os destaques da nova linha está o GPT‑4.1 nano, descrito como o mais rápido e econômico da família. Com desempenho de 80,1% no benchmark MMLU, ele se mostra ideal para tarefas como autocompletar e classificação, mantendo a capacidade de lidar com grandes volumes de texto.
Melhor compreensão de instruções e diálogos complexos
O novo modelo também traz avanços na execução de instruções detalhadas e em conversas mais longas e encadeadas. No benchmark MultiChallenge — que avalia a habilidade de seguir múltiplas instruções em sequência — o GPT-4.1 apresentou desempenho 10,5% superior ao GPT-4o.
No teste IFEval, focado em instruções verificáveis, o modelo alcançou 87,4%, frente aos 81% da versão anterior. Empresas como Blue J e Hex, que participaram dos testes iniciais, relataram maior precisão em tarefas analíticas e redução no retrabalho.
A ampliação da janela de contexto também é um marco. O GPT-4.1 suporta até 1 milhão de tokens, uma evolução frente aos 128 mil do GPT-4o. Segundo a OpenAI, isso equivale a processar mais de oito versões completas do código-fonte do React de forma contínua.
Para testar essa capacidade, a empresa utilizou o desafio “Needle in a Haystack”, no qual o modelo precisa localizar informações específicas em grandes volumes de dados. Em testes mais complexos, como o benchmark OpenAI-MRCR, os modelos foram desafiados a interpretar múltiplas informações interligadas ao longo de diálogos simulados — e obtiveram bom desempenho.
Disponibilidade e transição de versões
O GPT-4.1 está disponível exclusivamente via API. A OpenAI também comunicou que a versão GPT-4.5 Preview será descontinuada em 14 de julho de 2025, já que o novo modelo oferece desempenho equivalente ou superior, com menor custo e latência.
No ChatGPT, as melhorias do GPT-4.1 estão sendo integradas gradualmente à versão GPT-4o. A empresa promete expandir essas atualizações nas próximas versões da plataforma.
As variantes mini e nano foram pensadas para aplicações com foco em desempenho e economia. A versão mini, por exemplo, reduz a latência em 50% e o custo em até 83%, mantendo uma performance comparável aos modelos maiores. Já a versão nano é indicada para cenários que exigem velocidade e alta capacidade de processamento contextual.