.
O Openai anunciou na quinta-feira o lançamento da O3 e da O4-mini, novos modelos de raciocínio de IA projetados para pausar e trabalhar com perguntas antes de responder.
A empresa chama a O3 de seu modelo de raciocínio mais avançado de todos os tempos, superando os modelos anteriores da empresa em testes que medem recursos de matemática, codificação, raciocínio, ciência e entendimento visual. Enquanto isso, o O4-Mini oferece o que o OpenAI diz ser uma troca competitiva entre preço, velocidade e desempenho-três fatores que os desenvolvedores costumam considerar ao escolher um modelo de IA para alimentar seus aplicativos.
Ao contrário dos modelos de raciocínio anteriores, O3 e O4-Mini podem gerar respostas usando ferramentas no ChatGPT, como navegação na Web, execução de código Python, processamento de imagens e geração de imagens. A partir de hoje, os modelos, além de uma variante de O4-mini chamada O4-Mini-High, que gasta mais respostas de criação de tempo para melhorar sua confiabilidade, estão disponíveis para os assinantes do Pro, mais e dos planos da equipe do OpenAI.
Os novos modelos fazem parte do esforço da OpenAI para derrotar o Google, Meta, Xai, Antrópico e Deepseek na corrida global de IA Cutthroat. Enquanto o OpenAI foi o primeiro a lançar um modelo de raciocínio de IA, o O1, os concorrentes rapidamente seguiram com versões próprias que correspondem ou excedem o desempenho da programação do OpenAI. De fato, os modelos de raciocínio começaram a dominar o campo enquanto a AI Labs procura obter mais desempenho de seus sistemas.
O3 quase não foi lançado no chatgpt. O CEO da Openai, Sam Altman, sinalizou em fevereiro que a empresa pretendia dedicar mais recursos a uma alternativa sofisticada que incorporava a tecnologia da O3. Mas a pressão competitiva aparentemente estimulou o Openai a reverter o curso no final.
O OpenAI diz que a O3 atinge o desempenho de ponta em benchmarks, incluindo forças de código, SWE-banch (sem criar um andaime específico de modelo personalizado) e MMMU. A empresa também afirma que a O3 comete 20% menos erros que o O1 em tarefas do mundo real.
O Openai afirma que O3 e O4-Mini são seus primeiros modelos que podem “pensar com imagens”. Na prática, os usuários podem fazer upload de imagens para ChatGPT, como esboços ou diagramas de quadros brancos de PDFs, e os modelos analisarão as imagens durante sua fase “cadeia de pensamento” antes de responder. Graças a essa habilidade nova, O3 e O4-mini podem entender imagens embaçadas e de baixa qualidade e podem executar tarefas como zoom ou girar imagens como elas argumentarem.
Além dos recursos de processamento de imagens, O3 e O4-mini podem ser executados e executam o código Python diretamente no seu navegador através do recurso de tela do ChatGPT e pesquise na Web quando perguntado sobre os eventos atuais.
Além do ChatGPT, todos os três modelos-O3, O4-mini e O4-Mini-High-estarão disponíveis através dos pontos de extremidade voltados para desenvolvedores da OpenAI, a API de conclusão de bate-papo e API de respostas, permitindo que os engenheiros criem aplicativos com os modelos da empresa a taxas baseadas em uso. Nas próximas semanas, o Openai diz que planeja lançar o O3-Pro, uma versão da O3 que usa mais recursos de computação para produzir suas respostas, exclusivamente para assinantes do ChatGPT Pro.
O CEO da Openai, Sam Altman, indicou que O3 e O4-mini pode ser seus últimos modelos de raciocínio independentes de IA no ChatGPT antes do GPT-5, um modelo que a empresa disse que unificará modelos tradicionais como o GPT-4.1 com seus modelos de raciocínio.
.








