Saltar para o conteúdo

Pânico a bordo? Diz-se que o ChatGPT acionou um “código vermelho” devido a este novo modelo de IA.

Duas pessoas discutem dados em gráficos e visualização de rede em ecrãs numa sala de escritório moderna.

A pressão competitiva no universo da inteligência artificial voltou a intensificar-se. De acordo com informações avançadas por The Information e pelo Wall Street Journal (citados pelo The Verge), a mais recente evolução da IA da Google, o Gemini 3, terá causado impacto suficiente para levar a OpenAI a activar internamente um “código vermelho”.

Este tipo de alerta não é inédito no sector. Em dezembro de 2022, quando o ChatGPT se tornou público e rapidamente passou a ser visto como uma ameaça ao motor de pesquisa da Google, a empresa de Mountain View também terá adoptado uma resposta de emergência. Desde então, lançou um rival directo, o Gemini, e tem vindo a integrá-lo progressivamente nos seus produtos e serviços.

“Código vermelho” na OpenAI após o lançamento do Gemini 3

Segundo essas revelações, a OpenAI terá reagido ao novo nível de desempenho do Gemini 3 com um conjunto de medidas internas atribuídas a Sam Altman, destinadas a recentrar esforços naquilo que a empresa considera essencial no ChatGPT. A prioridade deixaria de ser expandir frentes paralelas e passaria a ser reforçar o “núcleo” do produto.

A ideia, ao que tudo indica, é impedir que o ChatGPT seja percebido como menos capaz do que a proposta da Google - sobretudo num momento em que a comparação directa entre modelos e versões é feita publicamente, com testes, tabelas de desempenho e mensagens de liderança por parte das grandes marcas.

Projectos adiados para reforçar as funções base do ChatGPT (Sam Altman)

Na nota interna atribuída a Sam Altman, a OpenAI terá informado os colaboradores de que alguns projectos seriam colocados em pausa ou avançariam mais lentamente. Entre os temas referidos estariam iniciativas ligadas a publicidade, funcionalidades de compras (shopping), o desenvolvimento de um agente especializado em saúde e ainda o assistente ChatGPT Pulse.

O foco passaria para melhorias consideradas estruturais, como:

  • Velocidade de resposta do modelo
  • Fiabilidade e consistência nas respostas
  • Personalização e adaptação do ChatGPT ao utilizador
  • Outros ajustes orientados para elevar o desempenho global do serviço

Também estariam previstos contactos diários com as equipas responsáveis por estas melhorias. Além disso, a OpenAI estaria a incentivar transferências temporárias de colaboradores entre equipas, com o objectivo de acelerar as entregas e reduzir o tempo necessário para implementar mudanças relevantes.

Google Gemini 3 e o efeito nos benchmarks (Gemini 3 Pro)

A urgência interna na OpenAI faria sentido num contexto em que a Google tem reforçado publicamente a narrativa de superioridade do Gemini 3. Com o lançamento, a empresa terá afirmado que o Gemini 3 Pro superaria o Claude Sonnet 4.5 e o GPT-5.1 numa série de benchmarks usados para comparar capacidades de modelos de IA.

Este tipo de comparações pesa não só na reputação junto do público, mas também na decisão de empresas que escolhem modelos para integração em produtos, suporte ao cliente, análise de dados e automatização de processos.

Um exemplo mediático citado foi o de Marc Benioff, CEO da Salesforce e uma das figuras mais influentes na área tecnológica, que terá declarado que, após usar o ChatGPT diariamente durante 3 anos, passaria a utilizar o Gemini - depois de testar o Gemini 3 durante cerca de duas horas.

O que esta corrida pode significar para utilizadores e empresas

Esta intensificação da competição tende a traduzir-se, na prática, em ciclos de melhoria mais rápidos: modelos mais responsivos, maior estabilidade e opções de personalização mais úteis no dia-a-dia. Para quem usa o ChatGPT de forma regular, um “código vermelho” orientado para o básico pode resultar em ganhos imediatos, como menor latência e menos respostas inconsistentes.

Ao mesmo tempo, para organizações que dependem destes sistemas, cresce a importância de avaliar não apenas benchmarks, mas também aspectos como previsibilidade do comportamento do modelo, controlos de segurança, qualidade das integrações e capacidade de manter desempenho sob carga - factores que, muitas vezes, pesam tanto quanto a pontuação num teste público.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário