Saltar para o conteúdo

A OpenAI está a preparar um novo modelo e a reorganizar-se; inicialmente, só as empresas terão acesso.

Homem a interagir com holograma de cérebro em escritório moderno com colegas ao fundo.

Depois da conclusão do treino do modelo Spud, a empresa cria uma divisão para a implementação de AGI, mas adia o lançamento para o grande público devido aos riscos

Na OpenAI, terminou o pré-treino do novo modelo com o nome de código Spud. Segundo o The Information, dentro da empresa espera-se que o modelo «se revele tão poderoso que possa influenciar a economia» - afirma-se que foi isto que o diretor executivo Sam Altman disse aos colaboradores.

Com a preparação do lançamento em curso, começaram também mudanças na empresa. Altman afasta-se da gestão operacional de várias frentes, incluindo as equipas responsáveis pela segurança, e concentra-se na captação de investimento, no desenvolvimento de infraestrutura e na construção de centros de dados.

Em paralelo, a organização de produto liderada por Fidji Simo passou a chamar-se divisão de implementação de AGI. Esta equipa ficará encarregue de definir como o novo modelo funciona nos produtos e de que forma as suas capacidades serão «desdobradas» para os utilizadores.

Espera-se que à volta do Spud seja criada uma única «superaplicação», que juntará o ChatGPT, o Codex e o navegador Atlas. Não se trata apenas de lançar um modelo, mas de tentar construir, com base nele, um ambiente de utilização unificado.

O próprio nome da nova divisão é revelador: em vez do habitual «IA», aparece «AGI». Formalmente, a empresa ainda não anunciou ter alcançado a AGI, mas a escolha do termo pode refletir ambição - ou preparação para anúncios de maior dimensão.

Ao mesmo tempo, as prioridades de produto também estão a mudar. Segundo as fontes, a desistência de uma aplicação separada para o Sora poderá estar ligada à redistribuição de recursos computacionais em favor do novo modelo.

Apesar de o treino ter sido concluído, o lançamento do Spud para o grande público continua adiado. Numa primeira fase, o acesso ao modelo deverá ser concedido apenas a um número limitado de empresas.

A razão apontada é o risco associado às capacidades do sistema. Fala-se de potencial autonomia e da capacidade de executar tarefas complexas, incluindo cenários ligados a ciberataques. Por isso, decidiu-se controlar a disseminação do modelo.

A Anthropic já segue uma abordagem semelhante: o seu modelo mais potente foi primeiro testado num ambiente fechado. No caso da OpenAI, a julgar pelos dados disponíveis, a estratégia escolhida é parecida - primeiro acesso limitado, depois, possivelmente, uma expansão gradual.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário