Saltar para o conteúdo

Após acordo com Pentágono, OpenAI enfrenta polémica e utilizadores mudam-se para o Claude.

Homem jovem a trabalhar num portátil com ícones de inteligência artificial numa mesa com auriculares e smartphone.

Um contrato, um fim de semana e uma viragem abrupta de humor: a OpenAI tentou aproximar o ChatGPT do Departamento de Defesa dos EUA - e acabou por desencadear uma onda de críticas que forçou o grupo a fazer correcções apressadas. Em paralelo, a até aqui “outsider” Anthropic está a beneficiar do momento: o seu modelo Claude vive um crescimento inesperado.

Como nasceu o polémico acordo com o Pentágono (OpenAI, ChatGPT e Departamento de Defesa)

A origem da controvérsia está num contrato de cooperação entre a OpenAI e o Departamento de Defesa dos EUA. O objectivo é colocar o ChatGPT a apoiar tarefas ligadas à segurança e ao domínio militar, como a análise de grandes volumes de dados ou o suporte ao trabalho de analistas.

O detalhe mais sensível é que, pouco antes, a concorrente Anthropic recusara uma proposta muito semelhante. A empresa invoca um código de ética particularmente rígido e afirma existir “linhas vermelhas” claras quando a utilização é militar.

Enquanto a Anthropic diz “não” a armas autónomas e a vigilância em massa, a OpenAI avançou - e pouco depois viu-se obrigada a recuar.

O anúncio do acordo com o Pentágono foi feito numa sexta-feira, um momento frequentemente associado à tentativa de “enterrar” notícias desagradáveis. Para muitos observadores, soou a uma típica “sexta-feira de más notícias”, reforçando a suspeita de que a OpenAI queria diluir a contestação no ruído do fim de semana.

A linha dura da Anthropic: sem armas autónomas, sem vigilância em massa

Há muito que a Anthropic se apresenta como um actor especialmente prudente na corrida da IA. A empresa insiste que o Claude não deve integrar cadeias de decisão com consequências letais.

Na prática, a Anthropic recusa de forma inequívoca dois cenários:

  • Sistemas de armas totalmente autónomos: o Claude não deve operar em soluções onde, no fim do processo, deixa de existir uma instância humana a decidir sobre vida e morte.
  • Vigilância de populações inteiras: a utilização para observação generalizada e sem motivo específico de cidadãos está explicitamente na lista de exclusões.

Esta postura tem custos. Segundo relatos mediáticos, a Anthropic terá sido colocada em Washington numa “lista negra” informal e, neste momento, não estará a receber novos contratos governamentais. Em contrapartida, a posição reforça a confiança de muitas pessoas que receiam uma captura militar da indústria de IA.

Ainda assim, circulam indícios de que o Claude poderá estar a ser usado por vias indirectas em contextos de política de segurança - por exemplo, ligado a conflitos no Médio Oriente. Não há confirmação pública, e o silêncio oficial alimenta ainda mais a discussão sobre transparência e controlo.

OpenAI sob pressão: desinstalações disparam e Sam Altman recua

Para a OpenAI, o acordo com o Pentágono não trouxe, pelo menos de imediato, ganhos de reputação - pelo contrário. Dados da empresa de análise Sensor Tower indicam que, logo após o anúncio, o número diário de desinstalações do ChatGPT aumentou drasticamente, ficando cerca de 295% acima do nível habitual.

Nas redes sociais, multiplicaram-se etiquetas como CancelChatGPT e QuitGPT. Vários utilizadores anunciaram que deixariam de usar a OpenAI enquanto a empresa insistisse em aplicações de natureza militar.

O director executivo da OpenAI, Sam Altman, tentou primeiro reduzir a tensão, defendendo que o contrato incluía mais mecanismos de protecção do que acordos comparáveis e que seria até mais exigente do que compromissos anteriores de outros fornecedores. Para muitos críticos, esta mensagem saiu ao lado: foi lida como uma tentativa de sugerir que a Anthropic era menos coerente - apesar de ter sido precisamente a Anthropic a recusar um acordo semelhante.

Na segunda-feira seguinte, chegou uma semi-retratação. Altman admitiu que a OpenAI avançou depressa demais e de forma “descuidada”. Reconheceu também que publicar o anúncio numa sexta-feira pareceu, em retrospectiva, oportunista. A questão, explicou, é complexa e a empresa subestimou a importância da comunicação.

Revisão do acordo: promessa explícita contra vigilância interna e restrições para a NSA

Sob pressão pública, a OpenAI reescreveu cláusulas centrais do acordo com o Pentágono. A alteração mais relevante é uma garantia expressa: os modelos da empresa não devem ser utilizados de forma dirigida para vigiar cidadãos dos EUA.

Também para serviços de informações norte-americanos, como a NSA, passam a existir barreiras mais altas. De acordo com fontes internas, esses serviços não podem simplesmente integrar os sistemas da OpenAI de forma directa; seriam necessárias alterações contratuais adicionais, aprovadas previamente.

A OpenAI procura sinalizar: apoio a usos militares, sim - mas não vigilância em massa da própria população com o ChatGPT.

Resta saber se estas garantias chegam para reparar a confiança abalada. Activistas e utilizadores falam num problema estrutural de credibilidade e pedem transparência total sobre todas as parcerias relevantes no domínio da segurança.

Claude sobe ao topo; ChatGPT perde terreno

Enquanto a OpenAI gere uma crise de relações públicas, a Anthropic beneficia do momento. Já no primeiro fim de semana após o anúncio do Pentágono, o Claude alcançou o primeiro lugar nas tabelas de transferências da loja de aplicações da Apple, mantendo-se vários dias no topo, segundo dados publicamente acessíveis.

Meios de comunicação nos EUA referem que, em algumas fases, o Claude ultrapassou claramente o ChatGPT em novas instalações. Para muitos utilizadores que ponderam mudar, a Anthropic surge como a alternativa “mais ética” - uma imagem que a empresa tem vindo a cultivar.

Em paralelo, intensificam-se apelos a boicotes à OpenAI. Há activistas a defender que se deixe de usar produtos da empresa enquanto existirem cooperações militares activas. Em várias publicações, o acordo é descrito como um “ponto de não retorno” que dilui definitivamente a fronteira entre IA civil e militar.

Porque se pede agora intervenção política

O conflito já ultrapassou a esfera empresarial e entrou no debate político. O Centro para o Progresso Americano, um grupo de reflexão influente, vê nesta disputa um sinal claro para o Congresso dos EUA: não deve caber apenas a empresas privadas decidir até onde a IA pode ir no contexto militar.

Investigadores também alertam para o risco. A especialista em ética Mariarosaria Taddeo, da Universidade de Oxford, considera problemático que justamente o fornecedor mais cauteloso seja afastado das negociações. Se as vozes mais prudentes deixam de estar à mesa, o limite do “aceitável” pode subir de forma silenciosa.

Como funciona hoje a IA militar - e onde estão os riscos

Forças armadas em todo o mundo trabalham há anos em sistemas apoiados por IA. O objectivo é processar, em tempo real, volumes enormes de informação provenientes de imagens de satélite, drones, comunicações por rádio e relatórios de serviços de informações. Quanto mais depressa e com maior precisão estas ferramentas funcionam, mais cedo as estruturas de comando conseguem reagir.

Empresas como a Palantir fornecem plataformas de software desenhadas para este tipo de operações. Segundo um gestor britânico da empresa, estes sistemas ajudam a acelerar decisões - e, em certos cenários, tornam-nas também potencialmente mais letais. A IA passa, assim, a actuar como um acelerador de processos militares.

Apesar disso, há um problema persistente em grandes modelos de linguagem como o ChatGPT ou o Claude: a tendência para alucinações, isto é, inventar detalhes, tirar conclusões erradas ou apresentar informação incerta com grande segurança. No quotidiano, isto pode ser apenas irritante; num contexto militar, pode tornar-se perigosamente crítico.

Responsáveis militares repetem, por isso, que o ser humano continua “no circuito”. Uma oficial norte-americana responsável por dados num grupo de trabalho da NATO refere que existem instâncias de controlo humano em cada etapa decisória. Ainda assim, críticos questionam até que ponto esse princípio resiste em cenários reais de conflito, quando aumentam a pressão do tempo e o incentivo à eficiência.

O que este conflito muda para utilizadores e para a sociedade

Este debate assinala um ponto de viragem. Muitos utilizadores viam os assistentes de IA sobretudo como ferramentas para tarefas do dia-a-dia - mensagens, trabalhos escolares ou excertos de código. Agora torna-se mais evidente que os mesmos modelos podem estar ligados a interesses de segurança e a agendas militares.

Para consumidores, surgem perguntas difíceis:

  • Em que condições é aceitável que um fornecedor de IA trabalhe com forças armadas ou serviços de informações?
  • Que utilizações são divulgadas e quais ficam sob sigilo?
  • Até que ponto promessas de ética resistem quando estão em jogo contratos de milhares de milhões?

Juristas e conselhos de ética defendem regras claras para IA militar, num espírito semelhante ao de acordos de controlo de armamento (como os que existem para armas nucleares ou químicas). Entre as propostas discutidas contam-se proibições de armas totalmente autónomas, obrigações de transparência para empresas e mecanismos internacionais de verificação.

Há também um ângulo que ganha peso fora dos EUA, incluindo em Portugal: a União Europeia avança com o Regulamento da IA (Lei da IA) e mantém exigências fortes em matéria de protecção de dados. Mesmo quando os projectos são militares ou de segurança, cresce a pressão para auditorias independentes, rastreabilidade de decisões e avaliação rigorosa de riscos - sobretudo quando a tecnologia pode afectar direitos fundamentais.

Por fim, para as próprias tecnológicas, impõe-se um dilema estratégico: conseguem abdicar de contratos governamentais muito rentáveis para manterem a confiança do mercado de massas? A corrida recente ao Claude sugere que uma linha mais restritiva pode compensar, pelo menos no curto prazo. O teste a sério virá quando mais Estados e alianças militares lançarem programas próprios de IA.

Para utilizadores, vale a pena ler com espírito crítico os termos de utilização e as directrizes dos fornecedores. Conceitos como “humano no circuito”, “sistemas autónomos” e “dupla utilização” aparecem cada vez mais. Perceber o que significam ajuda a escolher com mais consciência a que IA se entregam determinadas tarefas - e onde fica a linha vermelha de cada um.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário