Enquanto as ruas enchem-se de danças do dragão e o céu se ilumina com fogo de artifício, as grandes tecnológicas chinesas lançam o seu próprio “espectáculo” digital. Modelos de inteligência artificial vindos de Pequim, Hangzhou e Shenzhen aproximam-se tanto de ChatGPT, Gemini e outras referências que até Sam Altman, CEO da OpenAI, parece repensar a vantagem dos EUA. A pergunta impõe-se: por quanto tempo continuará o Silicon Valley a liderar a IA?
O Ano Novo Lunar como montra de modelos de IA chineses
As celebrações do Ano Novo Lunar deixaram de ser apenas tradição: tornaram-se também uma vitrina de alta tecnologia. Em espectáculos oficiais, robôs humanoides dançaram em sincronia com pessoas - uma coreografia com mensagem clara: a China quer mostrar que já não é seguidora na robótica e na inteligência artificial.
Ao mesmo tempo, os grandes grupos tecnológicos do país divulgaram uma nova vaga de modelos de IA que cobre praticamente todas as frentes actuais: geradores de vídeo, chatbots multimodais e assistentes de programação altamente especializados.
Quando os EUA tentaram travar a China com restrições à exportação de chips, essa pressão acabou por empurrar as empresas chinesas para uma eficiência radical - com efeitos visíveis na velocidade e nos custos.
Numa entrevista à CNBC, Sam Altman descreveu como “notável” o ritmo de evolução na China. O facto de um executivo de topo dos EUA elogiar tão abertamente o concorrente sublinha o nível de seriedade com que o Silicon Valley encara esta nova ameaça.
O embargo dos EUA como acelerador inesperado
O contexto por detrás deste avanço é, em grande parte, político. Washington apertou fortemente as regras de exportação de chips modernos para IA para a República Popular da China. O objectivo era desacelerar os planos chineses, mas, na prática, o efeito muitas vezes é o inverso.
Enquanto empresas como OpenAI, Google e Meta expandem centros de dados gigantes com chips da Nvidia, os engenheiros chineses são obrigados a trabalhar com recursos mais limitados. Isso força mudanças de abordagem: arquitecturas mais frugais, treino mais optimizado e alternativas ao hardware norte-americano.
Um exemplo é a utilização de chips Huawei Ascend para grandes modelos de linguagem. Estes semicondutores não são dos EUA, mas já têm capacidade suficiente para treinar modelos de topo. Quem consegue obter desempenho com menos recursos ganha uma vantagem estrutural: reduz custos de forma permanente - algo decisivo numa corrida global.
Modelos abertos como trunfo: a aposta chinesa em código aberto
Há um ponto que tende a agradar a muitos utilizadores europeus: uma parte considerável dos novos modelos chineses chega ao mercado como código aberto ou como pesos abertos (open weight).
- Código aberto (open source): o código-fonte, a arquitectura do modelo e, muitas vezes, também os dados de treino são públicos.
- Pesos abertos (open weight): os pesos do modelo podem ser descarregados, mas o código subjacente permanece, em parte, proprietário.
Em ambos os casos, há uma consequência prática: estes modelos podem correr localmente - em servidores próprios ou até em workstations potentes. Assim, as empresas mantêm controlo total sobre os dados, sem os enviar para plataformas dos EUA ou para fornecedores de cloud chineses.
Para muitas empresas na Alemanha, a protecção de dados é o ponto decisivo: um modelo forte a correr integralmente no próprio centro de dados pode tornar-se mais apelativo do que um sistema norte-americano ligeiramente melhor, mas dependente da nuvem.
É precisamente aqui que vários fornecedores chineses estão a apontar: combinar desempenho elevado com a possibilidade de descarregar, ajustar e proteger internamente. Para comunidades de programadores é um benefício enorme; para as tecnológicas norte-americanas, é uma ameaça directa ao modelo de negócio baseado em licenças e APIs.
Um efeito adicional, particularmente relevante para a União Europeia (incluindo Portugal), é a facilidade de desenhar arquitecturas que reduzam a exposição de dados sensíveis e simplifiquem auditorias internas. Em sectores regulados - banca, saúde, indústria e administração pública - a execução on-premises pode ser o factor que desbloqueia projectos de IA que, por motivos de conformidade, não avançariam com soluções exclusivamente cloud.
Vídeos de alto impacto: Seedance 2.0 põe Hollywood em alerta
Durante o Ano Novo Lunar, um dos anúncios mais falados foi o Seedance 2.0, modelo de vídeo da ByteDance (empresa associada ao TikTok). Os clipes gerados parecem pequenas cenas cinematográficas, com movimentos de câmara elaborados e personagens credíveis - muito mais próximos de um padrão “de cinema” do que tentativas anteriores.
O Seedance 2.0 destaca-se nesta vaga chinesa por não estar disponível de forma aberta. Nem o código nem os pesos podem ser descarregados: é um produto proprietário clássico. E já está a gerar polémica: Disney, Paramount e Netflix acusam a ByteDance de possíveis violações de direitos de autor. A suspeita é que o treino possa ter recorrido intensivamente a material cinematográfico protegido.
Para o sector, é um aviso claro. Quanto mais realistas forem os vídeos gerados, mais forte será a pressão de estúdios, realizadores e sindicatos sobre temas como dados de treino justos, protecção de universos de marca e potenciais perdas de emprego. Ainda assim, o sinal é inequívoco: a China já compete no topo da IA de vídeo.
Qwen, GLM, DeepSeek e Kimi: a nova armada de IA da China
Qwen3.5 (Alibaba): multimodal e orientado a agentes de IA
A Alibaba aposta no Qwen3.5, um grande modelo vision-language que compreende e liga texto, imagens e vídeos. O chatbot reconhece conteúdos em cerca de 200 línguas e pode actuar como “agente” em formulários, sites ou ferramentas internas - por exemplo, para automatizar fluxos de trabalho.
O Qwen3.5 está disponível sob licença aberta em plataformas como o GitHub. Programadores podem integrá-lo em produtos, afiná-lo (fine-tuning) ou executá-lo na sua própria infraestrutura. Para a Alibaba, isto também funciona como uma forma de atrair ecossistemas globais de IA para a sua cloud.
GLM-5 (Zhipu AI): optimizado para agentes e raciocínio complexo
O GLM-5, apresentado pela Zhipu AI, aponta mais directamente a programadores e empresas que querem construir agentes de IA autónomos. Segundo a empresa, o foco está em raciocínio lógico em várias etapas, planeamento mais preciso e resolução robusta de problemas.
Do ponto de vista técnico, chama a atenção a utilização de DeepSeek Sparse Attention (DSA). Esta técnica restringe a atenção do modelo às partes mais relevantes do contexto, reduzindo a carga computacional sem degradar demasiado a qualidade. O GLM-5 foi treinado integralmente com chips Huawei Ascend, reforçando a independência face ao hardware dos EUA.
DeepSeek V4: desafiante chinês para GPT e Claude
A comunidade acompanha com especial expectativa a próxima versão do modelo DeepSeek. A geração anterior, DeepSeek V3, ganhou notoriedade por ficar muito perto do ChatGPT em vários benchmarks - com custos de treino significativamente mais baixos.
A futura versão DeepSeek V4 deverá brilhar sobretudo em tarefas de programação. De acordo com investigação de meios especializados, o DeepSeek V4 poderá superar, em certos benchmarks, os modelos GPT actuais da OpenAI e o Claude da Anthropic. Se isso se confirmar no uso real, poderá surgir um assistente de código chinês capaz de aliviar equipas de desenvolvimento em todo o mundo.
Kimi K2.5 (Moonshot AI): especialização em vez de gigantismo
A Moonshot AI segue, com o Kimi K2.5, uma abordagem conhecida do Google Gemini 3.0: Mixture of Experts (MoE). Em vez de um único bloco monolítico, o grande modelo de linguagem é dividido em vários sub-modelos especialistas. Para cada pedido, um router decide quais os “especialistas” que entram em acção.
Isto poupa capacidade de computação, porque nem todas as partes do modelo trabalham a 100% em cada entrada. Alguns especialistas focam-se em programação, outros em compreensão linguística, outros em matemática ou escrita criativa.
- Vantagem: menor consumo de energia por pedido
- Vantagem: possibilidade de optimizar especialistas específicos de forma dirigida
- Risco: arquitectura mais complexa e mais difícil de depurar (debug)
A diferença de desempenho encolhe - e pode até inverter-se
Por agora, ChatGPT, Gemini e outros modelos norte-americanos ainda obtêm resultados ligeiramente melhores em muitos benchmarks. No entanto, essa vantagem diminuiu e, muitas vezes, só é perceptível quando se analisa profundamente tabelas de testes. Para o uso empresarial, o que pesa cada vez mais é outra combinação: custo, controlo, capacidade de adaptação e segurança jurídica.
Um modelo apenas marginalmente mais fraco, mas que corre localmente e sem fuga de dados, pode ser mais atractivo para PME do que um serviço de nuvem brilhante vindo da Califórnia.
Na Europa, onde as regras de privacidade são exigentes, modelos chineses de código aberto e de pesos abertos podem preencher uma lacuna: descarrega-se o modelo, executa-se em hardware próprio (ou com hosters locais) e mantém-se a informação sensível dentro de portas. Esta possibilidade tende a mexer no equilíbrio de poder do mercado global de IA.
Além disso, a pressão sobre custos energéticos e a disponibilidade de capacidade de computação tornam a eficiência um critério central também para empresas portuguesas. À medida que modelos “quase topo” ficam acessíveis para execução local, a decisão deixa de ser apenas “qual é o melhor modelo” e passa a ser “qual é o melhor modelo que consigo operar com previsibilidade de custos e requisitos de conformidade”.
O que significam “pesos abertos (open weight)” e “agentes de IA”
Muitos termos associados a estes lançamentos parecem técnicos, mas traduzem-se em impactos muito concretos. Pesos abertos (open weight) significa que os pesos do modelo treinado estão disponíveis. Isso permite que equipas de desenvolvimento:
- façam fine-tuning com dados próprios,
- usem o modelo em ambientes offline, como redes isoladas,
- reduzam a dependência do fornecedor original, desde que a licença o permita.
Já agentes de IA são sistemas que não se limitam a responder: conseguem planear e executar passos de forma autónoma - procurar documentos, preencher formulários, accionar ferramentas externas. É precisamente aqui que Qwen3.5 e GLM-5 se posicionam: não querem ser apenas chatbots, mas assistentes que trabalham “nos bastidores”, da contabilidade ao desenvolvimento de software.
Oportunidades e riscos para Portugal, a Alemanha e o espaço DACH
Para empresas em Portugal e, em paralelo, no mercado alemão e no espaço DACH (Alemanha, Áustria e Suíça), esta evolução abre novas opções - e também novas incertezas. Do lado das oportunidades, surgem alternativas potencialmente mais baratas face a serviços dos EUA, maior diversidade tecnológica e a possibilidade de construir infraestrutura própria de IA sem ficar totalmente dependente de um único fornecedor.
Do lado dos riscos, entram em jogo tensões geopolíticas, eventuais restrições à exportação de software de IA e questões legais sobre responsabilidade, direitos de autor e utilização de dados. Quem adopta modelos chineses deve verificar com rigor a licença e procurar transparência sobre a forma como foram treinados.
Na prática, para muitas organizações faz sentido um modelo híbrido: aplicações críticas a correr em modelos de pesos abertos (open weight) instalados localmente, e casos criativos ou não sensíveis a manter em serviços cloud como o ChatGPT. Assim, distribui-se o risco e as equipas ganham experiência com ambos os mundos - enquanto a distância entre a China e o Silicon Valley continua a diminuir dia após dia.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário