Saltar para o conteúdo

Esta descoberta surge no momento ideal: a IA pode usar muito menos energia.

Homem com bata branca a trabalhar num circuito eletrónico com gráficos digitais no ecrã ao fundo.

Enquanto os modelos de inteligência artificial continuam a aumentar de dimensão e complexidade, muitos laboratórios e empresas já enfrentam um limite muito terreno: a factura da electricidade começa a ameaçar a viabilidade de treinar e operar sistemas de IA de ponta.

Uma equipa de investigadores na China apresentou uma via pouco intuitiva para contornar o problema: recorrer a componentes analógicos deliberadamente imperfeitos, admitir pequenos desvios nos cálculos e, com isso, reduzir de forma drástica a energia necessária para treinar sistemas pesados de IA, em particular os baseados em redes neurais profundas.

A proposta aponta para redes neurais que podem aprender consumindo até um milhão de vezes menos energia do que soluções assentes em GPUs.

A magnitude desta diferença não resulta apenas de afinações de software. Implica, sim, alterar a forma como os cálculos são executados no hardware, aproximando o processamento do modo como o cérebro combina memória e computação.

O problema energético da IA que já não dá para ignorar

Treinar modelos de grande escala exige hoje quantidades muito elevadas de energia eléctrica. Centros de dados inteiros são montados para processar milhares de milhões de parâmetros em supercomputadores equipados com GPUs de elevado desempenho. Em cada ciclo de treino, uma rede neural faz leituras e escritas contínuas de pesos em memória - operações que custam tempo e, sobretudo, energia.

Com a massificação dos grandes modelos de linguagem (LLMs) e dos geradores de imagem, a procura por capacidade de treino continua a disparar. Várias projecções sugerem que, sem mudanças arquitecturais, o consumo energético da IA pode tornar-se simultaneamente um entrave económico e um problema ambiental: ou desacelera a expansão do sector, ou obriga a investimentos muito elevados em infraestrutura eléctrica e de refrigeração.

Há ainda um efeito colateral frequentemente subestimado: mais energia significa mais calor. Isso traduz-se em maior necessidade de arrefecimento e, nalguns centros de dados, num aumento do consumo de água associado aos sistemas térmicos. Ou seja, a discussão não é apenas sobre watts no treino, mas sobre toda a cadeia de suporte à computação intensiva.

Memristores e computação em memória analógica: quando a memória também calcula

O núcleo da investigação assenta num componente electrónico ainda pouco comum fora de ambientes técnicos: o memristor. Ao contrário de uma resistência convencional, um memristor “guarda” estado - o seu comportamento eléctrico depende do histórico de corrente que o atravessou. Na prática, funciona como uma espécie de sinapse artificial que retém “quanto foi activada”.

Esta propriedade permite uma mudança decisiva: realizar operações da rede neural no próprio local onde os dados estão armazenados, reduzindo a necessidade de transportar informação repetidamente entre unidades de processamento e memória. Este paradigma é conhecido como computação em memória analógica e ataca um dos grandes custos da IA contemporânea: o tráfego incessante de dados dentro do chip.

  • Resistência com memória: o memristor altera o estado e mantém essa alteração.
  • Cálculos no local: as operações são efectuadas onde os valores já residem.
  • Menos movimentação interna: menos transferência de bits implica menos energia despendida.

O problema é que estes dispositivos não são “limpos” como a aritmética digital. São, por natureza, ruidosos e imprecisos: variações físicas, ruído eléctrico e limites dos materiais fazem com que o valor armazenado nunca seja exactamente o pretendido. Em abordagens clássicas, estas imperfeições podem reduzir a exactidão dos modelos e introduzir instabilidade durante o treino.

EaPU nos memristores: actualizações probabilísticas conscientes do erro

Os investigadores do laboratório de Zhejiang propuseram inverter a lógica habitual: em vez de tentar eliminar os defeitos dos memristores, por que não incorporar esses erros no próprio mecanismo de aprendizagem?

Daí nasce o método EaPU (error-aware probabilistic update), que pode ser entendido como uma actualização probabilística consciente do erro. Em vez de actualizar de forma sistemática todos os parâmetros em cada iteração, o treino passa a privilegiar apenas alterações que realmente importam - ou seja, mudanças acima de um limiar compatível com o nível de erro que o hardware consegue suportar.

Na prática, o sistema deixa de “escrever por hábito” e passa a “escrever quando faz diferença”.

Com EaPU, menos de 0,1% dos parâmetros é actualizado em cada etapa, reduzindo de forma pronunciada as operações de escrita - tipicamente a parte mais dispendiosa em energia.

Desta escolha resultam três consequências directas:

  • Menos energia por treino: escrever em memristores tende a consumir muito mais do que ler; cortar nas escritas tem impacto imediato no consumo.
  • Maior durabilidade do componente: cada operação de escrita contribui para desgaste; ao diminuir as actualizações, aumenta-se a vida útil de forma relevante.
  • Treino mais estável: ao não reagir a pequenas oscilações, o método ajuda a amortecer ruído e a evitar instabilidades no processo de aprendizagem.

Um ponto adicional (e prático) é que esta filosofia pode facilitar soluções híbridas: partes do pipeline podem continuar em hardware digital (controlo, verificação, certos blocos), enquanto a computação intensiva de matrizes ocorre em memória analógica. Isso reduziria fricção na integração com ferramentas e fluxos de trabalho actuais.

Resultados que se destacam

Os dados publicados na Nature Communications mostram ganhos expressivos face a outras estratégias com memristores. Em termos comparativos:

Parâmetro avaliado Antes do EaPU Com EaPU
Energia de treino Referência Até 50× menor
Vida útil do dispositivo Referência Até 1.000× maior
Precisão face a outros esquemas com memristor Base Cerca de 60% melhor
Energia versus sistema com GPU GPU = 1 ~1.000.000× menos energia

Segundo os autores, a exactidão atingida aproxima-se do que se obtém em supercomputadores digitais convencionais, mas com um custo energético incomparavelmente inferior.

Testes com processamento de imagem: menos energia, desempenho competitivo

Para demonstrar a viabilidade, a equipa utilizou uma matriz de memristores fabricada em 180 nanómetros - um processo que nem sequer representa a tecnologia de fabrico mais avançada disponível. Nesta plataforma, treinaram redes neurais para duas tarefas concretas:

  • Redução de ruído em imagens
  • Super-resolução, para aumentar o nível de detalhe em fotografias e frames de vídeo

Os resultados ficaram alinhados com abordagens tradicionais em termos de qualidade, mas com um consumo energético substancialmente mais baixo. Este ponto interessa particularmente a aplicações de visão por computador em edge computing (dispositivos de borda), como câmaras inteligentes e sensores, onde espaço, energia e dissipação térmica são recursos limitados.

Redes neurais em memristores podem aproximar o processamento avançado de IA da própria fonte de dados, reduzindo a dependência constante da nuvem.

A abordagem EaPU pode escalar para grandes modelos de linguagem (LLMs)?

Uma das perguntas mais relevantes é se o EaPU pode ser aplicado aos LLMs usados em chatbots e assistentes virtuais. A posição dos investigadores é optimista: o obstáculo imediato foi o hardware disponível no laboratório, que não comporta redes com a escala dos modelos actuais.

Ainda assim, a lógica do método não está presa a uma tarefa específica. Em teoria, qualquer rede neural profunda com um grande número de parâmetros pode beneficiar de:

  • actualizações probabilísticas (actualizar apenas o necessário), e
  • tolerância controlada a pequenos erros (não exigir exactidão absoluta em cada operação)

Se esta abordagem se confirmar em modelos de linguagem, o impacto no custo energético do treino de IA generativa pode ser muito significativo.

Para lá dos memristores: outras memórias não convencionais

Outro aspecto relevante é que a ideia não parece exclusiva dos memristores. O grupo sugere que a mesma filosofia pode ser adaptada a outras tecnologias emergentes de memória e computação em memória, incluindo:

  • Transístores ferroeléctricos, que combinam armazenamento e lógica;
  • MRAM (memória magnética de acesso aleatório), já explorada por grandes fabricantes de semicondutores;
  • Outros dispositivos analógicos emergentes orientados para computação em memória.

Riscos e obstáculos antes de chegar aos centros de dados comerciais

Apesar dos números impressionarem, há barreiras importantes até esta abordagem se tornar comum em infraestruturas comerciais.

A primeira é o fabrico em escala. Produzir memristores com comportamento suficientemente estável e previsível continua a ser difícil. Variações entre lotes podem obrigar a calibração mais exigente, afectando custo, fiabilidade e repetibilidade.

A segunda é a versatilidade. CPUs e GPUs digitais são generalistas: o mesmo hardware serve para treino, inferência, simulações científicas e outros workloads. Já arquitecturas analógicas de computação em memória tendem a ser mais especializadas, optimizadas para determinados tipos de redes e operações. Isso implica novas ferramentas, novos compiladores e, possivelmente, uma mudança de hábitos na comunidade de engenharia de IA.

Há também desafios de validação: como garantir reprodutibilidade quando o comportamento depende de factores físicos como temperatura, envelhecimento do material e variações do processo de fabrico? Este tema pode exigir normas e metodologias específicas para auditoria e certificação.

Porque é que aceitar erros pode poupar tanta energia

O ponto conceptual por detrás do EaPU é simples: a IA, por desenho, já lida bem com aproximações. Redes neurais não precisam de exactidão matemática perfeita em cada multiplicação; o objectivo é reduzir o erro global ao longo de muitos exemplos.

Neste enquadramento, pequenas discrepâncias introduzidas pelo hardware analógico podem ser aceitáveis - desde que se mantenham dentro de um intervalo controlado. O EaPU tenta precisamente gerir este equilíbrio: tolerar algum ruído, mas seleccionar quando vale a pena actualizar.

No fundo, trata-se de uma troca consciente entre precisão e custo: aceitar uma fracção de imperfeição para tornar o treino e a operação muito mais baratos em energia. Em contextos onde cada watt conta - grandes explorações de servidores ou dispositivos a bateria - esta troca pode ser determinante.

Cenários práticos e efeitos em cadeia

Se esta classe de arquitectura se consolidar, vários cenários tornam-se mais plausíveis:

  • Centros de dados de IA com consumo muito inferior, reduzindo custos e pressão sobre redes eléctricas.
  • Modelos generativos treinados com maior frequência, porque o custo energético deixa de ser tão proibitivo.
  • Dispositivos de borda (telemóveis, routers, sensores industriais) a executar IA avançada localmente, evitando enviar constantemente dados para a nuvem.

Em paralelo, surgem perguntas novas: como auditar decisões em sistemas analógicos com ruído? Como assegurar consistência entre unidades instaladas em ambientes com diferentes perfis térmicos? Como lidar com deriva de comportamento ao longo do tempo?

Ainda assim, a trajectória é clara: aproximar o hardware da forma como o cérebro processa informação - com memória e computação no mesmo local - pode ajudar a quebrar a ligação actual entre IA de última geração e um consumo energético explosivo.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário