Saltar para o conteúdo

O anúncio sobre IA de Mark Zuckerberg agita a comunidade científica mundial.

Equipe de cientistas em laboratório discutindo dados digitais exibidos em ecrã num ambiente moderno.

Investigadores espalhados por laboratórios apertados, salas de espera de aeroportos e mesas de cozinha ficaram a olhar para os ecrãs com a mesma incredulidade silenciosa. Não era mais um visor reluzente nem uma promessa difusa de “metaverso”. Soava, isso sim, a uma fronteira traçada para o futuro do conhecimento humano. Em poucos minutos, o X e os canais de Slack em universidades e centros de investigação em IA por todo o mundo começaram a fervilhar. Era abertura genuína ou uma jogada de poder disfarçada de generosidade? Não houve consenso. Mas toda a gente comentava. E uma pergunta desconfortável começou a alastrar como uma fissura no vidro.

O que acontece à ciência quando um homem com três mil milhões de utilizadores diz querer construir o cérebro do planeta?

O anúncio que fez tremer as bancadas dos laboratórios

Tudo começou com uma aparente leveza: uma camisola com capuz preta, um palco sem excessos, alguns diapositivos - e depois Zuckerberg largou a frase que levou directores de investigação a pegar no telemóvel: a Meta iria avançar para uma IA de uso geral capaz de “fazer avançar a própria ciência”, treinada com dados abertos em escala massiva e partilhada “com o mundo”. Sem hesitar.

Para muitos, aquela formulação mudou instantaneamente o ambiente. A promessa e o receio passaram a coexistir lado a lado.

Houve quem visse sonhos antigos a materializarem-se em directo. Uma doutorada em Biologia em Cambridge escreveu ao seu grupo: “Se isto funcionar, as minhas simulações passam de semanas para horas.” Um cientista planetário em Tóquio publicou que copilotos de IA para investigação poderiam “encurtar uma década de tentativa e erro a um fim-de-semana prolongado”. Ao mesmo tempo, um especialista em ética em Berlim partilhou uma captura do anúncio com uma frase seca: “Mudámos novamente as regras do jogo - e ninguém votou.” A discussão que se seguiu parecia um debate global às 03:00.

O que abanou a comunidade não foi apenas a demonstração de músculo tecnológico. Foi a forma como Zuckerberg enquadrou a ciência como mais um problema de “plataforma”: algo para escalar, optimizar, lançar. Para físicos que aguardam meses por tempo de telescópio, ou biólogos que lutam por financiamento, ouvir um bilionário da tecnologia falar em “desbloquear a descoberta” foi simultaneamente entusiasmante e quase irreal.

A lógica é sedutora: modelos maiores, mais dados, mais avanços. Ainda assim, em chamadas nocturnas entre equipas, a mesma dúvida reapareceu: se a IA se tornar o motor padrão da descoberta, quem controla o acelerador? E o que acontece à parte lenta, confusa e revista por pares da ciência - aquela que nunca cabe bem num diapositivo de apresentação?

Meta e Zuckerberg na ciência: a IA de uso geral e os dados abertos sob escrutínio

Visto de perto, a tensão não é apenas técnica; é também de governação. Um modelo aberto publicado por uma empresa com escala planetária pode parecer “para todos”, mas continua condicionado por decisões invisíveis: que corpora entram, que línguas ficam de fora, que disciplinas recebem prioridade, que limites são impostos ao acesso e à infraestrutura.

Além disso, “abrir” um modelo nem sempre significa democratizar o seu uso. Se a experimentação séria exigir clusters de GPU e orçamento para computação, o centro de gravidade da ciência pode deslocar-se ainda mais para quem já controla infraestruturas. E nesse cenário, universidades com menos recursos e laboratórios públicos arriscam ficar dependentes de fornecedores externos - mesmo quando a intenção declarada é partilhar “com o mundo”.

Como os cientistas estão a adaptar-se - depressa e com improviso

Dentro dos laboratórios, a primeira resposta não foi escrever manifestos. Foi abrir terminais. Equipas começaram a pôr as novas ferramentas de IA da Meta à prova com o que tinham à mão: dobragem de proteínas, modelos climáticos, trajectórias de partículas, conjuntos de dados antigos esquecidos em discos rígidos há anos. Um químico descreveu a sensação como “de repente ter cem estudantes de doutoramento incansáveis, que nunca pedem café nem exigem crédito”. O método que se está a espalhar é discreto: deixar o modelo fazer um primeiro rascunho e reservar para humanos a parte lenta - a de pensar com cuidado.

Histórias reais viajam mais depressa do que diapositivos. Num hospital em Paris, uma pequena equipa ligou um modelo de código aberto da Meta a anos de dados anonimizados de UCI. Em poucos dias, surgiram padrões sobre risco de sépsis que estatísticos procuravam há meses. Do outro lado do mundo, um laboratório ambiental no Brasil alimentou imagens de satélite e relatórios de desflorestação na mesma família de modelos. A IA começou a antecipar pontos de abate ilegal com uma precisão inquietante, semanas antes de aparecer a primeira motosserra. Não são demonstrações “polidas”. São pessoas cansadas a encontrar uma ferramenta mais afiada.

Nos bastidores, porém, a adaptação está longe de ser elegante. Candidaturas a financiamentos estão a ser reescritas para incluir “componentes de IA” de um dia para o outro. Investigadores em início de carreira sentem pressão para se tornarem meio cientistas, meio engenheiros de prompts. Professores seniores, que construíram carreiras em métodos minuciosos, vêem-se perante uma cultura que tende a premiar velocidade em detrimento de profundidade.

Sejamos claros: quase ninguém opera assim, todos os dias, com plena maturidade de processo. A maioria improvisa. Há equipas a copiar repositórios do GitHub que mal compreendem. E as que avançam com mais prudência insistem nas perguntas difíceis: para onde vai o nosso dado, que enviesamentos entram nas conclusões, e como se preserva o ofício humano da ciência quando as ferramentas ficam mais rápidas, mais barulhentas e mais influentes?

As regras silenciosas que a comunidade científica está a impor a si própria

Entre disciplinas, começa a formar-se um guia informal. Muitos investigadores estão a separar três zonas: onde a IA pode ajudar, onde a IA não deve tocar, e onde só entra com barreiras rígidas. Há uma abertura clara para delegar tarefas de desgaste: resumos de literatura, esqueletos de código, hipóteses em primeira versão, simulações rápidas.

Depois vem a pausa deliberada. Um humano revê a cadeia de raciocínio, confronta com resultados conhecidos e decide se a “ideia” do modelo é conhecimento - ou apenas disparate estatisticamente confiante.

Também se fala mais de falhas, algo que até há pouco era menos visível. Em canais internos de Slack, partilham-se exemplos de provas geradas por IA que parecem impecáveis e depois colapsam na revisão por pares. Uma investigadora em genómica em Boston admitiu que o modelo “alucinou” um artigo inexistente e isso contaminou a direcção inicial do trabalho. Ninguém quer ser a pessoa que publica um resultado brilhante “movido a IA” e o vê desmoronar-se um ano depois. Daí uma cultura crescente de verificação dupla e de registo rigoroso: quando e como é que um sistema de IA tocou nos dados, na análise e nas decisões.

Em reuniões internas, alguém costuma dizer em voz alta o que muitos sentem mas raramente escrevem em artigos:

“Se deixarmos o modelo pensar por nós, deixamos de reparar quando ele está errado.”

Para evitar isso, alguns grupos já redigem mini-cartas de princípios - primeiro rabiscadas em quadros brancos e, depois, formalizadas em wikis de laboratório:

  • Executar sempre um “baseline simples” (estatística básica ou teoria) ao lado de qualquer resultado de IA.
  • Nunca confiar numa citação gerada por IA sem ler o artigo original.
  • Manter pelo menos um projecto no laboratório com uso mínimo de IA, para não perder destreza metodológica.
  • Registar cada decisão importante em que o modelo tenha influenciado a direcção do trabalho.
  • Partilhar falhas dentro da equipa, não apenas os casos de sucesso mais vistosos.

Há um padrão humano: quando chega uma ferramenta poderosa à secretária, fingimos que sabemos exactamente o que estamos a fazer. Desta vez, o risco parece maior. Os mesmos cientistas que em privado falam de exaustão e ansiedade surda são, muitas vezes, os que em palco celebram a “descoberta acelerada”. As duas coisas podem ser verdade ao mesmo tempo - só que o atraso emocional não cabe numa apresentação de keynote.

Uma camada extra: privacidade, energia e regulação (o que quase nunca entra nos slides)

Há ainda dois temas que tendem a ficar à margem do entusiasmo: dados sensíveis e custo energético. Em áreas como saúde, genética e ciências sociais, “dados abertos” não significa “dados sem consequências”. Mesmo com anonimização, há riscos reais de reidentificação e de usos secundários não previstos. A pressa em treinar e testar modelos pode empurrar equipas para zonas cinzentas de consentimento, governação e conformidade.

E existe o lado material: treinar e operar modelos em larga escala consome energia e recursos computacionais. Se a ciência “acelerada por IA” se tornar um padrão, os financiadores e as instituições terão de ponderar não só a eficiência científica, mas também a pegada ambiental e a sustentabilidade do acesso. Na Europa, discussões como o Regulamento Europeu da IA e políticas de dados científicos apontam para um futuro em que transparência, rastreabilidade e responsabilidade não são opcionais - mesmo quando a inovação é rápida.

Onde isto nos deixa a todos

De fora, é fácil assumir que o anúncio de Zuckerberg sobre IA e ciência só interessa a quem usa bata e crachá. Não interessa. Se a IA científica se transformar numa corrida entre laboratórios corporativos, essa corrida ajudará a decidir que medicamentos chegam primeiro, que culturas recebem sementes mais resistentes ao clima, que línguas ficam representadas em conjuntos de dados e quais são discretamente ignoradas. A comunidade científica sente-se abalada em parte porque reconhece isto: aquilo que é apresentado como sprint técnico é, também, uma escolha política sobre que problemas merecem ser resolvidos.

O futuro que está a ser desenhado não é neutro. Um modelo “aberto” lançado por uma plataforma gigante continua a reflectir quem o treinou, que dados viu e que perguntas nunca lhe foram colocadas. Quando um CEO fala em “acelerar a descoberta”, soa a presente. Pode ser. Mas também pode ser uma forma de tornar a ciência dependente de um punhado de fornecedores de infraestrutura na Califórnia.

Por isso, muitos investigadores tentam manter vivo um espaço onde equipas pequenas, laboratórios públicos e universidades com menos financiamento possam definir a própria agenda - em vez de apenas se ligarem ao roteiro de outra entidade.

Os próximos grandes avanços em física, medicina ou clima podem nascer de um diálogo entre um humano e um modelo a correr em servidores da Meta. Ou podem surgir de um investigador teimoso que fecha o separador da IA, abre um caderno e segue uma intuição que nenhum algoritmo consideraria “sensata”. A onda de choque do anúncio de Zuckerberg vive nesta tensão: quanto do nosso futuro colectivo estamos dispostos a subcontratar a sistemas que não compreendemos totalmente, detidos por pessoas que não elegemos? E como seria um “cérebro do planeta” que pertencesse a todos - e não apenas a quem pode pagar por clusters de GPU?

Ponto-chave Detalhe Interesse para o leitor
A viragem da Meta para a ciência com IA Zuckerberg apresentou a IA de uso geral como ferramenta para “fazer avançar a própria ciência”, usando dados abertos em grande escala e modelos partilhados. Ajuda a perceber por que motivo os investigadores reagiram com tanta intensidade e por que as manchetes explodiram de um dia para o outro.
Adaptações ao nível do laboratório Equipas estão a usar modelos ao estilo da Meta para detecção de padrões, simulações e rascunhos de hipóteses, acrescentando verificações e regras novas. Mostra como o trabalho científico já está a mudar, não apenas em teoria, mas nas rotinas diárias.
A questão do poder e do controlo A tensão central é quem detém as ferramentas da descoberta e quem decide em que problemas a ciência acelerada por IA se vai concentrar. Convida a pensar no impacto sobre medicamentos, soluções climáticas e conhecimento que vai influenciar a sua vida.

Perguntas frequentes

  • O que anunciou exactamente Mark Zuckerberg sobre IA e ciência?
    Descreveu uma aposta em modelos potentes de IA de uso geral orientados para “fazer avançar a ciência”, com forte ênfase em modelos abertos em larga escala, infraestrutura partilhada e copilotos de IA para investigadores de várias áreas.

  • Porque é que os cientistas estão tão divididos em relação a este anúncio?
    Muitos entusiasmam-se com simulações mais rápidas, melhor detecção de padrões e acesso mais fácil a ferramentas avançadas; outros receiam controlo corporativo, dilemas éticos sobre dados e o risco de a ciência ser tratada como um produto de plataforma.

  • Isto vai substituir investigadores humanos no laboratório?
    Não. Os sistemas actuais são assistentes fortes, mas continuam a cometer erros básicos, a “alucinar” fontes e a falhar contexto. A maioria dos laboratórios usa a IA como uma calculadora poderosa e parceiro de ideação, não como substituto do julgamento humano.

  • Como é que isto pode mudar o quotidiano de quem não é cientista?
    Estão em cima da mesa descobertas de fármacos mais rápidas, modelos climáticos mais precisos e planeamento de infraestruturas mais inteligente; mas também riscos como acesso desigual, prioridades de investigação enviesadas e decisões opacas com impacto em saúde e ambiente.

  • O que podem fazer pessoas comuns perante uma mudança desta dimensão?
    Acompanhar para onde vai o financiamento público, apoiar iniciativas de ciência aberta transparentes, fazer perguntas quando forem anunciados “avanços” guiados por IA e exigir que instituições de que faz parte - universidades, hospitais, autarquias - expliquem como usam IA na investigação e nas políticas.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário