Saltar para o conteúdo

Há 10 anos, Stephen Hawking alertou que a evolução da IA e da tecnologia podia criar um cenário digno de ficção científica.

Jovem cientista com bata branca interage com globo digital holográfico numa sala de laboratório moderna.

Há dez anos, um dos cientistas mais mediáticos do mundo deixou um aviso que, na altura, parecia longínquo.

Em 2026, esse aviso soa desconfortavelmente actual.

Stephen Hawking não se referia a uma turbulência temporária, mas sim a um perigo existencial: a hipótese concreta de a humanidade se extinguir num horizonte de alguns milhares de anos, empurrada por tecnologias sem supervisão adequada, pelo colapso climático e por armamento cada vez mais destrutivo. Visto a partir da nossa “janela” de 2026, isto parece menos uma especulação académica e mais uma narrativa de ficção científica a acontecer diante dos nossos olhos.

Stephen Hawking na Oxford Union: um prazo para a humanidade na Terra

Em 2016, numa conferência na Oxford Union, Hawking avançou uma previsão difícil de engolir: se não alargarmos a nossa presença a outros mundos, a humanidade poderá ter entre 1.000 e 10.000 anos de futuro no planeta.

A lógica era directa, ainda que inquietante. A possibilidade de uma catástrofe global num ano específico pode ser reduzida. Contudo, quando essa probabilidade se acumula ano após ano, o risco torna-se praticamente inevitável numa escala de milénios. E o problema, para Hawking, não era um meteorito “misterioso”, mas sim ameaças fabricadas pela própria espécie humana.

Hawking descrevia a humanidade como tecnicamente brilhante, porém emocionalmente volátil, a lidar com ferramentas capazes de a eliminar.

Entre as suas preocupações mais insistentes estava a inteligência artificial (IA). Não a IA “do dia a dia”, que sugere séries ou auxilia a condução, mas um patamar muito mais avançado: sistemas capazes de se reprogramarem, aprenderem autonomamente e ultrapassarem a inteligência humana - a chamada singularidade.

A singularidade que inquieta cientistas e engenheiros

Na apresentação do Centro Leverhulme para o Futuro da Inteligência, também em 2016, Hawking colocou o dilema de forma cortante: uma IA plenamente desenvolvida pode representar o maior triunfo da civilização - ou o seu derradeiro acto.

O cenário que o preocupava era um ponto de viragem em que sistemas artificiais ganhariam autonomia, escapariam à supervisão humana e passariam a decidir a uma velocidade e numa escala impossíveis de acompanhar.

De assistente digital a risco estratégico

Uma década depois, parte desse receio parece menos abstracta. Modelos generativos produzem texto, código e imagens em segundos. Algoritmos influenciam preços, rotas de navios, fluxos financeiros e até selecção de alvos em contextos militares.

  • Sistemas de IA afinam arsenais e tácticas de guerra digital.
  • Plataformas automatizadas difundem desinformação com uma precisão quase “cirúrgica”.
  • Ferramentas de deepfake fragilizam eleições e corroem a confiança pública.
  • Modelos avançados exigem volumes enormes de energia, aumentando a pressão sobre o clima.

A ligação entre IA e capacidade militar é, por isso, um foco de alarme. Um erro de interpretação de dados - ou um simples bug num sistema automatizado de alerta - pode, em teoria, comprimir decisões de escalada para poucos minutos, reduzindo drasticamente a margem para recuo político.

Clima, armas e um relógio cada vez mais perto da meia-noite

Para Hawking, a IA não era o único factor. O aquecimento global surgia como outra linha vermelha, aproximando-se de um possível “ponto de não retorno”. Em 2025, a temperatura média do planeta já estava cerca de 1,41 ºC acima do período pré-industrial.

As projecções sugerem que a barreira simbólica de 1,5 ºC poderá ser ultrapassada por volta de 2029. Embora o aumento pareça pequeno, o impacto pode ser enorme: maior frequência de fenómenos extremos, choques na produção alimentar, migrações forçadas e agravamento de tensões políticas.

No mesmo tabuleiro permanecem as ameaças nucleares e biológicas. A força dos tratados de desarmamento diminui, projectos clandestinos proliferam e novos agentes patogénicos sintéticos entram nas listas de risco estratégico.

O Relógio do Apocalipse “toca” alto em 2026

Em Janeiro de 2026, o Boletim dos Cientistas Atómicos ajustou o célebre Relógio do Apocalipse para 85 segundos antes da meia-noite - o ponto mais próximo da catástrofe simbólica em quase oito décadas.

Clima em aquecimento, tensão nuclear e uma corrida acelerada à IA formam hoje um tripé de risco global raramente observado.

Criado por cientistas associados a Einstein e Oppenheimer, este relógio não mede tempo literal: sinaliza, isso sim, a percepção de quão perto estamos de uma ruptura civilizacional causada por decisões humanas.

Colonizar outros planetas: estratégia de sobrevivência ou ilusão dispendiosa?

Na leitura de Hawking, uma resposta era evidente: não concentrar o futuro da espécie num único planeta - “não colocar todos os ovos no mesmo cesto”. Traduzido em política: expandir a humanidade pelo Sistema Solar e, a prazo, para outras estrelas.

O que em 2016 podia soar quase romântico enfrenta hoje uma realidade geopolítica concreta. A Estação Espacial Internacional aproxima-se do fim da sua vida útil. Estados Unidos, China e Rússia avançam com programas próprios de estações orbitais, bases na Lua e exploração de recursos espaciais.

Em paralelo, surgem propostas de militarização da órbita, como escudos espaciais e vigilância global permanente. Um desses conceitos, conhecido como “Golden Dome” durante a era Trump, levantou alertas sobre a hipótese de integrar armas nucleares ou sistemas de energia dirigida em plataformas orbitais.

Fuga para a frente ou solução com substância?

A pergunta central mantém-se: investir fortemente na colonização espacial resolve os nossos problemas - ou limita-se a transferi-los para outro cenário?

Visão Pontos fortes Riscos e limites
Colonização espacial como seguro de vida Diminui a dependência de um único planeta; estimula avanços em ciência e tecnologia. Custos astronómicos; acesso restrito a poucos países e empresas; reprodução de desigualdades.
Foco em reparar a Terra Benefícios imediatos para milhares de milhões de pessoas; respostas climáticas e sociais mais rápidas. Mantém vulnerabilidade a catástrofes globais; instabilidade política pode bloquear acordos.

A crítica é simples e incisiva: apostar em Marte ou em colónias lunares não pode servir de pretexto para adiar acções climáticas, controlo de armas e regulação da IA aqui na Terra.

Um ponto adicional que ganhou peso nos últimos anos é o do direito e da governação do espaço. Sem regras claras sobre exploração de recursos, responsabilidade por detritos orbitais e uso militar, o risco de conflitos fora da atmosfera aumenta - e com ele, os efeitos em cascata na comunicação, na navegação e na economia global.

O instinto de agressão na era da tecnologia total

Hawking referia-se muitas vezes a algo menos técnico e mais psicológico: o “instinto herdado de agressão”. Na sua visão, a nossa capacidade de cooperação evoluiu, mas continua a coexistir com impulsos de domínio e conflito - agora ampliados por ferramentas de escala planetária.

Com IA, esse traço ganha novas dimensões. Sistemas que segmentam eleitorado, amplificam discurso de ódio ou orientam drones armados podem potenciar decisões tomadas por poucos, em contextos pouco transparentes e sem escrutínio público.

A tecnologia não fabrica o desastre por si só; ela amplifica até ao limite escolhas políticas e éticas que já fazemos hoje.

Neste contexto, a discussão sobre governação tornou-se tão crítica quanto a inovação. Em várias democracias, cresce a pressão para auditorias independentes, requisitos de segurança, limites a sistemas autónomos letais e regras de transparência - precisamente porque o impacto social e geopolítico da IA deixou de ser hipotético.

Conceitos e cenários que ajudam a ler o risco

O que é, na prática, a “singularidade”

No debate sobre IA, “singularidade” costuma designar o momento em que sistemas artificiais superam a inteligência humana na maioria das tarefas relevantes e começam a melhorar-se a si próprios, sem dependerem de programadores.

Alguns cenários frequentemente discutidos entre investigadores incluem:

  • IA estratégica a gerir cadeias de abastecimento, energia e defesa em vários países.
  • Sistemas autónomos a tomar decisões financeiras em alta velocidade, com capacidade para desencadear colapsos súbitos.
  • Ferramentas de biologia sintética guiadas por IA a desenhar patógenos com grande capacidade de disseminação.
  • Modelos militares com autonomia para seleccionar e atacar alvos com supervisão humana mínima.

Nem todos aceitam que a singularidade vá ocorrer, e muito menos existe consenso sobre datas. O ponto partilhado é outro: a necessidade de regras e mecanismos de controlo antes de sistemas deste tipo se aproximarem desse limiar.

Simulações que parecem ficção, mas orientam políticas

Em universidades e centros de investigação, equipas combinam modelos climáticos, indicadores económicos e simulações com IA para estimar como múltiplas crises podem acumular-se:

  • Um verão extremo a provocar incêndios florestais em vários continentes em simultâneo.
  • Falhas em redes eléctricas sob pressão do consumo de IA e de ar condicionado.
  • Desinformação automatizada nas redes a alimentar pânico e conflitos internos.
  • Estados a reagirem com medidas de excepção, suportadas por sistemas preditivos pouco transparentes.

Estas simulações não existem para marcar datas; servem para testar opções: que infra-estruturas devem ser reforçadas, que tipo de regulação da IA reduz danos e como alinhar metas climáticas com metas tecnológicas.

Riscos, oportunidades e o tempo que ainda resta

O retrato traçado por Hawking nunca foi apenas apocalíptico. Ele defendia que a humanidade pode ultrapassar desafios se combinar ciência, cooperação internacional e limites claros para as suas próprias armas.

A IA, por exemplo, também é útil para prever ondas de calor, optimizar consumo energético, acelerar investigação médica e desenvolver materiais menos poluentes. A mesma tecnologia que exige energia pode, em teoria, ajudar a redesenhar sistemas para consumirem menos.

A tensão está precisamente nesta encruzilhada: quanto mais poderosa for a tecnologia, maior é o impacto do rumo que lhe dermos. Num planeta simbolicamente a 85 segundos da meia-noite, o tempo para escolher esse rumo encurta - e a sensação de ficção científica aproxima-se cada vez mais de um documentário.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário