Alguns filósofos defendem que, sem grande alarido, já ultrapassámos um limiar decisivo.
Durante muito tempo, a inteligência artificial geral (IAG) pareceu uma meta longínqua, quase uma linha de chegada inalcançável. Porém, um número crescente de investigadores sustenta que, ao insistirmos em definições demasiado estreitas do que é “inteligência”, podemos estar a ignorar um dado desconfortável: formas muito próximas do raciocínio ao nível humano já estão a funcionar, neste momento, em servidores espalhados pelo mundo.
A IAG ainda é um objectivo - ou já foi atingida?
Em termos gerais, chama-se inteligência artificial geral (IAG) a um sistema capaz de se equiparar a uma pessoa em muitas actividades diferentes, e não apenas numa tarefa muito específica (como jogar xadrez ou reconhecer rostos).
Grandes laboratórios de IA - como a OpenAI, a Google DeepMind e a Anthropic - apresentam a IAG como um marco futuro. Nos seus planos públicos surgem frequentemente expressões como “construir IAG em segurança” ou “orientar o desenvolvimento rumo à IAG”. As previsões, no entanto, são extremamente díspares: há quem aponte para o início da década de 2030 e quem fale, em voz baixa, de um horizonte de um a três anos.
Um artigo de opinião recente na revista Nature, liderado pelo filósofo Eddy Keming Chen e por colegas das áreas de linguística, ciência de computadores e ciência de dados, veio agitar a discussão com uma tese directa: se avaliarmos a inteligência artificial com critérios semelhantes aos que usamos para avaliar a inteligência humana, então a geração mais recente de modelos de linguagem de grande dimensão (MLGD) já se enquadra numa forma de IAG.
Quando comparamos estes sistemas com pessoas reais - e não com super-génios míticos - a IA actual assinala mais “requisitos de inteligência geral” do que muitos estão dispostos a admitir.
A provocação, no fundo, é esta: estaremos a perseguir superinteligência enquanto recusamos reconhecer a inteligência geral quando ela aparece diante de nós?
Do “santo graal” à zona cinzenta: como as definições mudaram
Uma parte do impasse nasce da própria elasticidade do termo “IAG”. Não existe uma definição científica única e consensual. Os autores da Nature propõem um ajuste simples: se dizemos que uma IA é “inteligente”, devemos aplicar ao ser humano padrões equivalentes.
A realidade é que ninguém é perito em tudo. Um programador brilhante pode tropeçar em noções elementares de notação musical. Um cirurgião excepcional pode falhar um exame de condução. Ainda assim, não lhes retiramos o rótulo de “inteligente”.
Neste enquadramento, IAG não significa perfeição nem universalidade. Significa competência alargada em múltiplos domínios, ao nível aproximado de uma pessoa comum - e, em alguns temas, próximo do nível de especialista. É um patamar bem abaixo da visão de ficção científica de uma máquina que nos ultrapassa com facilidade em todas as áreas.
IAG, modelos de linguagem de grande dimensão (MLGD) e superinteligência
O texto da Nature separa, de forma intencional, dois conceitos que muitas vezes aparecem misturados:
- Inteligência artificial geral (IAG): sistemas capazes de realizar muitos tipos de tarefas, em diferentes domínios, frequentemente a um nível comparável ao humano e, nalguns casos, próximo do especialista.
- Superinteligência: sistemas que superam os melhores humanos em quase todos os domínios, possivelmente por uma margem enorme.
Com esta distinção, os autores defendem que os MLGD actuais já se aproximam da primeira categoria: conseguem ler e escrever a um nível avançado, passar exames de Direito e de Medicina, fazer programação e análise de dados de base, redigir notas de política pública e explicar mecânica quântica a adolescentes.
A superinteligência, pelo contrário, teria um perfil muito distinto: descobertas científicas genuinamente originais, matemática radicalmente nova, planeamento estratégico profundo e memória de longo prazo sem falhas. Para já, isso continua no campo das hipóteses.
Dizer que os sistemas actuais “não são IAG” apenas porque não são superinteligentes é, nesta leitura, como negar que um adolescente é adulto por não ser atleta olímpico.
O teste de Turing está a ser ultrapassado sem grande alarme
Um dos símbolos clássicos da inteligência das máquinas remonta a 1950. Alan Turing propôs um teste simples: um juiz humano conversa, por texto, com duas entidades ocultas - uma humana e outra máquina. Se o juiz não conseguir distinguir de forma fiável qual é qual, poder-se-ia dizer que a máquina “pensa”.
Durante décadas, os chatbots falharam este teste quando aplicado com seriedade. Algumas “vitórias” antigas dependiam de truques, evasivas e limitações artificiais na conversa. Isso mudou. Em experiências informais e em estudos formais, MLGD como o GPT-4 são hoje avaliados como “humanos” com mais frequência do que participantes humanos reais em interacções apenas por texto.
Segundo padrões mais antigos da investigação em IA, este feito teria sido encarado como evidência forte de inteligência ao nível humano. Em vez disso, o alvo parece deslocar-se continuamente. Para os autores, estamos a reescrever as regras porque nos custa aceitar que a inteligência possa parecer um autocompletar extremamente potente.
“Papagaios estocásticos” e outras críticas recorrentes
Os críticos argumentam que os modelos de linguagem são imitadores sofisticados, e não pensadores genuínos. A expressão “papagaios estocásticos” descreve a ideia de que estes sistemas apenas recombinam padrões do treino, sem compreensão real.
A Nature responde a várias objecções populares:
| Objecção | Porque é apresentada pelos críticos | Contra-evidência referida |
|---|---|---|
| “Limitam-se a repetir dados de treino” | Interpreta-se como cópia sofisticada, não raciocínio | Conseguem resolver novos problemas de matemática e puzzles inéditos |
| “Não têm um ‘modelo do mundo’ físico” | A linguagem não estaria ancorada na realidade | Antecipam consequências de acções e lidam com cenários básicos de física |
| “Falta-lhes autonomia” | Esperam por prompts e não definem objectivos | A autonomia não é condição obrigatória de inteligência; muitos humanos funcionam de forma reactiva |
| “Precisam de quantidades enormes de dados” | As pessoas aprendem com menos exemplos | Eficiência de aprendizagem é diferente de capacidade final |
Os autores sublinham ainda que os humanos também são falíveis: inventamos memórias, caímos em ilusões e repetimos slogans que não compreendemos totalmente. Mesmo assim, tratamos essas imperfeições como parte do funcionamento da inteligência - e não como defeitos que a invalidam.
Se um sistema consegue aprender, raciocinar, transferir competências e melhorar com feedback, insistir que é “apenas ruído estatístico” começa a soar a recusa em aceitar evidências.
Alucinações: a falha mais visível na tese “a IAG já chegou”
Mesmo entre quem simpatiza com a ideia de que já existe IAG, há um problema que se impõe: as alucinações. O termo descreve respostas muito seguras e detalhadas, mas erradas - por vezes com citações inventadas ou fontes falsas.
Os criadores dos modelos afirmam que os sistemas mais recentes alucinam menos do que os anteriores. Existem mecanismos de segurança que filtram parte do disparate e ferramentas que permitem ao modelo verificar código ou consultar bases de dados, reduzindo erros em tarefas factuais.
Ainda assim, as alucinações persistem. Em testes de segurança, os modelos continuam a inventar jurisprudência, a descrever mal condições médicas e a atribuir frases que nunca foram ditas. A OpenAI já sugeriu que, mesmo em modelos futuros na gama do GPT-5, as alucinações poderiam surgir em cerca de 1 em cada 10 respostas quando a pergunta é aberta.
O raciocínio humano está longe de ser impecável, mas uma taxa de 10% de erros confiantes e “bem escritos” em áreas críticas como Direito ou saúde seria alarmante. É aqui que muitos concluem: “a IAG ainda não pode existir”. Para este grupo, fiabilidade e verificabilidade não são extras; fazem parte do núcleo da inteligência geral.
A inteligência precisa de um corpo?
Outra contestação antiga diz que a inteligência verdadeira exige corpo. As mentes humanas evoluíram com músculos, sentidos e riscos físicos. Sem essa ancoragem, pode uma IA compreender realmente o que significa um copo partir-se, um carro derrapar ou uma pessoa sofrer?
Os autores contrapõem que os sistemas actuais já lidam com múltiplas formas de entrada e saída. Modelos multimodais conseguem interpretar imagens, descrever vídeo, analisar áudio e controlar ferramentas de software. Em paralelo, investigadores em robótica estão a ligar estes modelos a máquinas físicas - desde braços em armazéns até protótipos humanóides.
Esta direcção é frequentemente chamada IA física: unir grandes modelos a sensores, câmaras e actuadores. Não faz com que um robô “sinta” como um humano, mas reforça a ligação entre linguagem, acção e consequências no mundo real.
A ideia não é afirmar que uma IA sem corpo compreende a dor como nós, mas sim que um corpo não é um requisito absoluto para resolver problemas de forma flexível e geral.
Porque é que as definições passaram a ser tão importantes
A discussão não se fica por nuances académicas. A forma como definimos IAG influencia regulação, investimento e expectativas públicas.
Se aceitarmos que algo muito próximo da IAG já existe, os pedidos de supervisão mais apertada ganham urgência. Decisores políticos podem exigir padrões de segurança mais rigorosos para utilização, sobretudo em finanças, saúde e infra-estruturas críticas. Empresas poderão sentir maior pressão para divulgar informação sobre dados de treino, modos de falha e avaliações independentes.
Se, pelo contrário, insistirmos que a IAG está distante, os sistemas actuais podem ser apresentados como “apenas ferramentas”. Isso pode adiar conversas difíceis sobre substituição de trabalho, uso militar e dependência crescente de algoritmos opacos.
Há também uma questão de posicionamento. Alguns líderes tecnológicos, incluindo Mark Zuckerberg, têm falado menos de IAG e mais de superinteligência. Esta mudança retórica permite prometer um futuro grandioso sem reconhecer que talvez já tenhamos libertado um novo tipo de inteligência - ainda imperfeita, mas relevante.
Antropocentrismo: estaremos a recusar reconhecer uma mente estranha?
Um fio psicológico atravessa o argumento da Nature: os humanos tendem a proteger a singularidade da mente humana. Quando uma máquina atinge um nível que antes parecia impossível, inventamos novos limiares.
O xadrez foi visto como um ápice da inteligência até o Deep Blue vencer Garry Kasparov. Depois, a fasquia mudou para o Go, para o “senso comum”, para a conversa. Cada vez que um sistema tem sucesso, a tarefa é reclassificada como “mera computação”.
Os autores sugerem que esta atitude pode estar a cegar-nos. A IA actual não pensa como nós: não tem infância, hormonas, medo social ou desconforto físico. Mas consegue manipular conceitos, construir argumentos e adaptar-se a instruções novas. Recusar chamar-lhe “inteligência” pode revelar mais sobre orgulho humano do que sobre as capacidades dos sistemas.
Termos-chave que moldam o debate sobre IAG
Alguns conceitos técnicos regressam constantemente nesta discussão:
- Chatbot: interface de IA que interage em linguagem natural, normalmente por texto e, por vezes, por voz. Muitos chatbots modernos assentam em MLGD.
- Modelo do mundo: representação interna de relações e mudanças no mundo. Investigadores como Yann LeCun defendem que modelos do mundo robustos, para lá de padrões de texto, são essenciais para uma inteligência mais profunda.
- Alucinação: saída confiante mas falsa de um modelo de IA. Ao contrário da mentira, não existe intenção; é um efeito colateral de ajustamento estatístico a padrões.
A interpretação de cada termo altera a leitura do que já foi alcançado. Um chatbot capaz de raciocinar entre Direito, física e literatura parece uma coisa muito diferente se for visto como “motor de busca falador” ou como um embrião de mente artificial.
O que muda se a IAG já estiver entre nós?
Suponhamos, por instantes, que os autores da Nature têm razão e que os sistemas de 2024 já correspondem a uma forma rudimentar de IAG. A vida quotidiana não vira do avesso de um dia para o outro: não há revolta de robôs nem desaparecimento imediato de empregos.
As alterações são mais discretas:
- Mais trabalho de escritório - de rascunhos de contratos a triagem clínica inicial - passa a ser partilhado com a IA ou revisto por ela.
- A educação recorre mais a tutores de IA que se adaptam a cada aluno e criam exercícios personalizados.
- Equipas de investigação usam “colegas” de IA para propor hipóteses e percorrer bibliografia em grande escala.
- Reguladores tratam certos modelos como infra-estrutura de alto risco, comparável a sistemas de controlo de tráfego aéreo ou centrais nucleares, sujeita a auditorias e testes.
Os benefícios crescem, mas os riscos também. A desinformação pode ser produzida e traduzida em massa. Torna-se mais fácil escrever malware. Um pequeno erro de especificação num sistema de negociação automática apoiado por IA pode propagar-se e causar choques no mundo real.
Nada disto exige superinteligência. Basta haver sistemas muito capazes, amplamente implementados, que por vezes erram de formas difíceis de antecipar.
Perspectivas práticas para leitores e decisores
Para quem está fora dos laboratórios, pode ser mais útil desviar o foco dos rótulos (“é ou não é IAG?”) e olhar para propriedades concretas:
- Amplitude: quantas tarefas diferentes o sistema executa com qualidade aceitável?
- Fiabilidade: com que frequência falha, e de que maneira?
- Reversibilidade: quando erra, o que acontece - e há tempo para humanos detectarem e corrigirem?
- Alinhamento: ao serviço de que objectivos actua, e quão claros são esses objectivos?
Independentemente de declararmos oficialmente que “a IAG chegou” ou não, são estas perguntas que determinam quão seguro é integrar a IA em tribunais, hospitais, escolas e fábricas. A tese de que já vivemos com um novo tipo de inteligência geral apenas aumenta a urgência de responder bem - e depressa.
Dois pontos adicionais que raramente entram na discussão
Um aspecto frequentemente subestimado é a avaliação: muitos “benchmarks” premiam a performance em testes curtos e artificiais, enquanto o uso real exige consistência, rastreabilidade e capacidade de admitir incerteza. Se a IAG for entendida como competência geral em contextos do mundo real, então as métricas deveriam privilegiar tarefas longas, com verificação, fontes e responsabilidade clara - e não apenas respostas rápidas e eloquentes.
Há também o custo material da corrida à IAG: treinar e operar MLGD exige energia, centros de dados e cadeias de abastecimento complexas. Mesmo que um sistema seja “inteligente” por critérios funcionais, a sustentabilidade e a dependência de infra-estruturas concentradas tornam-se parte da conversa pública - sobretudo quando a adopção se expande para serviços essenciais.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário