Saltar para o conteúdo

Porque é que a IA parece tão humana se é apenas um "calculador de palavras"?

Jovem sentado à mesa com laptop e rosto digital projetado, demonstrando surpresa e confusão.

As tentativas de explicar o que é a inteligência artificial generativa (IA) - e, sobretudo, o que ela faz - deram origem a um vasto leque de metáforas e analogias.

Entre a “caixa-preta”, o “autocompletar turbinado”, o “papagaio” e até um par de “ténis”, a intenção é tornar compreensível uma tecnologia complexa, ancorando-a em experiências do dia a dia - ainda que a comparação resultante, muitas vezes, acabe por simplificar em excesso ou induzir em erro.

Uma analogia que se tem tornado cada vez mais comum descreve a IA generativa como uma “calculadora para palavras”. Popularizada, em parte, pelo diretor executivo da OpenAI, Sam Altman, esta comparação sugere que, tal como as calculadoras (aqueles objetos familiares usados nas aulas de Matemática para fazer contas), as ferramentas de IA generativa servem para “processar” grandes quantidades de dados linguísticos.

A analogia da calculadora foi, com razão, alvo de críticas, porque pode esconder aspetos mais inquietantes da IA generativa. Ao contrário dos chatbots, as calculadoras não têm vieses incorporados, não “alucinam”, não cometem erros de forma imprevisível e não levantam dilemas éticos de base.

Ainda assim, há também risco em rejeitar por completo esta analogia: no essencial, as ferramentas de IA generativa funcionam mesmo como calculadoras de palavras.

O ponto decisivo, porém, não é o objeto “calculadora”, mas a prática de calcular. E os cálculos que estas ferramentas fazem foram concebidos para imitar os cálculos que sustentam o uso quotidiano da linguagem humana.

As línguas escondem estatísticas

A maioria dos falantes só se apercebe de forma indireta do quanto as suas interações são, em parte, produto de cálculos estatísticos.

Pense, por exemplo, no desconforto ao ouvir alguém dizer “pimenta e sal” em vez de “sal e pimenta”. Ou no olhar estranho que provavelmente receberia se, num café, pedisse um “chá poderoso” em vez de um “chá forte”.

As regras que orientam a escolha e a ordem das palavras - e muitas outras sequências linguísticas - nascem da frequência com que as encontramos na vida social. Quanto mais vezes uma formulação é ouvida de uma determinada maneira, menos “viável” parece qualquer alternativa. Ou, dito de outro modo, menos plausível soa qualquer outra sequência calculada.

Na linguística - o vasto campo dedicado ao estudo da linguagem - estas sequências chamam-se colocações. As colocações são apenas um entre muitos fenómenos que mostram como os seres humanos “calculam” padrões de várias palavras com base no que “soa bem”: no que parece adequado, natural e humano.

Porque é que o texto dos chatbots “soa bem” na inteligência artificial generativa

Um dos grandes feitos dos modelos de linguagem de grande dimensão (LLM) - e, por extensão, dos chatbots - foi terem conseguido formalizar esse fator do “soa bem” de maneiras que, hoje, conseguem enganar a intuição humana.

Na prática, são alguns dos sistemas de colocações mais potentes do mundo.

Ao calcular dependências estatísticas entre tokens (sejam palavras, símbolos ou até pontos de cor) dentro de um espaço abstrato que mapeia significados e relações, a IA produz sequências que, nesta fase, não só passam por humanas no teste de Turing, como - talvez de forma mais perturbadora - conseguem até levar utilizadores a apaixonarem-se por elas.

Uma razão importante para estes avanços está nas raízes linguísticas da IA generativa, que muitas vezes ficam escondidas na narrativa dominante sobre o desenvolvimento desta tecnologia. Estas ferramentas são tão produto da ciência da computação quanto de diferentes ramos da linguística.

Os antepassados dos LLM contemporâneos, como o GPT-5 e o Gemini, foram ferramentas de tradução automática da época da Guerra Fria, concebidas para traduzir russo para inglês. Contudo, com o crescimento da linguística sob a influência de figuras como Noam Chomsky, a ambição dessas máquinas deslocou-se de uma mera tradução para a tentativa de decifrar os princípios do processamento da linguagem natural (isto é, humana).

O desenvolvimento dos LLM ocorreu por etapas: começou com esforços para mecanizar “regras” das línguas (como a gramática), passou por abordagens estatísticas que mediam frequências de sequências de palavras com base em conjuntos de dados limitados e chegou aos modelos atuais, que recorrem a redes neuronais para gerar linguagem fluida.

Apesar disso, a prática fundamental - calcular probabilidades - manteve-se. Mesmo que a escala e a forma tenham mudado de maneira incomensurável, as ferramentas atuais continuam a ser sistemas estatísticos de reconhecimento de padrões.

Foram desenhadas para calcular como nós “fazemos linguagem” sobre fenómenos como conhecimento, comportamento ou emoções, sem acesso direto a qualquer um desses fenómenos. Se pedir a um chatbot como o ChatGPT que “revele” este facto, ele fá-lo-á sem dificuldade.

Além disso, vale a pena notar um efeito colateral frequente: quanto mais “natural” a resposta parece, maior tende a ser a confiança que lhe atribuímos. Esta fluidez pode transformar uma previsão estatística bem formada numa afirmação que soa a certeza - e, por isso, torna-se essencial verificar fontes e distinguir estilo de substância.

Também importa considerar os contextos de utilização: em educação, trabalho e serviços, estas ferramentas podem acelerar tarefas e apoiar a escrita, mas também podem reforçar desigualdades se só alguns tiverem acesso, tempo e literacia para as usar criticamente. A forma como as organizações as integram - com regras claras, revisão humana e limites - influencia tanto os benefícios como os riscos.

A IA está sempre apenas a calcular

Então porque é que não reconhecemos isto de imediato?

Uma das razões principais está na forma como as empresas descrevem e batizam as práticas das ferramentas de IA generativa. Em vez de “calcular”, elas passam a “pensar”, “raciocinar”, “procurar” ou até “sonhar”.

A sugestão implícita é a de que, ao decifrar a “equação” dos padrões linguísticos humanos, a IA generativa teria ganho acesso aos valores que transmitimos através da linguagem.

Mas, pelo menos por agora, não ganhou.

Ela pode calcular que “eu” e “tu” têm alta probabilidade de aparecer com “amo”, mas não é um “eu” (não é uma pessoa), não compreende o que é “amor” e, muito menos, compreende quem é você - o utilizador que escreve as instruções.

A IA generativa está sempre, e apenas, a calcular. E não devemos confundi-la com mais do que isso.

Eldin Milak, Docente, Escola de Media, Artes Criativas e Investigação Social, Curtin University

Este artigo é republicado de A Conversa ao abrigo de uma licença CC. Leia o artigo original.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário