Saltar para o conteúdo

Regulação da IA: Como a política tenta controlar uma tecnologia em constante evolução.

Homem de fato apresentando dados digitais e computador com gráficos futuristas numa sala de escritório ampla.

As cadeiras na sala de comissões rangem baixinho quando os deputados se inclinam para a frente e fixam os olhos no ecrã.

No monitor não está uma apresentação em PowerPoint, mas sim um chatbot a responder em tempo real - mais rápido, mais incisivo e, por vezes, com uma autoconfiança desconcertante. Um assessor jovem escreve: «Redige uma lei contra ti próprio.» O bot devolve artigos, notas de rodapé e um toque ligeiramente irónico. Por instantes instala-se aquele silêncio estranho em que todos percebem: algo de estrutural está a mudar. De repente, a discussão sobre regras de pausa e senhas de presença parece deslocada no tempo. E, ainda assim, são precisamente estas pessoas que agora têm de escrever regras para uma tecnologia que já lhes foge das mãos.

O momento em que a política percebe que a IA não lê o Diário da República

Quem hoje espreita uma comissão do digital ou da administração interna em Bruxelas ou Berlim sente, quase fisicamente, a mistura de fascínio e de esmagamento. Em cima das mesas: café para levar, pilhas de papel, e-mails impressos. Nos portáteis: dossiês sobre IA, notas urgentes, janelas do ChatGPT abertas. Muitos decisores admitem, em privado, que já usam IA todos os dias - para resumir, traduzir, ou «dar uma ajuda a redigir». Em público fala-se de regulação. Nos bastidores, o primeiro desafio é mesmo compreender o terreno onde se está a combater.

Um colaborador parlamentar descreve a sensação como correr numa passadeira que, de um momento para o outro, acelera. Mal circula um rascunho do KI-Gesetz (lei europeia de IA), aparece no mercado um novo modelo com riscos diferentes - e o que estava a ser discutido fica instantaneamente desactualizado. A ideia de estar sempre a correr atrás infiltra-se em todas as reuniões. A IA não respeita legislaturas nem calendários de comissão. Continua a avançar, de comunidades open-source para laboratórios de Big Tech, enquanto a política tenta acompanhar com actas, versões e propostas de alteração.

Sejamos francos: ninguém pega de livre vontade num documento com centenas de páginas a explicar classes de risco de algoritmos. Mas é precisamente nesses textos que se decide se uma IA pode influenciar quem obtém crédito, quem passa a estar no radar de autoridades, ou de quem o currículo é automaticamente excluído num processo de recrutamento. O reflexo político é recorrer ao que já conhece: classificação, proibições, cadernos de encargos. A IA é arrumada em categorias como alto risco, risco limitado e risco mínimo. No papel parece impecável; na prática, é como tentar arquivar uma cascata dentro de um dossier.

O que a regulação da IA (AI Act europeu) tenta fazer - e onde já está atrasada

O AI Act europeu é o exemplo mais visível desta tentativa de recuperar controlo. A lógica, no papel, soa simples: quem trabalha com aplicações especialmente sensíveis - como reconhecimento facial em espaços públicos, diagnóstico médico ou infra-estruturas críticas - terá de cumprir requisitos exigentes. Transparência, análises de risco, supervisão humana. Sistemas concebidos para manipular pessoas ou explorar vulnerabilidades de forma direccionada deverão ser proibidos. Um “gradeamento” digital feito de artigos e obrigações, construído a ritmo recorde para os padrões de Bruxelas.

No terreno, porém, a história ganha contornos mais ásperos. Start-ups tentam perceber se ainda conseguem treinar modelos na Europa sem se afundarem num pântano de conformidade. Autoridades fazem contas ao número de técnicos e juristas necessários para fiscalizar regras que são, por natureza, complexas. E o lobbying tecnológico dispara de todos os lados: uns alertam para uma sobre-regulação que asfixia, outros para normas demasiado suaves e sem dentes. Ao mesmo tempo, surgem modelos open-source que qualquer pessoa descarrega da internet e executa num computador doméstico potente - longe do alcance imediato de qualquer entidade de supervisão.

Um aviso recorrente entre especialistas é tão simples quanto desconfortável: se só se regula a IA onde ela é oficialmente vendida, perde-se metade do jogo. A zona mais crítica está “no meio” - em modelos semiprofissionais, em empresas que usam sistemas «apenas internamente», e em organismos públicos que testam projectos-piloto. Resultado: a regulação da IA fica presa num paradoxo difícil. Pode ser demasiado leve para os riscos maiores e demasiado complicada para os actores mais pequenos. O conflito central é este: como criar regras que abranda(m) a corrida sem entregar investigação e competitividade, de bandeja, aos EUA ou à China?

Em Portugal, esta tensão também se sente na prática: autarquias a experimentar chatbots para atendimento, empresas a automatizar triagem de candidaturas e equipas de comunicação a usar IA generativa para rascunhos. Mesmo quando não há “grandes sistemas” à vista, há decisões pequenas e repetidas que acumulam impacto. Aqui, a articulação entre conformidade (por exemplo, protecção de dados) e compras públicas torna-se um ponto-chave: não basta proibir ou permitir - é preciso saber contratar, auditar e manter.

Como pode ser uma controlo útil da IA - menos manchetes, mais regras de utilização

Quem trabalha na intersecção entre política e IA tende a propor uma abordagem mais pragmática: menos simbolismo, mais regras concretas no local de uso. Não apenas grandes leis, mas também orientações internas em administrações públicas, escolas, redacções e empresas. A ideia central é transformar a regulação em prática quotidiana - não como algo distante “lá em Bruxelas”, mas como um conjunto de rotinas verificáveis. Que dados podem ser usados? Quem responde quando o sistema falha? Como se regista que um algoritmo influenciou uma decisão? Perguntas aparentemente secas - mas é daí que nasce controlo real.

Ao mesmo tempo, existe um obstáculo muito humano: muitas organizações já produziram guias extensos de IA que acabam esquecidos numa pasta do intranet. São aqueles PDFs que ninguém lê, acompanhados por um webinar curto que ficou aberto em segundo plano enquanto se respondiam e-mails. A verdade é esta: quase ninguém aplica isso todos os dias. Uma regulação viva precisa de rituais, não de formações únicas. Check-ins curtos na equipa, exemplos concretos, revisões regulares quando as ferramentas mudam ou quando o enquadramento legal evolui. E, sobretudo, espaço para dizer com honestidade: «Isto ainda não sabemos; vamos testar - com rede de segurança.»

Há ainda um elemento pouco falado, mas decisivo: literacia. Instituições que querem usar IA com responsabilidade precisam de pessoas capazes de questionar resultados, identificar enviesamentos, e distinguir “texto plausível” de “facto confirmado”. Investir em competências - não só técnicas, mas também jurídicas e éticas - é uma forma de regulação tão importante quanto qualquer artigo de lei, porque reduz o risco de delegação automática e acrítica.

Entre o pessimismo tecnológico e a euforia da IA, alguns pensadores tentam fixar esta postura em palavras.

«Temos de deixar de tratar a IA como se fosse um fenómeno natural», diz uma jurista envolvida em directrizes europeias. «Os algoritmos são desenhados, treinados e aplicados - por pessoas e organizações, com interesses concretos. É aí que a regulação tem de actuar.»

Levada a sério, esta visão desemboca em três passos muito pragmáticos:

  • Transparência: registar onde a IA é usada - internamente e, sempre que possível, também para fora.
  • Responsabilidade: definir quem responde, quem decide e quem pode intervir quando um sistema sai do controlo.
  • Limites: estabelecer para que fins a IA não deve ser utilizada, mesmo que tecnicamente seja viável.

E agora? Viver com uma tecnologia que aprende mais depressa do que as nossas instituições

Talvez seja necessário aceitar que a IA nunca será contida de forma tão “limpa” como indústrias clássicas. Fábricas, redes eléctricas, linhas ferroviárias - tudo isso podia, em último caso, ser desligado, vedado ou desmontado. Modelos de IA circulam como código, atravessam fronteiras, são replicados, reduzidos e escondidos em aplicações de nicho. É por isso que o debate político se torna tão carregado: a sensação discreta de que, pela primeira vez, se tenta regular uma tecnologia que, se for preciso, encontra sempre uma porta secundária para entrar em qualquer sistema. E que, entretanto, já se instalou no dia-a-dia - no telemóvel, no programa de e-mail, no GPS do carro.

Uma forma mais madura de regulação da IA provavelmente dependerá menos de grandes placas de proibição e mais de normas partilhadas. O que é aceitável em sociedade? Que decisões automatizadas toleramos - e quais recusamos? Quem daqui a alguns anos for aos arquivos desta época talvez se ria de certos pânicos, mas também abane a cabeça perante a ingenuidade de algumas escolhas. A questão decisiva não é se a política algum dia terá “controlo” total sobre a IA. É se consegue construir, depressa o suficiente, regras, cultura e educação para que esta tecnologia não se torne um permanente foco de impotência, mas sim uma ferramenta que reaprendemos a usar, vezes sem conta. Talvez comece por um exercício simples e incómodo: perante cada nova aplicação de IA, perguntar - quem ganha, quem perde e quem assume, no fim, a responsabilidade.

Ponto-chave Detalhe Valor para o leitor
A IA escapa à lógica clássica da lei Ciclos rápidos de modelos, disponibilidade global, open-source Percebe porque a regulação parece muitas vezes “chegar tarde” e onde estão os pontos cegos
As regras têm de estar próximas dos usos concretos Orientações internas, responsabilidades definidas, deveres de documentação Ganha pistas práticas para a sua organização lidar com IA de forma responsável
Normas sociais também fazem parte da regulação Debate sobre usos aceitáveis de IA, não apenas textos legais É convidado a formar uma posição própria sobre uso e limites da IA

FAQ

  • Pergunta 1: O que regula, concretamente, o AI Act europeu?
  • Pergunta 2: Porque parece que a política está sempre a correr atrás da IA?
  • Pergunta 3: Uma regulação mais rígida ameaça a inovação e as start-ups?
  • Pergunta 4: Como pode uma empresa agir já hoje com responsabilidade no uso de IA?
  • Pergunta 5: A IA será um dia regulada como a electricidade ou os transportes?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário