Na primeira fila, uma secretária de Estado apresenta, em tópicos impecavelmente organizados, temas como responsabilidade, transparência e classes de risco. Mais atrás, um programador de sweatshirt com capuz desliza no portátil por um novo modelo de linguagem, que já voltou a fazer coisas que ontem ainda pareciam ficção científica. Entre o palco e a tomada há apenas alguns metros de alcatifa - e, mesmo assim, parece haver uma época inteira. Sente-se uma mistura estranha de orgulho, nervosismo e uma espécie de sobrecarga silenciosa. Toda a gente fala de controlo, e toda a gente sabe quão depressa esse controlo pode escapar. É como tentar domesticar um carro de Fórmula 1 com o Código da Estrada de 1998. E ninguém quer ser o primeiro a dizer em voz alta aquilo que todos já estão a pensar.
Quando as leis piscam e a IA já vai a meio da curva
No papel, a fotografia parece arrumada: EU AI Act, “IA segura”, novas autoridades, taskforces, consultas públicas. Nos comunicados de imprensa, o tom quase tranquiliza - como se fosse uma reunião de pais para uma tecnologia que já saiu de casa há muito. Só que, nos centros de dados, estas frases soam distantes. Ali correm modelos que aprendem em horas o que uma entidade pública demora meses a discutir em reuniões. É um sentimento conhecido: perceber, de repente, que as regras a que nos agarramos foram desenhadas para um mundo mais lento.
Há um exemplo, contado discretamente em círculos europeus, que resume bem este desfasamento. Enquanto ainda se afinavam formulações sobre IA de propósito geral (General Purpose AI), apareceu online um modelo aberto que, com meia dúzia de linhas de código, dava para afinar em praticamente qualquer direcção - desde chatbots inofensivos até campanhas totalmente automatizadas de phishing. Não houve grande empresa, nem evento de lançamento, nem conferência: só um repositório no GitHub que se tornou viral. Os reguladores ainda debatiam categorias de risco quando, em servidores de chat, já havia experiências com chamadas fraudulentas geradas por IA. E sejamos honestos: nesses momentos, quase ninguém se voluntaria para ler 400 páginas de texto legal.
A lógica por trás disto é simples e implacável: a política avança em ciclos de legislatura; a tecnologia avança em ciclos de GPU. Uma lei precisa de anos para ser concebida, negociada, aprovada e aplicada. Um novo modelo, muitas vezes, precisa de meses - por vezes, semanas. Quem tenta fazer estas duas velocidades coincidir percebe rapidamente o atrito. Talvez a pergunta mais honesta já não seja “como regulamos a IA?”, mas sim: como convivemos com uma tecnologia que, por estrutura, é mais rápida do que qualquer regulador? É aqui que começa a parte desconfortável da conversa.
EU AI Act e regulação da IA: entre o alarme e o que é praticável já
Em vez de esperar pela norma perfeita, faz falta um reflexo diferente: começar pequeno, testar, corrigir e reforçar. Empresas, administrações públicas, escolas - todos podem criar regras internas para uso de IA antes de a regulação estar totalmente em vigor. Um conjunto curto de perguntas serve de bússola:
- Que dados podem (e não podem) entrar em sistemas de IA?
- Quem assume responsabilidade por decisões preparadas por um modelo?
- Que usos ficam, para já, proibidos?
Estas balizas não têm glamour, mas orientam o dia-a-dia. E, sobretudo, retiram à tecnologia a desculpa de que “ainda está tudo por definir”.
Muitas vezes, o maior erro não está no Diário da República ou no Jornal Oficial da União Europeia - está na nossa atitude. Há equipas que só conseguem falar de IA em dois modos: entusiasmo total ou rejeição completa. Entre um e outro existe espaço para experiências sensatas, com sinais de stop bem visíveis. Quem trabalha hoje com modelos grandes vai falhar: vai introduzir dados errados, vai confiar depressa demais, vai interpretar respostas como certezas. Isso é humano. O que se torna perigoso é quando ninguém admite os erros. A verdade sem dramatismos é esta: a regulação “lá de cima” pouco adianta se “cá em baixo” toda a gente agir como se não fosse com ela.
Um jurista que há anos participa na construção de regras para tecnologia resumiu recentemente assim:
“As leis são a moldura. A ética a sério decide-se em reuniões que nunca aparecem no boletim oficial.”
Levando isto a sério, o foco prático passa a ser:
- Transparência na equipa: quem usa IA diz que usa - nada de “promptar” às escondidas.
- Linhas vermelhas claras: nada de aplicação a dados sensíveis de recursos humanos, diagnósticos médicos ou decisões críticas de segurança sem supervisão humana efectiva.
- Ciclos de aprendizagem: recolher experiências, analisar falhas e apertar regras - não de dois em dois anos, mas de poucas em poucas semanas.
- Expectativas realistas: a IA é poderosa, mas não é magia; alucina, exagera e inventa, e fá-lo muitas vezes com grande convicção.
- Linguagem comum: tecnologia, jurídico, gestão e utilizadores precisam de vocabulário partilhado, caso contrário falam uns por cima dos outros.
Um ponto que costuma falhar: compras, contratos e auditoria no sector público (e não só)
Há um aspecto pouco falado que, na prática, decide muito: aquisição e contratação. Seja numa câmara municipal, num hospital, numa escola ou numa empresa, muitas decisões sobre IA entram pela via do contrato - o que se compra, que garantias existem, que métricas de desempenho são exigidas, como se reportam incidentes. Se o caderno de encargos não pedir documentação de riscos, registos de testes, limites de utilização e condições de auditoria, a organização fica dependente da boa vontade do fornecedor.
Outro ponto decisivo é a literacia interna. Não chega ter “uma política de IA” num PDF: é preciso formação curta e recorrente para quem usa ferramentas no dia-a-dia (por exemplo, sobre dados pessoais, viés, verificação de fontes e rotulagem de conteúdos gerados). Em Portugal, isto é particularmente relevante em contextos com equipas pequenas e múltiplas funções, onde a pressa pode empurrar para atalhos. Uma hora de boas práticas, repetida e actualizada, vale mais do que um manual esquecido numa pasta partilhada.
A liberdade desconfortável de um controlo inevitavelmente incompleto
É possível que a regulação da IA não nos “salve”, mas que nos acompanhe. Leis novas dão sinais, desenham linhas gerais, criam responsabilidade e deveres de diligência. Na vida real, a tecnologia quase sempre já terá avançado mais um passo. Isto pode frustrar - mas também pode libertar. Não é preciso esperar que tudo esteja definido ao milímetro para agir de forma responsável. Cada organização, e cada pessoa, pode começar já a construir uma posição perante este novo poder. Não sem medo, mas com consciência.
A pergunta mais interessante aqui é menos jurídica e mais cultural: como lidamos com uma técnica que, em segundos, cria texto, imagens e voz, acelera trabalho e ao mesmo tempo desloca os nossos critérios? Se uma candidatura, uma carta de amor ou um plano de negócios pode, em teoria, ter saído de um modelo, o que acontece à confiança? Estas questões não vivem em artigos e alíneas - nascem em salas de estar, escritórios, grupos de chat. É aí que se decide se a IA se torna ferramenta incorporada nas rotinas ou um corpo estranho que observamos com desconfiança permanente.
Talvez seja necessária uma honestidade nova: nunca teremos um quadro de controlo perfeito e estanque. Haverá abuso, falhas e escândalos. Ao mesmo tempo, vão surgir milhares de utilizações discretas e inteligentes que não entram nas notícias. A habilidade está em não cair nem na histeria nem na ingenuidade tecnológica - mas em ocupar esse espaço intermédio, móvel: curioso, atento, um pouco desconfiado, e disposto a reajustar regras continuamente. Quando se pensa assim, percebe-se algo simples: a regulação mais importante não começa no boletim oficial - começa na forma como cada um decide usar (ou não usar) a ferramenta.
| Ponto central | Detalhe | Benefício para o leitor |
|---|---|---|
| As leis ficam atrás da técnica | Ciclos legislativos vs. iterações rápidas de modelos | Expectativas realistas sobre regulação, menos falsa sensação de segurança |
| Balizas com responsabilidade própria | Regras internas de IA, linhas vermelhas, transparência na equipa | Formas concretas de agir já, antes da “grande” implementação |
| A cultura pesa mais do que o parágrafo | A ética nasce em práticas do dia-a-dia, não apenas em leis | Compreensão de por que conversas e rotinas são decisivas |
FAQ
Pergunta 1 - Quem controla, na prática, a IA: o poder político ou as empresas?
Resposta: Formalmente, parlamentos e governos definem o enquadramento. Na prática, há muito poder concentrado nas empresas que desenvolvem, alojam e integram modelos em produtos. O cenário mais útil é a combinação: regras exigentes para aplicações de alto risco, com padrões internos robustos e deveres de transparência das organizações.Pergunta 2 - O EU AI Act já chega “tarde”, porque a tecnologia já vai à frente?
Resposta: Se “chegar tarde” significar controlo total, então sim - a tecnologia dificilmente espera. Ainda assim, o EU AI Act muda o tabuleiro: clarifica responsabilidade, proíbe certas práticas e obriga fornecedores a avaliar e documentar riscos. É mais sensato encará-lo como versão 1.0, não como ponto final.Pergunta 3 - O que posso fazer no dia-a-dia para usar IA de forma responsável?
Resposta: Não introduzir dados sensíveis em ferramentas abertas, validar sempre resultados, exigir fontes quando aplicável, assinalar claramente conteúdos gerados por IA e tornar transparente, na equipa, para que fins está a usar modelos. Rotinas pequenas e consistentes costumam ter mais impacto do que declarações genéricas de princípios.Pergunta 4 - Os modelos open-source são um risco maior do que sistemas fechados?
Resposta: São mais fáceis de adaptar e espalham-se mais depressa, o que pode facilitar abuso. Ao mesmo tempo, aumentam transparência, fomentam concorrência e reduzem dependência de monopólios. O risco depende muito do contexto: um modelo aberto num laboratório com controlo não é o mesmo que uma ferramenta aberta ao público sem salvaguardas.Pergunta 5 - Vai existir, um dia, um controlo de IA realmente eficaz?
Resposta: “Eficaz” tenderá a significar padrões preventivos de segurança, monitorização, responsabilidade e acordos internacionais - não controlo absoluto. Segurança total é pouco realista numa tecnologia tão flexível. O mais determinante será a rapidez com que sociedade e instituições detectam problemas e actualizam regras e práticas.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário