Saltar para o conteúdo

Porque especialistas em tecnologia evitam estas apps com IA devido a riscos de privacidade e segurança.

Homem preocupado olha para telemóvel com app aberta, enquanto duas pessoas ao fundo tiram selfie num escritório.

Alguém ergueu o telemóvel no ar, a guinchar que aquela aplicação conseguia transformar qualquer pessoa numa estrela de cinema com um só toque. No ecrã surgiu uma fila de rostos polidos e estranhamente perfeitos, como se tivessem sido passados a ferro. Houve gargalhadas, comparações de “antes e depois”, e a sala caiu naquele entusiasmo tonto em que a tecnologia parece um truque de magia.

No canto da secretária, porém, o engenheiro de segurança nem levantou os olhos. Limitou-se a abanar a cabeça - um gesto pequeno, mas cheio de significado. Não era rabugice, nem pose. Era cansaço, mas de um tipo muito específico. Demorei um instante a reparar na divisão silenciosa naquele escritório. Foi aí que comecei a perguntar a mim mesmo por que razão as pessoas que melhor conhecem tecnologia raramente usam as aplicações de IA que o resto de nós adora exibir.

O dia em que a aplicação de selfies chegou ao escritório

O Sam, o engenheiro, escrevia sem olhar para o teclado, um hábito que fazia as teclas soarem como chuva a bater numa chapa. Mesmo assim, alguém lhe encostou o telemóvel à frente com a aplicação aberta. “É só para brincar, e é grátis”, insistiram. Ele sorriu, disse que não tinha o telemóvel consigo e voltou ao seu terminal. Ali, naquela sala, a palavra “grátis” caiu com o peso de uma piada interna.

No comboio de regresso a casa, experimentei a aplicação - a curiosidade quase sempre ganha. O resultado era brilhante e, ao mesmo tempo, inquietante. Os filtros sabiam exactamente como me favorecer e, com o mesmo talento, quanto tempo deviam seduzir-me antes de pedirem acesso à galeria. Apaguei a aplicação antes de o café arrefecer. Todos já sentimos esse momento em que um brinquedo novo deixa de parecer diversão e começa a soar a negócio com letras miudinhas.

Aplicações de IA e política de privacidade: o que os profissionais lêem quando nós só vemos botões

A maioria das pessoas vê confetis, partilhas e efeitos giros. Quem trabalha em segurança e privacidade vê um contrato com potencial para esvaziar a vida de alguém por dentro. Onde está escrito “usamos os seus dados para melhorar os serviços”, eles lêem “o seu rosto, a sua voz e as suas palavras passam a ser material de treino”. Onde aparece “parceiros”, imaginam uma procissão discreta de empresas de análise, redes de publicidade e fornecedores de nuvem a sugar metadados como se fossem oxigénio. Depois de aprender essa linguagem, é difícil deixar de a ver.

O Sam explicou-me uma vez a distância entre frases bonitas e o que acontece na prática. “Podemos recolher conteúdos que cria” muitas vezes inclui rascunhos que nunca chegou a guardar. “Conservamos os dados enquanto for necessário” pode esticar-se por anos, porque “necessário” é uma palavra elástica. E aquela linha de “interesse legítimo”, que soa tão civilizada? É, na verdade, um calço legal que mantém a porta aberta.

A frase que decide tudo

Quase sempre existe uma frase única que determina se um especialista instala ou não uma aplicação. É a cláusula que permite partilhar dados com terceiros para “investigação”, “análise” ou “melhoria do modelo”. As aplicações que recusam isso, que fazem processamento no dispositivo e que minimizam mesmo a recolha são raras. As restantes funcionam como máquinas de venda automática em que o produto no compartimento é o próprio utilizador.

O problema das permissões: microfone, câmara, teclado

As aplicações de IA mais impressionantes precisam de “sentidos” para fazerem magia: câmara para filtros e tradução visual; microfone para assistência por voz e notas de reuniões; teclado para previsões e sugestões. À primeira vista, faz sentido. O problema começa quando se pergunta o que acontece ao fluxo de dados depois do truque terminar.

Quem trabalha em segurança fala de chamadas de rede em segundo plano que continuam mesmo quando a aplicação já não está no ecrã. Há aplicações que escutam palavras de activação e enviam pequenos excertos de áudio para a nuvem “para melhorar a precisão”. Outras lêem os nomes dos seus contactos para desenhar um mapa privado da sua vida social. E aplicações de teclado podem capturar tudo o que por elas passa - incluindo os seis dígitos que escreveu quando julgava que ninguém estava a ver.

O seu rosto, a sua voz e a sua escrita - dados perfeitos para treino

A IA precisa de exemplos como um cozinheiro precisa de ingredientes: rostos, vozes, sotaques, estilos de escrita, e até aqueles erros de digitação estranhos que o tornam único. É assim que um modelo aprende a adivinhar o que vem a seguir. Quando uma aplicação diz que vai “usar o seu conteúdo para melhorar os nossos algoritmos”, está a descrever uma estrada de sentido único: da sua realidade para o gráfico de crescimento dela.

Os profissionais não têm grande entusiasmo por serem treinadores não pagos. Já viram empresas prometer “anonimização” e, depois, reconstruir perfis com pedaços soltos suficientes. Uma aplicação de selfies guardava “modelos de rosto” sob a forma de vectores, porque vectores não parecem fotografias. Outra garantia eliminação, mas o suporte avisava que as cópias de segurança podiam demorar meses a ser substituídas. Algumas aplicações são transparentes sobre isto. Muitas não são.

Os rastreadores escondidos dentro das ferramentas

A maioria das aplicações de IA não é construída como uma casinha com uma porta e uma janela. Parecem mais prédios com corredores onde o utilizador nunca entra: cheios de bibliotecas e componentes de terceiros - motores de voz, serviços de análise, parceiros publicitários. Instala-se uma aplicação e, na prática, entram várias. Cada uma traz os seus hábitos de privacidade. E cada uma tem fome.

Já acompanhei um registo de rede enquanto alguém usava uma ferramenta de transcrição de IA “gratuita”. O ecrã encheu-se de endereços desconhecidos, pequenos apertos de mão a acontecerem em silêncio. Não era só conversão de voz em texto: havia reprodução de sessão, mapas de calor e relatórios de falhas - nomes inocentes, capazes, ainda assim, de revelar contexto. Se alguma vez sentiu que andava a ser seguido na internet, é provável que estivesse.

Peças pequenas, exposição enorme

É na cadeia de fornecimento que os problemas entram sem pedir licença. Uma aplicação de teclado pode jurar que não guarda mensagens e, ainda assim, incluir uma biblioteca de terceiros que o faz. Uma aplicação de conversação pode manter os seus pedidos no dispositivo, mas a biblioteca de análise recolhe identificadores do equipamento e localização. E quando uma empresa é vendida, se funde ou muda de rumo, os dados mudam de dono enquanto você continua a beber chá. É por isso que os especialistas evitam apostar às cegas: querem ver o baralho inteiro.

O mito da IA “anónima”

“Anonimizamos os seus dados” soa a manta quente. Para quem percebe do assunto, é mais uma cortina rendada num dia de vento. A lógica é simples: tirar nomes, desfocar detalhes e chamar-lhe segurança. Só que datas, lugares, manias de escrita e grafos sociais encaixam como peças de puzzle. A reidentificação não é um fenómeno raro; é um passatempo em algumas universidades e um negócio para intermediários.

Uma investigadora de privacidade explicou-me assim: se alguém gritar numa tasca cheia, pode não lhe ver a cara, mas reconhece a pessoa pela gargalhada, pela história e pelo timing. Os dados funcionam do mesmo modo. O estilo é uma impressão digital - e é precisamente isso que a IA quer aprender. Você é o conjunto de dados.

“Personalização” que sabe demais

As aplicações de IA vendem conforto: o assistente que parece amigo, o feed que adivinha a piada que vai gostar às duas da manhã, a ferramenta de escrita que completa frases e pede desculpa quando falha. Parece íntimo - até nos lembrarmos de que intimidade exige esquecimento deliberado, e as aplicações não esquecem a menos que sejam forçadas.

Aqui está a parte escorregadia: personalização assenta em perfilagem. Rotinas de localização, padrões de escrita nocturna, pesquisas sazonais que dizem mais do que qualquer estado nas redes. Informação que antes vivia apenas na sua cabeça passa a existir em servidores, a “render”. A história contada a uma aplicação pode reaparecer como anúncio noutra. E, de repente, o telemóvel vibra com uma recomendação que adivinha aquilo que ainda não disse em voz alta.

As crianças em segundo plano

Fala-se pouco disto. Muitas aplicações de IA para câmara e voz aprendem com pessoas que não deram consentimento: a criança que passou ao fundo do enquadramento ou o amigo que murmurou na cozinha. O modelo não sabe quem tem direito ao consentimento. Só vê pixéis e ondas sonoras. Guarda, aprende e segue caminho.

Pais que trabalham em tecnologia costumam traçar limites rígidos: nada de brinquedos de IA que “ligam para casa”; nada de microfones para “melhorar a leitura da criança” que guardam gravações. Não é medo - é a serenidade de saber que dados recolhidos hoje podem sobreviver mais tempo do que a infância. Uma futura universidade, um empregador ou uma seguradora não precisam de conspirações para saber demais; basta uma pesquisa eficaz.

A fantasia da eliminação

Quase todas as aplicações prometem um botão de eliminar. Parece responsável e, por vezes, é. As melhores reduzem dados continuamente, guardam no dispositivo e permitem recomeçar com um toque. Muitas outras não funcionam assim: colocam eliminações em fila, mantêm cópias de segurança, distribuem réplicas por regiões enquanto a poeira assenta em servidores que nunca veremos.

Já fiz pedidos de acesso e eliminação de dados e vi empresas hesitarem. Muitas vezes, nem elas sabem onde estão todas as cópias - e essa é, talvez, a resposta mais honesta. Registos existem para manter sistemas estáveis, e registos lembram-se das coisas. Isso não é, por si só, maldade. Mas torna a promessa de apagamento total numa história para adultos se convencerem a dormir descansados.

“Mas eu preciso destas ferramentas para trabalhar”

Eu também. A diferença está na escolha. Quem percebe do tema procura processamento no dispositivo, caches locais, planos pagos que desligam “melhoria do modelo” e fornecedores que publicam auditorias de segurança sem teatro. Avaliam se a empresa vive de subscrições ou se vende “informação” em volume. Negócios diferentes têm incentivos diferentes.

Também separam identidades: o trabalho fica num equipamento gerido, com perfis rígidos; a vida pessoal vive num telemóvel com poucas aplicações e ainda menos permissões. E, quando vão testar algo arriscado, usam uma conta de engodo - como quem pega numa assadeira com pegas. Não é paranóia. É que dedos queimados doem.

Sinais de alerta que se sentem na pele (e sinais verdes também)

Não é preciso ser engenheiro para notar quando uma aplicação quer demasiado. O aviso que pede contactos antes de lhe mostrar qualquer utilidade. A definição que volta a “partilhar” depois de cada actualização. Os e-mails sorridentes que dizem “actualizámos a nossa promessa de privacidade” e, discretamente, acrescentam um novo parceiro com um nome impronunciável. O seu instinto é um sensor. Deixe-o apitar.

Também existem sinais verdes: páginas de política de privacidade curtas e em linguagem simples; actualizações que se gabam de recolher menos, não mais; um painel onde pode ver e apagar dados de treino sem ter de implorar ao suporte. E a rara empresa que diz não a investidores que pressionam para “monetizar” a base de utilizadores. Essa palavra pertence a folhas de cálculo, não a pessoas.

O que os especialistas em tecnologia fazem, na prática, em vez disso

Optam por aplicações de câmara que não enviam nada sem ordem explícita. Usam notas de voz que ficam no dispositivo. Escolhem navegadores que bloqueiam cookies de terceiros e retiram rastreadores de ligações como quem tira borbotos de um casaco. Para tradução, preferem ferramentas que funcionam localmente. Para escrever, mantêm rascunhos sensíveis fora da internet e colam apenas fragmentos - não o diário inteiro. Parece minucioso até virar hábito.

E colocam limites claros: nada de assistentes de IA no quarto; nada de microfones sempre ligados no berçário; nada de “teclado da semana” por conveniência. E lêem as duas primeiras partes da política de privacidade como quem lê um menu, à procura dos ingredientes que detestam. Sejamos honestos: ninguém faz isto todos os dias. Mas quando é uma ferramenta que vai beber a sua voz, o seu rosto e os seus planos privados, três minutos e uma sobrancelha levantada compensam.

A verdade desconfortável sobre o “gratuito”

O “gratuito” faz-nos clicar como um estalido de dedos. É social, é divertido, parece uma prenda do futuro. O custo aparece mais tarde: em anúncios que o encurralam, em modelos treinados com a sua aparência, em facturas de nuvem que nunca vê - mas que paga com atenção. O “gratuito” é um reembolso que nunca chega.

Os especialistas não rejeitam alegria. Rejeitam a factura que pode surgir anos depois. Preferem pagar uma vez, obter recibo, e sair da loja com algo que lhes pertence. O resto de nós também pode fazer uma versão disso: pagar com dinheiro quando for possível; pagar com menos dados quando não for.

Porque é que a recusa silenciosa importa

Sempre que alguém como o Sam diz que não, não é snobismo. É um pequeno protesto em defesa da atenção, da privacidade e do direito a esquecer. Esse “não” abranda a fome um pouco, corta algumas rondas de treino, empurra um gestor de produto a criar um interruptor real. Abre espaço para ferramentas melhores crescerem.

E às vezes muda uma sala. Naquele dia no escritório, as gargalhadas perderam volume. Algumas pessoas pousaram os telemóveis e olharam para as caras reais à frente delas. A chaleira fez clique na cozinha - um som pequeno e doméstico. Alguém perguntou: “Então qual é que usas?” A conversa virou, não contra a IA, mas em direcção a ela - com olhos mais claros e um telemóvel mais leve.

Um parágrafo que vale por uma regra simples

Se uma aplicação precisa da sua câmara, do seu microfone ou do seu teclado, pense se diria os mesmos segredos a meia voz dentro de um elevador cheio. Se não, não avance. Se a aplicação exigir tudo logo à partida, afaste-se. Se parecer polida demais para algo que não custa nada, pergunte o que mais está a vender.

E quando uma aplicação lhe dá dignidade - escolha, controlo, eliminação verdadeira - recompense-a. Recomende-a. Carregue no botão de pagar, se puder. O futuro que vamos ter é o futuro que alimentamos. A privacidade não é um interruptor. É uma prática: como fechar a porta à noite e, ainda assim, abri-la às pessoas em quem confia.

Dois pontos extra que quase nunca entram na conversa: regras e alternativas

Em Portugal e na União Europeia existe o enquadramento do Regulamento Geral sobre a Protecção de Dados (RGPD): acesso, rectificação, oposição, limitação e apagamento - no papel. Na vida real, a utilidade dessas regras depende de duas coisas: se a empresa consegue localizar os seus dados e se o desenho do produto foi feito para minimizar recolha desde o início. É por isso que tantos profissionais valorizam “privacidade por defeito” mais do que promessas: quando o sistema é construído para recolher pouco, há menos para perder e menos para discutir.

Também há uma alternativa prática que muitos especialistas adoptam quando precisam mesmo de capacidades de IA: escolher soluções locais ou auto-alojadas, quando faz sentido. Dá trabalho, exige manutenção e nem sempre é possível, mas muda o equilíbrio de poder. Em vez de enviar tudo para fora, decide-se o que sai, quando sai e porquê - e essa escolha, por si só, já é uma forma de segurança.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário