Essa confiança silenciosa está agora a chocar com uma realidade bem mais dura: algumas ferramentas instaladas no seu navegador observam tudo o que diz à inteligência artificial e, sem alarde, empacotam essa informação para o mercado de dados.
Confissões privadas, mercadoria pública
Os chatbots passaram a ser o novo amigo das conversas de madrugada. Há quem pergunte sobre dores no peito e crises de pânico. Há quem desabafe sobre o parceiro ou a parceira. Há quem cole contratos, detalhes salariais e planos de desenvolvimento da empresa. O tom mantém-se tranquilizador, o visual é limpo e a ideia de discrição fica implícita.
Nesse contexto, partilhar parece seguro. Não há uma câmara à vista, nem um pop-up de cookies, nem a sensação de alguém a ouvir. Há apenas uma caixa de texto neutra e um bot que não revira os olhos. Esse desenho sereno baixa a sua defesa.
Só que, por trás dessa calma, algumas extensões e ferramentas de “segurança” jogam um jogo totalmente diferente. Vivem dentro do navegador, ligam-se às páginas onde conversa com IA e replicam tudo o que escreve e tudo o que lê. Depois, esses fluxos alimentam corretores de dados, empresas de tecnologia publicitária e firmas de analítica de que nunca ouviu falar.
"Conversas que parecem sessões de terapia podem acabar como linhas numa base de dados de marketing, cruzadas com os seus hábitos de navegação."
O caso que tornou isto mais visível envolve a Urban VPN Proxy, uma extensão gratuita que se promovia como um escudo de privacidade, enquanto funcionava discretamente como posto de escuta.
De VPN gratuita a centro de vigilância
Como um add-on de “privacidade” virou uma torneira de dados
A Urban VPN Proxy cresceu depressa com uma receita conhecida: “gratuita”, “ilimitada”, “proteja a sua privacidade”. Mais de seis milhões de utilizadores instalaram-na, incluindo trabalhadores e estudantes com curiosidade tecnológica que queriam esconder o endereço IP. Durante algum tempo, fazia, à superfície, aquilo que prometia: encaminhava o tráfego através de uma rede privada virtual.
Depois, ocorreu uma mudança silenciosa. Uma actualização de código acrescentou scripts que se injectavam nas páginas de grandes plataformas de IA: ChatGPT, Claude, Gemini, Perplexity, Grok, entre outras. Sempre que alguém abria um destes sites, a extensão inseria JavaScript adicional que:
- capturava os prompts enviados ao chatbot
- copiava as respostas completas da IA
- registava carimbos de data/hora e identificadores de sessão
- empacotava metadados técnicos sobre o navegador e o dispositivo
Esses pacotes eram enviados para servidores controlados pelo editor da extensão. De acordo com a cobertura citada na investigação original, o registo não terminava quando o utilizador desligava a VPN. A extensão continuava ligada às páginas de IA, ainda a recolher, sem um botão visível que permitisse desactivar esse comportamento.
"Depois de instalada, a extensão passou de escudo a funil, sem um ponto claro em que os utilizadores pudessem dizer “não” ao rastreio extra."
A empresa por trás da Urban VPN, a Urban Cyber Security Inc., apresentou publicamente a sua missão como defesa dos utilizadores. Na página da Chrome Web Store, afirmava não vender dados excepto em casos “aprovados”. Já as cláusulas legais diziam outra coisa: a política de privacidade permitia a partilha de dados com a BiScience, uma empresa associada activa em analítica comportamental e intermediação de dados.
Para quem escrevia em chatbots, nada disto era evidente. Via-se um ícone de VPN - não uma pequena fábrica de tecnologia publicitária ligada às perguntas mais pessoais.
Porque os selos oficiais já não garantem segurança
O problema da Chrome Web Store
Um pormenor transforma este episódio de preocupante em estrutural: a Urban VPN Proxy tinha um selo de “Destaque” na Chrome Web Store da Google. Esse rótulo sugere que a extensão passou por uma revisão adicional e cumpre determinadas expectativas de qualidade e segurança. Muitos utilizadores tratam-no como um carimbo de confiança.
No entanto, a mesma extensão injectava scripts de monitorização na interface do próprio chatbot Gemini da Google. Isto levanta perguntas desconfortáveis. Se o processo de validação da Google falha em detectar uma ferramenta que drena dados do seu principal produto de IA, que valor real têm esses selos para os utilizadores?
Investigadores de segurança avisam há muito que as lojas de extensões têm dificuldade em acompanhar add-ons que se comportam bem durante a análise e, mais tarde, mudam através de actualizações. A cronologia da Urban VPN encaixa nesse padrão: um produto aparentemente inofensivo ganha popularidade e, numa versão posterior, acrescenta funcionalidades de recolha de dados, distribuídas silenciosamente a milhões de utilizadores já instalados.
"Os selos de confiança muitas vezes congelam um momento no tempo, enquanto as extensões continuam a evoluir em segundo plano a cada actualização automática."
O dano reputacional não recai apenas sobre uma empresa. Arrasta fabricantes de navegadores, fornecedores de IA e operadores de lojas de aplicações para o centro da discussão. Quando as plataformas promovem ferramentas de terceiros como “de confiança” e essas ferramentas exfiltram conversas com IA, os utilizadores sentem-se enganados por toda a cadeia.
A economia escondida por trás dos seus prompts
O que acontece a uma conversa roubada
As conversas recolhidas em chatbots raramente ficam como texto bruto num único servidor. Normalmente seguem por uma cadeia de empresas especializadas em transformar palavras em perfis e previsões. Quem compra não precisa do seu nome para tornar os dados úteis. Basta combinar excertos do que partilha com hábitos de navegação, localização aproximada, impressão digital do dispositivo e conjuntos de dados anteriores.
A partir daí, pode inferir-se que você está:
- a ponderar um divórcio ou separação
- a gerir uma doença crónica ou acompanhamento de saúde mental
- a trabalhar num sector específico ou numa determinada função
- interessado em investimento, cripto ou produtos financeiros de alto risco
Estes sinais alimentam publicidade direccionada, modelos de avaliação de risco de crédito e mensagens políticas. Também podem servir para treinar algoritmos de marketing a prever quando alguém está num ponto de maior vulnerabilidade: exaustão, dívida, luto ou perda de emprego.
Ao contrário do rastreio clássico na web, as conversas com IA trazem contexto numa narrativa compacta. Um único prompt pode revelar salário, cidade, estado da relação e sintomas em poucas linhas. Essa densidade torna cada sessão capturada especialmente valiosa para corretores de dados.
O que os utilizadores podem fazer, de forma realista, agora
Medidas práticas para reduzir o risco
Nenhuma auditoria a extensões será perfeita, e a maioria das pessoas não tem tempo nem conhecimentos técnicos para ler código-fonte. Ainda assim, alguns hábitos pragmáticos podem reduzir a superfície de ataque:
- Manter as conversas com IA em navegadores ou perfis dedicados, sem extensões adicionais instaladas.
- Evitar VPN gratuitas e ferramentas de “privacidade” de empresas com propriedade pouco clara ou documentação vaga.
- Rever regularmente as permissões das extensões e remover as que já não usa.
- Partir do princípio de que informação extremamente sensível (diagnósticos médicos, documentos jurídicos completos, dados de menores) deve ficar fora de ferramentas de IA de terceiros, salvo um enquadramento contratual rigoroso, como uma licença empresarial.
Em redes corporativas, equipas de segurança começam a tratar o tráfego de chat com IA como qualquer outro canal de elevado valor. Implementam isolamento do navegador, limitam quais extensões os colaboradores podem instalar e usam filtragem de saída para detectar ferramentas a enviar dados em massa para destinos invulgares.
| Contexto | Motivo para repensar o que partilha com a IA |
|---|---|
| Questões de saúde | Pode revelar diagnósticos, medicação, historial sexual e riscos médicos familiares. |
| Material de trabalho | Pode incluir segredos comerciais, listas de clientes, estratégia interna e exposição jurídica. |
| Planeamento financeiro | Dá pistas sobre rendimento, dívidas, investimentos e tolerância ao risco. |
| Apoio emocional | Sinaliza aspectos de saúde mental, estabilidade da relação e grandes acontecimentos de vida. |
Onde reguladores e plataformas enfrentam agora maior pressão
Lacunas legais na vigilância de chats com IA
Leis de protecção de dados como o RGPD na Europa ou leis estaduais de privacidade nos EUA já tocam neste terreno, mas o registo de chats com IA vive numa zona cinzenta. Ecrãs de consentimento muitas vezes escondem o papel de extensões de terceiros. O fornecedor de IA pode cumprir as suas próprias políticas enquanto um plug-in não relacionado raspa tudo o que aparece na página.
Os reguladores estão a olhar com mais atenção para três questões:
- Instalar uma extensão de navegador equivale a consentimento válido para enviar chats com IA a corretores de dados?
- As lojas de aplicações devem ter responsabilidade quando atribuem selos a ferramentas que, mais tarde, exfiltram dados sensíveis?
- Prompts sobre saúde ou finanças exigem salvaguardas adicionais, mesmo quando capturados por aplicações não médicas?
Organizações de defesa do consumidor defendem rótulos mais claros para extensões que interagem com páginas de IA, proibições explícitas à revenda de dados conversacionais e períodos de retenção mais curtos. Alguns especialistas jurídicos argumentam que recolher chats com IA sem um opt-in separado e explícito deveria ser analisado com o mesmo rigor que a intercepção de e-mails.
Viver com IA sem ficar tão exposto
A história da Urban VPN mostra como uma ferramenta usada por curiosidade e conveniência pode cruzar-se rapidamente com vigilância silenciosa. É provável que o padrão se repita com extensões para transcrição de reuniões, assistência à programação ou pesquisa com IA. Qualquer plug-in que consiga ver o que você escreve e ler o que você lê pode, em teoria, copiá-lo para outro lado.
Não é preciso abandonar a IA para recuperar algum controlo. Pode encarar os chats com IA mais como transporte público do que como um carro particular: útil e rápido, mas não apropriado para levar tudo. Tarefas sensíveis podem ficar em documentos offline ou em infra-estrutura de IA gerida pela empresa, enquanto brainstorming informal, ajustes de linguagem ou dicas de código passam por chatbots públicos.
As empresas de IA, por sua vez, têm oportunidade de transformar esta crise numa vantagem. Controlos claros para bloquear scripts de terceiros, avisos quando extensões arriscadas estão activas e painéis transparentes de gestão de dados podem diferenciar plataformas responsáveis no meio do ruído. O mesmo vale para fornecedores de VPN e ferramentas de segurança: quem realmente reduz a exposição de dados - em vez de a monetizar - terá de o provar com auditorias técnicas, e não com slogans.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário