Saltar para o conteúdo

A interseção entre o impacto social e o desenvolvimento da inteligência artificial

Jovem mostra informações num tablet a mulher idosa numa mesa de café com outras pessoas ao fundo.

Numa terça-feira chuvosa em Nairobi, um grupo de raparigas adolescentes junta-se numa sala de aula apertada, com os olhos presos a um ecrã de projecção rachado. A ligação à rede sem fios cai de dez em dez minutos, a ventoinha treme como se estivesse prestes a desistir e, mesmo assim, o ambiente está eléctrico. Na parede, alguém escreveu a marcador: “Constrói algo que importe”. Hoje, a aula de programação não é para criar a próxima aplicação viral. É para treinar um pequeno modelo de IA que ajude agricultores locais a prever doenças nas plantas a partir de fotografias tiradas no telemóvel.

Uma das alunas levanta a mão e faz uma pergunta discreta: “Se a IA pode ajudar as colheitas do meu pai, porque é que toda a gente no TikTok diz que vai roubar todos os nossos empregos?”

A professora hesita por um instante. Depois sorri.

É aqui que a história verdadeira da IA começa.

A força invisível por trás de cada decisão de IA

A coisa mais estranha na inteligência artificial é que quase nunca vemos as decisões - apenas os efeitos. Um empréstimo que não foi aprovado. Um vídeo que não chegou ao teu ecrã. Um currículo que nunca passou pelos olhos de uma pessoa.

Por trás de cada resultado em fracções de segundo há um modelo, treinado com dados confusos e profundamente humanos, a influenciar em silêncio quem recebe oportunidades e quem fica a aguardar.

Gostamos de falar da IA como se fosse neutra, como se fosse apenas matemática em chips. Mas a experiência no terreno conta outra versão.

Pense no caso de um hospital nos EUA que adoptou uma ferramenta de IA para sinalizar quais os doentes que precisavam de acompanhamento adicional. No papel, o modelo parecia exemplar: usava o histórico de despesas de saúde para estimar risco médico futuro. Soava lógico. Soava eficiente.

Quando investigadores analisaram melhor, descobriram que a IA subestimava de forma significativa as necessidades de doentes negros. Não porque o código fosse “racista” de forma caricata, mas porque, historicamente, o gasto em cuidados de saúde com esses doentes era mais baixo - mesmo quando as condições clínicas eram semelhantes ou piores. O sistema absorveu décadas de desigualdade no tratamento e transformou-as num número chamado “pontuação de risco”.

Ninguém se propôs criar uma máquina enviesada. Ainda assim, foi isso que apareceu.

Esta história do hospital é um exemplo afiado de um padrão maior: quando a IA se alimenta de dados históricos, também engole injustiças históricas.

Se os créditos à habitação foram distribuídos de forma desigual, se as mulheres foram afastadas de funções de liderança, se certos bairros foram policiados em excesso, essas marcas acabam por entrar nos conjuntos de treino. O algoritmo “aprende” regularidades que ficam óptimas num gráfico - e cruéis na vida real.

É nesta intersecção escondida, onde os números encontram a memória, que o impacto social e a IA colidem em silêncio.

Conceber IA como serviço público, não como truque de magia

Uma mudança prática altera tudo: tratar projectos de IA menos como “atalhos brilhantes” e mais como a construção de um serviço público. Isso obriga a começar por uma pergunta teimosa: “Quem ganha, quem perde e quem não está na sala?”

Antes de se escrever uma única linha de código, as equipas podem mapear o percurso real das pessoas afectadas pelo sistema. Não “personas” de uma apresentação, mas pessoas concretas: trabalhadores, alunos, doentes, motoristas, inquilinos. Falar com elas. Observar como usam as ferramentas actuais. Ouvir as preocupações baixas, os cenários “E se isto correr mal?”. É aí que o impacto social começa - muito antes de qualquer modelo terminar o treino.

Um erro frequente é correr imediatamente para métricas e painéis: exactidão, precisão, pontuação F1 - a sopa de letras técnica. Enquanto engenheiros celebram mais 2% de melhoria, quem está na linha da frente preocupa-se com perder autonomia, dignidade ou capacidade de decisão.

Todos já sentimos aquele momento em que uma ferramenta é imposta “de cima” e parece ter sido desenhada noutro planeta. Com IA, o risco é multiplicar essa sensação à escala.

Sejamos francos: ninguém lê, todos os dias, uma directriz ética de 60 páginas. As protecções têm de estar embutidas nos fluxos de trabalho - não estacionadas em ficheiros PDF.

“Os sistemas de IA não se limitam a prever comportamentos; eles também os moldam. Se não desenharmos conscientemente para o impacto social, continuamos a desenhá-lo - só que por omissão.”
- Um investigador de políticas públicas em Bruxelas, após mais uma negociação nocturna sobre regras para a IA

  • Pergunte quem está a faltar
    Inclua pessoas das comunidades afectadas logo nos primeiros ateliers, e não apenas num painel de revisão de última hora.
  • Mapeie o dano, não só o benefício
    Registe cenários concretos de pior caso para cada grupo tocado pelo sistema e defina sinais de alerta para os detectar cedo.
  • Partilhe poder com vozes não técnicas
    Permita que professores, enfermeiros, assistentes sociais e organizadores locais vetem ou reformulem funcionalidades que alteram o seu trabalho.
  • Teste em casos-limite da vida real
    Faça pilotos com pessoas nas margens: trabalhadores de plataformas, cuidadores informais, migrantes, pessoas com deficiência.
  • Prepare a reparação, não a perfeição
    Crie um processo claro para reclamações, correcções e reversões quando a IA falha no mundo real.

Há ainda uma peça que muitas equipas ignoram: a governação. Quem é responsável quando o modelo erra? Quem aprova alterações? Como se regista uma decisão automatizada para ser explicada mais tarde? Um sistema pode ser tecnicamente sólido e, ainda assim, falhar socialmente por não ter responsabilidades bem definidas e canais de contestação acessíveis.

E, sempre que a IA entra em áreas sensíveis, vale a pena olhar para o contexto regulatório. Na Europa, o debate em torno do Regulamento da IA (AI Act) reforça a necessidade de transparência, avaliação de risco e supervisão humana em usos de maior impacto. Mesmo quando a lei não se aplica directamente, o “padrão de exigência” que ela cria ajuda organizações a definirem práticas mínimas: registos, testes, documentação e controlo de versões.

Viver com uma IA e impacto social que realmente servem pessoas

Existe uma revolução discreta a acontecer em lugares que raramente entram em slides de conferências. Numa clínica rural na Índia, uma ferramenta de IA de baixo custo ajuda enfermeiros a detectar sinais iniciais de doença ocular com uma câmara barata de telemóvel. No Brasil, activistas experimentam IA para identificar desflorestação ilegal com imagens de satélite.

Estes projectos não parecem ficção científica. Parecem portáteis remendados, internet intermitente e problemas ferozmente locais. E o que os faz resultar não é apenas um modelo esperto - é a confiança: quem controla os dados, quem pode questionar o sistema, quem fica com os benefícios.

A intersecção entre impacto social e IA vive nestas trocas do dia-a-dia, e não numa narrativa distante e abstracta sobre o “futuro do trabalho”.

Um ponto adicional que costuma ser subestimado é a manutenção: modelos degradam com o tempo, dados mudam, e um processo que era “justo o suficiente” pode deixar de o ser. Planear revisões periódicas, auditorias simples e actualizações responsáveis é parte do serviço - tal como seria numa linha de apoio, num centro de saúde ou num atendimento municipal.

Ponto-chave Detalhe Valor para quem lê
Comece pelas pessoas, não pelos modelos Entreviste grupos afectados antes de desenhar funcionalidades ou métricas Cria ferramentas que são usadas de verdade, em vez de serem silenciosamente resistidas
Interrogue os dados Procure grupos em falta, histórias enviesadas e variáveis “proxy” para atributos sensíveis Reduz enviesamentos escondidos que podem afectar reputações e vidas reais
Desenhe para a reparação Crie canais de feedback, mecanismos de recurso e responsabilidade clara Reforça a confiança, evita reacções negativas e melhora o sistema ao longo do tempo

Perguntas frequentes (FAQ) sobre IA e impacto social

  • Pergunta 1 Como pode uma organização pequena pensar em impacto social quando usa ferramentas de IA?
  • Resposta 1 Comece de forma pequena e concreta. Escreva quem pode ser ajudado, quem pode ser prejudicado e de onde vêm os seus dados. Fale com pelo menos cinco pessoas que vão usar a ferramenta ou ser afectadas por ela e pergunte como seria, para elas, “um mau resultado”. Depois, escolha ou configure as ferramentas de IA com essas protecções em mente, mesmo que esteja apenas a usar serviços prontos no mercado.
  • Pergunta 2 A IA é sempre enviesada, aconteça o que acontecer?
  • Resposta 2 Qualquer sistema reflecte escolhas: que dados usa, o que optimiza, o que ignora. O enviesamento não é tudo-ou-nada; existe num espectro. Não dá para o eliminar por completo, mas é possível reduzir os piores danos ao diversificar dados, auditar resultados e dar às pessoas formas reais de contestar decisões.
  • Pergunta 3 A IA pode mesmo ajudar em problemas sociais como pobreza ou alterações climáticas?
  • Resposta 3 A IA pode apoiar - não substituir - o esforço humano. Pode encontrar padrões em imagens de satélite, optimizar consumo de energia ou prever onde os serviços são mais necessários. Mas esses ganhos só contam quando estão ligados a vontade política, conhecimento local e políticas justas. A tecnologia, por si só, não resolve problemas estruturais.
  • Pergunta 4 Que competências devo aprender se quiser trabalhar em IA socialmente responsável?
  • Resposta 4 Para além de programação ou ciência de dados, aprenda estatística básica, ética e avaliação de impacto. Leia sobre desigualdade e história, não apenas sobre algoritmos. Treine a comunicação entre áreas - com juristas, professores, activistas e designers. Essa capacidade de construir pontes é rara e faz muita falta.
  • Pergunta 5 Como utilizador comum, tenho algum poder sobre a forma como a IA é construída?
  • Resposta 5 Tem mais influência do que parece. Pode escolher serviços que expliquem como usam IA, apoiar organizações que exigem responsabilização e falar quando sistemas automatizados o tratam de forma injusta. Quando muitos utilizadores contestam ou abandonam um serviço, as empresas reagem. A pressão social também faz parte do processo de design, mesmo que não apareça em nenhum roteiro de produto.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário