É provável que já tenha dado com imagens nas suas redes sociais que parecem um híbrido entre fotografia e grafismo gerado por computador. Umas são assumidamente delirantes - como o “Jesus Camarão” - e outras até parecem credíveis à primeira vista - lembra-se da menina deslocada que segurava um cachorro num barco durante uma inundação?
Este tipo de publicação é um exemplo do chamado lixo de IA: conteúdo de qualidade baixa a mediana - vídeo, imagens, áudio, texto, ou uma mistura - produzido com ferramentas de inteligência artificial (IA), muitas vezes sem grande preocupação com rigor ou verificação.
Criar lixo de IA é rápido, simples e barato. Quem o produz tende a espalhá-lo nas redes sociais para tirar partido da economia da atenção na Internet, empurrando para baixo material de melhor qualidade que poderia ser mais útil.
E, nos últimos anos, o lixo de IA tem-se multiplicado. Como o próprio termo sugere, isso raramente é positivo para quem usa a Internet.
As muitas formas do lixo de IA (conteúdo gerado por IA)
Em julho de 2025, o jornal The Guardian publicou uma análise sobre a forma como o lixo de IA está a ocupar espaço nos canais de crescimento mais rápido no YouTube. Os jornalistas concluíram que nove dos 100 canais que crescem mais depressa incluem conteúdo gerado por IA - por exemplo, “futebol de zombies” e “telenovelas de gatos”.
Também no áudio o fenómeno é visível. A ouvir música no Spotify? Vale a pena desconfiar daquela “nova banda”, The Velvet Sundown, que surgiu na plataforma com uma história criativa muito bem embrulhada e faixas com um som derivativo. É conteúdo gerado por IA.
Em muitos casos, a fórmula é simples: publicar lixo de IA que seja “apenas suficientemente bom” para prender a atenção e manter as pessoas a ver, ouvir ou clicar - permitindo ao autor ganhar dinheiro em plataformas que monetizam visualizações e reproduções.
A facilidade de gerar texto com IA abriu igualmente as portas a uma vaga de artigos fracos enviados para publicações. A Clarkesworld, uma revista online de ficção científica que aceita submissões e paga a autores, suspendeu novas submissões em 2024 devido ao dilúvio de escrita gerada por IA que estava a receber.
E o problema não se limita a redes sociais e meios de entretenimento: até a Wikipédia está a lidar com conteúdo de baixa qualidade gerado por IA, o que sobrecarrega todo o sistema de moderação comunitária. Se a organização não conseguir remover esse material, fica em risco uma fonte de informação essencial na qual muitas pessoas confiam.
Danos do lixo de IA
O lixo de IA também consegue “subir na cadeia” e infiltrar-se na dieta mediática de muita gente. Durante o furacão Helene, opositores do então Presidente Joe Biden usaram imagens geradas por IA - de uma criança deslocada a segurar um cachorro - como suposta prova de má gestão da resposta ao desastre por parte da administração.
Mesmo quando é evidente que uma imagem, um vídeo ou um texto foi gerado por IA, pode ainda assim servir para espalhar desinformação, porque há sempre quem o veja de relance e fique com a ideia errada.
Além disso, o lixo de IA prejudica artistas e criadores: provoca perdas de trabalho e de rendimento e ocupa espaço que antes era preenchido por conteúdo feito por pessoas. Muitas vezes, os algoritmos que determinam o que se vê nas redes sociais não distinguem devidamente este conteúdo de qualidade inferior, o que acaba por afastar classes inteiras de criadores que, até aqui, dependiam da Internet para ganhar a vida.
Um efeito paralelo é a erosão da confiança. Quando o lixo de IA se torna omnipresente, aumenta a dúvida generalizada: as pessoas questionam fotografias reais, relatos legítimos e até trabalho jornalístico bem verificado - porque o ambiente informativo fica saturado de imitações plausíveis.
Também há um custo operacional para as plataformas e comunidades: mais conteúdo barato e massificado significa mais triagem, mais denúncias, mais revisão e mais esforço humano para manter padrões mínimos. Esse peso recai frequentemente sobre moderadores e voluntários, agravando o desgaste e a dificuldade em manter espaços digitais saudáveis.
O que pode fazer quando encontra lixo de IA
Sempre que a plataforma o permitir, pode assinalar conteúdo prejudicial ou problemático. Em alguns serviços, é possível acrescentar notas da comunidade para contextualizar e corrigir interpretações enganadoras. Quando se tratar de conteúdo danoso, vale a pena denunciar.
Entre a necessidade crescente de estar atento a falsificações hiper-realistas e a contas “inautênticas” nas redes sociais, a IA está agora a contribuir para montes de tralha que degradam o nosso ambiente mediático. Pelo menos, há um nome curto e pegajoso para o fenómeno.
Adam Nemeroff, vice-provedor adjunto para Inovações na Aprendizagem, Ensino e Tecnologia, Universidade Quinnipiac
Este artigo é republicado da publicação The Conversation ao abrigo de uma licença Creative Commons. Leia o artigo original.
Comentários
Ainda não há comentários. Seja o primeiro!
Deixar um comentário