Saltar para o conteúdo

A OpenAI apresentou um plano para proteger crianças contra ameaças da IA devido ao aumento de abusos.

Mulher sentada à secretária a meditar diante de laptop com código, com martelo de juiz e robot ao lado.

Nova iniciativa da OpenAI acelera a deteção de infrações, atualiza a legislação e reforça o controlo sobre a geração de conteúdo perigoso

A OpenAI apresentou um novo plano para intensificar a proteção das crianças perante o aumento das ameaças associadas ao uso de IA. O documento, intitulado Child Safety Blueprint, foi divulgado no início da semana e tem como objetivo acelerar a deteção, melhorar os mecanismos de denúncia e tornar mais eficaz a investigação de casos de exploração infantil com recurso a IA.

De acordo com dados da organização não governamental de vigilância da Internet Internet Watch Foundation (IWF), no primeiro semestre de 2025 foram registados mais de 8000 casos de disseminação de conteúdo gerado com IA relacionado com abuso sexual de crianças, o que representa mais 14% do que no mesmo período do ano anterior. Os criminosos recorrem à IA para criar imagens e mensagens falsas com o objetivo de extorsão financeira e manipulação.

O plano foi desenvolvido em colaboração com o National Center for Missing and Exploited Children (NCMEC), a Attorneys General Alliance e com a participação dos procuradores-gerais da Carolina do Norte e do Utah. Entre as principais frentes da iniciativa estão a atualização da legislação para abranger material criado por IA, o aperfeiçoamento dos mecanismos de denúncia para as forças de segurança e a integração de medidas preventivas nos sistemas de IA.

A OpenAI também reforçou as suas salvaguardas, proibindo a geração de conteúdo inadequado e de recomendações que incentivem comportamentos autodestrutivos. Estas medidas juntam-se a iniciativas anteriores da empresa, incluindo a publicação de orientações dirigidas a adolescentes.

O plano surge num contexto de atenção crescente por parte de legisladores e do público. Em novembro do ano passado, foram apresentadas na Califórnia ações judiciais contra a OpenAI, acusando a empresa de lançar o GPT-4o antes de concluir os testes. As queixas alegam que o produto contribuiu para manipulação psicológica, com consequências trágicas.

A OpenAI espera que o novo plano permita não só identificar ameaças com maior rapidez, mas também encaminhar informação aos investigadores de forma mais célere, aumentando assim a eficácia do combate à exploração infantil.

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário