Destaque

Inteligência Artificial: nudes falsos inundam a internet e estão arrasando a vida de adolescentes

Quando Gabi Belle soube que havia uma foto dela nua circulando na internet, seu corpo ficou gelado. A influenciadora do YouTube nunca havia posado para a imagem, que a mostrava em um campo sem roupas. Ela sabia que era falsa.

Mas quando Belle, 26, enviou uma mensagem a um colega pedindo ajuda para remover a imagem, ele lhe disse que havia quase 100 fotos falsas espalhadas pela web, a maioria hospedada em sites conhecidos por hospedar pornografia gerada por inteligência artificial. Elas foram retiradas em julho, diz Belle, mas novas imagens que a retratavam em situações sexuais explícitas já surgiram.

A inteligência artificial (IA) está alimentando um boom sem precedentes este ano em imagens e vídeos pornográficos falsos. Isso é possível graças ao aumento de ferramentas de IA baratas e fáceis de usar que podem “despir” pessoas em fotografias – analisando como seus corpos nus ficariam e impondo isso em uma imagem – ou trocar um rosto em um vídeo pornográfico.

Nos 10 principais sites que hospedam fotos pornográficas geradas por IA, os nudes falsos aumentaram em mais de 290% desde 2018, de acordo com Genevieve Oh, analista da área. Esses sites apresentam celebridades e figuras políticas, como a deputada Alexandria Ocasio-Cortez, de Nova York, EUA, ao lado de adolescentes comuns, cujas semelhanças foram aproveitadas por agentes mal-intencionados para extorquir dinheiro ou realizar fantasias particulares.

As vítimas têm pouco recurso. Não há nenhuma lei federal nos EUA que regule a pornografia deep fake, e apenas alguns estados promulgaram regulamentações. A ordem executiva de IA do presidente Biden emitida na segunda-feira, 30, recomenda, mas não exige, que as empresas rotulem fotos, vídeos e áudio gerados por IA para indicar o trabalho gerado por computador.

Enquanto isso, estudiosos do direito advertem que as imagens falsas de IA podem não se enquadrar nas proteções de direitos autorais para semelhanças pessoais, porque elas se baseiam em conjuntos de dados preenchidos por milhões de imagens. “Esse é claramente um problema muito sério”, diz Tiffany Li, professora de direito da Universidade de São Francisco.

O advento das imagens de IA representa um risco especial para mulheres e adolescentes, muitos dos quais não estão preparados para essa visibilidade. Um estudo de 2019 da Sensity AI, uma empresa que monitora deep fakes, descobriu que 96% das imagens deep fake são pornográficas e 99% dessas fotos têm como alvo as mulheres.

Piancó - LGNET

Artigos relacionados

DEIXAR UM COMENTÁRIO

Política de moderação de comentários: A legislação brasileira prevê a possibilidade de se responsabilizar o blogueiro ou o jornalista responsável por blogs e/ou sites e portais de notícias, inclusive quanto a comentários. Portanto, o jornalista responsável por este Portal de Notícias reserva a si o direito de não publicar comentários que firam a lei, a ética ou quaisquer outros princípios da boa convivência. Não serão aceitos comentários anônimos ou que envolvam crimes de calúnia, ofensa, falsidade ideológica, multiplicidade de nomes para um mesmo IP ou invasão de privacidade pessoal e/ou familiar a qualquer pessoa. Comentários sobre assuntos que não são tratados aqui também poderão ser suprimidos, bem como comentários com links. Este é um espaço público e coletivo e merece ser mantido limpo para o bem-estar de todos nós.
Botão Voltar ao topo