## Apple Combate IA Nudista e Protege Usuários de Deepfakes Sexuais!

25/04/2025
6 visualizações
Imagem principal do post

## Apple Age Rápido e Remove Apps de IA que Despiam Pessoas Virtualmente!

A Apple acaba de dar um basta em aplicativos que usavam inteligência artificial para criar imagens sexualizadas de pessoas sem consentimento. Imagine a cena: você tira uma foto inocente e, de repente, ela é usada para criar uma versão "nua" sua, sem que você nunca tenha autorizado isso. Assustador, né?

A gigante da tecnologia agiu rápido após uma investigação bombástica revelar que esses apps estavam sendo divulgados no TikTok com a promessa de "tirar a roupa" de qualquer pessoa em fotos. A ideia era criar deepfakes, aquelas montagens super realistas que podem enganar muita gente, removendo roupas digitalmente e criando imagens que beiram o pornográfico, tudo sem a permissão das vítimas.

No início, alguns desses aplicativos se vendiam como ferramentas para "apimentar selfies". Mas a verdade veio à tona com anúncios pagos no TikTok, que mostravam a real intenção: gerar deepfakes com conteúdo sexual.

Uma investigação revelou que os anúncios incentivavam o uso dos aplicativos para criar "as fotos mais quentes da sua paixão" ou "colocar qualquer um de biquíni", muitas vezes ignorando completamente a questão do consentimento. Para piorar, algumas propagandas usavam imagens manipuladas de atrizes famosas para mostrar como os aplicativos funcionavam.

A Apple mostrou que não tolera esse tipo de prática e agiu para proteger a privacidade e a dignidade de seus usuários. Que outras empresas sigam o exemplo!

Comentários

Nenhum comentário ainda. Seja o primeiro a comentar!