Apple e Google vendem apps de deepfakes sexuais escondidos
Relatório expõe que lojas oficiais de Apple e Google continuam oferecendo ferramentas para criar conteúdo pornográfico deepfake, apesar de políticas contra esse tipo de aplicativo.

Um relatório recém-divulgado revelou que as lojas de aplicativos da Apple (App Store) e do Google (Play Store) continuam oferecendo ferramentas para criar deepfakes sexuais, aquele conteúdo pornográfico fake gerado por inteligência artificial. A descoberta é particularmente preocupante porque contradiz as políticas públicas de ambas as plataformas, que supostamente proíbem esse tipo de aplicativo. Segundo a investigação, essas ferramentas movimentam milhões de dólares e conseguem permanecer nos resultados de busca usando estratégias de disfarçamento e nomes genéricos.
O crescimento da IA generativa e o lado sombrio
Os deepfakes sexuais explodem em popularidade desde que ferramentas de IA generativa ficaram acessíveis ao público geral. Plataformas como Stable Diffusion, DALL-E e outras ofereceram a democratização de tecnologias antes restritas a estúdios profissionais, o que trouxe criatividade legítima, mas também abriu portas para usos predatórios. A criação de conteúdo pornográfico fake de celebridades e pessoas comuns virou um problema tão grave que países como França, Reino Unido e Tailândia começaram a criminalizar a prática. No Brasil, ainda não há legislação específica, mas organizações de direitos humanos já pressionam por ações regulatórias.
A questão é particularmente delicada na cultura pop. Celebridades de filmes, séries e jogos têm sido alvo recorrente de deepfakes sexuais não consentidos, gerando debates éticos profundos sobre privacidade, consentimento e a responsabilidade das plataformas. O mercado do entretenimento percebeu a ameaça tão claramente que estúdios como Universal começaram a tomar medidas legais contra criadores de conteúdo deepfake.
Como os apps burlam as políticas das lojas
O relatório destaca que essas aplicações conseguem permanecer disponíveis através de técnicas sofisticadas de evasão. Os desenvolvedores usam nomes vagos e genéricos para seus apps, evitam descrições explícitas na listagem das lojas, e alguns até disfarçam suas funções reais sob a aparência de editores de fotos ou geradores de arte. Além disso, muitos apps oferecem versões gratuitas com funcionalidade limitada nas lojas, enquanto a versão completa com as ferramentas deepfake fica disponível através de pagamentos internos ou assinaturas.
A estratégia é claramente pensada para escapar dos sistemas de moderação automática das lojas. Apple e Google usam uma combinação de algoritmos de IA e revisão humana para verificar novos aplicativos, mas claramente existem brechas. Alguns apps inclusive conseguem retornar aos resultados de busca após serem removidos, usando variações do nome ou mudanças superficiais no código. A investigação estimou que essas ferramentas faturaram milhões de dólares em um período relativamente curto, evidenciando que há demanda financeira significativa.
Impacto social e as vítimas invisíveis
Enquanto a indústria do entretenimento sofre com ataques à imagem de celebridades, o impacto real recai frequentemente sobre pessoas comuns, especialmente mulheres. Deepfakes sexuais não consentidos causam danos psicológicos profundos, com vítimas relatando humilhação, ansiedade extrema e até ideações suicidas. O problema escala rapidamente porque uma vez criado, o conteúdo spread descontroladamente nas redes sociais, sendo compartilhado em fóruns, Telegram e outros canais de distribuição descentralizados.
Grupos de defesa de mulheres apontam que a disponibilidade fácil desses apps nas lojas oficiais normaliza uma forma de abuso sexual digital. A questão se conecta diretamente com problemas de gênero na tecnologia: a imensa maioria das vítimas de deepfake pornô são mulheres, enquanto os criadores e consumidores são predominantemente homens. Ativistas argumentam que plataformas como Apple e Google têm responsabilidade corporativa em policiá-los com mais rigor.
Próximos passos e pressão regulatória
A revelação do relatório já está gerando pressão política significativa. Legisladores em diversos países começam a exigir respostas de Apple e Google sobre por que esses apps continuam disponíveis apesar de violarem suas próprias políticas. A União Europeia está trabalhando em regulações específicas através da Digital Services Act, que promete penalidades severas para plataformas que não removam conteúdo prejudicial. Nos Estados Unidos, há projetos de lei em discussão que criminalizariam a criação de deepfakes pornô sem consentimento.
Apple e Google, ao serem questionadas, provavelmente aumentarão seus esforços de moderação, mas o jogo do gato e rato provavelmente continuará enquanto a tecnologia de IA seguir evoluindo. Alguns especialistas argumentam que a solução real passa por educação digital, investimento em ferramentas de detecção de deepfakes, e criminalização internacional coordenada. Enquanto isso, a cultura pop e a sociedade como um todo lidam com uma ameaça digital que não vai desaparecer tão cedo.
O relatório funciona como um alerta: a tecnologia mais sofisticada do momento está sendo usada para violar a dignidade e privacidade de pessoas reais. Apple e Google enfrentam agora o desafio de equilibrar liberdade de inovação com responsabilidade social, numa batalha que só tende a intensificar nos próximos anos.



