BR

FGV cobra ação drástica do Google contra o mercado da nudez artificial

FGV cobra ação drástica do Google contra o mercado da nudez artificial
FGV cobra ação drástica do Google contra o mercado da nudez artificial

O avanço da pornografia sintética e a pressão regulatória

O Brasil atingiu um patamar crítico no consumo de ferramentas de inteligência artificial voltadas para a criação de imagens de nudez não consentida. Um estudo recente da FGV Direito Rio recomenda que o Google adote medidas estruturais para interromper o fluxo de descoberta dessas plataformas, conhecidas como ‘nudify’. A cobrança surge após o país registrar um recorde histórico de buscas por esses termos, impulsionado pela facilidade de acesso a editores de imagem baseados em IA generativa.

Medidas de desindexação e barreiras algorítmicas

O documento elaborado pelos pesquisadores propõe uma intervenção direta na arquitetura de busca. A principal recomendação é a desindexação completa de URLs que hospedam essas ferramentas, incluindo domínios espelhos e variações linguísticas. Segundo o estudo, o Google atua como o principal ‘portal de legitimidade’ para essas tecnologias, facilitando o acesso de usuários leigos a ferramentas de abuso digital.

Entre as medidas sugeridas pela FGV, destacam-se:

  • Remoção de sugestões no ‘autocompletar’ para termos como ‘nudify’ e ‘deepnude’;
  • Implementação de filtros semânticos baseados em metadados para bloquear novos sites;
  • Exibição de avisos de segurança alertando sobre a ilegalidade da prática;
  • Criação de canais de denúncia acelerados para vítimas e entidades civis.

O ‘Efeito Grok’ e a vulnerabilidade social

A análise de dados do Google Trends aponta que o interesse por essas ferramentas atingiu o pico máximo (índice 100) na última semana de 2025. Esse fenômeno coincide com a popularização de ferramentas de edição em redes sociais, como o Grok, que reduziu drasticamente a barreira técnica para a manipulação de imagens. Para Yasmin Curzi, coordenadora do estudo, a indexação desses sites amplifica a violência de gênero e o abuso infantil em escala industrial.

O impacto já é visível no ambiente escolar. Dados da SaferNet Brasil identificaram 173 vítimas de deepfakes sexuais em instituições de ensino brasileiras apenas em 2025, afetando predominantemente alunas e professoras. A FGV fundamenta o pedido de remoção no Marco Civil da Internet, na LGPD e no novo ECA Digital, que impõe responsabilidades rigorosas sobre a mitigação de riscos de abuso.

A resposta da big tech

Em nota, o Google afirmou que trabalha continuamente para evoluir suas políticas de busca e reduzir a visibilidade de pornografia sintética. A empresa destacou que já possui ferramentas de remoção mediante denúncia e que atualiza seus sistemas de ranqueamento para rebaixar sites infratores. No entanto, o estudo da FGV argumenta que as medidas atuais são reativas e insuficientes diante da velocidade de replicação dos sites de ‘nudify’.

O Que Você Precisa Saber

O que são sites de ‘nudify’?

São plataformas que utilizam redes neurais para remover digitalmente as roupas de pessoas em fotografias reais, criando imagens de nudez falsa (pornografia sintética) sem qualquer consentimento da vítima.

É crime usar essas ferramentas no Brasil?

Sim. A criação e o compartilhamento de conteúdo íntimo falso são puníveis sob a legislação brasileira, incluindo crimes de difamação, violação de privacidade e, dependendo do contexto, crimes previstos no Estatuto da Criança e do Adolescente.

Como denunciar um link de pornografia sintética?

Vítimas podem solicitar a remoção diretamente ao Google através de formulários de violação de políticas de conteúdo íntimo não consentido. Além disso, é recomendável registrar um boletim de ocorrência e buscar auxílio de organizações como a SaferNet.

[Movimento PB | MOD: MODELS/FL | REF: 69AF60C5]