Alunas de diferentes estados americanos foram vítimas de nudes falsos criados por colegas de classe, em casos semelhantes ao visto no Brasil
Em 2022, escolas do mundo inteiro foram pegas de surpresa com a súbita popularidade de chatbots alimentados por inteligência artificial (IA), como o ChatGPT, da empresa OpenAI. Se em um primeiro momento as maiores preocupações dos educadores giravam em torno de possíveis colas e plágios feitos pelos alunos, agora um fenômeno ainda mais alarmante — e que já foi visto no Brasil — tem abalado comunidades escolares nos Estados Unidos: a geração de nudes falsos por IA.
Meninos em vários estados americanos tem usado aplicativos de IA amplamente disponíveis para criar nudes de suas colegas de classe a partir de fotos reais das jovens. Em alguns casos, eles compartilharam as imagens falsificadas no refeitório da escola, no ônibus escolar ou em grupos de conversas em plataformas como Snapchat e Instagram.
Tais imagens digitalmente alteradas — conhecidas como “deepfakes” ou “deepnudes” — podem ter consequências devastadoras. Especialistas em exploração sexual infantil dizem que o uso de imagens geradas por IA não consensuais para assediar, humilhar e intimidar meninas pode ter grandes impactos na saúde mental, reputações e segurança física, além de representar riscos para suas perspectivas de faculdade e carreira no futuro. No mês passado, o FBI alertou que é ilegal distribuir material de abuso sexual infantil gerado por computador, incluindo imagens geradas por IA de menores identificáveis envolvidas em conduta sexualmente explícita.
No entanto, o uso de aplicativos de IA por estudantes é tão novo que alguns distritos dos Estados Unidos parecem menos preparados para lidar com isso do que outros — o que torna o ambiente ainda mais inseguro para as alunas.
— Esse fenômeno surgiu muito repentinamente e pode estar pegando muitos distritos escolares despreparados e inseguros sobre o que fazer — disse Riana Pfefferkorn, pesquisadora do Observatório de Internet da Universidade Stanford, que escreve sobre questões legais relacionadas a imagens de abuso sexual infantil geradas por computador.
Em Westfield, no estado de Nova Jersey, algumas meninas do 10º ano na Westfield High School — incluindo Francesca, a filha de 14 anos de Dorota Mani — alertaram a diretoria da escola, em outubro, que os meninos de sua classe haviam usado software de inteligência artificial para fabricar imagens sexualmente explícitas delas e estavam circulando as fotos falsificadas.
Cinco meses depois, os Manis e outras famílias afirmam que o distrito fez pouco para abordar publicamente as imagens adulteradas ou atualizar as políticas escolares para dificultar o uso exploratório de IA.
— Parece que a administração da Westfield High School e o distrito estão participando de uma aula magistral de fazer com que esse incidente desapareça no ar — disse Mani, fundadora de uma creche local, aos membros do conselho escolar durante a reunião.
Em um comunicado, o distrito escolar disse que abriu uma “investigação imediata” ao tomar conhecimento do incidente, notificou imediatamente e consultou a polícia, e forneceu aconselhamento em grupo para a classe do segundo ano.
“Todos os distritos escolares estão lidando com os desafios e impactos da inteligência artificial e de outras tecnologias disponíveis para os alunos a qualquer momento e em qualquer lugar”, disse Raymond González, superintendente das escolas públicas de Westfield, no comunicado.
Na Beverly Vista Middle School, em Beverly Hills, Califórnia, a direção entrou em contato com a polícia em fevereiro depois de descobrir que cinco meninos haviam criado e compartilhado imagens explícitas geradas por IA de colegas do sexo feminino. Duas semanas depois, o conselho escolar aprovou a expulsão de cinco alunos, segundo documentos do distrito.
Michael Bregy, superintendente do Distrito Escolar Unificado de Beverly Hills, disse que ele e outros líderes escolares queriam estabelecer um precedente nacional para que as escolas não permitam que os alunos criem e circulem imagens sexualmente explícitas de seus colegas.
— Isso é um bullying extremo quando se trata de escolas — disse o Bregy, observando que as imagens explícitas eram “perturbadoras e violadoras” para as meninas e suas famílias. — É algo que absolutamente não toleraremos aqui.
As escolas nas pequenas e ricas comunidades de Beverly Hills e Westfield foram algumas das primeiras a reconhecer publicamente os incidentes com deepnude. Os detalhes dos casos ilustram a variabilidade das respostas escolares.
O incidente de Westfield começou no verão passado, quando um estudante do ensino médio pediu para adicionar como amigo uma colega de 15 anos no Instagram, que tinha uma conta privada, de acordo com detalhes de uma ação judicial contra o menino e seus pais movida pela jovem e sua família.
Depois que ela aceitou o pedido, o jovem copiou fotos dela e de várias outras colegas de escola de suas contas na rede social, usou um aplicativo de IA para fabricar imagens sexualmente explícitas, “totalmente identificáveis” das meninas e as compartilhou com colegas de escola através de um grupo do Snapchat. A Westfield High começou a investigar no final de outubro.
Segundo Francesca Mani, enquanto a direção da escola chama os meninos suspeitos de forma discreta durante a investigação, ela e outras meninas da classe que foram vítimas das deepfakes foram chamadas à sala da administração escolar por meio dos alto-falantes do sistema de comunicação da escola.
Naquela semana, Mary Asfendis, a diretora da escola, enviou um e-mail aos pais alertando sobre “uma situação que resultou em desinformação generalizada”. O e-mail continuou descrevendo os deepfakes como um “incidente muito sério” e disse que, apesar da preocupação dos alunos com o possível compartilhamento de imagens, a escola acreditava que “qualquer imagem criada foi deletada e não está sendo circulada”.
O aluno acusado de fabricar as imagens foi suspenso por um ou dois dias, segundo Dorota Mani, mãe de uma das vítimas.
Logo depois, ela e sua filha começaram a falar publicamente sobre o incidente, instando os distritos escolares, legisladores estaduais e o Congresso a promulgarem leis e políticas proibindo especificamente deepfakes explícitos.
— Temos que começar a atualizar nossa política escolar — disse Francesca Mani, agora com 15 anos, em uma entrevista recente. — Porque se a escola tivesse políticas de IA, então alunos como eu teriam sido protegidos.
Alguns pais, incluindo Dorota Mani, registraram queixas de assédio sobre as imagens explícitas. No entanto, em março a escola ainda não havia fornecido aos responsáveis um relatório oficial sobre o incidente.
O distrito escolar de Westfield não quiseram comentar sobre quaisquer ações disciplinares para preservar a confidencialidade do aluno. Em um comunicado, o superintendente González disse que o distrito estava fortalecendo seus esforços “educando nossos alunos e estabelecendo diretrizes claras para garantir que essas novas tecnologias sejam usadas de forma responsável”.
Em Beverly Hills, as escolas adotaram uma posição pública mais rígida.
Quando a direção soube, em fevereiro, que meninos do oitavo ano da Beverly Vista Middle School haviam criado imagens explícitas de suas colegas de 12 e 13 anos, rapidamente enviaram um e-mail com o assunto: “Uso Horroroso da Inteligência Artificial” para todos os pais, funcionários e alunos do ensino médio e fundamental da região. A mensagem instava os membros da comunidade a compartilharem informações com a escola para ajudar a garantir que o uso “perturbador e inapropriado” de IA pelos alunos “pare imediatamente”.
Também alertou que o distrito estava preparado para instituir punições severas. “Qualquer aluno encontrado criando, disseminando ou possuindo imagens geradas por IA dessa natureza enfrentará ações disciplinares”, incluindo uma recomendação de expulsão, disse a mensagem.
O superintendente Bregy disse que as escolas e os legisladores precisavam agir rapidamente porque o abuso de IA estava fazendo os alunos se sentirem inseguros nas escolas.
— Você ouve muito sobre segurança física nas escolas — disse ele. — Mas o que você não está ouvindo é sobre essa invasão à segurança pessoal e emocional dos alunos.
Fonte: O Globo, reprodução