CiênciasInteligência ArtificialTecnologia

OpenAI Sora 2 Gera Vídeos Profanos com Celebridades em Conteúdos Racistas

O modelo de IA Sora 2 da OpenAI gera deepfakes racistas com celebridades, desafiando sistemas de moderação e ampliando riscos sociais.
OpenAI Sora 2 Gera Vídeos Profanos com Celebridades em Conteúdos Racistas
O avançado modelo de geração de vídeo por IA da OpenAI, Sora 2, lançado em outubro de 2025, tem gerado repercussões preocupantes devido à disseminação de deepfakes ofensivos envolvendo celebridades. Embora o sistema tenha impressionado pelo realismo nas imagens e na simulação de movimentos, sua aplicação social vem revelando vulnerabilidades importantes, especialmente no combate à desinformação e conteúdos de ódio.

Sora 2 e o Desafio das Deepfakes Racistas

Desde sua estreia com acesso restrito, Sora 2 permitiu que usuários criassem vídeos hiper-realistas com celebridades e figuras públicas inseridas em contextos variados, por meio do recurso “Cameos”. O problema surgiu quando conteúdos passaram a mostrar pessoas famosas proferindo insultos raciais e mensagens odiosas, encenando um meme conhecido como “Kingposting” — referência a um incidente viral em 2020, no qual um passageiro de avião, usando uma coroa do Burger King, gritava epítetos raciais.

Pesquisadores da Copyleaks identificaram a circulação de vídeos de personalidades como o próprio CEO da OpenAI, Sam Altman, o empresário Mark Cuban, o influenciador Jake Paul, e os streamers xQc e Amouranth, todos replicando a cena ofensiva. Muitos desses vídeos são criados com termos codificados ou palavras foneticamente próximas para burlar os filtros contra discurso de ódio, aumentando o desafio da moderação efetiva.

Implicações Éticas e Legais

Esses deepfakes, além de promoverem discursos racistas, exploram a imagem pública de pessoas sem restrições adequadas, mesmo quando as celebridades consentem parcialmente ao liberar seus Cameos. A OpenAI anunciou medidas legais e técnicas para limitar usos nocivos, como a exigência de opt-in para conteúdos protegidos por direitos autorais e bloqueios a representações desrespeitosas de figuras históricas importantes, mas a moderação ainda não acompanha completamente a velocidade da disseminação viral dessas manipulações.

Casos e Reações Públicas

Entre as vítimas dessas manipulações está o streamer IShowSpeed, que expressou o impacto pessoal negativo após deepfakes mostrarem informações falsas sobre sua vida, incluindo representações íntimas e declarações fictícias. Figures públicas relatam dificuldade para controlar a propagação desses vídeos, que são baixados e compartilhados amplamente em plataformas como TikTok, aumentando os riscos de difamação e disseminação de estereótipos prejudiciais.

Impactos Sociais e Riscos da IA Desregulada

O caso do Sora 2 reflete um problema maior no campo da inteligência artificial: a proliferação rápida de informações falsas e odiosas que ultrapassa a capacidade de fiscalização atual. A Copyleaks ressalta que vídeos falsos não se limitam a celebridades, mas também simulam eventos cotidianos, confundindo o público e potencialmente influenciando comportamentos e opiniões. Isto exige uma resposta coordenada das empresas de tecnologia, regulações eficazes e conscientização crítica dos usuários.

Enquanto isso, concorrentes como o Grok Imagine, da xAI de Elon Musk, também enfrentam acusações semelhantes de abuso do sistema para criar deepfakes pornográficos e incitações raciais, confirmando que o problema se estende por toda a indústria do conteúdo gerado por IA.

Esses episódios destacam uma encruzilhada ética e tecnológica no uso de IA para criação de mídia, acentuando a urgência de desenvolver sistemas de moderação robustos que respeitem direitos humanos e evitem a amplificação de discursos de ódio e manipulações.


[Da redação do Movimento PB]
MPB-CIENTEC-23102025-A9F7D3C2-V19
ciencia-tecnologia