Tecnologia

Caso Scarlett Johansson Reforça Necessidade de Regulação de IA

O uso da voz semelhante à de Scarlett Johansson no ChatGPT-4o levanta debates urgentes sobre a regulamentação ética da inteligência artificial.


Caso Scarlett Johansson Evidencia Urgência na Regulação de IA

Em 13 de março, a OpenAI lançou a mais recente versão de sua ferramenta mais conhecida, o ChatGPT-4o, também chamado de “Omni”. “Omni”, em latim, significa “tudo”, destacando a capacidade do novo ChatGPT de trabalhar com diferentes formatos de linguagem natural, incluindo texto, voz e imagem.

Entre as inovações desta versão está a habilidade do sistema de “falar” o resultado das interações, utilizando uma voz que imita a fala humana. Com isso, o ChatGPT se consolidou como a ferramenta de inteligência artificial multimodal mais avançada disponível ao público.

Contudo, o lançamento do GPT-4o gerou controvérsias devido ao uso de uma voz muito parecida com a da atriz Scarlett Johansson. No dia do lançamento, além das vozes Juniper, Ember, Cove e Breeze, estava disponível uma quinta voz chamada “Sky”, que Johansson considerou assustadoramente semelhante à sua.

Segundo Johansson, o CEO da OpenAI, Sam Altman, a abordou em setembro de 2023 propondo um acordo para usar sua voz na nova versão do ChatGPT, inspirado pelo sucesso do filme “Her” de 2013, no qual Johansson dublou a inteligência artificial Samantha. Johansson recusou a proposta por motivos pessoais, mas, meses depois, amigos e familiares notaram a semelhança da voz “Sky” com a dela.

Mesmo com a recusa de Johansson, a voz “Sky” foi lançada com um timbre muito semelhante ao da atriz. A polêmica aumentou quando Altman fez uma referência ao filme “Her” em seu perfil na rede social X (anteriormente Twitter), sugerindo uma ligação intencional entre a voz “Sky” e a participação de Johansson no filme.

Em resposta, Altman afirmou que a voz “Sky” não era uma imitação de Johansson e que havia sido gravada por outra atriz profissional antes da proposta. No entanto, diante das insinuações de Johansson sobre um possível processo, a OpenAI suspendeu a disponibilização da voz “Sky”.

Direitos de Personalidades na Era Digital

O caso de Scarlett Johansson ressalta as preocupações de Hollywood em relação ao uso de inteligência artificial. Sem regulamentação adequada, clones de voz e imagem podem ser usados sem compensação aos seus titulares, expondo uma vulnerabilidade que precisa ser abordada pelas leis.

A falta de consentimento no uso de vozes sintetizadas semelhantes às de figuras públicas evidencia a necessidade de regulamentação. Afinal, até que ponto uma voz “semelhante” deveria estar protegida? Qual o grau de similaridade necessário para garantir a proteção por direitos autorais?

Regulamentação e Controle

A União Europeia recentemente aprovou o AI Act, um marco regulatório que limita o desenvolvimento e uso de IA na comunidade europeia. Entre suas principais medidas estão a proibição de uso de IA para manipulação cognitivo-comportamental, pontuação social e categorização de pessoas, além do rigoroso controle sobre sistemas de alto risco.

Embora modelos de fundação como o ChatGPT não sejam considerados de alto risco, o AI Act exige transparência e proteção a direitos autorais, incluindo a necessidade de divulgar que o conteúdo foi gerado por IA, salvaguardas contra conteúdo ilegal e a publicação de resumos de dados protegidos por direitos autorais usados para treinamento.

No Brasil, o Projeto de Lei nº 2338 de 2023 propõe diretrizes para o uso de IA, destacando a proteção da privacidade, transparência e explicabilidade. A transparência refere-se à obrigação das empresas de esclarecer as operações dos modelos de IA, incluindo os dados utilizados, os algoritmos e os resultados.

Conclusão

A polêmica envolvendo a voz de Scarlett Johansson no ChatGPT-4o sublinha a urgência da regulamentação da inteligência artificial. Governo, indústria e sociedade civil precisam colaborar para criar e implementar regras que assegurem o uso ético e seguro da IA, protegendo direitos individuais e promovendo a inovação responsável. Sem regulamentação clara, há risco de violações de privacidade e exploração comercial não autorizada de atributos pessoais como voz e imagem. O caso Johansson é um exemplo claro dessa necessidade urgente.


Texto adaptado de várias fontes, incluindo The Conversation e CNN .

Compartilhar: