Internacional

Fabricante do ChatGPT derruba redes de influência que usavam suas ferramentas de IA em Rússia, China, Irã e Israel


Operações visavam manipular opinião pública ou moldar resultados políticos, ocultando sua verdadeira identidade; empresa afirma, porém, que alcance foi limitado

A OpenAI disse que bloqueou cinco operações secretas de tentativa de influência nos últimos três meses, incluindo redes em Rússia, China, Irã e Israel que usavam os produtos de inteligência artificial do fabricante do ChatGPT para tentar manipular a opinião pública ou moldar os resultados políticos, ocultando sua verdadeira identidade.

O novo relatório do fabricante do ChatGPT chega em um momento de preocupação generalizada sobre o papel da inteligência artificial nas eleições globais programadas para este ano. Em suas descobertas, a OpenAI listou as maneiras pelas quais redes de influência usaram suas ferramentas para enganar as pessoas com mais eficiência, incluindo o uso de IA para gerar textos e imagens em maior volume e com menos erros de linguagem do que seria possível apenas com humanos.

No entanto, a empresa avalia que, em última análise, essas campanhas não conseguiram aumentar significativamente seu alcance como resultado do uso dos serviços da OpenAI.

— No último ano e meio, houve muitas perguntas sobre o que poderia acontecer se as operações de influência usassem IA generativa — disse Ben Nimmo, pesquisador principal da equipe de Inteligência e Investigações da OpenAI, em uma entrevista coletiva na quarta-feira. — Com este relatório, queremos realmente começar a preencher algumas das lacunas.

A empresa afirma que definiu seus alvos como “operações de influência” secretas que são “tentativas enganosas de manipular a opinião pública ou influenciar os resultados políticos sem revelar a verdadeira identidade ou as intenções dos atores por trás delas”. Segundo Nimmo, os grupos são diferentes das redes de desinformação, pois muitas vezes podem promover informações factualmente corretas, mas de forma enganosa.

Embora as redes de propaganda usem plataformas de mídia social há muito tempo, o uso de ferramentas de IA generativas é relativamente novo. A OpenAI disse que em todas as operações que identificou, o material gerado por IA foi usado juntamente com formatos mais tradicionais, como textos escritos manualmente ou memes nas principais redes sociais. Além de usar a IA para gerar imagens, textos e biografias de mídia social, algumas redes de influência também usaram os produtos da OpenAI para aumentar sua produtividade, resumindo artigos ou depurando códigos para robôs.

As cinco redes identificadas pela OpenAI incluíam grupos como o pró-Rússia “Doppelganger”, a rede pró-China “Spamouflage” e uma operação iraniana conhecida como União Internacional de Mídia Virtual, ou IUVM. A OpenAI também sinalizou redes anteriormente desconhecidas que a startup diz ter identificado pela primeira vez como provenientes da Rússia e de Israel.

O novo grupo russo, que a OpenAI apelidou de “Bad Grammar”, usou os modelos de IA da startup, bem como o aplicativo de mensagens Telegram para configurar um canal de spam de conteúdo, disse a empresa. Primeiro, o grupo secreto usou os modelos da OpenAI para depurar o código que pode automatizar a postagem no Telegram e, em seguida, gerou comentários em russo e inglês para responder a essas postagens do Telegram usando dezenas de contas. Uma conta citada pela OpenAI postou comentários argumentando que os Estados Unidos não deveriam apoiar a Ucrânia.

“Estou farto e cansado desses idiotas com danos cerebrais brincando enquanto os americanos sofrem”, dizia o texto. “Washington precisa definir suas prioridades ou sentirá a força total do Texas!”

A OpenAI identificou parte do conteúdo gerado por IA ao notar que os comentários incluíam erros comuns de IA em mensagens, como: “Como modelo de linguagem de IA, estou aqui para ajudar”. A empresa também disse que está usando suas próprias ferramentas de IA para identificar e se defender contra essas operações de influência.

Na maioria dos casos, as mensagens não pareciam ter grande repercussão, ou os usuários humanos identificaram o conteúdo publicado como gerado por IA. Apesar de seu alcance limitado, “este não é o momento para complacência”, disse Nimmo.

— A história mostra que as operações de influência que passaram anos sem chegar a algum lugar podem de repente despontar se ninguém estiver procurando por elas — acrescentou.

Nimmo também reconheceu que provavelmente há grupos usando ferramentas de IA que a empresa não conhece:

— Não sei quantas operações ainda existem por aí, mas sei que há muitas pessoas procurando por elas, inclusive nossa equipe.

Outras empresas, como a Meta Platforms Inc., fizeram regularmente divulgações semelhantes sobre operações de influência no passado. A OpenAI disse que está compartilhando indicadores de ameaças com colegas do setor e que parte do objetivo de seu relatório é ajudar outras pessoas a realizar esse tipo de trabalho de detecção. A empresa afirmou ainda que planeja compartilhar mais relatórios no futuro.

Compartilhar: