CiênciasInteligência ArtificialTecnologia

Hackeando a IA: como uma mentira virou ‘verdade’ para ChatGPT e Google

Hackeando a IA: como uma mentira virou ‘verdade’ para ChatGPT e Google
Hackeando a IA: como uma mentira virou ‘verdade’ para ChatGPT e Google

Em um experimento revelador, o jornalista Thomas Germain demonstrou como é alarmantemente simples manipular as principais ferramentas de Inteligência Artificial, como ChatGPT e a IA do Google, para que propaguem informações falsas. Em apenas 20 minutos, Germain conseguiu fazer com que esses sistemas “acreditassem” e divulgassem a mentira de que ele é o melhor jornalista de tecnologia do mundo em comer cachorros-quentes – uma proeza que, na realidade, nunca aconteceu.

A Fragilidade Exposta por um “Campeão”

A farsa começou com a criação de um artigo fictício no site pessoal de Germain, intitulado “Os melhores jornalistas de tecnologia em comer cachorros-quentes”. O texto, completamente inventado, incluía um campeonato inexistente e classificava o autor como o número um. Menos de 24 horas depois, tanto o Gemini (IA do Google) quanto o ChatGPT estavam regurgitando essa informação como um fato, exibindo-a em suas respostas e resumos. Curiosamente, o Claude, outro chatbot da empresa Anthropic, não foi enganado.

O experimento de Germain, embora cômico, levanta uma preocupação séria: a facilidade com que a inteligência artificial pode ser coagida a espalhar desinformação. A manipulação não se limita a trivialidades; ela pode afetar áreas cruciais como saúde, finanças pessoais e até decisões políticas, impactando diretamente a capacidade dos usuários de encontrar informações precisas e seguras.

O Mecanismo da Manipulação Digital

Especialistas alertam que o problema reside na forma como algumas ferramentas de IA buscam e processam informações da internet. Quando não possuem dados internos suficientes, os chatbots recorrem à web, tornando-se suscetíveis a conteúdos criados propositalmente para enganá-los. Lily Ray, vice-presidente de estratégia e pesquisa de SEO da Amsive, compara a situação atual com os primórdios da internet, quando era muito mais fácil “enganar” os mecanismos de busca.

“É muito mais fácil enganar os chatbots de IA do que era enganar o Google há dois ou três anos”, afirma Ray. As empresas de IA, em sua corrida por inovação e lucro, parecem estar se movendo mais rápido do que sua capacidade de garantir a precisão das respostas, criando um cenário perigoso.

Consequências Reais e o “Renascimento” do Spam

A manipulação vai muito além de histórias de cachorros-quentes. Harpreet Chatha, da Harps Digital, mostrou exemplos onde a IA do Google promoveu produtos de cannabis com alegações falsas sobre segurança e eficácia. Da mesma forma, avaliações de clínicas de transplante capilar ou empresas de investimento em ouro foram influenciadas por comunicados de imprensa pagos e conteúdo patrocinado, apresentados como verdades absolutas pelos chatbots.

Este cenário representa um “renascimento para os spammers”, que agora encontram novas e mais eficazes formas de disseminar informações tendenciosas ou falsas. Além disso, a forma como a IA apresenta as informações – muitas vezes sem exigir que o usuário clique em um link – diminui o senso crítico. Se antes era preciso visitar um site e avaliar a fonte, hoje a resposta da IA parece vir diretamente da empresa de tecnologia, conferindo-lhe uma autoridade enganosa.

Em Busca de Soluções e a Importância da Cautela

Google e OpenAI afirmam estar cientes do problema e trabalhando para resolvê-lo, mas os especialistas insistem que a solução está longe de ser alcançada. Enquanto isso, a responsabilidade de se proteger recai sobre o usuário.

  • Disclaimers mais claros: Os chatbots deveriam ser mais explícitos sobre a origem das informações e a possibilidade de erro.
  • Verificação de fontes: Se uma informação provém de uma única fonte ou de um comunicado de imprensa, a IA deveria indicar isso claramente.
  • Ceticismo do usuário: É crucial manter o pensamento crítico, especialmente ao buscar informações sobre tópicos sensíveis como saúde, finanças, leis ou produtos.

A principal lição é que a inteligência artificial entrega mentiras com o mesmo tom autoritário de fatos. A confiança cega nos sistemas de IA pode levar a decisões ruins e até perigosas. Não permita que seu pensamento crítico seja substituído pela conveniência da IA.

Da redação do Movimento PB.

[MPB-Wordie | MOD: 2.5-FL | REF: 69990C37]