AtemporalUncategorized

A Nova Praga da Internet: Como o “Slop” Gerado por IA Está Atingindo a Web

Seu email está cheio de spam. Sua caixa de correio está repleta de mala direta. Agora, seu navegador web enfrenta um novo problema: o slop.

“Slop” é o termo usado para descrever o conteúdo gerado por inteligência artificial (IA) que é jogado na internet sem qualquer cuidado, apenas para ser visualizado por qualquer pessoa. Ao contrário dos chatbots, o slop não é interativo e raramente tem a intenção de responder às perguntas dos leitores ou atender suas necessidades. Ele serve principalmente para criar a aparência de conteúdo feito por humanos, lucrar com a receita de publicidade e direcionar a atenção dos motores de busca para outros sites.

Assim como o spam, quase ninguém quer ver slop, mas a economia da internet leva à sua criação. Modelos de IA tornam fácil a geração automática de grandes quantidades de texto ou imagens, fornecendo respostas a qualquer consulta de pesquisa imaginável, carregando paisagens intermináveis e histórias inspiradoras, e criando um exército de comentários de apoio. Se apenas alguns usuários acessarem o site, compartilharem o meme ou clicarem nos anúncios hospedados, o custo de criação do slop é compensado.

O desleixo gerado pela imagem levou a reformulações bizarras da iconografia religiosa.

No entanto, como o spam, seu efeito geral é negativo: o tempo e o esforço perdidos pelos usuários que agora precisam peneirar o slop para encontrar o conteúdo que realmente procuram superam em muito o lucro para o criador do slop.

“Eu acho que ter um nome para isso é muito importante, porque dá às pessoas uma maneira concisa de falar sobre o problema”, diz o desenvolvedor Simon Willison, um dos primeiros a adotar o termo “slop”. “Antes do termo ‘spam’ entrar em uso geral, não era necessariamente claro para todos que mensagens de marketing indesejadas eram uma má forma de comportamento. Espero que ‘slop’ tenha o mesmo impacto – pode deixar claro para as pessoas que gerar e publicar conteúdo não revisado gerado por IA é um mau comportamento.”

O slop é mais obviamente prejudicial quando está simplesmente errado. Willison apontou para um artigo de viagem gerado por IA da Microsoft que listava o “banco de alimentos de Ottawa” como uma atração imperdível na capital canadense como um exemplo perfeito do problema. Ocasionalmente, uma peça de slop é tão inútil que se torna viral por si só, como o artigo de aconselhamento de carreira que explica seriamente a piada de um quadrinho de jornal de décadas atrás: “eles me pagam em minhocas”.

Livros gerados por IA também se tornaram um problema. Um exemplo proeminente ocorreu quando catadores de cogumelos amadores foram recentemente advertidos a evitar livros de forrageamento vendidos na Amazon que pareciam ter sido escritos por chatbots e continham conselhos perigosos para quem esperava distinguir um fungo letal de um comestível.

Imagens geradas por IA também floresceram no Facebook, como imagens de Jesus Cristo com camarões no lugar dos membros, crianças em carros de garrafas plásticas, casas dos sonhos falsas e mulheres incrivelmente velhas afirmando terem assado seu bolo de 122º aniversário, ganhando milhares de compartilhamentos.

Jason Koebler, do site de notícias de tecnologia 404 Media, acredita que a tendência representa o que ele chama de “internet zumbi”. O aumento do slop, diz ele, transformou a rede social em um espaço onde “uma mistura de bots, humanos e contas que eram humanos mas não são mais se misturam para formar um site desastroso onde há pouca conexão social de verdade.”

Nick Clegg, presidente de assuntos globais da Meta, empresa-mãe do Facebook, escreveu em fevereiro que a rede social está treinando seus sistemas para identificar conteúdo feito por IA. “À medida que a diferença entre conteúdo humano e sintético se torna indistinta, as pessoas querem saber onde está a fronteira,” escreveu ele.

O problema começou a preocupar a principal fonte de receita da indústria de mídia social: as agências de publicidade que pagam para colocar anúncios ao lado do conteúdo. Farhad Divecha, diretor administrativo da agência de marketing digital do Reino Unido AccuraCast, diz que agora está encontrando casos em que os usuários estão marcando erroneamente anúncios como slop gerado por IA quando não são.

“Vimos casos em que as pessoas comentaram que um anúncio era lixo gerado por IA quando não era,” diz ele, acrescentando que isso pode se tornar um problema para a indústria de mídia social se os consumidores “começarem a sentir que estão sendo servidos lixo o tempo todo.”

Combater spam nas caixas de entrada exigiu um enorme esforço intersetorial e levou a uma mudança fundamental na natureza do email. Grandes provedores de webmail como o Gmail monitoram agressivamente suas próprias plataformas para reprimir os spammers e são cada vez mais desconfiados de emails provenientes de servidores de email não confiáveis. Eles também aplicam sistemas complexos e em grande parte não documentados de IA para tentar detectar spam diretamente, em um constante jogo de gato e rato com os próprios spammers.

Para o slop, o futuro é menos promissor: as maiores empresas do mundo passaram de guardiões a caçadores. Na semana passada, o Google anunciou um plano ambicioso para adicionar respostas feitas por IA no topo de alguns resultados de pesquisa, com os usuários dos EUA sendo os primeiros a experimentar a implementação completa do recurso “AI Overviews”. Ele incluirá links também, mas os usuários que quiserem limitar a resposta apenas a uma seleção de links para outros sites poderão encontrá-los – clicando em “web” no motor de busca, rebaixado para ficar ao lado de “imagens” e “mapas” na lista de opções.

“Adicionamos isso depois de ouvir de alguns que há momentos em que preferem ver apenas links para páginas da web nos resultados de pesquisa,” escreveu Danny Sullivan, o responsável pela comunicação da busca do Google.

O Google diz que as visões gerais da IA têm fortes barreiras de segurança. Em outras partes da web, no entanto, o slop está se espalhando.

Fonte: artigo da redação com dados do original em inglês publicado no The Guardian

Compartilhar: