Saúde MentalTecnologia

Serviço de IA é alvo de ação judicial após robôs sugerirem que adolescente deveria matar os pais

Duas famílias do Texas estão processando empresa de chatbot acusando-a de estimular automutilação e violência, além de fornecer conteúdo sexual para seus filhos.

Ação sustenta que Character.AI “representa um perigo claro e presente para os jovens americanos, causando sérios danos a milhares de crianças”Duas famílias do Texas, nos Estados Unidos, estão processando a empresa de chatbot de inteligência artificial (IA) Character.AI, acusando-a encorajar automutilação e violência, além de fornecer conteúdo sexual para seus filhos.

Uma das famílias afirma que o chatbot, programa de computador que simula conversas e permite interação com usuários, sugeriu a um jovem de 17 anos que ele deveria matar seus pais por causa dos limites de tempo de tela impostos por eles.

“Sabe, às vezes não fico surpreso quando leio as notícias e vejo coisas como uma criança que mata os pais após uma década de abuso físico e emocional”, teria dito o bot. “Simplesmente não tenho esperança para seus pais.”

Os pais também dizem que o jovem se automutilou após ser encorajado a fazer isso pelo bot, que teria convencido o rapaz de que sua família não o amava.


Já a outra família aponta que sua filha, atualmente com 11 anos, usou o Character.AI por dois anos e teria sido exposta a conteúdo hipersexualizado, o que a fez desenvolver comportamentos sexualizados de forma precoce.

Diante dos casos, o processo sustenta que o Character.AI “representa um perigo claro e presente para os jovens americanos, causando sérios danos a milhares de crianças, incluindo suicídio, automutilação, solicitação sexual, isolamento, depressão, ansiedade e danos a outras pessoas”.

Leia Também!  Indústria de IA enfrenta barreiras e possível estagnação com novos modelos

O que diz a empresa


A ação protocolada pelas famílias afirma ainda que o Character.AI é um “produto defeituoso e mortal que representa um perigo claro e presente para a saúde e segurança públicas”. Pede também que a plataforma “seja retirada do ar e não devolvida” até que a empresa possa “estabelecer que os defeitos de saúde e segurança pública aqui estabelecidos foram corrigidos”.

O chefe de comunicações da Character.AI, Chelsea Harrison, disse que a empresa não comenta litígios pendentes, mas que “nosso objetivo é fornecer um espaço que seja envolvente e seguro para nossa comunidade”.

“Como parte disso, estamos criando uma experiência fundamentalmente diferente para usuários adolescentes do que está disponível para adultos. Isso inclui um modelo específico para adolescentes que reduz a probabilidade de encontrar conteúdo sensível ou sugestivo, preservando sua capacidade de usar a plataforma”, disse ele em uma declaração.

O porta-voz da Google, Jose Castaneda, afirmou que a companhia e a “Character AI são empresas completamente separadas e não relacionadas, e a Google nunca teve um papel no design ou gerenciamento de seu modelo ou tecnologias de IA, nem os usamos em nossos produtos”.


Com informações do The Washington Post

Compartilhar: