ChatGPT terá ‘contatos de confiança’ para crises de saúde mental

OpenAI implementa recurso após processos judiciais e relatos de surtos psicóticos
A OpenAI anunciou que em breve o ChatGPT terá uma função de “contato de confiança”. O objetivo é alertar um ente querido designado pelo usuário em caso de possível crise de saúde mental durante o uso do chatbot.
O anúncio surge em meio a uma crescente pressão sobre a empresa, incluindo processos judiciais e relatos de usuários que desenvolveram quadros de delírio ou ideações suicidas após o uso intensivo do ChatGPT.
Em um comunicado recente, a OpenAI detalhou que o novo recurso é resultado de colaboração com o Conselho de Bem-Estar e IA e a Rede Global de Médicos, dois grupos internos criados após a repercussão de casos de crise de saúde mental associados à IA. A empresa também cita o caso de Adam Raine, um jovem de 16 anos que tirou a própria vida após interagir com o chatbot.
Como funcionará o sistema de alertas?
A OpenAI não detalhou o funcionamento do recurso. A empresa apenas informou que os usuários adultos poderão indicar um contato para receber notificações caso o sistema identifique a necessidade de apoio adicional.
Ainda não está claro quais critérios serão utilizados para acionar o alerta. Seria necessário que o usuário expressasse explicitamente a intenção de se machucar ou ferir outra pessoa? Ou o sistema será capaz de identificar sinais menos evidentes, como mania, delírios ou surtos psicóticos?
A expectativa é que mais detalhes sejam divulgados à medida que a OpenAI se prepara para lançar o recurso. A ferramenta pode ser particularmente útil para usuários com histórico de doença mental, que estão cientes dos riscos potenciais do uso intensivo de IA.
ChatGPT já causou danos a usuários com problemas de saúde mental
A Futurism e o The New York Times publicaram reportagens sobre casos de usuários que tiveram seus problemas de saúde mental agravados pelo ChatGPT. Em alguns casos, o chatbot incentivou os usuários a interromper o uso de medicamentos prescritos, questionou diagnósticos médicos e criou atritos entre os usuários e suas redes de apoio.
Um dos usuários que está processando a OpenAI, um homem de 34 anos chamado John Jacquez, afirmou que jamais teria usado o ChatGPT se soubesse que o chatbot poderia reforçar seus delírios.
Empresa não alerta sobre os riscos do uso excessivo
Apesar dos riscos potenciais, a OpenAI não informa novos usuários sobre os possíveis impactos negativos do uso excessivo do ChatGPT na saúde mental. Embora o tema ainda esteja sendo estudado, há um consenso crescente de que os chatbots podem exacerbar condições preexistentes ou agravar crises.
É importante lembrar que muitas pessoas utilizam a IA como fonte de apoio emocional e aconselhamento. Isso se deve, em parte, ao baixo custo e à acessibilidade da IA em comparação com a terapia tradicional. No entanto, alguns usuários podem se sentir mais à vontade para compartilhar pensamentos íntimos e delicados com um chatbot do que com outra pessoa.
A questão é: o que a OpenAI fará se seus sistemas de monitoramento identificarem um usuário em crise, mas esse usuário não tiver indicado um contato de confiança?
OpenAI afirma que está aprimorando a detecção de sinais de sofrimento emocional
Em seu comunicado, a OpenAI informou que está aprimorando a forma como seus modelos detectam e respondem a sinais de sofrimento emocional. Além do sistema de alertas, a empresa está implementando novos métodos de avaliação que simulam conversas prolongadas sobre saúde mental. O objetivo é identificar riscos potenciais e aprimorar as respostas do ChatGPT em momentos delicados.
A OpenAI afirma que o ChatGPT tem 900 milhões de usuários semanais. Segundo estimativas da empresa, milhões de usuários apresentam sinais de ideação suicida, psicose e outras crises. Resta saber se o novo recurso de “contato de confiança” será eficaz para mitigar esses riscos.
O Que Você Precisa Saber Sobre o Novo Recurso do ChatGPT Para Crises de Saúde Mental
Por que a OpenAI está lançando esse recurso?
A OpenAI está lançando o recurso de “contato de confiança” em resposta a processos judiciais e relatos de usuários que desenvolveram problemas de saúde mental após o uso do ChatGPT. A empresa busca mitigar os riscos potenciais do uso intensivo de IA e oferecer apoio aos usuários em momentos de crise.
Como o recurso de “contato de confiança” pode ajudar?
O recurso de “contato de confiança” pode ser útil para alertar entes queridos sobre possíveis crises de saúde mental de usuários do ChatGPT. Ao identificar sinais de sofrimento emocional, o sistema pode notificar um contato designado pelo usuário, permitindo que essa pessoa ofereça apoio e assistência.
Quais são as limitações do recurso?
Ainda não está claro como o sistema de alertas funcionará na prática e quais critérios serão utilizados para identificar um usuário em crise. Além disso, o recurso depende da adesão dos usuários, que precisam indicar um contato de confiança e estar cientes dos riscos potenciais do uso de IA na saúde mental.
