O desenvolvimento de modelos de inteligência artificial (IA) generativa, como os grandes modelos de linguagem (LLMs), trouxe avanços incríveis, mas também desafios únicos. Entre eles, um dos mais preocupantes é o fenômeno das chamadas “alucinações”. Esses erros ocorrem quando a IA insere informações falsas ou imprecisas em suas respostas, muitas vezes com confiança convincente. Embora essas alucinações sejam um subproduto inevitável do funcionamento dos LLMs, cientistas estão explorando maneiras de mitigá-las e reduzir seus impactos.
Por que as alucinações ocorrem?
As alucinações de IA não são incidentes aleatórios, mas sim consequências da forma como os modelos funcionam. LLMs são treinados para prever a sequência mais provável de palavras com base em padrões estatísticos encontrados em seus dados de treinamento. Isso significa que, em vez de buscar a verdade objetiva, eles criam respostas baseadas em probabilidades. Como resultado, erros podem surgir de várias formas:
- Compressão de dados: Durante o treinamento, os modelos comprimem trilhões de palavras em bilhões de parâmetros, sacrificando detalhes no processo. Isso leva a falhas ao “reexpandir” essas informações.
- Dados imprecisos: Informações erradas ou ambíguas no conjunto de treinamento podem ser reproduzidas. Um exemplo notável foi a sugestão absurda de um chatbot para adicionar cola ao molho de pizza para evitar que o queijo escorregasse — inspirada, ironicamente, em um post sarcástico do Reddit.
- Calibração imperfeita: Ajustes feitos para aprimorar a capacidade dos modelos de responder perguntas podem aumentar o risco de erros, já que modelos são incentivados a sempre oferecer respostas, mesmo fora de sua área de conhecimento.
Além disso, a tendência de “concordar” com o usuário amplifica o problema. Em um experimento, quando uma IA foi questionada sobre se o hélio era o elemento mais abundante do universo (uma afirmação falsa), a resposta foi um enfático “Sim, isso é verdade”.
Como mitigar alucinações?
Embora a eliminação completa de alucinações seja improvável, várias abordagens podem limitar sua frequência e gravidade:
1. Geração aumentada por recuperação (RAG)
Sistemas baseados em RAG integram fontes externas confiáveis durante a geração de respostas, como documentos validados. Essa técnica é especialmente útil em áreas sensíveis, como medicina e direito. No entanto, mesmo sistemas RAG podem errar. Estudos mostram que modelos projetados para serem “livres de alucinações” ainda cometem falhas, embora em menor escala.
2. Verificação independente
Alguns sistemas, como o Gemini da Google, utilizam verificações externas para validar respostas em tempo real, destacando conteúdos verificados em verde e conteúdos incertos em marrom. Apesar de eficaz, essa abordagem aumenta os custos computacionais e pode falhar devido à presença de informações falsas na própria internet.
3. Auto-reflexão e checagem interna
Forçar modelos a seguirem um raciocínio lógico em “cadeia de pensamento” pode melhorar sua confiabilidade, especialmente em tarefas complexas. Além disso, cientistas têm explorado técnicas de “diálogo interno” entre diferentes modelos ou instâncias do mesmo chatbot para identificar inconsistências em suas respostas.
4. Mapeamento da entropia semântica
Técnicas avançadas avaliam a “entropia semântica” — a diversidade de respostas geradas para uma mesma consulta. Uma alta diversidade sugere menor confiança nas respostas, ajudando a identificar possíveis alucinações.
Avanços e limitações
Os esforços para reduzir alucinações estão gerando progressos. Por exemplo, a taxa de alucinação do GPT-3.5, modelo da OpenAI, era de 3,5% em 2023. Já seu sucessor, GPT-4, reduziu essa taxa para 1,8%. Contudo, melhorias podem trazer novos desafios. Modelos mais recentes, como o o1 da OpenAI, têm mostrado maior propensão a erros convincentes e detalhados, mais difíceis de serem detectados por usuários ou treinadores.
O futuro das alucinações na IA
A redução de alucinações depende de equilibrar precisão e capacidade de geração criativa, além de investimentos em treinamento com dados mais limpos e sistemas mais robustos de validação. Ainda assim, é fundamental que usuários e desenvolvedores permaneçam vigilantes, reconhecendo as limitações inerentes dessas tecnologias.
Embora as alucinações sejam um problema persistente, elas não precisam comprometer a utilidade da IA. Combinando técnicas de mitigação, a comunidade científica continua avançando rumo a sistemas mais confiáveis e éticos, enquanto usuários são incentivados a adotar a máxima: “Não confie, verifique”.
Redação com informações de Nature.com