IA foi capaz de se passar por humana em 73% dos testes, especialmente quando recebeu instruções de personalidade específicas
Um estudo conduzido por pesquisadores da Universidade da Califórnia em San Diego concluiu que o GPT-4.5, modelo de inteligência artificial da OpenAI, foi capaz de enganar interlocutores humanos e se passar por uma pessoa em 73% das interações analisadas. O desempenho supera o limite teórico do teste de Turing, no qual um humano tenta distinguir entre outro humano e uma máquina apenas por meio de conversas escritas.
Além do GPT-4.5, o experimento avaliou outros três modelos: o GPT-4o (utilizado atualmente pelo ChatGPT), o Llama 3.1-405B (da Meta) e o clássico chatbot Eliza. No total, cerca de 300 participantes interagiram com as IAs e humanos por meio de uma interface com tela dividida, sem saber quem era quem. Os diálogos abordaram temas como vida pessoal, preferências, emoções e opiniões, com duração de cinco minutos por conversa.
Um dos fatores determinantes para o sucesso das IAs foi o tipo de instrução fornecida antes da interação. O chamado prompt de persona atribuiu características específicas aos modelos, como idade, interesses e estilo de fala. Com esse tipo de comando, o GPT-4.5 alcançou a taxa de engano de 73%, enquanto o Llama 3.1-405B teve 56%. Já com um prompt genérico, o desempenho do GPT-4o caiu para apenas 21%.
Os resultados sugerem que a adoção de personas — traços de personalidade fictícios — aumenta significativamente a capacidade das IAs de simular comportamentos humanos de forma convincente. Em contraste, modelos sem esse tipo de orientação ou menos avançados, como o Eliza, apresentaram desempenho bem inferior.
Para os autores do estudo, o experimento levanta reflexões sobre a real função do teste de Turing. Criado por Alan Turing, o teste originalmente buscava identificar inteligência através de raciocínio lógico e habilidades cognitivas. No entanto, os critérios utilizados atualmente pelos interrogadores se baseiam mais em aspectos sociais, emocionais e culturais do discurso.
Diante disso, os pesquisadores argumentam que o teste mede mais a habilidade da IA em simular um humano do que sua inteligência de fato. O estudo também alerta para o risco de que modelos de linguagem cada vez mais sofisticados se tornem “substitutos indistinguíveis” em interações sociais — o que pode gerar implicações éticas profundas, especialmente quando usados para influenciar emoções, opiniões e comportamentos humanos.
Com informações de Futurism e Analytics India Mag.