Uma pesquisa recente revelou que o chatbot GPT-4, desenvolvido pela Open AI, superou médicos em raciocínio clínico ao avaliar casos clínicos simulados. De acordo com o estudo publicado na JAMA Internal Medicine, o GPT-4 obteve escores medianos mais altos no R-IDEA, uma medida de raciocínio clínico, em comparação com médicos e residentes em medicina interna.
Os resultados mostraram que o GPT-4 teve a maior probabilidade estimada de alcançar altos escores no R-IDEA, seguido por médicos e residentes. O chatbot foi significativamente superior aos médicos e residentes em termos de desempenho no teste de raciocínio clínico.
O Dr. Adam Rodman, um dos pesquisadores envolvidos no estudo, destacou que os modelos de linguagem de grande escala, como o GPT-4, representam uma intervenção empolgante no campo do raciocínio clínico, especialmente considerando a importância de melhorar a tomada de decisão clínica para evitar diagnósticos errados, que podem resultar em mortes.
No entanto, Rodman ressaltou que os médicos que utilizam o GPT-4 devem estar cientes de suas limitações e usá-lo como uma ferramenta complementar ao seu conhecimento clínico.
Embora o GPT-4 tenha se destacado nos escores do R-IDEA, os pesquisadores observaram que teve resultados semelhantes aos dos médicos e residentes em precisão diagnóstica e diagnósticos de não-perda. No entanto, o chatbot teve mais instâncias de raciocínio clínico incorreto do que os residentes, destacando a importância de avaliações abrangentes das capacidades dos modelos de linguagem de grande escala antes de sua implementação na prática clínica.
Fonte: Artigo adaptado de MedPage Today