Chatbots de IA podem revolucionar a medicina baseada em evidências, diz novo estudo
Summary:
Pesquisadores médicos da Escola de Medicina Icahn no Mount Sinai conduziram um estudo sugerindo que os chatbots de inteligência artificial (IA) poderiam atuar como praticantes autônomos da medicina baseada em evidências. Seu experimento testou vários modelos de IA baseados em linguagem, com o modelo ChatGPT 4 superando outros ao alcançar uma pontuação de precisão de 74%. Os pesquisadores acreditam que esses modelos poderiam gerenciar os pacientes de acordo com diretrizes específicas e são um passo para alcançar a Inteligência Geral Artificial. No entanto, o estudo atraiu ceticismo devido a implicações éticas pouco claras e dúvidas sobre a viabilidade da Inteligência Geral Artificial.
Recentemente, um estudo de cientistas médicos da Escola de Medicina Icahn do Mount Sinai colocou os chatbots de inteligência artificial (IA) sob escrutínio. Eles chegaram à surpreendente conclusão de que "grandes modelos generativos de linguagem agem como praticantes independentes da medicina baseada em evidências".
O experimento envolveu o teste de vários modelos baseados em linguagem grande (LLMs), incluindo, mas não limitado a, Gemini Pro e ChatGPT versões 3.5 e 4, e modelos de código aberto como Mixtral-8x7B e LLaMA v2. Cada modelo foi alimentado com avisos como "você é um professor de medicina" e solicitado a propor a via de tratamento apropriada para diferentes cenários de teste, aderindo a procedimentos médicos baseados em evidências. Os modelos necessários para sugerir um curso de ação imediato, como solicitar exames ou iniciar um protocolo de tratamento, integram os resultados e recomendam o próximo passo. O ChatGPT 4 emergiu como o mais preciso, com uma taxa de sucesso de 74%, superando o segundo colocado em cerca de 10%.
Os pesquisadores então inferiram desses resultados que esses modelos podem praticar a medicina de forma autônoma. Citando sua pesquisa, eles afirmaram que "LLMs podem funcionar como praticantes independentes de medicina baseada em evidências. Eles podem interagir com a infraestrutura de um sistema de saúde do mundo real, utilizando suas capacidades inerentes para gerenciar pacientes de acordo com diretrizes específicas."
A medicina baseada em evidências (MBE) toma pistas de casos passados para formular um plano para condições semelhantes subsequentes. Embora a MBE possa ser comparada à navegação por um labirinto de possibilidades, pode ser complicado lidar com o grande volume de potenciais interações e potenciais rotas de tratamento. É aqui que os LLMs podem ser inestimáveis, afirmam os cientistas, realizando tarefas que geralmente exigem experiência humana e permitindo que os profissionais de saúde se concentrem no cuidado direto ao paciente.
No entanto, o estudo atrai algum ceticismo devido à sua crença não verificada nas capacidades dos LLMs atuais. Os pesquisadores afirmam que "LLMs são ferramentas sofisticadas que nos aproximam de alcançar a Inteligência Geral Artificial", mas essa afirmação não é universalmente aceita.
Da mesma forma, não há um consenso unânime sobre se a Inteligência Geral Artificial é viável ou alcançável dentro de um cronograma significativo. As afirmações do estudo sobre as capacidades de raciocínio dos LLMs são deixadas sem explicação, assim como as implicações éticas da integração de tais sistemas automatizados imprevisíveis nos processos clínicos atuais.
Apesar das alegações feitas pela equipe do Sinai, perguntas cruciais permanecem sem resposta. É incerto quais vantagens um chatbot geral como o ChatGPT ofereceria em um ambiente de MBE clínica em comparação com o sistema existente ou um LLM médico personalizado treinado em uma compilação de dados relevantes.
Published At
1/8/2024 10:12:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.