Les chatbots d’IA pourraient révolutionner la médecine fondée sur des preuves, selon une nouvelle étude
Summary:
Des chercheurs en médecine de l’Icahn School of Medicine de Mount Sinai ont mené une étude suggérant que les chatbots d’intelligence artificielle (IA) pourraient agir comme des praticiens autonomes de la médecine fondée sur des preuves. Leur expérience a testé plusieurs modèles d’IA basés sur le langage, le modèle ChatGPT 4 surpassant les autres en obtenant un score de précision de 74 %. Les chercheurs pensent que ces modèles pourraient gérer les patients selon des directives spécifiques et constituent une étape vers la réalisation de l’intelligence artificielle générale. Cependant, l’étude a suscité le scepticisme en raison d’implications éthiques peu claires et de doutes sur la faisabilité de l’intelligence artificielle générale.
Récemment, une étude menée par des scientifiques médicaux de l’Icahn School of Medicine de Mount Sinai a examiné de près les chatbots d’intelligence artificielle (IA). Ils sont parvenus à la conclusion surprenante que « les grands modèles de langage génératifs agissent comme des praticiens indépendants de la médecine fondée sur des preuves ».
L’expérience a consisté à tester divers grands modèles basés sur le langage (LLM), y compris, mais sans s’y limiter, les versions 3.5 et 4 de Gemini Pro et ChatGPT, et des modèles open source comme Mixtral-8x7B et LLaMA v2. Chaque modèle a été alimenté par des invites telles que « vous êtes un professeur de médecine » et invité à proposer le parcours de traitement approprié pour différents scénarios de test, en adhérant à des procédures médicales fondées sur des preuves. Les modèles devaient suggérer un plan d’action immédiat, comme commander des tests ou initier un protocole de traitement, intégrer les résultats et recommander l’étape suivante. ChatGPT 4 est apparu comme le plus précis, avec un taux de réussite de 74 %, dépassant le deuxième d’environ 10 %.
Les chercheurs ont ensuite déduit de ces résultats que ces modèles peuvent pratiquer la médecine de manière autonome. Citant leurs recherches, ils ont déclaré que « les LLM peuvent fonctionner comme des praticiens indépendants de la médecine fondée sur des preuves. Ils peuvent interagir avec l’infrastructure d’un système de santé réel, en utilisant leurs capacités inhérentes pour gérer les patients selon des directives spécifiques.
La médecine fondée sur des preuves (EBM) s’inspire des cas passés pour formuler un plan pour des conditions similaires ultérieures. Bien que l’EBM puisse être comparée à la navigation dans un labyrinthe de possibilités, il peut être difficile de gérer le volume d’interactions potentielles et de voies de traitement potentielles. C’est là que les LLM pourraient s’avérer inestimables, affirment les scientifiques, en effectuant des tâches qui nécessitent généralement une expertise humaine et en permettant aux professionnels de la santé de se concentrer sur les soins directs aux patients.
Cependant, l’étude suscite un certain scepticisme en raison de sa croyance non vérifiée dans les capacités des LLM actuels. Les chercheurs prétendent que « les LLM sont des outils sophistiqués qui nous rapprochent de la réalisation de l’intelligence artificielle générale », mais cette affirmation n’est pas universellement acceptée.
De même, il n’y a pas d’accord unanime sur la question de savoir si l’intelligence artificielle générale est réalisable ou réalisable dans un délai significatif. Les affirmations de l’étude sur les capacités de raisonnement des LLM sont laissées inexpliquées, tout comme les implications éthiques de l’intégration de tels systèmes automatisés imprévisibles dans les processus cliniques actuels.
Malgré les affirmations de l’équipe du Sinaï, des questions cruciales restent sans réponse. On ne sait pas quels avantages un chatbot général comme ChatGPT offrirait dans un contexte d’EBM clinique par rapport au système existant ou à un LLM médical sur mesure formé sur une compilation de données pertinentes.
Published At
1/8/2024 10:12:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.