KI-Chatbots könnten laut neuer Studie die evidenzbasierte Medizin revolutionieren
Summary:
Medizinische Forscher der Icahn School of Medicine am Mount Sinai haben eine Studie durchgeführt, die darauf hindeutet, dass Chatbots mit künstlicher Intelligenz (KI) als eigenständige Praktiker der evidenzbasierten Medizin fungieren könnten. In ihrem Experiment wurden mehrere sprachbasierte KI-Modelle getestet, wobei das Modell ChatGPT 4 andere übertraf, indem es eine Genauigkeit von 74 % erreichte. Die Forscher glauben, dass diese Modelle Patienten nach bestimmten Richtlinien behandeln könnten und ein Schritt in Richtung Künstlicher Allgemeiner Intelligenz sind. Die Studie hat jedoch aufgrund unklarer ethischer Implikationen und Zweifel an der Machbarkeit von Künstlicher Allgemeiner Intelligenz Skepsis hervorgerufen.
Kürzlich hat eine Studie von Medizinern der Icahn School of Medicine am Mount Sinai Chatbots mit künstlicher Intelligenz (KI) unter die Lupe genommen. Sie kamen zu dem verblüffenden Schluss, dass "generative große Sprachmodelle als unabhängige Praktiker der evidenzbasierten Medizin fungieren".
Das Experiment umfasste das Testen verschiedener großer sprachbasierter Modelle (LLMs), einschließlich, aber nicht beschränkt auf die Versionen 3.5 und 4 von Gemini Pro und ChatGPT sowie von Open-Source-Modellen wie Mixtral-8x7B und LLaMA v2. Jedes Modell wurde mit Aufforderungen wie "Sie sind Medizinprofessor" gefüttert und gebeten, den geeigneten Behandlungspfad für verschiedene Testszenarien vorzuschlagen, wobei evidenzbasierte medizinische Verfahren eingehalten wurden. Die Modelle mussten eine sofortige Vorgehensweise vorschlagen, wie z. B. die Anordnung von Tests oder die Einleitung eines Behandlungsprotokolls, die Ergebnisse integrieren und den nächsten Schritt empfehlen. ChatGPT 4 erwies sich mit einer Erfolgsquote von 74 % als am genauesten und übertraf den Zweitplatzierten um etwa 10 %.
Aus diesen Ergebnissen schlossen die Forschenden, dass diese Modelle autonom Medizin praktizieren können. Unter Berufung auf ihre Forschung stellten sie fest, dass "LLMs als unabhängige Praktiker der evidenzbasierten Medizin fungieren können. Sie können mit der Infrastruktur eines realen Gesundheitssystems interagieren und ihre inhärenten Fähigkeiten nutzen, um Patienten nach bestimmten Richtlinien zu behandeln."
Die evidenzbasierte Medizin (EBM) orientiert sich an früheren Fällen, um einen Plan für spätere ähnliche Erkrankungen zu formulieren. Obwohl EBM mit dem Navigieren durch ein Labyrinth von Möglichkeiten verglichen werden kann, kann es schwierig sein, mit der schieren Menge potenzieller Wechselwirkungen und potenzieller Behandlungswege umzugehen. Hier könnten sich LLMs als unschätzbar wertvoll erweisen, so die Wissenschaftler, indem sie Aufgaben übernehmen, die normalerweise menschliches Fachwissen erfordern, und es den Angehörigen der Gesundheitsberufe ermöglichen, sich auf die direkte Patientenversorgung zu konzentrieren.
Die Studie stößt jedoch auf Skepsis, da sie nicht an die Fähigkeiten der aktuellen LLMs glaubt. Die Forscher behaupten, dass "LLMs ausgeklügelte Werkzeuge sind, die uns dem Erreichen der künstlichen allgemeinen Intelligenz näher bringen", aber diese Behauptung wird nicht allgemein akzeptiert.
Ebenso gibt es keine einhellige Einigkeit darüber, ob Künstliche Allgemeine Intelligenz innerhalb eines signifikanten Zeitrahmens machbar oder erreichbar ist. Die Behauptungen der Studie über die Denkfähigkeit von LLMs bleiben ebenso ungeklärt wie die ethischen Implikationen der Integration solcher unvorhersehbaren automatisierten Systeme in aktuelle klinische Prozesse.
Trotz der Behauptungen des Sinai-Teams bleiben entscheidende Fragen unbeantwortet. Es ist ungewiss, welche Vorteile ein allgemeiner Chatbot wie ChatGPT in einem klinischen EBM-Setting im Vergleich zum bestehenden System oder einem maßgeschneiderten medizinischen LLM bieten würde, der auf einer Zusammenstellung relevanter Daten trainiert wurde.
Published At
1/8/2024 10:12:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.