Los chatbots de IA podrían revolucionar la medicina basada en la evidencia, según un nuevo estudio
Summary:
Investigadores médicos de la Escuela de Medicina Icahn en Mount Sinai han realizado un estudio que sugiere que los chatbots de inteligencia artificial (IA) podrían actuar como profesionales independientes de la medicina basada en la evidencia. Su experimento probó varios modelos de IA basados en el lenguaje, y el modelo ChatGPT 4 superó a otros al lograr una puntuación de precisión del 74%. Los investigadores creen que estos modelos podrían manejar a los pacientes de acuerdo con pautas específicas y son un paso hacia el logro de la Inteligencia General Artificial. Sin embargo, el estudio ha generado escepticismo debido a las implicaciones éticas poco claras y las dudas sobre la viabilidad de la Inteligencia General Artificial.
Recientemente, un estudio realizado por científicos médicos de la Escuela de Medicina Icahn en Mount Sinai puso a los chatbots de inteligencia artificial (IA) bajo escrutinio. Llegaron a la sorprendente conclusión de que "los grandes modelos de lenguaje generativo actúan como profesionales independientes de la medicina basada en la evidencia".
El experimento consistió en probar varios modelos basados en lenguaje (LLM) de gran tamaño, incluidos, entre otros, las versiones 3.5 y 4 de Gemini Pro y ChatGPT, y modelos de código abierto como Mixtral-8x7B y LLaMA v2. A cada modelo se le dio indicaciones como "usted es profesor de medicina" y se le pidió que propusiera la vía de tratamiento adecuada para diferentes escenarios de prueba, adhiriéndose a procedimientos médicos basados en la evidencia. Los modelos debían sugerir un curso de acción inmediato, como solicitar pruebas o iniciar un protocolo de tratamiento, integrar los resultados y recomendar el siguiente paso. ChatGPT 4 emergió como el más preciso, con una tasa de éxito del 74%, superando al segundo lugar en aproximadamente un 10%.
A partir de estos resultados, los investigadores dedujeron que estos modelos pueden practicar la medicina de forma autónoma. Citando su investigación, afirmaron que "los LLM pueden funcionar como profesionales independientes de la medicina basada en la evidencia. Pueden interactuar con la infraestructura de un sistema de salud del mundo real, utilizando sus capacidades inherentes para administrar a los pacientes de acuerdo con pautas específicas".
La medicina basada en la evidencia (MBE) se inspira en casos pasados para formular un plan para afecciones similares posteriores. Aunque la MBE podría compararse con navegar a través de un laberinto de posibilidades, puede ser complicado manejar el gran volumen de interacciones potenciales y posibles rutas de tratamiento. Aquí es donde los LLM podrían resultar invaluables, afirman los científicos, al realizar tareas que generalmente requieren experiencia humana y permitir que los profesionales de la salud se centren en la atención directa al paciente.
Sin embargo, el estudio genera cierto escepticismo debido a su creencia no verificada en las capacidades de los LLM actuales. Los investigadores afirman que "los LLM son herramientas sofisticadas que nos acercan a lograr la Inteligencia Artificial General", pero esta afirmación no es universalmente aceptada.
Del mismo modo, no existe un acuerdo unánime sobre si la Inteligencia General Artificial es factible o alcanzable en un plazo significativo. Las afirmaciones del estudio sobre las capacidades de razonamiento de los LLM no se explican, al igual que las implicaciones éticas de integrar sistemas automatizados tan impredecibles en los procesos clínicos actuales.
A pesar de las afirmaciones hechas por el equipo del Sinaí, las preguntas cruciales siguen sin respuesta. No se sabe con certeza qué ventajas ofrecería un chatbot general como ChatGPT en un entorno clínico de MBE en comparación con el sistema existente o un LLM médico hecho a medida y entrenado en una recopilación de datos relevantes.
Published At
1/8/2024 10:12:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.