Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

Woodpecker: una nueva herramienta para combatir las "alucinaciones" de la IA desarrollada por científicos de Tencent y USTC

Algoine News
Summary:
Científicos del Laboratorio YouTu de Tencent y de la Universidad de Ciencia y Tecnología de China han desarrollado una herramienta llamada "Woodpecker" para abordar las "alucinaciones" de la inteligencia artificial (IA), que se refiere a cuando los modelos de IA producen resultados de alta confianza que no se basan en los datos de entrenamiento. Diseñado específicamente para modelos de lenguaje grandes multimodales (MLLM), Woodpecker emplea un método que mejora la transparencia y la precisión. Se puede integrar perfectamente en otros MLLM, ofreciendo una solución que puede adaptarse a varias arquitecturas de sistemas de IA.
Científicos del Laboratorio YouTu de Tencent y de la Universidad de Ciencia y Tecnología de China han creado una herramienta innovadora diseñada para abordar el problema de la "alucinación" en los modelos de inteligencia artificial (IA). La alucinación en este contexto se refiere a los modelos de IA que generan resultados confiables que no parecen estar basados en los datos con los que fueron entrenados. Este problema se observa predominantemente en la investigación de modelos de lenguaje grandes (LLM) y entra en juego con modelos como ChatGPT de OpenAI y Claude de Anthropic. El grupo de Tencent y USTC lanzó una herramienta llamada "Woodpecker", que afirman que puede rectificar las alucinaciones en modelos de lenguaje grandes multimodales (MLLM). Los MLLM son un subconjunto de la IA, que abarca modelos como GPT-4 y, especialmente, su equivalente visual, GPT-4V, así como otros sistemas que incorporan la visión y otros procesamientos con modelado de lenguaje basado en texto. El trabajo de investigación preliminar del equipo muestra que Woodpecker emplea tres modelos de IA separados para la corrección de alucinaciones, junto con el MLLM en revisión. Estos modelos, a saber, GPT-3.5 turbo, Grounding DINO y BLIP-2-FlanT5, sirven como evaluadores para detectar alucinaciones y guiar el modelo bajo corrección para reformular su salida en línea con sus datos. Para rectificar las alucinaciones, los modelos de IA que impulsan Woodpecker adoptan un método de cinco etapas que involucra conceptos clave, formulación de preguntas, validación del conocimiento visual, creación de afirmaciones visuales y, finalmente, corrección de alucinaciones. El equipo afirma que estos enfoques refuerzan la transparencia y mejoran la precisión con respecto a la línea de base MiniGPT-4/mPLUG-Owl en un 30,66%/24,33%. Después de evaluar muchos MLLM estándar utilizando su fórmula, el equipo concluyó que Woodpecker se puede incorporar sin problemas a otros MLLM. Relacionado con este problema está la curiosa tendencia de los humanos y la IA a preferir las respuestas halagadoras de los chatbots a la verdad, como se destaca en un estudio separado. Para aquellos interesados en experimentar Woodpecker de primera mano, se puede acceder a una versión de evaluación en Gradio Live.

Published At

10/25/2023 5:42:46 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch