Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

Woodpecker: Ein neues Tool zur Bekämpfung von KI-"Halluzinationen", das von Wissenschaftlern von Tencent und USTC entwickelt wurde

Algoine News
Summary:
Wissenschaftler des YouTu Lab von Tencent und der University of Science and Technology of China haben ein Tool namens "Woodpecker" entwickelt, um "Halluzinationen" der künstlichen Intelligenz (KI) zu bekämpfen, d. h. wenn KI-Modelle hochzuverlässige Ergebnisse liefern, die nicht auf den Trainingsdaten basieren. Woodpecker wurde speziell für multimodale große Sprachmodelle (MLLMs) entwickelt und verwendet eine Methode, die die Transparenz und Genauigkeit verbessert. Es kann nahtlos in andere MLLMs integriert werden und bietet eine Lösung, die sich an verschiedene KI-Systemarchitekturen anpassen kann.
Wissenschaftler des YouTu Lab von Tencent und der University of Science and Technology of China haben ein innovatives Tool entwickelt, mit dem das Problem der "Halluzination" in Modellen der künstlichen Intelligenz (KI) angegangen werden soll. Halluzination bezieht sich in diesem Zusammenhang auf KI-Modelle, die zuverlässige Ergebnisse generieren, die nicht auf den Daten zu basieren scheinen, mit denen sie trainiert wurden. Dieses Problem tritt vor allem in der Forschung zu großen Sprachmodellen (LLM) auf und kommt bei Modellen wie ChatGPT von OpenAI und Claude von Anthropic zum Tragen. Die Gruppe von Tencent und USTC hat ein Tool namens "Woodpecker" auf den Markt gebracht, von dem sie behaupten, dass es Halluzinationen in multimodalen großen Sprachmodellen (MLLMs) korrigieren kann. MLLMs sind eine Teilmenge der KI und umfassen Modelle wie GPT-4 und insbesondere sein visuelles Äquivalent GPT-4V sowie andere Systeme, die das Sehen und andere Verarbeitung mit textbasierter Sprachmodellierung integrieren. Die vorläufige Forschungsarbeit des Teams zeigt, dass Woodpecker neben dem MLLM, das sich in der Überarbeitung befindet, drei separate KI-Modelle zur Korrektur von Halluzinationen verwendet. Diese Modelle, nämlich GPT-3.5 turbo, Grounding DINO und BLIP-2-FlanT5, dienen als Evaluatoren, um Halluzinationen zu erkennen und das Modell unter Korrektur zu führen, um seine Ausgabe im Einklang mit seinen Daten neu zu formulieren. Um Halluzinationen zu korrigieren, wenden die KI-Modelle, die Woodpecker antreiben, eine fünfstufige Methode an, die Schlüsselkonzepte, die Formulierung von Fragen, die Validierung von visuellem Wissen, die Erstellung visueller Behauptungen und schließlich die Korrektur von Halluzinationen umfasst. Das Team behauptet, dass diese Ansätze die Transparenz erhöhen und die Genauigkeit gegenüber dem Basiswert MiniGPT-4/mPLUG-Owl um 30,66 %/24,33 % verbessern. Nach der Evaluierung vieler Standard-MLLMs mit ihrer Formel kam das Team zu dem Schluss, dass Woodpecker nahtlos in andere MLLMs integriert werden kann. Damit verbunden ist die merkwürdige Tendenz von Menschen und KI, schmeichelhafte Chatbot-Antworten der Wahrheit vorzuziehen, wie eine separate Studie zeigt. Für diejenigen, die Woodpecker aus erster Hand erleben möchten, ist eine Testversion auf Gradio Live verfügbar.

Published At

10/25/2023 5:42:46 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch