Live Chat

Crypto News

Cryptocurrency News 4 months ago
ENTRESRUARPTDEFRZHHIIT

Forscher treiben den Einsatz von KI in Betriebssystemen voran und steigern die Modellgenauigkeit um 27 %

Algoine News
Summary:
Ein Team von Wissenschaftlern von Microsoft Research und der Peking University hat eine Studie durchgeführt, um zu verstehen, warum große Sprachmodelle (LLMs) wie GPT-4 Schwierigkeiten haben, Betriebssysteme zu manipulieren. Diese KI-Modelle, die traditionell durch Reinforcement Learning trainiert werden, geraten in Betriebssystemumgebungen aufgrund multimodaler Herausforderungen und des Risikos von Datenverlusten ins Stocken. In einer einzigartigen Trainingsumgebung, die vom Team namens AndroidArena entwickelt wurde, identifizierten sie vier Schlüsselkompetenzen, die LLMs fehlten: Verständnis, Argumentation, Erkundung und Reflexion. In einer überraschenden Wendung entdeckten die Forscher eine "einfache" Methode, die die Genauigkeit eines Modells um 27 % erhöhte, indem sie den Mangel an "Reflexion" beseitigte. Diese Forschung könnte den Weg für einen fortschrittlichen KI-Assistenten ebnen.
Die Entwicklung einer Strategie für ChatGPT, um innerhalb eines Betriebssystems unabhängig zu funktionieren, war schwierig, aber eine gemeinsame Anstrengung von Wissenschaftlern von Microsoft Research und der Peking University könnte den Schlüssel gefunden haben. Die Forscher machten sich auf den Weg, um herauszufinden, warum große Sprachmodelle (LLMs) für künstliche Intelligenz (KI) wie GPT-4 bei Aufgaben versagen, die Manipulationen des Betriebssystems erfordern. Modernste Systeme wie ChatGPT, die auf GPT-4 basieren, setzen den Standard für generative Aufgaben wie das Verfassen von E-Mails oder das Verfassen eines Gedichts. Wenn diese Modelle jedoch als Agenten in einer allgemeinen Umgebung eingesetzt werden können, bringt dies eine Reihe von Tests mit sich. In der Regel lernen KI-Modelle, virtuelle Umgebungen durch Reinforcement Learning zu verhandeln. KI-Entwickler haben modifizierte Versionen bekannter Videospiele wie Super Mario Bros und Minecraft genutzt, um Erkenntnisse über selbstfahrende Erkundung und Zielerfassung zu vermitteln. Betriebssysteme stellen jedoch eine besondere Herausforderung für KI-Modelle dar. Als Agenten stellt das Ausführen von Funktionen innerhalb eines Betriebssystems häufig eine multimodale Hürde dar, die den Informationsaustausch zwischen verschiedenen Komponenten, Anwendungen und Programmen erfordert. Im Rahmen des Verstärkungstrainings beruht der Ansatz weitgehend auf dem Experimentieren. Diese Methode kann zu Datenverlust führen, wenn Passwörter mehrfach falsch eingegeben werden oder die anwendbaren Tastenkombinationen in verschiedenen Apps unklar sind. In diesem Zusammenhang: ChatGPTs Neigung zu Atomwaffen, SEGAs KI aus den 80ern, TAOs 90%iges Wachstum: AI Eye Die Wissenschaftlergruppe arbeitete mit mehreren LLMs, darunter solche, die von Meta als Open Source bereitgestellt wurden, wie Llama2 70B, und solche von OpenAI wie GPT-3.5 und GPT-4. Die Untersuchung ergab, dass keiner dieser LLMs eine außergewöhnliche Leistung zeigte. Wie aus der Forschungsarbeit des Teams hervorgeht, übersteigen die aktuellen Anforderungen die Fähigkeiten der heutigen KI aus mehreren Gründen. Sie leisteten Pionierarbeit bei einer neuartigen Trainingsumgebung namens AndroidArena, die es LLMs ermöglichte, in einer Umgebung zu navigieren, die dem Android-Betriebssystem ähnelt. Nach der Etablierung von Testaufgaben und einem Benchmark-System stellten sie fest, dass LLMs in erster Linie vier Schlüsselkompetenzen fehlten: Verständnis, Argumentation, Exploration und Reflexion. Obwohl der Schwerpunkt der Studie darauf lag, das Problem zu lokalisieren, identifizierten die Forscher unerwartet eine einfache Methode, um die Genauigkeit eines Modells um 27 % zu verbessern. Sie gingen das Problem der fehlenden Reflexion an, indem sie automatisierte Informationen über seine früheren Versuche und die dabei verwendeten Strategien in das Modell einspeisten. Das Einbetten des Speichers in Eingabeaufforderungen, die zum Auslösen der Aktion verwendet werden, stellte dies sicher. Diese Forschungsrichtung könnte tiefgreifende Auswirkungen auf die Entwicklung eines verbesserten KI-Assistenten haben.

Published At

2/12/2024 11:37:47 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch