Live Chat

Crypto News

Cryptocurrency News 4 months ago
ENTRESRUARPTDEFRZHHIIT

Des chercheurs font progresser l’utilisation de l’IA dans les systèmes d’exploitation et augmentent la précision des modèles de 27 %

Algoine News
Summary:
Une équipe de scientifiques de Microsoft Research et de l’Université de Pékin a mené une étude pour comprendre pourquoi les grands modèles de langage (LLM) comme GPT-4 ont du mal à manipuler les systèmes d’exploitation. Traditionnellement entraînés par apprentissage par renforcement, ces modèles d’IA échouent dans les environnements de système d’exploitation en raison des défis multimodaux et du risque de perte de données. Dans un environnement de formation unique créé par l’équipe appelée AndroidArena, ils ont identifié quatre compétences clés qui manquaient aux LLM : la compréhension, le raisonnement, l’exploration et la réflexion. À la surprise générale, les chercheurs ont découvert une méthode « simple » qui a augmenté la précision d’un modèle de 27 % en remédiant au manque de « réflexion ». Cette recherche pourrait ouvrir la voie à un assistant d’IA avancé.
L’élaboration d’une stratégie permettant à ChatGPT de fonctionner de manière indépendante au sein d’un système d’exploitation a été délicate, mais un effort de collaboration entre des scientifiques de Microsoft Research et de l’Université de Pékin a peut-être trouvé la clé. Les chercheurs se sont lancés dans une exploration pour déterminer pourquoi les grands modèles de langage (LLM) pour l’intelligence artificielle (IA) tels que GPT-4 échouent dans les tâches nécessitant des manipulations du système d’exploitation. Des systèmes de pointe comme ChatGPT, alimentés par GPT-4, établissent la norme pour les tâches génératives telles que la rédaction d’e-mails ou la rédaction d’un poème. Cependant, permettre à ces modèles de fonctionner en tant qu’agents dans un environnement général apporte son lot d’essais. En règle générale, les modèles d’IA apprennent à négocier des environnements virtuels grâce à l’apprentissage par renforcement. Les créateurs d’IA ont puisé dans des versions modifiées de jeux vidéo bien connus comme Super Mario Bros et Minecraft pour transmettre des apprentissages sur l’exploration autopropulsée et la visée des objectifs. Cependant, les systèmes d’exploitation posent un défi unique pour les modèles d’IA. En tant qu’agents, l’exécution de fonctions au sein d’un système d’exploitation présente souvent un obstacle multimodal impliquant l’échange d’informations entre divers composants, applications et programmes. Dans le cadre de l’entraînement par renforcement, l’approche repose en grande partie sur l’expérimentation. Cette méthode peut entraîner une perte de données, comme on le voit lorsque les mots de passe sont saisis de manière incorrecte à plusieurs reprises ou que les raccourcis applicables dans différentes applications ne sont pas clairs. À lire également : La propension de ChatGPT avec les armes nucléaires, l’IA de SEGA dans les années 80, la croissance de 90 % de TAO : AI Eye Le groupe de scientifiques a travaillé avec plusieurs LLM, y compris ceux open source de Meta tels que Llama2 70B et ceux d’OpenAI tels que GPT-3.5 et GPT-4. L’étude a révélé qu’aucun de ces LLM n’affichait de performances exceptionnelles. Comme indiqué dans le document de recherche de l’équipe, les exigences actuelles remplacent les capacités de l’IA actuelle pour plusieurs raisons. Ils ont été les pionniers d’un nouvel environnement de formation nommé AndroidArena qui permettait aux LLM de naviguer dans un environnement similaire à celui du système d’exploitation Android. Après avoir établi des tâches de test et un système de référence, ils ont constaté que les LLM manquaient principalement de quatre compétences clés : la compréhension, le raisonnement, l’exploration et la réflexion. Bien que l’objectif de l’étude ait été d’identifier le problème, les chercheurs ont identifié de manière inattendue une méthode simple pour améliorer la précision d’un modèle de 27%. Ils se sont attaqués à la question du manque de réflexion en introduisant dans le modèle des informations automatisées concernant ses tentatives antérieures et les stratégies utilisées au cours de celles-ci. L’intégration de la mémoire dans les invites utilisées pour déclencher l’action a permis d’atteindre cet objectif. Cette ligne de recherche pourrait avoir de profondes implications dans la création d’un assistant d’IA amélioré.

Published At

2/12/2024 11:37:47 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch