Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

I ricercatori migliorano l'utilizzo dell'IA all'interno dei sistemi operativi e aumentano l'accuratezza del modello del 27%

Algoine News
Summary:
Un team di scienziati di Microsoft Research e dell'Università di Pechino ha condotto uno studio per capire perché i modelli linguistici di grandi dimensioni (LLM) come GPT-4 faticano a manipolare i sistemi operativi. Tradizionalmente addestrati attraverso l'apprendimento per rinforzo, questi modelli di intelligenza artificiale vacillano negli ambienti del sistema operativo a causa delle sfide multimodali e del rischio di perdita di dati. In un ambiente di formazione unico creato dal team chiamato AndroidArena, hanno identificato quattro abilità chiave che mancavano agli LLM: comprensione, ragionamento, esplorazione e riflessione. Con un colpo di scena a sorpresa, i ricercatori hanno scoperto un metodo "semplice" che ha aumentato l'accuratezza di un modello del 27% affrontando la mancanza di "riflessione". Questa ricerca potrebbe aprire la strada a un assistente AI avanzato.
Sviluppare una strategia per far funzionare ChatGPT in modo indipendente all'interno di un sistema operativo è stato complicato, ma uno sforzo collaborativo da parte di scienziati di Microsoft Research e dell'Università di Pechino potrebbe aver trovato la chiave. I ricercatori hanno intrapreso un'esplorazione per individuare il motivo per cui i modelli linguistici di grandi dimensioni (LLM) per l'intelligenza artificiale (AI) come GPT-4 falliscono in compiti che richiedono manipolazioni del sistema operativo. Sistemi all'avanguardia come ChatGPT, alimentato da GPT-4, stabiliscono lo standard per attività generative come la composizione di e-mail o la scrittura di una poesia. Tuttavia, consentire a questi modelli di operare come agenti all'interno di un ambiente generale comporta una serie di prove. In genere, i modelli di intelligenza artificiale imparano a negoziare gli ambienti virtuali attraverso l'apprendimento per rinforzo. I creatori di IA hanno attinto a versioni modificate di videogiochi famosi come Super Mario Bros e Minecraft per impartire insegnamenti sull'esplorazione semovente e sulla mira agli obiettivi. Tuttavia, i sistemi operativi rappresentano una sfida unica per i modelli di intelligenza artificiale. In qualità di agenti, l'esecuzione di funzioni all'interno di un sistema operativo presenta spesso un ostacolo multimodale che comporta lo scambio di informazioni tra vari componenti, applicazioni e programmi. Nel contesto dell'allenamento per rinforzo, l'approccio dipende in gran parte dalla sperimentazione. Questo metodo può portare alla perdita di dati, come si vede quando le password vengono inserite in modo errato più volte o non sono chiare le scorciatoie applicabili in diverse app. Correlato: La propensione di ChatGPT con le armi nucleari, l'IA degli anni '80 di SEGA, la crescita del 90% di TAO: AI Eye Il gruppo di scienziati ha lavorato con diversi LLM, tra cui quelli open source di Meta, come Llama2, 70B, e quelli di OpenAI, come GPT-3.5 e GPT-4. La ricerca ha rilevato che nessuno di questi LLM ha mostrato prestazioni eccezionali. Come affermato nel documento di ricerca del team, le attuali esigenze sostituiscono le capacità dell'IA odierna per diversi motivi. Hanno aperto la strada a un nuovo ambiente di formazione chiamato AndroidArena che ha permesso agli LLM di navigare in un ambiente simile al sistema operativo Android. Dopo aver stabilito compiti di test e un sistema di benchmark, hanno scoperto che gli LLM mancavano principalmente di quattro abilità chiave: comprensione, ragionamento, esplorazione e riflessione. Sebbene l'obiettivo dello studio fosse quello di individuare il problema, i ricercatori hanno inaspettatamente identificato un metodo semplice per migliorare l'accuratezza di un modello del 27%. Hanno affrontato il problema della mancanza di riflessione inserendo nel modello informazioni automatizzate riguardanti i suoi tentativi precedenti e le strategie utilizzate durante questi. L'incorporamento della memoria all'interno dei prompt utilizzati per attivare l'azione ha garantito questo risultato. Questa linea di ricerca potrebbe avere profonde implicazioni nella creazione di un assistente AI migliorato.

Published At

2/12/2024 11:37:47 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch