Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Pesquisadores avançam no uso de IA em sistemas operacionais e aumentam a precisão do modelo em 27%

Algoine News
Summary:
Uma equipe de cientistas da Microsoft Research e da Universidade de Pequim conduziu um estudo para entender por que grandes modelos de linguagem (LLMs) como o GPT-4 lutam para manipular sistemas operacionais. Tradicionalmente treinados por meio do aprendizado por reforço, esses modelos de IA vacilam em ambientes de sistema operacional devido a desafios multimodais e risco de perda de dados. Em um ambiente de treinamento exclusivo criado pela equipe chamado AndroidArena, eles identificaram quatro habilidades-chave que os LLMs não tinham: compreensão, raciocínio, exploração e reflexão. Em uma reviravolta surpreendente, os pesquisadores descobriram um método "simples" que aumentou a precisão de um modelo em 27%, abordando a falta de "reflexão". Esta pesquisa pode abrir caminho para um assistente avançado de IA.
Desenvolver uma estratégia para o ChatGPT funcionar de forma independente dentro de um sistema operacional tem sido complicado, mas um esforço colaborativo de cientistas da Microsoft Research e da Universidade de Pequim pode ter encontrado a chave. Os pesquisadores embarcaram em uma exploração para identificar por que grandes modelos de linguagem (LLMs) para inteligência artificial (IA), como o GPT-4, falham em tarefas que exigem manipulações do sistema operacional. Sistemas de ponta como o ChatGPT, alimentado pelo GPT-4, definem o padrão para tarefas generativas, como compor e-mails ou escrever um poema. No entanto, permitir que esses modelos operem como agentes dentro de um ambiente geral traz seu conjunto de ensaios. Normalmente, os modelos de IA aprendem a negociar ambientes virtuais por meio do aprendizado por reforço. Os criadores de IA aproveitaram versões modificadas de videogames conhecidos, como Super Mario Bros e Minecraft, para transmitir aprendizados sobre exploração autopropulsada e mira de metas. No entanto, os sistemas operacionais representam um desafio único para os modelos de IA. Como agentes, a execução de funções dentro de um sistema operacional frequentemente apresenta um obstáculo multimodal envolvendo a troca de informações entre vários componentes, aplicativos e programas. No contexto do treinamento por reforço, a abordagem depende em grande parte da experimentação. Esse método pode levar à perda de dados, como visto quando as senhas são inseridas incorretamente várias vezes ou não são claras sobre os atalhos aplicáveis em diferentes aplicativos. Relacionado: Propensão do ChatGPT com armas nucleares, IA dos anos 80 da SEGA, crescimento de 90% da TAO: AI Eye O grupo de cientistas trabalhou com vários LLMs, incluindo aqueles de código aberto da Meta, como Llama2 70B, e aqueles da OpenAI, como GPT-3.5 e GPT-4. A pesquisa constatou que nenhum desses LLMs apresentou desempenho excepcional. Como afirmado no artigo de pesquisa da equipe, as demandas atuais superam as capacidades da IA atual por várias razões. Eles foram pioneiros em um novo ambiente de treinamento chamado AndroidArena, que permitia que os LLMs navegassem em um ambiente semelhante ao sistema operacional Android. Depois de estabelecer tarefas de teste e um sistema de referência, eles descobriram que os LLMs não tinham principalmente quatro habilidades-chave: compreensão, raciocínio, exploração e reflexão. Embora o foco do estudo fosse identificar o problema, os pesquisadores inesperadamente identificaram um método simples para melhorar a precisão de um modelo em 27%. Eles abordaram a questão da falta de reflexão, alimentando informações automatizadas no modelo sobre suas tentativas anteriores e as estratégias usadas durante elas. A incorporação de memória nos prompts usados para acionar a ação garantiu isso. Essa linha de pesquisa pode ter implicações profundas na criação de um assistente de IA aprimorado.

Published At

2/12/2024 11:37:47 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch