Live Chat

Crypto News

Cryptocurrency News 4 months ago
ENTRESRUARPTDEFRZHHIIT

Los investigadores avanzan en el uso de la IA en los sistemas operativos y aumentan la precisión de los modelos en un 27%

Algoine News
Summary:
Un equipo de científicos de Microsoft Research y la Universidad de Pekín realizó un estudio para comprender por qué los grandes modelos de lenguaje (LLM) como GPT-4 tienen dificultades para manipular los sistemas operativos. Tradicionalmente entrenados a través del aprendizaje por refuerzo, estos modelos de IA fallan en los entornos de sistemas operativos debido a los desafíos multimodales y al riesgo de pérdida de datos. En un entorno de formación único creado por el equipo llamado AndroidArena, identificaron cuatro habilidades clave de las que carecían los LLM: comprensión, razonamiento, exploración y reflexión. En un giro sorpresivo, los investigadores descubrieron un método "simple" que aumentaba la precisión de un modelo en un 27% al abordar la falta de "reflexión". Esta investigación podría allanar el camino para un asistente avanzado de IA.
Desarrollar una estrategia para que ChatGPT funcione de forma independiente dentro de un sistema operativo ha sido complicado, pero un esfuerzo colaborativo de científicos de Microsoft Research y la Universidad de Pekín puede haber encontrado la clave. Los investigadores se embarcaron en una exploración para determinar por qué los grandes modelos de lenguaje (LLM) para inteligencia artificial (IA) como GPT-4 fallan en tareas que requieren manipulaciones del sistema operativo. Los sistemas de vanguardia como ChatGPT, impulsado por GPT-4, establecen el estándar para tareas generativas como redactar correos electrónicos o escribir un poema. Sin embargo, permitir que estos modelos operen como agentes dentro de un entorno general trae su conjunto de pruebas. Normalmente, los modelos de IA aprenden a negociar entornos virtuales a través del aprendizaje por refuerzo. Los creadores de IA han aprovechado versiones modificadas de videojuegos conocidos como Super Mario Bros y Minecraft para impartir aprendizajes sobre la exploración autopropulsada y la fijación de objetivos. Sin embargo, los sistemas operativos plantean un desafío único para los modelos de IA. Como agentes, la ejecución de funciones dentro de un sistema operativo presenta con frecuencia un obstáculo multimodal que implica el intercambio de información entre varios componentes, aplicaciones y programas. En el contexto del entrenamiento de refuerzo, el enfoque depende en gran medida de la experimentación. Este método puede provocar la pérdida de datos, como se ve cuando las contraseñas se introducen incorrectamente varias veces o no tienen claros los accesos directos aplicables en diferentes aplicaciones. Relacionado: La propensión de ChatGPT a las armas nucleares, la IA de los 80 de SEGA, el crecimiento del 90% de TAO: AI Eye El grupo científico trabajó con múltiples LLM, incluidos los de código abierto de Meta, como Llama2 70B, y los de OpenAI, como GPT-3.5 y GPT-4. La investigación encontró que ninguno de estos LLM mostró un rendimiento excepcional. Como se indica en el documento de investigación del equipo, las demandas actuales reemplazan las capacidades de la IA actual por varias razones. Fueron pioneros en un novedoso entorno de entrenamiento llamado AndroidArena que permitía a los LLM navegar en un entorno similar al del sistema operativo Android. Después de establecer tareas de prueba y un sistema de referencia, descubrieron que los LLM carecían principalmente de cuatro habilidades clave: comprensión, razonamiento, exploración y reflexión. Aunque el objetivo del estudio era identificar el problema, los investigadores identificaron inesperadamente un método sencillo para mejorar la precisión de un modelo en un 27%. Abordaron el problema de la falta de reflexión introduciendo información automatizada en el modelo sobre sus intentos anteriores y las estrategias utilizadas durante ellos. La incrustación de memoria dentro de los mensajes utilizados para desencadenar la acción garantizó esto. Esta línea de investigación podría tener profundas implicaciones en la creación de un asistente de IA mejorado.

Published At

2/12/2024 11:37:47 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch