Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Le moteur d’inférence LPU de Groq : un moteur qui change la donne dans la mécanique de l’IA, surpasse les modèles haut de gamme

Algoine News
Summary:
L’outil révolutionnaire d’intelligence artificielle de Groq, le moteur d’inférence Groq LPU, a gagné l’adoration du public après avoir éclipsé les performances des meilleurs modèles d’IA dans les tests de référence publics. L’évangéliste en chef de Groq, Mark Heaps, fait la lumière sur la création de Groq, expliquant sa conception centrée sur le logiciel visant à rendre l’IA accessible dans le monde entier, et son potentiel à changer la façon dont les systèmes d’IA fonctionnent. Il a également abordé la confusion probable entre les noms « Groq » et le chatbot d’IA « Grok » d’Elon Musk.
Le nouvel outil d’intelligence artificielle (IA) de Groq, le moteur d’inférence Groq LPU, a révolutionné le discours public après ses performances exceptionnelles dans les tests de référence publics, fournissant des résultats supérieurs aux modèles d’élite des géants de la technologie. Groq ne doit pas être confondu avec le modèle d’IA Grok d’Elon Musk, car Groq n’est pas un modèle d’IA mais une infrastructure de puce pour exécuter un modèle. Les créateurs de Groq ont conçu leur puce d’IA unique « centrée sur le logiciel », appelée unité de traitement du langage (LPU) conçue pour les applications d’inférence. Le LPU permet à Groq de générer environ 500 jetons par seconde. Par rapport au modèle d’IA accessible au public, ChatGPT-3.5, qui fonctionne sur des unités de traitement graphique (GPU) limitées et coûteuses, ne fournit qu’environ 40 jetons par seconde. Groq a fait l’objet d’une attention considérable sur la plate-forme X, car elle est largement comparée à d’autres systèmes d’IA. Parmi les start-ups émergentes de puces d’IA, Groq brille par sa stratégie révolutionnaire axée sur sa technologie de compilateur pour améliorer une architecture simple mais puissante. Cointelegraph a interagi avec Mark Heaps, l’évangéliste en chef de Groq, pour une compréhension approfondie de l’outil et de son potentiel à changer le fonctionnement des systèmes d’IA. Selon Heaps, le fondateur de Groq, Jonathan Ross, visait à développer un système qui empêcherait la division de l’IA. À cette époque, les unités de traitement tensorielles (TPU) étaient exclusives à Google pour leurs systèmes. Cependant, l’émergence des PPU visait à permettre à quiconque dans le monde entier d’accéder à ce niveau technologique afin de générer des solutions innovantes pour le monde entier. Heaps a caractérisé le LPU comme une « solution matérielle centrée sur le logiciel » qui unifie le processus de déplacement des données non seulement à travers la puce, mais aussi d’une puce à l’autre et dans un réseau. La situation actuelle pour les développeurs concerne la disponibilité et le coût limités de GPU robustes comme les puces A100 et H100 de Nvidia nécessaires à l’exécution de modèles d’IA. Cependant, Heaps a mentionné que Groq ne rencontre pas les mêmes problèmes étant donné la construction de sa puce à partir de silicium de 14 nm, offrant un prix abordable et une accessibilité. Pour les déploiements matériels à plus petite échelle, les systèmes GPU restent pertinents. Cependant, le débat entre LPU et GPU dépend souvent de divers aspects tels que la charge de travail et le modèle. Bien que les LPU n’aient pas encore été mis en œuvre par la majorité des principaux développeurs, a déclaré Heaps, plusieurs raisons y contribuent, notamment la « vague » relativement récente de LLM. Certains développeurs préfèrent encore une solution complète comme un GPU pour l’entraînement et l’inférence. Cependant, les conditions actuelles du marché ont nécessité une différenciation, les solutions générales n’y parvenant pas. En plus du produit, Heaps a abordé le nom « Groq » et la confusion probable avec le chatbot IA « Grok » d’Elon Musk. Bien que « Grok » n’ait attiré l’attention qu’en novembre 2023, « Groq » a été créé en 2016 et son nom a été déposé par la suite. Il a déclaré que malgré les affirmations de certains fans de Musk selon lesquelles ils avaient l’intention d'"hériter du nom » ou comme stratagème de marketing, la prise de conscience de l’histoire de l’entreprise a fait taire les critiques. À l’heure actuelle, l’accent est mis sur Groq, avec un Q.

Published At

2/22/2024 1:23:14 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch