Live Chat

Crypto News

Cryptocurrency News 4 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI dévoile GPT-4o : un bond en avant dans l’interaction multimodale de l’IA en temps réel

Algoine News
Summary:
OpenAI a présenté un nouveau modèle d’IA, GPT-4o, un chatbot avancé capable de traiter et de répondre aux entrées audio, visuelles et textuelles en temps réel. Des démonstrations de la technologie ont mis en évidence ses diverses capacités, allant de l’assistance aux utilisateurs dans diverses tâches telles que la préparation des entretiens à la détection des émotions des utilisateurs. Le modèle, qui surpasse considérablement les outils d’IA précédents d’OpenAI, devrait stimuler des interactions homme-machine plus naturelles. Son déploiement a commencé le 13 mai, en commençant par les entrées de texte et d’image, et les mises à jour des entrées vocales et vidéo seront lancées dans les semaines suivantes.
OpenAI, le créateur de ChatGPT, a dévoilé sa dernière offre d’IA, GPT-4o, un compagnon de chat IA plus conversationnel et étrangement humain qui peut analyser et réagir aux entrées audio et visuelles des utilisateurs en temps réel. Une série de démonstrations fournies par la société révèle que GPT-4 Omni aide les utilisateurs potentiels dans diverses tâches, notamment la préparation visuelle d’un entretien d’embauche, le contact avec le service client pour le remplacement d’un iPhone et le jugement d’un jeu pierre-papier-ciseaux entre deux personnes. Le chatbot IA a même été montré en train de faire des blagues sur les pères, de traduire des conversations bilingues en temps réel et de répondre avec esprit, comme le montre l’une des démos lorsqu’il a été présenté au chiot d’un utilisateur pour la première fois. OpenAI a officiellement présenté GPT-4o, un modèle avancé avec des capacités d’interaction audio, visuelle et textuelle en temps réel : https://t.co/MYHZB79UqN Le déploiement des entrées de texte et d’image dans API et ChatGPT commence aujourd’hui, et les mises à jour vocales et vidéo suivront dans les semaines à venir. pic.twitter.com/uuthKZyzYx... OpenAI (@OpenAI) 13 mai 2024 « Cela ressemble à l’IA que vous voyez dans les films, et je suis toujours un peu surpris par sa réalité », a avoué le PDG d’OpenAI, Sam Altman, dans un article de blog daté du 13 mai. « Atteindre des temps de réponse et une expressivité humains est une étape importante. » Le 13 mai, une version de saisie de texte et d’image uniquement a été lancée initialement, la version complète devant être publiée dans les semaines à venir, selon la déclaration d’OpenAI dans un récent article de X. Les utilisateurs gratuits et payants de ChatGPT auront accès à GPT-4o à partir de l’API de ChatGPT. Le « o » de GPT-4o signifie « omni », signalant un bond vers des modes d’interaction plus naturels entre les humains et les ordinateurs. GPT-4o repousse les limites de l’innovation en matière d’IA en traitant simultanément les entrées de texte, d’audio et d’image, une amélioration importante par rapport aux outils d’IA précédents d’OpenAI comme ChatGPT-4 qui « laissaient généralement une quantité importante d’informations » sur la table lorsqu’ils étaient chargés d’effectuer plusieurs tâches à la fois. OpenAI affirme que « GPT-4o surpasse les modèles précédents en termes de compréhension audio et visuelle », y compris la détection des émotions et des schémas respiratoires des utilisateurs. Il est également « nettement plus rapide » et « 50% moins cher » que GPT-4 Turbo dans l’API d’OpenAI. OpenAI affirme que l’outil d’IA nouvellement lancé peut répondre aux entrées audio aussi rapidement que 2,3 secondes, avec une moyenne d’environ 3,2 secondes, conformément aux durées de réponse humaines typiques dans une conversation quotidienne.

Published At

5/14/2024 3:32:23 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch