Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI ने GPT-4o का खुलासा किया: रीयल-टाइम मल्टीमॉडल AI इंटरेक्शन में एक छलांग आगे

Algoine News
Summary:
OpenAI ने एक नया AI मॉडल, GPT-4o पेश किया है, जो एक उन्नत चैटबॉट है जो रीयल-टाइम में ऑडियो, विज़ुअल और टेक्स्ट इनपुट को संसाधित करने और प्रतिक्रिया देने में सक्षम है। प्रौद्योगिकी के प्रदर्शनों ने अपनी विविध क्षमताओं का प्रदर्शन किया, जिसमें उपयोगकर्ताओं की भावनाओं का पता लगाने के लिए साक्षात्कार की तैयारी जैसे विभिन्न कार्यों में उपयोगकर्ताओं की सहायता करना शामिल है। मॉडल, जो OpenAI के पिछले AI टूल से महत्वपूर्ण रूप से बेहतर प्रदर्शन करता है, से अधिक प्राकृतिक मानव-कंप्यूटर इंटरैक्शन को बढ़ावा मिलने की उम्मीद है। इसका रोलआउट 13 मई को शुरू हुआ, जिसकी शुरुआत टेक्स्ट और इमेज इनपुट से हुई, और अगले हफ्तों में वॉयस और वीडियो इनपुट अपडेट लॉन्च किए जाएंगे।
ChatGPT के निर्माता OpenAI ने अपनी नवीनतम AI पेशकश, GPT-4o का अनावरण किया है, जो एक बड़ा संवादी और अलौकिक मानवीय AI चैट साथी है जो वास्तविक समय में ऑडियो और विज़ुअल उपयोगकर्ता इनपुट दोनों का विश्लेषण और प्रतिक्रिया कर सकता है। कंपनी द्वारा प्रदान किए गए प्रदर्शनों की श्रृंखला से पता चलता है कि GPT-4 ओमनी विभिन्न कार्यों में संभावित उपयोगकर्ताओं की सहायता करता है, जिसमें नेत्रहीन नौकरी के साक्षात्कार की तैयारी करना, iPhone प्रतिस्थापन के लिए ग्राहक सेवा से संपर्क करना और रॉक-पेपर-कैंची के खेल को पहचानना शामिल है। एआई चैटबॉट को डैड चुटकुले सुनाते हुए, वास्तविक समय में द्विभाषी वार्तालापों का अनुवाद करते हुए, और मजाकिया अंदाज में जवाब देते हुए दिखाया गया था, जैसा कि डेमो में से एक में प्रदर्शित किया गया था जब इसे पहली बार उपयोगकर्ता के पिल्ला में पेश किया गया था। OpenAI ने औपचारिक रूप से GPT-4o प्रस्तुत किया, जो वास्तविक समय में ऑडियो, विजुअल और टेक्स्ट इंटरैक्शन की क्षमताओं वाला एक उन्नत मॉडल है: https://t.co/MYHZB79UqN API और ChatGPT में टेक्स्ट और इमेज इनपुट के लिए रोलआउट आज से शुरू हो रहा है, आने वाले हफ्तों में वॉयस और वीडियो अपडेट का पालन किया जाएगा। pic.twitter.com/uuthKZyzYx— OpenAI (@OpenAI) 13 मई 2024 "यह एआई के समान है जिसे आप फिल्मों में देखते हैं, और मैं अभी भी इसकी वास्तविकता से थोड़ा चौंका हूं," ओपनएआई के सीईओ सैम ऑल्टमैन ने 13 मई को एक ब्लॉग पोस्ट में कबूल किया। "मानवीय प्रतिक्रिया समय और अभिव्यक्ति प्राप्त करना काफी मील का पत्थर है। 13 मई को, एक टेक्स्ट और इमेज इनपुट-ओनली संस्करण शुरू में लॉन्च किया गया था, जिसका पूरा संस्करण आने वाले हफ्तों में जारी होने वाला था, जैसा कि हाल ही में एक्स पोस्ट में ओपनएआई के बयान के अनुसार है। मुफ़्त और सशुल्क दोनों ChatGPT उपयोगकर्ताओं के पास ChatGPT के API से GPT-4o तक पहुंच होगी। GPT-4o में "o" का अर्थ "ओमनी" है, जो मनुष्यों और कंप्यूटरों के बीच बातचीत के अधिक प्राकृतिक तरीकों की ओर एक छलांग का संकेत देता है। GPT-4o टेक्स्ट, ऑडियो और इमेज इनपुट को एक साथ प्रोसेस करके AI इनोवेशन में सीमाओं को आगे बढ़ाता है, OpenAI के पिछले AI टूल्स जैसे ChatGPT-4 से एक मील का पत्थर सुधार जो आमतौर पर मल्टीटास्क का काम सौंपे जाने पर टेबल पर "महत्वपूर्ण मात्रा में जानकारी छोड़ देता है"। OpenAI आवाज देता है कि "GPT-4o ऑडियो और विजुअल समझ के मामले में पूर्ववर्ती मॉडल से बेहतर प्रदर्शन करता है," जिसमें उपयोगकर्ताओं की भावनाओं और सांस लेने के पैटर्न का पता लगाना शामिल है। OpenAI के API में GPT-50 टर्बो की तुलना में यह "काफी तेज" और "4% कम खर्चीला" भी है। OpenAI का दावा है कि नया लॉन्च किया गया AI टूल 2.3 सेकंड में ऑडियो इनपुट का जवाब दे सकता है, औसतन लगभग 3.2 सेकंड, रोजमर्रा की बातचीत में विशिष्ट मानव प्रतिक्रिया अवधि के अनुरूप।

Published At

5/14/2024 3:32:23 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚧 Platform is in prototype mode — bot activations are currently unavailable, but you’re welcome to explore all other features!

Cookie Consent

This website uses cookies or similar technologies, to enhance your browsing experience and provide personalized recommendations. By continuing to use our website, you agree to our Privacy Policy