Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI stellt Sora vor: ein revolutionäres Text-to-Video-Modell mit beeindruckenden Fähigkeiten

Algoine News
Summary:
OpenAI hat ein Text-zu-Video-Modell, Sora, eingeführt, das einfache Textaufforderungen in detaillierte 60-Sekunden-Videos umwandeln kann. Unter Verwendung eines "Diffusions"-Modells, das seinem bildbasierten Vorgänger DALL-E 3 ähnelt, erzeugt Sora ein erstes Video oder Bild, das dem "statischen Rauschen" ähnelt und nach und nach verfeinert wird. Trotz seiner Fähigkeiten räumte OpenAI ein, dass es Einschränkungen bei der genauen Darstellung der Physik komplexer Szenen und dem Verständnis von Ursache-Wirkungs-Beziehungen gibt. Vorerst wurde Cybersicherheitsforschern und ausgewählten Künstlern der Zugang zu Sora zur Bewertung und zum Feedback gewährt. Mehrere Demonstrationen von Soras Fähigkeiten kursierten im Internet und stießen auf großes Interesse.
OpenAI, ein bekanntes Unternehmen für künstliche Intelligenz, hat gerade sein neuartiges Text-zu-Video-Modell Sora vorgestellt, das trotz positiver erster Reaktionen zugegebenermaßen noch Raum für Verbesserungen hat. Sora, das am 15. Februar von OpenAI angekündigt wurde, nutzt die Fähigkeiten der KI, um einfache Textaufforderungen in komplizierte Videos umzuwandeln, bereits vorhandene Videos zu verbessern und sogar Szenen aus einem statischen Bild zu erstellen. Sora ist in der Lage, 60-Sekunden-Videos voller Details, zahlreicher Charaktere mit lebhaften Emotionen und komplexen Kamerabewegungen zu produzieren. In einem Blogbeitrag, der am 15. Februar veröffentlicht wurde, berichtete OpenAI, dass Sora Sequenzen erstellen kann, die einer filmischen Produktion ähneln, und zwar in Auflösungen von bis zu 1080p. Ähnlich wie das frühere bildzentrierte Modell von OpenAI, DALL-E 3, verwendet Sora ein "Diffusionsmodell", bei dem die KI ein erstes Video oder Bild erzeugt, das dem "statischen Rauschen" ähnelt, und es dann verfeinert, indem sie das Rauschen schrittweise "ausmerzt". Laut OpenAI basierte die Entwicklung von Sora auf den Erkenntnissen aus den Vorgängermodellen GPT und DALL-E3, was die Genauigkeit des Modells bei der Spiegelung von Benutzereingaben verbessert haben soll. OpenAI räumte Soras bestehende Einschränkungen ein, wie z. B. Schwierigkeiten bei der korrekten Darstellung der Physik komplizierter Szenen und die Fehlinterpretation von Ursache-Wirkungs-Beziehungen. Darüber hinaus kann Sora die "räumlichen Besonderheiten" einer Eingabeaufforderung missverstehen und falsch darstellen, wodurch Richtungen falsch ausgerichtet werden oder sich nicht an präzise Beschreibungen halten. Bis auf Weiteres hat OpenAI Sora nur für "Red Teamer", im Wesentlichen Cybersicherheitsforscher, zugänglich gemacht, um mögliche Risiken und Probleme zu erkennen, sowie für einige ausgewählte Designer, bildende Künstler und Filmemacher, die Feedback für weitere Verbesserungen geben. Eine Studie, die im Dezember 2023 von der Stanford University veröffentlicht wurde, wies auf die kritischen ethischen und rechtlichen Dilemmata hin, die mit Bild- oder Videoerstellungsmodellen verbunden sind, die KI-Datenbanken wie LAION verwenden. Sora hat auf X einen Hype ausgelöst, mit über 173.000 Beiträgen, in denen das Modell diskutiert und Videodemonstrationen seiner Fähigkeiten in Umlauf gebracht wurden. Sam Altman, CEO von OpenAI, demonstrierte sein Potenzial, indem er benutzerdefinierte Videos gemäß den Anforderungen der Benutzer von X generierte. Verschiedene Beispiele waren eine Ente mit Drachenrücken und Golden Retriever, die einen Podcast von einem Berggipfel aus moderierten. Mehrere Personen, darunter der KI-Kommentator Mckay Wrigley, drückten ihre Ehrfurcht vor den von Sora produzierten Videos aus. In einem Beitrag vom 15. Februar auf X bekräftigte Nvidias leitender Forscher Jim Fan seine Überzeugung, dass Sora nicht einfach ein KI-Spielzeug wie DALL-E 3 ist, sondern eine weiterentwickelte "datengesteuerte Physik-Engine", die in der Lage ist, realistisches Rendering, intuitive Physik, langfristiges Denken und semantische Grundlage zu ermöglichen.

Published At

2/16/2024 8:56:53 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch