Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI startet "Preparedness"-Initiative zur Bewältigung von KI-bezogenen Risiken und zur Minderung potenzieller Bedrohungen

Algoine News
Summary:
OpenAI startet eine Initiative namens "Preparedness", um weitreichende Risiken im Zusammenhang mit KI zu bewerten und zu mindern. Die Initiative konzentriert sich auf potenzielle KI-Bedrohungen, einschließlich chemischer, biologischer, radiologischer und nuklearer Bedrohungen, individueller Überzeugung, Cybersicherheit und autonomer Replikation. Unter der Leitung von Aleksander Madry wird das Team die Gefahren des Missbrauchs von Frontier-KI-Systemen untersuchen. OpenAI hat auch eine AI Preparedness Challenge zur Verhinderung von Katastrophenmissbrauch ins Leben gerufen, bei der 25.000 US-Dollar an API-Credits für die besten Einreichungen vergeben werden.
OpenAI, das Unternehmen, das für die Entwicklung von KI-Technologien wie ChatGPT verantwortlich ist, startet ein Projekt, das darauf abzielt, verschiedene potenzielle Gefahren im Zusammenhang mit KI zu bewerten. Wie am 25. Oktober bekannt gegeben, strukturiert OpenAI nun ein einzigartiges Team, dessen Hauptaugenmerk auf der Untersuchung, Vorhersage und Minderung potenzieller überwältigender Gefahren liegen wird, die sich aus dem Einsatz von KI-Technologie ergeben könnten. Dieses Team mit dem Namen "Preparedness" wird potenzielle KI-Risiken wie chemische, biologische, radiologische und nukleare Bedrohungen, individuelle Überzeugungsarbeit, Cybersicherheit sowie spontane Replikation und Anpassungen genau im Auge behalten. Das Team unter der Leitung von Aleksander Madry hat die Aufgabe, kritische Fragen zu verstehen, wie z. B. die Gefahr, die ein fortschrittliches KI-System bei unsachgemäßer Verwendung darstellen kann, oder ob es im Falle eines Diebstahls von schädlichen Elementen eingesetzt werden könnte. "Frontier-KI-Modelle", so OpenAI, "haben das Potenzial, für die globale Menschheit von Vorteil zu sein." Ebenso behaupteten sie, dass diese KI-Modelle auch "zunehmend schwerwiegende Risiken" darstellen könnten. OpenAI erläuterte die Ansichten des Unternehmens wie folgt: "Wir erkennen alle Formen von Sicherheitsrisiken im Zusammenhang mit KI an und berücksichtigen sie ernsthaft, von den heutigen Systemen bis hin zu den äußersten Extremen der Superintelligenz ... Um die Sicherheit hochleistungsfähiger KI-Systeme zu gewährleisten, verfeinern wir unseren Ansatz für den Umgang mit Katastrophenvorsorge." Neben der Gründung der neuen Abteilung startet OpenAI eine Challenge, die darauf abzielt, den katastrophalen Missbrauch von KI zu verhindern, und verspricht den Top 10 der besten Einreichungen 25.000 US-Dollar an API-Gutschriften. Das Unternehmen kündigte außerdem an, dass es auf der Suche nach Talenten mit unterschiedlichem technischem Hintergrund ist, die Teil des Preparedness-Teams werden sollen. OpenAI hatte bereits angedeutet, im Juli 2023 ein Team zu gründen, das sich auf die Bewältigung potenzieller KI-Gefahren konzentriert. Traditionell wird oft auf die potenziellen Gefahren hingewiesen, die mit künstlicher Intelligenz verbunden sind, was die Befürchtung auslöst, dass diese KI-Systeme eines Tages die menschliche Intelligenz übertreffen könnten. Ungeachtet dieser Befürchtungen haben Unternehmen wie OpenAI die Entwicklung neuer KI-Technologien aktiv vorangetrieben und damit unbeabsichtigt mehr Misstrauen und Ängste geweckt. In einer vergleichbaren Entwicklung veröffentlichte das Center for AI Safety, eine gemeinnützige Organisation, im Mai 2023 einen offenen Brief, in dem das KI-Risiko hervorgehoben wird. Das Zentrum ist der Ansicht, dass die Risiken, die von KI ausgehen, auf globaler Ebene ernsthaft angegangen werden sollten, neben anderen gesellschaftlichen Risiken wie Pandemien und nuklearer Kriegsführung.

Published At

10/27/2023 10:03:56 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch