Live Chat

Crypto News

Cryptocurrency News 8 months ago
ENTRESRUARPTDEFRZHHIIT

OpenAI stellt "Preparedness"-Team vor, um potenziellen KI-Katastrophen entgegenzuwirken

Algoine News
Summary:
OpenAI, das KI-Forschungs- und Entwicklungsunternehmen, hat seine neue Initiative "Preparedness" angekündigt, die sich auf potenzielle KI-Bedrohungen konzentriert. Dieses Team unter der Leitung von Aleksander Madry wird potenzielle katastrophale Risiken, die sich aus KI ergeben, überwachen, bewerten, antizipieren und minimieren. Die Hauptschwerpunkte liegen auf chemischen, biologischen, radiologischen und nuklearen Bedrohungen, individualisierter Überzeugung, Cybersicherheit und autonomer Replikationsanpassung. Darüber hinaus hat OpenAI eine AI Preparedness Challenge ins Leben gerufen, bei der die besten Einreichungen mit API-Credits in Höhe von 25.000 US-Dollar belohnt werden. Das Unternehmen wirbt auch um Kandidaten aus verschiedenen technischen Disziplinen, um das neue Team zu verstärken.
OpenAI, die Organisation, die für die Entwicklung und Erforschung von KI-Technologie, einschließlich ChatGPT, verantwortlich ist, initiiert einen neuen strategischen Plan, um eine Vielzahl von Gefahren im Zusammenhang mit KI zu identifizieren und anzugehen. Die Organisation gab am 25. Oktober bekannt, dass sie ein spezialisiertes Team aufbaut, um potenzielle katastrophale Gefahren, die sich aus der Anwendung von KI-Technologie ergeben, zu identifizieren, zu bewerten, proaktiv zu prognostizieren und abzuschirmen. Diese fokussierte Abteilung von OpenAI mit dem Namen "Preparedness" wird sich in erster Linie auf potenzielle KI-Risiken im Zusammenhang mit chemischen, biologischen, radiologischen und nuklearen Schäden sowie auf personalisierte Überzeugung, Cybersicherheit sowie autonome Replikation und Weiterentwicklung konzentrieren. Unter der Leitung von Aleksander Madry wird die Preparedness-Crew versuchen, das Ausmaß der Gefahr zu ermitteln, die Grenz-KI-Systeme darstellen könnten, wenn sie missbraucht werden, und ob diese Systeme effektiv von böswilligen Personen eingesetzt werden können, die gestohlene KI-Modellgewichte erworben haben. OpenAI erklärte: "Frontier-KI-Modelle mit ihrem Potenzial, die Fähigkeiten der fortschrittlichsten derzeit existierenden Modelle zu übertreffen, versprechen einen enormen Nutzen für die Menschheit." Das Unternehmen räumte jedoch auch ein, dass diese Modelle immer größere Risiken bergen. Das Unternehmen führte weiter aus: "Wir nehmen jedes Sicherheitsrisiko im Zusammenhang mit KI ernst, von den aktuellen Systemen bis hin zu den denkbaren Spitzen der Superintelligenz. Um die Sicherheit hochentwickelter KI-Systeme zu gewährleisten, schärfen wir unsere Strategie für die Vorsorge gegen katastrophale Risiken." OpenAI erklärte in seinem Blogbeitrag, dass sie derzeit auf der Suche nach qualifizierten Personen mit unterschiedlichem technischem Hintergrund sind, die sich dem Preparedness-Team anschließen möchten. Darüber hinaus starteten sie die AI Preparedness Challenge, um Initiativen zur Verhinderung von katastrophalem Missbrauch zu fördern, wobei die 10 besten Beiträge 25.000 US-Dollar in Form von API-Gutschriften erhielten. Bemerkenswert ist, dass das Unternehmen bereits im Juli 2023 Pläne zur Einrichtung eines Teams bekannt gegeben hatte, das sich mit potenziellen KI-Risiken befasst. Es wurde immer wieder auf die Gefahren im Zusammenhang mit der KI-Technologie hingewiesen, gepaart mit der Befürchtung, dass KI möglicherweise den menschlichen Intellekt übertreffen könnte. Obwohl sie sich dieser Risiken bewusst sind, haben Unternehmen wie OpenAI die KI-Technologie weiterhin aktiv weiterentwickelt und damit weitere Befürchtungen geschürt. Im Mai 2023 veröffentlichte die gemeinnützige Organisation Center for AI Safety einen öffentlichen Brief, in dem sie das KI-Risiko betonte und auf kollektive Maßnahmen drängte, um das Risiko des Aussterbens der Menschheit durch KI neben anderen großen Bedrohungen wie Pandemien und Atomkriegen zu verringern.

Published At

10/27/2023 10:03:00 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch