Live Chat

Crypto News

Cryptocurrency News 11 months ago
ENTRESRUARPTDEFRZHHIIT

NIST bittet die Öffentlichkeit um Input zur sicheren und ethischen Entwicklung von KI-Systemen

Algoine News
Summary:
Das National Institute of Standards and Technology (NIST) hat eine Informationsanfrage (Request for Information, RFI) veröffentlicht, um öffentliche Beiträge zur sicheren Entwicklung und Anwendung von künstlicher Intelligenz (KI) zu sammeln. Unter der Leitung von Präsident Bidens Executive Order sucht das NIST nach Einblicken in das Risikomanagement generativer KI und nach Möglichkeiten, KI-generierte Fehlinformationen zu verringern. Das Institut untersucht auch effektive Bereiche für Red-Teaming - eine Strategie, die zur Identifizierung von Systemschwachstellen verwendet wird. Die Anfrage ist Teil einer umfassenderen Initiative des NIST, um die KI-Community bei der verantwortungsvollen und zuverlässigen Entwicklung von KI-Systemen zu unterstützen und den menschenzentrierten Ansatz für KI-Sicherheit und -Governance zu erweitern.
Das National Institute of Standards and Technology (NIST) des US-Handelsministeriums hat im Rahmen seiner Aufgaben im Rahmen der neuesten Executive Order zur sicheren und ethischen Entwicklung und Implementierung von künstlicher Intelligenz (KI) ein Request for Information (RFI) herausgegeben. Das Institut hat bis zum 2. Februar einen öffentlichen Input-Prozess eröffnet, um wichtige Erkenntnisse zu sammeln, die für die Prüfung der Sicherheit von KI-Systemen verwendet werden sollen. Handelsministerin Gina Raimondo erwähnte, dass die Direktive von Präsident Joe Biden vom Oktober, die das NIST anweist, Richtlinien zu entwickeln, einvernehmliche Standards zu fördern und Testumgebungen für die KI-Evaluierung zu schaffen, diese Initiative motiviert. Diese Blaupause zielt darauf ab, den KI-Sektor bei der sicheren, zuverlässigen und ethischen Entwicklung von KI zu unterstützen. Das Informationsersuchen des NIST lädt KI-Unternehmen und die Öffentlichkeit zu Einblicken in das Risikomanagement generativer KI und die Reduzierung von KI-induzierten Fehlinformationsrisiken ein. Generative KI, die Texte, Bilder und Videos auf der Grundlage mehrdeutiger Eingabeaufforderungen erstellen kann, hat sowohl Aufregung als auch Sorgen ausgelöst. Es gibt Befürchtungen über den Verlust von Arbeitsplätzen, Störungen bei Wahlen und das Potenzial der Technologie, die menschliche Kompetenzen zu übersteigen, was zu katastrophalen Ergebnissen führen könnte. Die RFI sucht auch nach Informationen über die optimalen Bereiche für die Durchführung von Red-Teaming während der KI-Risikoprüfung und der Festlegung von Best Practices. Der Begriff "Red-Teaming", abgeleitet von Simulationen des Kalten Krieges, wird verwendet, um sich auf eine Methode zu beziehen, bei der eine Gruppe, die als "Red Team" bezeichnet wird, denkbare gegnerische Situationen oder Angriffe nachahmt, um die Schwachstellen und Schwachstellen eines Systems, Prozesses oder einer Organisation aufzudecken. Diese Technik wird seit langem in der Cybersicherheit eingesetzt, um neue Bedrohungen zu erkennen. In diesem Zusammenhang ist darauf hinzuweisen, dass die allererste öffentliche Red-Teaming-Veranstaltung in den USA im August auf einer Cybersicherheitskonferenz stattfand, die von AI Village, SeedAI und Humane Intelligence organisiert wurde. Die Ankündigung eines neuen KI-Konsortiums durch das NIST im November, gepaart mit einer offiziellen Bekanntmachung, in der Bewerbungen mit relevanten Qualifikationen gefordert wurden, war ein wichtiger Meilenstein. Ziel dieses Konsortiums ist es, spezifische Richtlinien und Maßnahmen zu entwickeln und umzusetzen, um sicherzustellen, dass sich die politischen Entscheidungsträger in den USA für einen menschenzentrierten Ansatz für die Sicherheit und Verwaltung von KI entscheiden.

Published At

12/20/2023 11:46:51 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch