KI-Spezialisten demonstrieren für verbesserten Schutz von Hinweisgebern inmitten von Sicherheitsbedenken
Summary:
Ehemalige Mitarbeiter prominenter KI-Unternehmen setzen sich für einen stärkeren Schutz von Hinweisgebern ein, damit risikobezogene Bedenken hinsichtlich der KI-Entwicklung offen geäußert werden können. Die Petition "Right to Warn AI" zielt darauf ab, eine Offenheit zu fördern, die Kritik begrüßt und Hinweisgebern, die auf schwerwiegende KI-Risiken hinweisen, rechtlichen Schutz bietet. Die Kampagne spiegelt wachsende Befürchtungen hinsichtlich der Sicherheitsmaßnahmen neuer KI-Modelle wider, insbesondere solcher, die künstliche allgemeine Intelligenz beinhalten.
Ehemalige Mitarbeiter prominenter KI-Unternehmen setzen sich für einen stärkeren Schutz von Hinweisgebern in diesen Unternehmen ein, um die Transparenz über potenzielle Risiken bei der Entwicklung komplexer KI-Systeme zu fördern. Eine Petition mit dem Titel "Recht auf Warnung vor KI" wurde am 4. Juni von 13 ehemaligen und derzeit arbeitenden Fachleuten bei OpenAI (ChatGPT), Anthropic (Claude) und DeepMind (Google) initiiert. Zu dieser illustren Gruppe gehörten auch KI-Koryphäen wie Yoshua Bengio, Geoffrey Hinton und Stuart Russell. Ihr Ziel ist es, führende KI-Unternehmen davon zu überzeugen, ihren Mitarbeitern zu erlauben, Befürchtungen über KI-Risiken intern und mit der breiten Öffentlichkeit zu teilen.
William Saunders, ein ehemaliger Mitarbeiter von OpenAI und Unterstützer der Kampagne, erklärte, dass es unerlässlich ist, einen Mechanismus zur Offenlegung von Risikoinformationen gegenüber unabhängigen Experten, Regierungsbehörden und der Öffentlichkeit zu haben, wenn es um potenziell gefährliche technische Innovationen geht. Er beobachtete, dass derzeit diejenigen mit dem tiefsten Verständnis von Grenz-KI-Systemen und den damit verbundenen Risiken zögern, ihre Ängste aus Angst vor Gegenreaktionen und strengen Vertraulichkeitsverträgen zu äußern.
Der Vorschlag enthält vier Hauptvorschläge. Die erste besteht darin, Nicht-Verunglimpfungsklauseln in Bezug auf Risiken aufzuheben, damit Unternehmen ihren Mitarbeitern keinen Maulkorb verpassen oder sie bestrafen können, wenn sie Bedenken hinsichtlich KI-Risiken äußern. Als nächstes schlagen sie vor, anonyme Kanäle einzurichten, über die Einzelpersonen ihre Bedenken hinsichtlich KI-Risiken äußern können, um so eine Atmosphäre zu fördern, die offene Kritik begrüßt. Ihre letzte Forderung ist der rechtliche Schutz von Whistleblowern, um sicherzustellen, dass Unternehmen keine Vergeltungsmaßnahmen gegen Mitarbeiter ergreifen, die Gefahr laufen, ernsthaften KI-Risiken ausgesetzt zu sein. Saunders beschrieb diese Prinzipien als einen "proaktiven Ansatz", der KI-Unternehmen ermutigen wird, KI zu entwickeln, die nicht nur nützlich, sondern auch sicher ist.
Die Kampagne ist ein Ergebnis wachsender Befürchtungen darüber, dass KI-Labore bei der Entwicklung ihrer neuen Modelle Sicherheitsmaßnahmen übersehen haben, insbesondere im Umgang mit künstlicher allgemeiner Intelligenz (AGI), die darauf abzielt, Software zu entwickeln, die menschliche Intelligenz nachahmt und selbstständig lernen kann. Daniel Kokotajlo, ein ehemaliger Mitarbeiter von OpenAI, teilte mit, dass seine Entscheidung, das Unternehmen zu verlassen, auf seinen Vertrauensverlust in den verantwortungsvollen Umgang des Unternehmens mit AGI-Zwecken zurückzuführen ist. Kokotajlo war der Meinung, dass der kulturelle Ansatz "Move fast and break things" nicht mit einer Technologie vereinbar ist, die so mächtig und so missverstanden ist wie AGI.
Helen Toner, eine ehemalige Direktorin bei OpenAI, enthüllte am 28. Mai in einem Ted AI-Podcast, dass Sam Altman, der CEO von OpenAI, Gerüchten zufolge aus dem Unternehmen entlassen wurde, weil er dem Vorstand wichtige Informationen vorenthalten hatte.
Published At
6/4/2024 4:59:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.