Live Chat

Crypto News

Cryptocurrency News 4 months ago
ENTRESRUARPTDEFRZHHIIT

Kontrolle schädlicher KI: Ein Aufruf zu verbesserten staatlich unterstützten Systemen und Computing-Governance

Algoine News
Summary:
Forscher gehen davon aus, dass die Kontrolle schädlicher künstlicher Intelligenz (KI) eine kontinuierliche Verbesserung leistungsfähiger, staatlich unterstützter KI-Systeme erfordern könnte. Ihre Studie schlägt vor, dass der Zugang zu wichtigen KI-Ressourcen kontrolliert werden muss, was die Implementierung einer "Compute Governance" erfordert. Eine wirksame Einschränkung des böswilligen Einsatzes von KI könnte den Einbau von "Kill-Switches" in die Hardware erfordern, die die Fernbeendigung illegaler Vorgänge ermöglichen. Sie warnen auch vor möglichen Komplikationen bei der Steuerung dezentraler Datenverarbeitung. Die Forscher schlagen vor, dass Gesellschaften möglicherweise leistungsfähigere, steuerbare Rechensysteme mit Bedacht einsetzen müssen, um aufkommenden Risiken durch unregierbare Computersysteme entgegenzuwirken.
Die Kontrolle schädlicher künstlicher Intelligenz (KI) kann in der kontinuierlichen Weiterentwicklung von KI unter staatlicher Anleitung liegen. Zu diesem Schluss kommt eine Gruppe von Forschern in ihrer neuesten Arbeit mit dem Titel "Computing power then governance of artificial intelligence". Die Studie, an der Intellektuelle von Instituten wie OpenAI, Cambridge, Oxford und vielen anderen beteiligt waren, war ein Versuch, die unmittelbaren und potenziellen Probleme im Zusammenhang mit der Gesetzgebung und dem Fortschritt der KI zu untersuchen. Die Hauptaussage des Papiers unterstreicht die potenzielle Notwendigkeit, den Zugang zu zentralen KI-Systemen in Zukunft zu kontrollieren, indem die Hardware gesteuert wird, die für ihren Betrieb und ihre Modellierung erforderlich ist. Wie die Forscher erklären, können politische Entscheidungsträger Rechenleistung nutzen, um vorteilhafte Ergebnisse zu erzielen, unverantwortliche KI-Entwicklung und -Nutzung einzudämmen und regulatorische Transparenz zu schaffen. Hier bezieht sich "Compute" auf die wichtige Hardware, die für die KI-Entwicklung benötigt wird, einschließlich GPUs und CPUs. Die Forscher empfehlen, den Zugang zu diesen Quellen zu unterbrechen, da dies der optimale Weg ist, um potenzielle KI-bedingte Schäden abzuwenden. Dies impliziert staatliche Maßnahmen zur Überwachung der Erstellung, des Verkaufs und der Funktion von Hardware, die für die Entwicklung fortschrittlicher KI entscheidend ist. In bestimmten Aspekten wird "Compute Governance" bereits global praktiziert. So beschränken die USA beispielsweise den Verkauf bestimmter GPU-Modelle, die häufig im KI-Training verwendet werden, auf Länder wie China. Um den böswilligen Einsatz von KI wirksam einzuschränken, müssen die Hersteller laut der Studie "Kill Switches" in die Hardware einbauen. Eine solche Maßnahme würde es Regierungen ermöglichen, illegale KI-Trainingsbemühungen aus der Ferne zu beenden. Trotzdem warnen die Wissenschaftler davor, dass solche Governance-Maßnahmen mit inhärenten Risiken im Zusammenhang mit der Privatsphäre, den wirtschaftlichen Auswirkungen und der Machtkonzentration verbunden sind. Zum Beispiel könnte die Hardware-Überwachung in den USA gegen die jüngste KI-Richtlinie des Weißen Hauses verstoßen, die den Bürgern Datenschutzrechte zusichert. Zusätzlich zu diesen Bedenken weisen die Forscher auch darauf hin, dass die sich abzeichnenden Fortschritte im Bereich des "kommunikationseffizienten" Trainings in Richtung dezentraler Datenverarbeitung für die Modellierung, den Aufbau und den Betrieb führen könnten. Dieser Trend könnte die Aufgabe der Regierung erschweren, illegale Ausbildungsapparate zu identifizieren und zu beenden. Die Forscher vermuten, dass diese Möglichkeit den Regierungen keine andere Wahl lassen könnte, als eine aggressive Strategie gegen den unrechtmäßigen Einsatz von KI zu verfolgen. In ihrem Urteil heißt es: "Die Gesellschaft wird leistungsfähigere, steuerbare Rechenanlagen rechtzeitig und mit Bedacht einsetzen müssen, um Abwehrmaßnahmen gegen aufkommende Risiken zu entwickeln, die von unkontrollierbarem Rechner ausgehen.

Published At

2/16/2024 10:12:59 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch