Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Controllo dell'IA dannosa: un appello per migliorare i sistemi sostenuti dal governo e la governance del calcolo

Algoine News
Summary:
I ricercatori suggeriscono che il controllo dell'intelligenza artificiale (IA) dannosa potrebbe richiedere un miglioramento continuo dei potenti sistemi di IA sostenuti dal governo. Il loro studio propone la necessità di controllare l'accesso alle risorse vitali dell'IA, rendendo necessaria l'implementazione di una "governance del calcolo". Un'efficace limitazione dell'uso dannoso dell'IA potrebbe richiedere l'inclusione di "kill switch" nell'hardware, consentendo la cessazione remota delle operazioni illegali. Avvertono inoltre delle possibili complicazioni nel controllo dell'elaborazione decentralizzata. I ricercatori suggeriscono che le società potrebbero aver bisogno di impiegare saggiamente calcoli più potenti e governabili per contrastare i rischi emergenti da sistemi di calcolo non governabili.
Il controllo dell'intelligenza artificiale (IA) dannosa può risiedere nel continuo miglioramento dell'IA sotto la guida del governo. Questa deduzione è tratta da un gruppo di ricercatori nel loro ultimo articolo intitolato "Potenza di calcolo, quindi governance dell'intelligenza artificiale". Lo studio, che ha coinvolto intellettuali di istituti come OpenAI, Cambridge, Oxford e molti altri, è stato uno sforzo per esplorare le questioni immediate e potenziali relative alla legislazione e alla progressione dell'IA. La tesi principale del documento evidenzia la potenziale necessità di controllare l'accesso ai sistemi di IA fondamentali in futuro, controllando l'hardware necessario per farli funzionare e modellarli. Come spiegato dai ricercatori, i responsabili politici possono sfruttare la potenza di calcolo per implementare risultati vantaggiosi, frenare lo sviluppo e l'utilizzo irresponsabile dell'IA e fornire visibilità normativa. In questo caso, il termine "calcolo" si riferisce all'hardware vitale necessario per lo sviluppo dell'intelligenza artificiale, comprese GPU e CPU. I ricercatori raccomandano di interrompere l'accesso a queste fonti come il modo ottimale per evitare potenziali danni legati all'IA. Ciò implica misure governative per supervisionare la creazione, la vendita e il funzionamento di qualsiasi hardware cruciale per lo sviluppo avanzato dell'IA. Per certi aspetti, la "governance del calcolo" è già praticata a livello globale. Ad esempio, gli Stati Uniti limitano la vendita di specifici modelli di GPU, comunemente utilizzati nell'addestramento dell'IA, a paesi come la Cina. Secondo la ricerca, limitare efficacemente l'uso malevolo dell'IA richiede ai produttori di includere "kill switch" nell'hardware. Tale misura consentirebbe ai governi di porre fine agli sforzi illegali di formazione sull'IA da remoto. Nonostante ciò, gli studiosi avvertono che tali misure di governance comportano rischi intrinseci legati alla privacy, alle implicazioni economiche e alla concentrazione del potere. Ad esempio, il monitoraggio dell'hardware negli Stati Uniti potrebbe violare la recente linea guida della Casa Bianca sulla carta dei diritti dell'IA che garantisce ai cittadini i diritti di protezione dei dati. In aggiunta a queste preoccupazioni, i ricercatori indicano anche che i progressi emergenti nell'addestramento "efficiente in termini di comunicazione" potrebbero indirizzare verso l'elaborazione decentralizzata per la modellazione, la costruzione e il funzionamento. Questa tendenza potrebbe complicare il compito del governo di identificare e porre fine agli apparati di addestramento illegali. I ricercatori suggeriscono che questa possibilità potrebbe non lasciare ai governi altra scelta se non quella di adottare una strategia aggressiva contro l'uso illegale dell'IA. Secondo il loro giudizio, "la società dovrà utilizzare un calcolo più potente e governabile in modo tempestivo e saggio per sviluppare difese contro i rischi emergenti posti dal calcolo ingovernabile.

Published At

2/16/2024 10:12:59 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch