Gli specialisti dell'intelligenza artificiale si mobilitano per una maggiore protezione degli informatori in mezzo ai problemi di sicurezza
Summary:
Gli ex membri del personale di importanti aziende di intelligenza artificiale stanno sostenendo una maggiore protezione degli informatori per consentire alle preoccupazioni relative ai rischi relativi allo sviluppo dell'intelligenza artificiale di essere espresse apertamente. La petizione "Right to Warn AI" mira a promuovere un'apertura che accolga le critiche e fornisca protezione legale agli informatori che evidenziano gravi rischi per l'IA. La campagna riflette le crescenti apprensioni per quanto riguarda le misure di sicurezza dei nuovi modelli di intelligenza artificiale, in particolare quelli che coinvolgono l'intelligenza artificiale generale.
Ex membri del personale di importanti aziende di intelligenza artificiale stanno sostenendo una maggiore protezione degli informatori all'interno di queste aziende, per promuovere la trasparenza sui potenziali rischi nell'evoluzione di sistemi di intelligenza artificiale complessi. Una petizione, intitolata "Diritto di avvertire l'IA", è stata avviata il 4 giugno da 13 ex professionisti che attualmente lavorano presso OpenAI (ChatGPT), Anthropic (Claude) e DeepMind (Google). Questo illustre gruppo comprendeva anche luminari dell'intelligenza artificiale come Yoshua Bengio, Geoffrey Hinton e Stuart Russell. Il loro obiettivo è convincere le principali aziende di IA a consentire al proprio personale di condividere le apprensioni sui rischi dell'IA internamente e con il pubblico più ampio.
William Saunders, ex dipendente di OpenAI e sostenitore della campagna, ha affermato che è imperativo disporre di un meccanismo per divulgare le informazioni sui rischi a esperti indipendenti, autorità governative e pubblico in generale quando si ha a che fare con potenziali innovazioni tecnologiche pericolose. Ha osservato che al momento, coloro che hanno la più profonda comprensione dei sistemi di IA di frontiera e dei rischi associati potrebbero essere riluttanti a esprimere i loro timori a causa del timore di contraccolpi e di rigidi contratti di riservatezza.
La proposta è corredata da quattro suggerimenti chiave. Il primo è quello di revocare le clausole di non denigrazione relative ai rischi, in modo che le aziende non possano mettere la museruola ai dipendenti o penalizzarli per aver espresso preoccupazioni sui rischi dell'IA. Successivamente, propongono di creare canali anonimi per consentire alle persone di esprimere le loro preoccupazioni in merito ai rischi dell'IA, promuovendo così un'atmosfera che accolga le critiche aperte. La loro ultima richiesta è la protezione legale per gli informatori, garantendo che le aziende non si vendichino contro i dipendenti che rischiano l'esposizione a gravi rischi di IA. Saunders ha descritto questi principi come un "approccio proattivo" che incoraggerà le aziende di intelligenza artificiale a creare un'intelligenza artificiale che non sia solo vantaggiosa ma anche sicura.
La campagna è un derivato delle crescenti apprensioni su come i laboratori di intelligenza artificiale abbiano trascurato le misure di sicurezza durante lo sviluppo dei loro nuovi modelli, in particolare quando si tratta di intelligenza artificiale generale (AGI) che mira a sviluppare software che imitano l'intelligenza umana e possono apprendere in modo indipendente. Daniel Kokotajlo, un ex dipendente di OpenAI, ha condiviso che la sua decisione di lasciare l'azienda è derivata dalla sua perdita di fiducia nella gestione responsabile degli scopi AGI da parte dell'azienda. Kokotajlo ha affermato che l'approccio culturale "muoviti velocemente e rompi le cose" è incompatibile con una tecnologia potente e fraintesa come l'AGI.
Helen Toner, ex direttrice di OpenAI, ha rivelato in un podcast di Ted AI il 28 maggio che si diceva che Sam Altman, il CEO di OpenAI, fosse stato licenziato dall'azienda per aver nascosto informazioni critiche al consiglio di amministrazione.
Published At
6/4/2024 4:59:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.