Les spécialistes de l’IA se mobilisent pour une meilleure protection des lanceurs d’alerte dans un contexte de sécurité
Summary:
D’anciens membres du personnel d’entreprises d’IA de premier plan plaident pour une protection plus stricte des lanceurs d’alerte afin de permettre aux préoccupations liées aux risques liés au développement de l’IA d’être exprimées ouvertement. La pétition « Right to Warn AI » vise à favoriser une ouverture qui accueille les critiques et offre une protection juridique aux lanceurs d’alerte qui mettent en évidence de graves risques liés à l’IA. La campagne reflète les appréhensions croissantes concernant les mesures de sécurité des nouveaux modèles d’IA, en particulier ceux impliquant l’intelligence artificielle générale.
D’anciens membres du personnel d’entreprises d’IA de premier plan plaident pour des garanties plus strictes en matière de dénonciation au sein de ces entreprises, afin de promouvoir la transparence sur les risques potentiels dans l’évolution des systèmes d’IA complexes. Une pétition, intitulée « Droit d’avertir l’IA », a été lancée le 4 juin par 13 anciens professionnels et actuellement en activité chez OpenAI (ChatGPT), Anthropic (Claude) et DeepMind (Google). Cet illustre groupe comprenait également des sommités de l’IA comme Yoshua Bengio, Geoffrey Hinton et Stuart Russell. Leur objectif est de convaincre les grandes entreprises d’IA de permettre à leur personnel de partager leurs appréhensions concernant les risques liés à l’IA en interne et avec le grand public.
William Saunders, un ancien employé d’OpenAI et partisan de la campagne, a déclaré qu’il est impératif de disposer d’un mécanisme pour divulguer des informations sur les risques aux experts indépendants, aux autorités gouvernementales et au grand public lorsqu’il s’agit d’innovations technologiques potentiellement dangereuses. Il a observé qu’à l’heure actuelle, ceux qui ont la compréhension la plus approfondie des systèmes d’IA de pointe et des risques associés pourraient hésiter à exprimer leurs craintes par crainte de réactions négatives et de contrats de confidentialité stricts.
La proposition est accompagnée de quatre suggestions clés. La première consiste à révoquer les clauses de non-dénigrement liées aux risques afin que les entreprises ne puissent pas museler les employés ou les pénaliser pour avoir exprimé des préoccupations concernant les risques liés à l’IA. Ensuite, ils proposent de mettre en place des canaux anonymes permettant aux individus d’exprimer leurs préoccupations concernant les risques liés à l’IA, favorisant ainsi une atmosphère favorable à la critique ouverte. Leur dernier appel est une protection juridique pour les lanceurs d’alerte, en veillant à ce que les entreprises ne prennent pas de mesures de représailles contre les employés qui risquent d’être exposés à de graves risques liés à l’IA. Saunders a décrit ces principes comme une « approche proactive » qui encouragera les entreprises d’IA à créer une IA non seulement bénéfique mais aussi sûre.
La campagne est dérivée des appréhensions croissantes concernant la façon dont les laboratoires d’IA ont négligé les mesures de sécurité lors du développement de leurs nouveaux modèles, en particulier lorsqu’ils traitent de l’intelligence artificielle générale (AGI) qui vise à développer des logiciels qui imitent l’intelligence humaine et peuvent apprendre de manière indépendante. Daniel Kokotajlo, un ancien employé d’OpenAI, a déclaré que sa décision de quitter l’entreprise découlait de sa perte de confiance dans la gestion responsable des objectifs de l’AGI par l’entreprise. Kokotajlo a estimé que l’approche culturelle « aller vite et casser les choses » est incompatible avec une technologie aussi puissante et aussi mal comprise que l’AGI.
Helen Toner, ancienne directrice d’OpenAI, a révélé dans un podcast Ted AI le 28 mai que Sam Altman, le PDG d’OpenAI, aurait été licencié de la société pour avoir dissimulé des informations critiques au conseil d’administration.
Published At
6/4/2024 4:59:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.