Le NIST sollicite l’avis du public sur le développement sûr et éthique des systèmes d’IA
Summary:
Le National Institute of Standards and Technology (NIST) a publié une demande d’information (RFI) pour recueillir les commentaires du public sur le développement et l’application sécurisés de l’intelligence artificielle (IA). Sous la direction du décret présidentiel du président Biden, le NIST cherche à obtenir des informations sur la gestion des risques de l’IA générative et sur les moyens de réduire la désinformation générée par l’IA. L’institut étudie également les domaines efficaces pour le red-teaming - une stratégie utilisée pour identifier les vulnérabilités du système. Cette demande s’inscrit dans le cadre d’une initiative plus large du NIST visant à aider la communauté de l’IA à développer de manière responsable et fiable des systèmes d’IA, en intensifiant l’approche centrée sur l’humain en matière de sécurité et de gouvernance de l’IA.
Le National Institute of Standards and Technology (NIST) du département du Commerce des États-Unis a publié une demande d’information (RFI) dans le cadre de ses fonctions en vertu du dernier décret présidentiel sur le développement et la mise en œuvre sécurisés et éthiques de l’intelligence artificielle (IA). L’institut a ouvert un processus de consultation publique jusqu’au 2 février afin de recueillir des informations cruciales à utiliser pour tester la sécurité des systèmes d’IA. La secrétaire au Commerce, Gina Raimondo, a mentionné que la directive exécutive d’octobre du président Joe Biden, qui ordonne au NIST d’élaborer des lignes directrices, d’encourager les normes consensuelles et de créer des environnements de test pour l’évaluation de l’IA, motive cette initiative. Ce plan vise à aider le secteur de l’IA à développer l’IA de manière sûre, fiable et éthique.
La demande d’informations du NIST invite les entreprises d’IA et le public à donner leur avis sur la gestion des risques de l’IA générative et la réduction des risques de désinformation induits par l’IA. L’IA générative, qui peut créer du texte, des images et des vidéos sur la base d’invites ambiguës, a suscité à la fois de l’enthousiasme et des inquiétudes. On craint des pertes d’emplois, des perturbations lors des élections et la possibilité que la technologie dépasse les compétences humaines, ce qui pourrait donner des résultats désastreux.
La DDR vise également à obtenir des informations sur les domaines optimaux pour l’exécution de l’équipe rouge lors de l’examen des risques liés à l’IA et de l’établissement des meilleures pratiques. Le terme « red-teaming », dérivé des simulations de la guerre froide, est utilisé pour désigner une méthode dans laquelle un groupe, connu sous le nom d'« équipe rouge », imite des situations ou des attaques antagonistes concevables pour découvrir les points faibles et les vulnérabilités d’un système, d’un processus ou d’une organisation. Cette technique est utilisée depuis longtemps en cybersécurité pour détecter de nouvelles menaces. Dans le même ordre d’idées, le tout premier événement public de red-teaming aux États-Unis a eu lieu en août lors d’une conférence sur la cybersécurité organisée par AI Village, SeedAI et Humane Intelligence.
L’annonce d’un nouveau consortium d’IA par le NIST en novembre, associée à un avis officiel appelant à candidatures avec des qualifications pertinentes, a été une étape importante. L’objectif de ce consortium est d’élaborer et de mettre en œuvre des politiques et des mesures spécifiques pour s’assurer que les décideurs politiques américains optent pour une approche centrée sur l’humain de la sécurité et de l’administration de l’IA.
Published At
12/20/2023 11:46:51 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.