Les gouvernements du monde entier s’efforcent de réglementer l’évolution de la technologie de l’IA générative
Summary:
Alors que le développement de la technologie de l’IA générative progresse à un rythme rapide, les gouvernements du monde entier s’empressent de mettre en œuvre des réglementations. L’UE a lancé la première législation complète sur l’IA, qui touche 27 États membres, tandis que des pays comme les États-Unis, le Royaume-Uni, la Chine et des alliances comme le G7 accélèrent leurs précautions réglementaires. Face aux craintes d’une utilisation abusive potentielle, l’Australie a sollicité des suggestions sur la gestion des outils d’IA « à haut risque ». Pendant ce temps, la Chine a mis en place des réglementations temporaires, obligeant les fournisseurs d’IA à obtenir une autorisation après des évaluations de sécurité. À l’échelle mondiale, les pays plaident en faveur de modèles « sécurisés dès la conception » pour protéger l’IA contre la falsification.
Le développement rapide de la technologie de l’IA générative a suscité une ruée mondiale alors que les gouvernements s’empressent de promulguer des réglementations pour cette nouvelle frontière technologique. Cela reflète les initiatives de l’Union européenne visant à mettre en place la première législation complète sur l’intelligence artificielle à l’échelle mondiale. La loi sur l’IA, qui intègre les 27 États membres, représente une structure réglementaire révolutionnaire. En date du 7 décembre, les négociateurs se sont mis d’accord sur un ensemble de freins et contrepoids relatifs aux outils d’IA générative comme ChatGPT d’OpenAI Inc et Bard de Google, après une longue période de négociation.
Le potentiel d’utilisation abusive de cette technologie a également incité des pays comme les États-Unis, le Royaume-Uni, la Chine et des alliances internationales telles que le G7, tous désireux de suivre le rythme des progrès rapides de l’IA.
En juin, le gouvernement australien a remédié à la situation en lançant une enquête de huit semaines sur la nécessité de restrictions sur tous les outils d’IA « à haut risque ». Cette période de consultation a été prolongée jusqu’au 26 juillet. L’intention ici était de recueillir des commentaires sur les moyens d’encourager une application sûre et responsable de l’IA. Le gouvernement a exploré diverses solutions allant de mesures volontaires telles que des cadres éthiques à des réglementations spécifiques, ou une combinaison des deux.
Dans une série de réglementations temporaires mises en place le 15 août, la Chine a annoncé des mesures de surveillance pour l’industrie de l’IA générative. Ces règles exigent que les fournisseurs de services d’IA se soumettent à des évaluations de sécurité et reçoivent l’approbation avant de lancer des produits d’IA destinés au public. Le 31 août, quatre grandes entreprises technologiques chinoises, dont Baidu Inc et SenseTime Group, ont présenté leurs chatbots d’IA au public, après avoir obtenu les autorisations gouvernementales nécessaires.
Dans le même ordre d’idées, il a été rapporté que la CNIL, l’organisme français de surveillance de la vie privée, a lancé une enquête en avril à la suite de nombreuses plaintes concernant ChatGPT. Cela a eu lieu après une brève interdiction du chatbot en Italie, soupçonné de violation de la vie privée. On a également noté une prise en compte des avertissements émis par les groupes de défense des droits de l’homme. Le 22 novembre, l’Autorité italienne de protection des données, un organisme national de réglementation de la protection de la vie privée, a lancé une enquête visant à recueillir des preuves en examinant les méthodes de collecte de données utilisées pour entraîner les algorithmes d’IA.
Cette enquête vise à vérifier l’application de mesures de sécurité appropriées sur les sites Web publics et privés afin d’empêcher le « web scraping » de données personnelles, une pratique courante exploitée pour l’entraînement de l’IA par des entités non autorisées.
Des pays comme les États-Unis, le Royaume-Uni, l’Australie et 15 autres pays ont récemment publié des directives mondiales visant à protéger les modèles d’IA contre la falsification. Cette approche recommande fortement aux entreprises de rendre leurs modèles « sécurisés dès la conception ».
À lire également : Aperçu de la façon dont l’IA générative permet aux architectes de réinventer les villes anciennes. Explorez également les applications réelles de l’IA dans les crypto-monnaies : les marchés de l’IA centrés sur les crypto-monnaies et le rôle de l’IA dans l’analyse financière.
Published At
12/7/2023 12:55:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.