Live Chat

Crypto News

Cryptocurrency News 7 months ago
ENTRESRUARPTDEFRZHHIIT

Contrôler l’IA nuisible : un appel à l’amélioration des systèmes et de la gouvernance des calculs soutenus par le gouvernement

Algoine News
Summary:
Les chercheurs suggèrent que le contrôle de l’intelligence artificielle (IA) nuisible pourrait nécessiter une amélioration continue des puissants systèmes d’IA soutenus par le gouvernement. Leur étude suggère un besoin de contrôler l’accès aux ressources vitales de l’IA, ce qui nécessite la mise en œuvre d’une « gouvernance du calcul ». Une restriction efficace de l’utilisation malveillante de l’IA pourrait nécessiter l’inclusion de « kill switchs » dans le matériel, permettant de mettre fin à distance aux opérations illégales. Ils mettent également en garde contre les complications possibles dans le contrôle du calcul décentralisé. Les chercheurs suggèrent que les sociétés pourraient avoir besoin d’utiliser à bon escient des calculs plus puissants et gouvernables pour contrer les risques émergents liés à des systèmes de calcul ingouvernables.
Le contrôle de l’intelligence artificielle (IA) nuisible peut résider dans l’amélioration continue de l’IA sous la direction du gouvernement. C’est ce qu’a tiré un groupe de chercheurs dans leur dernier article intitulé « Puissance de calcul puis gouvernance de l’intelligence artificielle ». L’étude, à laquelle ont participé des intellectuels d’instituts tels qu’OpenAI, Cambridge, Oxford et bien d’autres, visait à explorer les problèmes immédiats et potentiels liés à la législation et à la progression de l’IA. L’argument principal de l’article met en évidence la nécessité potentielle de contrôler l’accès aux systèmes d’IA pivots à l’avenir en contrôlant le matériel nécessaire pour les faire fonctionner et les modéliser. Comme l’expliquent les chercheurs, les décideurs politiques peuvent tirer parti de la puissance de calcul pour mettre en œuvre des résultats bénéfiques, freiner le développement et l’utilisation irresponsables de l’IA et fournir une visibilité réglementaire. Ici, le « calcul » fait référence au matériel vital nécessaire au développement de l’IA, y compris les GPU et les CPU. Les chercheurs recommandent de couper l’accès à ces sources comme moyen optimal d’éviter les dommages potentiels liés à l’IA. Cela implique des mesures gouvernementales pour superviser la création, la vente et le fonctionnement de tout matériel crucial pour le développement avancé de l’IA. À certains égards, la « gouvernance du calcul » est déjà pratiquée à l’échelle mondiale. Par exemple, les États-Unis limitent la vente de modèles de GPU spécifiques, couramment utilisés dans l’entraînement de l’IA, à des pays comme la Chine. Selon la recherche, restreindre efficacement l’utilisation malveillante de l’IA oblige les fabricants à inclure des « interrupteurs d’arrêt » dans le matériel. Une telle mesure permettrait aux gouvernements de mettre fin aux efforts illégaux de formation à l’IA à distance. Malgré cela, les chercheurs mettent en garde contre le fait que de telles mesures de gouvernance comportent des risques inhérents liés à la vie privée, aux implications économiques et à la concentration du pouvoir. Par exemple, la surveillance du matériel aux États-Unis pourrait enfreindre la récente directive de la Maison-Blanche sur la déclaration des droits de l’IA qui garantit aux citoyens les droits en matière de protection des données. En plus de ces préoccupations, les chercheurs indiquent également que les progrès émergents en matière de formation « efficace en matière de communication » pourraient orienter vers un calcul décentralisé pour la modélisation, la construction et l’exploitation. Cette tendance pourrait compliquer la tâche du gouvernement d’identifier et de mettre fin aux dispositifs de formation illégaux. Les chercheurs suggèrent que cette possibilité pourrait ne laisser aux gouvernements d’autre choix que d’adapter une stratégie agressive contre l’utilisation illégale de l’IA. Selon leur jugement, « la société devra utiliser des calculs plus puissants et gouvernables en temps opportun et à bon escient pour développer des défenses contre les risques émergents posés par le calcul ingouvernable.

Published At

2/16/2024 10:12:59 PM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch