Live Chat

Crypto News

Cryptocurrency News 1 years ago
ENTRESRUARPTDEFRZHHIIT

L’US Space Force interdit temporairement les outils d’IA pour des raisons de sécurité des données

Algoine News
Summary:
La Force spatiale des États-Unis a temporairement interdit à ses membres d’utiliser des outils d’intelligence artificielle générative (IA) pour des raisons de sécurité des données. La note adressée au Guardian Workforce met en évidence les préoccupations concernant les normes actuelles de cybersécurité et de traitement des données. La décision a touché environ 500 utilisateurs de la plate-forme d’IA « Ask Sage ». Les critiques soutiennent que cette décision pourrait placer les États-Unis derrière la Chine en termes d’application de l’IA. D’autres organisations, y compris des géants de la technologie comme Apple, Amazon et Samsung, ont également imposé des restrictions sur l’utilisation d’outils d’IA, comme ChatGPT, au travail.
Dans une tentative de protéger les informations gouvernementales, l’armée spatiale des États-Unis a provisoirement interdit à ses employés d’utiliser des technologies d’intelligence artificielle générative dans leurs fonctions, selon des comptes rendus récents. Une annonce a été clairement faite aux agents de la Force spatiale qu’ils ne sont pas autorisés à utiliser des utilitaires d’IA basés sur Internet, conçus pour générer du texte, des images et divers contenus multimédias, sans approbation explicite, comme détaillé dans un article de Bloomberg du 12 octobre qui fait référence à une note de service du 29 septembre au Guardian Workforce (l’équipe de la Force spatiale). Lisa Costa, chef adjointe des opérations spatiales pour la technologie et l’innovation à la Force spatiale, aurait déclaré dans le mémo: « L’IA générative a le potentiel de transformer considérablement notre main-d’œuvre et de renforcer la capacité du Guardian à mener des opérations rapides ». Néanmoins, Costa a exprimé son malaise face aux protocoles actuels de gestion des données et de cybersécurité, expliquant que le déploiement de l’intelligence artificielle et des grands modèles de langage (LLM) devrait être mené avec une plus grande responsabilité. La Force spatiale des États-Unis, la division des services spatiaux des forces armées américaines, a été chargée de défendre les intérêts des États-Unis et de leurs alliés dans l’espace. L’US Space Force a imposé une interdiction temporaire de l’utilisation de l’IA basée sur le Web et des systèmes LLM qui les alimentent, en raison d’appréhensions concernant la sécurité des données et d’autres problèmes, comme indiqué dans une note acquise par Bloomberg News. Au moins 500 personnes ont déjà ressenti l’impact de la décision de la Force spatiale; ils utilisaient un protocole d’IA génératif connu sous le nom de « Ask Sage », a rapporté Bloomberg, faisant référence aux remarques de Nick Chaillan, ancien directeur des logiciels de l’armée de l’air et de l’armée de l’espace des États-Unis. Chaillan aurait désapprouvé la décision de la Force spatiale, déclarant: « De toute évidence, cela va nous faire reculer de plusieurs années par rapport à la Chine », dans un courriel lésé adressé à Costa et à d’autres hauts responsables de la défense en septembre. Chaillan a qualifié la décision d'« extrêmement myope ». Il a souligné que la Central Intelligence Agency des États-Unis et plusieurs de ses départements ont construit leurs propres outils d’IA générative, qui sont conformes aux exigences de sécurité des données. Les craintes que les LLM ne divulguent par inadvertance des informations confidentielles dans le domaine public ont déstabilisé certains gouvernements au cours des derniers mois. L’Italie a brièvement interdit le chatbot d’IA, ChatGPT, en mars, en raison de violations présumées des lois sur la confidentialité des données, avant de retirer sa décision environ un mois plus tard. Les entreprises technologiques telles qu’Apple, Amazon et Samsung ont également restreint ou interdit à leur personnel d’utiliser des outils d’IA similaires à ChatGPT sur leur lieu de travail.

Published At

10/13/2023 2:29:03 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch