Vulnérabilités des assistants IA et préoccupations croissantes en matière de sécurité : nos données sont-elles en sécurité ?
Summary:
L’article traite des préoccupations croissantes en matière de sécurité dans le paysage des assistants d’intelligence artificielle (IA). Il met en évidence une série d’études démontrant les vulnérabilités potentielles et les risques de violation associés à ces outils. L’auteur insiste sur la nécessité pour les développeurs de donner la priorité à l’aspect sécurité de l’IA et d’inciter les autorités à prendre des mesures réglementaires. L’article suggère également aux utilisateurs de limiter le partage d’informations sensibles avec les assistants d’IA jusqu’à ce que des mesures de protection substantielles soient mises en place.
Le lancement de ChatGPT fin 2022 a marqué un point crucial dans la technologie où l’intelligence artificielle (IA) a fait un bond significatif dans le courant dominant. En réponse, qu’il s’agisse de géants de la technologie établis ou de start-ups en herbe, tout le monde a tenté de capitaliser sur cette tendance de l’IA en dévoilant un assortiment d’assistants IA. Ces aides virtuelles sont devenues nos conseillers, nos compagnons et nos confidents confidentiels dans les aspects professionnels et personnels de nos vies. Ainsi, nous leur confions des informations délicates. Cependant, leur promesse de protéger nos informations soulève une question importante : sommes-nous vraiment protégés ?
Une étude menée par l’Université de Ber-Gourion en mars a révélé une vérité troublante : nos secrets ne sont peut-être pas aussi sûrs que nous le croyons. Les chercheurs ont découvert une méthode d’attaque capable de décoder les réponses de l’assistant IA avec une précision alarmante, démontrant une faille critique dans la conception du système sur plusieurs plates-formes telles que Copilot de Microsoft et ChatGPT-4 d’OpenAI, à l’exception de Gemini de Google.
Il est alarmant de noter que les chercheurs pourraient appliquer le même outil de décryptage - une fois créé pour un service comme ChatGPT - pour décoder d’autres plates-formes sans efforts supplémentaires. Des révélations similaires de vulnérabilité dans les systèmes d’assistants d’IA circulent depuis un certain temps. Plus récemment, en 2023, une coalition de chercheurs de diverses universités américaines et de Google DeepMind a montré qu’en incitant ChatGPT à répéter des mots spécifiques, il pouvait divulguer des parties de ses données d’entraînement mémorisées, notamment les identifiants d’utilisateurs, les URL, les adresses Bitcoin, etc.
Ces problèmes de sécurité deviennent encore plus flagrants avec les modèles open source. Une étude de cas récente a mis en évidence la capacité d’un attaquant à infiltrer le service de conversion Hugging Face et à réquisitionner n’importe quel modèle soumis par son intermédiaire. Cela pose des menaces importantes, car les adversaires pourraient potentiellement remplacer ou implanter des modèles malveillants, exposant ainsi des ensembles de données privés.
L’influence croissante des assistants IA est indéniablement attrayante. Mais l’augmentation de la puissance s’accompagne d’une susceptibilité accrue aux attaques. Réfléchissant à cela dans un récent article de blog, Bill Gates a brossé le tableau d’un assistant ou d’un « agent » d’IA global ayant accès à tous nos appareils, obtenant ainsi des informations complètes sur nos vies. Cependant, avec les problèmes de sécurité non résolus qui affligent le paysage de l’IA, nous courons le risque de voir nos vies détournées, y compris celles de toute personne ou entité associée, si ces agents tombent entre de mauvaises mains.
Malgré les inquiétudes qui se profilent à l’horizon, nous ne sommes pas impuissants. Examinant le paysage de l’IA, à la fin du mois de mars, la Chambre des représentants des États-Unis a imposé une interdiction stricte de l’utilisation de Copilot de Microsoft par le personnel du Congrès. Cette décision fait suite au rapport du Cyber Safety Review Board en avril, qui a jugé Microsoft coupable d’erreurs de sécurité qui ont conduit à une violation de messagerie à l’été 2023 qui a eu un impact sur les responsables du gouvernement américain.
Dans le passé, des géants de la technologie comme Apple, Amazon, Samsung et Spotify, ainsi que des titans financiers comme JPMorgan, Citi et Goldman Sachs ont tous interdit l’utilisation de bots pour leurs employés. Acteurs connus dans le domaine de l’IA, Microsoft et OpenAI se sont publiquement engagés à adhérer à des pratiques d’IA responsables l’année dernière ; Cependant, des mesures concrètes restent à voir.
Les engagements sont un bon début, mais ils doivent être soutenus par des actions. En tant que consommateurs, la mesure la plus proactive que nous puissions prendre est peut-être de faire preuve de discrétion lorsque nous partageons des informations sensibles avec des robots d’IA. Suspendre l’utilisation de ces bots jusqu’à ce que des mesures de protection adéquates soient en place pourrait bien être le coup de pouce nécessaire pour inciter les entreprises et les développeurs à donner la priorité à la sécurité des systèmes d’IA.
Published At
4/10/2024 11:30:34 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.