Un groupe autrichien de défense des droits des données accuse OpenAI d’enfreindre les réglementations de l’UE en matière de protection de la vie privée
Summary:
Le groupe autrichien de défense des droits sur les données Noyb a déposé une plainte pour atteinte à la vie privée contre le développeur d’intelligence artificielle OpenAI. La plainte allègue que le chatbot d’OpenAI, ChatGPT, n’a pas corrigé les informations personnelles inexactes, enfreignant ainsi les réglementations de l’UE en matière de protection de la vie privée. L’entreprise aurait également refusé de divulguer la source de sa formation sur les données. Noyb, connu sous le nom de Centre européen pour les droits numériques, exhorte à aligner la technologie de l’IA sur les critères juridiques existants et demande une enquête sur les méthodes de traitement des données d’OpenAI. L’incident s’ajoute à une série d’allégations contre les chatbots d’IA, le chatbot Bing AI de Microsoft et le chatbot Gemini AI de Google ayant précédemment fourni des informations trompeuses.
Un groupe de défense des droits des données basé en Autriche a déposé une plainte pour atteinte à la vie privée contre la célèbre société d’intelligence artificielle OpenAI. Selon les allégations formulées par Noyb le 29 avril, le développeur d’IA n’a pas rectifié les données incorrectes fournies par son chatbot d’IA, ChatGPT, ce qui constitue potentiellement une violation des réglementations de l’UE en matière de protection de la vie privée. Apparemment, une personnalité anonyme d’intérêt public a demandé des informations sur lui-même au chatbot d’OpenAI, mais a continuellement reçu des données inexactes. OpenAI aurait refusé de rectifier ou d’effacer les fausses données, affirmant que ce n’était pas faisable, et aurait également refusé de divulguer la source ou la nature de ses données d’entraînement.
S’exprimant sur la question, la représentante légale de Noyb en matière de protection des données, Maartje de Graaf, a déclaré que la production de données sur les individus à l’aide d’un système qui ne peut pas garantir l’exactitude ou la transparence est contraire à la loi. Elle a en outre souligné qu’il est de la responsabilité de la technologie de s’aligner sur les critères juridiques.
Il convient également de noter que Noyb, communément reconnu comme le Centre européen pour les droits numériques, a été fondé avec l’intention de faire respecter les lois du Règlement général sur la protection des données (RGPD) de l’UE par le biais d’affaires judiciaires stratégiques et d’initiatives médiatiques.
En outre, le rapport mentionne que l’autorité autrichienne de protection des données a reçu une demande de Noyb, demandant une enquête sur les méthodes de traitement des données d’OpenAI et son assurance de l’exactitude des données traitées par ses modèles de langage. De Graaf a clairement indiqué que dans les circonstances actuelles, des entreprises comme OpenAI ne parviennent pas à aligner leurs chatbots d’IA pour se conformer à la législation européenne sur le traitement des données des individus.
Les incidents de chatbots ciblés par des chercheurs ou des activistes ne sont pas nouveaux en Europe. En décembre 2023, deux organisations européennes à but non lucratif ont révélé que le chatbot Bing AI de Microsoft, désormais connu sous le nom de Copilot, donnait des informations trompeuses sur les élections locales en Allemagne et en Suisse. Le chatbot a fourni des réponses inexactes sur les informations sur les candidats, les sondages, les scandales, les votes, et a même mal cité ses sources. Le chatbot Gemini AI de Google a également fourni des images « woke » et fausses via son générateur d’images dans une situation qui n’est pas directement liée à l’UE. Google a exprimé ses regrets pour l’incident et a promis de revoir son modèle.
Published At
4/29/2024 10:36:05 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.