Österreichische Datenrechtsgruppe wirft OpenAI vor, gegen EU-Datenschutzbestimmungen zu verstoßen
Summary:
Die in Österreich ansässige Datenrechtsgruppe Noyb hat eine Datenschutzklage gegen den Entwickler von künstlicher Intelligenz OpenAI eingereicht. In der Klage wird behauptet, dass der Chatbot von OpenAI, ChatGPT, es versäumt habe, ungenaue personenbezogene Daten zu korrigieren und damit gegen die EU-Datenschutzbestimmungen zu verstoßen. Das Unternehmen soll sich auch geweigert haben, die Quelle seines Datentrainings offenzulegen. Noyb, bekannt als European Center for Digital Rights, drängt auf eine Angleichung der KI-Technologie an bestehende rechtliche Kriterien und strebt eine Untersuchung der Datenverarbeitungsmethoden von OpenAI an. Der Vorfall reiht sich in eine Reihe von Klagen gegen KI-Chatbots ein, wobei sowohl der KI-Chatbot Bing von Microsoft als auch der KI-Chatbot Gemini von Google zuvor irreführende Informationen geliefert haben.
Eine Datenrechtsgruppe mit Sitz in Österreich hat eine Datenschutzklage gegen das renommierte Unternehmen für künstliche Intelligenz, OpenAI, eingereicht. Laut den Vorwürfen, die Noyb am 29. April erhoben hat, hat der KI-Entwickler es versäumt, falsche Daten seines KI-Chatbots ChatGPT zu korrigieren, was möglicherweise einen Verstoß gegen die EU-Datenschutzbestimmungen darstellt. Berichten zufolge bat eine anonyme Person von öffentlichem Interesse den Chatbot von OpenAI um Informationen über sich selbst, erhielt aber ständig ungenaue Daten. OpenAI weigerte sich angeblich, die falschen Daten zu korrigieren oder zu löschen, mit der Begründung, dass dies nicht machbar sei, und weigerte sich auch, die Quelle oder Art seiner Trainingsdaten offenzulegen.
Die Datenschutzbeauftragte von Noyb, Maartje de Graaf, äußerte sich zu diesem Thema und erklärte, dass die Generierung von Daten über Einzelpersonen mit einem System, das weder Genauigkeit noch Transparenz gewährleisten kann, gegen das Gesetz verstößt. Sie betonte weiter, dass es in der Verantwortung der Technologie liege, sich an den gesetzlichen Kriterien auszurichten.
Es ist auch erwähnenswert, dass Noyb, das allgemein als Europäisches Zentrum für digitale Rechte anerkannt ist, mit der Absicht gegründet wurde, die Gesetze der EU-Datenschutz-Grundverordnung (DSGVO) durch strategische Gerichtsverfahren und Medieninitiativen durchzusetzen.
Darüber hinaus wird in dem Bericht erwähnt, dass die österreichische Datenschutzbehörde ein Ersuchen von Noyb erhalten hat, in dem eine Untersuchung der Datenverarbeitungsmethoden von OpenAI und die Gewährleistung der Richtigkeit der von seinen Sprachmodellen verarbeiteten Daten gefordert wird. De Graaf machte deutlich, dass Unternehmen wie OpenAI unter den aktuellen Umständen ihre KI-Chatbots nicht auf das EU-Recht zur Datenverarbeitung von Einzelpersonen ausrichten.
Vorfälle, bei denen Chatbots von Forschern oder Aktivisten ins Visier genommen werden, sind in Europa nichts Neues. Im Dezember 2023 gaben zwei europäische Non-Profit-Organisationen bekannt, dass Microsofts KI-Chatbot Bing, der jetzt als Copilot bekannt ist, irreführende Informationen über Kommunalwahlen in Deutschland und der Schweiz lieferte. Der Chatbot gab ungenaue Antworten auf Informationen zu Kandidaten, Umfragen, Skandalen, Wahlen und zitierte sogar seine Quellen falsch. Googles KI-Chatbot Gemini lieferte über seinen Bildgenerator auch "woke" und falsche Bilder in einer Situation, die nicht direkt mit der EU zu tun hatte. Google drückte sein Bedauern über den Vorfall aus und versprach, sein Modell zu überarbeiten.
Published At
4/29/2024 10:36:05 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.