Regierungen auf der ganzen Welt bemühen sich, die sich entwickelnde generative KI-Technologie zu regulieren
Summary:
Da die Entwicklung der generativen KI-Technologie in rasantem Tempo voranschreitet, beeilen sich Regierungen auf der ganzen Welt, Vorschriften einzuführen. Die EU hat die erste umfassende KI-Gesetzgebung auf den Weg gebracht, die 27 Mitgliedstaaten betrifft, während Länder wie die USA, Großbritannien, China und Allianzen wie die G7 ihre regulatorischen Vorkehrungen beschleunigen. Angesichts der Befürchtungen eines möglichen Missbrauchs hat Australien Vorschläge für den Umgang mit "hochriskanten" KI-Tools eingeholt. In der Zwischenzeit hat China vorübergehende Vorschriften erlassen, die KI-Anbieter dazu verpflichten, nach Sicherheitsbewertungen eine Freigabe einzuholen. Weltweit setzen sich Länder für "Secure-by-Design"-Modelle ein, um KI vor Manipulationen zu schützen.
Die rasante Entwicklung der generativen KI-Technologie hat ein weltweites Gerangel ausgelöst, da die Regierungen sich beeilen, Vorschriften für diese neue technologische Grenze zu erlassen. Dies spiegelt die Initiativen der Europäischen Union wider, die weltweit ersten umfassenden Rechtsvorschriften für künstliche Intelligenz zu erlassen. Das KI-Gesetz, das alle 27 Mitgliedstaaten umfasst, stellt eine wegweisende Regelungsstruktur dar. Am 7. Dezember haben sich die Verhandlungsführer nach einer langen Verhandlungsphase auf eine Reihe von Checks and Balances geeinigt, die sich auf generative KI-Tools wie ChatGPT von OpenAI Inc. und Googles Bard beziehen.
Das Missbrauchspotenzial dieser Technologie hat auch die Verfolgung regulatorischer Maßnahmen in Ländern wie den USA, Großbritannien, China und internationalen Allianzen wie den G7 vorangetrieben, die alle bestrebt sind, mit den schnell fortschreitenden Fortschritten der KI Schritt zu halten.
Die australische Regierung hat sich der Situation im Juni angenommen, indem sie eine achtwöchige Untersuchung eingeleitet hat, um die Notwendigkeit von Beschränkungen für "hochriskante" KI-Tools zu untersuchen. Diese Konsultationsfrist wurde bis zum 26. Juli verlängert. Ziel war es, Feedback zu Möglichkeiten zu sammeln, eine sichere und verantwortungsvolle KI-Anwendung zu fördern. Die Regierung prüfte verschiedene Lösungen, die von freiwilligen Maßnahmen wie ethischen Rahmenbedingungen bis hin zu spezifischen Vorschriften oder einer Kombination aus beidem reichten.
In einer Reihe von vorübergehenden Vorschriften, die am 15. August in Kraft traten, kündigte China Aufsichtsmaßnahmen für die generative KI-Branche an. Diese Regeln verlangen von KI-Dienstleistern, dass sie sich Sicherheitsbewertungen unterziehen und eine Genehmigung einholen, bevor sie KI-Produkte für den öffentlichen Gebrauch auf den Markt bringen. Am 31. August stellten vier führende chinesische Technologieunternehmen – darunter Baidu Inc und SenseTime Group – ihre KI-Chatbots der Öffentlichkeit vor, nachdem sie die erforderlichen behördlichen Genehmigungen erhalten hatten.
In diesem Zusammenhang wurde berichtet, dass die französische Datenschutzbehörde CNIL im April nach zahlreichen Beschwerden über ChatGPT eine Untersuchung eingeleitet hat. Dies geschah nach einem kurzzeitigen Verbot des Chatbots in Italien wegen des Verdachts der Verletzung der Privatsphäre. Es wurde auch festgestellt, dass Warnungen von Menschenrechtsgruppen übersehen wurden. Am 22. November leitete die italienische Datenschutzbehörde, eine nationale Datenschutzbehörde, eine Untersuchung zur Beweiserhebung ein, bei der Datenerfassungsmethoden untersucht wurden, die zum Trainieren von KI-Algorithmen verwendet werden.
Diese Untersuchung zielt darauf ab, die Durchsetzung angemessener Sicherheitsmaßnahmen sowohl auf öffentlichen als auch auf privaten Websites zu überprüfen, um das "Web-Scraping" personenbezogener Daten zu verhindern, eine gängige Praxis, die von nicht autorisierten Unternehmen für das KI-Training ausgenutzt wird.
Länder wie die Vereinigten Staaten, das Vereinigte Königreich, Australien und 15 weitere Länder haben kürzlich weltweite Richtlinien herausgegeben, die den Schutz von KI-Modellen vor Manipulation fördern. Dieser Ansatz empfiehlt Unternehmen dringend, ihre Modelle "Secure by Design" zu machen.
In diesem Zusammenhang: Einblicke, wie generative KI es Architekten ermöglicht, antike Städte neu zu erfinden. Erkunden Sie auch die realen KI-Anwendungen in Krypto: Krypto-zentrierte KI-Märkte und die Rolle von KI in der Finanzanalyse.
Published At
12/7/2023 12:55:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.