Indische Regierung verlangt Vorabgenehmigung für neue KI-Dienste angesichts von Sicherheitsbedenken bei den Wahlen
Summary:
Die indische Regierung hat Technologieunternehmen angewiesen, die Genehmigung der Regierung einzuholen, bevor sie neue KI-Dienste einführen, insbesondere solche, die als "unzuverlässig" gelten oder sich in der Testphase befinden. Das vom indischen IT-Ministerium veröffentlichte Advisory unterstreicht die Bedeutung der Benutzersicherheit und der Einhaltung von Gesetzen angesichts der Besorgnis über mögliche Auswirkungen auf die bevorstehenden Parlamentswahlen. Der Schritt folgt auf die jüngste Kritik an Googles KI-Tool Gemini wegen seiner möglicherweise voreingenommenen Antworten, was zu einer Betonung der rechtlichen Verpflichtungen der Plattformen zur Förderung von Vertrauen und Sicherheit führt. Trotz einiger Widerstände aus der Technologiebranche betont die Regierung Indiens Engagement für den Fortschritt der KI und das Wachstum des digitalen Ökosystems.
Die indische Regierung hat Technologieunternehmen, die neue Dienste im Bereich der künstlichen Intelligenz (KI) entwickeln, geraten, vor ihrer Veröffentlichung eine behördliche Genehmigung einzuholen. In der Empfehlung, die am 1. März vom indischen IT-Ministerium herausgegeben wurde, heißt es, dass eine solche Erlaubnis obligatorisch ist, bevor KI-Dienste eingeführt werden, die "unzuverlässig" oder noch im Teststadium sein könnten, und dass sie mögliche Benutzer vor möglichen Ungenauigkeiten in den Antworten warnen sollten. Darüber hinaus wird festgelegt, dass der Zugang indischer Nutzer zu solchen Diensten ausdrücklich von der indischen Regierung genehmigt werden muss. In der Empfehlung wurden die Plattformen auch angewiesen, sicherzustellen, dass ihre Tools die Integrität der Wahlprozesse nicht beeinträchtigen, was angesichts der bevorstehenden Parlamentswahlen von Bedeutung ist.
Diese Initiative geht auf die jüngsten Vorfälle zurück, bei denen hochrangige indische Politiker Google und sein KI-Produkt Gemini für potenziell voreingenommene oder fehlerhafte Reaktionen kritisierten, wie z. B. die Bezeichnung von Premierminister Narendra Modi als Faschist. Google erkannte, dass Gemini nicht immer zuverlässig war, insbesondere bei aktuellen Themen, und entschuldigte sich. Als Reaktion darauf betonte der stellvertretende IT-Minister Rajeev Chandrasekhar, dass Plattformen eine gesetzliche Verpflichtung haben, Sicherheit und Vertrauen zu fördern, und dass "unzuverlässig" sie nicht von dieser Verantwortung entbindet.
Im November wurden im Vorfeld der bevorstehenden Wahlen neue Vorschriften zur Bekämpfung der Verbreitung von KI-erstellten Deepfakes angekündigt, ähnlich wie die US-Regulierungsbehörden. Trotz des Widerstands der Technologiebranche gegen die jüngste KI-Empfehlung erklärte Chandrasekhar angesichts des Status Indiens als Technologieführer, dass Plattformen, die illegale Inhalte unterstützen oder generieren, mit "rechtlichen Konsequenzen" rechnen müssen. Er bekräftigte Indiens Leidenschaft für KI und sein Engagement für die Erweiterung seines digitalen und innovativen Ökosystems und erklärte, dass die Empfehlung dazu gedacht sei, diejenigen, die nicht vollständig getestete KI-Plattformen in das öffentliche Internet einführen, darauf hinzuweisen, die indischen Gesetze einzuhalten und die Sicherheit der Nutzer zu gewährleisten.
Das indische KI-Startup Sarvam hat sich am 8. Februar mit Microsoft zusammengetan, um ein indisches Sprachmodell (LLM) für sein Azure-KI-System einzuführen, um die breitere indische Bevölkerung zu bedienen.
Published At
3/4/2024 1:41:53 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.