FTC verschärft Regeln gegen KI-Deepfake-Imitationen zum Schutz der Verbraucher
Summary:
Die Federal Trade Commission (FTC) plant, eine derzeitige Richtlinie zur Bekämpfung von Deepfakes zu verbessern, die darauf abzielt, es künstlicher Intelligenz zu verbieten, Unternehmen oder Regierungsstellen zu imitieren. Die vorgeschlagene Verordnung würde es Plattformen verbieten, Waren oder Dienstleistungen anzubieten, die den Verbrauchern durch Nachahmung schaden könnten. Die FTC-Vorsitzende Lina Khan betonte die Notwendigkeit dieses Updates zum Schutz vor zunehmenden KI-bezogenen Betrügereien. Die überarbeitete Regel ermöglicht es der FTC, rechtliche Schritte gegen Betrüger einzuleiten, die sich als Regierung oder Unternehmen ausgeben, um Verbraucher zu schützen und illegal erworbene Gelder zurückzuerhalten.
Als Reaktion auf die wachsende Bedrohung durch Deepfakes will die Federal Trade Commission (FTC) eine bestehende Richtlinie verbessern, die es für künstliche Intelligenz (KI) illegal macht, Unternehmen oder staatliche Stellen zu imitieren und so den Verbraucherschutz zu gewährleisten. Die Überarbeitung dieser Regel, vorbehaltlich des offiziellen Wortlauts und des öffentlichen Inputs bei der FTC, könnte dazu führen, dass Plattformen für generative künstliche Intelligenz (GenAI) daran gehindert werden, Waren oder Dienstleistungen anzubieten, von denen sie wissen, dass sie dazu verwendet werden könnten, Verbraucher mit Nachahmungen zu betrügen.
Die FTC-Vorsitzende Lina Khan betonte in einer Medienerklärung: "Angesichts des Anstiegs von KI-gesteuerten Betrügereien wie dem Klonen von Stimmen ist es heute wichtiger denn je, die Amerikaner vor betrügerischen Nachahmern zu schützen. Die vorgeschlagenen Verbesserungen unserer Regel für Identitätsdiebstahl zielen genau darauf ab und stärken den Ansatz der FTC bei der Verwaltung von KI-bezogenen Betrügereien mit Identitätsdiebstahl."
Die geänderte Government and Business Impersonation Rule ermöglicht es der FTC, autonom ein Bundesgerichtsverfahren einzuleiten, in dem Betrüger aufgefordert werden, Gelder zurückzuzahlen, die sie unter Verwendung gefälschter Regierungs- oder Geschäftsprofile erhalten haben. Die Statistiken sind erschreckend – allein im vergangenen Jahr wurden Amerikaner um 2,7 Milliarden Dollar durch Betrügereien betrogen, bei denen sich die Täter als Regierung ausgaben.
Die überarbeitete Regel zur Nachahmung von Geschäfts- und Regierungsidentitäten tritt 30 Tage nach der Veröffentlichung im Bundesregister in Kraft. Die Öffentlichkeit hat ab dem Datum der Veröffentlichung im Federal Register 60 Tage Zeit, um Kommentare zur Supplemental Notice of Proposed Rulemaking (SNPRM) einzureichen.
Bei Deepfakes wird KI eingesetzt, um Videos zu manipulieren, indem das Gesicht oder der Körper einer Person verändert wird. Obwohl es keine nationalen Rechtsvorschriften gibt, die sich mit der Erstellung oder Verbreitung von Deepfake-Bildern befassen, sind die Gesetzgeber dabei, das Problem anzugehen. Prominente und Privatpersonen, die Opfer von Deepfakes geworden sind, könnten möglicherweise auf anerkannte rechtliche Wege wie Urheberrechtsgesetze, Rechte im Zusammenhang mit ihrem Bild und verschiedene zivilrechtliche Klagen zurückgreifen, um Wiedergutmachung zu erhalten. Diese rechtlichen Prozesse können jedoch langwierig und anstrengend sein.
Am 31. Januar hat die FCC ein Verbot von Roboteranrufen eingeführt, die durch künstliche Intelligenz generiert werden, indem sie eine Vorschrift neu interpretierte, die Spam-Anrufe verbietet, die von automatisierten oder aufgezeichneten Stimmen getätigt werden. Das Verbot wurde nach einer Telefonkampagne in New Hampshire durchgesetzt, bei der ein Deepfake von Präsident Biden verwendet wurde, um Wähler abzuschrecken. Da der Kongress nichts unternimmt, haben einzelne Bundesstaaten landesweit Gesetze erlassen, die Deepfakes für rechtswidrig erklären.
Published At
2/16/2024 11:08:12 AM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.