KI-generierter Robocall auf Life Corporation zurückgeführt: Missbrauch löst globale Besorgnis aus
Summary:
Die Life Corporation und eine Einzelperson, Walter Monk, wurden als Quelle hinter einem KI-generierten Robocall identifiziert, der die Stimme von Präsident Joe Biden imitierte und die Einwohner von New Hampshire anwies, bei den Vorwahlen am 23. Januar nicht abzustimmen. Die Generalstaatsanwaltschaft, Abteilung für Wahlrecht, gab diese Informationen bekannt. In diesem Fall wurden Deepfake-KI-Tools verwendet, was zu Bedenken hinsichtlich des Missbrauchs solcher Technologien führte. Sowohl die Life Corporation als auch der in Texas ansässige Telekommunikationsanbieter Lingo haben Unterlassungserklärungen erhalten. Der Missbrauch von KI auf diese Weise hat weltweit Besorgnis ausgelöst, wobei das Weltwirtschaftsforum und der kanadische Geheimdienst auf die potenziellen Gefahren hingewiesen haben.
Die Life Corporation wurde zusammen mit einer Person namens Walter Monk als Quelle eines KI-generierten Robocalls entlarvt, der die Bürger in New Hampshire in die Irre führen soll. Mit einer überzeugend nachgebildeten Stimme von Präsident Joe Biden riet der Robocall den Einwohnern von New Hampshire, nicht an den Vorwahlen am 23. Januar teilzunehmen. Diese Enthüllung kam vom Justizministerium von New Hampshire und wurde von Generalstaatsanwalt John M. Formella bekannt gegeben. Life Corporation, eine Firma mit Sitz in Texas, die zuvor zusammen mit Walter Monk in Desinformationsskandale verwickelt war, wurde von der Abteilung für Wahlrecht der Generalstaatsanwaltschaft als Ursprung dieser irreführenden Anrufe identifiziert, die darauf abzielten, die Präsidentschaftswahlen 2024 zu beeinflussen. Die Generalstaatsanwaltschaft von New Hampshire hat diese Roboteranrufe als irreführend eingestuft und die Wähler angewiesen, ihren Inhalt zu ignorieren. Als Reaktion darauf hat sich die Federal Communications Commission (FCC) zu ihrer Beteiligung am Schutz von Verbrauchern vor solchen KI-gestützten Robocalls geäußert und eine Unterlassungsverfügung gegen das betroffene texanische Unternehmen erlassen.
Deepfake-KI-Tools sind innovative Software, die fortschrittliche KI-Algorithmen einsetzt, um digitale Inhalte wie Videos, Audiodateien und Bilder in einem sehr überzeugenden Maße zu fabrizieren und zu manipulieren. In New Hampshire wurden Mitte Januar Aufrufe zur Unterdrückung der Stimmabgabe identifiziert, was eine gemeinsame Untersuchung auslöste, an der staatliche und bundesstaatliche Partner, die Anti-Robocall Multistate Litigation Task Force und das Enforcement Bureau der Federal Communications Commission beteiligt waren. Nachdem die Life Corporation als verantwortlich für diese illegalen Aktivitäten identifiziert worden war, setzte die Election Law Unit eine sofortige Unterbrechung gemäß RSA 659:40, III durch und behielt sich das Recht auf weitere Maßnahmen auf der Grundlage eines Präzedenzfalls vor.
Im Zusammenhang mit diesem Skandal brachten die Ermittler die irreführenden Anrufe mit einem texanischen Telekommunikationsanbieter, Lingo Telecom, in Verbindung. Die FCC schloss sich der Unterlassungsverfügung gegen Lingo wegen ihrer mutmaßlichen Beteiligung am KI-gestützten Klonen von Stimmen an, die zu illegalen Robocalls führte, und forderte einen sofortigen Stopp der Unterstützung solcher Aktivitäten. Bereits am 31. Januar schlug Jessica Rosenworcel, Vorsitzende der FCC, vor, Anrufe mit KI-gestützten Stimmen rechtlich als illegal einzustufen und sie den Vorschriften und Strafen des Telephone Consumer Protection Act (TCPA) zu unterwerfen.
Die Zunahme von Deepfakes hat weltweit Besorgnis über den potenziellen Missbrauch von KI-Technologien ausgelöst. Das Weltwirtschaftsforum hat in seinem 19. Global Risks Report das schädliche Potenzial dieser Technologien hervorgehoben. KI-generierte Deepfakes haben auch die Vorsicht des kanadischen Sicherheitsgeheimdienstes auf sich gezogen, der die zunehmende Bedrohung durch Online-Desinformationskampagnen hervorhebt, die durch diese KI-Anwendung verbreitet werden.
Published At
2/7/2024 1:59:08 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.