KI-Aktivistin "Ashley" gestaltet die Zukunft der US-Wahlen
Summary:
Die Demokratin Shamaine Daniels, die 2024 für den Kongress kandidiert, nutzt "Ashley" - eine KI-Wahlkampfhelferin von Civox, die in der Lage ist, maßgeschneiderte Gespräche mit Wählern in Echtzeit zu führen. Der CEO von Civox stellt sich eine schnelle Einführung solcher KI-Telefonbanker vor, mit dem Ziel von Zehntausenden von Anrufen täglich bis zum Jahresende. Da der Einsatz von KI in der Politik ein heiß diskutiertes Thema ist, haben einige Unternehmen, wie Google, Richtlinienänderungen eingeleitet, während andere, wie Meta, bestimmte KI-Tools eingeschränkt haben. Studien deuten darauf hin, dass KI die Stimmung der Wähler erheblich beeinflussen könnte.
Für ihre Bewerbung um die Kongresswahlen 2024 hat die amerikanische Demokratin Shamaine Daniels die Hilfe eines Aktivisten für künstliche Intelligenz (KI) in Anspruch genommen, der als Freiwilliger tätig ist. Retuers hat angedeutet, dass Daniels' Einsatz einer KI-Einheit namens "Ashley" die erste ihrer Art im politischen Telefonbanking ist, mit freundlicher Genehmigung des Entwicklers Civox. Im Gegensatz zu früheren Robocallern werden alle Antworten von Ashley organisch generiert, ohne vorherige Aufzeichnungen. Die Technologie, die Ashley zugrunde liegt, soll mit ChatGPT von OpenAI vergleichbar sein und unbegrenzte personalisierte Echtzeit-Interaktionen mit potenziellen Wählern ermöglichen.
Der KI-Aktivist hat bereits Kontakt zu mehreren Wählern in Pennsylvania aufgenommen, was für Daniels' Wahlkampfbemühungen von entscheidender Bedeutung ist. Der CEO von Civox, Ilya Mouzykantskii, rechnet mit einer raschen Zunahme von KI-Aktivisten und deutet an, dass bis zum Jahresende ein tägliches Anrufziel von Zehntausenden erreicht werden soll. Er geht davon aus, dass die Rolle der KI bei den Wahlen 2024 von großer Bedeutung sein wird: "Die Zukunft ist jetzt."
Ashley, die roboterhaft klingen soll, informiert die Wähler während der Interaktion über ihren KI-Status, obwohl es in den USA keine rechtlichen Verpflichtungen dazu gibt. Civox hat sich über die spezifischen generativen KI-Algorithmen, die verwendet werden, bedeckt gehalten und nur verraten, dass sie über 20 verschiedene Kombinationen von Open-Source- und proprietären Modellen verwenden. Ashleys Trainingsdaten wurden aus öffentlich zugänglichen Internetinformationen gewonnen. In diesem Zusammenhang: Es gibt zunehmend Meinungsverschiedenheiten zwischen den politischen Fraktionen in Deutschland über die Regulierung von KI.
Während die US-Wahlen 2024 näher rücken, bleibt der Einsatz von KI in der Politik ein heftig diskutiertes Thema. Zuvor, im Oktober, brachten US-Senatoren einen Gesetzesvorschlag ein, der Strafmaßnahmen gegen die Schöpfer von nicht autorisierten KI-generierten Deep Fakes einleiten würde. Darüber hinaus haben die Entwickler von KI-Tools Schutzmaßnahmen gegen die Verbreitung gefälschter oder irreführender Daten etabliert. Google hat die Offenlegung der Beteiligung von KI an Anzeigen für politische Kampagnen angeordnet.
Gleichzeitig hat Meta - die Dachorganisation für Instagram und Facebook - Anfang November generative KI-Tools zur Erstellung von Anzeigen für politische Vermarkter verboten. Kürzlich ergab eine Studie des Microsoft Threat Analysis Center, dass KI-Anwendungen in sozialen Medien die Einstellungen der Wähler erheblich beeinflussen könnten. Eine europäische Studie, die Microsofts KI-Chatbot Bing (kürzlich in Copilot umbenannt) untersuchte, ergab eine Fehlerquote von 30 % bei den Antworten auf Wahldaten.
Published At
12/18/2023 4:52:35 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.