Des appels automatisés deepfake imitent le président Biden pour s’immiscer dans les primaires du New Hampshire
Summary:
Au cours du week-end des 20 et 21 janvier, les habitants du New Hampshire ont reçu des appels automatisés générés par l’IA imitant la voix du président Joe Biden, leur demandant de s’abstenir lors de l’élection primaire. Le bureau du procureur général de l’État a estimé qu’il s’agissait de désinformation et des enquêtes sont en cours pour en trouver la source. Un incident similaire avec un deepfake audio du leader démocrate de Manhattan, Keith Wright, s’est produit, indiquant que les faux audio sont en train de devenir une méthode préférée des acteurs malveillants pour s’immiscer dans la politique. Les experts conseillent la prudence lorsqu’ils interagissent avec du contenu provenant de sources inconnues ou douteuses.
Au cours du week-end des 20 et 21 janvier, les résidents du New Hampshire se sont retrouvés à la réception d’un plaidoyer politique inattendu. Des appels téléphoniques automatisés imitant la voix du président américain Joe Biden ont exhorté les habitants à ne pas participer aux élections primaires du 23 janvier. Ces appels automatisés provenaient d’un outil d’intelligence artificielle (IA) capable de répliquer des voix, connu sous le nom de deepfake, avec l’intention évidente de perturber les élections présidentielles de 2024.
Les appels douteux suggéraient aux habitants de s’abstenir de voter, comme le montre un enregistrement audio de NBC : « Voter ce mardi ne fait que renforcer l’ambition des républicains de réélire Donald Trump. Votre précieux vote comptera en novembre, pas mardi prochain.
Le bureau du procureur général de l’État n’a pas tardé à discréditer ces appels en les qualifiant de propagation de désinformation, exhortant les électeurs du New Hampshire à ignorer complètement le message contenu dans les appels. D’autre part, un représentant de l’ex-président Donald Trump a nié toute implication de lui ou de son équipe de campagne. À l’heure actuelle, la source de ces appels déformés fait l’objet d’une enquête.
Dans le même ordre d’idées, une controverse politique similaire impliquant de faux enregistrements audio a émergé. Un deepfake audio qui se faisait passer pour le leader démocrate de Manhattan, Keith Wright, a été découvert le 21 janvier, où l’on entendait ladite voix critiquant une autre membre de l’assemblée démocrate, Inez Dickens. Selon le rapport de Politico, bien que certains aient rejeté l’audio comme faux, il a réussi à tromper au moins un initié politique pendant un moment.
L’ancienne présidente du conseil municipal et démocrate de Manhattan, Melissa Mark-Viverito, a avoué à Politico qu’elle était d’abord tombée dans le piège de la tromperie : « J’ai été décontenancée. J’ai d’abord cru que c’était authentique.
Les experts supposent que ces parties malveillantes préfèrent les manipulations audio plutôt que vidéo, car l’examen du public est souvent plus élevé et plus attentif à la supercherie visuelle. Henry Ajder, conseiller en intelligence artificielle, a déclaré au Financial Times que « tout le monde connaît Photoshop ou, à tout le moins, connaît son existence ».
Au moment de la publication de cet article, il n’existe pas encore de moyen infaillible d’identifier ou de décourager les deepfakes. Pour s’y retrouver, les experts conseillent au public de faire preuve de discernement lorsqu’il interagit avec du contenu provenant de sources inconnues ou douteuses, en particulier lorsqu’il s’agit d’allégations extraordinaires.
Published At
1/23/2024 7:25:04 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.