Live Chat

Crypto News

Cryptocurrency News 9 months ago
ENTRESRUARPTDEFRZHHIIT

Meta impose des filigranes invisibles sur les images générées par l’IA pour lutter contre les abus

Algoine News
Summary:
Meta, la société anciennement connue sous le nom de Facebook, prévoit d’ajouter des filigranes invisibles à toutes les images créées avec son outil d’intelligence artificielle (IA) pour éviter les abus. Contrairement aux filigranes traditionnels, ceux-ci résisteront aux manipulations d’image courantes et ne peuvent pas être retirés facilement. Initialement appliqué aux images produites par Meta AI, le service de filigrane s’étendra ensuite à d’autres services Meta utilisant l’IA pour la génération d’images. La fonctionnalité « réimaginer » pour Facebook Messenger et Instagram, qui permet aux utilisateurs d’échanger des images pilotées par l’IA, recevra également cette fonctionnalité. Ce changement répond à la recrudescence des escroqueries assistées par l’IA qui fabriquent du contenu trompeur, comme on le voit avec les fausses vidéos, audios et images qui ont circulé sur le Web.
Meta, la société anciennement connue sous le nom de Facebook, a annoncé son intention d’intégrer des filigranes cachés dans toutes les images créées par l’intelligence artificielle (IA), dans le cadre de sa stratégie visant à contrecarrer l’utilisation abusive de la technologie. Selon une mise à jour fournie le 6 décembre concernant Meta AI - l’assistant intelligent de l’entreprise - un filigrane invisible sera bientôt incorporé dans chaque image générée par l’IA découlant de l’expérience « imaginez avec Meta AI ». Tout comme les autres chatbots d’IA, Meta AI fabrique des images et du contenu en fonction des entrées des utilisateurs ; Pourtant, contrairement à ses homologues, Meta a l’intention de décourager les malversations en refusant de laisser sa ressource être exploitée comme un outil de tromperie. La fonction de filigrane invisible entrant sera résistante aux tentatives de suppression par les créateurs. « Dans les semaines à venir, un filigrane caché sera intégré à l’expérience « imaginez avec Meta AI » pour améliorer la transparence et la responsabilité », a déclaré Meta. Un modèle d’apprentissage profond sera utilisé pour apposer des filigranes - indétectables par l’œil humain - sur des images fabriquées via l’outil d’IA. Cependant, les filigranes cachés peuvent être identifiés avec un modèle approprié. Les filigranes conventionnels sont inférieurs aux filigranes d’IA proclamés par Meta, connus sous le nom de « imagine with Meta AI », qui sont robustes contre les modifications d’image habituelles, notamment le recadrage, les modifications de couleur (réglages de luminosité ou de contraste), les captures d’écran, etc. Dans un premier temps, le service de filigrane sera appliqué aux images produites par Meta AI, mais il est prévu d’étendre la fonctionnalité à d’autres services qui utilisent l’IA dans la génération d’images. En plus de cela, Meta AI a lancé la fonctionnalité « réimaginer » pour Facebook Messenger et Instagram. Cette mise à jour facilite l’échange d’images pilotées par l’IA entre les utilisateurs et intégrera la fonction de filigrane caché dans les deux plateformes de messagerie. Les plateformes d’IA, telles que Dall-E et Midjourney, offrent déjà la possibilité d’incorporer des filigranes traditionnels dans leur contenu. Cependant, ceux-ci peuvent être facilement supprimés en recadrant l’image périphérique. Certains outils d’IA peuvent même éradiquer automatiquement les filigranes des images, un exploit qui, selon Meta AI, ne sera pas pratique avec son produit. À la suite de la popularisation des outils d’IA générative, divers organismes d’affaires et célébrités ont dénoncé les escroqueries assistées par l’IA. Les escrocs exploitent des outils pratiques pour produire des vidéos, des audios et des images falsifiés de personnes célèbres, qu’ils font ensuite proliférer sur le Web. En mai, une image concoctée par l’IA représentant une explosion près du Pentagone, siège du département américain de la Défense, a momentanément entraîné une chute du marché boursier. Cette image fabriquée a ensuite été partagée et diffusée par d’autres publications d’information, provoquant ainsi un effet en cascade. Néanmoins, les forces de l’ordre locales, y compris l’Agence de protection des forces du Pentagone, responsable de la sécurité du bâtiment, ont réfuté les informations qui circulaient, soulignant qu’il n’y avait eu « aucune explosion ou incident ». Le même mois, Amnesty International, une organisation de défense des droits humains, a été dupée par une image générée par l’IA censée montrer l’oppression policière, qu’elle a ensuite utilisée pour des campagnes contre les forces de l’ordre. Erika Guevara Rosas, directrice d’Amnesty International pour les Amériques, a reconnu l’erreur : « Nous avons retiré les images des mises à jour des réseaux sociaux, car nous ne voulons pas que le différend sur l’utilisation d’images concoctées par l’IA mette de côté le soutien aux victimes et leurs appels à la justice en Colombie. »

Published At

12/7/2023 11:50:05 AM

Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.

Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal? We appreciate your report.

Report

Fill up form below please

🚀 Algoine is in Public Beta! 🌐 We're working hard to perfect the platform, but please note that unforeseen glitches may arise during the testing stages. Your understanding and patience are appreciated. Explore at your own risk, and thank you for being part of our journey to redefine the Algo-Trading! 💡 #AlgoineBetaLaunch