Meta va mettre en œuvre de nouvelles normes pour le contenu généré par l’IA sur ses plateformes
Summary:
Meta est sur le point d’introduire de nouvelles directives pour le contenu généré par l’IA sur ses plateformes comme Facebook, Instagram et les fils de discussion. Le contenu identifié par l’IA sera étiqueté et les utilisateurs auront la possibilité de signaler le contenu suspecté généré par l’IA. La société collabore avec des géants de la technologie tels que Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock pour faire progresser les méthodes de détection des filigranes invisibles dans le contenu généré par l’IA. Cependant, la capacité de détecter le contenu audio et vidéo généré par l’IA, y compris les deepfakes, est actuellement hors de portée de Meta.
Dans les mois à venir, Meta devrait introduire de nouvelles directives concernant le contenu produit par l’intelligence artificielle (IA) sur ses différentes plateformes comme Facebook, Instagram et les fils de discussion, comme détaillé dans un article de blog de l’entreprise daté du 6 janvier. Le contenu sera balisé de manière visible s’il est identifié comme ayant été créé par l’IA, en fonction de ses métadonnées ou de son filigrane délibéré. Les utilisateurs de Meta auront également la possibilité de signaler tout contenu non marqué présumé avoir été généré par l’IA.
Faisant écho aux politiques antérieures de modération de contenu de Meta, cette mise à jour nous rappelle une époque où la société, anciennement connue sous le nom de Facebook, a mis en place un système qui permettait aux utilisateurs de signaler les contenus qui contrevenaient aux règles de la plateforme. Avance rapide jusqu’en 2024, et Meta fournit à nouveau des outils à ses utilisateurs sur tous ses réseaux sociaux pour signaler les contenus inappropriés, exploitant potentiellement la plus grande force de crowdsourcing de consommateurs au monde. Cela signifiait que les créateurs de contenu seraient obligés d’étiqueter leurs créations comme générées par l’IA chaque fois que cela serait nécessaire, sinon il pourrait y avoir des répercussions.
Selon le blog, il y aura des exigences pour les utilisateurs de divulguer et d’étiqueter tout contenu organique accompagné d’une vidéo photoréaliste ou d’un son réaliste qui a été modifié numériquement ou créé, le non-respect de cette obligation entraînerait des sanctions.
Il est intéressant de noter que tout contenu généré par l’IA créé à l’aide des outils intégrés de Meta recevrait un filigrane ainsi qu’une étiquette claire indiquant son origine. Cependant, tous les systèmes d’IA ne sont pas dotés de ces garanties. La société est engagée dans des projets collaboratifs avec d’autres entreprises telles que Google, OpenAI, Microsoft, Adobe, Midjourney et Shutterstock pour développer des méthodes de détection à grande échelle de filigranes invisibles. Mais ces méthodes ne peuvent s’appliquer qu’aux images générées par l’IA.
Comme indiqué dans le blog, « Bien qu’il y ait des indicateurs émergents dans leurs générateurs d’images, ils n’ont pas évolué pour les inclure dans les outils d’IA qui créent du contenu audio et vidéo à la même échelle. » Cela signifie qu’à l’heure actuelle, Meta n’est peut-être pas équipé pour détecter l’audio et la vidéo générés par l’IA, y compris la technologie deepfake, à grande échelle.
Published At
2/6/2024 8:05:00 PM
Disclaimer: Algoine does not endorse any content or product on this page. Readers should conduct their own research before taking any actions related to the asset, company, or any information in this article and assume full responsibility for their decisions. This article should not be considered as investment advice. Our news is prepared with AI support.
Do you suspect this content may be misleading, incomplete, or inappropriate in any way, requiring modification or removal?
We appreciate your report.