Le nouveau playbook IA deepfake de Meta : plus d'étiquettes, moins de retraits

Le nouveau plan stratégique de Meta sur l’IA deepfake : plus de marquages, moins de suppressions

Face à la montée en puissance de l’intelligence artificielle (IA) dans la génération de contenus, Meta procède à des changements significatifs dans ses règles en jouant la carte de la transparence. Une réponse aux critiques formulées par son conseil de surveillance qui va se traduire par une méthode de traçabilité de ces contenus.

L’ex-géant des médias sociaux Facebook prévoit d’accentuer l’étiquetage des contenus issus de l’IA, dont les deepfakes, à partir du mois prochain. Le but ? Offrir aux utilisateurs une vision plus claire des contenus auxquels ils sont exposés, surtout quand ils pourraient être trompeurs et influencer leur opinion sur des questions cruciales. C’est particulièrement pertinent en cette année 2022, qui connaîtra plusieurs élections majeures à travers le globe.

Cependant, pour les deepfakes, Meta n’imposera des étiquettes que si le contenu contient des « indicateurs d’image IA » conformes aux standards de l’industrie ou si le créateur a expliqué qu’il s’agit de contenu généré par l’IA. En dehors de ces limites, le contenu généré par l’IA sera probablement exempté d’étiquette.

Ces changements dans la politique de Meta envisagent une approche davantage tournée vers la « transparence et le contexte supplémentaire », plutôt que de supprimer les médias manipulés. En somme, davantage d’étiquettes, moins de suppressions, constitueront probablement l’avenir de la gestion du contenu généré par l’IA et des médias manipulés sur les plateformes de Meta, notamment Facebook et Instagram.

En juillet prochain, Meta projette de cesser la suppression de contenu uniquement parce qu’il serait manipulé, donnant ainsi aux usagers le temps de comprendre le processus d’étiquetage.

Cette reconfiguration pourrait permettre à Meta de se conformer aux exigences légales croissantes relatives à la modération du contenu, notamment celles postulées par le règlement sur les services numériques de l’Union européenne (DSA). Lequel impose à Meta de trouver un équilibre entre la suppression de contenus illégaux, la réduction des risques systémiques et la protection de la liberté d’expression.

Le conseil de surveillance de Meta, financé par l’entreprise mais autorisé à fonctionner de manière indépendante, valide un faible pourcentage des décisions de modération de contenu et peut émettre des recommandations politiques. Bien que Meta ne soit pas contraint d’accepter ces conseils, elle a choisi cette fois-ci de modifier son approche vis-à-vis du contenu généré par l’IA et les médias manipulés.

Monika Bickert, vice-présidente de la politique de contenu de Meta, a admis dans un article de blog publié récemment que l’entreprise adoptait une approche trop étroite lorsqu’elle ne prenait en compte que les vidéos créées ou modifiées par l’IA pour faire croire qu’une personne disait quelque chose qu’elle n’a jamais dit. Le conseil de surveillance avait en effet critiqué cette attitude en février dernier, après un incident impliquant une vidéo falsifiée du président Biden.

A lire également  Python : un langage taillé pour le machine learning

Anticipant un futur rempli de contenus synthétiques, Meta coopère avec d’autres acteurs du secteur pour créer des standards techniques communs pour identifier le contenu de l’IA. Pour cela, elle s’appuie sur les labels « Façonné avec l’IA » ajoutés à la vidéo, l’audio et les images générées par l’IA, qui seront basées sur la détection de signaux d’IA ou sur les divulgations d’utilisateurs déclarant qu’ils téléchargent du contenu généré par l’IA.

Meta entend aussi élargir le champ de couverture de sa politique, en étiquetant une variété beaucoup plus large de contenus. Si une image, une vidéo ou un audio modifiés numériquement présentent un risque élevé de tromper le public sur une question importante, Meta se réserve le droit d’ajouter une étiquette plus visible.

Les efforts de Meta pour faire face à ces problèmes incluent aussi la collaboration avec près de 100 vérificateurs de faits indépendants pour aider à identifier les risques associés aux contenus manipulés. Ces entités externes continueront à examiner le contenu faux et trompeur généré par l’IA. Et si ces vérificateurs évaluent le contenu comme « faux ou modifié », Meta répondra en limitant la portée du contenu concerné – ce qui signifie qu’il sera moins visible sur les flux des utilisateurs.

Il est clair qu’avec l’augmentation de la prolifération de contenus synthétiques, grâce à l’essor des outils d’IA générative, la charge de travail sur les épaules des vérificateurs tiers ne va faire qu’augmenter.

Yohann G.