Deep Fakes : des vidéos contrefaites mais réalistes

Illustration d'une personne assise devant un ordimateur portable. L'écran affiche le message "FRAUD ALERT"
pixabay.com

Depuis longtemps déjà possible dans l’industrie cinématographique, la falsification dimages animées est en train de se démocratiser sur la toile voire même de saméliorer cest ce que lon appelle les « Deep Fake ». Des fausses informations diffusées en vidéos et mettant en scène des personnes qui, en réalité, ne sont pas à lorigine de celles-ci. Elles sont montées de toutes pièces par dautres internautes.

Une application, notamment, est très utilisée dans ce but : Deep Fake’s Artificial Intelligence. Cette appli utilise l’apprentissage neuronal pour changer les visages dans les vidéos d’une manière hyperréaliste. Tout ce qu’il faut, c’est une réserve d’images de la personne que vous voulez voir apparaître dans la vidéo finale. Ce logiciel est capable de synchroniser les mouvements des lèvres avec les mots prononcés. Basée sur une vidéo originale, l’IA (Intelligence Artificielle) développe ainsi sa propre vidéo à partir du stock d’images et fait prononcé à son locuteur des paroles qu’il n’a en fait jamais dites. L’œil humain et même les outils d’analyse digitale ne sont parfois plus en mesure d’identifier ces vidéos comme des contrefaçons tellement elles paraissent réalistes.

Les Deep Fake sont plus que de la simple parodie

Ce que les internautes aiment surtout faire avec ce genre d’applications, ce sont des vidéos de divertissement dans lesquels ils mettent en scène des personnalités connues – d’ailleurs, leur « victime » préférée est l’acteur Nicholas Cage. Son visage a effectivement été incorporé dans d’innombrables extraits de films, donnant des parodies parfois absurdes ou amusantes.

Cependant, les dangers et dérives associés à cette technologie sont plus qu’évidents et il faut absolument les prendre en considération. La dérive pornographique par exemple est très facile à imaginer. Des visages de femmes comme Michelle Obama ou Scarlett Johansson ont déjà été placés sur des corps d’actrices pornos, par exemple. Il n’est alors pas impossible que de la pornographie de vengeance d’ex-partenaires déçus puisse être créée de cette façon dans le but d’humilier publiquement des personnes précises.

Le réseau social Twitter ainsi que plusieurs sites fournisseurs de pornographie sur Internet ont déjà décelé et commencé à supprimer des vidéos de ce genre circulant sur leurs plateformes.

Les dangers de la manipulation politique via ces vidéos falsifiées

Outre le risque d’exposition individuelle, il existe bien sûr une autre menace : la manipulation des décisions politiques. Les politiciens sont des personnages publics, il y a donc plus de photos d’eux qu’il n’en faut pour en faire une vidéo truquée. Ainsi, vous pouvez leur prêter tous les propos que vous voulez. Cela représente une menace considérable pour la crédibilité des politiciens, mais aussi pour le résultat des élections, par exemple.

Imaginez : deux jours avant les élections législatives au Luxembourg, par exemple, une vidéo – dans laquelle un candidat de premier plan se moque d’un groupe de la population – deviendrait virale. Avant que la correction ne puisse être faite, des milliers de personnes l’aurait déjà visionnée, se laissant certainement influencer par ces faux propos dans leurs décisions électorales.

Cela ressemble presque à de la science-fiction. La célèbre vidéo avec Barack Obama présente cette technologie d’une manière terriblement réaliste. Et ce n’est pas terminé car les possibilités techniques continuent de mûrir, l’intelligence artificielle comme un algorithme d’auto-apprentissage s’améliore avec chaque vidéo qu’elle crée. A noter, par ailleurs, qu’une technologie rendant les vidéos infalsifiables n’est pas encore en vue.

Deep Fakes : BEE SECURE recommande la prudence

Réduire ses photos en ligne

Pour éviter d’être victime d’un Deep Fake, il est utile de réduire le nombre de ses photos de profil et autres autoportraits disponibles en ligne. Moins le logiciel a de matériel source, plus il est difficile d’obtenir un résultat convaincant. Supprimez, si possible, les anciennes photos de profil sur les réseaux sociaux et utilisez la même image pour différents sites web.

Garder l’esprit critique

Pour reconnaître les Deep Fakes, il est utile de regarder d’abord le contexte de la vidéo – le diffuseur est-il une source d’information sérieuse ou un site plutôt douteux ? Quand la vidéo est-elle apparue et qu’est-ce qu’elle déclenche en vous ? Les déclarations et le comportement du protagoniste sont-ils contraires à ce qu’il dit et fait habituellement ? Répondre à ces questions peut aider à reconnaître les vidéos contrefaites.

Sensibiliser les plus jeunes

Les jeunes, en particulier, qui ne connaissent peut-être pas encore le contexte, doivent être sensibilisés aux dangers de ces vidéos, qui se propagent souvent de manière virale. Un bon moyen est de leur permettre d’expérimenter eux-mêmes une telle application – quand ils verront à quel point il est facile de changer les visages dans des vidéos, ils regarderont certainement les prochaines avec plus de méfiance et relativiseront l’information reçue. Vous trouverez des informations supplémentaire sur le droit à l’image dans notre dossier thématique.

Sources : RTS.ch, Heise.de, GCN.com, YouTube