Technologie: des vidéos pornographiques manipulées par l’intelligence artificielle

Des vidéos intégrant des visages de célébrités dans des films X pullulent ces derniers jours sur internet. La faute à un programme accessible à tous, nommé « Deep Fake ». Face au débat qu’il suscite mais aussi aux menaces de poursuites judiciaires, quelques plateformes ont commencé par censurer la pratique qui prenait une proportion démesurée.

Gal Gadot, la célèbre actrice du film Wonder Woman, dénoue lentement sa longue ceinture blanche, sous le regard d’un homme en costume, installé à un bureau. Elle retire un à un ses vêtements, laissant apparaître sa poitrine, ses fesses et son sexe.

Cette séquence, mise en ligne mercredi 31 janvier par un utilisateur du forum Reddit, a surpris plus d’un. Que les fans de la star hollywoodienne se rassurent. Gadot n’a jamais tourné de film pornographique. La vidéo n’est non plus pas tirée d’un film pour adulte. La fameuse vidéo est le résultat d’un montage assisté par intelligence artificielle (IA). Avec un programme nommé DeepFake, l’auteur de la vidéo a pu insérer, sans compétences techniques poussées, le visage de l’actrice israélienne dans un extrait de film X. Le résultat a été tellement réaliste que plusieurs internautes ont mordu à l’appât.

De sources médiatiques, ce genre de vidéos s’est multiplié à vive allure. Et depuis deux mois ! Le responsable de ses détournements d’images ? Un fil de discussion nommé Reddit créé il y a deux mois, où des dizaines de séquences similaires ont été publiées. Il faut dire que les malins n’ont pas pris que Gal Gadot pour cible. Les chanteuses Ariana Grande, Selena Gomez ou encore les actrices Jessica Chastain, Emma Watson et Natalie Portman ont elles aussi été prise pour des cobayes. Elles font partie des nombreuses stars dont le visage a ainsi été calqué sur celui d’actrices de films pornographiques.

wonder woman

Tout serait parti, à la fin de 2017, d’un développeur appelé Deepfakes sur l’application Reddit. C’est lui qui a commencé, pour « s’amuser », à fabriquer et à diffuser ce type de vidéos. Repéré par le site Web spécialisé Motherboard, il a expliqué avoir conçu un programme capable d’automatiser ce processus, en se basant notamment sur une technologie d’IA mise à disposition gratuitement par Google, nommée Tensorflow. Son système, « nourri » de centaines de photos et de vidéos de la star choisie glanées sur le Web, est ensuite capable de déformer suffisamment le visage d’une actrice de film pornographique pour qu’elle ressemble au modèle qu’a « appris » le programme.

Ses expérimentations ont fasciné Reddit. Quelques jours plus tard, un autre internaute mettait en ligne un programme similaire, ne nécessitant pas de compétences pointues. C’est alors l’emballement : les internautes s’emparent de ce logiciel nommé FakeApp, et se mettent à publier en masse leurs créations, aidés par des modes d’emploi détaillés.

Sur le fil de discussion, les vidéos et les GIF animés s’enchaînent. Les internautes exhibent leurs séquences les plus réussies, mais partagent aussi leurs échecs — des visages monstrueux — et s’échangent des conseils techniques. Certains décident aussi de mettre à disposition des bases de données d’images de stars, indispensables à la création de ces vidéos.
Très vite, les vidéos se diffusent, s’échappent de Reddit, conquièrent d’autres espaces et se retrouvent, pour certaines d’entre elles, sur des sites pornographiques, présentées comme de vraies images de stars. Elles restent néanmoins rares surYouPorn, géant du secteur, qui interdit ce type de contenu falsifié.

Si le droit français interdit de publier « le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention », et prévoit de punir les contrefacteurs à un an d’emprisonnement et à 15 000 euros (environs 10 millions francs CFA) d’amende. La loi américaine est moins claire. Les stars en question pourraient attaquer pour diffamation ou violation du droit à l’image — mais cela ne suffirait sans doute pas à empêcher les vidéos de circuler sur Internet.

En réaction à la multiplication de ces vidéos, la plate-forme de discussion « Discord » a fermé à la fin de janvier plusieurs groupes consacrés à FakeApp, au motif qu’ils contrevenaient à ses règles. Dans la foulée, c’est la plate-forme Gfycat, sur laquelle étaient hébergées des images animées issues de ces vidéos, qui a fait un grand ménage dans ces contenus jugés « répréhensibles », privant la communauté d’une grande partie de ses créations.

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *