KIP

Deepfakes : le poids des vidéos, le choc des victimes

Le poids des mots n’est rien face au choc des images « deepfakes ». Depuis quelques années, le deep learning a permis à des informaticiens en herbe de créer des vidéos détournées, d’apparence authentique, faisant dire n’importe quoi à n’importe qui. Les victimes de ce nouveau fléau d’internet sont malheureusement difficiles à protéger. 

Contraction du « deep learning » qui désigne le fruit de l’intelligence artificielle et de « fake », qui induit explicitement son caractère trompeur, le deepfake désigne la technique informatique qui s’appuie sur l’intelligence artificielle pour superposer le visage et la voix d’une personne à une vidéo préexistante. Parmi les vidéos détournées les plus connues, figure celle de l’acteur et réalisateur américain Jordan Peele qui a utilisé la technologie deep fake pour faire insulter Donald Trump par Barack Obama. Visionnée plus de 8 millions de fois, cette vidéo interroge la façon dont peuvent être détournées ces images et comment celles-ci peuvent manipuler l’opinion publique. 

Phénomène deepfake : tous concernés ?

Les personnalités politiques et célébrités ne sont pas les seules touchées par les deepfakes. Ce phénomène se développe tant et si bien que n’importe qui peut être victime de cette technologie. Selon une étude conduite en 2019 par le Deep Trace Labs, 96% du contenu deepfake sur internet provient de l’industrie pornographique où le visage de femmes, souvent actrices influentes, est greffé à une vidéo pornographique préexistante. Les quatre plus gros sites de cette industrie ont cumulé plus de 134 millions de vues entre 2018 et 2019. 

Des victimes souvent silencieuses, craignant de créer un effet « Streisand »

Les premières victimes de ces montages sont les femmes, qu’elles soient exposées médiatiquement ou non. Force est alors de constater que les entreprises répondent à cette demande nouvelle pour rendre la création de deepfake accessible au public. Pour quelques vingtaines d’euros, des sites internet, dont le nom ne sera pas relayé ici, proposent des services payants où les hommes peuvent fournir une image ou une vidéo qui sera détournée afin de correspondre aux fantasmes sexuels les plus sordides. Dans la majorité des cas, les personnes faisant appel à ces services ciblent une personne de leur entourage. Bien souvent, les femmes victimes de cette forme de revenge porn se taisent, de peur de déclencher un « effet Streisand ».  Cet effet fait référence à un accident survenu en 2003 où la chanteuse Barbara Streisand avait assigné en justice un paparazzi qui avait pris une photo aérienne de son domicile, afin de faire supprimer la photo. La réaction médiatique avait été l’inverse de celle espérée par la chanteuse puisque la divulgation de la poursuite judiciaire avait attiré la curiosité des internautes et le cliché avait été vu plus de 420 000 fois à l’époque. Cet effet “Streisand” n’exempte pas les victimes des deepfakes qui, lorsqu’elles veulent engager la responsabilité de leur agresseur numérique, risquent d’octroyer une visibilité malvenue à cette vidéo qu’elle désirerait voir supprimer le plus vite possible. Les victimes des deepfakes gardent donc souvent le silence, afin de ne pas attirer l’attention sur l’image qui touche leur intimité.

Certaines victimes de ces montages ont pourtant parfois le courage de témoigner. C’est le cas de la journaliste indienne Rana Ayyub qui, après s’être révoltée publiquement du viol d’une enfant en Inde, a vu son visage superposé à une vidéo pornographique d’une violence inouïe. Après avoir vu cette vidéo, « mon téléphone a commencé à sonner et j’ai vu plus de 100 notifications Twitter, toutes relayant la vidéo », raconte-t-elle pour India Today. La vidéo a été partagée plus de 40 000 fois. Cet évènement a marqué à vie la journaliste qui avait l’habitude de prendre la parole librement. Elle avoue depuis être devenue beaucoup plus prudente sur ce qu’elle publie en ligne. « Je me suis un peu autocensurée par nécessité. Je me demande sans cesse si quelqu’un va de nouveau s’en prendre à moi ? »

Selon Danielle Citron, professeur de droit à l’Université de Boston, « Les vidéos deepfake transmettent le message aux victimes que leur corps ne leur appartient pas et rendent très difficile de rester connecté, trouver un travail et se sentir en sécurité »1Danielle K. Citron & Robert Chesney, Deep Fakes: A Looming Challenge for Privacy, Democracy, and National Security, 107 California Law Review 1753 (2019). Ce sentiment d’insécurité est d’autant plus fort que la technologie est de plus en plus pointue, rendant poreuse la distinction entre une vidéo originale et truquée. Le droit est-il alors suffisamment adapté pour répondre à ces atteintes à l’intimité d’un genre nouveau ? 

Le droit, un outil insuffisant face à l’anonymat de ces “agresseurs numériques”

Le droit pénal s’est emparé du sujet et punit « d’un an d’emprisonnement et de 15 000 euros d’amende le fait de publier, par quelque voie que ce soit, le montage réalisé avec les paroles ou l’image d’une personne sans son consentement, s’il n’apparaît pas à l’évidence qu’il s’agit d’un montage ou s’il n’en est pas expressément fait mention ». Pour être puni, l’auteur d’un deepfake doit avoir publié la vidéo litigieuse sans le consentement de la personne dont l’image est utilisée, ce qui laisse à penser qu’une telle manipulation est parfaitement autorisée pour un usage privé. Le droit pénal ne réprime pas le montage dans sa dimension artistique ou technique mais bien la pratique de dissimulation et de tromperie du public. Lorsque le montage semble dissimulé ou s’il n’est pas dit expressément qu’il est un montage, l’auteur encourt donc 15 000 euros d’amende et un an d’emprisonnement. 

Cette réponse du droit français apparaît comme imparfaite, en ce qu’elle ne prend pas en compte les vidéos détournées mais qui ne sont pas publiées, comme un deepfake qui tournerait sur un groupe messenger de quelques personnes, par exemple2Hors collection Pratique du droit de la presse, Chapitre 441 – Protection pénale des droits de la personnalité – Christophe Bigot – 2020

La victime d’un deepfake peut alors heureusement se tourner vers le terrain civil en invoquant l’atteinte à son droit à l’image. En 2019, la Cour d’appel de Paris a ainsi condamné un photographe à verser 3000 euros à la chanteuse Mireille Matthieu pour avoir détourné une pochette de son album en posant la chanteuse dans une position suggestive sans son accord3Cour d’appel de Paris (pôle 1 – ch. 2), 3 octobre 2019, n° 18/27200, Mireille M. c/ Sébastien C

Il semble heureux que le droit français réponde à cette situation mais cela ne semble pas suffisant. L’appareil juridique répressif n’est pourtant pas à blâmer. Pour peu que l’auteur de deepfake ait sa responsabilité pénale ou civile engagée, encore faut-il savoir qui poursuivre ou assigner. En effet, beaucoup de victimes ignorent l’identité de l’auteur de ces vidéos qui ruinent leur réputation. 

Les victimes peuvent-elles se retourner contre les sites hébergeurs ? 

Le droit français encadre également les sites hébergeurs de telle sorte que leur responsabilité civile et pénale ne peut être engagée que dans deux cas différents : si l’hébergeur avait connaissance de la nature illicite de la vidéo ou si, dès le moment où il en a eu connaissance, il n’a pas agi pour rendre son accès impossible4Article 6.I.2. de la LCEN. Le problème reste souvent entier puisque la victime doit encore prouver que la vidéo est illicite. 

Il convient cependant de saluer la démarche de moteurs de recherche comme Google, désireux de supprimer la « pornographie fictive involontaire » des résultats du moteur de recherche. Pour ce faire, la victime doit envoyer l’URL concerné et une capture d’écran de la vidéo en question. Il serait légitime d’attendre la même démarche de la part des géants de l’industrie pornographique dont le premier touché par ce phénomène : Pornhub. Pourtant, ni les demandes répétées de la part de victimes, ni celles formulées par les associations n’ont suffi. MindGeek, le propriétaire de Pornhub, est resté muet sur sa politique de lutte contre ce fléau d’internet. 

Là où le droit encadre mal ces nouvelles maladies d’internet qui ne sont pas près de cesser, la technologie peut lui venir en secours et l’intelligence artificielle semble la candidate idéale pour détecter ces vidéos. Une limite demeure : celle de la lutte entre l’intelligence artificielle du bien et celle du mal qui semble se destiner à une course sans fin, l’une toujours avec un temps de retard sur l’autre.  

Avatar

Athénaïs Giscard d'Estaing

Étudiante française en Master in Management à HEC Paris et en Master de Droit des Affaires à la Sorbonne (Promotion 2024). Membre de KIP et contributrice régulière.

French student in Master in Management at HEC Paris and in Master in Business Law at Sorbonne University (Class of 2024). Member of KIP and regular contributor.