11/12/2024
Le droit à l’image et le contrôle de son usage sont des droits fondamentaux, reconnus par les juridictions internationales et protégés, notamment, par la Cour européenne des droits de l’homme (1). Cependant, ces droits sont mis à l’épreuve par l’apparition des deepfakes, une technologie de manipulation de l’image et du son rendue possible par les avancées de l’intelligence artificielle (IA). Selon l’article 3 de l’AI Act, le règlement de l'Union européenne régulant l'intelligence artificielle, un deepfake est défini comme « une image ou un contenu audio ou vidéo généré ou manipulé par l’IA, présentant une ressemblance avec des personnes, des objets, des lieux, des entités ou événements existants et pouvant être perçu à tort par une personne comme authentiques ou véridiques ». L’Organisation mondiale de la propriété intellectuelle (OMPI) précise également que les deepfakes reposent sur des techniques sophistiquées, comme le recours à des traits humains superposés, pour produire des imitations réalistes (2). À partir de vraies images, ces contenus peuvent recréer de manière artificielle le visage, la voix, ou les mouvements d’une personne, faisant ainsi peser un risque sérieux sur les individus.
D’abord expérimentale, la technologie des deepfakes s’est rapidement démocratisée avec des outils accessibles au grand public, révélant ainsi un fort potentiel de nuisance. Utilisés pour créer des contenus trompeurs, les deepfakes sont devenus des vecteurs de désinformation, remettant en cause la capacité de l’opinion publique à discerner le vrai du faux. Daniel Guinier souligne que l’essence des deepfakes réside dans « l’intention de tromper en créant des canulars et de fausses informations » (3). Leur diffusion rapide, notamment via les réseaux sociaux, fait craindre une ère de désinformation où même les autorités pourraient perdre leur rôle de garants de l’authenticité.
À l’échelle internationale, les deepfakes représentent aussi un potentiel instrument de manipulation géopolitique. En effet, des États ou des acteurs non étatiques (comme les groupes d'extrême droite lors de la campagne législative de 2024 en France (4)) peuvent utiliser ces technologies pour influencer l’opinion publique dans d’autres pays, fausser des élections ou compromettre des relations diplomatiques (5). La possibilité de produire des deepfakes de qualité quasi indiscernable accroît le risque de confusion et complique la tâche des autorités pour en identifier la source. La nécessité d’une réponse internationale coordonnée est donc urgente, mais elle se heurte à des défis juridiques uniques.
Ces défis découlent de la difficulté à identifier les auteurs de deepfakes et de la rapidité de leur diffusion, ce qui complexifie les poursuites judiciaires. Bien que certaines législations nationales tentent de réguler ces manipulations, l'absence d'un cadre international spécifique souligne l'urgence de protections juridiques adaptées à cette technologie. Comment le droit international peut-il répondre efficacement aux défis posés par les deepfakes, alors même que les cadres juridiques actuels montrent leurs limites face à cette technologie en constante évolution ?
L’application des conventions internationales générales aux enjeux des deepfakes
L’absence de régulation internationale spécifique aux deepfakes oblige à recourir à des conventions généralistes pour encadrer leurs effets. Ces conventions, initialement conçues pour protéger les droits de l'homme, notamment la vie privée et la réputation, peuvent parfois répondre aux enjeux posés par les deepfakes.
Les deepfakes peuvent sérieusement compromettre le droit à la vie privée et porter atteinte à la réputation des individus. À cet égard, plusieurs instruments internationaux et régionaux permettent de sanctionner de telles atteintes. En Europe, l’article 8 de la Convention européenne des droits de l’homme (ConvEDH) garantit le droit au respect de la vie privée et familiale et la Cour européenne des droits de l’homme (CEDH) a déjà eu l’occasion d’étendre l’application de cet article à des cas de diffamation et d’usurpation d’image comme dans l'affaire de la Flor Cabrera contre l'Espagne (6). Le Pacte international relatif aux droits civils et politiques de 1966 assure également une protection contre les atteintes à la vie privée (article 14) et à la réputation (article 17) au niveau mondial. Ces textes permettent une protection des individus en étendant leur champ d’application à des contenus générés par intelligence artificielle, comme les deepfakes.
De plus, la prolifération des deepfakes dans le domaine de la désinformation et des fausses informations constitue également une menace importante pour les sociétés modernes et les processus démocratiques. Les institutions internationales, comme l’UNESCO et le Conseil de l’Europe, jouent un rôle essentiel dans la régulation de la désinformation numérique, mais restent limitées face aux manipulations d’ampleur et à l’instantanéité des deepfakes. Des programmes de sensibilisation et des initiatives réglementaires encouragent les États à prendre des mesures pour limiter les effets de la désinformation, notamment en développant des outils de vérification et des mécanismes de lutte contre les contenus falsifiés. Néanmoins, dans la plupart des juridictions, il reste difficile de contenir l’impact des deepfakes uniquement par ces instruments, en raison de la sophistication des technologies employées et de la rapidité de leur diffusion.
Enfin, un aspect juridique à absolument prendre en compte est celui des droits d’auteur. La création de deepfakes, en reproduisant le visage, la voix ou les traits d’un individu, peut porter atteinte aux droits d’auteur, notamment si le contenu manipulé est protégé. La législation sur les droits d’auteur, bien que appliquée de manière générale aux œuvres originales, reste ambiguë en ce qui concerne les contenus générés par intelligence artificielle.
Ainsi, bien que les conventions internationales généralistes offrent une première ligne de défense contre les effets néfastes des deepfakes, elles montrent des limites face aux enjeux spécifiques posés par cette technologie. La protection du droit à la vie privée, la lutte contre la désinformation et la cybercriminalité, ainsi que le respect des droits d’auteur constituent des fondations précieuses, mais insuffisantes pour contrer pleinement les impacts des deepfakes dans un contexte global.
Les insuffisances des cadres juridiques actuels face à l’essor des deepfakes
Les cadres juridiques existants se révèlent inadaptés pour appréhender pleinement les défis posés par l'essor des deepfakes. Ces contenus synthétiques, générés par l'intelligence artificielle, sont susceptibles de porter atteinte à divers droits fondamentaux, tels que le droit à l'honneur, à la réputation et à la vie privée. Leur caractère hautement réaliste les rend particulièrement efficaces pour diffuser de fausses informations et manipuler l'opinion publique. En effet, ces cadres juridiques existants peinent à s’adapter à l’évolution rapide des deepfakes, dont les implications peuvent être déstabilisantes tant sur le plan politique que démocratique. Ursula von der Leyen, présidente de la Commission européenne, a récemment souligné que ces contenus manipulés représentent un risque majeur en période électorale, où ils peuvent influencer l’opinion publique de manière significative (7).
Ce risque s’est matérialisé en mars 2023, au cours du conflit russo-ukrainien, avec la diffusion d’un deepfake montrant le président Volodymyr Zelensky appelant les Ukrainiens à déposer les armes. Bien que ce dernier ait rapidement démenti cette manipulation, la propagation virale de la vidéo, facilitée par le piratage de la chaîne Ukraine 24 et de ses réseaux sociaux, a mis en évidence les difficultés auxquelles sont confrontés les chefs d’État, qui n’ont pas toujours la possibilité d’agir rapidement pour contrer de telles fausses informations (8).
Les conséquences des deepfakes ne se limitent pas au domaine politique, mais touchent également les secteurs artistique et culturel. La question de la propriété intellectuelle est remise en cause par l’utilisation non autorisée de traits physiques et de voix dans des œuvres audiovisuelles, comme en témoigne la récente grève dans l’industrie du cinéma (9). Les préoccupations relatives au doublage vocal et à la reproduction d’images par des algorithmes soulèvent des interrogations cruciales sur les droits d’auteur et le consentement des artistes.
Il est néanmoins essentiel de nuancer les effets des deepfakes. Bien qu’ils puissent être utilisés à des fins malveillantes – comme le revenge porn (la diffusion, sans consentement, de contenus sexuels explicites, principalement des images ou vidéos, dans le but de nuire à la réputation d'une personne) ou la manipulation électorale, tel qu’illustré en Slovaquie avec la diffusion d’un deepfake d’un candidat, prétendument en train de truquer les élections (10) – certains exemples montrent l’utilisation bénéfique de cette technologie. Par exemple, dans le documentaire Welcome to Chechnya (2020), le réalisateur David France a employé le deepfake pour protéger l’anonymat de ses sujets LGBTQ+, exposés à des menaces en Tchétchénie, tout en préservant leur authenticité à l’écran (11). De même, des femmes en Iran utilisent des deepfakes pour communiquer en ligne tout en dissimulant leur identité visuelle et vocale, un outil essentiel pour préserver leur liberté d’expression dans un environnement restrictif (12). L'absence d'un cadre juridique international harmonisé constitue un obstacle majeur à la lutte contre les deepfakes. Les législations nationales, souvent conçues pour des infractions traditionnelles, peinent à s'adapter à ce nouveau type de menace. Les plateformes en ligne, quant à elles, se trouvent confrontées à un dilemme : comment modérer ces contenus sans porter atteinte à la liberté d'expression ? (13)
Ainsi, bien que les deepfakes puissent offrir des perspectives positives, les dérives qu’ils engendrent nécessitent des réponses juridiques adaptées aux multiples menaces et contextes variés de leur utilisation. La difficulté d’identifier et d’attribuer la source de ces contenus, combinée à l’absence de mécanismes de retrait rapide sur les plateformes numériques, complique encore la situation. En effet, faute d’un cadre juridique harmonisé à l’échelle internationale, les États sont souvent limités dans leur capacité à agir contre des deepfakes créés et diffusés depuis l’étranger. Cela souligne l'urgence d’établir des régulations spécifiques afin de mieux encadrer cette technologie en constante évolution, garantissant ainsi la protection des individus tout en respectant les libertés artistiques.
Un aperçu des initiatives récentes pour encadrer les deepfakes sur le plan national et international
Face à l'essor des deepfakes et à leurs implications multiples, des initiatives récentes ont été mises en place pour encadrer cette technologie sur le plan international. Parmi celles-ci, le projet de règlement européen sur l'intelligence artificielle constitue une avancée majeure. L'article 3 de ce texte définit le deepfake comme un système d'IA qui utilise des techniques de synthèse pour créer ou modifier des contenus audiovisuels de manière à tromper les spectateurs. Le considérant 134 du règlement souligne la complexité inhérente à la régulation de cette technologie, mettant en avant le besoin de préserver un équilibre entre la protection de la liberté d'expression et la nécessité d'intensifier la lutte contre les contenus manipulés. Néanmoins, si l'IA Act est une avancée importante dans le domaine de l'IA, le règlement ne met pas en avant la complexité de distinguer une manipulation bénigne (par exemple, dans un contexte artistique) d'une manipulation malveillante. Mais la question de savoir qui est responsable de la détection et de la suppression des deepfakes reste floue. Les plateformes en ligne, les créateurs de deepfakes, ou les utilisateurs finaux devraient-ils porter cette responsabilité ?
Au niveau national, plusieurs États ont également pris des mesures pour réglementer l'utilisation des deepfakes. En Chine, par exemple, une loi adoptée en janvier 2023 interdit spécifiquement l'utilisation de ces technologies pour la diffusion de fake news ou d'informations susceptibles de perturber l'économie ou la sécurité nationale (14). Cette législation accorde aux autorités une large latitude d'interprétation, ce qui soulève des interrogations quant à la potentialité d'abus dans son application.
En France, la protection du droit à l’image est garantie par l’article 9 du Code civil. Sur le plan pénal, les articles 226-8 et 226-8-1 du Code pénal prévoient des sanctions pour tout montage réalisé avec l'image ou les paroles d'une personne sans son consentement, notamment si ce montage est présenté de manière à ne pas être reconnu comme fictif. Ces dispositions, bien qu’élargies pour traiter certains effets des deepfakes, peinent à couvrir l’ensemble des impacts de cette technologie, particulièrement dans le cadre transnational.
Sur les questions artistiques, des mesures ont été instaurées pour protéger les artistes face aux risques posés par les deepfakes. Le 21 mars 2024, le Tennessee a adopté le « ELVIS ACT » (Ensuring Likeness Voice and Image Security Act), une législation visant à protéger les musiciens contre l'utilisation non autorisée de leur voix et de leur image par des systèmes d'intelligence artificielle. Cette loi répond à une préoccupation croissante concernant le respect des droits d'auteur et du consentement des artistes, dans un contexte où la technologie permet la reproduction de leurs caractéristiques sans leur accord.
Ces initiatives montrent une volonté croissante des législateurs à mettre en place des cadres réglementaires adaptés pour encadrer les deepfakes, tout en posant des défis significatifs pour garantir la protection des droits individuels et la préservation des libertés fondamentales.
Le renforcement de la coopération internationale pour une réponse juridique globale
L'essor des deepfakes exige une réponse internationale coordonnée, car leur diffusion rapide et transfrontalière dépasse les capacités d'action des initiatives nationales isolées. Une coopération renforcée entre États et organisations internationales est indispensable pour établir des normes communes et renforcer la lutte contre ces contenus manipulés, qui menacent les droits fondamentaux et la sécurité démocratique. La Convention sur l'IA, ouverte à la signature en mai 2024 sous l’impulsion du Conseil de l'Europe, marque un premier pas vers cette régulation globale, cette convention étant ouverte à tous les États, même non européens (15).
Une collaboration internationale accrue permettrait de mettre en place des mécanismes concrets pour partager des informations et soutenir la recherche et le développement. La mise en place de sanctions adaptées et de bases de données partagées faciliterait également la coopération judiciaire, renforçant ainsi la traçabilité et limitant la propagation des deepfakes en ligne.
Toutefois, cette coopération internationale se heurte à plusieurs défis majeurs. Les divergences culturelles et juridiques entre les États, les asymétries de capacités techniques et financières, ainsi que le rôle ambivalent des acteurs non étatiques compliquent l’établissement d’un cadre juridique harmonisé. Les plateformes en ligne, par exemple, jouent un rôle clé dans la diffusion des deepfakes et devraient être intégrées aux discussions internationales pour garantir une approche cohérente et efficace.
Il est essentiel de rappeler que la lutte contre les deepfakes ne se limite pas à un enjeu technologique ; elle représente également un enjeu de protection des droits de l’homme et de la démocratie. Ces contenus peuvent être utilisés pour manipuler l’opinion publique, semer la discorde et porter gravement atteinte aux droits des minorités. Protéger la démocratie et les droits fondamentaux à l’ère numérique exige une réponse globale, associant régulation des deepfakes, éducation aux médias et promotion de la citoyenneté numérique.
Comme l’a justement souligné Nina Schick, « l’avenir de la vérité est en jeu » (16). Face à cette menace grandissante, une réponse internationale coordonnée et ambitieuse est indispensable. La coopération entre les États, les organisations internationales, les plateformes numériques et la société civile doit être au cœur des efforts pour bâtir un cadre juridique solide et adapté aux défis posés par les deepfakes dans un monde interconnecté.