Avant l’invasion ukrainienne, il y avait des spéculations selon lesquelles la Russie prévoyait de produire de fausses vidéos graphiques montrant l’invasion ukrainienne comme prétexte à l’invasion. Bien que cette opération sous faux drapeau n’ait finalement pas joué un rôle majeur, la technologie deepfake est de plus en plus reconnue comme un outil potentiellement utile et efficace dans les conflits armés. Cet article dévoile un vaste espace non réglementé où des acteurs hostiles peuvent utiliser le deepfake comme méthode de guerre de l’information sans responsabilité légale.
Applications d’intelligence artificielle pour la guerre de l’information
Deepfake est une simulation de la réalité en images générées par ordinateur avec des applications d’intelligence artificielle pour remplacer l’apparence d’une personne par une autre dans une vidéo enregistrée. Son utilisation pour créer des vidéos trompeuses s’est déjà généralisée dans des contextes politiques et a soulevé des inquiétudes quant à son impact potentiellement négatif sur le processus démocratique. Lorsqu’il est utilisé comme un moyen délibéré de tromper le public dans les relations internationales, le deepfake peut être largement classé comme une forme de guerre de l’information.
Bien que définie de diverses manières, la guerre de l’information fait référence au déni et à la perturbation des fonctions de communication de l’ennemi (qui font désormais partie des cyberopérations), ainsi qu’à la manipulation d’informations à des fins trompeuses (qui est également décrite comme une guerre psychologique). C’est la dernière forme de guerre de l’information qui s’est renforcée en tirant parti de la capacité accrue de manipuler des images et des données audio ainsi que de diffuser efficacement de fausses vidéos sur les réseaux sociaux.
Aux États-Unis, les opérations psychologiques font partie de l’utilisation intégrée des capacités liées à l’information pour influencer, perturber, endommager ou détourner les décisions ennemies. La désinformation est considérée comme l’un des outils d’information constituant les stratégies de guerre de l’information (Publications conjointes 3-13.2, II-11).
La Chine, d’autre part, a intégré cette méthode de guerre dans le Règlement de travail politique de l’Armée populaire de libération de 2003 en adoptant le concept des « trois guerres ». L’idée consistait en (1) une guerre d’opinion publique, (2) une guerre psychologique et (3) une guerre juridique. En conséquence, la guerre psychologique vise à affaiblir le moral de l’ennemi ou sa volonté de mener des opérations de combat en utilisant de fausses rumeurs et récits, ainsi que du harcèlement ou des menaces.
La Russie est également connue pour son approche agressive des campagnes de désinformation à des fins de propagande. Avec les progrès de l’intelligence artificielle connus sous le nom de réseaux ennemis génératifs, la Russie a perfectionné sa capacité à produire des visuels réalistes et à diffuser de fausses informations sous leur forme. Le plan annoncé d’utiliser le deepfake pour fournir des motifs d’agression est une manifestation de la stratégie militaire de la Russie pour contrer efficacement l’environnement de l’information.
Deepfake en vertu du droit international
Le problème des fausses informations pour maintenir des relations pacifiques entre États a été reconnu avant la Seconde Guerre mondiale. En 1936, les États ont convenu de contrôler la diffusion de fausses informations en adoptant la Convention internationale sur l’utilisation de la radiodiffusion pour les causes de la paix. Cependant, seul un nombre limité d’États parties à cette Convention s’engagent à interdire et à faire cesser toute transmission de fausses informations lorsqu’elle « est susceptible de porter atteinte à la bonne entente internationale » (article 3 (1)).
Bien qu’il ne soit pas interdit par le droit international, l’utilisation de deepfake peut être calibrée pour intensifier une tentative délibérée d’ingérence dans les affaires intérieures d’un autre État, ce qui peut constituer une ingérence interdite par le droit international coutumier. Le principe de non-ingérence interdit à un État de se livrer à une ingérence coercitive, directe ou indirecte, dans les affaires intérieures d’un autre État. (Voir cet article pour une analyse plus détaillée de l’auteur.)
Le plan utilisant prétendument de fausses vidéos comme preuve du “génocide” de l’Ukraine contre la population russophone pourrait être considéré comme une ingérence s’il est conçu pour forcer l’Ukraine à changer sa politique nationale. Cependant, l’élément de coercition est l’essence de l’intervention qui est interdite en vertu de ce principe. Ainsi, la légitimité d’un tel plan est moins claire s’il est uniquement destiné à la propagande pour soutenir le soutien national à un plan militaire ou pour générer la dissidence et encourager l’insurrection dans d’autres pays. En effet, la diffusion de fausses informations est devenue courante dans la pratique des États en tant que forme d’intervention non coercitive.
Il y a des indications dans la pratique récente des États que la barre pourrait être abaissée pour l’évaluation coercitive en tant qu’élément nécessaire de l’intervention. Par exemple, des hauts fonctionnaires du Royaume-Uni et des États-Unis ont cité la manipulation du système électoral et de ses résultats comme des exemples d’ingérence interdite. Il est donc raisonnable de soutenir que l’utilisation du deepfake comme moyen de perturber le système politique ou économique d’un autre pays devrait également être interdite en tant qu’intervention. Un tel argument est susceptible de gagner un plus grand soutien parmi les États qui se trouvent de plus en plus vulnérables aux opérations d’information hostiles et à l’exploitation des médias sociaux qui en découle.
Cependant, la nature de la menace omniprésente posée par le deepfake rend inévitable sa relation avec les effets coercitifs. Ces difficultés pratiques, comme l’a observé Michael Schmitt, orientent nécessairement ces activités vers des interférences autorisées et s’éloignent des interférences interdites. Comme dans le contexte du cyberdomaine, il existe également des défis techniques pour lier la création et la diffusion de fausses vidéos à un État comme base pour établir ses responsabilités.
Si une vidéo deepfake est utilisée comme prétexte à une invasion, il est clair que le déploiement de forces militaires ne peut être autorisé sur cette base en l’absence d’un événement réel pouvant être qualifié d’attaque armée. Deepfake peut être un outil efficace pour produire l’effet psychologique souhaité dans l’esprit de la population cible, mais il n’a aucun effet pour déterminer la base factuelle de l’exercice des droits d’autodéfense. Dans ce cas, il n’y a pas de différence matérielle dans la conception d’événements hostiles, tels que l’événement de Mukden de 1931 utilisé par l’armée impériale japonaise comme excuse pour envahir la Mandchourie.
Deepfake en vertu de la loi sur les conflits armés
En général, la diffusion délibérée de deepfake n’est pas soumise aux lois sur le ciblage car de telles opérations sont peu susceptibles de constituer une attaque impliquant un acte de terrorisme entraînant la mort ou des blessures à des personnes ou des dommages ou la destruction d’objets. Néanmoins, lorsqu’elles sont utilisées dans le cadre d’une opération militaire, la création et la diffusion de deepfakes sont soumises à l’obligation générale de veiller en permanence à préserver les civils des effets négatifs des opérations militaires. Ce soin continu, cependant, est un devoir de diligence raisonnable, obligeant le commandant à prendre en compte les effets négatifs possibles sur le public et à prendre des mesures, lorsque cela est possible, pour prévenir ou minimiser autant que possible les effets négatifs (US DoD War Laws Manual, § 5.3.3.5) .
Comme discuté par Eric Jensen et Summer Crockett plus tôt, l’utilisation de deepfake sera interdite lorsqu’il s’agit d’un acte de trahison en créant certaines attentes de protection en vertu des lois sur les conflits armés, ou lorsqu’il est principalement conçu comme une menace de terrorisme pour répandre la violence parmi ciblant la population civile et produisant un danger nécessaire de blessure ou de mort pour les personnes ou, pour les États parties au Protocole additionnel I, d’arrestation. La création et la diffusion de deepfakes seraient plutôt considérées comme légitimes comme un stratagème de guerre qui a longtemps été accepté comme une méthode de guerre légitime. Pendant le conflit de mai 2021 à Gaza, par exemple, les Forces de défense israéliennes auraient utilisé de fausses informations sur les avancées militaires à Gaza comme stratagème pour attirer les combattants du Hamas dans le système de tunnels afin que l’armée israélienne puisse les attaquer.
Des problèmes surgissent cependant lorsque le deepfake est utilisé dans le cadre d’une stratégie de guerre hybride, combinée à des opérations militaires conventionnelles, pour perturber la capacité et l’opportunité de l’État cible de lancer une réponse efficace. Une telle menace hybride peut exploiter une « zone grise » légitime, où il n’est pas clair comment la situation devrait être juridiquement caractérisée. Par exemple, de fausses images et vidéos peuvent être utilisées pour déguiser la pénétration de forces spéciales en territoire ennemi en activité d’insurgés locaux afin que des activités hostiles puissent être menées sous le faux prétexte qu’un conflit armé international n’est pas impliqué.
Avant l’invasion russe de l’Ukraine, les deepfakes pouvaient être utilisés et diffusés efficacement pour mener des opérations sous fausse bannière déformant délibérément la nature des événements se déroulant dans la zone de confrontation. Face à la menace d’un tel hybride, l’État survivant a un choix difficile : soit poursuivre un règlement pacifique, comme l’attend le président ukrainien, soit accepter une réponse militaire qui risque d’aggraver le conflit.
Observations finales
Le début de l’invasion russe prévue de l’Ukraine donne un aperçu de ce que le deepfake aurait pu accomplir en fabriquant des événements pour provoquer la violence et en créant un manteau de légitimité pour une action militaire. Le droit international n’offre pas de protection adéquate contre l’utilisation du deepfake comme moyen de perturber les relations internationales, laissant un espace incontrôlé ouvert à l’exploitation.
Une réponse efficace aux campagnes de désinformation est difficile à développer en raison des divers mécanismes psychologiques qui facilitent la diffusion de fausses informations. Le blocage ou la suppression de contenu deepfake peut ne pas être efficace pour changer les croyances des gens ou, pire, peut attirer davantage l’attention sur lui en raison de «l’effet Streisand». De nombreux États se sont tournés vers la criminalisation de la création et de la diffusion de fausses informations afin de réduire leurs effets néfastes sur la société, mais l’effet dissuasif des sanctions pénales est annulé lorsque l’État coupable lui-même parraine ou soutient de telles activités.
L’administration Biden a choisi une troisième approche – la divulgation publique de renseignements stratégiques non classifiés sur les plans de la Russie pour corriger la désinformation diffusée par le gouvernement russe. On peut dire que cette stratégie a porté ses fruits en contrant les faux récits de la Russie et en compliquant les efforts pour créer des excuses pour envoyer des troupes ou utiliser l’élément de surprise à son avantage. Il reste à voir dans quelle mesure une telle stratégie pourrait réellement être dans l’environnement de futurs conflits, en particulier lorsque des deepfakes sont utilisés pour mobiliser des menaces hybrides plutôt qu’une agression militaire manifeste.
***
Hitoshi Nasu est professeur de droit à l’Académie militaire des États-Unis.