spot_img
spot_img

Autres publications

La désinformation médiatique, la falsification par intelligence artificielle et les violations du droit international humanitaire à l’ère numérique

Par Roland Abi Najm – Consultant international et expert en cybersécurité, intelligence artificielle et transformation numérique

Dans chaque conflit armé moderne, deux guerres se déroulent simultanément. La première est menée avec des armes sur le terrain. La seconde se livre à l’aide d’algorithmes et de contenus numériques, et elle est souvent plus dangereuse que la première, car elle ne vise pas le territoire, mais la vérité elle-même. Nous vivons à une époque où une vidéo falsifiée se propage plus rapidement que n’importe quel rapport vérifié, où une carte comportant une appellation erronée peut déclencher la violence, et où l’intelligence artificielle peut produire en quelques secondes des atrocités fictives mais convaincantes, à la portée de toute personne disposant d’un smartphone. Il ne s’agit pas de menaces théoriques : elles coûtent des vies, détruisent des réputations, modifient le cours des guerres et sapent systématiquement un principe fondamental du droit international humanitaire : l’obligation de distinguer entre la vérité et la propagande, ainsi qu’entre les civils et les combattants.

Les cartes comme arme : quand la géographie ment

Les cartes n’ont jamais été neutres. Celui qui contrôle le nom d’un lieu contrôle le récit de son appartenance, de la souveraineté qui s’y exerce et de l’identité de l’agresseur. À l’ère numérique, cette problématique a pris des dimensions nouvelles et plus dangereuses. Aujourd’hui, les cartes sont produites et mises à jour en temps réel, les images satellites sont traitées par des algorithmes, et les plateformes collaboratives permettent à quiconque de modifier des bases de données géographiques—tandis que des cartes falsifiées se propagent dans le brouillard de la guerre aussi rapidement que de véritables renseignements.

La modification délibérée des noms de lieux, l’effacement des noms d’origine et leur remplacement par ceux de l’occupation, ainsi que le changement de nom des villages pour en effacer l’identité historique, ne relèvent pas seulement du symbole. Il s’agit d’une forme de violence culturelle qui prive les communautés de leur identité et de leurs droits juridiques sur leurs terres. Le problème ne se limite pas aux noms : des perturbations systématiques des systèmes de navigation mondiale (GPS) ont été observées dans plusieurs zones de conflit, induisant en erreur navires, avions et convois humanitaires. Des cas de manipulation coordonnée de plateformes cartographiques open source ont également été documentés lors de conflits, incluant la suppression de villages, la modification de frontières administratives et le changement de noms de routes. En outre, les outils d’intelligence artificielle générative permettent désormais de produire des images satellites falsifiées, quasi réalistes, montrant des infrastructures militaires inexistantes ou des bâtiments prétendument détruits sans avoir été bombardés.

En vertu du droit international humanitaire, le principe de distinction impose aux parties à un conflit de différencier les objectifs militaires des biens civils. Lorsque des cartes falsifiées présentent des infrastructures civiles comme des cibles militaires, ou dissimulent des installations militaires au sein de zones civiles, elles portent directement atteinte à cette obligation et mettent des vies en danger.

La machine à rumeurs : pourquoi l’esprit critique s’arrête lorsque les bombes commencent

Il existe un phénomène psychologique bien documenté qui se manifeste en période de crise : la surcharge cognitive combinée à la peur entraîne une suspension quasi totale de l’esprit critique. Lorsque la peur domine et que les informations fiables se raréfient, la vérification devient un luxe que la plupart des gens estiment ne pas pouvoir se permettre. Le résultat est catastrophique : les rumeurs se propagent, les affirmations non vérifiées deviennent virales, des captures d’écran sorties de leur contexte se transforment en actualités urgentes, et des vidéos datant de plusieurs années et provenant d’autres pays sont reconditionnées comme des événements actuels. Et lorsque la correction est publiée—si elle l’est—elle n’atteint qu’une infime partie de ceux qui ont vu l’information erronée.

L’un des aspects les plus préoccupants de l’écosystème informationnel moderne est le phénomène de la démocratisation de la fausse expertise. Chaque conflit libère aujourd’hui un flot d’analystes amateurs et de commentateurs géopolitiques autoproclamés qui se présentent comme des experts sans formation, sans sources et sans responsabilité. Ils expliquent des dynamiques de champ de bataille qu’ils n’ont jamais étudiées, interprètent des images satellites sans en maîtriser le vocabulaire technique et émettent des jugements assurés sur des obligations du droit international humanitaire qu’ils n’ont jamais rencontrées. Ce n’est pas qu’une simple nuisance : dans un conflit où une erreur dans l’identification d’une unité militaire ou d’un lieu de frappe peut déclencher des représailles ou des crises diplomatiques, la prolifération de commentaires non qualifiés constitue un véritable danger.

Le problème est fondamentalement structurel. Les plateformes de réseaux sociaux récompensent l’engagement, et non la précision. Une affirmation audacieuse et sensationnelle provenant d’un compte anonyme génère plus d’interactions qu’une déclaration prudente d’un expert vérifié. L’algorithme ne fait pas la distinction entre un analyste expérimenté des conflits et une personne ayant simplement regardé quelques vidéos en ligne. En temps de guerre, les rumeurs suivent un schéma prévisible : elles sont d’abord publiées par une source anonyme ou un compte falsifié, puis amplifiées par des commentaires sans vérification, avant d’être reprises par les médias traditionnels sous la pression de la concurrence, transformant ainsi l’affirmation en référence citée par des responsables politiques, des commentateurs et même des déclarations officielles. La correction arrive tardivement et n’atteint qu’un nombre limité de personnes.

Le droit international humanitaire ne fournit pas encore de cadre complet pour la guerre informationnelle numérique, mais le principe de précaution raisonnable avant toute attaque et la vérification de la fiabilité des informations s’étendent implicitement à l’environnement informationnel. Au-delà de la dimension juridique, il existe une responsabilité éthique et civique tout aussi essentielle : si vous n’êtes pas certain de la véracité de ce que vous lisez, ne le partagez pas. En temps de guerre, une rumeur peut tuer.

La crise des deepfakes : quand ce que nous voyons ment

Tout au long de l’histoire humaine, le visuel a été synonyme de vérité. Les images constituaient des preuves, et les séquences vidéo faisaient foi. Aujourd’hui, cette hypothèse s’est effondrée. L’intelligence artificielle générative a donné naissance à ce que l’on appelle désormais les deepfakes—des contenus synthétiques que même des experts formés peinent à distinguer du réel. Il est désormais possible de remplacer des visages sur des corps avec une synchronisation labiale parfaite, de cloner des voix à partir de trois secondes d’enregistrement, et de créer des scènes entières à partir d’un simple texte. Plus inquiétant encore, les outils nécessaires à ces manipulations ne sont plus réservés aux États ou aux institutions avancées : ils sont gratuits, largement accessibles et à la portée de toute personne disposant d’un smartphone et d’une connexion Internet.

C’est ce qui rend cette crise exceptionnelle. Il y a encore quelques années, produire un contenu deepfake convaincant nécessitait un studio, des logiciels coûteux et une expertise spécialisée. Aujourd’hui, cela peut être réalisé en quelques minutes sur un ordinateur personnel. La barrière technologique s’est effondrée, ouvrant la voie aussi bien aux acteurs non étatiques qu’aux groupes disposant de ressources limitées. Dans le contexte des conflits armés, les risques sont multiples : l’IA peut générer des images et vidéos quasi réalistes de massacres, d’attaques chimiques ou de victimes civiles qui n’ont jamais eu lieu—conçues pour provoquer une condamnation internationale ou des frappes de représailles fondées sur des événements fabriqués. Elle peut également prêter des propos à des dirigeants et des responsables politiques—ordres de reddition fictifs, cessez-le-feu inexistants ou discours d’incitation fabriqués. Tout aussi dangereusement, ces falsifications offrent un outil à ceux qui cherchent à rejeter des preuves réelles de violations du droit international humanitaire comme étant générées par l’IA, fournissant ainsi un voile de déni qui affaiblit les mécanismes de responsabilisation.

La situation est aggravée par ce que l’on peut appeler l’écart de détection. Des outils de détection des deepfakes existent, analysant les motifs de pixels, les données de compression et les indicateurs biométriques. Cependant, ils restent en retard par rapport aux capacités de génération et nécessitent une expertise que la plupart des institutions médiatiques ne possèdent pas. En outre, le défi n’est pas uniquement technique : en situation de conflit, lorsqu’une vidéo semble montrer une atrocité, la pression pour réagir immédiatement est énorme, et le délai nécessaire à une analyse médico-légale n’est pas compatible avec la rapidité du cycle de l’information sur les réseaux sociaux. En conséquence, même les experts en criminalistique numérique et les analystes du renseignement sont parfois incapables de distinguer de manière fiable le contenu synthétique du réel. Il ne s’agit pas d’un risque futur, mais d’une réalité actuelle.

Cette crise touche aux fondements mêmes du droit international humanitaire. Les enquêtes internationales sur les violations—qu’elles soient menées par le Comité international de la Croix-Rouge, les rapporteurs spéciaux des Nations unies ou les juridictions internationales—reposent fondamentalement sur la crédibilité des preuves. Si les images et les vidéos ne peuvent plus être présumées authentiques, l’ensemble du système de documentation des violations entre dans une zone de doute. Les parties mises en cause contesteront chaque élément de preuve visuelle comme potentiellement falsifié, et le récit historique des conflits—qui sert autant à la mémoire collective qu’aux procédures judiciaires—sera durablement entaché de suspicion.

Que faut-il faire ?

Il ne suffit pas de constater la crise sans comprendre la réponse qu’elle exige. Au niveau des cadres juridiques, les conventions du droit international humanitaire doivent faire l’objet d’une mise à jour explicite afin de traiter la guerre de l’information, les contenus générés par l’intelligence artificielle et la manipulation des cartes numériques. Les campagnes de désinformation délibérées menées pendant les conflits armés devraient être qualifiées de forme de guerre illégitime lorsqu’elles conduisent de manière prévisible à des violations. Les deepfakes utilisés pour fabriquer des preuves d’atrocités, nier des violations réelles ou inciter à la violence devraient également être criminalisés, avec l’imposition d’obligations de divulgation pour les contenus synthétiques sur les plateformes numériques.

Au niveau des plateformes numériques, les entreprises de réseaux sociaux et les plateformes cartographiques ne peuvent plus continuer à se considérer comme des infrastructures neutres pendant les conflits. Elles doivent adopter des outils de détection instantanée des contenus synthétiques avec un étiquetage obligatoire, mettre en place des protocoles d’urgence pour coopérer avec des vérificateurs de faits accrédités et des organisations humanitaires, et appliquer des normes strictes concernant les modifications cartographiques dans les zones de conflit. Sur le plan médiatique, les institutions journalistiques doivent revenir aux normes essentielles de vérification qui devraient précéder toute publication de contenu provenant de zones de guerre, et elles doivent établir des partenariats avec des spécialistes de la criminalistique numérique. En définitive, toutefois, on ne peut pas compter uniquement sur les solutions institutionnelles. L’écosystème informationnel est constitué de milliards de décisions individuelles. Chaque personne qui partage une affirmation non vérifiée, ou republie un deepfake sans examen critique, contribue à l’érosion de la vérité. L’outil le plus puissant contre la désinformation est une simple pause avant d’appuyer sur le bouton de partage.

La vérité est une valeur qui mérite d’être protégée

Le droit international humanitaire repose sur des distinctions fondamentales : entre combattants et civils, entre objectifs militaires et sites protégés, et entre guerre légitime et comportements interdits. Chacune de ces distinctions dépend de la disponibilité d’informations fiables. La triple menace que nous avons examinée—la manipulation des cartes, la désinformation virale et les deepfakes générés par l’intelligence artificielle—ne fait pas que compliquer l’environnement informationnel, elle menace la possibilité même de maintenir ces distinctions. Lorsque les cartes mentent, que les rumeurs se propagent plus vite que les faits et que l’artificiel devient indiscernable du réel, les fondements sur lesquels repose ce droit commencent à s’effondrer.

Il ne s’agit pas d’un appel au pessimisme, mais d’un appel à l’urgence. La Commission nationale des droits de l’homme au Liban et les institutions similaires jouent un rôle essentiel : documenter les violations, contester les récits mensongers, exiger des comptes et affirmer que la vérité demeure une valeur digne d’être protégée. Car lorsque nous perdons prise sur ce qui est réel, nous ne perdons pas seulement un cycle d’information—nous perdons la capacité de demander des comptes au pouvoir. Et lorsque le pouvoir n’est pas tenu responsable en temps de guerre, ce sont les civils qui en paient le prix.

 

 

هذه المقالة متاحة أيضًا بـ: العربية (Arabe) English (Anglais)

NHRCLB
NHRCLBhttps://nhrclb.org
مؤسسة وطنية مستقلة منشأة بموجب القانون 62/ 2016، تتضمن آلية وقائية وطنية للتعذيب (لجنة الوقاية من التعذيب) عملاً بأحكام القانون رقم 12/ 2008 (المصادقة على البروتوكول الاختياري لاتفاقية مناهضة التعذيب). An independent national institution established under Law No. 62/2016, which includes a National Preventive Mechanism against torture (the Committee for the Prevention of Torture), in accordance with the provisions of Law No. 12/2008 (ratifying the Optional Protocol to the Convention against Torture). Une institution nationale indépendante établie en vertu de la loi n° 62/2016, qui comprend un mécanisme national de prévention de la torture (le Comité pour la prévention de la torture), conformément aux dispositions de la loi n° 12/2008 (ratifiant le Protocole facultatif se rapportant à la Convention contre la torture).