Partager:
Avec l'impulsion de la guerre en Ukraine, l'intelligence artificielle est en train de faire un énorme bond dans son utilisation guerrière. Alors que nous avons atteint un stade où la machine peut, elle-même, prendre la décision de tuer, de nombreuses questions font leur apparition. A-t-on franchi une ligne rouge ?
Des robots tueurs qui repèrent et éliminent leur cible, ce n'est plus de la science-fiction. L'ajout de l'intelligence artificielle (IA) dans les armes de guerre est désormais une réalité bien présente, notamment sur le champ de bataille ukrainien ou encore dans la bande de Gaza.
Pour compenser son infériorité face à son adversaire, l'Ukraine a dû se creuser les méninges et à utiliser l'IA à des fins militaires. Dix finalités sont pointées par l'hebdomadaire ukrainien Dzerkalo Tyjnia, relayé par le Courrier International : Les systèmes d'armes autonomes, l'observation et la reconnaissance, l'identification et la classification des cibles, l'analyse et la prédiction des menaces, la logistique et la gestion du ravitaillement, la cybersécurité, la guerre électronique, la simulation et la formation, le diagnostic médical et les soins et les systèmes d'assistance à la prise de décision.
Comme le précise Alain De Neve, chercheur à l'École Royale Militaire (ERM) dans les technologies de défense, "l'utilisation [de l'IA] est très variée et souvent associée à d'autres technologies". Un exemple très concert : "Savoir à tout instant l'état de santé d'un soldat grâce à des capteurs qui sont dans sa tenue. Ici, l'IA est combinée à de la nanotechnologie et permet de savoir en temps réel comment se porte le soldat et s'il peut continuer à se battre."
Il s'agit ici d'un exemple à vocation plutôt médicale, mais il en existe des centaines d'autres pour des utilisations parfois bien plus dévastatrices. "John Cokerill a un dispositif de canon embarqué sur un drone terrestre qui est équipé d’un capteur qui peut réagir à l’apparition d’un danger dans une zone donnée", précise Alain De Neve avec un exemple bien belge.
Des robots-tueurs
L'Ukraine et la Russie, elles, disposent d'équipements déjà bien plus avancés en termes d'IA guerrière. Principalement avec les drones ou l'artillerie. Typiquement, l'armée ukrainienne utilise le système Skykit, une sorte de centre de renseignement mobile. Ce système analyse des images satellites et conçoit des frappes pouvant être menées sans contacter la chaîne de commandement.
Cette prise d'autonomie accordée aux machines, il est, en partie, une réponse à une problématique de guerre. Avec la numérisation des armes (par exemple, les drones pilotés à distance) une stratégie s'avère efficace pour les neutraliser : couper la liaison entre l'arme et le soldat. Tant qu'il faudra une connexion stable et permanente pour diriger un engin à distance, l'ennemi fera tout pour brouiller cette connexion. Face à cela, l'armée ukrainienne a reconnu avoir déjà utilisé des drones en autonomie totale. Ces drones peuvent embarquer une charge de 3 kilos sur une distance de 12 kilomètres et identifier puis attaquer 64 types d'"objets militaires" de façon autonome, rapporte le Courrier International.
Cette capacité d'identifier les cibles est l'essence d'un système actuellement utilisé par l'armée israélienne. Le système 'Lavande' a été perfectionné pour traquer et tuer des dizaines de milliers de personnes. Au départ, explique une enquête de '+972 Magazine' et de 'Local Call', les Israéliens ont collecté des informations sur quelques centaines de combattants avérés du Hamas, et à partir de leurs données, ils ont demandé à l'IA d'identifier des profils semblables. Ces Palestiniens (le chiffre de 37.000 est avancé) sont ainsi devenus des cibles potentielles. Pour établir cette liste, l'IA se serait basée sur des messages WhatsApp, le lieu d'habitation, les fréquentations et les liens éventuels avec d'autres combattants.
Une technologie toujours plus performante
Spécialiste des technologies de défense, Alain De Neve explique que "ce qui est particulier avec toute cette technologie, c'est que les prix ne cessent de baisser". En effet, comme pour énormément d'éléments de la vie quotidienne, les technologies qui se rependent coûtent de moins en moins cher, car elles sont mieux maîtrisées et produites en masse. "Les premiers drones étaient basés sur du bricolage, mais l’expertise a évolué, il y a eu du partage de technologie et maintenant, c’est assez élaboré".
Désormais, avec les technologies actuelles, il est possible de fabriquer des drones tueurs à partir d'une imprimante 3D et pour un prix tout à fait dérisoire. Et confectionner des engins capables de tuer avec des matériaux moins élaborés peut les rendre plus difficiles à repérer par les technologies adverses. Ce qui représente un nouvel avantage.
L'apport de l'IA aux pratiques guerrières ne date pas d'hier. Ce à quoi nous assistons dans les guerres actuelles est le résultat d'un processus commencé dans les années 50. "L'IA est née avec la dissuasion nucléaire. Elle est arrivée quand il a fallu trouver une parade pour dépasser les capacités militaires des adversaires, sans utiliser la bombe atomique", précise Alain De Neve.
Quelles limites ?
Comme toute nouveauté, l'apparition de cette technologie sur le champ de bataille soulève une montagne de questions. Une d'entre elles étant : a-t-on le droit de l'utiliser comme on veut ? "Ceux qui lancent des cris d’alarme concernant l’IA et le comparent à l’arme nucléaire, ont raison d'une certaine manière. Cette comparaison est utile, car elle rappelle la situation par laquelle nous sommes passés à ce moment de l'histoire", analyse encore l'expert de l'ERM.
"Il a fallu qu’on rentre dans un équilibre avec l’URSS et se retrouver au bord du précipice avec la crise des missiles de Cuba en 1962 pour mettre un cadre" à l'arme atomique. Faudra-t-il une nouvelle crise majeure pour limiter l'utilisation de l'IA dans les guerres ? Seul l'avenir nous le dira, mais Alain De Neve tempère et argue que les deux situations restent radicalement différentes.
L'IA peut effectivement servir dans des aspects purement défensifs, médicaux, etc. Pas uniquement offensifs et destructeurs.
Une réglementation existe-t-elle ?
Pour Pauline Warnotte, experte du droit du désarmement et de l'intelligence artificielle en matière de défense, "c'est aux armes de se conformer au droit international humanitaire et non l'inverse". Elle rappelle que, dans son avis sur les armes nucléaires, la Cour internationale de justice a affirmé que les grands principes et règles pertinentes du droit de la guerre s'appliquent même aux nouvelles technologies.
"Par ailleurs, tous les États ont l'obligation de vérifier que toute nouvelle arme, tout nouveau moyen ou toute nouvelle méthode de guerre qu'ils souhaitent déployer, acheter, développer, etc. est bien légale. Cela veut donc bien dire que toute nouvelle arme doit respecter le droit et pas que le droit doit s'adapter à ces nouvelles armes", conclut l'experte.
Alain De Neve a un avis quelque peu différent. Pour lui, "les lois sont un peu en retard et il faut rattraper ce retard". "Cette guerre fait qu’on doit rattraper un train en marche et le train accélère", métaphore-t-il à propos du conflit en Ukraine.
En novembre 2023, 31 pays ont validé le principe d'une autorégulation sur les applications militaires de l'IA. Le secrétaire général de l'ONU, Antonio Guteres, et la présidente de la Croix-Rouge internationale, Mirjana Spoljaric Egger, ont appelé les États à parvenir à un accord contraignant d'ici 2026.
Des risques de dérives ?
L'arrivée de machines autonomes qui prennent la décision d'action rend la guerre encore un peu plus complexe. À qui la faute si une IA effectue une mauvaise décision ? "Le problème peut être le manque d’envie de prendre ses responsabilités. Certains peuvent se cacher derrière l’IA pour ne pas assumer les responsabilités", analyse Marie-des-Neiges Ruffo, docteure en philosophie et enseignante dans le master en cybersécurité à l’UNamur.
Les agissements des robots sont aussi dépendants de comment et pour quoi ils ont été programmés. Et même avec des réglages très fins, la décision de tuer se base toujours sur des algorythmes. "Le problème c’est quand on relègue la prise de décision à un simple calcul", estime encore celle qui est aussi chercheuse associée à la prestigieuse académie militaire de Saint-Cyr Coëtquidan, en France.
"Pour avoir un usage raisonné, il faut un appel à la responsabilité humaine. C’est un débat qui est aussi vieux que l’utilisation de l’arbalète. Il faut avoir conscience de ce qu’on fait". D'autant que "les guerres modernes font de plus en plus de victimes chez les civils".
Pour appuyer son argument de "reléguer la décision à un calcul", reprenons le système Lavande, utilisé par l'armée israélienne. Il a une fiabilité de l'ordre de 90%. Ce qui veut dire que 10% des 37.000 Palestiniens ciblés n'ont probablement rien à voir avec le Hamas. Pourtant, ils se retrouvent avec une cible sur le dos et sont peut être morts depuis.
La fin des soldats humains ?
Une telle hypothèse n'a pas de chance de se concrétiser tout de suite, évidemment. Mais avec l'avancée de ces technologies, les soldats ont de moins en moins besoin de s'exposer pour porter des coups à l'adversaire.
"Avec l'arrivée de la bombe nucléaire, on a cru que faire la guerre c'était fini, mais non. Avec l'arrivée des missiles toujours plus performants on s'est dit qu'il n'y aurait plus besoin d'envoyer de soldats sur le terrain. On pourrait se dire la même chose avec l'IA", note encore Alain De Neve. "Mais je ne crois pas à la disparition du facteur humain, même s'il risque d'être réduit de plus ne plus, il n'attendra pas le zéro". Ne fut-ce que pour la maintenance de tous ces systèmes, l'intervention humaine reste indispensable.
"Dans l’absolu, s’il fallait se demander qui peut décider de la disparition de l’élément humain par rapport à l’évolution technologique. Ça sera aux politiques de trancher", assure le chercheur de l'ERM. "Le militaire a toujours une vision plus méfiante et considère que l’élément humain est plus important, tandis que le politique a une vision plus aventureuse, de manière générale", estime-t-il.
Si l'intervention de l'IA dans les conflits ne devrait pas signer la fin des militaires de terrain, cela pourrait signifier l'apparition de nouvelles tensions, pense encore Alain De Neve. "L’IA va bouleverser un certain nombre de bases sur lesquelles la politique et la dissuasion s’appuient."
Pour appuyer ses propos, l'expert de l'ERM décrit la situation mondiale comme suit : "Les États-Unis et la Russie ont environ la même force de frappe nucléaire. Si un pays décidait d'envoyer ses missiles sur l'autre, il sait qu'il s'expose à des représailles, principalement venant des sous-marins capables de tirer des missiles nucléaires. Les bases terrestres de missiles sont identifiables, mais les sous-marins ne sont pas repérables. Donc, si un pays développe une technologie qui permet de localiser ces sous-marins et de connaître leur position, il va renverser complètement la balance de l'ordre établi. C'est un scénario parmi d'autres que nous étudions."
Pour l'heure, bien que la Belgique ne se lance pas dans l'acquisition d'armes intelligentes comme peuvent le faire les Ukrainiens, l'IA commence à être enseignée dans les cours de l'École Royale Militaire, qui forme les officiers de notre armée. "Il n'y a pas encore de cours dédié spécifiquement à ça, mais ça va finir par s'imposer", prévoit Alain De Neve.
Pour conclure, "l’emploi de l’IA ne doit pas être diabolisé", affirme Marie-Des-Neiges Ruffo. "Ça peut être bénéfique, si ça peut lever le doute sur des cibles, pour assurer la sécurité, etc".