De façon très approximative, les cabinets de consultants estiment en 2023 le marché mondial de l’IA à des fins militaires à 8 milliards de dollars et le marché mondial commercial à environ 800 milliards de dollars. Ces ordres de grandeur indiquent où se situent les dynamiques économiques, mais ils ne disent rien de l’importance majeure de l’IA dans les transformations des nouvelles formes de conflit. Dès la fin des années 2010 – la Chine en 2017, les Etats-Unis en 2018, la France en 2019 – les militaires des grandes puissances mondiales ont sérieusement pris en compte l’IA. Cette évolution s’est inscrite dans le contexte de la fin des années 2000 qui fut marqué par un durcissement de la concurrence économique et une amplification des rivalités géopolitiques. C’est ce que j’appelle le ‘moment 2008’, cette convergence unique de temporalités d’une crise financière transformée en longue dépression, de la dégradation climatique accélérée, de déclin des Etats-Unis et de l’irruption des peuples (les ‘printemps arabes’).
L’IA produit des ruptures majeures
Il n’existe pas de définition unique de l’intelligence artificielle (IA) et la raison pourrait être due au moins autant à la difficulté de comprendre ses contours disciplinaires qu’à une campagne médiatique utilisée pour en justifier toutes les conséquences, y compris celles qui sont néfastes pour la société [1]. Pour les économistes de l’innovation, l’IA constitue une technologie de portée générale (TPG) qui, comme le moteur à vapeur au début de la révolution industrielle, l’électricité à la fin du dix-neuvième siècle et l’informatique après la seconde guerre mondiale, se diffuse dans tous les secteurs de l’économie et de la société. Mais l’histoire ne se répète jamais de la même façon. L’IA se distingue radicalement de toutes les autres TPG car ses développements se situent d’emblée à l’échelle internationale et ils sont donc un enjeu de rivalités économiques et géopolitiques entre quelques grandes puissances.
De plus, à rebours de ce que permettrait leur usage socialement maîtrisé afin de satisfaire les besoins de l’humanité, les technologies qui reposent sur l’IA transforment simultanément les données en une source d’accumulation de profits, elles renforcent le pouvoir sécuritaire des Etats et elles introduisent de nouvelles formes de guerre grâce à leur utilisation par les militaires. L’IA réduit un peu plus les différences entre les dimensions militaires et civiles des conflits au sein de l’agenda de sécurité nationale des grandes puissances. En somme, elle offre des potentialités d’utilisation contre des êtres humains dans tous les domaines de leur vie en société en tant qu’ils sont salariés, citoyens et ‘civils’ menacés par les guerres.
Cet article n’aborde donc qu’une dimension de l’ubiquité des pouvoirs de l’IA. De plus, il laisse de côté les puissants effets de régénération du ‘complexe militaro-industriel’ américain opérés par l’importance croissante des GAFAM dans l’industrie de défense, un processus aujourd’hui largement sous-estimé [2].
L’intégration de l’IA dans les doctrines et les équipements militaires marque une étape supplémentaire dans la longue histoire de l’utilisation des technologies à des fins de destruction. L’émergence de systèmes d’armes autonomes est ainsi souvent décrite comme une troisième révolution militaire, après l’invention de la poudre et les armes nucléaires. En effet, elle offre aux militaires de nombreuses opportunités qui se situent sur quatre plans principaux. D’abord, elle améliore les performances des systèmes d’armes existants et rend plus fiables certaines tâches accomplies par les soldats. Les technologies d’interface cerveau-ordinateur, utilisées dans les hôpitaux pour régénérer ou restaurer des fonctions altérées sont déjà utilisées pour des besoins militaires ou de sécurité nationale, soit pour augmenter les capacités physiques des soldats, soit pour des objectifs de pacification, d’interrogation ou de torture (par induction d’une douleur sensorielle sans blessure physique) [3].
De plus, grâce à l’IA, de nombreuses fonctions telles que les activités de renseignement, et de surveillance, de logistique, les cyberopérations, les opérations de commandement et de contrôle peuvent ou pourront prochainement être centralisée dans une source unique [4] (voir encadré ci-dessous).
Ainsi qu’un militaire israélien l’a déclaré au magazine d’investigation israélien +972, l’utilisation de l’IA permet de générer 100 nouvelles cibles par jour contre 50 par an dans le passé. Et l’infox fait croire, comme lors des prétendues ‘frappes chirurgicales’ contre l’Irak en 2003, à une précision des objectifs ciblés qui, selon ses responsables, fait de l’armée israélienne « la plus humaine du monde ». Or, son porte-parole a déclaré que les objectifs des bombardements à Gaza, « ne sont pas leur précision, mais l’ampleur du dommage créé » [5]. En somme, l’« Intensification algorithmique des destructions » [6] résulte de la combinaison de décisions prises par les militaires et des faiblesses de l’apprentissage machine, car les militaires ne peuvent alimenter les immenses besoins en données exigées par ces machines.
Ensuite, l’IA peut être associée à d’autres technologies émergentes telles que l’informatique quantique, l’impression 3D ou encore les missiles hypersoniques qui volent à plus de 6000 km à l’heure et à 30 000 mètres de hauteur. Les modèles actuellement en développement sont lancés à partir de missiles balistiques qui peuvent eux-mêmes atteindre une vitesse de 25 000 km/h. L’étape en cours, celle de l’alliance de l’IA et du nucléaire, est âprement discutée par les spécialistes dont certains s’inquiètent : ‘nous sommes proches d’un moment Oppenheimer’. En effet, les Etats-Unis disposent d’un bombardier (le B-21) porteur d’armes nucléaires qui est capable d’exécuter des missions sans équipage et les Russes mettent au point un véhicule sous-marin sans équipage destiné à des frappes nucléaires de représailles [7]. Ces réalités pèsent beaucoup plus lourd que l’engagement des pays à ‘maintenir un humain dans la boucle’ et un contrôle politique permanent sur les armes nucléaires souhaité par les Nations Unies ainsi que la déclaration faite en février 2023 au sommet de La Haye par 57 pays (mais refusée par la Russie et Israël) en faveur d’un ‘usage responsable’ de l’IA sur le champ de bataille. De son côté, le gouvernement français a fait pression pour que le militaire soit exclu de l’Artificial Intelligence Act européen [8].
Enfin, et c’est un des objectifs principaux, certains types d’armes créés par l’IA intègrent une prise de décision autonome du système d’armes[9]. Une avancée majeure dans ce domaine est la création de Système d’armes létales autonomes (SALA) qui agissent au sol (les ‘robots tueurs’), dans les airs (les drones) et en mer (par exemple un navire chasseur de mines qui les détecte et les détruit). Ce sont des systèmes d’armes qui, une fois qu’ils sont activés, sélectionnent et visent des cibles sans intervention d’un opérateur [10]. Ces armes, qui disposent de fonctions joliment qualifiées de ‘tire et oublie’ (fire and forget), présentent plusieurs caractéristiques : la capacité à tuer, la capacité de fonctionner sans avoir besoin de l’intervention ou d’un contrôle humain, la capacité d’apprentissage par des interactions avec l’environnement qui leur permettent d’élargir leurs fonctionnalités et enfin l’impossibilité d’interrompre une opération une fois qu’elle a été lancée [11]. L’IA – par le truchement de l’apprentissage machine – décuple leurs potentialités dévastatrices, car les algorithmes qui sont intégrés produisent des résultats en partie non maîtrisés, une forme « d’imprévisibilité intrinsèque » (imprevisibility by design) sur la décision et le moment d’attaquer, ainsi que sur les conséquences qui en résultent [12]. En sorte qu’une bataille entre des systèmes autonomes ennemis pourrait dégénérer avant que l’intervention d’un militaire puisse empêcher la catastrophe [13]. D’autant plus que le ministère de la Défense des Etats-Unis est favorable à un système décentralisé qui augmente la distance entre l’objet (l’arme) et le sujet (l’opérateur) [14]. Le risque de perte de contrôle humain sur les armes semble assumé : le Pentagone réalise des tests afin de limiter au maximum l’intervention humaine dans les procédures de décision de haut niveau des armes qui utilisent l’IA [15]. Il faut ajouter que la large diffusion des recherches en IA dans des dizaines de pays facilite la prolifération des systèmes d’armes autonomes et augmente donc les risques d’un engrenage incontrôlé et de leur utilisation ‘préventive’ aux conséquences fatales [16].
Claude Serfati
Notes
[1] Parnas “The Real Risks of Artificial Intelligence”, Communications of the ACM, Volume 60, 10, Octobre 2017.
[2] Ces évolutions majeures sont développées dans Serfati Claude, Un monde en guerre, Textuel, avril 2024, dans le chapitre « L’intelligence artificielle, au cœur de l’ordre militaro-sécuritaire ».
[3] Munyon Charles N., “Neuroethics of Non-primary Brain Computer Interface : Focus on Potential Military Applications”, Frontiers in neurosciences, 2018, 12.
[4] Hoadley Daniel S. et Lucas Nathan J., et « Artificial Intelligence and National Security », Congressionnal Research Service, 26 avril 2018. Hoadley Daniel S. et Lucas Nathan J., op. cité.
[6] https://ainowinstitute.org/publication/the-algorithmically-accelerated-killing-machine
[7] Michael Depp and Paul Scharre “Artificial Intelligence and Nuclear Stability”, 16 janvier 2024, https://warontherocks.com/2019/08/america-needs-a-dead-hand/
[8] Santopinto Federico, “L’UE, l’intelligence artificielle militaire et les armes létales autonomes », IRIS, avril 2024.
[9] The Mitre Corporation, “Perspectives on Research in Artificial Intelligence and Artificial General Intelligence Relevant to DOD,” Office of the Assistant Secretary of Defense for Research and Engineerin.g, January 2017. Voir également https://stanleycenter.org/wp-content/uploads/2020/06/TheMilitarization-ArtificialIntelligence.pdf
[10] Hoadley Daniel S. et Lucas Nathan J., et « Artificial Intelligence and National Security », Congressionnal Research Service, 26 avril 2018.
[11] https://www.aljundi.ae/en/the-file/emerging-military-technologies-trends-for-2023-beyond/1/02/2023
[12] Boulanin Vincent, Davison Neil, Goussac et Netta Carlsson Peldán, “Limits on Autonomy in Weapon Systems”, SIPRI et ICRC (International Committee of the Red Cross (Comité International de la Croix-Rouge) juin 2020, p.8 et 13.
[13] Boucher Philip, “Artificial intelligence : How does it work, why does it matter, and what can we do about it ?” European Parliament Research Service (EPRS), juin 2020, p.25.
[14] Breaking Defense, 9 février 2023, https://breakingdefense.com/2023/02/dods-clarified-ai-policy-flashes-green-light-for-robotic-weapons-experts/
[15] Monomita Chakraborty, 18 mai 2021, https://www.analyticsinsight.net/pentagon-is-attempting-to-incorporate-ai-controlled-robots-into-the-us-military/
[16] Michael C. Horowitz, “When speed kills : Lethal autonomous weapon systems, deterrence and stability”, Journal of Strategic Studies, 2019, 42:6.