
par Ridhwane Allouche, ancien élève du Collège d’Europe, est doctorant, spécialiste du droit de la concurrence, et chargé d’enseignement à l’université Paris-I Panthéon-Sorbonne. https://www.lemonde.fr/idees/article/2026/03/18/le-danger-de-l-ia-militaire-reside-dans-une-dilution-progressive-de-la-responsabilite_6672021_3232.html
Les sociétés ont su fixer des limites lorsque la violence technologique menaçait d’échapper à tout contrôle, rappelle, dans une tribune au « Monde », Ridhwane Allouche, doctorant en droit, qui plaide pour un traité international d’éthique de l’intelligence artificielle dans la guerre.
** **
La guerre a toujours été une affaire de technologie. L’arc long anglais a transformé les champs de bataille médiévaux, l’artillerie a fait tomber les murailles, l’arme nucléaire a suspendu l’équilibre du monde à un bouton. L’intelligence artificielle (IA) s’inscrit dans cette longue histoire. Elle promet d’augmenter la puissance des armées et de redéfinir les conditions mêmes de la stratégie.
Ses atouts sont indéniables. Les algorithmes peuvent traiter en quelques secondes des quantités d’informations qu’aucun esprit humain ne pourrait absorber. Images satellites, flux de capteurs, communications interceptées, mouvements logistiques deviennent les éléments d’un tableau que la machine assemble avec une rapidité inédite. Là où un officier devait autrefois assembler patiemment des fragments épars, une machine produit désormais une synthèse opérationnelle quasi instantanée.
Ses partisans y voient même une dimension presque humanitaire. Mieux connaître le terrain, c’est peut-être éviter certaines erreurs tragiques, rendre les frappes plus précises et mieux coordonner les opérations. L’intelligence artificielle deviendrait ainsi, paradoxalement, l’alliée d’une guerre plus maîtrisée.
Ce raisonnement n’est pas sans fondement. L’histoire militaire est jalonnée d’innovations présentées comme des moyens de civiliser les conflits. Les premières bombes guidées de la seconde guerre mondiale devaient déjà inaugurer l’ère des frappes chirurgicales. Les drones ont été introduits avec les mêmes promesses. La technologie, nous dit-on à chaque génération, permettra enfin de civiliser la guerre.
La guerre, pourtant, a toujours eu un étrange talent pour déjouer de telles promesses. Les systèmes d’IA qui entrent aujourd’hui dans les arsenaux reposent sur des modèles probabilistes. Ils apprennent de données passées, repèrent des corrélations, calculent des probabilités. C’est précisément leur force… et leur limite. Ils excellent à reconnaître des motifs connus, tout en restant désarmés face à l’imprévu. Or, le champ de bataille est, par essence, le royaume de l’imprévisible. Un véhicule mal identifié, un signal mal interprété, une situation inédite qui surgit, et la machine extrapole sans saisir ce qui se passe réellement sous ses capteurs.
Dépendance cognitive redoutable
L’IA transforme aussi le rythme même de la guerre. Les systèmes algorithmiques accélèrent les cycles de décision à une vitesse sans précédent historique. Ce qui nécessitait autrefois des heures de délibération peut désormais être préparé en quelques secondes. Avantage stratégique évident, tentation dangereuse pour autant. Car cette vitesse peut pousser les responsables militaires à simplement suivre la machine, non par conviction, mais parce qu’elle va plus vite qu’eux.
Des études conduites sur des pilotes et des médecins utilisant des systèmes automatisés montrent déjà à quel point l’esprit humain peut se laisser guider par les suggestions d’un algorithme, même lorsqu’il conserve théoriquement le dernier mot. Dans le chaos de la guerre, cette dépendance cognitive pourrait devenir particulièrement redoutable.
Une autre question s’impose alors. Qui est responsable lorsque la décision résulte d’une interaction complexe entre un commandant humain et un système algorithmique ? Le militaire qui valide la recommandation ? L’ingénieur qui a conçu le modèle ? L’entreprise qui l’a entraîné ? L’État qui l’a déployé ?
Le droit de la guerre repose pourtant sur une idée simple : la violence légitime suppose un responsable identifiable. Du juriste et diplomate hollandais Grotius (1583-1645) aux conventions de Genève (1949), tout l’édifice du droit international humanitaire s’appuie sur cette exigence morale et juridique. La guerre peut être tragique. Elle ne doit jamais devenir anonyme.
C’est ce risque qu’introduit l’IA militaire. Non pas le fantasme d’une machine devenue consciente et belliqueuse. Le vrai danger est plus discret. Il réside dans une dilution progressive de la responsabilité au sein de chaînes techniques de plus en plus complexes, jusqu’au moment où la décision n’appartient plus vraiment à personne.
Un mécanisme de supervision
Le paradoxe de notre époque est là. Une technologie qui bouleverse les règles de la guerre à l’échelle planétaire reste aujourd’hui encadrée par des règles étonnamment fragiles. Quelques chartes éthiques publiées par des entreprises, des lignes rouges annoncées par certains États, et le silence prudent des autres. L’ensemble ressemble moins à un ordre juridique qu’à un patchwork de bonnes intentions.
Cela ne peut pas durer. La communauté internationale devrait s’engager dans la négociation d’un traité consacré à l’éthique de l’intelligence artificielle dans la guerre. L’objectif ne serait pas d’interdire ces technologies. Une telle interdiction serait illusoire. Aucune innovation majeure n’a jamais été effacée par un texte juridique.
Il est possible, en revanche, d’en fixer les limites. La première devrait être non négociable. Aucune décision létale ne peut être entièrement automatisée. L’usage de la force doit rester sous le contrôle réel d’un être humain capable d’en assumer la responsabilité.
La deuxième limite concernerait la transparence. Tout État déployant une IA militaire devrait être capable d’expliquer comment elle a été conçue, entraînée et intégrée dans ses chaînes de commandement. Sans cette traçabilité minimale, toute attribution de responsabilité deviendrait vaine.
Un mécanisme international de supervision devrait enfin être envisagé, à l’image des régimes de contrôle des armements qui ont fait leurs preuves. L’histoire du droit de la guerre montre que les sociétés humaines ont su fixer des limites lorsque la violence technologique menaçait d’échapper à tout contrôle. L’IA place aujourd’hui la communauté internationale devant une question du même ordre. La technologie peut assister la guerre. Elle ne doit jamais en devenir le sujet. Car le jour où la responsabilité humaine disparaît derrière les algorithmes, ce n’est pas seulement la guerre qui change de nature. C’est la politique elle-même qui commence à se dissoudre.

