Après avoir examiné les limites structurelles de l’intelligence artificielle dans les actions stratégiques modernes, il convient désormais d’analyser les erreurs concrètes commises par les différents intervenants lors du conflit actuel au Moyen-Orient.
Des laboratoires indépendants ont analysé en détail l’approche américaine. Ils ont comparé leurs résultats à ceux de l’IA Grok d’Elon Musk, utilisée par les Américains pour la planification, tandis que l’IA Claude (Anthropic) avait été employée pour l’opération elle-même. Cinq erreurs majeures ont été identifiées — et l’IA n’y est pour rien.
Erreur n°1 : avoir choisi le scénario le moins probable
Les probabilités fournies par Claude IA étaient les suivantes :
– Guerre longue, issue imprévisible, extension régionale : plus de 40 %
– Guerre aérienne prolongée (plus d’une semaine) : 30-35 %
– Frappe éclair réussie, mettant l’Iran à genoux : 20-25 %
Les Américains ont choisi le scénario à 25 % de probabilité. Une probabilité aussi faible ne devrait jamais fonder une décision stratégique engageant des vies et des milliards de dollars. C’est un aveu d’imprudence. Pour l’économiste-stratège, cette erreur est gravissime : dans la gestion des risques, on ne parie jamais l’ensemble de ses actifs sur une issue dont la probabilité est inférieure à une chance sur quatre.
Erreur n°2 : l’ignorance totale de l’effet « ralliement autour du drapeau »
Les Américains comptaient, comme toujours dans ce type d’opération, sur une « cinquième colonne » — une opposition interne qui profiterait du chaos pour déstabiliser le régime iranien. Mais après la frappe sur une école ayant tué 170 jeunes filles, après que CNN a diffusé ces images dans le monde entier et dans tous les pays arabes, il était impossible que quiconque dans le monde arabe manifeste avec des slogans favorables aux Américains ou aux Israéliens. Au contraire : le peuple iranien est descendu dans la rue, mais en soutien à son gouvernement. Les frappes ont soudé la nation contre l’agresseur. Ce scénario de « ralliement patriotique » n’avait même pas été envisagé dans les modèles.
Leçon économique : l’IA ne peut pas modéliser la réaction émotionnelle d’une population face à une agression extérieure. C’est une limite fondamentale qui rend ses prédictions dangereuses dans les conflits asymétriques.
Erreur n°3 : l’ingérence de Trump et la rupture avec Anthropic
La personnalité de Trump a aggravé les choses. La veille de l’opération, il s’est publiquement disputé avec la société Anthropic, accusant son IA de ne pas être assez docile. Pourquoi ? Anthropic avait accepté de lever les restrictions éthiques dans le logiciel à la demande du Pentagone, mais refusait de les lever dans le contrat. Le contrat stipulait que l’IA ne pouvait être utilisée si cela violait le droit international humanitaire, ni pour des frappes de masse, ni en mode automatique — les décisions devant rester humaines. Trump a refusé. Il a ordonné aux militaires de basculer sur un autre système la veille de l’opération. La confusion qui a suivi — certains continuant sur Anthropic, d’autres transférant les données, d’autres essayant des plateformes sans données — a été désastreuse.
Leçon pour le stratège : Le proverbe américain dit : « On ne change pas les chevaux au milieu du gué », or c’est précisément ce qui a été fait. Changer de système de pilotage la veille d’une opération, c’est s’exposer à une défaite. Trump a fourni là un chapitre entier à tout futur manuel des « choses à ne pas faire ».
En termes économiques, c’est l’équivalent d’un changement de logiciel comptable la veille de la clôture des comptes annuels — une certitude de catastrophe.
Erreur n°4 : l’ignorance des « risques de queue » et de la réaction en chaîne
Les planificateurs n’ont pas analysé la possible réaction en chaîne — les nouveaux acteurs qui pourraient s’engager si le conflit s’étirait sur des jours ou des semaines. Or c’est exactement ce qui s’est produit : le Hezbollah, les Houthis, les milices irakiennes sont entrés en jeu. Leurs capacités cyber sont limitées, mais ils peuvent détruire un radar, paralyser une route, endommager une base militaire.
Un conflit qui s’étend, c’est un conflit dont le coût économique explose : perturbations des chaînes d’approvisionnement, hausse des primes d’assurance, fuite des capitaux, baisse de la confiance des investisseurs. Les « risques de queue » — ces événements de faible probabilité mais aux conséquences catastrophiques — ont été totalement ignorés. C’est pourtant leur identification et leur couverture qui distinguent une gestion stratégique avisée d’une aventure téméraire.
Erreur n°5, la plus grave : avoir attribué une subjectivité à l’IA
C’est l’erreur fondamentale. Les militaires américains ont d’emblée traité l’IA comme un participant à l’état-major, comme une « personne prenant des décisions ». Or, c’est formellement interdit. L’IA d’aujourd’hui n’est guère plus qu’une ligne de requête dans un moteur de recherche — une ligne de requête devenue très grosse, très bien « nourrie », mais toujours une ligne de requête. Confier des décisions à l’IA reviendrait à dire, lors d’une réunion d’état-major : « J’ai googlé la question, et Google dit qu’il faut faire ceci. Faisons donc ceci. »
Ce n’est pas une plaisanterie. C’est exactement ce qui s’est passé. L’IA crée une illusion d’intelligence, un faux-semblant. Et c’est cette illusion qui a conduit à attribuer à l’algorithme une autorité qu’il ne possède pas.
Conclusion : un échec aux leçons durables
La première tentative à grande échelle d’utiliser l’intelligence artificielle dans la planification militaire est donc un échec retentissant. Mais c’est un échec extrêmement instructif pour tous les acteurs — y compris pour les économistes et stratèges.
Les cinq erreurs identifiées dessinent un véritable programme de travail pour l’avenir :
- Ne jamais choisir le scénario le moins probable lorsque les enjeux sont vitaux. La stratégie est l’art de la prudence, non du pari.
- Ne jamais ignorer les facteurs humains irrationnels — le moral, l’honneur, la colère patriotique — que l’IA ne peut pas modéliser.
- Ne jamais changer de système la veille d’une opération. La continuité des processus est une condition de la fiabilité.
- Ne jamais négliger les « risques de queue ». Les conséquences lointaines et improbables mais catastrophiques doivent être systématiquement analysées, car ce sont elles qui, en cas de réalisation, détruisent la valeur sur le long terme.
- Ne jamais attribuer une subjectivité à l’IA. L’IA est un outil, pas un décideur. Lui confier le commandement, c’est abdiquer la responsabilité humaine qui définit l’art du commandement.
Car, au fond, ce que nous venons d’observer, c’est une guerre planifiée avec des algorithmes qui ne comprennent ni le mensonge, ni le moral, ni la culture, ni les règles non écrites de l’humanité. Et cela, sur le plan économique comme sur le plan stratégique, est un luxe que nous ne pouvons pas nous permettre.
L’avenir de l’IA dans tous les domaines n’est pas son abandon, mais son encadrement. Il faut développer l’IA à toute vitesse pour ne pas prendre de retard, mais son intégration dans les processus décisionnels stratégiques doit être extrêmement prudente, limitée aux tâches tactiques pour lesquelles elle a fait ses preuves, et toujours supervisée par un jugement humain capable de comprendre ce que l’algorithme ignore.
Les opinions exprimées dans cet article sont personnelles à l’auteur et ne reflètent pas nécessairement la position de Vues & Revues.

