Une accélération inédite du cycle décisionnel
De nombreuses informations récentes suggèrent que l’intelligence artificielle a été utilisée dans le processus de prise de décision américaine sur le front iranien. La rapidité, l’audace, voire la témérité des frappes — des traits que nous avons l’habitude d’attribuer au tempérament de Trump — pourraient en réalité être partiellement dictées par des recommandations algorithmiques. Le terme « recommandation » est d’ailleurs impropre : il s’agit plutôt d’une substitution progressive du jugement humain par une logique computationnelle.
Pour comprendre ce basculement, rappelons brièvement le fonctionnement traditionnel du cycle décisionnel stratégique. Durant la seconde moitié du XXe siècle, s’est progressivement imposé un modèle reposant sur une chaîne hiérarchique : le dirigeant formule un ensemble d’objectifs, ceux-ci sont confiés à des experts sectoriels, qui produisent des analyses, lesquelles remontent au décideur, lequel arbitre et transmet ses ordres à l’appareil bureaucratique. Ce processus, vertueux en termes de délibération, est lent. Sur un sujet donné, on ne peut guère espérer plus de deux ou trois cycles de décision par an.
Trump, de son propre aveu, a toujours combattu ses propres structures bureaucratiques, cherchant à raccourcir cette chaîne en éliminant des maillons jugés superflus. L’intelligence artificielle lui offre aujourd’hui ce qu’il a toujours voulu : la vitesse.
L’IA comme simulateur de consensus, non comme expert
L’IA, entraînée sur des masses de données historiques, est capable de modéliser des situations complexes — et certainement des opérations militaires. Mais sa prétendue « expertise » mérite examen. Car ce qu’elle émule, ce n’est pas la sagesse d’un collège d’experts indépendants, mais la position moyenne — ou la plus conforme aux attentes implicites de l’utilisateur.
Depuis le tournant des années 2000, la méthode classique du foresight (prospective) a profondément changé. Là où l’on cherchait auparavant un accord entre experts pour éclairer la décision publique, on cherche désormais un accord entre les seuls décideurs — les sommets oligarchiques — reléguant les experts à un rôle marginal, quand ils ne sont pas purement ignorés. L’IA parachève cette évolution : elle simule à merveille l’avis d’un nombre arbitraire d’experts virtuels, qui diront toujours au dirigeant ce qu’il souhaite entendre.
Et c’est là le danger. Si vous êtes un décideur au tempérament offensif comme Trump, l’IA vous répondra dans votre langage, rapidement, et renforcera vos inclinations naturelles. Elle vous dira que votre solution est excellente, que tout se passera bien — sans jamais peser les coûts réels, parce qu’elle n’a pas de position propre à défendre, ni d’instinct de survie.
Le biais fondamental de l’IA : l’attrait du scénario spectaculaire
L’IA apprend sur des événements historiques marquants, brillamment documentés, entrés dans les bases de données précisément parce qu’ils sont spectaculaires. La crise des missiles de Cuba, oui. La crise de Berlin, oui. Les deux ou trois dizaines de crises qui se sont calmées d’elles-mêmes sans laisser de trace ? Elles existent dans les données, mais leur poids est infinitésimal. Leur absence de « narrativité » les rend invisibles pour l’algorithme.
En conséquence, l’IA est structurellement attirée par les actions à fort potentiel dramatique. Et quoi de plus dramatique qu’une guerre d’anéantissement rapide, une blitzkrieg, emmené par la décapitation du commandement adverse, suivie d’une victoire totale ? C’est précisément ce scénario que l’IA a très probablement « conseillé » à Trump.
Conséquences économiques : la volatilité pétrolière et la recomposition des blocs
Cette logique algorithmique a des conséquences économiques et stratégiques majeures.
Première conséquence : une volatilité extrême des prix du pétrole. Une guerre rapide, même victorieuse, crée une incertitude durable sur l’approvisionnement énergétique. Les marchés n’aiment pas l’imprévisible. La prime de risque pétrolier s’envole, et avec elle le coût de l’énergie pour les économies occidentales, déjà fragilisées par l’inflation et la crise de phase.
Deuxième conséquence : l’accélération du rapprochement Russie-Chine. Face à un usage aussi décomplexé de la force, soutenu par l’IA, Pékin et Moscou n’ont pas d’autre choix stratégique que de resserrer leur alliance. Non par idéologie, mais par pur réalisme géopolitique. Et dans ce nouveau jeu, l’Inde de Modi — qui semblait d’abord vouloir rester à l’écart, absorbée par ses propres priorités économiques — finira inexorablement par rejoindre ce pôle. Ce que Trump est en train de faire, c’est de détruire la configuration actuelle des BRICS pour en provoquer la recomposition sous une forme plus dure, plus intégrée, et structurellement hostile aux États-Unis.
C’est l’effet paradoxal d’une stratégie trop rapide : à force de vouloir gagner la bataille immédiate, on prépare sa défaite stratégique à long terme.
La fin de l’immunité des dirigeants : un risque systémique ignoré par l’IA
Troisième conséquence, plus sombre encore, et typique de l’incapacité de l’IA à intégrer les règles implicites du vivre-ensemble humain.
Dans l’histoire des conflits modernes — et nous entendons par modernité la période postérieure à la guerre de Trente Ans du XVIIe siècle — une règle non écrite a prévalu, sauf exceptions rarissimes : on n’assassine pas les dirigeants de la puissance adverse. Pour une raison très simple : il faut bien quelqu’un avec qui négocier la paix. Et surtout, parce que ceux qui franchissent cette ligne deviennent à leur tour des cibles légitimes.
L’exemple de l’Assyrie antique est éclairant : cet empire a violé toutes les lois de la guerre de son temps, il a vaincu encore et encore, mais lorsqu’il a finalement perdu une seule bataille, il a été intégralement anéanti. Non seulement son peuple fut massacré, mais sa mémoire même fut effacée. Parce qu’il avait franchi une ligne rouge.
Plus près de nous, les « années de plomb » de la Russie postsoviétique (années 1990-2000) illustrent la même règle : ceux qui ont donné l’ordre de tuer ont presque tous été tués. Ceux qui se sont abstenus, même considérés comme des « salauds », ont souvent survécu.
L’IA ignore profondément cette règle. Elle n’a pas d’instinct de survie, et encore moins celui de l’utilisateur. Lorsqu’elle modélise une guerre, elle ne calcule pas le risque que, après le conflit, les dirigeants américains deviennent à leur tour des cibles éliminables. Ce n’est pas un paramètre dans ses bases de données — ou plutôt, il y figure, mais comme un fait parmi d’autres, sans le poids culturel, émotionnel et mémoriel que lui accordent les êtres humains.
Or, si l’on tue le leader iranien, alors on crée un précédent. Et ce précédent, demain, pourra être retourné contre ses propres auteurs.
L’horizon temporel de l’IA : le court terme contre le long terme
Dernier élément d’analyse, peut-être le plus fondamental pour l’économiste-stratège : l’IA raisonne sur un horizon temporel court, celui de la victoire tactique immédiate. Elle n’intègre pas les effets de second, troisième ou quatrième ordre qui se déploient sur des décennies. La reconstruction d’un ordre mondial, la résilience des chaînes d’approvisionnement, la stabilité des régimes monétaires, la confiance dans la parole donnée — tout cela appartient au temps long. Et le temps long, l’IA ne le maîtrise pas.
Ce que nous voyons aujourd’hui, c’est l’émergence d’un nouveau mode de gouvernance stratégique : la décision par accélération algorithmique. Ce mode apporte une vitesse inédite, une capacité à surprendre l’adversaire, une efficacité tactique indéniable. Mais il sacrifie la prudence, la délibération collective, et la mémoire des leçons douloureuses que l’humanité a mises des siècles à apprendre.
Conclusion : le prix de la vitesse
Pour l’économiste-stratège, l’utilisation de l’IA par Trump dans le conflit iranien n’est pas un simple fait divers technologique. C’est un changement de régime dans la prise de décision stratégique, dont les conséquences sont déjà visibles : volatilité énergétique, recomposition accélérée des blocs (Russie-Chine-Inde), effacement de la règle de l’immunité des dirigeants, et plus généralement, substitution du temps long de la stratégie par l’immédiateté du calcul algorithmique.
L’IA a dit à Trump : « Prenez cette décision, elle est excellente. » Elle n’a pas ajouté : « Mais sachez que vous créez un monde où vos propres successeurs pourront être éliminés de la même manière, où l’équilibre mondial basculera contre vous, et où les crises silencieuses — celles qui s’apaisent d’elles-mêmes — n’auront plus jamais lieu. »
Parce que cela, les données ne l’enseignent pas. Et l’algorithme ne peut pas le comprendre.
Les opinions exprimées par les contributeurs de Vues & Revues leur sont propres et peuvent ne pas correspondre à celles de Vues & Revues.

