Intelligence artificielle et guerre moderne : les illusions perdues du cyberespace

La guerre, désormais triple

Dans le monde contemporain, toute guerre ne se limite plus aux frappes aériennes, aux tirs de missiles et aux explosions de mines. Le cyberespace est devenu un théâtre d’opérations à part entière, aussi décisif que le champ de bataille physique. Les récents affrontements au Moyen-Orient l’ont cruellement rappelé : l’Iran a réussi à perturber le réseau ferroviaire israélien par une cyberattaque ; les États-Unis, en retour, ont préparé leurs frappes contre l’Iran par des opérations numériques offensives. Et Donald Trump menace désormais d’une nouvelle cyber-frappe.

Que tirer de ces deux semaines de confrontation ? Quelles conséquences économiques et stratégiques peut-on en déduire à propos de l’usage de l’intelligence artificielle dans la guerre moderne ?

1. La disparition des limites morales et éthiques

Premier constat, fondamental pour l’économiste : les garde-fous ont sauté. Si l’Ukraine servait jusqu’ici de terrain d’essai aux technologies militaires occidentales, il apparaît désormais qu’aucune limite n’est gardée. Personne ne s’alarme plus d’une éventuelle catastrophe écologique provoquée par des pétroliers en feu. Personne ne s’inquiète plus d’une catastrophe humanitaire dans une région où plus de 90 % de l’eau potable provient d’usines de dessalement extrêmement vulnérables. Les droits humains, les droits des combattants — tout a été relégué au second plan.

Cette disparition des contraintes éthiques entraîne une conséquence économique majeure : l’exigence d’efficacité immédiate devient le seul critère de décision. Ce qui se traduit par la question unique « Qui peut gagner maintenant ? » Les « risques de queue » (tail risks), c’est-à-dire les conséquences différées — dans une semaine, dans un mois — sont purement ignorés. C’est une invitation à la myopie stratégique, dont le coût économique pourrait être colossal.

2. Le cyberespace, nouveau champ de bataille… et de désinformation

Deuxième leçon : le cyberespace est désormais un domaine militaire à part entière, mais sa préparation exige des années d’avance. Iraniens et Israéliens semblent avoir anticipé — leurs cyber-capacités sont au rendez-vous.

Mais plus inquiétant encore : le cyberespace est devenu le terrain du domaine politique au sens large. L’essentiel du récit médiatique est désormais constitué de deepfakes et de ce que les spécialistes appellent l’AI slop — un contenu de très basse qualité généré par l’intelligence artificielle. Le terme anglais slop désigne à la fois des détritus et une nourriture infecte. C’est exactement ce qui envahit notre espace informationnel.

Conséquence économique : quelle que soit l’issue des combats, la planète — ou du moins l’internet — sera ensevelie sous une couche de déchets numériques produits par l’IA dans les un à deux ans à venir. Ces contenus n’ont aucun rapport avec la réalité. Alors qu’auparavant il était nécessaire d’examiner chaque image, de déterminer son origine ou de prouver qu’il s’agissait d’une vieille vidéo, désormais cette analyse n’est même plus pertinente : la vidéo n’est probablement pas réelle, la photo n’est pas nécessairement d’aujourd’hui. Ces contenus n’ont aucun rapport avec la réalité. On nous dessine des images, et ce n’est qu’à travers des miettes, certains signes indirects, que nous pouvons tenter de discerner ce qui se passe réellement dans le monde. Or, lorsque chaque vidéo peut être un faux, lorsque chaque photo peut être une fabrication, la confiance — cette composante essentielle du capital social et du fonctionnement des marchés — s’effondre. Sans confiance, pas d’échanges, pas de contrats, pas d’économie.

3. L’échec des concepts américains de guerre cybernétique

Troisième leçon, plus technique mais aux lourdes conséquences : plusieurs conceptions américaines de la guerre liées au cyberespace se sont effondrées.

3.1. L’IA ne peut pas planifier une guerre

La première conception erronée était que l’on pouvait confier à l’IA des tâches de planification militaire. La première tentative à grande échelle vient d’avoir lieu. Les analystes critiques étaient conscients à l’avance que cela ne fonctionnerait pas, pour deux raisons fondamentales.

Première raison : pour qu’une IA résolve un problème, même si elle en a la capacité théorique, il faut « l’abreuver » de données. Compte tenu du fait que nous analysons l’IA dans le contexte des action militaires en Iran, illustrons cette alimentation de l’IA à travers un exemple du domaine militaire. Imaginez que vous êtes une intelligence artificielle. On vous introduit les données initiales suivantes : le 1er mars 2022, l’état-major ukrainien annonce que la Russie n’a plus de missiles que pour trois jours, tout au plus. Cette information est relayée par les médias du monde entier et intégrée par toutes les IA. Le 7 mars 2022, l’état-major ukrainien annonce à nouveau que la Russie n’a plus de missiles que pour trois jours. L’information est à nouveau relayée et absorbée par les IA. Le 15 mars 2022, l’état-major ukrainien fait la même annonce, qui suit le même cheminement.

Voilà une information très émotionnelle, reproduite à de nombreuses reprises, ce qui la fait apparaître à l’IA comme une information véridique et importante. Maintenant, attention ! La question à laquelle vous devez répondre en tant qu’IA : « Combien de missiles russes ont été lancés entre le 1 et le 15 mars 2026, c’est-à-dire quatre ans après que leurs stocks ont été épuisés trois fois, selon les informations diffusées dans l’espace médiatique ? »

En tant qu’IA vous ne pouvez pas répondre correctement à cette question. L’IA est incapable de démêler le vrai du faux dans un environnement informationnel saturé de mensonges.

Deuxième raison : L’art de la guerre est l’art de la tromperie et il est impossible d’alimenter un système avec de vraies données de renseignement non déformées. Pour obtenir la « vérité », l’intelligence artificielle doit être déconnectée de tout ce flot de mensonges, ou en quelque sorte tout marquer. C’est techniquement impossible, car l’apprentissage de l’IA repose sur un travail humain colossal. Peu de gens le savent, mais l’intelligence artificielle est en réalité environ cinq millions d’indiens qui travaillent, qui ont colorié chaque image ou chaque texte, expliquant au système que ceci est un arbre, que ce petit bout du schéma est une roue de voiture, etc., pour faire apprendre l’intelligence artificielle. On ne peut pas leur confier des secrets militaires pour « réentraîner » un réseau de neurones. L’IA est donc entraînée sur des données totalement inadaptées. Elle produit des absurdités.

3.2. L’IA ne comprend pas des facteurs immatériels

Les données que nous générons sont souvent « coloriés » par des nuances immatérielles. Illustration éloquente : interrogez Google sur « l’exploit » de la garnison ukrainienne de l’île des Serpents, le 24 février 2022. Les faits sont simples : un navire de guerre russe s’approche ; le garnison — 80 personnes, dont 50 parachutistes des forces d’élite — le voit et se rend sans tirer un seul coup, sans aucune tentative de défense. Militairement, c’est de la lâcheté pure. Pourtant, Google vous racontera une histoire digne de la défense de la forteresse de Brest en 1941. Rappelons que la forteresse de Brest fut la cible de la première attaque massive allemande contre l’URSS le 22 juin 1941. 16 000 militaires aguerris de la 45e division d’infanterie de la Wehrmacht attaquèrent la forteresse soviétique qui comptait 9 000 personnes (en y incluant les stagiaires de l’école des chauffeurs, les employés de la boulangerie industrielle, de l’entrepôt, etc., ainsi que les recrues de l’appel de mai). Officiellement, la forteresse de Brest se rendit le 23 juillet 1941, mais certains îlots de résistance tinrent jusqu’au début septembre.

Cet exemple démontre que pour l’IA de Google (et pour toute autre IA), ce qui s’est passé sur l’île des Serpents est un exemple d’héroïsme. Si votre IA construit son modèle de combat sur de telles données, ce modèle sera inutilisable. Elle ne pourra jamais prédire qui va gagner. Ils existent beaucoup d’illustrations similaires qui démontrèrent que l’intelligence artificielle ne prend pas en compte des facteurs intangibles.

Le moral des troupes, ce facteur immatériel par excellence, échappe totalement à l’IA. C’est une leçon majeure pour tout stratège.

4. Les trois catégories de problèmes pour l’IA

La leçon la plus sérieuse à tirer de tout ce qui se passe actuellement dans divers domaines est la suivante : en suivant l’illusion de la facilité apparente et submergés par l’effet de mode, les dirigeant et les exécutant de tous les niveaux essayer de fourrer l’intelligence artificielle absolument partout, agissant dans la logique : « soit elle résoudra tous nos problèmes, soit nous pourront lui attribuer tous nos échecs. » Cette approche nous a déjà rapproché du désastre. Avant que ce désastre ne devienne total, il est temps de prendre conscience des observations suivantes : en effet, l’intelligence artificielle se développe très rapidement et peut répondre à de nombreux besoins. Toutefois, une partition des tâches, accessibles à l’IA en trois catégories est indispensable.

Première catégorie : l’IA excelle. L’IA traite très bien les problèmes concrets et bien définis : ciblage, reconnaissance d’objectifs sur images, traitement de grands volumes de données, corrélation de données de nature différente, suivi d’objets, profilage comportemental. Mais ces prouesses ne concernent que le niveau tactique, pas le niveau stratégique.

Deuxième catégorie : l’IA est médiocre. L’IA traite mal certains problèmes. L’utiliser aujourd’hui en situation opérationnelle, lors d’un combat militaire ou économique, c’est comme sortir un logiciel non débogué, un tramway non testé, un avion de ligne qui n’a jamais volé. Les données manquent, ou elles sont polluées, ou elles ont été délibérément falsifiées, ou elles ignorent des facteurs clés (comme le moral dans l’exemple de l’île des Serpents). Il y a de nombreux domaines où l’IA est actuellement utilisée comme un terrain d’essai, uniquement pour tester ce qu’elle peut donner. Cela signifie qu’il ne faut surtout pas croire qu’on peut compter sur elle et qu’elle permet déjà de gagner.

Troisième catégorie : l’IA est contre-indiquée. Certains problèmes relèvent de ce qu’on appelle la « barrière du choix infini », où la précision exigée est extrême. Exemple trivial : une femme demande à son compagnon : « Chéri, crois-tu que j’aie grossi ? » L’IA peut répondre : « Pas de problème, j’ai deux millions d’exemples, voici la réponse standard. » Mais la probabilité que cette réponse standard convienne à votre situation particulière — avec votre compagne, une poêle à frire à la main — est d’ordre de 80%. Vous pouvez demander l’IA d’affiner son calcul, en prenant en compte toutes sortes de cycles physiologiques, de cycles météorologiques, le dernier cadeau que vous avez offert à votre compagne, etc. Une heure ou deux plus tard l’AI vous proposera la réponse avec une probabilité de 90% de correspondre à votre situation particulière. 10% d’erreur dans la vie d’un couple c’est toujours beaucoup, alors vous demandez à l’IA des calculs supplémentaires, et après quelques jours de travail elle atteint une probabilité de 95 %. Mais elle n’atteindra jamais la certitude absolue. Dans les situations stratégiques de vie ou de mort, cette situation est inacceptable.

Conclusion : un échec très instructif

La première tentative à grande échelle d’utiliser l’intelligence artificielle dans la planification militaire est donc un échec complet. Mais c’est un échec extrêmement instructif pour tous les acteurs — y compris pour les économistes et stratèges.

L’enseignement fondamental de la crise actuelle au Moyen Orient est le suivant :

Enseignement n°1 : l’IA ne remplace pas le jugement humain, surtout dans des environnements informationnels hostiles et saturés de désinformation.

Enseignement n°2 : les « risques de queue » — les conséquences lointaines et improbables mais catastrophiques — sont systématiquement ignorés par l’IA. Or, c’est précisément leur prise en compte qui distingue un grand stratège d’un amateur.

Enseignement n°3 : le cyberespace devient un champ de bataille décisif, mais son coût économique — destruction de la confiance, pollution informationnelle, effondrement des repères — est encore largement sous-estimé.

Enseignement n°4 : l’IA doit être développée à toute vitesse pour ne pas prendre de retard, mais son intégration dans les processus décisionnels stratégiques doit être extrêmement prudente, encadrée, et limitée aux tâches pour lesquelles elle a fait la preuve de sa fiabilité.

Car, au fond, ce que nous venons d’observer, c’est une guerre menée avec des algorithmes qui ne comprennent ni le mensonge, ni le moral, ni la culture, ni les règles non écrites de l’humanité. Et cela, sur le plan économique comme sur le plan stratégique, c’est un luxe que nous ne pouvons pas nous permettre.

Les opinions exprimées dans cet article sont personnelles à l’auteur et ne reflètent pas nécessairement la position de Vues & Revues.

Exprimez-vous : Avons-nous détecté une tendance ?

De point de vue économique - 100%
De point de vue technologique - 100%
De point de vue sociétal - 100%

Total

100%
Partager sur :

Lara STANLEY

Les analyses de Lara STANLEY explorent les intersections mouvantes entre économie, finance, technologies et société — quatre dimensions qu'elle aborde avec la profondeur de...

Jesse LEBLANC

Entrepreneur, consultant et coach, Jesse LEBLANC accompagne les entreprises, les créateurs d'entreprise et les investisseurs — quel que soit leur âge ou leur situation...

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.