
Le conflit entre Israël et le Hamas ainsi que la guerre en Ukraine explorent des domaines de la guerre jusque là jamais expérimentés : dans un précédent article était démontrée la dimension spatiale des tensions au Proche-Orient. Une technologie qui a fait son entrée l’année dernière, l’IA générative, a fait aussi son entrée dans la guerre avec ces 2 conflits, ouvrant ainsi à la recherche militaire un nouveau domaine aux infinis avenirs. Non sans poser de multiples questions éthiques.
Dans la bande de Gaza, les victimes (morts et blessés) se comptent par dizaines de milliers. Du jamais vu en un laps de temps si court. L’explication se trouve dans les nouvelles technologies : l’armée israélienne assume ouvertement son recours à l’IA pour générer plus d’hypothèses de cible.
En effet, la technologie est utilisée pour traiter des données issues du renseignement (placement des troupes ou des chefs…) et des données de possibilités logistiques, ainsi que d’autres facteurs pour, au final, proposer des cibles potentielles de bombardement. Plus précisément 2 programmes de calculs sont utilisés : Gospel (aussi appelé Habsora) génère les cibles comme décrit précédemment et Fire Factory, qui organise ensuite les bombardement et coordonne les avions, drones et autres pièces d’artilleries.
Ces propositions de cibles et de mise en œuvre de bombardement sont ensuite transmises au commandement qui peut alors prendre des décisions. L’IA utilisée par Israël produit maintenant plus de 100 cibles par jour, dont la moitié seront bombardées. « Pour mettre cela en perspective, dans le passé, nous produisions 50 cibles à Gaza par an« , affirmait en 2021 Aviv Kochavi, ancien chef d’état-major de l’armée israélienne. C’est considérable.
Certains officiers israéliens témoignent que les critères de pertes civiles sont minimes voire inexistants. Les officiers supérieurs prennent en compte plus les « dégâts » causés au Hamas que l’ampleur des pertes civiles. Toujours selon ces militaires israéliens, ces bombardements ne sont là que pour nuire à la population palestinienne, d’où leur appellation « usine à assassinat de masse » pour désigner le système de prise de décision de bombardement.
Parallèlement, en Ukraine, on est dans la même application. Mais, on l’a vu, l’Ukraine est un conflit de haute intensité, donc l’IA est utilisée beaucoup plus largement au niveau tactique. La technologie est surtout utilisée pour le ciblage par l’artillerie avec les mêmes techniques qu’au Proche-Orient, mais aussi pour optimiser les reconnaissance aériennes de drones.
L’énorme différence avec Israël réside dans les acteurs des algorithme de calcul : tandis que Tsahal a sa propre section dédiée à l’IA, l’Ukraine fait appel à des acteurs privés (principalement la firme américaine Palantir qui revendique 90% du ciblage ukrainien) pour son usage de l’IA. En effet, les données dont sont friandes les IA pour leur entraînement et leur perfectionnement, sont légion en Ukraine, ce qui attire les entreprises privées et les start-ups. Et cela change tout : ainsi la défense d’un Etat reposerait en partie sur le bon vouloir d’un acteur privé étranger ? En tout cas l’entreprise du Colorado affirme qu’elle « ne recueille pas, ne stocke pas et ne vend pas de données« . Et l’Ukraine lance un plan pour être en 2030 une nation leader de l’IA.
Au delà de l’aide au ciblage, l’IA, pourrait aussi servir dans la détection de sous-marins : jusqu’à présent ils parviennent à se glisser dans l’océan en émettant des bruits qui ne sont pas perceptibles par les armées les plus avancées au monde. Mais l’arrivée de l’IA rebat les cartes : cette technologie pourrait bien analyser une multitude de bruits en temps record pour détecter ainsi les sous-marins. On a ainsi une véritable course dans le domaine : les Etats-Unis et la Chine sont déjà lancés, sans citer une multitudes d’autres nations, mais la France reste à la traîne. On pourrait aussi imaginer l’IA pour une aide à la prise de décision au niveau stratégique : l’ONU teste déjà un algorithme pour résoudre des conflits et des crises en entrant moult facteurs.
Quoiqu’il en soit, les militaires pensent qu’il faudrait établir des règles d’emploi pour l’usage militaire de l’IA : encadrer son développement et ne pas produire une situation similaire à Mission Impossible : Dead Reckoning !
Kenzo