L’armée américaine déploie un système d’IA pour réduire la chaîne de destruction à quelques secondes, améliorant l’efficacité des frappes de précision, mais des erreurs d’appréciation entraînent des victimes civiles et déclenchent une controverse sur les responsabilités.
L’intelligence artificielle est en train de remodeler rapidement l’apparence de la guerre moderne. D’après plusieurs informations, l’armée américaine a récemment déployé des systèmes d’IA pour l’identification des cibles et les décisions de frappe, ce qui a comprimé les processus traditionnels de collecte et d’analyse du renseignement, habituellement longs de plusieurs jours, en quelques minutes, voire quelques secondes.
Le système central comprend la plateforme intelligente Maven, développée par Palantir, qui combine des données provenant de satellites, de drones et de renseignements historiques, et effectue l’intégration et l’analyse via de grands modèles de langage. Le système peut générer automatiquement une liste de cibles d’attaque, avec des coordonnées GPS, le type d’armes recommandé, et même une évaluation juridique préliminaire, afin de permettre aux commandants de décider rapidement.
Le Commandement central américain indique que l’IA peut aider la chaîne de commandement à filtrer rapidement les signaux clés au sein d’un volume massif d’informations, améliorant ainsi l’efficacité des décisions et le rythme des opérations.
Cependant, cela signifie aussi que le rythme du champ de bataille s’accélère encore : de plus en plus, on passe progressivement de la « décision menée par les humains » à la « coopération homme-machine », et même, dans certains contextes, à une tendance à une forte dépendance au jugement des machines.
Lecture complémentaire
The Wall Street Journal : Après l’interdiction d’Anthropic décrétée par Trump, les frappes aériennes américaines et israéliennes contre l’Iran restent encore dépendantes de Claude
Le déploiement de l’IA réduit fortement le seuil de la guerre, rendant les capacités de frappe de précision, autrefois soutenues par des systèmes de renseignement massifs, progressivement reproductibles, voire externalisables. Selon un rapport de ABC News, aux États-Unis (pour l’exemple de l’Iran), le Corps des Gardiens de la Révolution a commencé à utiliser des images de satellites commerciaux et des outils d’analyse par IA pour établir rapidement une base de données de cibles et mener des attaques de précision.
La technologie d’analyse d’images fournie par la société chinoise d’IA en géospatial MizarVision peut identifier automatiquement les installations d’un aéroport, les systèmes radar, les zones de stockage de carburant et les centres de commandement, puis ajouter des balises géographiques pour une intégration directe aux systèmes d’opération. Cette technologie transforme des capacités auparavant dépendantes de satellites militaires hautement confidentiels en ressources accessibles via des plateformes commerciales.
Source de l’image : La technologie d’analyse d’images fournie par la société chinoise d’IA en géospatial MizarVision, capable d’identifier automatiquement les installations d’aéroport, les systèmes radar, les zones de stockage de carburant et les centres de commandement
Les analyses indiquent que l’apparition de ce que l’on appelle un « renseignement militaire décentralisé » permet aussi à des pays de taille moyenne ou petite, ou à des forces asymétriques, d’atteindre des frappes de précision à moindre coût. Par exemple, en ciblant des nœuds clés comme les systèmes de défense aérienne, les installations de ravitaillement en carburant et de maintenance, il est possible d’affaiblir efficacement la capacité de combat globale de l’adversaire plutôt que de procéder à un bombardement complet.
Cependant, l’efficacité élevée de l’IA n’apporte pas un niveau de précision équivalent. Certaines évaluations montrent que le taux de précision de l’IA pour l’identification des objectifs est d’environ 60 %, restant inférieur aux quelque 84 % des analystes humains. Cet écart peut entraîner des conséquences graves en situation réelle.
Lors d’une frappe aérienne récente, une école primaire de filles située en Iran a été répertoriée comme cible d’attaque, entraînant la mort de plus de 165 civils. Cette cible serait l’une des listes générées avec l’aide de l’IA. Le Pentagone indique que l’incident implique des informations périmées ; une enquête a été lancée, mais l’affaire a déjà suscité une forte attention de la part du Congrès américain et de la communauté internationale.
Plus de 120 membres du Congrès demandent des éclaircissements sur le rôle de l’IA dans la prise de décision et remettent en question qui devrait être tenu responsable lorsque des erreurs se produisent. Des experts en matière de guerre indiquent que lorsque le processus décisionnel est automatisé, « la chaîne des responsabilités » devient floue, s’étendant du commandement militaire jusqu’aux ingénieurs logiciels et aux fournisseurs de technologies, tandis que les frontières juridiques et éthiques sont confrontées à des défis sans précédent.
Ce conflit révèle aussi une autre tendance clé : la frontière entre la technologie commerciale et les opérations militaires disparaît rapidement. L’Iran a publiquement listé plusieurs entreprises technologiques américaines comme cibles d’attaque potentielles, y compris des fournisseurs de services cloud et d’infrastructures d’IA, montrant que le champ de bataille s’étend désormais des sites militaires traditionnels aux niveaux numériques et d’infrastructure.
Certaines attaques touchent même des centres de données cloud dans la région du Moyen-Orient, ce qui reflète que la guerre par IA ne concerne pas seulement l’affrontement militaire, mais aussi la sécurité des infrastructures numériques et de la chaîne d’approvisionnement mondiale. Lorsque les systèmes d’IA dépendent d’un cloud commercial, ces plateformes deviennent elles aussi des objectifs stratégiques.
Les experts indiquent que la concurrence au cœur des guerres futures ne consistera plus seulement à compter le nombre d’armes ou l’intensité de la puissance de feu, mais à savoir qui peut analyser les données plus rapidement et les transformer en actions.
L’IA accélère non seulement la prise de décision en temps de guerre, mais amplifie aussi les erreurs et les risques ; en l’absence d’une supervision et de mécanismes de transparence efficaces, une contradiction difficile à concilier pourrait apparaître entre l’efficacité et l’humanitaire.
Le contenu de cet article a été généré par Agent chiffré qui compile des informations provenant de différentes sources, et a fait l’objet d’une relecture et d’une édition par《加密城市》. À ce stade, il est encore en phase de formation ; il peut donc comporter des biais logiques ou des erreurs d’information. Le contenu est uniquement fourni à titre indicatif ; veuillez ne pas le considérer comme un conseil en investissement.
Articles similaires
Adata, Jay Chou gagnent-ils gros ? Une société de gestion de GD rencontre en privé la famille royale de Dubaï pour discuter d’une introduction en bourse, d’IA et de robots
L’équipe chinoise EvoMap s’en prend avec virulence à la copie de Hermes Agent, qui est devenu viral : il existe une forte similarité entre les systèmes d’auto-évolution
Les investisseurs précoces d’OpenAI l’apprécient ! La nouvelle startup de technologies cerveau-ordinateur Sabi livrera au plus vite d’ici la fin de l’année le bonnet « écrire des mots en pensant »
Des données révèlent que « Claude devient moins intelligent » n’est pas une légende urbaine : le modèle d’IA est instable et constitue un risque pour l’entreprise
OpenAI met à jour Codex avec un agent IA qui contrôle le bureau et automatise les flux de développement
Google intègre la recherche IA dans Chrome, permettant une navigation web conversationnelle