jeudi, 5 août 2021

L’avenir de la guerre et de la dissuasion à l’ère des armes autonomes

L’intelligence artificielle et les systèmes autonomes modifieront considérablement le futur champ de bataille et mettront les stratèges au défi de proposer de toutes nouvelles conceptions de dissuasion.

L’innovation dans le domaine des innovations émergentes, notamment des avancées telles que l’intelligence artificielle (IA), la robotique, les drones, l’informatique quantique, l’impression 3D et la biotechnologie, progresse à une vitesse vertigineuse avec le potentiel d’avoir des répercussions importantes sur que ce soit de la gouvernance et du commerce à la géopolitique.

Quand il s’agit de guerre, un certain nombre de ces technologies importantes ont le pouvoir de bouleverser complètement les termes des conflits humains et de changer les futurs champs de bataille.

 » L’IA et la robotique briseront le statu quo qui existe dans le monde aujourd’hui », a déclaré le futurologue géopolitique Abishur Prakash à TRT World, notamment que de toutes nouvelles innovations « réduiront l’espace entre les puissances militaires innovantes et le reste du monde ».

Avec pri conventionnel ncipes du pouvoir de l’État lentement liés aux compétences nationales et aux investissements financiers dans l’IA, une course mondiale aux armements est déjà en cours, avec les et la Chine en tête.

Alors que l’adoption à plus grande échelle s’accélère, des notions standard autour de la dissuasion sont définies entrer en inquiétude aussi. Qu’advient-il de la dissuasion et de l’escalade lorsque des choix peuvent être faits à la vitesse des appareils et sont effectués par des forces qui ne mettent pas en danger des vies humaines ?

« Nous devrons reconsidérer les principes fondamentaux de la dissuasion. Le défi de l’IA et des systèmes autonomes la manière dont les opérations nucléaires et non nucléaires sont menées, ainsi que la manière dont ces systèmes peuvent être rendus vulnérables aux attaques », déclare Mikhail Sebastian, un expert en danger politique basé à Londres et spécialisé dans la cybersécurité et la diplomatie numérique.

« En même temps, ils offrent une nouvelle série de choix pour décourager les attaques nucléaires. »

Prakash prévient que nous avons maintenant atteint un point culminant.

« Nous sommes sortir de l’ère où les comportements les plus nocifs pourraient être évités. Aujourd’hui, alors que l’innovation offre aux nations et aux organisations de toutes nouvelles capacités, les gouvernements sont confrontés à des risques qu’ils ne peuvent ni arrêter ni limiter », déclare-t-il.

« Ils ne peut être manipulé. »

Champs de bataille autonomes

S’il y a o a technologie militaire qui s’est avérée changer la donne jusqu’à présent, ce sont les drones.

Après la poudre à canon et les armes nucléaires, beaucoup ont en fait décrit la robotique tueuse automatisée comme la « 3e révolution dans la guerre ».

À la fin de 2015 au milieu de la pandémie, la 2e guerre du Haut-Karabakh entre l’Azerbaïdjan et l’Arménie a totalisé une exposition d’armes autonomes – et fournit un aperçu du champ de bataille du futur.

L’Azerbaïdjan a publié un variété de drones, achetés à Israël et à la Turquie, pour mettre en déroute l’armée arménienne autrement conventionnellement remarquable dans un bref laps de temps. Les forces azéries avaient l’habitude d’avoir un impact désastreux sur les munitions « Harop » de fabrication israélienne, conçues pour planer au-dessus du champ de bataille en attendant qu’on leur assigne une cible sur laquelle s’écraser leur charge utile explosive, ce qui leur a valu le surnom de « drone Kamikaze ».

L’Azerbaïdjan a investi des années à investir dans des munitions de flânerie et a collecté un stock de plus de 200, tandis que l’Arménie n’avait qu’un seul modèle de fabrication nationale avec une portée minimale. Étant la toute première guerre remportée par des armes autonomes, un regain d’intérêt des armées nationales pour les systèmes aériens sans pilote a suivi peu de temps après.

Aux États-Unis, un nouveau rapport de la Commission de sécurité nationale sur l’IA explique comment les technologies autonomes permettent un nouveau paradigme dans le combat et conseillent des quantités massives d’investissements dans le domaine.

Les pays sont extrêmement compétitifs pour construire ou acheter des systèmes de drones avancés : la Chine et la Russie ont l’intention de poursuivre le développement d’armes autonomes et investissent fortement en R&D. La nouvelle méthode de défense du Royaume-Uni met l’IA au premier plan, tout comme Israël.

Et une technologie de drones beaucoup plus transformatrice pourrait être à l’horizon.

Les progrès des batteries Li-ion ont effectivement généré des quadricoptères miniatures fabriqués à moindre coût. De nombreuses forces aériennes commencent maintenant à contrôler des essaims de drones en réseau qui peuvent submerger les systèmes radar.

Sebastian explique que même s’il est seul, un seul système sans pilote et autonome ne fait pas le poids face à un avion de chasse, lorsqu’il est connecté de manière algorithmique. une flotte de milliers de personnes peut vraisemblablement submerger de plus grandes plates-formes.

« Dès que des drones autonomes raffinés et peu coûteux coordonnant leurs actions à la vitesse de l’appareil fournissent un outil coercitif unique qui sape les systèmes d’armes traditionnels à coût élevé, tout en augmentant la faisabilité d’une attaque offensive », a-t-il informé TRT World.

Le développement le plus effrayant est peut-être celui des quadricoptères autonomes équipés d’une technologie de vision par ordinateur capable de reconnaître et de tuer une cible spécifique, ou des drones d’assassinat.

« Au lieu d’autres applications de drones militaires, les drones assassins ne doivent pas être limités au champ de bataille. Ils peuvent se cacher comme une menace universelle en dehors du temps de guerre », explique Sebastian.

Précédent En pratique, la dissuasion a en fait principalement impliqué des êtres humains tentant d’avoir un impact sur le calcul des choix et la compréhension d’autres êtres humains. Cependant, que se passe-t-il lorsque les processus de prise de décision ne sont plus totalement sous contrôle humain ?

‘Comment empêcher un événement qui ne s’est pas encore produit ?’

Ce qui distingue la toute nouvelle course aux armements technologiques du passé, c’est le double usage de l’IA.

Tout au long de la guerre froide, le développement des armes nucléaires a été impulsé par les gouvernements et le marché de la défense. Au-delà de la production d’électricité, il n’y avait pas beaucoup d’utilisation commerciale pour l’innovation nucléaire.

Mais cette conception ne s’applique plus.

« L’omniprésence rampante de l’IA implique que les développements technologiques ne peuvent pas être inclus, et ils ne manqueront pas de saigner dans les mondes civil et militaire », note Sebastian.

Dans un court article publié l’année dernière, James Johnson, professeur adjoint à la faculté de droit et de gouvernement de la ville de Dublin L’université, a fait valoir que la nature à double usage et diffuse de l’IA par rapport à l’innovation nucléaire rendra les efforts de contrôle des armements problématiques.

« Lorsque les capacités nucléaires et non nucléaires et la guerre sont floues, la concurrence stratégique et la course aux armements sont plus susceptibles d’émerger, compliquant les efforts de contrôle des armements », a-t-il écrit.

« En d’autres termes, les armes héritées gèrent les structures, les normes et même la notion de stabilité tactique elle-même aura beaucoup de mal à absorber et répondre à ces modèles fluides et interconnectés. »

John son souligne ce que l’on appelle aujourd’hui la « cinquième vague » naissante de la dissuasion contemporaine (la « quatrième vague » a suivi la guerre froide et se poursuit jusqu’à nos jours, accompagnant la multipolarité, les dangers inégaux et les acteurs non étatiques) se définit par une rupture conceptuelle en incluant des représentants non humains dans la dissuasion.

Il s’ensuit que les capacités asymétriques de l’IA notifieront les méthodes de dissuasion. Pour combattre les armes autonomes, vous avez besoin exactement de ces mêmes armes, ce qui pousse les acteurs à adopter ces innovations pour renforcer leur défense contre les attaques autonomes.

Le mélange d’agents humains et synthétiques pourrait affecter l’escalade entre les étoiles tout en faisant donc. Dans un rapport RAND de 2020, les scientifiques soulignent à quel point l’IA et les systèmes autonomes étendus pourraient rendre une escalade involontaire plus probable en raison du fait que « la rapidité avec laquelle les choix peuvent être faits et les mesures prises si davantage est fait à la vitesse du fabricant, au lieu de celle de l’homme ». « 

2 parties engagées dans un différend peuvent également trouver légitime d’utiliser des capacités autonomes tôt pour acquérir un avantage coercitif et militaire afin d’éviter qu’un adversaire ne prenne l’avantage, ce qui augmente la possibilité d’une instabilité de première frappe.

Ces dynamiques pourraient avoir des conséquences fatales sur le déclenchement des guerres.

« En raison de la vitesse des systèmes autonomes devant être contrée par d’autres systèmes autonomes, nous pourrions nous trouver dans une situation où ces systèmes réagissent les uns aux autres d’une manière qui n’est pas prévisible », déclare Sebastian.

« Avant que vous ne le sachiez, une escalade rapide conduit à un conflit militaire qui n’était pas préférable au tout premier endroit. »

Prakash, qui est l’auteur de The Age of K iller Robotics, pense que les gouvernements vont devoir reconsidérer la dissuasion à une époque où l’IA fait des choix militaires.

« Jusqu’à présent, la dissuasion a consisté à empêcher une nation ou un acteur de faire quelque chose aujourd’hui. . Mais à mesure que les nations utilisent la technologie pour prévoir les événements futurs de la phase mondiale – ou ce que j’appelle la « politique étrangère algorithmique » – un tout nouveau défi apparaît », dit-il.

« Comment peut-on entraver un événement qui n’a pas encore eu lieu ? »

Prakash ajoute qu’en raison de l’intégration et de la fragilité des systèmes mondiaux aujourd’hui, le monde passe de la menace d’être anéanti (armes nucléaires) au risque d’avoir en fait une infrastructure cruciale ciblée.

« Aujourd’hui, une cyberattaque qui paralyse les chaînes d’approvisionnement en énergie, en eau et en eau va créer autant sinon plus de dégâts », affirme-t-il.

Un nouvel accord peut-il être obtenu ?

Compte tenu de l’imprévisibilité d’une toute nouvelle période de conflits armés et de l’universalité inévitable de l’IA dans les applications militaires, quelles actions pourraient être menées par les décideurs politiques pour contrôler le risque de escalade indésirable ?

La Convention des Nations Unies sur la défense traditionnelle spécifique, introduite dans les années 1980 pour contrôler l’utilisation des armes non nucléaires ons, a en fait été une avenue. Un effort de l’organisme pour interdire les systèmes d’armes autonomes létaux s’est effondré en 2019, lorsque la résistance des , de la Russie, de la Corée du Sud, de l’Australie et d’Israël a empêché tout accord qui aurait pu conduire à une décision contraignante.

« L’ancienne méthode de contrôle des armements et les traités ne s’appliquent plus à ces systèmes. Nous parlons de logiciel et non de matériel », explique Sebastian. « Avant, il s’agissait d’allouer une variété spécifique de systèmes. Vous ne pouvez pas le faire avec des systèmes compatibles avec l’IA. »

Semblable à la façon dont cela a été prévu pour les armes nucléaires, de nouveaux traités mondiaux doivent être conclus pour nouvelles technologies d’armes.

« Nous pouvons nous retrouver avec des règles et des normes qui sont plus concentrées sur des cas d’utilisation spécifiques que sur des systèmes ou des technologies. Il peut y avoir un contrat pour utiliser des capacités particulières uniquement dans un contexte particulier ou simplement par rapport aux appareils. »

Les États efficaces sont généralement sceptiques à l’égard des forums multilatéraux réglementant les innovations et réduisant leur capacité à obtenir un avantage stratégique. En attendant, la perspective d’une quelconque solution multinationale ne se profile pas à l’horizon.

« Accepter ou mettre en œuvre n’importe quel cadre ne sera pas facile, surtout quand il y a un manque de confiance entre des puissances fantastiques », ajoute Sebastian .

De plus, la tentative d’atteindre un consensus autour de l’IA est le plus susceptible de mettre en évidence des asymétries morales et d’introduire plusieurs problèmes qui pourraient déterminer l’avenir de la dissuasion.

Dans leur article Nouveau Technologies et dissuasion : système expert et comportement accusatoire, Alex Wilner et Casey Babb déclarent que si certains États peuvent être opposés à ce que l’IA ait le droit de tuer des personnes sans intervention humaine, d’autres peuvent ne pas être aussi gênés par ces problèmes.

Selon Wilner et Babb, les problèmes éthiques pourraient finir par jouer un rôle critique dans le développement de l’IA et la nature de la politique d’alliance.

« Alliés dotés de capacités d’IA asymétriques, IA inégale structures de gouvernance, ou divers guides d’IA lignes d’engagement, peuvent découvrir qu’il est difficile d’interagir vers un objectif coercitif commun », écrivent-ils.

« Les alliés qui diffèrent sur les principes de l’IA peuvent être réticents à partager des données de formation bénéfiques ou à utiliser l’intelligence partagée issue de l’IA . Sans un consensus plus global, alors, l’IA pourrait détériorer la cohésion politique au sein des alliances, les rendant moins efficaces ».

.

Toute l’actualité en temps réel, est sur L’Entrepreneur

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici