Le Secrétaire général des Nations Unies, António Guterres, a renouvelé son appel à l'action. appeler à une interdiction mondiale des systèmes d'armes autonomes létaux (LAWS)Il a déclaré que les machines capables de tuer sans intervention humaine sont "politiquement inacceptables" et "moralement répugnantes".

S'exprimant lors d'une réunion informelle des Nations unies à New York consacrée aux risques et à la réglementation des armes autonomes, M. Guterres a lancé une mise en garde :

"Les systèmes d'armes autonomes mortels n'ont pas leur place dans notre monde. Les machines qui ont le pouvoir et la discrétion de prendre des vies humaines sans contrôle humain devraient être interdites par le droit international".

La réunion de deux jours, qui a rassemblé des États membres des Nations unies, des experts universitaires et des organisations de la société civile, avait pour but de créer une dynamique en vue d'un accord juridiquement contraignant sur la réglementation et l'interdiction de ces technologies.

Une préoccupation mondiale croissante

Bien qu'il n'existe pas de définition juridique universelle des systèmes d'armes autonomes, ceux-ci sont généralement considérés comme des systèmes, y compris certains drones avancés, capables de sélectionner et d'engager des cibles sans instruction humaine directe.

M. Guterres a souligné la nécessité de maintenir un contrôle humain dans les guerres, mettant en garde contre les risques humanitaires et juridiques liés à la délégation de la prise de décision létale à des machines.

"Le contrôle humain de l'usage de la force est essentiel", a-t-il déclaré. "Nous ne pouvons pas déléguer les décisions de vie ou de mort à des machines".

Les critiques affirment que les armes autonomes risquent de violer les lois internationales humanitaires et les droits de l'homme en éliminant le jugement humain des décisions critiques sur le champ de bataille.

Vers une réglementation

Depuis 2014, les États membres de l'ONU ont débattu de l'avenir des SALA dans le cadre de la Convention sur certaines armes classiques, qui régit les armes qui causent des dommages excessifs ou indiscriminés. Le "Pacte pour l'avenir" de septembre 2024 a confirmé l'engagement de la communauté internationale à lutter contre l'utilisation abusive des technologies émergentes dans la guerre.

La récente réunion de New York a marqué le passage d'un large débat à des cadres politiques concrets. Nicole van Rooijen, directrice exécutive de Stop Killer Robots, une coalition de plus de 270 groupes de la société civile, a qualifié les progrès récents de prometteurs mais insuffisants.

"Nous voyons émerger un consensus autour d'une approche à deux niveaux : des interdictions pour certains systèmes autonomes et des réglementations pour d'autres", a déclaré M. Rooijen. "C'est un progrès considérable. Mais nous n'en sommes encore qu'à la phase de consultation. Nous ne sommes pas encore en train de négocier. C'est un problème.

Des défis majeurs restent à relever, notamment la définition juridique d'un système d'arme autonome et la définition d'un "contrôle humain significatif" dans la pratique.

Un calendrier urgent

António Guterres a exhorté les États membres à se mettre d'accord sur un cadre juridique d'ici 2026, avertissant que les retards ne feraient qu'accroître les dangers posés par les progrès rapides de l'intelligence artificielle et des systèmes d'armes pilotés par des algorithmes.

"Le coût de notre inaction sera d'autant plus élevé que nous attendrons", a déclaré Mme Rooijen. Elle a également mis en garde contre le fait que la baisse des coûts de développement pourrait accélérer la prolifération, y compris parmi les acteurs non étatiques.

Le sort de l'humanité ne peut être laissé à une "boîte noire", a déclaré M. Guterres. "Le temps presse pour prendre des mesures préventives.

Crédit photo : Crown Copyright