Nouvelles

trois questions sur cette technologie et les enjeux éthiques

La question des « robots tueurs » et de leur encadrement est évoquée lundi et mardi à Vienne, dans le cadre d’une conférence soutenue par l’ONU. L’utilisation de cette technologie soulève de nombreuses questions éthiques.

Publié


Temps de lecture : 2 minutes

Capture d'écran d'une vidéo d'un hélicoptère français visant un avion Houthi en mer Rouge.  (ARMÉE FRANÇAISE/DOCUMENT / ANADOLU)

Le 22 décembre, 152 pays ont voté en faveur d’une résolution de l’Assemblée générale des Nations Unies sur les dangers des systèmes d’armes autonomes. La conférence sur ces « robots tueurs », soutenue par l’ONU, qui se tient lundi 29 et mardi 30 avril à Vienne, en Autriche, vise à promouvoir l’idée d’un traité international limitant, voire interdisant ces armes qui pourraient faire des guerres encore plus inhumaines.

Pourquoi cette prise de conscience internationale ?

Parce que les « robots tueurs » repoussent encore plus loin les limites de la guerre. Ces armes, qui peuvent être des drones, des chars ou des robots sentinelles, ont la capacité, une fois activées, d’identifier des cibles et de déclencher la force sans intervention humaine.

Déléguer à une machine ou à un algorithme le droit de tuer une personne serait une rupture pour l’humanité, on franchirait alors une limite éthique et morale. Le « robot tueur » n’a en effet aucune empathie, aucune conscience de la vie humaine, ce qui pose des problèmes juridiques : aucun algorithme n’est capable de respecter le droit international, qu’il s’agisse des principes de précaution, de proportionnalité ou de distinction entre combattants et civils.

En cas de crime de guerre, par exemple, qui serait responsable ? L’opérateur qui a déclenché la machine, le fabricant du « robot tueur », ou encore le commandant des opérations ? Et puis, il y a aussi des risques de piraterie et de prolifération, car ce sont des armes qui peuvent être assez facilement dupliquées.

Ces « robots tueurs » sont-ils déjà utilisés sur le champ de bataille ?

A priori pas encore, même s’il existe des systèmes de défense anti-aérienne qui fonctionnent de manière autonome dans une zone géographique précise, mais ils ne visent pas l’humain.

De plus en plus, les fabricants d’armes augmentent le niveau d’autonomie de leurs équipements, notamment grâce à l’intelligence artificielle, pour identifier des cibles par exemple. Mais il existe toujours une possibilité d’intervention humaine dans le processus de saisie. Il faut savoir que des robots sentinelles ont déjà été mis en place par la Corée du Sud pour surveiller sa frontière avec la Corée du Nord.

Que peut-on attendre de la conférence de Vienne ?

L’idée est de mobiliser les États sur cette question des « robots tueurs » pour entamer des négociations sur un traité international, afin d’interdire certaines armes autonomes ou de les encadrer strictement.

Cette conférence de Vienne fait suite à plusieurs autres conférences régionales. Il s’agit de recueillir les contributions des États qui seront ensuite envoyées au secrétaire général de l’ONU. Ce dernier qui doit présenter un rapport l’été prochain, qui pourrait éventuellement servir de base à un processus de négociation. Le temps presse car la technologie des « robots tueurs » progresse chaque jour un peu plus.

Eleon Lass

Eleanor - 28 years I have 5 years experience in journalism, and I care about news, celebrity news, technical news, as well as fashion, and was published in many international electronic magazines, and I live in Paris - France, and you can write to me: eleanor@newstoday.fr
Bouton retour en haut de la page