Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
Nouvelles locales

L’utilisation de l’IA par l’armée israélienne «implique des conséquences désastreuses pour les civils»

Vendredi, les médias +972 Magazine et Local Call ont publié une enquête sur l’utilisation de l’intelligence artificielle par l’armée israélienne pour définir les cibles de ses frappes sur Gaza. Le secrétaire général de l’ONU, Antonio Guterres, s’est dit très préoccupé par ces informations. Les deux médias s’appuient sur les témoignages de six agents des renseignements israéliens. Entretien avec Joe Dyke de l’ONG Airwars spécialisée dans l’identification des victimes civiles des frappes aériennes pour mieux comprendre ce qu’impliquent ces révélations.

Publié sur :

4 minutes

RFI : Les deux médias à l’origine de cette enquête avaient déjà évoqué dans un précédent article l’utilisation de l’intelligence artificielle par l’armée israélienne. Quelles nouveautés apporte cette publication ?

Joe Dyke : Tout d’abord, je tiens à souligner que nous n’avons pas pu vérifier de manière indépendante les informations révélées par cette enquête. L’auteur de cette enquête semble disposer de sources sérieuses, mais force est tout de même de constater que les Israéliens nient avoir recours à un système intelligence artificielle pour identifier ces cibles. Cela étant dit, il y a deux points principaux à souligner. Premièrement, l’article révèle l’utilisation de l’intelligence artificielle pour effectuer une surveillance de masse de la population de Gaza et d’évaluer automatiquement si quelqu’un est un membre potentiel du Hamas ou non.

Lire aussiIsraël annonce avoir récupéré le corps d’un otage à Gaza

Ces objectifs sont ensuite communiqués. Par exemple, l’information peut dire : « Ce téléphone est potentiellement celui d’un membre du Hamas. » Il transmet un pourcentage de probabilité. L’armée israélienne prend alors la décision de tirer ou non. Mais selon l’article, une fois qu’une personne est identifiée comme militante, la seule vérification humaine est de savoir si elle a une voix masculine, rien de plus.

Cela nous amène au deuxième point qui concerne davantage notre organisation : les règles d’engagement. Il existe un certain nombre de morts civiles considérées comme acceptables pour le meurtre d’un membre du Hamas, en fonction de son rang. L’article parle par exemple de 15 à 20 civils « autorisés » à tuer pour un membre « junior » du Hamas. Ce nombre est extrêmement élevé. C’est le cumul de ces deux points qui implique des conséquences désastreuses pour les civils.

Avez-vous observé des conséquences concrètes sur le terrain ?

Nous avons déjà documenté 3 000 cas dans lesquels au moins un civil a été blessé ou tué au cours des six mois de guerre. Nous n’avons jamais vu autant de frappes et autant de victimes civiles par frappe. Avant le 7 octobre, comme avant le début de toute guerre, les Israéliens devaient avoir un certain nombre de cibles. Mais ce fut forcément insuffisant pour maintenir le niveau d’intensité des grèves. Il fallait donc identifier de nouvelles cibles le plus rapidement possible. Dans ce cas précis, Israël aurait donc eu recours à l’intelligence artificielle.

Lire aussiGuerre Israël-Hamas : « L’espoir de paix est très loin »

Normalement, il devrait y avoir une vérification humaine par la suite, mais la critique formulée par cette enquête est justement qu’il n’y a pas suffisamment de vérification humaine. En tant qu’organisation qui a documenté la campagne menée par les États-Unis contre l’État islamique et d’autres conflits, nous n’avons jamais vu une telle intensité d’allégations de dommages causés aux civils. Mais encore une fois, il y a une combinaison de deux facteurs pour conduire à un tel désastre. Il ne s’agit pas seulement de l’intelligence artificielle, mais aussi des règles d’engagement décidées par l’armée israélienne, c’est-à-dire du nombre acceptable de victimes civiles pour chaque combattant du Hamas.

L’armée israélienne pourrait-elle utiliser davantage l’intelligence artificielle pour mener ses frappes directement via des drones autonomes, par exemple ?

Ce sont deux choses bien distinctes. L’enquête ne parle que de l’identification de cibles possibles puis validée par une personne. La frappe peut alors être menée par une frappe aérienne, une frappe de drone, une frappe d’artillerie, etc.

Concernant l’existence de drones totalement autonomes, nous n’avons pour l’instant pas pu confirmer leur présence dans les conflits que nous observons. Les Nations Unies affirment que les Turcs auraient pu l’utiliser en Libye il y a quelques années, mais cela n’a pas été vérifié. Il s’agit d’un débat très différent de la question actuelle sur Gaza.

Gérard Truchon

An experienced journalist in internal and global political affairs, she tackles political issues from all sides
Bouton retour en haut de la page