une enquête journalistique met en lumière l’utilisation de l’intelligence artificielle par Tsahal
Publié
Durée de la vidéo : 3 minutes
Dans cette guerre qui dure depuis près de 7 mois, Israël fait l’objet de critiques, notamment pour son usage de l’IA. C’est la première fois qu’une armée utilise l’IA pour tuer.
Repérez des milliers de cibles à Gaza grâce à l’intelligence artificielle. L’armée israélienne dresse des listes d’hommes à éliminer avec une machine agrégeant des milliards de données, comme le domicile, les déplacements, les réseaux sociaux, les photos ou encore les contacts. Une enquête publiée par des journalistes israéliens détaille le mode opératoire de Tsahal. Baptisée Lavander, l’opération consiste à « mettre des personnes sur des listes qui valent pratiquement une condamnation à mort »décrit le rédacteur en chef de +972 revues Méron Rapoport.
L’intelligence artificielle est utilisée à grande échelle par une armée pour la première fois
L’enquête s’appuie sur 6 témoignages d’agents actifs de la division d’élite du cyber-renseignement de Tsahal, qui utilise Lavender. Pour une personne ciblée à son domicile, le nombre de victimes collatérales jugé acceptable par Tsahal est de 15 à 20 personnes. Si la cible est de très grande valeur, elle passe de 200 à 300 personnes. L’intelligence artificielle n’ordonne pas de tuer, mais le soldat doit agir en urgence dès que le système lui donne un nom. Ce mode opératoire inquiète l’ONU et les associations de défense des droits de l’Homme. C’est la première fois que l’intelligence artificielle est utilisée à grande échelle par une armée.