« Arrêtons de penser aux conséquences de l’IA comme si nous vivions dans le film Matrix »
FIGAROVOX/CHRONIQUE – Alors qu’OpenAI vient d’annoncer la dissolution de son équipe chargée d’étudier les risques à long terme de l’intelligence artificielle, notre chroniqueur plaide pour que nous nous affranchions d’une vision apocalyptique de l’IA.
Aurélie Jean est docteur ès sciences et entrepreneure. Elle a notamment publié Les algorithmes font-ils la loi ? (L’Observatoire, 2022) et co-écrit Résistance 2050 (L’Observatoire, 2023).
L’organisation OpenAI vient d’annoncer la dissolution de l’équipe chargée d’étudier les risques à long terme de l’intelligence artificielle. Les membres de cette même équipe sont désormais répartis au sein de l’organisation. De cette annonce, on peut lire plusieurs sous-textes, comme un aveu d’échec d’OpenAI qui n’a pas été capable de conduire telle démarche et telle équipe vers le succès escompté afin de résoudre les prochains défis que tend à relever l’intelligence artificielle (IA). nous. Une seconde lecture suppose peut-être une certaine honnêteté intellectuelle de la part d’OpenAI et de son patron Sam Altman, sur l’inutilité et l’inefficacité d’une vision long terme et apocalyptique de l’IA, pour au contraire regarder (enfin !) concrètement les vrais enjeux. de cette discipline.
Tu te souviens…