LES CROYANCES FOLLES DE LA SILICON VALLEY (2/6) – Cette philosophie centrée sur le futur lointain vise à combattre les « risques existentiels » qui pourraient empêcher le génie humain de réaliser sa destinée.
« Faut-il développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? ? » En mars 2023, cette lettre ouverte du Future of Life Institute, appelant tous les laboratoires de recherche à suspendre pendant six mois « formation de modèles d’intelligence artificielle » Les projets avant-gardistes et signés par des personnalités comme Elon Musk, avaient fait la une des journaux. Six mois plus tard, Sam Altman était brutalement évincé de la tête d’OpenAI par son conseil d’administration. Un courant de pensée qui a séduit une partie de la Silicon Valley réunit ces deux actualités : le long-termisme.
DÉCOUVREZ LES AUTRES ÉPISODES
Le bond en avant soudain de l’IA, illustré par la création de ChatGPT, a mis en lumière ce mouvement conceptualisé par deux philosophes, le suédois Nick Bostrom et l’écossais William MacAskill. Ce dernier a écrit…