LES CROYANCES FOLLES DE LA SILICON VALLEY (2/6) – Cette philosophie centrée sur le futur lointain vise à combattre les « risques existentiels » qui pourraient empêcher le génie humain de réaliser sa destinée.
« Faut-il développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, nous rendre obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? ? » En mars 2023, cette lettre ouverte du Future of Life Institute, appelant tous les laboratoires de recherche à suspendre pendant six mois « formation de modèles d’intelligence artificielle » Les projets avant-gardistes et signés par des personnalités comme Elon Musk, avaient fait la une des journaux. Six mois plus tard, Sam Altman était brutalement évincé de la tête d’OpenAI par son conseil d’administration. Un courant de pensée qui a séduit une partie de la Silicon Valley réunit ces deux actualités : le long-termisme.
DÉCOUVREZ LES AUTRES ÉPISODES
Le bond en avant soudain de l’IA, illustré par la création de ChatGPT, a mis en lumière ce mouvement conceptualisé par deux philosophes, le suédois Nick Bostrom et l’écossais William MacAskill. Ce dernier a écrit…
Alors que les violences font rage, notamment à Fort-de-France, pour dénoncer le coût de la vie en Martinique, Robeen Siméon,…
Des avions de chasse israéliens ont survolé Beyrouth et frappé des cibles dans le sud du Liban jeudi après-midi, au…
Le gouvernement BarniercasAprès deux semaines de rencontres avec les forces politiques, Michel Barnier pourrait rapidement annoncer son gouvernement, puisqu'il a…
Guerre en Ukraine : Détruit par les Ukrainiens, l'entrepôt stockant de nombreuses armes russes était censé résister à « une…
Les zones côtières et pré-côtières catalanes sont particulièrement touchées par l'alerte. Après le passage de la tempête Boris en Catalogne…
Paris 2024 : 39% des sportifs testés pendant les JO, pour cinq cas positifsfranceinfoDopage : plus de 4 000 sportifs…