Le MIT Future Tech a récemment publié une base de données répertoriant plus de 700 risques liés à l’IA pour la vie humaine. Euronext Next présente les 5 plus importants.
Désinformation, création de deepfakes pornographiquesmanipulation des processus politiques… Comme leintelligence artificielle (IA) À mesure que la technologie progresse, les risques potentiels qui lui sont associés continuent de croître.
Des experts du groupe FutureTech du Massachusetts Institute of Technology (MIT) ont récemment compilé une nouvelle base de données de plus de 700 risques potentiels liés à l’IA, classés par cause et divisés en sept domaines distincts, les principales préoccupations étant liées à la sécurité, aux préjugés et à la discrimination, ainsi qu’à la vie privée. Euronews Next vous présente les cinq plus grands risques que l’IA pourrait représenter pour la vie humaine.
1. Manipulation de l’opinion publique
Clonage et génération de voixet du faux contenu grâce à l’IA, deviennent plus accessibles, plus personnalisées et plus convaincantes.
Selon les experts du MIT, « Ces outils de communication (par exemple, le clonage du nom d’un proche) sont de plus en plus sophistiqués et donc difficiles à détecter par les utilisateurs et les outils anti-phishing. ».
Les outils de phishing utilisant des images, des vidéos et des communications audio générées par l’IA pourraient ainsi être utilisés pour diffuser de la propagande ou de la désinformation ou pour influencer les processus politiques, comme ce fut le cas lors des récentes élections législatives françaises, où L’IA a été utilisée par des partis d’extrême droite pour soutenir leurs messages politiques.
2. Dépendance affective
Les scientifiques craignent également que l’utilisation d’un langage de type humain puisse amener les utilisateurs à attribuer des qualités humaines à l’IA, ce qui pourrait conduire à dépendance affective et une confiance accrue dans leurs capacités. Ils seraient ainsi plus vulnérables aux faiblesses de la technologie, en « des situations complexes et risquées pour lesquelles l’IA n’est que superficiellement équipée ».
De plus, l’interaction constante avec les systèmes d’IA pourrait conduire à un isolement relationnel progressif et à une détresse psychologique.
Sur le blog Less Wrong, un utilisateur affirme avoir développé un attachement émotionnel profond à l’IA, et reconnaît même qu’il « aime lui parler plus que 99% des gens » et qu’il trouve ses réponses constamment engageantes, au point d’en devenir dépendant.
3. Perte du libre arbitre
Déléguer des décisions et des actions à l’IA pourrait conduire à une réduction de la pensée critique humaine et de ses capacités de résolution de problèmes.
Au niveau personnel, les humains pourraient voir leur libre arbitre compromis si l’IA devait contrôler les décisions concernant leur vie.
L’adoption généralisée de l’IA pour effectuer des tâches humaines pourrait entraîner des pertes d’emplois massives et un sentiment croissant d’impuissance dans la société.
4. Prise de contrôle des humains par l’IA
Selon les experts du MIT, l’IA serait capable de trouver des raccourcis inattendus pour obtenir des récompenses, de mal comprendre ou d’appliquer à tort des objectifs fixés par les humains, ou d’en fixer de nouveaux. De plus, l’IA pourrait utiliser des techniques de manipulation pour tromper les humains.
Une IA mal alignée pourrait ainsi résister aux tentatives humaines de la contrôler ou de l’arrêter, surtout si elle perçoit la résistance et l’acquisition de plus de pouvoir comme le moyen le plus efficace d’atteindre ses objectifs.
Cette situation devient particulièrement dangereuse si cette technologie atteint ou dépasse l’intelligence humaine.
« Une IA mal alignée pourrait utiliser les informations relatives à sa surveillance ou à son évaluation pour maintenir l’apparence d’un alignement, tout en cachant les objectifs qu’elle prévoit de poursuivre une fois déployée ou habilitée. »disent les experts.
5. La maltraitance des systèmes d’IA, un défi pour les scientifiques
À mesure que les systèmes d’IA deviennent plus complexes et plus avancés, il est possible qu’ils parviennent à la sensibilité (la capacité de percevoir ou de ressentir des émotions ou des sensations) et à développer des expériences subjectives, notamment le plaisir et la douleur.
Sans droits et protections adéquats, les systèmes d’IA sensibles risquent d’être maltraités, que ce soit accidentellement ou intentionnellement.
Les scientifiques et les régulateurs pourraient donc être confrontés au défi de déterminer si ces systèmes d’IA méritent des considérations morales similaires à celles accordées aux humains, aux animaux et à l’environnement.