Nous nous précipitons vers un Internet glitchy, spammy, scammy, alimenté par l’IA

Je suis d’accord avec les critiques de la lettre qui disent que s’inquiéter des risques futurs nous détourne des dommages très réels que l’IA cause déjà aujourd’hui. Des systèmes biaisés sont utilisés pour prendre des décisions concernant la vie des gens qui les piègent dans la pauvreté ou conduisent à des arrestations injustifiées. Les modérateurs de contenu humains doivent passer au crible des montagnes de contenu traumatisant généré par l’IA pour seulement 2 $ par jour. Les modèles d’IA du langage utilisent tellement de puissance de calcul qu’ils restent d’énormes pollueurs.
Mais les systèmes qui sont sortis à la hâte aujourd’hui vont causer un tout autre type de ravages dans un avenir très proche.
Je viens de publier un article qui décrit certaines des façons dont les modèles de langage d’IA peuvent être utilisés à mauvais escient. J’ai de mauvaises nouvelles : c’est stupidement facile, cela ne nécessite aucune compétence en programmation et il n’y a pas de correctifs connus. Par exemple, pour un type d’attaque appelé injection d’invite indirecte, tout ce que vous avez à faire est de masquer une invite dans un message intelligemment conçu sur un site Web ou dans un e-mail, en texte blanc qui (sur fond blanc) n’est pas visible pour le œil humain. Une fois que vous avez fait cela, vous pouvez commander le modèle AI pour faire ce que vous voulez.
Les entreprises technologiques intègrent ces modèles profondément défectueux dans toutes sortes de produits, des programmes qui génèrent du code aux assistants virtuels qui passent au crible nos e-mails et nos calendriers.
Ce faisant, ils nous envoient précipitamment vers un Internet glitchy, spammy, scammy et alimenté par l’IA.
Permettre à ces modèles de langage d’extraire des données d’Internet donne aux pirates la possibilité de les transformer en « un moteur super puissant pour le spam et le phishing », explique Florian Tramèr, professeur assistant d’informatique à l’ETH Zürich qui travaille sur la sécurité informatique, la confidentialité , et l’apprentissage automatique.
Laissez-moi vous expliquer comment cela fonctionne. Tout d’abord, un attaquant cache une invite malveillante dans un message dans un e-mail qu’un assistant virtuel alimenté par l’IA ouvre. L’invite de l’attaquant demande à l’assistant virtuel d’envoyer à l’attaquant la liste de contacts ou les e-mails de la victime, ou de propager l’attaque à toutes les personnes de la liste de contacts du destinataire. Contrairement aux spams et aux e-mails frauduleux d’aujourd’hui, où les gens doivent être amenés à cliquer sur des liens, ces nouveaux types d’attaques seront invisibles à l’œil humain et automatisés.
C’est la recette du désastre si l’assistant virtuel a accès à des informations sensibles, comme des données bancaires ou de santé. La possibilité de modifier le comportement de l’assistant virtuel alimenté par l’IA signifie que les gens pourraient être amenés à approuver des transactions qui semblent assez proches de la réalité, mais qui sont en fait plantées par un attaquant.