Sciences et technologies

Microsoft dévoile une IA si puissante qu’elle n’ose pas la proposer aux utilisateurs

Microsoft dévoile VALL-E 2, une nouvelle intelligence artificielle conçue pour imiter une voix humaine avec une précision inégalée. Craignant que sa technologie puisse être exploitée par des individus malveillants, l’éditeur a choisi de ne pas proposer l’IA au grand public.

Microsoft vient de dévoiler VALL-E 2, une nouvelle intelligence artificielle capable d’imiter une voix humaine. Comme son nom l’indique, il s’agit de la deuxième itération de VALL-E, un modèle de synthèse vocale très efficace. Annoncée en janvier 2023, l’IA était capable d’imiter une voix humaine en seulement trois secondes.

Cette deuxième version se veut encore plus efficace. Selon Microsoft, il s’agit impossible de différencier la voix deepfake produite par VALL-E 2 de la voix d’une vraie personne. L’IA a atteint « La parité humaine pour la première fois »L’éditeur américain se félicite de son site Internet. Jusqu’à présent, les productions d’IA pouvaient encore être repérées grâce à de petites imperfections dans la formulation ou l’intonation.

Pour améliorer le rendu de VALL-E, Microsoft a ajouté deux innovations dans la façon dont l’IA traite les données vocales. Ces modifications de conception permettent à l’IA de synthétiser la parole avec précision et naturellement, « même pour les phrases traditionnellement difficiles en raison de leur complexité ou de leurs phrases répétitives ».

A lire aussi : Pourquoi les victimes du deepfake ont du mal à supprimer ce contenu du Web

Le danger des deepfakes vocaux

Microsoft estime que VALL-E 2 pourrait être utilisé dans des secteurs tels que « apprentissage éducatif, divertissement, journalisme, contenu auto-écrit, fonctionnalités d’accessibilité, systèmes de réponse vocale interactifs, traduction, chatbot »En outre, l’entreprise voit la possibilité d’utiliser l’IA pour aider les personnes handicapées.

Sans surprise, Microsoft reste conscient des risques posé par son générateur de voix. En exploitant un modèle comme VALL-E, un individu malveillant serait capable d’usurper la voix d’un proche, d’une célébrité ou d’un homme politique lors d’un appel téléphonique. Il suffirait de passer un appel téléphonique pour convaincre quelqu’un de déposer de l’argent sur un compte ou de communiquer des informations sensibles. Dans le communiqué, Microsoft indique être conscient de la « « risques potentiels liés à une mauvaise utilisation du modèle, tels que l’usurpation de la voix ou l’usurpation de l’identité d’un locuteur spécifique ».

Cela ouvre la porte à toutes sortes d’abus, d’autant que de nombreux cybercriminels exploitent déjà la technologie du deepfake pour orchestrer des cyberattaques. Les contenus générés par l’IA ont déjà permis à des escrocs de commettre des fraudes financières majeures. Il existe également des risques liés à la désinformation.

Par précaution, Microsoft a donc refusé de proposer de l’IA aux internautes. Ce n’est pas « aucun projet d’intégration de VALL-E 2 dans un produit ou d’élargissement de l’accès public » pour le moment. VALL-E 2 est conçu à des fins de recherche uniquement.

🔴 Pour ne rien manquer de l’actualité de 01net, suivez-nous sur Google News et WhatsApp.

Source :

Microsoft

Jewel Beaujolie

I am a fashion designer in the past and I currently write in the fields of fashion, cosmetics, body care and women in general. I am interested in family matters and everything related to maternal, child and family health.
Bouton retour en haut de la page