Jaap Arriens | Nuphoto | Getty Images
Une fonctionnalité d’intelligence artificielle sur les iPhones génère de fausses alertes de nouvelles, attisant les inquiétudes quant à la capacité de la technologie à diffuser des informations erronées.
La semaine dernière, une fonctionnalité récemment lancée par Pomme qui résume les notifications des utilisateurs à l’aide de l’IA, a diffusé des notifications de l’application BBC News résumées de manière inexacte sur l’histoire du diffuseur concernant la demi-finale du Championnat du monde de fléchettes PDC, affirmant à tort que le joueur de fléchettes britannique Luke Littler avait remporté le championnat.
L’incident s’est produit un jour avant la finale du tournoi, que Littler a remporté.
Puis, quelques heures seulement après cet incident, une notification distincte générée par Apple Intelligence, le système d’IA du géant de la technologie, a faussement affirmé que la légende du tennis Rafael Nadal s’était révélée gay.
La BBC tente depuis environ un mois de convaincre Apple de résoudre le problème. La chaîne de télévision publique britannique s’est plainte à Apple en décembre après que sa fonctionnalité d’IA ait généré un faux titre suggérant que Luigi Mangione, l’homme arrêté à la suite du meurtre du PDG de la société d’assurance maladie UnitedHealthcare, Brian Thompson à New York, s’était suicidé – ce qui n’est jamais arrivé.
Apple n’était pas immédiatement disponible pour commenter lorsqu’il a été contacté par CNBC. Lundi, Apple a déclaré à la BBC qu’il travaillait sur une mise à jour pour résoudre le problème en ajoutant une clarification indiquant quand Apple Intelligence est responsable du texte affiché dans les notifications. Actuellement, les notifications d’actualités générées apparaissent comme provenant directement de la source.
« Les fonctionnalités d’Apple Intelligence sont en version bêta et nous apportons continuellement des améliorations à l’aide des commentaires des utilisateurs », a déclaré la société dans un communiqué partagé avec la BBC. Apple a ajouté qu’il encourage les utilisateurs à signaler un problème s’ils voient un « résumé de notification inattendu ».
La BBC n’est pas la seule organisation de presse à avoir été affectée par les résumés inexacts des notifications d’actualités d’Apple Intelligence. En novembre, le reportage a envoyé une notification résumée par AI affirmant à tort que le Premier ministre israélien Benjamin Netanyahu avait été arrêté.
L’erreur a été signalée sur l’application de médias sociaux Bluesky par Ken Schwencke, rédacteur en chef du site de journalisme d’investigation ProPublica.
CNBC a contacté la BBC et le New York Times pour commenter la solution proposée par Apple au problème de désinformation de sa fonctionnalité d’IA.
Apple présente ses résumés de notifications générés par l’IA comme un moyen efficace de regrouper et de réécrire les aperçus des notifications d’applications d’actualités en une seule alerte sur l’écran de verrouillage d’un utilisateur.
Selon Apple, il s’agit d’une fonctionnalité conçue pour aider les utilisateurs à analyser leurs notifications pour obtenir des détails clés et à réduire le nombre écrasant de mises à jour que de nombreux utilisateurs de smartphones connaissent.
Cependant, cela a donné lieu à ce que les experts en IA appellent des « hallucinations » : des réponses générées par l’IA qui contiennent des informations fausses ou trompeuses.
« Je soupçonne qu’Apple ne sera pas le seul à rencontrer des difficultés avec le contenu généré par l’IA. Nous avons déjà vu de nombreux exemples de services d’IA racontant avec assurance des contrevérités, appelées « hallucinations », » Ben Wood, analyste en chef du marché axé sur la technologie. société de recherche CCS Insights, a déclaré à CNBC.
Dans le cas d’Apple, comme l’IA tente de consolider les notifications et de les condenser pour n’afficher qu’un résumé de base des informations, elle mélange les mots d’une manière qui caractérise les événements de manière inexacte, tout en les présentant avec assurance comme des faits.
« Apple a eu la complexité supplémentaire d’essayer de compresser le contenu en résumés très courts, ce qui a fini par délivrer des messages erronés », a ajouté Wood. « Apple cherchera sans aucun doute à résoudre ce problème le plus rapidement possible, et je suis sûr que ses concurrents surveilleront de près sa réaction. »
L’IA générative fonctionne en essayant de trouver la meilleure réponse possible à une question ou une invite insérée par un utilisateur, en s’appuyant sur de grandes quantités de données sur lesquelles ses grands modèles de langage sous-jacents sont formés.
Parfois, l’IA ne connaît pas la réponse. Mais comme il a été programmé pour toujours présenter une réponse aux invites de l’utilisateur, cela peut entraîner des cas où l’IA ment effectivement.
On ne sait pas exactement quand la résolution par Apple du bug dans sa fonction de résumé des notifications sera corrigée. Le fabricant d’iPhone a déclaré s’attendre à ce qu’il en arrive un dans « les semaines à venir ».
Dan Marciano - Éditeur Titulaire d'un Master en droit international, j'ai réalisé à la fin…
Le Royaume-Uni a annoncé mardi 14 janvier une interdiction des importations de bovins, porcins et…
Les Journées antillaises de diabétologie et d'endocrinologie (JADE) ont débuté ce mardi 14 janvier et…
Aujourd'hui, Meta introduit de nombreuses nouvelles fonctionnalités dans WhatsApp. C'est du moins ce que l'on…
Les partisans du président élu américain Donald Trump applaudissent son cortège alors qu'il quitte sa…
Le Premier ministre a tracé la voie à suivre pour taxer les patrimoines les plus…