Une association autrichienne porte plainte contre ChatGPT qui « divague » et « invente des réponses »
Lorsqu’elle a interrogé ChatGPT sur la date de naissance de son fondateur Max Schrems, le chatbot a « systématiquement donné de fausses informations » au lieu d’admettre qu’il ne la savait pas.
L’association viennoise Noyb, militante pour la protection de la vie privée, a annoncé lundi le dépôt d’une plainte en Autriche contre la star de l’interface générative d’intelligence artificielle (IA). « ChatGPT erre » et même son éditeur OpenAI « ne peut pas l’arrêter », souligne Noyb (pour « None of your business », signifiant en anglais « It’s none of your business ») dans un communiqué. Pour l’association, ce type d’outil « invente régulièrement des réponses ».
« La technologie doit être conforme à la loi »
« Si un système ne peut pas fournir des résultats corrects et transparents, il ne peut pas être utilisé pour générer des données sur les individus. La technologie doit être conforme à la loi, et non l’inverse», insiste l’avocat Maartje de Graaf, cité dans le communiqué. C’est tout simplement « inacceptable », selon Noyb qui rappelle que le Règlement général européen sur la protection des données (RGPD) stipule l’obligation d’exactitude.
D’autant que la société OpenAI « a refusé la demande du plaignant de corriger ou d’effacer l’erreur, prétextant que c’était impossible », le désapprentissage de l’IA étant en fait un problème crucial. Elle n’a pas non plus répondu à sa demande d’accès aux données le concernant et aux sources d’information, là encore en violation de la loi.
Protéger la vie privée
Dans sa plainte, l’association (devenue la bête noire des géants de la tech depuis sa création en 2018) demande à l’autorité autrichienne de protection des données d’ouvrir une enquête et d’infliger une amende à l’entreprise californienne.
« Nous nous engageons à protéger la confidentialité des données », a répondu un porte-parole d’OpenAI. « Nous voulons que nos modèles d’IA apprennent à connaître le monde, pas les individus ; Nous ne recherchons pas activement d’informations personnelles pour former nos modèles, et nous n’utilisons pas d’informations publiques sur Internet pour établir un profil, faire de la publicité ou cibler des personnes, ou vendre leurs données. il ajouta.
Un groupe de travail européen
Des procédures ont déjà été lancées dans plusieurs pays. L’Italie a temporairement bloqué le programme en mars 2023, tandis que l’autorité de régulation française (Cnil) commençait à examiner une série de plaintes. Un groupe de travail européen a également été créé pour promouvoir la coopération entre autorités.
« Reste à voir où cela nous mènera », commente Noyb, sceptique pour l’instant quant aux efforts du gouvernement pour réguler l’intelligence artificielle.