Un médecin sur cinq utilise ChatGPT dans son cabinet. Est-ce grave, docteur ?
Les nouvelles les plus importantes de la journée

Un médecin sur cinq utilise ChatGPT dans son cabinet. Est-ce grave, docteur ?

Un médecin sur cinq utilise ChatGPT dans son cabinet. Est-ce grave, docteur ?

Hypocondriaque ou pas, il n’est pas impossible que vous ayez déjà parcouru le web, liste de symptômes en main, afin de comprendre quel virus ou bactérie vous venez d’attraper. Des sites médicaux comme Vidal ou WebMD, des sites institutionnels comme le site Ameli, des forums Doctissimo, ainsiInternetInternet a grandi dans nos vies, les possibilités d’autodiagnostic se sont multipliées. Oui, mais. Si vous avez déjà fait cet exercice, vous saurez que les recherches nécessaires pour sélectionner les symptômes pertinents et parvenir à une réponse définitive et fiable sont beaucoup plus complexes qu’il n’y paraît. Bref, rien ne vaut les conseils d’un médecin avec dix années d’études et encore plus d’années de pratique derrière lui.
Cependant, avec l’arrivée de l’IA générative, et notamment chatbotschatbots avancé comme ChatGPTChatGPTnous avons le droit de remettre la question sur la table. UN intelligence artificielleintelligence artificiellecapable de parcourir tous les recoins du web pour répondre aux questions et aux problèmes, est-il capable de diagnostiquer nos maux avec plus de précision qu’un forum ? Et pourquoi pas juste un médecin ?

Pas le temps de lire ? Découvrez la chronique audio derrière cette transcription. Cliquez sur play et laissez-vous emporter. © Futura

Un médecin généraliste sur cinq utilise l’IA générative

Selon des études publiées récemment sur le sujet, il semblerait qu’un nombre croissant de spécialistes de la santé utilisent ChatGPT dans leur pratique. Une enquête réalisée auprès d’un millier de médecins généralistes, et publiée le 17 septembre 2024 dans la revue scientifique BMJrévèle que 20% des personnes interrogées utilisent des outils d’intelligence artificielle générative, comme ChatGPT, Bing AI ou Bard de GoogleGoogle par exemple, dans leur pratique clinique. Lorsqu’on leur demande plus de détails, 29 % de ces répondants expliquent qu’ils s’appuient sur ces services pour générer de la documentation après un rendez-vous, tandis que pas moins de 28 % d’entre eux les utilisent pour proposer un diagnostic différentiel.

Des outils biaisés et limités

Alors, n’allons pas tourner autour du pot : forcément, cette nouveauté soulève son lot de doutes et d’interrogations. Et les auteurs de l’étude ne manquent pas de les rapporter dans la discussion de leur article. Tout d’abord, il est important de noter que ces outils qui, rappelons-le, restent balbutiants malgré leur développement spectaculaire ces dernières années, ont leurs biais et leurs limites. Du côté des préjugés, par exemple, en octobre dernier, une étude choc de l’Université de Stanford a révélé que les chatbots avaient tendance à perpétuer des mythes médicaux et des préjugés racistes, comme le syndrome méditerranéen, en présumant à tort que les populations d’origine étrangère, et en particulier les personnes d’origine africaine, ressentirait moins le douleurdouleur que les Caucasiens. Un stéréotype scientifiquement réfuté depuis longtemps, mais qui continue de perdurer, et même d’être enseigné dans certaines écoles. Les IA ne s’appuient sur rien d’autre que ce que les humains mettent à leur disposition, il n’est donc pas surprenant qu’elles portent en elles les préjugés que nous leur inculquons, souvent bien plus représentés en ligne que les études qui les utilisent. invalider. Il est donc difficile de trouver parmi eux des juges impartiaux.

L’IA révèle le racisme parmi les commentateurs sportifs dans une étude choquante

Parmi les limites, cette fois, on peut encore citer le fait que ces IA sont jeunes et donc encore sujettes aux hallucinations, aux incompréhensions et au manque de discernement. Ils n’ont pas non plus été conçus spécifiquement pour poser des diagnostics et ne possèdent pas les sens aiguisés que les médecins apprennent à développer tout au long de leur carrière. Impossible de sentir, ressentir, écouter, observer : au mieux, l’IA doit s’appuyer sur ce que le praticien observe et parvient à formuler.

Attention à la confidentialité !

Autre sujet de préoccupation soulevé par l’étude : le confidentialitéconfidentialité. Comme le soulignent les auteurs, ces IA appartiennent à des entités commerciales, qui offrent très peu de visibilité sur la manière dont elles utilisent les informations fournies via leurs chatbots. Même s’il y a fort à parier qu’aucun médecin ne nomme ses patients lorsqu’il fait des recherches, on sait désormais que le triangulationtriangulation les données se font de plus en plus facilement, permettant de retrouver en un clin d’oeilœilœil l’identité d’une personne et de constituer un dossier complet sur elle, comprenant ses coordonnées, ses habitudes, ses loisirs et désormais ses données médicales.

A ce jour, parce que ces nouveaux usages n’en sont qu’à leurs balbutiements, les outils comme ChatGPT ne sont pas considérés comme des dispositifs médicaux, au sens de la législation européenne, mais cela ne signifie pas que leur utilisation soit interdite ou réglementée. Soyez donc prudent avec les informations que vous fournissez à l’IA générative lorsque vous leur demandez un diagnostic. Si les symptômes de la grippe risquent peu de vous mettre dans une situation complexe, le passé a déjà montré que les assureurs comme les banques peuvent s’appuyer sur vos données, le fameux MégadonnéesMégadonnées collectées par des services tiers, pour fixer le taux d’un prêt ou le coût de votre mutuelle. Mais alors, avec tous ces inconvénients en tête, comment se fait-il que les médecins utilisent encore l’IA générative dans leur profession ? Les risques sont-ils supérieurs aux bénéfices et jusqu’où l’intelligence artificielle peut-elle aller pour améliorer le bien-être des patients et soulager les professionnels de santé ?

ChatGPT : l’allié inattendu face à un système en crise

Ce n’est pas nouveau, mais on en parle encore trop peu. Aujourd’hui, le système médical en France métropolitaine est à un point de rupture. Face à une situation critique, les étudiants en médecine fuient vers d’autres pays, renforçant la pénurie de médecins et l’expansion des désertsdéserts médical; le nombre de ruptures de stock de médicaments augmente à un rythme effrayant, les deux tiers des EHPAD sont en déficit, les personnes les plus vulnérables sont abandonnées, la médecine de ville et les établissements privés sont délaissés au profit d’une centralisation dans les hôpitaux publics, de plus en plus nombreux. le personnel soignant, saturé et surmené, arrive à bout de forces et les suicides, plus fréquents au sein de ces professions, restent un sujet tabou.

Pourquoi y a-t-il une pénurie de médecins en France ?

Pourquoi y a-t-il une pénurie de médecins en France ? © Le Monde, YouTube

Alors soyons clairs, il faudra bien plus qu’un chatbot pour remettre sur pied le système de santé français. Mais l’espoir est qu’avec l’IA générative comme ChatGPT, ainsi que des outils de diagnostic toujours plus avancés, le fardeau des soignants sera au moins partiellement réduit. Si le IA conversationnelleIA conversationnelle ont peu de chance de remplacer un médecin en chair et en os, des études ont démontré que ChatGPT était capable de mieux diagnostiquer certaines maladies respiratoires que les stagiaires en médecine, qu’un algorithme pouvait permettre de constater l’agressivité d’un médecin. sarcomesarcome plus efficacement qu’un biopsiebiopsieou même qu’une IA pourrait détecter des signes de démencedémence bien avant l’apparition des premiers symptômes externes.

Ils ont testé ChatGPT aux urgences : son diagnostic est « aussi bon » que celui d’un médecin

Ces diagnostics devront toujours être confirmés par des spécialistes quoi qu’il arrive, mais ils pourraient faire gagner un temps précieux aux patients et aux soignants, limiter l’errance médicale, permettre l’optimisation des traitements et réduire les coûts. , à la fois médicale et administrative. Une étude de 2023, publiée dans la revue PubMed, démontre que ChatGPT pourrait même aider les professionnels de santé dans leurs interactions avec les patients, en les aidant à apporter des réponses plus claires, plus utiles et plus empathiques. Dans une tribune pour Medium, l’urgentiste Josh Tamayo-Sarver explique comment il utilise le chatbot pour expliquer ses décisions aux patients et à leurs proches, lorsque leur émotion ou leur manque de connaissances les empêche d’entendre raison.

Prochaine étape : participer au débat

Bref, les bénéfices clés sont nombreux et méritent que l’on ouvre un débat nuancé sur l’usage de l’IA générative dans le milieu médical. Avant d’accepter cette nouveauté sans broncher ni monter au créneau car notre médecin nous facture une consultation que nous aurions pu faire « tout seuls en trois clics », prenons le temps d’envisager les risques pour notre santé et notre vie privée d’un côté. main, et les bénéfices pour nos soins, la réduction de stresserstresser soignants et la facilitation de leur pratique d’autre part.

Dans le cas de l’IA, comme pour bien d’autres choses, beaucoup d’entre nous ont eu tendance à laisser les choses se dérouler sans intervenir, se contentant d’être étonnés ou indignés à mesure que l’actualité se déroulait, la réaction à chaud prenant souvent le pas sur le dialogue. Nous vous invitons donc maintenant à ouvrir la conversation. Parlez avec vos amis, avec vos proches, avec votre médecin, avec vos patients et avec les législateurs qui réglementent les technologies et leur utilisation. Lancez des débats citoyens, informez-vous et appelez à un échange apaisé et informé avant que les pratiques ne se généralisent et ne se rigidifient. Le moment est venu de réfléchir à la manière dont nous voulons faire fonctionner ensemble l’IA générative et la santé. C’est à vous de décider si vous souhaitez participer ou laisser les choses se produire. Mais vous ne pourrez pas dire : « Si j’avais su, j’aurais agi. »

Quitter la version mobile