Aujourd'hui, un docteur sur 5 affirme utiliser les IA génératives type ChatGPT dans sa pratique. Quel usage les professionnels de santé en font-ils ? Les intelligences artificielles sont-elles devenues capables de diagnostiquer nos maux avec plus de précision qu’un médecin ? Et qu'est-ce que cela implique pour les patients ? Explorons ensemble le rôle grandissant que jouent ces IA génératives dans les cabinets médicaux et à l’hôpital.
au sommaire
Hypocondriaque ou non, il n'est pas impossible que vous ayez déjà parcouru le web, une liste de symptômes en main, afin de comprendre quel virus ou bactérie vous veniez d'attraper. Sites médicaux comme le Vidal ou WebMD, institutionnels comme le site d'Ameli, forums à la Doctissimo, à mesure qu'internetinternet a pris de l'ampleur dans nos vies, les possibilités d'auto-diagnostic se sont multipliées. Oui, mais. Si vous vous êtes déjà prêté à l'exercice, vous saurez que le jeu de piste nécessaire pour sélectionner les symptômes pertinents et arriver à une réponse définitive et fiable est bien plus complexe qu'il y paraît. En somme, rien ne vaut l'avis d'un médecin avec dix ans d'études et encore plus d'années de pratique derrière lui.
Toutefois, avec l'arrivée des IA génératives, et notamment de chatbotschatbots avancés comme ChatGPTChatGPT, on est en droit de remettre la question sur la table. Une intelligence artificielleintelligence artificielle, capable de parcourir chaque recoin du web pour répondre à des questions et des problèmes, est-elle capable de diagnostiquer nos maux avec plus de précision qu'un forum ? Et pourquoi pas qu'un médecin ?
Pas le temps de lire ? Découvrez la chronique audio à l'origine de cette retranscription. Cliquez sur Play et laissez-vous porter. © Futura
Un généraliste sur cinq utilise une IA générative
À en croire les études parues dernièrement sur le sujet, il semblerait qu'un nombre grandissant de spécialistes de la santé aient recours à ChatGPT dans leur pratique. Une enquête menée auprès de mille médecins généralistes, et parue le 17 septembre 2024 dans la revue scientifique BMJ, révèle ainsi que 20 % des interviewés utilisent des outils d'intelligence artificielle générative, comme ChatGPT, Bing AI ou Bard de GoogleGoogle par exemple, dans leur pratique clinique. Lorsque plus de précisions leur ont été demandées, 29 % parmi ces répondants ont expliqué s'appuyer sur ces services pour générer de la documentation après un rendez-vous, tandis que pas moins de 28 % d'entre eux s'en servent pour suggérer un diagnostic différentiel.
Des outils biaisés et limités
Alors, on ne va pas tourner autour du pot : forcément, cette nouvelle évolution soulève son lot de doutes et de questionnements. Et les auteurs et autrices de l'étude ne manquent pas de les rapporter dans la discussion de leur article. Tout d'abord, il est important de noter que ces outils, qui, rappelons-le, restent dans leur enfance malgré leur développement spectaculaire ces dernières années, ont leurs biais et leurs limitations. Du côté des biais, par exemple, en octobre de l'année dernière, une étude choc de l'université de Stanford révélait que les chatbots avaient tendance à perpétuer des mythes médicaux et des préjugés racistes, comme le syndrome méditerranéen, présumant, à tort, que les populations d'origine étrangère, et en particulier, les personnes d'origine africaine, ressentiraient moins la douleurdouleur que les Caucasien·ne·s. Un stéréotype réfuté scientifiquement depuis bien longtemps, mais qui continue de persister, et même d'être enseigné dans certaines écoles. Les IA s'appuyant sur rien de plus que ce que les humains mettent à leur disposition, il n'est donc pas étonnant qu'elles portent en elles les biais que nous leur insufflons, souvent bien plus représentés en ligne que les études qui les invalident. Ainsi, difficile de trouver en elles des juges impartiaux.
Parmi les limitations, cette fois, on peut évoquer une fois de plus le fait que ces IA sont jeunes et donc encore sujettes aux hallucinations, incompréhensions et manque de discernement. Elles n'ont par ailleurs pas été conçues spécifiquement pour poser des diagnostics et ne disposent pas des sens aiguisés que les médecins apprennent à développer au fil de leur parcours. Impossible de palper, sentir, écouter, observer : au mieux, l'IA doit se reposer sur ce que le·a praticien·ne observe et parvient à formuler.
Attention à la confidentialité !
Autre sujet de préoccupation soulevé par l'étude : la confidentialitéconfidentialité. Ainsi que le soulignent les auteurs et autrices, ces IA sont détenues par des entités commerciales, qui ne donnent que très peu de visibilité sur la façon dont elles utilisent les informations qui sont remontées via leurs chatbots. S'il y a fort à parier qu'aucun médecin ne nomme ses patients lorsqu'il fait une recherche, on sait aujourd'hui que la triangulationtriangulation des données se fait de plus en plus facilement, permettant de retrouver en un clin d'œilœil l'identité d'une personne et de dresser sur elle un dossier complet, comportant son contact, ses habitudes, ses loisirs, et désormais, ses données médicales.
À ce jour, parce que ces nouveaux usages n'en sont qu'à leurs balbutiements, des outils comme ChatGPT ne sont pas considérés comme des dispositifs médicaux, au sens de la législation européenne, mais ce n'est pas pour autant que leur utilisation est interdite ou régulée. Attention donc aux informations que vous fournissez aux IA génératives lorsque vous leur demandez un diagnostic. Si des symptômes grippaux ont peu de risque de vous mettre dans une situation complexe, le passé a déjà démontré que les assureurs comme les banques pouvaient s'appuyer sur vos données, le fameux Big DataBig Data collecté par les services tiers, pour fixer le taux d'un crédit ou le coût de votre mutuelle. Mais alors, avec tous ces inconvénients en tête, comment se fait-il que les médecins se servent tout de même des IA génératives dans leur métier ? Les risques dépassent-ils les avantages et jusqu'où l'intelligence artificielle peut-elle aller pour améliorer le bien-être des patients et soulager les professionnels de santé ?
ChatGPT : l'allié inattendu face à un système en crise
Ce n'est pas une nouveauté, mais on en parle encore trop peu. Aujourd'hui, le système médical en France métropolitaine se trouve à un point de rupture. Face à une situation critique, les étudiants en médecine fuient vers d'autres pays, renforçant la pénurie de médecins et l'agrandissement des désertsdéserts médicaux ; le nombre de médicaments en rupture de stock grimpe à un rythme affolant, deux tiers des EHPAD sont déficitaires, les personnes les plus vulnérables sont laissées à l'abandon, la médecine de ville et les établissements privés sont délaissés au profit d'une centralisation autour de l'hôpital public, toujours plus saturé, les personnels soignants surmenés arrivent au bout de leurs forces et les suicides, plus importants au sein de ces professions, restent un sujet tabou.
Pourquoi y a-t-il une pénurie de médecins en France ? © Le Monde, YouTube
Alors que l'on soit bien clairs, il faudra beaucoup plus qu'un chatbot pour remettre le système de santé français sur pied. Mais l'espoir est qu'avec des IA génératives comme ChatGPT, ainsi que des outils diagnostics toujours plus poussés, la charge des soignants se trouve au moins partiellement allégée. Si les IA conversationnellesIA conversationnelles ont peu de chance de se substituer à un médecin en chair et en os, des études ont démontré que ChatGPT parvenait à mieux diagnostiquer certaines maladies respiratoires que des stagiaires en médecine, qu'un algorithme pouvait permettre de noter l'agressivité d'un sarcomesarcome plus efficacement qu'une biopsiebiopsie, ou même qu'une IA pourrait détecter des signes de démencedémence bien avant l'apparition des premiers symptômes externes.
Ces diagnostics auront toujours besoin d'être confirmé par des spécialistes, quoi qu'il advienne, mais ils pourraient faire gagner un temps précieux aux patients et aux soignants, limiter l'errance médicale, permettre l'optimisation des traitements, et réduire les coûts, tant médicaux qu'administratifs. Une étude de 2023, parue dans la revue PubMed, démontre que ChatGPT pourrait même aider les professionnels de santé dans leurs interactions avec les patients, en les aidant à fournir des réponses plus claires, plus utiles et plus empathiques. Dans un billet d'opinion pour Medium, le médecin urgentiste Josh Tamayo-Sarver raconte comment il utilise le chatbot pour expliquer ses décisions aux patients et à leurs proches, lorsque l'émotion ou le manque de connaissance de ces derniers les empêche d'entendre raison.
Prochaine étape : participer au débat
Bref, les bénéfices à clef sont nombreux et méritent que l'on ouvre un débat tout en nuance sur l'utilisation des IA génératives dans le milieu médical. Avant d'accepter cette nouvelle évolution sans broncher ou de monter au créneau parce que notre docteur nous facture pour une consultation qu'on aurait pu faire « tout seul en trois clics » , prenons le temps de considérer les risques pour notre santé et notre vie privée d'une part, et les bénéfices pour notre prise en charge, la réduction du stressstress des soignants et la facilitation de leur pratique de l'autre.
Dans le cas des IA, comme de bien d'autres choses d'ailleurs, nous sommes nombreux à avoir eu tendance à laisser les choses se dérouler sans intervenir, nous contentant de nous émerveiller ou de nous indigner au fil des actualités, la réaction à chaud prenant souvent le pas sur le dialogue. Alors, nous vous invitons dès à présent à ouvrir la conversation. Discutez avec vos amis, avec vos proches, avec votre médecin, avec vos patients, et avec les législateurs qui régulent les technologies et l'usage qui en est fait. Lancez des débats citoyens, informez-vous, et appelez à un échange apaisé et éclairé avant que les usages ne se généralisent et ne se figent. Le moment de réfléchir à la façon dont nous souhaitons faire collaborer IA générative et santé, c'est maintenant. À vous de voir si vous souhaitez y prendre part ou laisser les choses se faire. Mais vous ne pourrez pas dire : « Si j'avais su, j'aurais agi. »