Alors que la pénurie de médecins s’aggrave, de plus en plus de patients se tournent vers des intelligences artificielles comme ChatGPT pour obtenir un premier diagnostic. Mais si ces outils savent déjà analyser des symptômes ou expliquer un bilan sanguin, ils ne remplacent pas l’examen clinique ni l’expertise humaine.
Les professionnels observent une montée de l’« anxiété numérique » : des patients persuadés d’être gravement malades après avoir consulté une IA. Selon la stomatologue Solène Vo Quang, beaucoup d’alertes s’avèrent bénignes, comme des réactions à la cigarette électronique.
Le Dr Jean-Emmanuel Bibault, oncologue et chercheur à l’Inserm, rappelle que ces agents conversationnels ont pour objectif d’interagir agréablement avec l’utilisateur, au risque de le « flatter » dans ses inquiétudes plutôt que de l’aider à raisonner.
Enfin, la question de la confidentialité reste cruciale : confier des données médicales à un chatbot, c’est souvent les transmettre à des serveurs extérieurs, hors du cadre du secret médical.
En somme, l’IA peut être un outil d’éducation et d’accompagnement, mais elle ne saurait remplacer le jugement, l’écoute et le regard clinique du soignant. Le diagnostic reste, et restera, profondément humain.