IA et pratique médicale : l’érosion des compétences en question
L’usage des outils d’aide au diagnostic et de rédaction médicale se banalise. Mais cette délégation croissante comporte des dérives possibles. Accorder une confiance excessive à ces systèmes peut modifier la façon dont les médecins observent, décident, apprennent et raisonnent. L’évolution ne se limite pas à une transformation organisationnelle ; elle touche le rapport même au savoir médical. Deux phénomènes sont aujourd’hui décrits : le deskilling, soit la perte progressive de compétences, et le neverskilling, l’absence d’acquisition de ces compétences chez les jeunes praticiens formés avec l’intelligence artificielle (IA).
Ce questionnement sur une déqualification du savoir n’est pas nouveau. La philosophe américaine Shannon Vallor alertait en 2015, dans Moral deskilling and upskilling in a new machine age: reflections on the ambiguous future of character, sur les effets de l’automatisation et des technologies sur les compétences humaines et le jugement moral. Elle y voyait déjà le risque d’un affaiblissement du discernement au profit de comportements orientés par la machine.
Quelles formes cette évolution peut-elle prendre dans le champ médical ? Dans AI-induced deskilling in medicine (août 2025), Chiara Natali et al. décrivent une possible atrophie du raisonnement clinique : le médecin n’élabore plus un diagnostic, il valide une proposition algorithmique. Ce déplacement du geste intellectuel fragiliserait la capacité d’analyse autonome.
Selon les auteurs, cette perte de maîtrise ne se limite pas au processus décisionnel: elle s’étend aux dimensions techniques, sociales, morales et cognitives de la pratique médicale. Ils distinguent ainsi le technical deskilling (affaiblissement des gestes et procédures), le decision-making deskilling (altération du discernement), le social deskilling (érosion de la relation au patient), le moral deskilling (fragilisation du jugement éthique) et, plus largement, le semiotic deskilling (perte de la capacité interprétative permettant de relier les signes cliniques au sens médical global).
Ce recul de l’initiative influe aussi sur la manière dont les compétences se transmettent. Parmi les professionnels de santé interrogés pour son étude The AI Competence Paradox (août 2025), Christina Nilsson note que les cliniciens expérimentés ne perçoivent pas encore de perte directe de compétence avec les IA actuelles, mais disent craindre une rupture générationnelle. Ils estiment que les futurs professionnels, formés dans un environnement saturé d’IA, risquent de ne jamais développer certains automatismes d’analyse. La chercheuse décrit une phase d’équilibre provisoire avant un transfert durable des savoirs vers la machine.
Elle mentionne notamment la disparition des foundational knowledge-building opportunities – ces apprentissages issus de la répétition de gestes et de la confrontation directe au doute – remplacés par des vérifications algorithmiques.
Cette analyse rejoint celle de Chiara Natali et al. pour qui la raréfaction des cas simples confiés aux outils automatisés prive les jeunes cliniciens de situations d’apprentissage fondamentales. Ils citent notamment la pathologie. « Si l’IA trie et gère automatiquement tous les cas les plus simples, dans ce scénario, les pathologistes risquent de perdre leur familiarité avec les cas courants, ce qui entraînera l’apparition de futures générations de pathologistes qui ne maîtrisent plus la majorité des lésions. »
Un apprentissage sous assistance
L’effet se manifeste déjà dans la formation. Mattia Savardi et al., dans Upskilling or deskilling ? (janvier 2025), ont montré que si l’usage d’outils d’aide à la lecture d’images améliore la précision, il tend aussi à réduire l’initiative diagnostique des internes. Les auteurs soulignent la nécessité d’évaluer à la fois les effets d’apprentissage et de désapprentissage, et rappellent qu’une vigilance critique reste possible lorsque le praticien conserve une distance réflexive vis-à-vis du système.
Publiée en avril 2024 dans le Journal of Medical Internet Research, l’étude Large language models and user trust d’Avishek Choudhury décrit un risque plus global : les modèles d’IA s’entraînent désormais sur leurs propres productions, créant une boucle auto-référentielle qui dégrade la diversité des données et, par effet miroir, celle du jugement humain. Le praticien, rassuré par des résultats cohérents mais opaques, perd peu à peu le réflexe de questionner le cheminement intellectuel.
Ces évolutions posent aussi la question de la responsabilité. Si une erreur découle d’un conseil algorithmique, qui en répond ? Natali et al. plaident pour une observation longitudinale de l’effet de l’IA sur la compétence médicale et pour la mise en place de cadres destinés à préserver l’autonomie de jugement. De son côté, Nilsson appelle les institutions de santé à identifier sans tarder les gestes et la démarche réflexive essentiels à l’exercice médical, avant qu’ils ne disparaissent des pratiques.
Préserver le raisonnement clinique
Ce phénomène de désapprentissage ne s’arrête pas aux praticiens en exercice : il se prolonge chez ceux qui se forment déjà dans un environnement assisté. C’est là qu’émerge le neverskilling, forme nouvelle de dépendance cognitive. Le neverskilling désigne la situation d’un praticien qui n’a jamais appris à décider sans assistance. « Tout comme les navigateurs perdent leur “carte mentale” du terrain lorsqu’ils s’en remettent trop au GPS, les médecins risquent de perdre leur “carte clinique” – ce réseau complexe de connaissances et d’intuitions construit au fil d’années de diagnostic, d’observation et de synthèse », remarque Nilsson. Moins confrontés à l’incertitude, les jeunes cliniciens acquièrent plus difficilement les réflexes de vérification et de doute qui fondent la démarche de diagnostic.
Les données recueillies par Nilsson montrent que cette tendance touche déjà certaines spécialités à forte intégration numérique, comme la radiologie et la pathologie numérique, où l’observation manuelle directe devient marginale.
Plusieurs pistes sont avancées dans son étude pour parer à ces dérives potentielles : adapter la formation afin de préserver les compétences cliniques fondamentales, maintenir des apprentissages pratiques et un raisonnement autonome, même lorsque certaines tâches sont automatisées. Elle insiste également sur le rôle des organisations, appelées à identifier les compétences essentielles et à mettre en place des garde-fous pour prévenir leur érosion. L’enjeu est de concevoir l’usage de l’IA de manière à renforcer la pratique médicale sans en amoindrir la maîtrise critique.
Ce questionnement trouve un prolongement empirique dans les travaux de Savardi et al., qui apportent un éclairage complémentaire sur les mécanismes favorisant la préservation des compétences. Huit internes ont évalué 150 radiographies thoraciques de patients COVID-19 selon trois scénarios : sans IA, avec IA à la demande et avec IA intégrée. Le système BS-Net, déployé sur l’interface RIS/PACS de l’hôpital, présentait graphiquement les niveaux de confiance pour chaque score attribué par l’IA dans les différentes régions pulmonaires, accompagnés d’une carte d’explicabilité offrant un aperçu du fonctionnement de l’algorithme. Dans leurs réponses au questionnaire, les internes ont rapporté que ces cartes explicatives contribuaient à construire leur confiance envers l’IA (score moyen de 5/7 sur l’échelle de Likert). Cette forme de transparence pourrait favoriser un usage de l’IA comme outil d’apprentissage plutôt que comme simple substitut au jugement médical.
De la dépendance à l’alliance cognitive
La valeur de la médecine ne réside pas seulement dans l’exactitude du résultat, mais dans la compréhension du chemin qui y conduit, observent en substance Chiara Natali et al. Entre efficacité technique et maintien du savoir clinique, la ligne de partage devient étroite : c’est sur ce terrain que se joue la place réelle de l’intelligence artificielle dans la pratique médicale.
Dans son livre The AI mirror: How to reclaim our humanity in an age of machine thinking, paru en 2024, Shannon Vallor met de nouveau en garde contre un appauvrissement des compétences humaines qui dépasse le simple recours à la technique et interroge la façon dont l’humain conserve la maîtrise de son jugement face aux systèmes automatisés.
Mais l’IA ne condamne pas le jugement humain à tout effacement. Si elle est utilisée comme un « partenaire » d’analyse, elle peut devenir un levier de discernement et de formation continue.
Pour Nilsson, l’IA utilisée de façon critique peut contribuer à préserver les compétences existantes plutôt qu’à les affaiblir.
L’enjeu n’est donc pas de s’opposer à la machine, mais de protéger la capacité de réflexion qui permet d’en tirer le meilleur.
Pierre Derrouch
Références :
Vallor S. Moral deskilling and upskilling in a new machine age: reflections on the ambiguous future of character. Philosophy & Technology. 2015;28(1):107-124. DOI: 10.1007/s13347-014-0156-9
Shannon Vallor. The AI Mirror: how to reclaim our humanity in an age of machine thinking. Oxford University Press, 2024.
Natali C, Marconi L. et al. AI-induced deskilling in medicine: risks, mechanisms, and safeguards. Artificial Intelligence Review. 2025 ; DOI: 10.1007/s10462-025-11352-1
Nilsson C. The artificial intelligence (ai) competence paradox: how ai reshapes clinical expertise. Transforming Government: People, Process and Policy. 2025; DOI: 10.1108/TG-02-2025-0048
Savardi M, Signoroni A, Benini S, Vaccher F, Alberti M, Ciolli P, et al. Upskilling or deskilling? measurable role of an ai-supported training for radiology residents: a lesson from the pandemic. Insights into Imaging. 2025;16:23. DOI: 10.1186/s13244-024-01893-4
Choudhury A, Chaudhry Z. Large language models and user trust: consequence of self-referential learning loop and the deskilling of healthcare professionals. J Med Internet Res. 2024;26:e56764. DOI: 10.2196/56764