top of page

FOCUS #37

26 mars 2026

L'IA enseigne déjà. 
À quoi sert encore un professeur de médecine ?

En France, selon l’enquête internationale TALIS 2024, seuls 14 % des enseignants déclarent utiliser l’intelligence artificielle dans leur travail, contre 36 % en moyenne dans les pays de l’OCDE et plus de 75% à Singapour. Ce retard n’est pas technologique. Il est culturel et institutionnel. Et il pose une question que l’enseignement médical ne peut plus éluder : pendant que les outils se transforment, nos facultés sont-elles en train de passer à côté d’une révolution pédagogique majeure ?

La sortie publique de ChatGPT en novembre 2022 a provoqué, dans la communauté médicale universitaire, des réactions qui oscillent encore entre fascination et rejet. Pourtant, loin des postures, quelque chose d’essentiel est en train de changer : la nature même de ce que fait un enseignant de médecine.

 

 

 

 

 

 

 

 

 

 

 

De Laennec à l’algorithme

L’enseignement médical a longtemps été une affaire d’incarnation. Corvisart, Laennec, Trousseau : leurs cours étaient des récits vivants, la transmission d’une sagesse acquise au chevet du malade. L’enseignant n’était pas seulement la source du savoir, il en était la preuve vivante. Ce modèle a été progressivement balayé par l’essor de la littérature scientifique. Aujourd’hui, enseigner la médecine, c’est synthétiser un corpus en expansion permanente et incluant des articles évalués par des pairs, des méta-analyses et des recommandations internationales. La base la plus utilisée par les enseignants et les chercheurs en médecine, PubMed, recense plus d’un million de nouvelles publications biomédicales chaque année. Aucun être humain ne peut en absorber plus qu’une fraction et l’enseignant est donc devenu un curateur du consensus scientifique. Or dans cette tâche précise, l’intelligence artificielle le surpasse, et de loin.

Ce que la machine fait mieux

Interrogé sur l’état de la littérature en médecine fœtale, en cardiologie interventionnelle ou en infectiologie, un modèle de langage de dernière génération produit en quelques secondes une synthèse structurée, cohérente, actualisée que l’enseignant le plus rigoureux aurait mis des jours à construire. Orienté vers des sources sélectives comme le New England Journal of Medicine, The Lancet ou JAMA pour ne citer que les publications les plus prestigieuses, il peut garantir un niveau de preuve que le processus manuel peinait à assurer.

Cet état de fait est désormais étayé par la littérature. Dès février 2023, deux études publiées simultanément ont montré que ChatGPT atteignait ou dépassait le seuil de réussite de l’examen américain de qualification médicale (USMLE) sans aucun entraînement spécialisé2,3. Plus troublant encore : une étude publiée dans Academic Medicine en 2024 a comparé des QCM rédigés par un enseignant expérimenté à des QCM générés par ChatGPT sur les mêmes objectifs pédagogiques : la difficulté était statistiquement identique et les étudiants étaient incapables de distinguer l’origine des questions dans près d’un cas sur deux4. La question n’est donc plus de savoir si l’IA peut produire du contenu pédagogique de qualité. Elle le peut. La question est : que reste-t-il alors du rôle du professeur ?

L’enseignant ne disparaît pas, il se transforme

La réponse n’est ni la capitulation ni le déni. Elle est dans la transformation du métier. L’enseignant qui passait ses soirées à composer des diapositives peut désormais consacrer ce temps à ce que la machine ne sait pas faire : contextualiser, nuancer, transmettre l’incertitude clinique, introduire le cas réel qui déroge à la règle, construire le récit qui relie les faits à la pratique. Il n’est plus auteur du cours, il en est l’architecte, le validateur, l’interprète. Plusieurs équipes pédagogiques françaises ont expérimenté cette approche : en fournissant à un assistant IA une sélection d’articles de référence, elles ont produit en quelques heures des ensembles pédagogiques complets, ensuite revus, enrichis et humanisés par les enseignants. Le résultat n’est ni un cours généré par la machine, ni un cours traditionnel : c’est un contenu hybride, assisté par l’IA et bonifié par l’expertise humaine.

Bien sûr, les risques existent : hallucinations, biais, simplifications abusives. Ces biais existent également à travers la lecture et la compréhension ou l’interprétation humaines. Curieusement ces hallucinations-là sont moins vilipendées car plus humaines... Ils imposent une vigilance permanente mais ils ne remettent pas en cause la réalité principale : l’IA est d’ores et déjà un collaborateur pédagogique. La résistance à ce constat est humaine, compréhensible mais aussi contre-productive. Au-delà des hallucinations factuelles, un angle plus profond mérite attention : les systèmes d’IA embarquent des valeurs implicites – en matière d’équité, de priorisation, de définition du risque – que ni l’étudiant ni le clinicien ne perçoivent spontanément. Former les futurs médecins à identifier ces présupposés éthiques encodés dans les outils qu’ils utilisent devient dès lors une compétence médicale à part entière⁴.

Le paradoxe du diplôme de pédagogie

C’est ici que le bât blesse le plus visiblement. Le DIU (diplôme inter-universitaire) de pédagogie médicale est aujourd’hui un prérequis attendu et même souvent exigé par le Conseil national des universités pour tout candidat à un poste de maître de conférences (MCU-PH) ou de professeur (PU-PH) en médecine. Il constitue, en théorie, la formation de référence pour enseigner la médecine au XXIème siècle.

Or, aucune des maquettes officielles 2025-2026 de six grandes universités incluant Sorbonne, Paris Cité, Grand Ouest, Caen, Amiens et Montpellier, ne consacre un seul module à l’intelligence artificielle générative comme outil pédagogique. Les rubriques « numérique » existent mais elles couvrent les boîtiers de vote, les plateformes e-learning, les modules à distance. L’absence de ChatGPT, Claude, Copilot, Mistral ou encore Open Evidence, entre autres, est remarquable. Ce n’est pas une critique de l’engagement des formateurs, c’est un constat de délai institutionnel. D’ailleurs, les enseignants n’ont pas attendu : une enquête menée à la Faculté de médecine de Sorbonne Université révèle que 45 % d’entre eux utilisent déjà des outils d’IA dans leur pratique pédagogique. Deux ateliers de sensibilisation y ont été développés en réponse, mais hors maquette officielle, en complément du DIU.

Le paradoxe est saisissant : le diplôme censé préparer les enseignants aux enjeux pédagogiques contemporains est en retard sur les pratiques de ceux qu’il est supposé former. Et encore plus souvent en retard, n’en doutons pas, sur leurs étudiants. Une évolution des maquettes est probable pour 2026-2027, portée par l’obligation réglementaire d’intégrer l’IA dans le premier cycle des études de santé depuis la rentrée 2025. Mais le signal envoyé reste préoccupant : la formation pédagogique institutionnelle réagit, elle n’anticipe pas.

 

L’IA peut-elle enseigner le savoir-être ?

La question du savoir-être médical qui recouvre l’empathie, la présence au patient, la gestion de l’incertitude émotionnelle, l’annonce d’un diagnostic grave, est souvent présentée comme le dernier sanctuaire exclusivement humain de la formation médicale. La réalité est plus nuancée. Les outils d’IA générative offrent déjà des possibilités pédagogiques inédites dans ce domaine : simulation de patients virtuels permettant de répéter des entretiens difficiles sans risque pour un vrai malade, jeux de rôles sur l’annonce d’un cancer ou la gestion d’un refus de soins, analyse du ton et de la formulation dans les réponses écrites de l’étudiant. Des études récentes montrent que les étudiants en médecine entraînés avec des patients simulés par IA améliorent leur aisance communicationnelle et leur tolérance à l’ambiguïté⁵. 

Pour autant, l’IA ne peut pas être le seul vecteur du savoir-être. Elle peut créer les conditions de l’exercice, mais non transmettre ce qui ne se transmet qu’en présence : le modèle identificatoire que constitue un clinicien expérimenté face à la souffrance réelle, la façon dont il habite le silence, dont il choisit ses mots, dont il résiste à l’urgence de répondre quand le patient a besoin d’être entendu. Sur ce point, l’enseignant reste irremplaçable, non pas parce que la machine est incapable de simuler l’empathie, mais parce que l’étudiant doit avoir vu un autre être humain l’exercer, avec tout ce que cela coûte.

Enseigner, demain

Que restera-t-il du rôle de l’enseignant lorsque l’étudiant maîtrisera lui-même les outils pour produire ses propres contenus à partir d’une recherche bibliographique ? Et plus encore : quelle sera sa place le jour où l’IA sera capable d’évaluer les acquis, d’attribuer une note, de délivrer une validation autant de fonctions jusqu’ici au cœur même de l’autorité enseignante ? Ces questions ne sont pas rhétoriques. Elles dessinent le contour d’une profession qui doit se réinventer, non par contrainte, mais parce que c’est précisément ce qu’on attend d’un enseignant : transmettre non pas ce qu’il sait, mais comment on apprend à penser. 

Yves Ville* et Joseph Bonan**

* Professeur de Gynécologie-Obstétrique, Université Paris-Cité, président du Conseil scientifique de Lisa et ** Médecin échographiste et créateur de contenus pédagogiques

1. OCDE. TALIS 2024 – Enquête internationale sur l’enseignement et l’apprentissage. OCDE, 2025.

2. Kung TH, et al. Performance of ChatGPT on USMLE: Potential for AI-assisted medical education using large language models. PLOS Digital Health. 2023;2(2):e0000198.

3. Gilson A, et al. How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment. JMIR Medical Education. 2023;9:e45312.

4. Laupichler MC, et al. Large Language Models in Medical Education: Comparing ChatGPT- to Human-Generated Exam Questions. Academic Medicine. 2024;99(5):508-512.

4. Goldberg C, Balicer RD, Bhat M, et al. The Missing Dimension in Clinical AI: Making Hidden Values Visible. NEJM AI. 2026;3(2). DOI: 10.1056/AIp2501266.

5. Källström M, et al. AI-simulated patient encounters improve medical students’ communication skills and tolerance for uncertainty: a randomized study. Medical Education Online. 2024;29(1):2356193.

contact.lisalab@gmail.com / www.lisa-lab.org

Capture d’écran 2026-03-26 à 13.42.43.png
bottom of page