La simulation : l'antidote à la dette cognitive ?

 

 "L’intelligence artificielle est créée par des humains, conçue pour se comporter selon des intentions humaines, et destinée, en fin de compte, à impacter les vies humaines et la société. "
"Ces systèmes restent entièrement dépendants des décisions humaines."

" l’intelligence artificielle ne définit pas à elle seule le futur.C’est la manière dont nous choisissons de la concevoir et de l’utiliser qui déterminera son rôle dans nos vies et dans la société." 

Fei Fei Li

Fei-Fei Li, née en  à Pékin, est une informaticienne et chercheuse américaine spécialiste de la vision artificielle. Professeure d'informatique à l'université Stanford, elle est aussi co-directrice du Stanford Institute for Human-Centered Artificial Intelligence, et co-directrice du Stanford Vision and Learning Lab.

Elle dirige le Stanford Artificial Intelligence Laboratory (SAIL) de 2013 à 2018. En 2017, elle co-fonde AI4ALL (Intelligence artificielle pour tous), pour augmenter la diversité et l'inclusion dans le domaine de l'IA.

Ses activités de recherche concernent  l'apprentissage automatique, l'apprentissage profond, la vision par ordinateur et les neurosciences cognitives. Elle est la principale instigatrice de la base d'images ImageNet (WIKIPEDIA)

 Gemini Generated Image si8wwdsi8wwdsi8w

[Simulation] IA et compétences médicales : et si la simulation était l'antidote à la dette cognitive ?

Lucile Sivot ✍️ / LINKEDIN 

Communication E-Santé | 🧑‍⚕️ Plongez au cœur du numérique Evidence Based Medicine
24 mars 2026

1774352232947
« Je le savais pourtant. Pourquoi je ne l'ai pas fait ? »

Cette phrase, le Dr Frédéric Martin, médecin anesthésiste-réanimateur à la Clinique des Franciscaines, l'a entendue des centaines de fois. Dans les salles de débriefing, après les simulations, quand le stress est redescendu et que la lucidité revient.

Elle résume à elle seule ce que les sciences cognitives documentent depuis des décennies : l'erreur n'est pas l’expression d'une défaillance. Elle est « humaine ». En situation de stress, le professionnel de santé perd jusqu'à 50% de ses capacités cognitives. Chacun d'entre nous produit 3 à 10 erreurs par heure, indépendamment de l'expérience et du niveau de compétences [1].

👉 L'essor de l'IA au bloc, aux urgences et en consultation interroge:si l'IA compense une partie de cette charge cognitive au quotidien, que se passe-t-il le jour où elle n'est plus disponible ❓

L'IA AMÉLIORE LA PERFORMANCE. ELLE MODIFIE AUSSI LE RAISONNEMENT.

Trois études récentes éclairent ce double mouvement de façon convergente.

1️⃣En gastroentérologie, une étude publiée dans The Lancet Gastroenterology & Hepatology en 2025 a mesuré ce que les chercheurs appellent le "deskilling" ou la perte de compétences : des endoscopistes exposés régulièrement à l'IA de détection des adénomes voient leur taux de détection baisser de 6 points lorsqu'ils pratiquent sans assistance algorithmique. L'outil semble fragiliser l’expertise en son absence [2].

2️⃣ Au MIT, une étude en préprint a mesuré par EEG l'activité cérébrale de rédacteurs utilisant ChatGPT de façon régulière : les chercheurs observent une réduction significative de l'engagement cognitif. La dette cognitive s'accumule silencieusement, sans que le professionnel en ait conscience [3].

3️⃣ En miroir, une troisième étude sur le triage de douleur thoracique montre que l'IA augmente la conformité décisionnelle de 18 points - preuve que l'outil peut aussi renforcer la pratique [4].

📌 Ces trois résultats coexistent. Ensemble, ils dessinent une réalité plus nuancée qu'il n'y paraît : l'IA améliore ce qu'elle assiste, et fragilise ce qu'elle remplace. La frontière entre les deux n'est pas toujours visible au moment où elle se déplace.


🧠 LE CERVEAU SÉQUENTIEL NE SE SOUVIENT PAS DE TOUT

Pour comprendre pourquoi ce phénomène touche même les soignants les plus expérimentés, il faut revenir à un principe fondamental des sciences cognitives : le cerveau est séquentiel.

👉 Quand des tâches requièrent une attention consciente, il les gère de manière alternativement séquentielle - il ne peut pas en traiter plusieurs simultanément avec la même fiabilité. Or, s'il délègue progressivement certaines d'entre elles à un algorithme, il cesse de les exercer.

La courbe de l'oubli, décrite par Ebbinghaus dès 1885, est implacable : après trois mois sans pratique active, environ 20% seulement des connaissances acquises sont disponibles en mémoire [5]. Et ce constat est fait en situation normale. Sous l'effet du stress, les "tiroirs" se ferment encore plus vite.

📌 L'érosion des compétences cognitives sous l'effet de la délégation algorithmique est un mécanisme documenté, inhérent au fonctionnement du cerveau humain, que la généralisation de l'IA rend simplement plus visible et plus urgent à considérer.


LA SIMULATION COMME CONTRE-POIDS : UNE HYPOTHÈSE QUI SE CONSOLIDE

🔵 La simulation avec aides cognitives numériques présente une option remarquable pour l'entretien actif du raisonnement autonome.

Le Dr Jean-Christophe Cejka, médecin anesthésiste-réanimateur aux Hospices Civils de Lyon, formule le principe ainsi : « Quelle que soit la qualité des formations, il nous arrivera toujours d'avoir à gérer une situation inhabituelle à distance de la formation, stressante ou à fort enjeu. Dans ces situations, il est illusoire de ne compter que sur le rappel aux connaissances. »

L'adage du Général George S. Patton - "You fight like you train" - prend ici une dimension nouvelle. Si le soignant s'entraîne avec l'IA, il performera avec l'IA. Mais s'il ne s'entraîne pas sans elle, il ne saura plus performer sans elle.

Un travail pilote récent évalue l'impact d'une aide cognitive digitale séquentielle personnalisée sur le maintien des compétences dans le temps : une seule session d'entraînement avec cet outil permet non seulement d'améliorer les performances techniques par rapport aux fiches papier de référence, mais surtout de maintenir les compétences à distance de la formation [6]. Ce signal, encore préliminaire, ouvre une piste concrète : la simulation régulière avec des outils qui structurent le raisonnement étape par étape pourrait constituer le contrepoids naturel à la dette cognitive induite par l'usage quotidien de l'IA.

➡️ IA et compétence clinique autonome coexistent - à condition d'entretenir activement la seconde pour rester maître de la première.


🩺 À RETENIR

📌 En situation de stress, le soignant perd jusqu'à 50% de ses capacités cognitives, indépendamment de l'expérience.

📌 L'IA améliore la performance en présence, mais des études récentes suggèrent qu'elle peut fragiliser le raisonnement autonome à distance, via un mécanisme de délégation progressive.

📌 La courbe de l'oubli s'applique aux compétences cognitives comme aux connaissances : sans pratique active, elles s'érodent en quelques mois.

📌 La simulation avec aides cognitives numériques structurées pourrait constituer un dispositif d'entretien du raisonnement autonome - un entraînement sans IA pour mieux performer avec.

📌 Maintenir, à côté de l'usage des outils d'assistance algorithmique, un espace d'exercice délibéré du jugement clinique non assisté conditionne la robustesse du raisonnement.


💬 Et vous, prévoyez-vous des temps de simulation réguliers sans assistance algorithmique dans votre service ou votre formation continue ?

SOURCES

[1] Amalberti R. Piloter la sécurité. Théories et pratiques sur les compromis et les arbitrages nécessaires. Lavoisier, 2012.

[2] Budzyń K, Romańczyk M, Kitala D, Kołodziej P, Bugajski M, Adami HO, et al. Endoscopist deskilling risk after exposure to artificial intelligence in colonoscopy: a multicentre, observational study. Lancet Gastroenterol Hepatol. 2025 Oct;10(10):896–903. doi: 10.1016/S2468-1253(25)00133-5.

[3] Kosmyna N, Hauptmann E, Yuan YT, Situ J, Liao XH, Beresnitzky AV, et al. Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task. arXiv [Preprint]. 2025. doi: 10.48550/arXiv.2506.08872.

[4] Goh E, Bunning B, Khoong EC, Gallo RJ, Milstein A, Centola D, et al. Physician clinical decision modification and bias assessment in a randomized controlled trial of AI assistance. Commun Med. 2025 Mar 4;5:59. doi: 10.1038/s43856-025-00781-2.

[5] Paraschiv AP, Cejka JC, Lilot M, Aigle L, Lehot JJ, Balança B. Impact of a Digital Cognitive Aid on the Performance of Military Healthcare Teams During Critical Care Management in a Warfront Injury Situation: A Simulation Randomized Controlled Study. Simul Healthc. 2022;17(3):163-169. doi:10.1097/SIH.0000000000000623

[6] Perriguey C., Kabir-Idrissi I., Rouge J. Abstract SFAR 2023

SYNTHESE NOTEBOOKLM
Ce texte explore le paradoxe de l’intelligence artificielle en médecine, soulignant que si l'IA accroît l'efficacité immédiate, elle engendre également une dette cognitive et une perte de compétences autonomes chez les praticiens. L'auteure s'appuie sur des études récentes pour démontrer que la délégation algorithmique modifie le raisonnement humain, affaiblissant la capacité de décision lorsque l'outil n'est plus disponible. Face à ce risque de « désapprentissage » accentué par le stress et la courbe de l'oubli, l'article propose la simulation médicale comme un remède indispensable. Exercer cette pratique de façon régulière permet de conserver la force du jugement clinique, et garantit que le soignant reste maître de sa technologie et ne devienne pas dépendant.

Le prix caché de l'IA : pourquoi votre cerveau risque de « démissionner » (et comment l'en empêcher)
1. Introduction : Le paradoxe de la lucidité retrouvée
« Je le savais pourtant. Pourquoi je ne l'ai pas fait ? »
 
Cette interrogation, le Dr Frédéric Martin, anesthésiste-réanimateur, l’entend systématiquement lors des débriefings de simulation médicale. Une fois le stress retombé, la lucidité revient, mais le constat demeure : en plein cœur de l'action, le savoir ne suffit pas toujours.

En tant qu'experts de la transformation digitale, nous observons aujourd'hui l'IA s'installer au bloc opératoire et aux urgences comme une réponse prometteuse à la faillibilité humaine. Mais, derrière cette promesse de performance accrue s'en cache une autre, plus insidieuse : celle de la perte de nos propres facultés. En s'appuyant sur l'evidence-based medicine (médecine fondée sur les preuves), il devient impératif de se demander ce que deviennent la compétence humaine et la robustesse du jugement clinique le jour où l'algorithme s'absente.
 
2. Le chiffre qui fait réfléchir : -50 % de cerveau sous tension
Le milieu médical est un environnement de haute contrainte où le cerveau humain est mis à rude épreuve. Les données en sciences cognitives sont formelles : en situation de stress intense, un professionnel de santé peut perdre jusqu'à 50 % de ses capacités cognitives [1].

L’erreur est ainsi structurelle : chaque individu produit entre 3 et 10 erreurs par heure, indépendamment de son expérience ou de sa qualification. C'est précisément cette fragilité qui rend lintelligence artificiellee si séduisante. En prenant en charge une partie de la charge mentale, elle sécurise la pratique immédiate. Cependant, cette « béquille » technologique, si elle soutient le soignant dans l'instant, prépare en silence l'érosion de ses compétences futures.
 
3. Le « deskilling » ou l'érosion invisible de l'expertise
 
L'assistance algorithmique n'est pas neutre ; elle transforme la nature même de l'expertise. Pour comprendre cet enjeu, il faut regarder deux réalités convergentes :
  • Le revers de la médaille : une étude majeure publiée dans The Lancet Gastroenterology & Hepatology (2025) a mesuré le « deskilling ». Des endoscopistes utilisant régulièrement une IA de détection des adénomes voient leur performance chuter de 6 points lorsqu'ils doivent pratiquer sans assistance [2]. L'outil finit par émousser l'acuité du praticien.
  • Le bénéfice immédiat : À l'inverse, une étude sur le triage des douleurs thoraciques montre que l'IA augmente la conformité décisionnelle de 18 points [4].
Le diagnostic est clair : l'IA améliore ce qu'elle assiste, mais elle fragilise ce qu'elle remplace. La frontière entre l'assistance et la substitution est le pilier philosophique et technique sur lequel repose la sécurité des soins de demain.
 
4. La « dette cognitive » : Ce que votre cerveau délègue en silence
 
Pourquoi cette perte de performance survient-elle ? La réponse réside dans le fonctionnement de notre « cerveau séquentiel » : il ne peut simultanément traiter plusieurs tâches complexes avec une fiabilité égale.
 
Une recherche du MIT, qui a utilisé l’électroencéphalographie (EEG) pour étudier des utilisateurs d’IA générative, a montré une baisse marquée de l’engagement cognitif lorsqu’il s’agit de confier des tâches réflexives [3]. En déléguant la réflexion à l'algorithme, le cerveau cesse d'exercer les circuits neuronaux nécessaires à la tâche.
 
La dette cognitive s'accumule de manière invisible. À force de ne plus solliciter certaines fonctions de raisonnement, le professionnel s'affaiblit sans même en avoir conscience. Il ne s'agit plus d'une aide, mais d'une délégation qui atrophie la compétence.
 
5. La Loi d'Ebbinghaus : Pourquoi 3 mois suffisent à tout effacer
Le phénomène est aggravé par la courbe de l'oubli d'Ebbinghaus. Sans pratique active, les connaissances s'évaporent : après seulement trois mois sans sollicitation directe, seuls 20 % des connaissances acquises restent disponibles en mémoire [5].
 
 
 
En situation de crise, cet oubli est exacerbé. Comme le soulignent les praticiens de terrain, le stress a tendance à « fermer les tiroirs » de la mémoire. Si ces tiroirs n'ont pas été ouverts et rangés régulièrement par une pratique manuelle et intellectuelle autonome, le rappel des procédures devient quasi impossible en cas de défaillance technologique.
 
6. L'Antidote : « You fight like you train »
 
Face à ce risque de démission cognitive, la solution n'est pas de rejeter l'IA, mais de transformer l'entraînement. Comme l'explique le Dr Jean-Christophe Cejka (Hospices Civils de Lyon), il est illusoire de compter uniquement sur ses connaissances théoriques lors d'une crise imprévue.
L'adage du Général Patton, « You fight like you train », s'applique ici avec une rigueur scientifique. Pour maintenir une robustesse clinique, la simulation doit devenir le contrepoids de l'algorithme :
  • Simulation sans IA : Il est impératif de s'entraîner sans assistance pour ancrer les réflexes et garantir que le raisonnement autonome reste fonctionnel.
  • Aides cognitives digitales vs Papier : Des travaux pilotes ont évalué l'impact d'aides cognitives digitales séquentielles personnalisées. Contrairement aux fiches papier traditionnelles, ces outils numériques structurant le raisonnement étape par étape permettent non seulement d'améliorer la performance technique, mais surtout de mieux maintenir les compétences à distance de la formation [6].
  • Entraînement hybride : L'objectif est de s'entraîner sans IA pour être paradoxalement plus performant avec elle, tout en restant capable de piloter seul si le système tombe.
7. Conclusion : Vers une pratique hybride et consciente
L'Intelligence Artificielle est un levier de performance indéniable, mais elle agit comme un puissant vecteur de fragilisation du raisonnement à long terme si elle est utilisée comme un substitut. Le défi de la transformation digitale en santé ne sera pas seulement l'intégration des outils, mais le maintien d'un « espace d'exercice délibéré ».
La technologie doit demeurer une assistance au service de l'expertise humaine, et non une excuse à la démission cognitive. La sécurité des patients repose, in fine, sur la capacité du soignant à reprendre la main.
Et vous, prévoyez-vous des temps de simulation réguliers sans assistance algorithmique dans votre service ou votre formation continue ?
--------------------------------------------------------------------------------
À retenir
 
  • Fragilité humaine : Le stress réduit les capacités cognitives de 50 %, entraînant 3 à 10 erreurs par heure [1].
  • Performance vs autonomie : L'IA peut augmenter la conformité (ex: +18 pts en triage [4]) mais diminue l'acuité autonome (ex: -6 pts en détection [2]).
  • Dette cognitive : la délégation algorithmique réduit l'engagement cérébral (mesuré par EEG [3]), créant une érosion silencieuse des compétences.
  • Courbe de l'oubli : sans pratique active, 80 % des connaissances s'effacent en 3 mois ; le stress « ferme les tiroirs » de la mémoire [5].
  • La simulation structurée : L'usage d'aides cognitives digitales est plus efficace que le papier pour maintenir les compétences et garantir la robustesse du jugement [6].
--------------------------------------------------------------------------------
Sources : [1] Amalberti R. Piloter la sécurité, 2012. [2] Lancet Gastroenterol Hepatol. 2025. [3] Kosmyna N, et al. MIT Preprint 2025. [4] Goh E, et al. Commun Med. 2025. [5] Paraschiv AP, Cejka JC, et al. Simul Healthc. 2022. [6] Perriguey C., SFAR 2023.


EX1
 
EX2
 
EX3
 
EX4
 
EX6
 
EX7
 
EX8
 
EX9
 
Commentaire

Excellente mise au point, bravo ! 
En médecine, ce que l'on fait de mieux, ce sont les gestes que l'on répète depuis des années, que ce soit en médecine et en chirurgie. 
La venue de l'IA en médecine bouscule "le train-train quotidien". Mais laisser la place à l'IA  serait à l'origine de la diminution de l'expérience acquise par le médecin. 
Intégrer l'IA dans nos activités médicales sera possible effectivement avec une formation établie sur la simulation.
Le paradoxe de l'IA en médecine, c'est qu'elle ne doit pas empiéter sur l'expérience du médecin, au contraire elle est censée augmenter ses compétences, mais sans déperdition des capacités des médecins.
De plus, le médecin doit continuer à être vigilant et renforcer son expérience plutôt que de la déléguer à l'IA.
La coexistence de l'IA et du médecin  doit être "gagnant-gagnant".
La simulation des actes chirurgicaux dans l'apprentissage en réalité augmentée existe déjà avec succès.
Le concept IA/OUTIL reste la solution médicale idéale, c'est-à-dire que l'on peut envisager l'IMA : Intelligence Médicale Augmentée mais jamais Diminuée par l'IA .

AVIS OPEN AI

La délégation algorithmique présente un risque réel d'affaiblissement des compétences cliniques , particulièrement le "deskilling" (perte de compétences acquises), le "never-skilling" (échec à développer des compétences essentielles), et le "mis-skilling" (renforcement de comportements incorrects). La meilleure solution pour la coexistence IA/médecine repose sur un modèle d'intelligence hybride où l'IA complète plutôt que remplace l'expertise humaine, avec un encadrement structuré et une formation appropriée. [1]

Le problème de la délégation algorithmique

La recherche récente confirme vos préoccupations. Une étude randomisée de 2024 a démontré que l'accès seul aux grands modèles de langage (LLM) n'améliore pas le raisonnement diagnostique des médecins, malgré que l'IA dépasse significativement les performances humaines. [3]Plus préoccupant encore, les utilisateurs qui adoptent aveuglément les résultats de l'IA sans examen critique obtiennent de moins bons résultats, particulièrement ceux avec des performances globales plus faibles.[1]

Les études montrent une corrélation négative significative entre l'utilisation fréquente d'outils IA et les capacités de pensée critique, médiée par une augmentation du déchargement cognitif. Les participants qui dépendent davantage de l'IA montrent une réduction de l'engagement dans la résolution indépendante de problèmes et le raisonnement analytique.[1]Ce risque est particulièrement prononcé chez les apprenants plus jeunes et moins expérimentés, ainsi que dans les contextes de faible prévalence.[2][4]

Solutions pour une coexistence optimale

Figure 3. Utilisation de DEFT-AI pour promouvoir la pensée critique lors d'une interaction avec l'IA.

Utilisé sous licence du New England Journal of Medicine.

Le cadre DEFT-AI (Diagnosis, Evidence, Feedback, Teaching) illustre une approche structurée pour superviser l'utilisation de l'IA tout en préservant le raisonnement clinique. Cette approche transforme chaque interaction avec l'IA en moment éducatif qui favorise la pensée critique plutôt que la dépendance passive.[1]

Compétences essentielles identifiées

Six domaines de compétences ont été définis pour l'utilisation efficace de l'IA :[5]

  1. Connaissances de base de l'IA - Comprendre ce qu'est l'IA et ses applications

  2. Implications sociales et éthiques - Reconnaître les biais et questions d'équité

  3. Rencontres cliniques augmentées par l'IA - Intégrer l'IA dans les soins centraux sur le patient

  4. Évaluation fondée sur les preuves - Évaluer la qualité, l'exactitude et les biais des outils IA

  5. Analyse des flux de travail - Adapter les rôles et responsabilités

  6. Apprentissage continu - Participer au développement professionnel lié à l'IA

Stratégies de préservation des compétences

La littérature identifie plusieurs stratégies clés :[2][6]

Conception centrale sur l'humain : L'IA doit fournir des informations au bon moment (indices retardés ou activables plutôt qu'immédiats) pour éviter le biais d'automatisation tout en permettant au clinicien de raisonner d'abord.[2]

Raisonnement physiopathologique : L'éducation médicale doit aller au-delà des scripts de maladie et enseigner aux étudiants "comment penser" plutôt que "quoi penser", développant des compétences complémentaires que les machines ne peuvent pas facilement reproduire - raisonnement flexible, résolution créative de problèmes, et navigation de l'incertitude.[7]

Intelligence hybride : Un paradigme où les systèmes de soutien au raisonnement clinique (CRSS) effectuent des tâches empiriques clairement délimitées (raisonnement statistique, identification de patterns dans des données complexes) tandis que les cliniciens interprètent, intègrent et contextualisent ces informations.[6][8]

Formation et supervision structurées : Les programmes de formation continue doivent intégrer l'évaluation critique des outils IA, la détection des biais et l'interprétation des résultats d'explicabilité.[5][9-10]

Recommandations pratiques

Pour éviter la dépendance excessive tout en bénéficiant de l'IA :[2][9][11]

  • Maintenir la supervision humaine : Les médecins doivent interpréter les résultats de l'IA dans le contexte clinique individuel de chaque patient

  • Exiger la transparence : Les systèmes doivent indiquer quels facteurs ont contribué à leurs recommandations, permettant l'évaluation de la plausibilité médicale

  • Implémenter des mécanismes de sécurité : Surveillance post-déploiement, rapports d'événements indésirables, et évaluation continue

  • Former à l'utilisation critique : Enseigner les meilleures pratiques de formulation de requêtes (prompting) et l'évaluation critique des résultats

L'IA doit être considérée comme un outil qui assiste les cliniciens en soutenant de meilleures décisions plus rapides, plutôt que comme un substitut au jugement clinique.[11-12]Comme l'ont souligné les alertes de sécurité dans l'aviation et les leçons de l'industrie manufacturière, même dans des environnements hautement automatisés, l'expertise humaine reste essentielle pour la flexibilité, la pensée critique et la récupération rapide face à des situations imprévues.[13]

.
Stratégies pédagogiques pour la supervision clinique de l'utilisation de l'intelligence artificielle .
Le New England Journal of Medicine. 2025. Abdulnour RE, Gin B, Boscardin CK.Nouveau
.
.
Intelligence artificielle et déqualification en médecine .
The British Journal of Psychiatry : The Journal of Mental Science. 2026. Monteith S, Glenn T, Geddes JR, et al.Nouveau
.
Compétences requises pour l’utilisation des outils basés sur l’intelligence artificielle par les professionnels de la santé .
Médecine académique : Journal de l'Association des facultés de médecine américaines. 2023. Russell RG, Lovett Novak L, Patel M, et al.
.
Du système d'aide à la décision clinique aux systèmes d'aide au raisonnement clinique .
Journal d'évaluation en pratique clinique. 2021. van Baalen S, Boon M, Verhoef P.
.
La pensée critique au service de la médecine du XXIe siècle : dépasser les schémas de diagnostic de la maladie .
Journal de l'Association médicale américaine. 2025. Schwartzstein RM, Iyer AA.Nouveau
.
Intelligence artificielle pour le raisonnement clinique : le défi de la fiabilité et la voie vers une pratique fondée sur les preuves .
QJM : Journal mensuel de l'Association des médecins. 2025. Xu H, Wang Y, Xun Y, Shao R, Jiao Y.Nouveau
.
Vers un avenir responsable : recommandations pour une aide à la décision clinique basée sur l’IA .
Journal de l'Association américaine d'informatique médicale : JAMIA. 2024. Labkoff S, Oladimeji B, Kannry J, et al.
10 .
Des agents à la gouvernance : compétences essentielles en IA pour les cliniciens à l’ère des grands modèles de langage .
Journal de recherche médicale sur Internet. 2026. Cao W, Zhang Q, Liu J, Liu S.Nouveau
11 .
L’intelligence artificielle en médecine d’urgence : avantages, risques et recommandations .
Journal de médecine d'urgence. 2022. Vearrier L, Derse AR, Basford JB, Larkin GL, Moskop JC.
12 .
Tirer parti de l'intelligence artificielle pour réduire les erreurs de diagnostic en médecine d'urgence : défis, opportunités et orientations futures .
Médecine d'urgence universitaire : Journal officiel de la Société de médecine d'urgence universitaire. 2025. Taylor RA, Sangal RB, Smith ME, et al.
13 .
Automatisation pour optimiser le traitement des patients par les médecins : exemples en psychiatrie .
The Lancet. Psychiatrie. 2019. Bauer M, Monteith S, Geddes J, et al.





COPY1