Skip to main content
Log in

Une synthèse du dossier médical pour décider aux urgences : le projet LERUDI

A summary of the patient’s medical notes as a decision making tool in accident and emergency : The LERUDI Project

  • Article Original / Original Article
  • Published:
Annales françaises de médecine d'urgence

Résumé

Résumé

Le logiciel LERUDI–LEcture Rapide aux Urgences du Dossier Informatisé - a été conçu pour faciliter l’exploration et la recherche dans le dossier patient informatisé (DPI) des patients polypathologiques en structure de médecine d’urgence (SAMU - Centre 15 ou service d’urgences). L’objectif de ce travail était d’évaluer la pertinence des termes retenus par le prototype pour les médecins urgentistes.

Méthode

Un outil francophone de traitement du langage naturel a été créé puis affiné autour d’une ontologie de la médecine d’urgence. Des comptes rendus hospitaliers, anonymisés, ont été annotés par le logiciel. Des urgentistes ont jugé la pertinence de ces annotations.

Résultats

Dix-huit pour cents des mots des 406 comptes rendus hospitaliers évalués sont considérés comme « important pour la pratique » par ces experts. Sur les documents annotés par le prototype, le taux de rappel est de 89 %, le taux de précision de 81 % et le taux de contresens de 2 %. Ces chiffres atteignent les seuils de performance requis pour un outil de recherche sémantique.

Conclusion

En laboratoire, LERUDI est adapté à une utilisation par les urgentistes. Il doit encore être évalué en structure de soins. Ses modules pourraient être adaptés au dossier médical personnel (DMP) ou au programme SI-Samu pour la synthèse des épisodes de régulation médicale des patients et le traitement secondaire des données.

Abstract

Abstract

The LERUDI software has been created to facilitate the study of computerized medical records of patients suffering multiple pathologies in an A&E medical centre. The aim of this project was to assess whether the content selected by the prototype is relevant to the Emergency doctors.

Method

A French natural language processing tool was created and refined with a focus on emergency medical ontology. The software annotated anonymized medical reports. Emergency doctors evaluated the relevance of these annotations.

Results

406 medical reports that where analyzed, Emergency doctors considered 18% of the words were “useful for their medical skills”. The software found 88% of those words, with 80% accuracy and 2% of misinterpretation. These data reach the required performance threshold for a semantic search tool.

Conclusion

During this preliminary phase, LERUDI was successfully used by the doctors. The software still needs to be evaluated in medical care structures. Its modules could be adjusted to the individual medical reports or to the A&E information system (SI-SAMU) to synthesize the EMS calls of the patient and for secondary data processing. With its innovative and ergonomic user interface, this software could become a precious help to review a patient’s medical report during the time constraint of the emergency.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Références

  1. Mishra R, Bian J, Fiszman M, et al (2014) Text summarization in the biomedical domain: a systematic review of recent research. J Biomed Inform 52:457–67

    Article  PubMed  Google Scholar 

  2. ASIP Santé (2010) Le projet LERUDI: fiche signalétique. http:// esante.gouv.fr/actus/services/le-projet-lerudi-fiche-signaletique (Dernier accès 15/03/2017)

  3. Rapport d’activité 2013. Sécurité sociale/assurance maladie. www.ameli.fr (Dernier accès 7 février 2016)

  4. Perry WM, Lee CI, Steers WN, et al (2013) Time-motion analysis of emergency radiologists and emergency physicians at an urban academic medical center. Emerg Radiol 20:409–16

    Article  PubMed  Google Scholar 

  5. Garg AX, Adhikari NK, McDonald H, et al (2005) Effects of computerized clinical decision support systems on practitioner performance and patient outcomes: A systematic review. JAMA 293:1223–38

    Article  CAS  PubMed  Google Scholar 

  6. Charlet J, Declerck G, Dhombres F, et al (2012) Construire une ontologie médicale pour la recherche d’information: problématiques terminologiques et de modélisation. IC 2012, Presses Universitaires de Grenoble, https://hal.archives-ouvertes.fr/hal-00717807/ document (Dernier accès le 15/03/2017)

  7. Google (2012) Introducing the Knowledge Graph: things, not strings. https://googleblog.blogspot.fr/2012/05/introducing-knowledge- graph-things-not.html (Dernier accès 15/03/2017)

  8. Organisation Mondiale de la Santé (OMS) (2008) Classification statistique internationale des maladies et des problèmes de santé connexes CIM-10. http://apps.who.int/classifications/icd10/browse/ 2008/fr (Dernier accès le 15/03/2017)

  9. Snomed 3,5VF. http://esante.gouv.fr/services/referentiels/referentiels-d-interoperabilite/snomed-35vf (Dernier accès 8 janvier 2017)

  10. Classification Commune des Actes Médicaux (CCAM) v41. www.ameli.fr/accueil-de-la-ccam/telechargement/historique/ index.php (Dernier accès 30 octobre 2015)

  11. World Health Organisation (WHO) collaborating center for drug statistic methodology. Structure and principles of the (ATC) classification system. www.whocc.no/atc (Dernier accès 8 janvier 2017)

  12. Koppel R, Metlay JP, Cohen A, et al (2005) Role of computerized physician order entry systems in facilitating medication errors, JAMA 293:1197–203

  13. Pereira S, Névéol A, Kerdelhue G, et al (2008) Using multiterminology indexing for the assignment of MeSH descriptors to health resources in a French online catalogue. AMIA Annu Sump Proc 586–90

    Google Scholar 

  14. Landis JR, Koch GG (1977) The measurement of observer agreement for categorical data. Biometrics 33:159–174

    Article  CAS  PubMed  Google Scholar 

  15. Charlet J (2016) Ontologie des urgences http://bioportal.lirmm.fr/ ontologies/ONTOLURGENCES (Dernier accès le 8 janvier 2017)

  16. Andronikof M, Lucas-Amichi A (2014) Dessine-moi un service d’urgences. Comment les médecins non urgentistes se représentent-ils un service d’urgences idéal ? Ann Fr Med Urgences 4:354–60

    Google Scholar 

  17. Brown PJ, Marquard JL, Amster B, et al (2014) What do physicians read (and ignore) in electronic progress notes? Appl Clin Inform 5:430–44

    Article  CAS  PubMed  PubMed Central  Google Scholar 

  18. Health Level Seven International. www.hl7.org (Dernier accès 8 janvier 2017)

  19. Kohn LT, Corrigan JM, Donaldson MS (2000) To err is human–building a safer health system. National academy press, Washington DC

    Google Scholar 

  20. Ahmed A, Chandra S, Herasevich V, et al (2011) The effect of two different electronic health record user interfaces on intensive care provider task load, errors of cognition, and performance. Crit Care Med 39:1626–34

    Article  PubMed  Google Scholar 

  21. Jensen S, Kushniruk AW, Nohr C, et al (2015) Clinical simulation: A method for development and evaluation of clinical information systems. J Biomed Inform 54:65–76

    Article  PubMed  Google Scholar 

  22. Heudel P, Livartowski A, Arveux P, et al (2016) ConSore: un outil permettant de rentrer dans le monde du big data en santé. Bull Cancer 103:949–50

    Article  PubMed  Google Scholar 

  23. ASIP-Santé (2016) Programme SI-Samu. http://esante.gouv.fr/ services/programme-si-samu (Dernier accès le 15/03/2017)

  24. Rosse C, Mejino JLV (2007) The Foundational model of anatomy ontology. In: A. Burger, D. Davidson, and R. Baldock, editors, Anatomy Ontologies for Bioinformatics: Principles and Practice, London, Springer, Ed. London, pp. 59–117

    Google Scholar 

  25. Charlet J, Mazuel L, Declerck G et al (2014) Describing localized diseases in medical ontology: an FMA-based algorithm. Stud Heath Technol Inform 205:1023–7

    Google Scholar 

  26. Bringay S, Barry C, Charlet J (2005) Les annotations pour gérer les connaissances du dossier patient. IC 2005 16e journées francophones d’Ingénierie des Connaissances, Presses universitaires de Grenoble 73-84. https://hal.archives-ouvertes.fr/hal-01023761/ document (Dernier accès 15/03/2017)

  27. Osheroff JA, Pifer EA, Sittig DF, et al (2004) Clinical decision support implementers’ workbook, HIMSS, Chicago

  28. Haute autorité de santé (HAS) (2012) Référentiel de certification par essai de type des logiciels hospitaliers d’aide à la prescription. http://www.has-sante.fr/portail/upload/docs/application/pdf/2012- 06/referentiel_certification_lap_hospitalier_juin12.pdf (Dernier accès le 15/03/2017)

  29. Meystre SM, Savova GK, Kipper-Schuler KC, et al (2008) Extracting information from textual documents in the electronic healthrecord: a review of recent research. Yearb Med Inform 128–44

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to P. Gayet.

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Gayet, P., Charlet, J., Janin, N. et al. Une synthèse du dossier médical pour décider aux urgences : le projet LERUDI. Ann. Fr. Med. Urgence 7, 166–173 (2017). https://doi.org/10.1007/s13341-017-0755-z

Download citation

  • Received:

  • Accepted:

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s13341-017-0755-z

Mots clés

Keywords

Navigation