Annales françaises de médecine d'urgence

, Volume 7, Issue 3, pp 166–173 | Cite as

Une synthèse du dossier médical pour décider aux urgences : le projet LERUDI

  • P. Gayet
  • J. Charlet
  • N. Janin
  • E. Clout
  • G. Decleck
  • P. Miroux
Article Original / Original Article

Résumé

Résumé

Le logiciel LERUDI–LEcture Rapide aux Urgences du Dossier Informatisé - a été conçu pour faciliter l’exploration et la recherche dans le dossier patient informatisé (DPI) des patients polypathologiques en structure de médecine d’urgence (SAMU - Centre 15 ou service d’urgences). L’objectif de ce travail était d’évaluer la pertinence des termes retenus par le prototype pour les médecins urgentistes.

Méthode

Un outil francophone de traitement du langage naturel a été créé puis affiné autour d’une ontologie de la médecine d’urgence. Des comptes rendus hospitaliers, anonymisés, ont été annotés par le logiciel. Des urgentistes ont jugé la pertinence de ces annotations.

Résultats

Dix-huit pour cents des mots des 406 comptes rendus hospitaliers évalués sont considérés comme « important pour la pratique » par ces experts. Sur les documents annotés par le prototype, le taux de rappel est de 89 %, le taux de précision de 81 % et le taux de contresens de 2 %. Ces chiffres atteignent les seuils de performance requis pour un outil de recherche sémantique.

Conclusion

En laboratoire, LERUDI est adapté à une utilisation par les urgentistes. Il doit encore être évalué en structure de soins. Ses modules pourraient être adaptés au dossier médical personnel (DMP) ou au programme SI-Samu pour la synthèse des épisodes de régulation médicale des patients et le traitement secondaire des données.

Mots clés

Dossier patient informatisé Continuité des soins Recherche sémantique Ontologie Urgences SAMU DMP 

A summary of the patient’s medical notes as a decision making tool in accident and emergency : The LERUDI Project

Abstract

Abstract

The LERUDI software has been created to facilitate the study of computerized medical records of patients suffering multiple pathologies in an A&E medical centre. The aim of this project was to assess whether the content selected by the prototype is relevant to the Emergency doctors.

Method

A French natural language processing tool was created and refined with a focus on emergency medical ontology. The software annotated anonymized medical reports. Emergency doctors evaluated the relevance of these annotations.

Results

406 medical reports that where analyzed, Emergency doctors considered 18% of the words were “useful for their medical skills”. The software found 88% of those words, with 80% accuracy and 2% of misinterpretation. These data reach the required performance threshold for a semantic search tool.

Conclusion

During this preliminary phase, LERUDI was successfully used by the doctors. The software still needs to be evaluated in medical care structures. Its modules could be adjusted to the individual medical reports or to the A&E information system (SI-SAMU) to synthesize the EMS calls of the patient and for secondary data processing. With its innovative and ergonomic user interface, this software could become a precious help to review a patient’s medical report during the time constraint of the emergency.

Keywords

Electronic health record Continuity of patient care Semantic search Ontology Emergency medical services Nationwide EHR 

Preview

Unable to display preview. Download preview PDF.

Unable to display preview. Download preview PDF.

Références

  1. 1.
    Mishra R, Bian J, Fiszman M, et al (2014) Text summarization in the biomedical domain: a systematic review of recent research. J Biomed Inform 52:457–67CrossRefPubMedGoogle Scholar
  2. 2.
    ASIP Santé (2010) Le projet LERUDI: fiche signalétique. http:// esante.gouv.fr/actus/services/le-projet-lerudi-fiche-signaletique (Dernier accès 15/03/2017)Google Scholar
  3. 3.
    Rapport d’activité 2013. Sécurité sociale/assurance maladie. www.ameli.fr (Dernier accès 7 février 2016)Google Scholar
  4. 4.
    Perry WM, Lee CI, Steers WN, et al (2013) Time-motion analysis of emergency radiologists and emergency physicians at an urban academic medical center. Emerg Radiol 20:409–16CrossRefPubMedGoogle Scholar
  5. 5.
    Garg AX, Adhikari NK, McDonald H, et al (2005) Effects of computerized clinical decision support systems on practitioner performance and patient outcomes: A systematic review. JAMA 293:1223–38CrossRefPubMedGoogle Scholar
  6. 6.
    Charlet J, Declerck G, Dhombres F, et al (2012) Construire une ontologie médicale pour la recherche d’information: problématiques terminologiques et de modélisation. IC 2012, Presses Universitaires de Grenoble, https://hal.archives-ouvertes.fr/hal-00717807/ document (Dernier accès le 15/03/2017)Google Scholar
  7. 7.
    Google (2012) Introducing the Knowledge Graph: things, not strings. https://googleblog.blogspot.fr/2012/05/introducing-knowledge- graph-things-not.html (Dernier accès 15/03/2017)Google Scholar
  8. 8.
    Organisation Mondiale de la Santé (OMS) (2008) Classification statistique internationale des maladies et des problèmes de santé connexes CIM-10. http://apps.who.int/classifications/icd10/browse/ 2008/fr (Dernier accès le 15/03/2017)Google Scholar
  9. 9.
    Snomed 3,5VF. http://esante.gouv.fr/services/referentiels/referentiels-d-interoperabilite/snomed-35vf (Dernier accès 8 janvier 2017)Google Scholar
  10. 10.
    Classification Commune des Actes Médicaux (CCAM) v41. www.ameli.fr/accueil-de-la-ccam/telechargement/historique/ index.php (Dernier accès 30 octobre 2015)Google Scholar
  11. 11.
    World Health Organisation (WHO) collaborating center for drug statistic methodology. Structure and principles of the (ATC) classification system. www.whocc.no/atc (Dernier accès 8 janvier 2017)Google Scholar
  12. 12.
    Koppel R, Metlay JP, Cohen A, et al (2005) Role of computerized physician order entry systems in facilitating medication errors, JAMA 293:1197–203Google Scholar
  13. 13.
    Pereira S, Névéol A, Kerdelhue G, et al (2008) Using multiterminology indexing for the assignment of MeSH descriptors to health resources in a French online catalogue. AMIA Annu Sump Proc 586–90Google Scholar
  14. 13.
    Landis JR, Koch GG (1977) The measurement of observer agreement for categorical data. Biometrics 33:159–174CrossRefPubMedGoogle Scholar
  15. 14.
    Charlet J (2016) Ontologie des urgences http://bioportal.lirmm.fr/ ontologies/ONTOLURGENCES (Dernier accès le 8 janvier 2017)Google Scholar
  16. 15.
    Andronikof M, Lucas-Amichi A (2014) Dessine-moi un service d’urgences. Comment les médecins non urgentistes se représentent-ils un service d’urgences idéal ? Ann Fr Med Urgences 4:354–60Google Scholar
  17. 16.
    Brown PJ, Marquard JL, Amster B, et al (2014) What do physicians read (and ignore) in electronic progress notes? Appl Clin Inform 5:430–44CrossRefPubMedPubMedCentralGoogle Scholar
  18. 17.
    Health Level Seven International. www.hl7.org (Dernier accès 8 janvier 2017)Google Scholar
  19. 18.
    Kohn LT, Corrigan JM, Donaldson MS (2000) To err is human–building a safer health system. National academy press, Washington DCGoogle Scholar
  20. 19.
    Ahmed A, Chandra S, Herasevich V, et al (2011) The effect of two different electronic health record user interfaces on intensive care provider task load, errors of cognition, and performance. Crit Care Med 39:1626–34CrossRefPubMedGoogle Scholar
  21. 20.
    Jensen S, Kushniruk AW, Nohr C, et al (2015) Clinical simulation: A method for development and evaluation of clinical information systems. J Biomed Inform 54:65–76CrossRefPubMedGoogle Scholar
  22. 21.
    Heudel P, Livartowski A, Arveux P, et al (2016) ConSore: un outil permettant de rentrer dans le monde du big data en santé. Bull Cancer 103:949–50CrossRefPubMedGoogle Scholar
  23. 22.
    ASIP-Santé (2016) Programme SI-Samu. http://esante.gouv.fr/ services/programme-si-samu (Dernier accès le 15/03/2017)Google Scholar
  24. 23.
    Rosse C, Mejino JLV (2007) The Foundational model of anatomy ontology. In: A. Burger, D. Davidson, and R. Baldock, editors, Anatomy Ontologies for Bioinformatics: Principles and Practice, London, Springer, Ed. London, pp. 59–117Google Scholar
  25. 24.
    Charlet J, Mazuel L, Declerck G et al (2014) Describing localized diseases in medical ontology: an FMA-based algorithm. Stud Heath Technol Inform 205:1023–7Google Scholar
  26. 25.
    Bringay S, Barry C, Charlet J (2005) Les annotations pour gérer les connaissances du dossier patient. IC 2005 16e journées francophones d’Ingénierie des Connaissances, Presses universitaires de Grenoble 73-84. https://hal.archives-ouvertes.fr/hal-01023761/ document (Dernier accès 15/03/2017)Google Scholar
  27. 26.
    Osheroff JA, Pifer EA, Sittig DF, et al (2004) Clinical decision support implementers’ workbook, HIMSS, ChicagoGoogle Scholar
  28. 27.
    Haute autorité de santé (HAS) (2012) Référentiel de certification par essai de type des logiciels hospitaliers d’aide à la prescription. http://www.has-sante.fr/portail/upload/docs/application/pdf/2012- 06/referentiel_certification_lap_hospitalier_juin12.pdf (Dernier accès le 15/03/2017)Google Scholar
  29. 28.
    Meystre SM, Savova GK, Kipper-Schuler KC, et al (2008) Extracting information from textual documents in the electronic healthrecord: a review of recent research. Yearb Med Inform 128–44Google Scholar

Copyright information

© Société française de médecine d'urgence and Lavoisier 2017

Authors and Affiliations

  • P. Gayet
    • 1
  • J. Charlet
    • 2
  • N. Janin
    • 3
  • E. Clout
    • 3
  • G. Decleck
    • 4
  • P. Miroux
    • 5
  1. 1.SMUR/unité d’accueil des urgencesCompiègneFrance
  2. 2.LIMICS, UMRS 1142Assistance Publique des Hôpitaux de Paris & INSERM & université Pierre et Marie CurieParisFrance
  3. 3.Agence française de la santé numérique (ASIP Santé)ParisFrance
  4. 4.COSTECH EA 2223université de Technologie de CompiègneCompiègneFrance
  5. 5.Département de médecine d’urgenceCHU AngersAngersFrance

Personalised recommendations