Résumé
Résumé
Le logiciel LERUDI–LEcture Rapide aux Urgences du Dossier Informatisé - a été conçu pour faciliter l’exploration et la recherche dans le dossier patient informatisé (DPI) des patients polypathologiques en structure de médecine d’urgence (SAMU - Centre 15 ou service d’urgences). L’objectif de ce travail était d’évaluer la pertinence des termes retenus par le prototype pour les médecins urgentistes.
Méthode
Un outil francophone de traitement du langage naturel a été créé puis affiné autour d’une ontologie de la médecine d’urgence. Des comptes rendus hospitaliers, anonymisés, ont été annotés par le logiciel. Des urgentistes ont jugé la pertinence de ces annotations.
Résultats
Dix-huit pour cents des mots des 406 comptes rendus hospitaliers évalués sont considérés comme « important pour la pratique » par ces experts. Sur les documents annotés par le prototype, le taux de rappel est de 89 %, le taux de précision de 81 % et le taux de contresens de 2 %. Ces chiffres atteignent les seuils de performance requis pour un outil de recherche sémantique.
Conclusion
En laboratoire, LERUDI est adapté à une utilisation par les urgentistes. Il doit encore être évalué en structure de soins. Ses modules pourraient être adaptés au dossier médical personnel (DMP) ou au programme SI-Samu pour la synthèse des épisodes de régulation médicale des patients et le traitement secondaire des données.
Abstract
Abstract
The LERUDI software has been created to facilitate the study of computerized medical records of patients suffering multiple pathologies in an A&E medical centre. The aim of this project was to assess whether the content selected by the prototype is relevant to the Emergency doctors.
Method
A French natural language processing tool was created and refined with a focus on emergency medical ontology. The software annotated anonymized medical reports. Emergency doctors evaluated the relevance of these annotations.
Results
406 medical reports that where analyzed, Emergency doctors considered 18% of the words were “useful for their medical skills”. The software found 88% of those words, with 80% accuracy and 2% of misinterpretation. These data reach the required performance threshold for a semantic search tool.
Conclusion
During this preliminary phase, LERUDI was successfully used by the doctors. The software still needs to be evaluated in medical care structures. Its modules could be adjusted to the individual medical reports or to the A&E information system (SI-SAMU) to synthesize the EMS calls of the patient and for secondary data processing. With its innovative and ergonomic user interface, this software could become a precious help to review a patient’s medical report during the time constraint of the emergency.
Références
Mishra R, Bian J, Fiszman M, et al (2014) Text summarization in the biomedical domain: a systematic review of recent research. J Biomed Inform 52:457–67
ASIP Santé (2010) Le projet LERUDI: fiche signalétique. http:// esante.gouv.fr/actus/services/le-projet-lerudi-fiche-signaletique (Dernier accès 15/03/2017)
Rapport d’activité 2013. Sécurité sociale/assurance maladie. www.ameli.fr (Dernier accès 7 février 2016)
Perry WM, Lee CI, Steers WN, et al (2013) Time-motion analysis of emergency radiologists and emergency physicians at an urban academic medical center. Emerg Radiol 20:409–16
Garg AX, Adhikari NK, McDonald H, et al (2005) Effects of computerized clinical decision support systems on practitioner performance and patient outcomes: A systematic review. JAMA 293:1223–38
Charlet J, Declerck G, Dhombres F, et al (2012) Construire une ontologie médicale pour la recherche d’information: problématiques terminologiques et de modélisation. IC 2012, Presses Universitaires de Grenoble, https://hal.archives-ouvertes.fr/hal-00717807/ document (Dernier accès le 15/03/2017)
Google (2012) Introducing the Knowledge Graph: things, not strings. https://googleblog.blogspot.fr/2012/05/introducing-knowledge- graph-things-not.html (Dernier accès 15/03/2017)
Organisation Mondiale de la Santé (OMS) (2008) Classification statistique internationale des maladies et des problèmes de santé connexes CIM-10. http://apps.who.int/classifications/icd10/browse/ 2008/fr (Dernier accès le 15/03/2017)
Snomed 3,5VF. http://esante.gouv.fr/services/referentiels/referentiels-d-interoperabilite/snomed-35vf (Dernier accès 8 janvier 2017)
Classification Commune des Actes Médicaux (CCAM) v41. www.ameli.fr/accueil-de-la-ccam/telechargement/historique/ index.php (Dernier accès 30 octobre 2015)
World Health Organisation (WHO) collaborating center for drug statistic methodology. Structure and principles of the (ATC) classification system. www.whocc.no/atc (Dernier accès 8 janvier 2017)
Koppel R, Metlay JP, Cohen A, et al (2005) Role of computerized physician order entry systems in facilitating medication errors, JAMA 293:1197–203
Pereira S, Névéol A, Kerdelhue G, et al (2008) Using multiterminology indexing for the assignment of MeSH descriptors to health resources in a French online catalogue. AMIA Annu Sump Proc 586–90
Landis JR, Koch GG (1977) The measurement of observer agreement for categorical data. Biometrics 33:159–174
Charlet J (2016) Ontologie des urgences http://bioportal.lirmm.fr/ ontologies/ONTOLURGENCES (Dernier accès le 8 janvier 2017)
Andronikof M, Lucas-Amichi A (2014) Dessine-moi un service d’urgences. Comment les médecins non urgentistes se représentent-ils un service d’urgences idéal ? Ann Fr Med Urgences 4:354–60
Brown PJ, Marquard JL, Amster B, et al (2014) What do physicians read (and ignore) in electronic progress notes? Appl Clin Inform 5:430–44
Health Level Seven International. www.hl7.org (Dernier accès 8 janvier 2017)
Kohn LT, Corrigan JM, Donaldson MS (2000) To err is human–building a safer health system. National academy press, Washington DC
Ahmed A, Chandra S, Herasevich V, et al (2011) The effect of two different electronic health record user interfaces on intensive care provider task load, errors of cognition, and performance. Crit Care Med 39:1626–34
Jensen S, Kushniruk AW, Nohr C, et al (2015) Clinical simulation: A method for development and evaluation of clinical information systems. J Biomed Inform 54:65–76
Heudel P, Livartowski A, Arveux P, et al (2016) ConSore: un outil permettant de rentrer dans le monde du big data en santé. Bull Cancer 103:949–50
ASIP-Santé (2016) Programme SI-Samu. http://esante.gouv.fr/ services/programme-si-samu (Dernier accès le 15/03/2017)
Rosse C, Mejino JLV (2007) The Foundational model of anatomy ontology. In: A. Burger, D. Davidson, and R. Baldock, editors, Anatomy Ontologies for Bioinformatics: Principles and Practice, London, Springer, Ed. London, pp. 59–117
Charlet J, Mazuel L, Declerck G et al (2014) Describing localized diseases in medical ontology: an FMA-based algorithm. Stud Heath Technol Inform 205:1023–7
Bringay S, Barry C, Charlet J (2005) Les annotations pour gérer les connaissances du dossier patient. IC 2005 16e journées francophones d’Ingénierie des Connaissances, Presses universitaires de Grenoble 73-84. https://hal.archives-ouvertes.fr/hal-01023761/ document (Dernier accès 15/03/2017)
Osheroff JA, Pifer EA, Sittig DF, et al (2004) Clinical decision support implementers’ workbook, HIMSS, Chicago
Haute autorité de santé (HAS) (2012) Référentiel de certification par essai de type des logiciels hospitaliers d’aide à la prescription. http://www.has-sante.fr/portail/upload/docs/application/pdf/2012- 06/referentiel_certification_lap_hospitalier_juin12.pdf (Dernier accès le 15/03/2017)
Meystre SM, Savova GK, Kipper-Schuler KC, et al (2008) Extracting information from textual documents in the electronic healthrecord: a review of recent research. Yearb Med Inform 128–44
Author information
Authors and Affiliations
Corresponding author
About this article
Cite this article
Gayet, P., Charlet, J., Janin, N. et al. Une synthèse du dossier médical pour décider aux urgences : le projet LERUDI. Ann. Fr. Med. Urgence 7, 166–173 (2017). https://doi.org/10.1007/s13341-017-0755-z
Received:
Accepted:
Published:
Issue Date:
DOI: https://doi.org/10.1007/s13341-017-0755-z