Skip to main content
Log in

ERlanger Neurologisches Examen – STrukturiert (ERNEST)

Alternative zur Multiple-Choice-Prüfung zum Abschluss des Blockpraktikums Neurologie

The Erlangen examination

An alternative to multiple choice testing for German neurology students

  • Originalien
  • Published:
Der Nervenarzt Aims and scope Submit manuscript

Zusammenfassung

Hintergrund

Mit der Novellierung der ärztlichen Approbationsordnung 2002 wird den Hochschulen mehr Freiraum bei der Gestaltung der Praktika und der damit verbundenen Prüfungen gewährt. Der ERNEST (ERlanger Neurologisches Examen – STrukturiert) stellt eine alternative Prüfung dar, um von den Studierenden erworbene Kompetenzen und Fertigkeiten nach Abschluss des Blockpraktikums Neurologie zu erfassen. Die Prüfungsleistung wird schriftlich in Form von Kurzantworten erbracht.

Methodik

Die Teilnehmer des Blockpraktikums Neurologie im Sommersemester 2007 unterzogen sich dem ERNEST, der 8 Stationen mit je 10–15 Aufgaben umfasst, und der herkömmlichen Multiple-Choice (MC)-Prüfung. Die Prüfungsergebnisse wurden in Prozenträngen ermittelt und verglichen. Die Studierenden evaluierten mittels eines Fragebogens den ERNEST als alternative Prüfung.

Ergebnisse

128 Studierende des Blockpraktikums Neurologie (81 Frauen, 47 Männer) mit einem Durchschnittsalter von 25,3 Jahren (22–33 Jahre) nahmen an der Prüfung teil. Im ERNEST-Teil lag die mittlere Prüfungsleistung bei 69,6% und im MC-Teil bei 73,4% (p<0,001). Im ERNEST-Teil genügten 12,5% der Studierenden und im MC-Teil 11,7% nicht der Bestehensgrenze. Die Korrelation zwischen ERNEST-Ergebnis und MC-Ergebnis war signifikant (r=0,784, p<0,001). Überwiegend positiv wurden die Bereiche Innovation, Länge, Format der Prüfung, Klarheit der Aufgabenstellung, Realitätsnähe und Vereinbarkeit mit der allgemeinen Arztreife evaluiert.

Schlussfolgerung

Der ERNEST ist eine Alternative zur herkömmlichen MC-Prüfung nach Abschluss des Blockpraktikums Neurologie. Die im ERNEST ermittelten grundlegenden quantitativen Analysen entsprechen den Anforderungen medizinischer Fachprüfungen. In der Evaluation durch die Studierenden findet die Prüfung überwiegend positive Resonanz.

Abstract

Background

With the latest revision of the German Medical Licensing Regulation in 2002, educating faculties gained more freedom in the organisation and assessment of trainees. The Erlangen Neurological Exam Structured (ERNEST) is an alternative for assessing competency in clinical knowledge at the end of the neurological general education. The answers must be given in written, short essay format.

Method

The students (mostly 5th year of medical education) underwent the ERNEST including eight sections with ten to 15 questions each and the MC examination as had been applied earlier. The results were given in percentage scores. The examination was evaluated by a questionnaire using Likert scales.

Results

A total of 128 students (81 women, 47 men) with a mean age of 25.3 years (range 22–33) completed their initial training by the exam. The mean score was 69.6% in the ERNEST and 73.4% in the MC part (P<0.001). Of the students 12.5% in ERNEST and 11.7% in the MC (nonsignificant) failed to reach the projected score of 60% to pass the exam. Correlation between the ERNEST and MC results was significant, with r=0.784 (Pearson’s coefficient, P<0.001). The students evaluated the aspects innovation, length, format, clarity of the tasks, closeness to reality, and compatibility with general physician’s practice as predominantly positive.

Conclusion

The ERNEST is a viable alternative form of assessment as compared to the conventional MC exam. The basic quantitative parameters of the assessment comply with the requirements of medical assessments. The students evaluated ERNEST as mainly positive.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Abb. 1
Abb. 2

Literatur

  1. Bland CJ, Starnaman S, Wersal L et al. (2000) Curricular change in medical schools: how to succeed. Acad Med 75: 575–594

    Article  PubMed  CAS  Google Scholar 

  2. Drolshagen S (1992) Die studiensteuernde Wirkung mündlicher Prüfungen in der Medizin. Z Med Ausbild 9: 46–55

    Google Scholar 

  3. Epstein RM (2007) Assessment in medical education. N Engl J Med 356: 387–396

    Article  PubMed  CAS  Google Scholar 

  4. Fischer MR, Kopp V, Holzer M et al. (2005) A modified electronic key feature examination for undergraduate medical students: validation threats and opportunities. Med Teach 27: 450–455

    Article  PubMed  Google Scholar 

  5. Frey P (2006) Computerbasiert prüfen. GMS Z Med Ausbild 23: doc49

    Google Scholar 

  6. Gelb DJ, Gunderson CH, Henry KA et al. (2002) The neurology clerkship core curriculum. Neurology 58: 849–852

    PubMed  CAS  Google Scholar 

  7. Gunderson CH, Dougherty DS, Ford GC, Schwab K (2003) Different formats for a neurology clerkship do not influence written examination scores. Mil Med 168: 872–875

    PubMed  Google Scholar 

  8. Heckmann JG, Bleh C, Dütsch M et al. (2003) Does improved problem-based teaching influence students‘ knowledge at the end of their neurology elective? An observational study of 40 students. J Neurol 250: 1464–1468

    Article  PubMed  Google Scholar 

  9. Hibbeler B (2007) „Hammerexamen“ in der Kritik. Dtsch Arztebl 104: B346–B347

    Google Scholar 

  10. Hofer M, Abanador N, Mödder U (2005) Effektive Didaktiktrainings für Dozenten von CME-Fortbildungen (Continuing Medical Education). Fortschr Röntgenstr 177: 1290–1296

    Article  CAS  Google Scholar 

  11. Jünger J, Nikendai C (Hrsg) (2005) OSCE Prüfungsvorbereitung Innere Medizin. Thieme, Stuttgart

  12. Kern DE, Thomas PA, Howard DM, Bass EB (1998) Curriculum development for medical education, a six-step approach. The Johns Hopkins University Press, Baltimore London

  13. Kopp V, Möltner A, Fischer M (2006) Key-Feature-Probleme zum Prüfen von prozeduralen Wissen: Ein Praxisleitfaden. GMS Z Med Ausbild 23: Doc50

    Google Scholar 

  14. Lieberman SA, Frye AW, Litwins SD et al. (2003) Introduction of patient video clips into computer-based testing: effects on item statistics and reliability estimates. Acad Med 78: 48–51

    Article  Google Scholar 

  15. Meyring S, Leopold HC, Siebolds M (2006) Einführung eines kompetenzbasierten Facharzt-Weiterbildungsprogramms in einer neurologischen Abteilung. Nervenarzt 77: 439–448

    Article  PubMed  CAS  Google Scholar 

  16. Miller GE (1990) The assessment of clinical skills, competence, performance. Acad Med [Suppl 9] 65: 63–67

  17. Morgan MK, Clarke RM, Weidmann M et al. (2007) How assessment drives learning in neurosurgical higher training. J Clin Neurosci 14: 349–354

    Article  PubMed  Google Scholar 

  18. Nikendei C, Jünger J (2006) OSCE-praktische Tipps zur Implementierung einer klinisch-praktischen Prüfung. GMS Z Med Ausbild 23: Doc 47

    Google Scholar 

  19. Pabst R (2006) Evaluation des Medizinstudiums: Wen, wann und warum zur ärztlichen Relevanz befragen? Dtsch Med Wochenschr 131: 371–372

    Article  PubMed  CAS  Google Scholar 

  20. Röllinghoff M, Handwerker OHW (2004) Darstellung der Situation der Lehre an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). In: Stifterverband für die Deutsche Wirtschaft. Quo vadis medicinae, S 22–24

  21. Schäfer M, Georg W, Mühlinghaus I et al. (2007) Neue Lehr- und Prüfungsformen in der Psychiatrie – Erfahrungen mit einem reformierten Kurrikulum. Nervenarzt 78: 283–293

    Article  PubMed  Google Scholar 

  22. Schrauth M, Schmulius N, Zipfel S, Haarmeier T (2006) Praktische Prüfungen in der Neurologie – Das Tübinger Modell. Nervenarzt 77: 1464–1468

    Article  PubMed  CAS  Google Scholar 

  23. Schuwirth LWT, Vleuten CPM van der (2004) Different written assessment methods: what can be said about their strengths and weaknesses? Med Educ 38: 974–979

    Article  PubMed  Google Scholar 

  24. Schwarz U (2006) Die neurologische Untersuchung – eine bleibende Kunst? Ther Umsch 63: 491–500

    Article  PubMed  CAS  Google Scholar 

  25. Sütterlin T, Heid J, Bauch M et al. (2006) Rechnerunterstütztes formatives Prüfen am Beispiel des Campus Lehr- und Lernsystems. GMS Med Inform Biom Epidemiol 2: Doc09

    Google Scholar 

  26. Thistlethwaite J (2006) More thoughts on assessment drives learning. Med Educ 40: 1149–1150

    Article  PubMed  Google Scholar 

  27. Van den Busche H, Wegscheider K, Zimmermann T (2006) Der Ausbildungserfolg im Vergleich (III). Dtsch Arztebl 103: B2762–B2765

    Google Scholar 

  28. Weih M, Georg W, Schäfer M (2007) Prüfungen. In: Voderholzer U (Hrsg) Lehre im Fach Psychiatrie und Psychotherapie. Kohlhammer, Stuttgart, S. 222-250

  29. Wörmann U (2006) Verminderung des Personalbedarfes durch den Einsatz einer computerbasierten Histologieprüfung. GMS Z Med Ausbild 23: Doc42

    Google Scholar 

Download references

Interessenkonflikt

Der korrespondierende Autor gibt an, dass kein Interessenkonflikt besteht.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to J.G. Heckmann.

Rights and permissions

Reprints and permissions

About this article

Cite this article

Heckmann, J., Rauch, C., Dütsch, M. et al. ERlanger Neurologisches Examen – STrukturiert (ERNEST). Nervenarzt 79, 676–683 (2008). https://doi.org/10.1007/s00115-008-2438-x

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s00115-008-2438-x

Schlüsselwörter

Keywords

Navigation