Zusammenfassung
Hintergrund
Mit der Novellierung der ärztlichen Approbationsordnung 2002 wird den Hochschulen mehr Freiraum bei der Gestaltung der Praktika und der damit verbundenen Prüfungen gewährt. Der ERNEST (ERlanger Neurologisches Examen – STrukturiert) stellt eine alternative Prüfung dar, um von den Studierenden erworbene Kompetenzen und Fertigkeiten nach Abschluss des Blockpraktikums Neurologie zu erfassen. Die Prüfungsleistung wird schriftlich in Form von Kurzantworten erbracht.
Methodik
Die Teilnehmer des Blockpraktikums Neurologie im Sommersemester 2007 unterzogen sich dem ERNEST, der 8 Stationen mit je 10–15 Aufgaben umfasst, und der herkömmlichen Multiple-Choice (MC)-Prüfung. Die Prüfungsergebnisse wurden in Prozenträngen ermittelt und verglichen. Die Studierenden evaluierten mittels eines Fragebogens den ERNEST als alternative Prüfung.
Ergebnisse
128 Studierende des Blockpraktikums Neurologie (81 Frauen, 47 Männer) mit einem Durchschnittsalter von 25,3 Jahren (22–33 Jahre) nahmen an der Prüfung teil. Im ERNEST-Teil lag die mittlere Prüfungsleistung bei 69,6% und im MC-Teil bei 73,4% (p<0,001). Im ERNEST-Teil genügten 12,5% der Studierenden und im MC-Teil 11,7% nicht der Bestehensgrenze. Die Korrelation zwischen ERNEST-Ergebnis und MC-Ergebnis war signifikant (r=0,784, p<0,001). Überwiegend positiv wurden die Bereiche Innovation, Länge, Format der Prüfung, Klarheit der Aufgabenstellung, Realitätsnähe und Vereinbarkeit mit der allgemeinen Arztreife evaluiert.
Schlussfolgerung
Der ERNEST ist eine Alternative zur herkömmlichen MC-Prüfung nach Abschluss des Blockpraktikums Neurologie. Die im ERNEST ermittelten grundlegenden quantitativen Analysen entsprechen den Anforderungen medizinischer Fachprüfungen. In der Evaluation durch die Studierenden findet die Prüfung überwiegend positive Resonanz.
Abstract
Background
With the latest revision of the German Medical Licensing Regulation in 2002, educating faculties gained more freedom in the organisation and assessment of trainees. The Erlangen Neurological Exam Structured (ERNEST) is an alternative for assessing competency in clinical knowledge at the end of the neurological general education. The answers must be given in written, short essay format.
Method
The students (mostly 5th year of medical education) underwent the ERNEST including eight sections with ten to 15 questions each and the MC examination as had been applied earlier. The results were given in percentage scores. The examination was evaluated by a questionnaire using Likert scales.
Results
A total of 128 students (81 women, 47 men) with a mean age of 25.3 years (range 22–33) completed their initial training by the exam. The mean score was 69.6% in the ERNEST and 73.4% in the MC part (P<0.001). Of the students 12.5% in ERNEST and 11.7% in the MC (nonsignificant) failed to reach the projected score of 60% to pass the exam. Correlation between the ERNEST and MC results was significant, with r=0.784 (Pearson’s coefficient, P<0.001). The students evaluated the aspects innovation, length, format, clarity of the tasks, closeness to reality, and compatibility with general physician’s practice as predominantly positive.
Conclusion
The ERNEST is a viable alternative form of assessment as compared to the conventional MC exam. The basic quantitative parameters of the assessment comply with the requirements of medical assessments. The students evaluated ERNEST as mainly positive.
Literatur
Bland CJ, Starnaman S, Wersal L et al. (2000) Curricular change in medical schools: how to succeed. Acad Med 75: 575–594
Drolshagen S (1992) Die studiensteuernde Wirkung mündlicher Prüfungen in der Medizin. Z Med Ausbild 9: 46–55
Epstein RM (2007) Assessment in medical education. N Engl J Med 356: 387–396
Fischer MR, Kopp V, Holzer M et al. (2005) A modified electronic key feature examination for undergraduate medical students: validation threats and opportunities. Med Teach 27: 450–455
Frey P (2006) Computerbasiert prüfen. GMS Z Med Ausbild 23: doc49
Gelb DJ, Gunderson CH, Henry KA et al. (2002) The neurology clerkship core curriculum. Neurology 58: 849–852
Gunderson CH, Dougherty DS, Ford GC, Schwab K (2003) Different formats for a neurology clerkship do not influence written examination scores. Mil Med 168: 872–875
Heckmann JG, Bleh C, Dütsch M et al. (2003) Does improved problem-based teaching influence students‘ knowledge at the end of their neurology elective? An observational study of 40 students. J Neurol 250: 1464–1468
Hibbeler B (2007) „Hammerexamen“ in der Kritik. Dtsch Arztebl 104: B346–B347
Hofer M, Abanador N, Mödder U (2005) Effektive Didaktiktrainings für Dozenten von CME-Fortbildungen (Continuing Medical Education). Fortschr Röntgenstr 177: 1290–1296
Jünger J, Nikendai C (Hrsg) (2005) OSCE Prüfungsvorbereitung Innere Medizin. Thieme, Stuttgart
Kern DE, Thomas PA, Howard DM, Bass EB (1998) Curriculum development for medical education, a six-step approach. The Johns Hopkins University Press, Baltimore London
Kopp V, Möltner A, Fischer M (2006) Key-Feature-Probleme zum Prüfen von prozeduralen Wissen: Ein Praxisleitfaden. GMS Z Med Ausbild 23: Doc50
Lieberman SA, Frye AW, Litwins SD et al. (2003) Introduction of patient video clips into computer-based testing: effects on item statistics and reliability estimates. Acad Med 78: 48–51
Meyring S, Leopold HC, Siebolds M (2006) Einführung eines kompetenzbasierten Facharzt-Weiterbildungsprogramms in einer neurologischen Abteilung. Nervenarzt 77: 439–448
Miller GE (1990) The assessment of clinical skills, competence, performance. Acad Med [Suppl 9] 65: 63–67
Morgan MK, Clarke RM, Weidmann M et al. (2007) How assessment drives learning in neurosurgical higher training. J Clin Neurosci 14: 349–354
Nikendei C, Jünger J (2006) OSCE-praktische Tipps zur Implementierung einer klinisch-praktischen Prüfung. GMS Z Med Ausbild 23: Doc 47
Pabst R (2006) Evaluation des Medizinstudiums: Wen, wann und warum zur ärztlichen Relevanz befragen? Dtsch Med Wochenschr 131: 371–372
Röllinghoff M, Handwerker OHW (2004) Darstellung der Situation der Lehre an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU). In: Stifterverband für die Deutsche Wirtschaft. Quo vadis medicinae, S 22–24
Schäfer M, Georg W, Mühlinghaus I et al. (2007) Neue Lehr- und Prüfungsformen in der Psychiatrie – Erfahrungen mit einem reformierten Kurrikulum. Nervenarzt 78: 283–293
Schrauth M, Schmulius N, Zipfel S, Haarmeier T (2006) Praktische Prüfungen in der Neurologie – Das Tübinger Modell. Nervenarzt 77: 1464–1468
Schuwirth LWT, Vleuten CPM van der (2004) Different written assessment methods: what can be said about their strengths and weaknesses? Med Educ 38: 974–979
Schwarz U (2006) Die neurologische Untersuchung – eine bleibende Kunst? Ther Umsch 63: 491–500
Sütterlin T, Heid J, Bauch M et al. (2006) Rechnerunterstütztes formatives Prüfen am Beispiel des Campus Lehr- und Lernsystems. GMS Med Inform Biom Epidemiol 2: Doc09
Thistlethwaite J (2006) More thoughts on assessment drives learning. Med Educ 40: 1149–1150
Van den Busche H, Wegscheider K, Zimmermann T (2006) Der Ausbildungserfolg im Vergleich (III). Dtsch Arztebl 103: B2762–B2765
Weih M, Georg W, Schäfer M (2007) Prüfungen. In: Voderholzer U (Hrsg) Lehre im Fach Psychiatrie und Psychotherapie. Kohlhammer, Stuttgart, S. 222-250
Wörmann U (2006) Verminderung des Personalbedarfes durch den Einsatz einer computerbasierten Histologieprüfung. GMS Z Med Ausbild 23: Doc42
Interessenkonflikt
Der korrespondierende Autor gibt an, dass kein Interessenkonflikt besteht.
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
About this article
Cite this article
Heckmann, J., Rauch, C., Dütsch, M. et al. ERlanger Neurologisches Examen – STrukturiert (ERNEST). Nervenarzt 79, 676–683 (2008). https://doi.org/10.1007/s00115-008-2438-x
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00115-008-2438-x