Zusammenfassung
Hintergrund
Für Ärzte in der Weiterbildung ist die Aneignung fachlicher und professioneller Kompetenz entscheidend für die erfolgreiche Ausübung ihrer Tätigkeit. Die regelmäßige, möglichst objektive Standortbestimmung des Ausbildungsstands und des professionellen Auftretens sowie eine regelmäßige Selbstreflektion sind für den Erfolg in der Berufsausbildung unabdingbar. Einer Implementierung solcher Erfassungssysteme stehen im Routinebetrieb oft mehrere Faktoren entgegen.
Ziel der Arbeit
Ziel war, ein selbstentwickeltes digitales Evaluationssystem für Assistenzärzte auf seine Praktikabilität und auf dessen Impact auf die Ausbildungssituation am eigenen radiologischen Institut zu testen.
Material und Methoden
Im Januar 2014 wurde ein intranetbasiertes Evaluationssystem eingerichtet, welches allen Kader- bzw. Oberärzten die strukturierte Bewertung der Assistenzärzte nach standardisierten Kriterien ermöglicht. Bewertet wurde jeweils am Ende eines Jahresquartals. Sieben Bereiche wurden mithilfe von insgesamt 31 Evaluationsfragen evaluiert. Jede Frage konnte mit einem Wert auf einer Zehnpunkteskala und einem Kommentarfeld versehen werden. Die Ergebnisse der obligatorischen Selbstevaluation der Assistenten wurden neben denen der Evaluation durch die Ausbilder eingeblendet. Der Zugang zu den Ergebnissen war reglementiert, die Ergebnisse wurden am Quartalsende vertraulich besprochen.
Ergebnisse und Diskussion
Das System wurde als praktikabel empfunden und funktionierte fehlerfrei. Die zentral durchgeführte anonymisierte Assistentenumfrage zur Ausbildungssituation ergab eine deutliche Steigerung der Institutsbeurteilung für das Kriterium „regelmäßiges Feedback“ und lag über dem nationalen Mittelwert. Das System wurde seit seiner Einführung weiterentwickelt und erweitert und steht mittlerweile auch anderen Instituten zur Verfügung.
Abstract
Background
For resident doctors the acquisition of technical and professional competence is decisive for the successful practice of their activities. Competency and professional development of resident doctors benefit from regular self-reflection and assessment by peers. While often promoted and recommended by national educational authorities, the implementation of a robust evaluation process in the clinical routine is often counteracted by several factors.
Objective
The aim of the study was to test a self-developed digital evaluation system for the assessment of radiology residents at our institute for practicality and impact with regard to the radiological training.
Material and methods
The intranet-based evaluation system was implemented in January 2014, which allowed all Radiology consultants to submit a structured assessment of the Radiology residents according to standardized criteria. It included 7 areas of competency and 31 questions, as well as a self-assessment module, both of which were filled out electronically on a 3-month basis using a 10-point scale and the opportunity to make free text comments. The results of the mandatory self-evaluation by the residents were displayed beside the evaluation by the supervisor. Access to results was restricted and quarterly discussions with the residents were conducted confidentially and individually.
Results and discussion
The system was considered to be practical to use and stable in its functionality. The centrally conducted anonymous national survey of residents revealed a noticeable improvement of satisfaction with the institute assessment for the criterion “regular feedback”compared to the national average. Since its implementation the system has been further developed and extended and is now available for other institutions.
Literatur
Gardner AK, Scott DJ, Choti MA et al (2015) Developing a comprehensive resident education evaluation system in the era of milestone assessment. J Surg Educ 72(4):618–624
Joyner BD (2004) A historical review of graduate medical education and a protocol of Accreditation Council for Graduate Medical Education Compliance. J Urol 172(1):34–39
Reisdorff EJ, Carlson DJ, Reeves M et al (2004) Quantitative validation of a general competency composite assessment evaluation. Acad Emerg Med 11(8):881–884
van Moonen LJM, Overeem K, Donkers HH, van der Vleuten CP, Driessen EW (2013) Composite reliability of a workplace-based assessment toolbox for postgraduate medical education. Adv Health Sci Educ Theory Pract 18(5):1087–1102
Author information
Authors and Affiliations
Corresponding author
Ethics declarations
Interessenkonflikt
O. Kolokythas, R. Patzwahl, M. Straka und C. Binkert geben an, dass kein Interessenkonflikt besteht.
Dieser Beitrag beinhaltet keine Studien an Menschen oder Tieren.
Additional information
Redaktion
P. Mildenberger, Mainz
Rights and permissions
About this article
Cite this article
Kolokythas, O., Patzwahl, R., Straka, M. et al. Evaluation in der Assistenzarztausbildung. Radiologe 56, 70–76 (2016). https://doi.org/10.1007/s00117-015-0043-0
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00117-015-0043-0