Skip to main content
Log in

Evaluation in der Assistenzarztausbildung

Evaluation in medical residency training programs

  • Informationstechnologie und Management
  • Published:
Der Radiologe Aims and scope Submit manuscript

Zusammenfassung

Hintergrund

Für Ärzte in der Weiterbildung ist die Aneignung fachlicher und professioneller Kompetenz entscheidend für die erfolgreiche Ausübung ihrer Tätigkeit. Die regelmäßige, möglichst objektive Standortbestimmung des Ausbildungsstands und des professionellen Auftretens sowie eine regelmäßige Selbstreflektion sind für den Erfolg in der Berufsausbildung unabdingbar. Einer Implementierung solcher Erfassungssysteme stehen im Routinebetrieb oft mehrere Faktoren entgegen.

Ziel der Arbeit

Ziel war, ein selbstentwickeltes digitales Evaluationssystem für Assistenzärzte auf seine Praktikabilität und auf dessen Impact auf die Ausbildungssituation am eigenen radiologischen Institut zu testen.

Material und Methoden

Im Januar 2014 wurde ein intranetbasiertes Evaluationssystem eingerichtet, welches allen Kader- bzw. Oberärzten die strukturierte Bewertung der Assistenzärzte nach standardisierten Kriterien ermöglicht. Bewertet wurde jeweils am Ende eines Jahresquartals. Sieben Bereiche wurden mithilfe von insgesamt 31 Evaluationsfragen evaluiert. Jede Frage konnte mit einem Wert auf einer Zehnpunkteskala und einem Kommentarfeld versehen werden. Die Ergebnisse der obligatorischen Selbstevaluation der Assistenten wurden neben denen der Evaluation durch die Ausbilder eingeblendet. Der Zugang zu den Ergebnissen war reglementiert, die Ergebnisse wurden am Quartalsende vertraulich besprochen.

Ergebnisse und Diskussion

Das System wurde als praktikabel empfunden und funktionierte fehlerfrei. Die zentral durchgeführte anonymisierte Assistentenumfrage zur Ausbildungssituation ergab eine deutliche Steigerung der Institutsbeurteilung für das Kriterium „regelmäßiges Feedback“ und lag über dem nationalen Mittelwert. Das System wurde seit seiner Einführung weiterentwickelt und erweitert und steht mittlerweile auch anderen Instituten zur Verfügung.

Abstract

Background

For resident doctors the acquisition of technical and professional competence is decisive for the successful practice of their activities. Competency and professional development of resident doctors benefit from regular self-reflection and assessment by peers. While often promoted and recommended by national educational authorities, the implementation of a robust evaluation process in the clinical routine is often counteracted by several factors.

Objective

The aim of the study was to test a self-developed digital evaluation system for the assessment of radiology residents at our institute for practicality and impact with regard to the radiological training.

Material and methods

The intranet-based evaluation system was implemented in January 2014, which allowed all Radiology consultants to submit a structured assessment of the Radiology residents according to standardized criteria. It included 7 areas of competency and 31 questions, as well as a self-assessment module, both of which were filled out electronically on a 3-month basis using a 10-point scale and the opportunity to make free text comments. The results of the mandatory self-evaluation by the residents were displayed beside the evaluation by the supervisor. Access to results was restricted and quarterly discussions with the residents were conducted confidentially and individually.

Results and discussion

The system was considered to be practical to use and stable in its functionality. The centrally conducted anonymous national survey of residents revealed a noticeable improvement of satisfaction with the institute assessment for the criterion “regular feedback”compared to the national average. Since its implementation the system has been further developed and extended and is now available for other institutions.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Abb. 1
Abb. 2
Abb. 3
Abb. 4
Abb. 5
Abb. 6
Abb. 7

Literatur

  1. Gardner AK, Scott DJ, Choti MA et al (2015) Developing a comprehensive resident education evaluation system in the era of milestone assessment. J Surg Educ 72(4):618–624

    Article  PubMed  Google Scholar 

  2. Joyner BD (2004) A historical review of graduate medical education and a protocol of Accreditation Council for Graduate Medical Education Compliance. J Urol 172(1):34–39

    Article  PubMed  Google Scholar 

  3. Reisdorff EJ, Carlson DJ, Reeves M et al (2004) Quantitative validation of a general competency composite assessment evaluation. Acad Emerg Med 11(8):881–884

    Article  PubMed  Google Scholar 

  4. van Moonen LJM, Overeem K, Donkers HH, van der Vleuten CP, Driessen EW (2013) Composite reliability of a workplace-based assessment toolbox for postgraduate medical education. Adv Health Sci Educ Theory Pract 18(5):1087–1102

    Article  Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to O. Kolokythas.

Ethics declarations

Interessenkonflikt

O. Kolokythas, R. Patzwahl, M. Straka und C. Binkert geben an, dass kein Interessenkonflikt besteht.

Dieser Beitrag beinhaltet keine Studien an Menschen oder Tieren.

Additional information

Redaktion

P. Mildenberger, Mainz

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Kolokythas, O., Patzwahl, R., Straka, M. et al. Evaluation in der Assistenzarztausbildung. Radiologe 56, 70–76 (2016). https://doi.org/10.1007/s00117-015-0043-0

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s00117-015-0043-0

Schlüsselwörter

Keywords

Navigation