Methodische Ansätze in der Versorgungsforschung

Das Beispiel Evaluation der Disease-Management-Programme
Leitthema: Versorgungsforschung

Zusammenfassung

Versorgungsforschung beschreibt und analysiert nach einer etablierten Definition von Pfaff den Weg des Patienten durch die Versorgungsinstanzen. Im Mittelpunkt stehen dabei die Entwicklung und Implementation innovativer Behandlungsverfahren sowie die Überprüfung ihrer Wirksamkeit in der Versorgungspraxis. Ziel ist es, Qualitätsverbesserungen zu erreichen und die Effektivität und Effizienz von Versorgungsleistungen zu erhöhen. In der Versorgungsforschung werden bei der Analyse von Struktur-, Prozess- und Ergebnisqualität 3 Ebenen unterschieden: (1) das Versorgungssystem in seiner Gesamtheit, (2) die jeweiligen Versorgungsinstitutionen sowie (3) die Interaktionsprozesse in verschiedenen Behandlungskontexten. Versorgungsforschung umfasst dabei ein breites Spektrum verschiedenster wissenschaftlicher Fachdisziplinen von Public Health über Medizin bis hin zu Sozialwissenschaften und Pflege. Zur Bewältigung ihrer Aufgaben braucht die Versorgungsforschung eine besondere Konstellation methodischer Instrumente. Im Mittelpunkt stehen dabei unterschiedliche Verfahren der Evaluationsforschung sowie besondere Anforderungen an Studiendesigns und Assessmentverfahren. Der Beitrag stellt am Beispiel der Disease-Management-Programme die methodischen Anforderungen an eine wissenschaftlich fundierte Evaluation dar.

Schlüsselwörter

Methoden der Versorgungsforschung Evaluation Disease-Management-Programme 

Methods in health services research

The example of the evaluation of the German disease management programmes

Abstract

According to the established definition of Pfaff, health services research analyses patients’ path through the institutions of the health care system. The focus is on development, evaluation and implementation of innovative measures of health care. By increasing its quality health services research strives for an improvement of efficacy and efficiency of the health care system. In order to allow for an appropriate evaluation it is essential to differentiate between structure, process and outcome quality referring to (1) the health care system in its entirety, (2) specific health care units as well as (3) processes of communication in different settings. Health services research comprises a large array of scientific disciplines like public health, medicine, social sciences and social care. For the purpose of managing its tasks adequately a special combination of instruments and methodological procedures is needed. Thus, diverse techniques of evaluation research as well as special requirements for study designs and assessment procedures are of vital importance. The example of the German disease management programmes illustrates the methodical requirements for a scientific evaluation.

Keywords

Health services research Methods Evaluation Disease management programmes 

Literatur

  1. 1.
    Gerlach FM (2001) Qualitätsförderung in Praxis und Klinik: eine Chance für die Medizin. Thieme, StuttgartGoogle Scholar
  2. 2.
    Bundesversicherungsamt (2005) Kriterien des Bundesversicherungsamtes zur Evaluation strukturierter Behandlungsprogramme bei Brustkrebs. Eigenverlag, Bonn. S 1–27Google Scholar
  3. 3.
    Morfeld M, Koch U (2005) Ansprüche an die Evaluation komplexer Gesundheitsprogramme — Disease-Management-Programme in Deutschland. Z Ärztl Fortbild Qualitätssich (ZaeFQ) 99:179–184Google Scholar
  4. 4.
    Bundesversicherungsamt (2005) Kriterien des Bundesversicherungsamtes zur Evaluation strukturierter Behandlungsprogramme bei Diabetes mellitus Typ 2. Eigenverlag, Bonn, S 1–34Google Scholar
  5. 5.
    Nordrheinische Gemeinsame Einrichtung Disease-Management-Programme GbR, Qualitätssicherungsbericht 2004, Disease-Management-Programme in Nordrhein. 2004. Kassenärztliche Vereinigung Nordrhein, Düsseldorf, S 40Google Scholar
  6. 6.
    Bundesversicherungsamt (2005) Anforderungen an den Vergleich der Programmauswertung/Risikoadjustierung. Eigenverlag, Bonn, S 3Google Scholar
  7. 7.
    Rossi PH, Freeman HE, Lipsey MW (1999) Evaluation: a systematic approach. 6th edn. Sage Publications, Thousand Oaks, CAGoogle Scholar
  8. 8.
    Gerlach FM, Beyer M, Szecsenyi J et al. (2003) Evaluation von Disease-Management-Programmen — Aktuelle Defizite, Anforderungen, Methoden. Z Ärztl Fortbild Qualitätssich (ZaeFQ) 97:405–501Google Scholar
  9. 9.
    Steckelberg A, Berger B, Köpke S et al. (2005) Kriterien für evidenzbasierte Patienteninformationen. Z Ärztl Fortbild Qualitätssich (ZaeFQ) (im Druck)Google Scholar
  10. 10.
    Chen H (1990) Theory-driven evaluations. Sage, LondonGoogle Scholar
  11. 11.
    Lipsey MW (1993) Theory as method: small theories of treatments. New Directions Program Evaluation 57:5–38CrossRefGoogle Scholar
  12. 12.
    Mühlhauser I, Berger M (2002) Patient education — evaluation of a complex intervention. Diabetologia 45:1723–1733CrossRefPubMedGoogle Scholar
  13. 13.
    Basler HD (1998) Evaluation des Behandlungsprogramms im Gruppen-Setting. In: Basler HD, Kröner-Herwig B (Hrsg) Psychologische Therapie bei Kopf- und Rückenschmerzen — Das Marburger Schmerzbewältigungsprogramm zur Gruppen- und Einzeltherapie. Quintessenz, MünchenGoogle Scholar
  14. 14.
    Christiansen G (1998) Evaluation als Mittel der Qualitätssicherung in der Gesundheitsförderung. Bundeszentrale für gesundheitliche Aufklärung, Köln, S 82Google Scholar
  15. 15.
    Patton MQ (1997) Utilization-focused evaluation: the new century text. Sage Publications, Thousand OaksGoogle Scholar
  16. 16.
    Wottawa H, Thierau H (2003) Lehrbuch Evaluation, 3 Aufl. Hans Huber, BernGoogle Scholar
  17. 17.
    Scriven M (1980) The logic of evaluation. Edgepress, CaliforniaGoogle Scholar
  18. 18.
    Rossi PH, Freeman HE, Hofmann G (1988) Programmevaluation. Einführung in die Methoden angewandter Sozialforschung. F. Enke, StuttgartGoogle Scholar
  19. 19.
    Cook TD, Shaddish TR (1994) Social experiments: some developments over the past 15 years. Annual Rev Psychol 40:545–580CrossRefGoogle Scholar
  20. 20.
    Moher D, Schulz KF, Altman DG et al. (2001) The CONSORT-Statement: revised recommendations for improving the quality of reprots of parallel-group randomised trials. Lancet 357:1191–1194CrossRefPubMedGoogle Scholar
  21. 21.
    Eccles M, Grimshaw J, Campbell M et al. (2003) Research designs for studies evaluating the effectiveness of change and improvement strategies. Qual Saf Health Care 12:47–52CrossRefPubMedGoogle Scholar
  22. 22.
    Schneeweiss S, Sangha O (2001) Leistungsvergleiche in der Medizin. Dtsch Med Wochenschr 126:918–924CrossRefPubMedGoogle Scholar
  23. 23.
    Iezzoni LI (2004) Risk adjusting rehabiltation outcomes. An overview of methodological issues. Am J Physical Med Rehabilitation 83:316–326CrossRefGoogle Scholar
  24. 24.
    Lüngen M, Lauterbach KW (2003) DRG in deutschen Krankenhäusern. Schattauer, StuttgartGoogle Scholar
  25. 25.
    Kreft I, Leeuw J (1998) Introducing multilevel modeling. Sage, LondonGoogle Scholar
  26. 26.
    Grimes DA, Schulz KF (2002) Bias and causal associations in observational research. Lancet 359:248–252CrossRefPubMedGoogle Scholar
  27. 27.
    Chelimsky E, Shaddish WR (1997) Evaluation in the 21st century: a handbook. Sage, Thousand OaksGoogle Scholar
  28. 28.
    Greulich A, Thiele G, Thiex-Kreye M (1997) Prozessmanagement im Krankenhaus. Decker, HeidelbergGoogle Scholar
  29. 29.
    Sechrest L (1979) New directions for methodology of behavioral sciences: unobtrusive measurement today, No. 1. Jossey-Bass, Inc., San FranciscoGoogle Scholar
  30. 30.
    Deming WE (1986) Out of the crisis. Massachusetts Institute of Technology, Cambridge, Massachusetts, p 507Google Scholar
  31. 31.
    Selbmann HK (1995) Konzept und Definition medizinischer Qualitätssicherung. In: Gaebe W (Hrsg) Qualitätssicherung in psychiatrischen Krankenhäusern. Springer, Berlin Heidelberg Wien, S 3–10Google Scholar
  32. 32.
    Bortz J, Döring N (2002) Forschungsmethoden und Evaluation, Vol. 3. Springer, Berlin Heidelberg New York TokyoGoogle Scholar
  33. 33.
    Härter M, Groß-Hardt M, Berger M (1999) Leitfaden Qualitätszirkel in der Psychiatrie und Psychotherapie. Hogrefe, GöttingenGoogle Scholar
  34. 34.
    Campbell M, Fitzpatrick R, Haines A et al. (2000) Framework for the design and evaluation of complex interventions to improve health. BMJ 321:694–696CrossRefPubMedGoogle Scholar
  35. 35.
    Wegscheider K (2000) Statistische Verfahren in der Rehabilitationsforschung. In: Bengel J, Koch U (Hrsg) Grundlagen der Rehabilitationswissenschaften. Springer, Berlin Heidelberg New York Tokyo, S 395–408Google Scholar
  36. 36.
    Wirtz M (2004) Über das Problem fehlender Werte: Wie der Einfluss fehlender Informationen auf Analyseergebnisse entdeckt und reduziert werden kann. Rehabilitation 43(2):109–115CrossRefPubMedGoogle Scholar
  37. 37.
    Kline RB (1998) Principles and practice of structural equation modeling. Guilfod Press, New YorkGoogle Scholar

Copyright information

© Springer Medizin Verlag 2006

Authors and Affiliations

  1. 1.Universitätsklinikum Hamburg-Eppendorf
  2. 2.Universität Freiburg
  3. 3.Zentrum für Psychosoziale Medizin, Institut und Poliklinik für Medizinische PsychologieUniversitätsklinikum Hamburg-EppendorfHamburg

Personalised recommendations