Designvalidierung (Design Validation)

Chapter

Zusammenfassung

Bevor ein entworfener Kollaborationsprozess eingeführt wird, muss dieser auf Fehler hin überprüft werden. Dies geschieht im letzten Schritt des Kollaborations-Prozess-Design-Ansatzes – der Designvalidierung. Im Rahmen der Designvalidierung wird die Qualität des konzipierten Kollaborationsprozesses anhand unterschiedlicher Bewertungskriterien überprüft. Die Validierung erfolgt hierbei in drei Phasen: Im ersten Schritt wird das Validierungsvorhaben geplant, bevor dann im zweiten Schritt die Validierung durchgeführt wird. Die wesentlichen Ergebnisse der Validierung und die daraus abgeleiteten Handlungsempfehlungen werden dann in der letzten Phase verwertet. Zur Validierung von Kollaborationsprozessen kommen vier Methoden infrage: Simulation, Experteneinschätzung, Testdurchlauf, Pilotierung. Die Simulation dient dazu, die Logik des Kollaborationsprozesses einzuschätzen, während mithilfe einer Experteneinschätzung ineffiziente Bestandteile des entwickelten Arbeitsprozesses identifiziert werden können. Anhand von Testdurchläufen können hingegen Probleme im Rahmen der Facilitation identifiziert werden. Diese Methode ist weiterhin zur Aufdeckung sowohl der erwarteten Wirksamkeit als auch von Verbesserungspotenzialen für die Wiederverwendbarkeit des Arbeitsprozesses geeignet. Die Pilotierung wird schließlich herangezogen, um die Gesamtqualität eines entworfenen Kollaborationsprozesses zu bewerten.

Verwendete Literatur

  1. Atteslander, P. (1971). Methoden der empirischen Sozialforschung. Berlin: Walter De Gruyter Verlag.Google Scholar
  2. Balci, O. (2003). Verification, validation, and certification of modeling and simulation applications. Association for Computing Machinery New York. Proceedings of the 2003 Winter Simulation Conference 1, 150–158.Google Scholar
  3. Beecham, S., Hall, T., Britton, C., Cottee, M., & Rainer, A. (2006). Using an expert panel to validate a requirements process improvement model. The Journal of Systems and Software, 76, 251–275.CrossRefGoogle Scholar
  4. Benoit, K., Wiesehomeier, N. (2009): Expert Judgements. In S. Pickel, G. Pickel, H.-J. Lauth, D. Jahn, (Hrsg.), Methoden der vergleichenden Politik- und Sozialwissenschaft (S. 497-516). Berlin: Springer Verlag.Google Scholar
  5. Berekoven, L., Eckert, W., & Ellenrieder, P. (2006). Marktforschung: Methodische Grundlagen und praktische Anwendung.. Google Scholar
  6. Boehm, B. W. (1984). Verifying and validating software requirements and design specifications. IEEE Software, 1, 75–88.CrossRefGoogle Scholar
  7. Böhler, H. (2004). Marktforschung (3. Aufl.). Stuttgart: Kohlhammer.Google Scholar
  8. Dzida, W., & Freitag, R. (1998). Making use of scenarios for validating analysis and design. IEEE Transactions on Software Engineering, 24, 1182–1196.CrossRefGoogle Scholar
  9. Frühauf, K., Ludewig, J., Sandmayr, H. (2006). Software-Prüfung - Eine Anleitung zum Test und zur Inspektion (6. Aufl.). Zürich: vdf Verlag.Google Scholar
  10. Gabrielli, S., Mirabella, V., Kimani, S., & Catarci, T. (2005). Supporting cognitive walkthrough with video data: A mobile learning evaluation study. In Proceedings of the 7th Conference on Human-Computer Interaction with Mobile Devices and Services (MobileHCI.)Google Scholar
  11. Gadatsch, A. (2010). Grundkurs Geschaftsprozess-Management: Methoden und Werkzeuge fur die IT-Praxis: Eine Einfuhrung fur Studenten und Praktiker. 6., aktualisierte Auflage. Wiesbaden: Vieweg+Teubner Verlag.Google Scholar
  12. Gläser, J., & Laudel, G. (2009). Experteninterviews und qualitative Inhaltsanalyse als Instrumente rekonstruierender Untersuchungen. Berlin: Springer Verlag.Google Scholar
  13. Hansmann, K.-W. (2007). Prognoseverfahren. In: Handwörterbuch der Betriebswirtschaft (6. Aufl.). Köhler, R., Küpper, H.-U., Pfingsten, A., Stuttgart.Google Scholar
  14. Herbig, B., Bussing, A. (2006). Informations- und Kommunikationstechnologien im Krankenhaus: Grundlagen, Umsetzung, Chancen und Risiken. Stuttgart: Schattauer Verlag.Google Scholar
  15. Homma, N., & Bauschke, R. (2010). Führung und Unternehmenskultur: Den Wandel gestalten - Methoden, Prozesse, Tools. Wiesbaden: Gabler Verlag.Google Scholar
  16. Huttner, M. (1997). Grundzüge der Marktforschung. München - Wien: Oldenbourg: Walter De Gruyter Verlag. Google Scholar
  17. Jørgensen, M. (2007). Forecasting of software development work effort: Evidence on expert judgement and formal models. International Journal of Forecasting, 23, 449–462.CrossRefGoogle Scholar
  18. Kolfschoten, G. L., & de Vreede, G.-J. (2009). A design approach for collaboration processes: A multimethod design science study in collaboration engineering. Journal of Management Information Systems, 26, 225–256.CrossRefGoogle Scholar
  19. Kuß, A. (2007). Marktforschung. Grundlagen der Datenerhebung und Datenanalyse. Wiesbaden: Gabler Verlag.Google Scholar
  20. Laver, M., & Garry, J. (2000). Estimating policy positions from political texts. American Journal of Political Science, 44, 619–634.CrossRefGoogle Scholar
  21. Liem, S., Blecher, G., & Gehr, F. (1997). Simulation in der Geschäftsprozessoptimierung: Konzepte und Weiterentwicklungen. IM Information Management & Consulting, 64–68.Google Scholar
  22. Liggesmeyer, P. (2009). Software-qualität: Testen, analysieren und verifizieren von Software (2. Aufl.). Heidelberg: Spektrum Akademischer Verlag. Google Scholar
  23. Matera, M., Rizzo, F., Carughi, G. T., & Milano, P. (2006). Web usability: Principles and evaluation methods. In ICWE'10 Proceedings of the 10th international conference on Current trends in web engineering, 360-371. Google Scholar
  24. Meyer, W., & Stockmann, R. (2010). Evaluationsansätze und ihre theoretischen Grundlagen. In Evaluation - Eine Einführung (S. 101–147). Opladen und Bloomfield Hills: Barbara Budrich Verlag.Google Scholar
  25. Müller-Kohlenberg, H. (1998). Die Delphi-Methode in der Evaluationsforschung: Eine Pilotstudie zur Evaluation aus Sicht der KlientInnen bzw. NutzerInnen. In M. Heiner (Hrsg.), Experimentierende Evaluation: Ansätze zur Entwicklung lernender Organisationen. Weinheim und München: Juventa Verlag.Google Scholar
  26. Pal, R., Sengupta, A., & Bose, I. (2008). Role of pilot study in assessing viability of new technology projects: The case of RFID in parking operations. Communications of the Association for Information Systems, 23, 257–276.Google Scholar
  27. Pardo, E. O., Strohm, O., & Ulich, E. (1997). Methodische Grundlagen der MTO-Analyse. Zürich: vdf Verlag.Google Scholar
  28. Pohl, K. (2008). Requirements Engineering: Grundlagen, Prinzipien, Techniken. 2., korrigierte Auflage. Heidelberg: dpunkt.Verlag.Google Scholar
  29. Robertson, S., & Robertson, J. C. (2006). Mastering the requirements process (2. Aufl.). Addison-Wesley Professional: Reading.Google Scholar
  30. Sargent, R. G. (2005). Verification and validation of simulation models. In M. E. Kuhl, N. M. Steiger, F. B. Armstrong, & J. A. Joines (Hrsg.), Proceedings of the 37th conference on Winter simulation, 37(2), 130–143. Winter Simulation Conference.Google Scholar
  31. Seeger, T. (1979). Die Delphi-Methode. Expertenbefragungen zwischen Prognose und Gruppenmeinungsbildungsprozessen - überprüft am Beispiel von Delphi-Befragungen im Gegenstandsbereich Information und Dokumentation. Dissertation. Freiburg.Google Scholar
  32. Stockmann, R. (2010a). Evaluationsprozess. In Evaluation - Eine Einführung (S. 159-186). Opladen und Bloomfield Hills: Barbara Budrich Verlag.Google Scholar
  33. Stockmann, R. (2010b). Wissenschaftsbasierte Evaluation. In Evaluation - Eine Einführung (S. 55-89). Opladen und Bloomfield Hills: Barbara Budrich Verlag.Google Scholar
  34. Thabane, L., Ma, J., Chu, R., Cheng, J., Ismaila, A., Rios, L. P., et al (2010). A tutorial on pilot studies: The what, why and how. BMC Medical Research Methodology, 10, 2–10.CrossRefGoogle Scholar
  35. Thonemann, U. (2010). Operations Management: Konzepte, Methoden und Anwendungen. 2., aktualisierte und erweiterte Auflage. Addison-Wesley Verlag: Reading.Google Scholar
  36. Vreede de, G.-J., & Briggs, R. O. (2009). Collaboration engineering: Foundations and opportunities: Editorial to the special issue on the journal of the association of information systems. Journal of the Association, 10, 121–137.Google Scholar
  37. Wallmüller, E. (2001). Software-Qualitätsmanagement in der Praxis: Software-Qualität durch Führung und Verbesserung von Software-Prozessen. München: hanser Verlag.Google Scholar
  38. Wechsler, W. (1978). Delphi-Methode, Gestaltung und Potential für betriebliche Prognoseprozesse, München: Schriftenreihe Wirtschaftswissenschaftliche Forschung und Entwicklung.Google Scholar
  39. Zelkowitz, M. V., & Wallace, D. R. (1998). Experimental models for validating technology. Computer, 31, 23–31.CrossRefGoogle Scholar
  40. Zhang, H., Huo, M., Kitchenham, B., & Jeffery, R. (2006). Qualitative simulation model for software engineering process. In: 17th Australian Software Engineering Conference (ASWEC 2006). Sydney, Australien. S.391-400.Google Scholar

Weiterführende Literatur

  1. Cunningham, D. J. (2010). A structure for formative in evaluation development. Educational Research, 43(2), 217–236.Google Scholar
  2. Provus, M. M. (1971). Discrepancy evaluation for educational program improvment and assessment. Berkeley: McCutchan Publishing.Google Scholar
  3. Sanders, J. R., & Cunningham, D. J. (1974). Techniques and procedures for formative evaluation. In: Evaluation educational programs and products. Borich, G. D. (Hrsg.), Englewood Cliffs: Northwest Regional Educational Laboratory.Google Scholar
  4. Sargent, R. G. (2005). Verification and validation of simulation models. In M. E. Kuhl, N. M. Steiger, F. B. Armstrong, & J. A. Joines (Hrsg.), Proceedings of the 37th conference on Winter simulation, 37(2), 130–143. Winter Simulation Conference.Google Scholar

Copyright information

© Springer-Verlag Berlin Heidelberg 2014

Authors and Affiliations

  1. 1.Fachgebiet WirtschaftsinformatikUniversität KasselKasselDeutschland
  2. 2.Institut für WirtschaftsinformatikUniversität St. GallenSt. GallenSchweiz

Personalised recommendations