Motion Capturing

  • Ulrich Bockholt
  • Thomas Bochtler
  • Volker Enderlein
  • Manuel Olbrich
  • Michael Otto
  • Michael Prieur
  • Richard Sauerbier
  • Roland Stechow
  • Andreas Wehe
  • Hans-Joachim Wirsching
Chapter

Zusammenfassung

Motion Capture Technologien werden in vielen unterschiedlichen Bereichen eingesetzt, wie zum Beispiel der Filmindustrie, der Sportrehabilitation, der Spieleentwicklung oder im industriellen Umfeld. Die Technologie ermöglicht es, Bewegungen aufzuzeichnen und diese auf eine digitale Repräsentanz (Avatar) eines Menschen (Digital Human Model) zu applizieren. Über ein generisches Menschmodell bzw. mit Hilfe der im Projekt ARVIDA entwickelten Referenzarchitektur ist eine universelle Anwendung möglich und verschiedene Expertensysteme lassen sich derart nutzen, dass ein ganzheitlicher Prozess durchgeführt werden kann. Für Ergonomie-Untersuchungen im Nutzfahrzeug können allgemein gültige digitale Bewegungsbausteine entwickelt werden, die sich nachträglich an neue, ähnliche Szenarien anpassen lassen. In der Produktionsabsicherung wird bereits in den frühen Phasen ein höherer Reifegrad ermöglicht, indem Motion Capturing für die Echtzeitsimulation von manuellen Arbeitsvorgängen in virtuellen Umgebungen eingesetzt wird.

Abstract

Motion Capture technologies are used for a wide range of applications like film industry, sport rehabilitation, computer games or industrial environment. It allows the mapping of movements on digital representation (Avatar) of a digital human model. A generic human model and the reference architecture of the ARVIDA project support a universal use in different expert systems, so that a holistic process can be led. For the purpose of ergonomics studies in truck development, generic sequences can be developed to be used as basis for further scenarios. On the other hand, Motion Capture for online simulation of manual assembly processes is a way to improve the product maturity during early design phases through.

Literatur

  1. [1]
    Vicon Motion Systems Ltd (2010) Vicon users manualGoogle Scholar
  2. [2]
    Institut für Mechatronik e.V. (2014) Dynamicus 8 – Referenz und Benutzerhandbuch. ChemnitzGoogle Scholar
  3. [3]
    Härtel T, Hermsdorf H (2006) Biomechanical modelling and simulation of human body by means of DYNAMICUS. In: Journal of biomechanics, Volume 39, Supplement 1, abstracts of the 5th world congress of biomechanics. Elsevier, Amsterdam, S 549CrossRefGoogle Scholar
  4. [4]
    Nocedal J, Wright S J (1999) Numerical optimization. Springer series in operations research. Springer, BerlinGoogle Scholar
  5. [5]
    Seth A, Vance JM, Oliver JH (2010) Virtual reality for assembly methods prototyping: a review. Virtual Reality, 15(1):5–20CrossRefGoogle Scholar
  6. [6]
    Microsoft. Kinect for windows. https://developer.microsoft.com/de-de/windows/kinect. Zugegriffen: 11. Juli 2016
  7. [7]
    Shotton J, Girshick R, Fitzgibbon A, Sharp T, Cook M, Finocchio M, Moore R, Kohli P, Criminisi A, Kipman A, Blake A (2012) Efficient human pose estimation from single depth images. In: Advances in Computer Vision and Pattern Recognition, Springer, London, S 2821–2840Google Scholar
  8. [8]
    Otto M, Agethen P, Geiselhart F, Rukzio E (2015) Towards ubiquitous tracking: Presenting a scalable, markerless tracking approach using multiple depth cameras. EuroVR 2015, LeccoGoogle Scholar
  9. [9]
    Rietzler M (2014) A flexible toolkit for motion sensing in human-computer interactionGoogle Scholar
  10. [10]
    Geiselhart F, Otto M, Rukzio E (2015) On the use of multi-depth-camera based motion tracking systems in production planning environments. Proc. of 48th CIRP Conference on Manufacturing Systems – CIRP CMS 2015Google Scholar
  11. [11]
    Arbeitswissenschaft, Ergonomic Assessment Worksheet (EAWS). Arbeitswissenschaft – Technische Universität Darmstadt. http://www.iad.tu-darmstadt.de/forschung_15/methodenundlabore/ergonomic_assessment_worksheet_eaws.de.jsp. Zugegriffen: 12. Juli 2016
  12. [12]
    Wuest H (2008) Efficient line and patch feature characterization and management for real-time camera tracking. Dissertation Technische Universität DarmstadtGoogle Scholar
  13. [13]
    Bimber O (2005) Spatial augmented reality. ISBN: 1–56881–230–2Google Scholar
  14. [14]
    Raskar R, Welch G et al (1998) The office of the future. http://dl.acm.org/citation.cfm?id=280861. Zugegriffen: 12. Juli 2016
  15. [15]
    Welch G, Raskar R (2001) Shader lamps: animating real objects with image-based illumination. http://dl.acm.org/citation.cfm?id=732300. Zugegriffen: 12. Juli 2016
  16. [16]
    Behr J, Eschler P, Jung Y, Zöllner M (2009) X3DOM. http://dl.acm.org/citation.cfm?doid=1559764.1559784. Zugegriffen: 12. Juli 2016
  17. [17]
    ISO/IEC IS 19775–1:2013. http://www.web3d.org/content/x3d-v33-abstract-specification. Zugegriffen: 12. Juli 2016
  18. [18]
    Welch G, Raskar R (1998) Efficient image generation for multiprojector and multisurface displays.http://web.media.mit.edu/~raskar/UNC/Multisurface/projTexRend.pdf. Zugegriffen: 12. Juli 2016
  19. [19]
    Segal M, Korobkin C, van Widenfelt R, Foran J, Haeberli P (1992) Fast shadows and lighting effects using texture mapping. http://dl.acm.org/citation.cfm?id=134071. Zugegriffen: 12. Juli 2016
  20. [20]
    Jung Y, Franke T, Dähne P, Behr J (2007) Enhancing X3D for advanced MR appliances. http://dl.acm.org/citation.cfm?id=1229394. Zugegriffen: 12. Juli 2016
  21. [21]
    NVIDIA GameworksVR. https://developer.nvidia.com/vrworks. Zugegriffen: Aug. 2016
  22. [22]
    Mark W R, McMillan L, Bishop G (1997) Post-rendering 3D warping. Proceedings of the 1997 symposium on Interactive 3D graphics (I3D ‘97). ACM. New York, S 7-ff. http://dx.doi.org/10.1145/253284.253292. Zugegriffen: Sept. 2015
  23. [23]
    Smit F A, van Liere R, Fröhlich B (2008) An image-warping VR-architecture: design, implementation and applications. In: Proceedings of the 2008 ACM symposium on virtual reality software and technology (VRST '08). ACM, New York, S 115–122. http://dx.doi.org/10.1145/1450579.1450605. Zugegriffen: Sept. 2015
  24. [24]
  25. [25]
    Meder J (2015) Depth Image Based Rendering zur Entkopplung langsamer Renderprozesse von der Darstellung. WinTeSys 2015, 12. Paderborner Workshop – Augmented & Virtual Reality in der Produktenstehung, Paderborn, 23–24. April 2015:93–105. Best Paper AwardGoogle Scholar
  26. [26]
  27. [27]
  28. [28]
    Maule M, Comba JLD, Torchelsen R, Bastos R (2014) Memory-optimized order-independent transparency with dynamic fragment buffer. Comput Graph 38(February):1–9. ISSN 0097–8493. http://dx.doi.org/10.1016/j.cag.2013.07.006. Zugegriffen: Febr. 2014
  29. [29]
    Vasilakis A A, Fudos I (2014) k +-buffer: fragment synchronized k-buffer. In: Proceedings of the 18th meeting of the ACM SIGGRAPH symposium on interactive 3D graphics and games (I3D '14). ACM, New York, S 143–150. http://dx.doi.org/10.1145/2556700.2556702. Zugegriffen: Febr. 2014

Copyright information

© Springer-Verlag GmbH Deutschland 2017

Authors and Affiliations

  • Ulrich Bockholt
    • 1
  • Thomas Bochtler
    • 2
  • Volker Enderlein
    • 3
  • Manuel Olbrich
    • 4
  • Michael Otto
    • 5
  • Michael Prieur
    • 6
  • Richard Sauerbier
    • 7
  • Roland Stechow
    • 8
  • Andreas Wehe
    • 9
  • Hans-Joachim Wirsching
    • 10
  1. 1.Fraunhofer Gesellschaft/ IGDDarmstadtDeutschland
  2. 2.Daimler Protics GmbHUlmDeutschland
  3. 3.Institut für Mechatronik e.V.ChemnitzDeutschland
  4. 4.Fraunhofer Gesellschaft/ IGDDarmstadtDeutschland
  5. 5.Daimler AGUlmDeutschland
  6. 6.Daimler AGStuttgartDeutschland
  7. 7.Daimler AGUlmDeutschland
  8. 8.Daimler AGStuttgartDeutschland
  9. 9.EXTEND3D GmbHMünchenDeutschland
  10. 10.Human Solutions GmbHKaiserslauternDeutschland

Personalised recommendations