Skip to main content

Zu den Voraussetzungen für die erfolgreiche Realisierung informationstechnologischer Projekte: die „HKA- Formel“ (Haftung – Kommunikation – Akzeptanz) und andere Herausforderungen

  • Chapter
  • First Online:
Schutz genetischer, medizinischer und sozialer Daten als multidisziplinäre Aufgabe
  • 2131 Accesses

Zusammenfassung

Unbestritten stehen wir zu Beginn des dritten Jahrtausends technologiepolitisch wie -rechtlich vor großen Herausforderungen: es geht um die allzeitige und allgegenwärtige Digitalisierung von Personen, Sachen und Umgebungen. Die informationstechnologischen (Groß-)Projekte reich(t)en – ohne Anspruch auf Vollständigkeit – von einer elektronischen Gesundheitskarte für fast jeden über die Vorratsdatenspeicherung zur Videosurveillance bis zur Einführung von Robotern in die Alltagswelt von Fabriken und Haushalten. Der folgende Beitrag versucht, diesen völlig unterschiedlichen informationstechnologischen Projekten gemeinsame Strukturen zu unterlegen, die die Herausforderungen an informationstechnologische Praxis und Rechtswissenschaft konturieren. Schwerpunkt dieses kurzen Beitrags ist die Präsentation unterschiedlicher, sich ergänzender und aufeinander aufbauender Kategorisierungen. Diese sollen einen Beitrag zur (Qualitäts-)Verbesserung informationstechnologischer Projekte anbieten – im Titel dieses Beitrags als „erfolgreich“(ohne Wertung) bezeichnet. Da es sich um einen für ein interdisziplinäres Publikum konzipierten Beitrag handelt, wird auf die vertiefte Behandlung von Normen und Rechtsprechung ausdrücklich verzichtet. Fokus ist die Präsentation von Herausforderungen – und nicht die vertiefende Einführung in juristische Terminologien oder Literatur.

Die Autorin dankt Herrn Ass. jur. Michael Herold, M.C.L., wissenschaftlicher Mitarbeiter am Fachgebiet Öffentliches Recht der Technischen Universität Darmstadt, für die veröffentlichungsbegleitende Kritik und die Fertigstellung der Druckvorlage.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 54.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Hardcover Book
USD 69.99
Price excludes VAT (USA)
  • Durable hardcover edition
  • Dispatched in 3 to 5 business days
  • Free shipping worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Jedenfalls vor dem Ausstieg der Privatversicherungen aus dem Projekt „Elektronische Gesundheitskarte“ im Jahr 2009; vgl. Verband der privaten Krankenversicherungen e. V. (PKV), http://www.pkv.de/presse/pressearchiv/2009/ – Pressemitteilung vom 01.07.2009, „Private Krankenversicherung nimmt nicht am Basis-Rollout der elektronischen Gesundheitskarte teil“ [letzter Zugriff 26.04.2012] und „Notbremse gezogen – Private Krankenversicherung nimmt nicht an Basis-Rollout der elektronischen Gesundheitskarte teil“ [letzter Zugriff 26.04.2012].

  2. 2.

    Die Erhebung, Speicherung und Übermittlung von Telekommunikationsverbindungsdaten von Millionen Bürgerinnen und Bürgern.

  3. 3.

    BVerwG, Urt. v. 25.01.2012 (Az.: 6 C 9.11) [letzter Zugriff 26.04.2012]; vorausgegangen OVG Hamburg, Urt. v. 22.06.2010 (Az.: 4 Bf 276/07) [letzter Zugriff 26.04.2012] und VG Hamburg, Urt. v. 24.05.2007 (Az.: 4 K 2800/06) zur „Videosurveillance der Hamburger Reeperbahn“.

  4. 4.

    In diesem Beitrag wird – um die Klassik der (informations-)technologierechtlichen Herausforderungen zu betonen – durchweg auch ältere Rechtsprechung zitiert. Auf eine Fortschreibung dieser Rechtsprechungen in die Gegenwart wird im Fußnotenkatalog verzichtet.

  5. 5.

    Wie etwa eine Diskussion der Unterschiede der Begriffe „Haftung“ und „Verantwortung“ oder des „Unternehmensbegriffs“ im Recht.

  6. 6.

    Zur Privacy by Design bereits der Europäische Datenschutzbeauftragte Hustinx 2007, S. 17.

  7. 7.

    Eine Literaturansicht leitet den Begriff vom slawischen Wort „robota“ ( = Arbeit, Fronarbeit, Zwangsarbeit) ab, Beck 2009, S. 225, 225 f.; In weiteren Ausführungen wird auf die VDI-Richtlinie 2860 und das Verständnis der Japan Robotic Association rekurriert Beck 2011, S. 95, 98 f.

  8. 8.

    Zu den unterschiedlichen Aspekten in einem „privacy wheel“ etwa Heckmann 2011, S. 1 ff. unter Bezug auch auf die zeitlich frühen Arbeiten etwa von Roßnagel 2005, S. 71–75.

  9. 9.

    GVBl. I (1970), 625.

  10. 10.

    BVerfG, Urt. v. 02.03.2010 (Az.: 1 BvR 256/08–1 BvR 263/08–1 BvR 586/08) [letzter Zugriff 26.04.2012] Leitsatz 4: „Hinsichtlich der Datensicherheit bedarf es Regelungen, die einen besonders hohen Sicherheitsstandard normenklar und verbindlich vorgeben. Es ist jedenfalls dem Grunde nach gesetzlich sicherzustellen, dass sich dieser an dem Entwicklungsstand der Fachdiskussion orientiert, neue Erkenntnisse und Einsichten fortlaufend aufnimmt und nicht unter dem Vorbehalt einer freien Abwägung mit allgemeinen wirtschaftlichen Gesichtspunkten steht.“ Siehe auch Rz. 222 des Urteils.

  11. 11.

    So bereits Schmid 2004, S. 80, 84.

  12. 12.

    Siehe § 2 Abs. 2 Nr. 1 und 2 BSIG sowie die Entscheidung des BVerfG v. 2. März 2010 zur „Vorratsdatenspeicherung“ (s. o. Fn. 10).

  13. 13.

    Vgl. Stellungnahme 4/2007 zum Begriff „personenbezogene Daten“ der Artikel-29-Datenschutzgruppe v. 20.06.2007 [letzter Zugriff 26.04.2012].

  14. 14.

    Abl. EG Nr. L 281 v. 28.11.1995 S. 31 [letzter Zugriff 26.04.2012].

  15. 15.

    So jedenfalls das BVerfG, Urt. v. 11.03. 2008 (Az.: 1 BvR 2074/05–1254/07) zum „Kennzeichen-Scanning“ [letzter Zugriff 26.04.2012].

  16. 16.

    „Legality“ wird nach der hier entworfenen Terminologie mit „Rechtlichkeit“ übersetzt. Verfahrensmäßig wird gefordert, dass Prozesse und Produkte „verrechtlicht“ werden und geprüft wird, inwieweit sie als rechtmäßig oder rechtswidrig zu qualifizieren sind. Sollte dieses Verfahren zu dem Ergebnis führen, dass ein Prozess oder Produkt rechtmäßig oder rechtswidrig ist, sollten rechtliche, informationstechnologische, ökonomische … Strategien entworfen bzw. verfolgt werden, um Rechtswidrigkeit zu sanktionieren und Rechtmäßigkeit zu favorisieren. Der rechtswissenschaftliche Beitrag fokussiert sich disziplinorientiert auf rechtliche Um- und Durchsetzungsstrategien.

  17. 17.

    Siehe bereits Frank 1970; Gilmore 1961, S. 1037; Llewellyn 1930, S. 431; ders. 1930/31, S. 697 und 1222; Casper 1967; Fikentscher 1975, S. 273; Reich 1967.

  18. 18.

    Eigene Terminologie: „Organisation“ von Daten ist der Oberbegriff für die Erhebung, Verarbeitung und Nutzung von Daten (§ 3 Abs. 2–5 BDSG).

  19. 19.

    Hansen und Gillert 2008.

  20. 20.

    § 4 Abs. 3 S. 1 und § 16a S. 1 Paßgesetz (PaßG) v. 19.04.1986 (BGBl. I S. 537).

  21. 21.

    Ronzani 2008, S. 214 ff.

  22. 22.

    Eigene Terminologie. Im Datenschutzrecht § 4 Abs. 2 S. 1 und 2 BDSG.

  23. 23.

    BVerfGE 65,1, 43; und etwa in BVerfG, Beschl. v. 23.02.2007, (Az.: 1 BvR 2368/06) zum „Karavan-Kunstwerk“ [letzter Zugriff 26.04.2012], Rz. 50 und in BVerfG, Urt. v. 2. März 2010 zur „Vorratsdatenspeicherung“ (s. o. Fn. 10), Rz. 241.

  24. 24.

    Eigener Terminus.

  25. 25.

    Commission Recommendation of 12.5.2009 on the implementation of privacy and data protection principles in applications supported by radio-frequency identification, Brussels 12.5.2009, C(2009) 3200 final, abrufbar unter http://ec.europa.eu/information_society/policy/rfid/documents/recommendationonrfid2009.pdf [letzter Zugriff 26.04.2012]; Privacy and Data Protection Impact Assessment Framework for RFID Applications, 12 January 2011, abrufbar unterhttp://cordis.europa.eu/fp7/ict/enet/documents/rfid-pia-framework-final.pdf [letzter Zugriff 26.04.2012]. Zur deutschen Handhabung: BSI, Technical Guidelines RFID as Templates for the PIA-Framework, 2010, abrufbar unter https://www.bsi.bund.de/SharedDocs/Downloads/EN/BSI/Publications/TechGuidelines/TG03126/TG_RFID_Templates_for_PIA_Framework_pdf.pdf?_blob=publicationFile [letzter Zugriff 26.04.2012].

  26. 26.

    Zur Entwurfsgeschichte siehe Spiekermann 2011, S. 323–346.

  27. 27.

    Mit unterschiedlicher Intensität der Betonung von Privacy, der Voraussetzung von IT-Security und der Konformität mit Recht (Legality): Privacy and Data Protection Impact Assessment Framework for RFID Applications, 12 January 2011, abrufbar unterhttp://cordis.europa.eu/fp7/ict/enet/documents/rfid-pia-framework-final.pdf [letzter Zugriff 26.04.2012], S. 3: “The PIA process is based on a privacy and data protection risk management approach focusing mainly on the implementation of the EU RFID Recommendation and consistent with the EU legal framework and best practices.” und S. 18: IT-Security als “system protection”.

  28. 28.

    Article 29 Data Protection Working Party, Opinion 9/2011 on the revised Industry Proposal for a Privacy and Data Protection Impact Assessment Framework for RFID Applications, abrufbar unterhttp://ec.europa.eu/justice/policies/privacy/docs/wpdocs/2011/wp180_en.pdf [letzter Zugriff 26.04.2012].

  29. 29.

    So bereits Schmid 2003, S. 449, 469 f.

  30. 30.

    Das ArbG Frankfurt a. M. (Az.: 7 BV 168/12) soll nach Medienberichten eine Kündigung, die mit den Ergebnissen einer ohne Zustimmung des Betriebsrats erfolgten Videoüberwachung begründet wurde, für rechtmäßig erachtet haben. Ein Beweisverwertungsverbot scheint abgelehnt worden zu sein. Es wird abzuwarten sein, inwieweit dieses Urteil mit der Rechtsprechung des BAG (u. a. Beschl. v. 28.08.2008 (Az.: 1 ABR 16/07)), das zur Absicherung der Mitbestimmungsbedürftigkeit ein „Zwei-Schlüssel-System“ etablierte, vereinbar ist. Zur Entscheidung des BAG vgl. auch Schmid 2009.

  31. 31.

    Siehe Meffert H, Burmann C, Kirchgeorg M. 2012, S. 240 ff. In einer rechtlichen Betrachtung handelt es sich bei den „Chancen“ um legitime Zwecke, die im Rahmen der Verhältnismäßigkeitsprüfung im weiteren Sinne überprüft werden.

  32. 32.

    Auf umfangreiche Belege wird hier verzichtet. Erwähnt sei die Kontroverse um die Deutsche Bahn, die zum Ausscheiden eines Vorstandsvorsitzenden aus dem Unternehmen führte (siehe etwa spiegel.de v. 27.03.2009: „Gewerkschaften fordern Mehdorns Rauswurf“, abrufbar unterhttp://www.spiegel.de/wirtschaft/bahn-spitzelaffaere-gewerkschaften-fordern-mehdorns-rauswurf-a-615923.html [letzter Zugriff 26.04.2012].

  33. 33.

    Die Terminologie „Verantwortung“ wird man eher im strafrechtlichen Sinne verwenden; „Haftung“ eher im zivilrechtlichen Sinne, wenn es um das Risiko der pekuniären Inanspruchnahme geht.

  34. 34.

    Gabriel Hallevy 2010 (26.04.2012); grundsätzlich auch Matthias 2008, S. 81 zum rechtlichen Vakuum der Haftung.

  35. 35.

    Nach Beck 2009, S. 225, 227 musste eine Forschungsgruppe einen Roboter-Rollstuhl als Mofa versichern, weil es keine geeignete Kategorie gab.

  36. 36.

    Terminologie: Maschine, Computer und Robotik: These ist, dass hier trennscharfe Definitionen in einer geisteswissenschaftlichen Betrachtung nicht zu ermitteln sein werden. Deswegen wird folgende Begriffsgebrauch zu Grunde gelegt:

    (1) „Maschine“: In einer historischen Betrachtung handelt es sich wohl um den ältesten Begriff (Webstuhl). Weil das Theorem Mensch-Maschine-Interaktion oder Maschine-in-Mensch-Implementation (subkutane RFIDs) weiterhin verbreitet ist, wird insbesondere bei Anwendungen, die Maschinen durch „Computer“ steuern, der Begriff Maschine verwandt.

    (2) „Computer“: Computer sind ein Teil der Maschine und/oder des Prozesses (softwareagenten), nämlich solche „Maschinen“, die Rechenleistungen ausführen („computare“) Das „Internet Security Glossary“ abrufbar unterhttp://www.heise.de/netze/rfc/rfcs/rfc4949.shtml [letzter Zugriff 26.04.2012], RFC 4949, Version 2, Stand August 2007, versteht „computer system“ und „information system“ synonym (s. S. 74) und definiert „information system“ wie folgt: „An organized assembly of computing and communication resources and procedures – i.e., equipment and services, together with their supporting infrastructure, facilities, and personnel – that create, collect, record, process, store, transport, retrieve, display, disseminate, control, or dispose of information to accomplish a specified set of functions. (…)“ (S. 152).

    (3) „Robotik“: Mit „Computern“ wird traditionell das ziemlich statische und getrennte Verständnis von Mensch zu „Main Frame“-Rechner oder PC verstanden. Hiervon unterscheidet sich Robotik durch die ungleich größere Ausdifferenzierung des Verhältnisses von Mensch und Maschine (etwa die ausgeprägte Lernfähigkeit der Maschine etwa bei der Vorstellung, dass Tiefseeroboter Bohrlöcher verschließen können oder führerlose Transport-Systeme Transportvorgänge übernehmen). Kennzeichnend für Robotik ist, dass es zu sog. „Connected Worlds” (siehe A.-W. Scheer, Connected Worlds – Wie Lebens- und Technikwelten zusammenwachsen, Pressekonferenz zum Leitthema der CeBIT 2010, 1. März 2010, Hannover, abrufbar unterhttp://www.bitkom.org/files/documents/BITKOM-Praesentation_Connected_Worlds_01_03_2010.pdf [letzter Zugriff 27.04.2012]) kommt (eigene Terminologie: „Computer Assisted Living“ – CAL).

  37. 37.

    Vgl. § 87 Abs. 1 Nr. 1 und 6 BetrVG (Mitbestimmungsrechte).

  38. 38.

    ArbG Hanau, Beschl. v. 15.12.1988 (Az.: 3 BVGa 3/88, Orientierungssatz (juris)). Zum Mitbestimmungsrecht etwa bei Richardi 2012, § 87 Rz. 495 ff.

  39. 39.

    Siehe etwa „40.Tätigkeitsbericht des Hessischen Datenschutzbeauftragten“, vom 31.12.2011, abrufbar unterhttp://www.datenschutz.hessen.de/download.php?download_ID=245 [letzter Zugriff 26.04.2012], Ziff. 7.1.

  40. 40.

    Zwei Autoren schlagen – ganz unterschiedliche – „Siebener-Modelle“ vor: Bizer 2007, S. 350 ff. und Cavoukian 2009/2011. Siehe grundsätzlich auch Cavoukian 2009.

  41. 41.

    Schaar 2012.

  42. 42.

    Beck 2011, S. 95.

  43. 43.

    Paradigmatisch insoweit die Rechtsprechungserfahrung mit „Robodoc“: BGH, Urt. v. 13.6.2006 (Az.: VI ZR 323/04) [letzter Zugriff 26.04.2012]; siehe auch die Informationspflicht bei unrechtmäßiger Kenntniserlangung von Daten in § 42a BDSG.

  44. 44.

    BVerfGE 65,1, 43 („Volkszählungsurteil“); und etwa in BVerfG, Beschl. v. 23.02.2007 (Az.: 1 BvR 2368/06) zum „Karavan-Kunstwerk“ [letzter Zugriff 26.04.2012], Rz. 50 sowie im Urteil des BVerfG v. 2. März 2010 zur „Vorratsdatenspeicherung“ (s. o. Fn. 10), Rz. 241.

  45. 45.

    Siehe die Entscheidungen BVerfG, Urt. v. 03.03.2004 (Az.: 1 BvR 2378/98–1 BvR 1084/99) zur „Akustischen Wohnraumüberwachung“ [letzter Zugriff 30.04.2012]; BVerfG, Urt. v. 27.07.2005 (Az.: 1 BvR 668/04) zur „Polizeirechtlichen Telekommunikationsüberwachung“ [letzter Zugriff 30.04.2012]; BVerfG, Urt. v. 04.04.2006 (Az.: 1 BvR 518/02) zur „Rasterfahndung“ [letzter Zugriff 30.04.2012]; BVerfG, Urt. v. 27.02.2008 (Az.: 1 BvR 370/07–1 BvR 595/07) zur „Online-Durchsuchung“ [letzter Zugriff 30.04.2012]; zum „Kennzeichen-Scanning“ v. 11. März 2008 (s. o. Fn. 15) und zur „Vorratsdatenspeicherung“ v. 2. März 2010 (s. o. Fn. 10), in denen der Gesetzgeber bei ersten Regelungsversuchen in Karlsruhe scheiterte.

  46. 46.

    Zum Verhältnis Datenschutz und Datensicherung, Ernestus 2011, § 9 Rn. 2 und 3.

  47. 47.

    Siehe § 8 MPG und Klindt 2002, S. 133 ff.

  48. 48.

    BVerfG, Beschl. v. 08.08.1978 (Az.: 2 BvL 8/77, „Kalkar I“) Rz. 111: „(…) Daß die Exekutive dabei alle wissenschaftlich und technisch vertretbaren Erkenntnisse heranzuziehen und willkürfrei zu verfahren hat, bedarf keiner besonderen Betonung. (…)“.

  49. 49.

    BVerfG, Beschl. v. 09.03.1994 (Az.: 2 BvL 43, 51, 63, 64, 70, 80/92, 2 BvR 2031/92, „Cannabis“) Rz. 232: „(…) Der einer Beobachtungs-, Prüfungs- und Nachbesserungspflicht unterliegende Gesetzgeber (vgl. BVerfGE 65, 1 [55 f.]; 88, 203 [309 f.]) muß bereits gegenwärtig Korrekturen – und zwar an den zur verfassungsrechtlichen Prüfung gestellten materiellen Straftatbeständen – vornehmen, um einen Verstoß gegen das Übermaßverbot zu beheben; eine bloße weitere Beobachtung und Prüfung in der Zukunft (…) genügt nicht (…). (…)“.

  50. 50.

    Siehe Deutsche Kommission Elektrotechnik, Elektronik, Informationstechnik im DIN und VDE, Die Deutsche Normungsroadmap, E-Energy/Smart Grid, 2010. Dazu bereits im Ansatz Schmid 1997.

  51. 51.

    Im europäischen Recht de lege lata Art. 2a der EG-Datenschutzrichtlinie 1995/46/EG (s. o. Fn. 14) und de lege ferenda Art. 4 Abs. 2 des „Vorschlags einer Verordnung des Europäischen Parlamentes und des Rates zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr (Datenschutz-Grundverordnung)“ vom 25. Januar 2012, KOM(2012) 11 endgültig, abrufbar unterhttp://ec.europa.eu/justice/policies/privacy/docs/wpdocs/2011/wp180_en.pdf [letzter Zugriff 26.04.2012], {SEK(2012) 72 endgültig}, {SEK(2012) 73 endgültig} (s. o. Fn. 30); siehe auch Stellungnahme 4/2007 zum Begriff „personenbezogene Daten“ der Artikel-29-Datenschutzgruppe v. 20.06.2007 (s. o. Fn. 13). In Deutschland § 3 Abs. 1 BDSG.

  52. 52.

    Etwa für die Vermarktung von IT-Sicherheitstechnologien.

  53. 53.

    So auch Weber und Weber 2011, S. 127.

Literatur

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Viola Schmid .

Editor information

Editors and Affiliations

Rights and permissions

Reprints and permissions

Copyright information

© 2013 Springer-Verlag Berlin Heidelberg

About this chapter

Cite this chapter

Schmid, V. (2013). Zu den Voraussetzungen für die erfolgreiche Realisierung informationstechnologischer Projekte: die „HKA- Formel“ (Haftung – Kommunikation – Akzeptanz) und andere Herausforderungen. In: Anzinger, H., Hamacher, K., Katzenbeisser, S. (eds) Schutz genetischer, medizinischer und sozialer Daten als multidisziplinäre Aufgabe. Springer, Berlin, Heidelberg. https://doi.org/10.1007/978-3-642-34741-2_10

Download citation

  • DOI: https://doi.org/10.1007/978-3-642-34741-2_10

  • Published:

  • Publisher Name: Springer, Berlin, Heidelberg

  • Print ISBN: 978-3-642-34740-5

  • Online ISBN: 978-3-642-34741-2

  • eBook Packages: Humanities, Social Science (German Language)

Publish with us

Policies and ethics