Advertisement

Dateneigentum oder aktive Transparenz?

  • Günter Müller
Chapter
Part of the Die blaue Stunde der Informatik book series (DBSI)

Zusammenfassung

Der wirtschaftliche Wert der Daten lässt die Frage aufkommen, wem die Daten gehören und ob nicht das Eigentum an Daten der Königsweg zum Datenschutz sein könnte? Das Marktprinzip sorgt dabei für die effiziente Nutzung der Daten und zwingt zur Einschätzung der Risiken bei jeder Transaktion. Die Voraussetzungen für die Protektion wären damit gelegt. Das Dilemma von Schutz und Innovation wird jedoch auf anderem Feld vergrößert, da die Zustimmung zur Datennutzung nun durch kommerzielle Interessen geleitet wird. Um das Eigentum zu schützen, genügt das Geheimhaltungsmodell der DSGVO nicht, da damit die „Eigentümer“ die Verwendung ihrer Daten nicht nachvollziehen können und in Folge dessen zwar Innovationen behindern, aber Kompensationen nicht begründet einfordern können. Das Alternativmodell zur DSGVO, die Transparenz der Daten, ist daher sowohl die Vorraussetzung der Kontrolle des Eigentums als auch zur Überwachung der Datenverwendung. Die Transparenz setzt im Eigentumsfalle und bei der Datenverwendung voraus, dass Daten korrekt, vollständig und zeitgerecht präsentiert werden können. Eine solche Garantie ist für TET-Mechanismen nicht erfüllbar, da sie im Gegensatz zu PET-Mechanismen „Multipfad-Technologien“ sind. Die Vollständigkeit kann nur dann bestimmt werden, wenn die Nachfragen nach Daten nachvollzogen werden können und eine sichere Kenntnis des Umfangs der Daten und der angewendeten TET-Mechanismen existiert, damit Nutzer eine informierte Entscheidung zur Akzeptanz des Ergebnisses treffen können. Hierzu wird ein abstrakter Vorschlag vorgestellt. In der Studie zu „GoogleMyAccount (GMA)“ wird eine erhöhte Akzeptanz des Datenschutzes und des Vertrauens in Google durch die Transparenz von GMA festgestellt. Obwohl GMA selbst keinen Beitrag zum Datenschutz leistet, wird sie als glaubwürdiges Instrument für die Protektion der Nutzer und weniger der Daten gesehen. Eine Fallstudie zur Analyse von Bestellprozessen eines mittelständischen Betriebes verdeutlicht zusätzlich die objektiven Wirkungen der Transparenz, wenn Informationsflussanalysen zur Kontrolle von Daten und Prozessen eingesetzt werden.

Literatur

  1. Accorsi R, Müller G (2013) Preventive inference control in data centric business. 2nd IEEE security and privacy, San Francisco, S 28–33Google Scholar
  2. Acxiom Corporation (2015) Acxiom about the data. https://www.aboutthedata.com. Zugegriffen: 15. Nov. 2018
  3. Akerlof GA (1970) Der Markt für „Zitronen“: Qualitätsunsicherheit und der Marktmechanismus. Q J Econ 84:488–500CrossRefGoogle Scholar
  4. Beliger A, Krieger D (2018) You have zero privacy anyway – get over it. Inform Spektrum 41(5):328–348CrossRefGoogle Scholar
  5. Bella G, Paulson L (2006) Accountability protocols: formalized and verified. ACM Trans Inf Syst Secur 9(2):138–161CrossRefGoogle Scholar
  6. Berners-Lee T (2018) One small step for the web. https://medium.com/@timberners_lee/one-small-step-for-the-web-87f92217d085. Zugegriffen: 7. Apr. 2019
  7. Boston Consulting Group (2012) The value of our digital identity. Liberty global, interner bericht. Boston Consulting, FrankfurtGoogle Scholar
  8. Cabinakowa J, Zimmermann C, Müller G (2016) An empirical analysis of privacy dashboard acceptance. The google case. ECIS 2016 research paper. https://aisel.aisnet.org/ecis2016_rp/114/. Zugegriffen: 27. Juli 2019
  9. Campbell JE, Carlson M (2002) Online surveillance and the commodification of privacy. J Broadcast Electron Media 46(4):586–606CrossRefGoogle Scholar
  10. Cheng V, Hung P, Chiu D (2007) Enabling web services policy negotiation with privacy preserved using XACML. In: 40th annual HICSS, S 1–10Google Scholar
  11. Clarke R (2014) Persona missing, feared drowned. The digital persona concept, two decades later. Inform Technol People 27(2):182–207MathSciNetCrossRefGoogle Scholar
  12. CMU Usable Privacy and Security Laboratory (2015) Privacy bird. http://www.privacybird.org. Zugegriffen: 15. Nov. 2018
  13. Couldry N (2019) Datenkolonialismus. https://www.hiig.de/events/nick-couldry-datenkolonialismus-digitale-gesellschaft/. Zugegriffen: 30. Apr. 2019
  14. Cranor L, Langheinrich M, Marchiori M (2002) A P3P Preference Exchange Language 1.0 (APPEL1.0). http://www.w3.org/TR/3P-preferences. Zugegriffen: 15. Nov. 2018
  15. Davies SG (1997) Reengineering the right to privacy: how privacy has been transformed from a right to a commodity. In: Agre P, Rotenberg M (Hrsg) Technology and privacy. MIT Press, CambridgeGoogle Scholar
  16. Davis FD (1989) Perceived usefulness, perceived ease of use and user acceptance of information technology. MIS Q 3:319–340CrossRefGoogle Scholar
  17. Facebook (2015) Facebook-Privacy-Basics. www.facebook.com/about/basics/. Zugegriffen: 15. Nov. 2018
  18. Fischer-Hübner S, Hedbom H, Wästlund E (2011) Trust and assurance HCI. In: Camenisch J, Fischer-Hübner S, Rannenberg K (Hrsg) Privacy and identity management for life. Springer, Berlin, S 245–260CrossRefGoogle Scholar
  19. Fischer-Hübner S, Angulo J, Karegar F, Pulls T (2016) Transparency, privacy and trust – technology for tracking and controlling my data disclosures: does this work? In: Habib SMM, Vassileva J, Mauw S, Mühlhäuser M (Hrsg) IFIPTM 2016. Springer, Cham, S 3–14Google Scholar
  20. Google (2015) My account. https://myaccount.google.com. Zugegriffen: 15. Juni 2019
  21. Google (2018) Google crossmediapanel. https://crossmediapanel.com. Zugegriffen: 15. Nov. 2018
  22. Haas S, Wohlgemuth S, Echizen I, Sonehara N, Müller G (2011) Aspects of privacy for electronic health records. Int J Med Inform 80(2):26–31 (Special issue: Security in health information systems)CrossRefGoogle Scholar
  23. Hammer C, Snelting G (2009) Flow-sensitive, context-sensitive, and object-sensitive information flow control based on program dependence graphs. Int J Inform Secur 8:399–422CrossRefGoogle Scholar
  24. Hansen M (2008) Marrying transparency tools with user-controlled identity management. In: The Future of Identity in the Information Society. IFIP, Bd 262. Springer, Boston, S 199–220CrossRefGoogle Scholar
  25. Hedbom H (2009) A survey on transparency tools for enhancing privacy. In: Matyas V, Fischer-Hübner S (Hrsg) The future of identity in the information society. IFIP advances in information and communication technology, Bd 298. Springer, Berlin, S 67–82CrossRefGoogle Scholar
  26. Hildebrandt M, Koops BJ (2010) The challenges of ambient law and legal protection in the profiling era. Mod Law Rev 73(3):428–460CrossRefGoogle Scholar
  27. Janic M, Wijbenga JP, Veugen T (2013) Transparency Enhancing Tools (TETs). An overview. In: 3rd workshop on socio-technical aspects in security and trust. IEEE, S 18–25Google Scholar
  28. Kitchin R (2014) The data revolution: big data, open data, data infrastructures. Sage, LondonGoogle Scholar
  29. Koppell JGS (2005) Pathologies of accountability: ICANN and the challenge of multiple accountabilities disorder. Public Adm Rev 65(1):94–108CrossRefGoogle Scholar
  30. Laudon K (1996) Markets and privacy. CACM 39:94–104CrossRefGoogle Scholar
  31. Lessig L (2001) Code und andere Gesetze des Cyberspace. Berlin Verlag, BerlinGoogle Scholar
  32. Livshits B (2006) Improving software security with precise static and runtime analysis. Dissertation, Stanford University. https://suif.stanford.edu/~livshits/papers/pdf/thesis.pdf. Zugegriffen: 27. Juli 2019
  33. Mozilla Foundation (2015) Mozilla lightbeam. https://www.mozilla.org/de. Zugegriffen: 22. Apr. 2016
  34. Müller G (2014) Datenschutz bei datenzentrischen Diensten: Auslaufmodell oder nur 30 Jahre zurück? FIFF 1:21–34Google Scholar
  35. Müller, G (2018) DSGVO und Landnahme. https://PrivacyRewritten.Wordpress.com/verhindert-die-dsgvo-eine-landnahme-durch-netzwerktore/. Zugegriffen: 12. Juli 2019
  36. Müller G (2019) Verhindert die DSGVO eine Landnahme durch die Digitalisierung? ZFW 29(1):7–8Google Scholar
  37. Müller G, Accorsi R (2013) Why are business processes not secure? In: Fischlin M, Katzenbeisser S (Hrsg) Number theory and cryptography. Lecture notes in computer science, Bd 8260. Springer, Heidelberg, S 240–254Google Scholar
  38. Müller G, Wahlster W (2013) Placing humans in the feedback loop of social infrastructures. Inform Spektrum 36(6):520–529CrossRefGoogle Scholar
  39. Müller G, Zimmermann C (2017) Accountability as a privacy option – privacy dashboards. Research report Hitachi Ltd 20170330Google Scholar
  40. Nissenbaum H (2009) Privacy in context: technology, policy, and the integrity of social life. Stanford University Press, StanfordGoogle Scholar
  41. Piketty T (2014) Das Kapital. Beck, MünchenGoogle Scholar
  42. Purtova N (2010) Private law solutions in European data protection: relationship to privacy, and waiver of data protection rights. Neth Q Human Rights 28:179–198CrossRefGoogle Scholar
  43. Raskin A (2015) Mozilla privacy icons. https://wiki.mozilla.org. Zugegriffen: 15. Nov. 2018
  44. Scassa T (2018) Data ownership. In: Center for international governance innovation. Waterloo (Canada) September No 187. https://www.cigionline.org/publications/data-ownership. Zugegriffen: 15. Nov. 2018
  45. Signamini JM, McDermott B (2015) Ghostery. https://addons.mozilla.org/de/firefox/addon/ghostery/. Zugegriffen: 15. Nov. 2018
  46. Spiekermann S, Acquisti A, Böhme R, Hui K-L (2015) The challenges of personal data markets and privacy. Electron Mark 25:161–167CrossRefGoogle Scholar
  47. Tactical Technology Collective Stichting (2015) me & my shadow. https://myshadow.org. Zugegriffen: 15. Nov. 2018
  48. Westin AF (1968) Privacy and freedom. Wash Law Rev 25(1):166–170Google Scholar
  49. Wonnemann C (2011) Mechanismen zur Sicherheitszertifizierung formalisierter Geschäftsprozesse. Dissertation, FreiburgGoogle Scholar
  50. Zimmermann C (2017) Privacy through accountability. Dissertation, FreiburgGoogle Scholar
  51. Zimmermann C, Cabinakowa J (2015) A conceptualization of accountability as a privacy principle. In: Abramowicz W (Hrsg) BIS Poznan. LNBIP, Bd 228. Springer, Cham, S 261–272CrossRefGoogle Scholar
  52. Zimmermann C, Nolte C-G (2015) Towards balancing privacy and efficiency: a principal-agent model of data-centric business. In: Foresti S (Hrsg) LNCS, Bd 9331. Springer, Cham, S 89–104CrossRefGoogle Scholar
  53. Zimmermann C, Accorsi R, Müller G (2014) Privacy dashboards. Reconciling data-driven business models and privacy. In: 9th international conference on availability, reliability and security, IEEE, S 152–157Google Scholar
  54. Zuboff S (2014) Lasst euch nicht enteignen! Unsere Zukunft mit „Big Data“. http://www.faz.net/-gsf-7twrt. Zugegriffen: 15. Nov. 2018

Weiterführende Literatur

  1. Accorsi R, Zimmermann C, Müller G (2012) On taming the inference threat in social networks. In: Privacy and Data Protection Technology (PDPT). Amsterdam, S 1–5. https://staff.fnwi.uva.nl/g.j.vantnoordende/pdpt/2012/accorsi.pdf. Zugegriffen: 15. Mai 2016
  2. Brenig C, Accorsi R, Müller G (2015) Economic analysis of cryptocurrency backed money laundering. 23rd ECIS Münster, Germany, S 1–18. https://aisel.aisnet.org/cgi/viewcontent.cgi?article=1019&context=ecis2015. Zugegriffen: 19. Juli 2019
  3. Echizen I, Müller G, Sasaki R, Tjoa A (2013) Privacy by transparency for data-centric services. http://shonan.nii.ac.jp/shonan/wpcontent/No.2013-51.pdf. Zugegriffen: 12. Okt. 2017
  4. Müller G (1996) Secure communication: trust in technology or trust with technology? Interdisc Sci Rev 21(4):336–347CrossRefGoogle Scholar
  5. Müller G (2003) Telematik und Kommunikationssysteme in der vernetzten Wirtschaft. Oldenbourg, MünchenCrossRefGoogle Scholar
  6. Müller G (2008) Information security: 50 years behind, 50 years beyond. Wirtschaftsinformatik 50(4):322–323CrossRefGoogle Scholar
  7. Müller G (2009) War Internet die einzige Option. Wirtschaftsinformatik 51(1):53–60CrossRefGoogle Scholar
  8. Müller G (2010) Weiß Google mehr als ein „Geheimdienst“? Special Workshop LAW. 7. Internationales Menschenrechtsforum Luzern (IHRF) 18(19):17 fGoogle Scholar
  9. Müller G (2011) Die Mythen von Transparenz und Sicherheit im Internet. Ansprache zur Verleihung der Ehrendoktorwürde der TU Darmstadt. http://www.telematik.uni-freiburg.de/system/files/Ansprache.pdf. Zugegriffen: 15. Nov. 2018
  10. Müller G (2013a) Informationsdefizite und Privatheit. In: Buchmann J (Hrsg) Privatheit im Internet. https://www.acatech.de/Projekt/internet-privacy-eine-kultur-der-privatsphaere-und-des-vertrauens-im-internet/Acatech. Zugegriffen: 15. Nov. 2018
  11. Müller G (2013b) Characterization of e-commerce. In: Buchmann J (Hrsg) Internet privacy – options for adequate realization. Acatech study, Munich, S 43–59Google Scholar
  12. Müller G, Blanc RP (1987) Networking in open systems. Springer, BerlinzbMATHCrossRefGoogle Scholar
  13. Müller G, Pfitzmann A (Hrsg) (1997) Mehrseitige Sicherheit in der Kommunikationstechnik, Verfahren, Komponenten, Integration. Addison-Wesley, BostonGoogle Scholar
  14. Müller G, Rannenberg K (Hrsg) (1999a) Multilateral security in communications technology, empowering users, enabling applications. Addison-Wesley, BostonGoogle Scholar
  15. Müller G, Rannenberg K (1999b) Multilateral security. In: Müller G, Rannenberg K (Hrsg) Multilateral security in communications technology, empowering users, enabling applications. Addison-Wesley, Boston, S 562–570Google Scholar
  16. Müller G, Stapf K (Hrsg) (1999) Mehrseitige Sicherheit in der Kommunikationstechnik, Erwartung, Akzeptanz, Nutzung. Addison-Wesley, BostonGoogle Scholar
  17. Müller G, Sackmann S, Prokein O (2008) IT security new requirements, regulations and approaches. In: Schlottmann F (Hrsg) Handbook on information technology in finance, Springer, Berlin, S 711–730Google Scholar
  18. Müller G, Accorsi R, Höhn S, Sackmann S (2010) Sichere Nutzungskontrolle für mehr Transparenz in Finanzmärkten. Inform Spektrum 33(1):3–13Google Scholar
  19. Nolte C-G, Zimmermann C, Müller G (2015) Social network services’ market structure and its influence on privacy. In: Amsterdam privacy conference, S 269–271Google Scholar
  20. Pretschner A, Hilty M, Basin D (2006) Distributed usage control. CACM 49(9):39–44CrossRefGoogle Scholar
  21. Reichl H, Roßnagel A, Müller G (2005) Digitaler Personalausweis. DuV, WiesbadenCrossRefGoogle Scholar
  22. Sackmann S, Eymann T, Müller G (2002) EMIKA: real-time controlled mobile information systems in health care. In: GI Proceedings. Lecture Notes. Springer, S 151–158Google Scholar
  23. Wohlgemuth S, Müller G (2006) Privacy with delegation of rights by identity management. In: Müller G (Hrsg) Emerging trends in information and communication security. ETRICS 2006. Lecture Notes in Computer Science. Bd 3995. Springer, Heidelberg, S 175–190Google Scholar

Copyright information

© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020

Authors and Affiliations

  • Günter Müller
    • 1
  1. 1.IIG TelematikUniversität FreiburgFreiburgDeutschland

Personalised recommendations