Skip to main content
Log in

Digitale Spiegelbilder – Ethische Aspekte großer Datensammlungen

The digital looking glass: ethical aspects of large data collections

  • Leitthema
  • Published:
Bundesgesundheitsblatt - Gesundheitsforschung - Gesundheitsschutz Aims and scope

Zusammenfassung

Aus der Zunahme an Qualität und Quantität von gesundheitsbezogenen Daten, die in verschiedenen Kontexten gespeichert und ausgewertet werden, ergeben sich neue Herausforderungen für den Schutz des Rechts auf Privatsphäre. Um diese aufzuzeigen, werden zunächst die wesentlichen Arten der großen Datensammlungen mit Gesundheitsbezug kurz dargestellt und im Hinblick auf ihre aktuellen Anforderungen an den Datenschutz betrachtet. Es werden Risiken und Möglichkeiten der steigenden Transparenz und Verknüpfbarkeit von Gesundheitsdaten dargestellt, und abschließend wird die Frage aufgeworfen, welche zukünftigen Herausforderungen daraus für den Datenschutz und den Schutz der Privatsphäre erwachsen.

Abstract

The increase in the quality and quantity of health-related data stored and analyzed in different contexts is leading to new challenges to the protection of privacy. To demonstrate the major challenges, a description of the main categories of large data collections is given, followed by a short analysis of their current data security demands. The rising possibilities and risks that emerge from the increasing potential of big data methods of aggregation and the analysis of the huge amount of health-related data are discussed in light of the question: should new ways be found to further ensure the right to privacy?

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Notes

  1. Zur Unterscheidung von „born digital“ und „born analog“ data siehe [4], S. 18 ff.

  2. Diese drei „v“ entsprechen der ursprünglichen Definition von Big Data durch Gartner:„Big data is high-volume, high-velocity and high-variety information assets that demand cost-effective, innovative forms of information processing for enhanced insight and decision making“ [5].

  3. „Big Data wird analysiert, interpretiert, verknüpft und ergänzt und auf diese Weise zu Smart Data veredelt. Smart Data wiederum lässt sich für die Steuerung, Wartung und Verbesserung smarter Produkte und Dienstleistungen verwenden. Aus Smart Data lässt sich Wissen generieren, die Basis neuer Geschäftsmodelle. Big Data wird also zu Smart Data veredelt und in neuen, individuell kombinierbaren Smart Services monetisiert“ [6, S. 4].

  4. Andere Herausforderungen werden wirtschaftlicher und sozialer Natur sein, siehe z. B. [7] für eine politische Standortbestimmung, oder [8] für eine populäre, kritische Betrachtung.

  5. Für eine Übersicht über die Diskussionen zum Recht auf Privatsphäre siehe: [11].

  6. Zur Minderung des Risikos eines Missbrauchs von Gesundheitsdaten wird, wo immer dies möglich ist, mit Daten gearbeitet, die nicht mehr einer bestimmten Person zuzuordnen, also anonymisiert oder pseudonymisiert sind. Dies geschieht auf Grundlage von § 3a des Bundesdatenschutzgesetzes (BDSG): „Die Erhebung, Verarbeitung und Nutzung personenbezogener Daten und die Auswahl und Gestaltung von Datenverarbeitungssystemen sind an dem Ziel auszurichten, so wenig personenbezogene Daten wie möglich zu erheben, zu verarbeiten oder zu nutzen. Insbesondere sind personenbezogene Daten zu anonymisieren oder zu pseudonymisieren, soweit dies nach dem Verwendungszweck möglich ist und keinen im Verhältnis zu dem angestrebten Schutzzweck unverhältnismäßigen Aufwand erfordert.“ Als anonymisiert gelten nach § 3 Abs. 6 BDSG Daten, wenn sie „nicht mehr“ oder „nur mit einem unverhältnismäßig großen Aufwand an Zeit, Kosten und Arbeitskraft einer bestimmten oder bestimmbaren natürlichen Person zugeordnet werden können.“ Unter einer Pseudonymisierung versteht man nach § 3 Abs. 6a BDSG das „Ersetzen des Namens und anderer Identifikationsmerkmale durch ein Kennzeichen zu dem Zweck, die Bestimmung des Betroffenen auszuschließen oder wesentlich zu erschweren.“ Während man bei einer Anonymisierung also davon ausgeht, dass eine Zuordnung der Daten zu einer bestimmten Person faktisch für niemanden mehr möglich sein sollte, gibt es bei der Pseudonymisierung noch die Möglichkeit, durch die Anwendung einer – in der Regel streng geschützten – Zuordnungsregel den Datensatz mit der Ausgangsperson zu verknüpfen. Dies erlaubt z. B. im Falle von medizinischen Studien die Rückmeldung unerwarteter Zufallsbefunde an die Probanden oder die Neukontaktierung eines Probanden, sollte eine Aktualisierung seiner Einwilligungserklärung für die weitere Nutzung seiner Proben und Daten notwendig werden. Zur ausführlichen Diskussion von Anonymisierung und Pseudonymisierung siehe [12], Kap. 4.2.4, S. 42 ff.

  7. Für eine Übersicht siehe: [8].

  8. Seltene Ausnahme sind Forschungsvorhaben, die unter Berufung auf die sog. „Forschungsklausel“ des BDSG Zugriff auf Daten erhalten. Diese sucht einen Ausgleich zwischen medizinischer Forschung im Sinne des öffentlichen Interesses an medizinischem Fortschritt und dem Recht eines Patienten bzw. Probanden auf informationelle Selbstbestimmung zu schaffen. Sie legt fest, dass dort, wo es nicht oder nur mit unverhältnismäßig hohem Aufwand möglich ist, den Patienten um eine Einwilligung zur Nutzung seiner Daten nachzusuchen oder den Personenbezug der Daten aufzulösen, unter der Bedingung, dass zugleich ein hoher gesellschaftlicher Nutzen aus der Durchführung Forschung erwartet werden kann, eine sog. „gesetzliche Verwendungserlaubnis“ nach § 13 Abs. 2 Nr. 6 und § 28 Abs. 6 Nr. 4 greifen kann. Diese Klausel ist allerdings mit hohen Hürden versehen, und auch hier ist der Schutz der Daten vor missbräuchlicher Verbreitung und Nutzung zu gewährleisten. Näheres siehe [12], Kap. 4.2, S. 36 ff.

  9. Für eine ausführliche Darstellung siehe: [21].

  10. Siehe hierzu: [12].

  11. Siehe hierzu auch: [23].

  12. Die Notwendigkeit der Entwicklung solcher Werkzeuge wurde auch von der Bundesregierung bereits erkannt: [24].

  13. Siehe auch schon in: [25].

Literatur

  1. Bunz M (2012) Die stille Revolution: Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen. Suhrkamp, Berlin

    Google Scholar 

  2. Geiselberger H, Moorstedt T (2013) Big Data: Das neue Versprechen der Allwissenheit. Suhrkamp, Berlin

  3. Mayer-Schönberger V, Cukier K (2013) Big Data: Die Revolution, die unser Leben verändern wird. Redline, München

    Google Scholar 

  4. Executive Office of the President, President’s Council of Advices on Science and Technology (2014) Report to the President: Big Data and privacy: a technological Perspective. The White House, Washington D.C.

  5. Gartner (2013) Gartner IT-Glossary. http://www.gartner.com/it-glossary/big-data. Zugegriffen: 29. Apr. 2015

  6. acatech (2015) Smart Service Welt. Abschlussbericht – Kurzversion, Berlin

  7. Bundesregierung Digitale-Agenda (2014) | Grundsätze unserer Digitalpolitik. http://www.digitale-agenda.de/Webs/DA/DE/Grundsaetze/grundsaetze_node.html. Zugegriffen: 09. Feb. 2015

  8. Swart E, Ihle P, Gothe H, Matusiewicz D (2014) Routinedaten im Gesundheitswesen, 2. Aufl. Huber, Bern

    Google Scholar 

  9. Warren S, Brandeis L (1890) The Right to Privacy. Harv Law Rev 4(5):193-220

  10. Newman AL (2015) What the „right to be forgotten“ means for privacy in a digital age. Science 347:507–508. doi:10.1126/science.aaa4603

    Article  CAS  PubMed  Google Scholar 

  11. DeCew J (2015) Privacy. In: Zalta EN (Hrsg) Stanford Encyclopedia of Philosophy. (Aufl. Frühjahr 2015). http://plato.stanford.edu/archives/spr2015/entries/privacy/. Zugegriffen: 10. Juli. 2015

  12. Pommerening K, Drepper J, Helbing K, Ganslandt T (2014) Leitfaden zum Datenschutz in medizinischen Forschungsprojekten – Generische Lösungen der TMF 2.0. Medizinisch Wissenschaftliche Verlagsgesellschaft, Berlin

    Google Scholar 

  13. DIMDI – Informationssystem Versorgungsdaten (Datentransparenz) (2015). http://www.dimdi.de/static/de/versorgungsdaten/index.htm. Zugegriffen: 09. Feb. 2015

  14. Bohannon J (2013) Genealogy databases enable naming of anonymous DNA donors. Science 339:262. doi:10.1126/science.339.6117.262

    Article  CAS  PubMed  Google Scholar 

  15. Chatziastros A, Drepper J, Semler SC (2014) Big Data. mdi 2:53–57

  16. Duhigg C (2012) How Companies Learn Your Secrets – NYTimes.com. http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?pagewanted=all&_r=0. Zugegriffen: 09. Feb. 2015

  17. Mayer, J, Mutchler P (2014) MetaPhone: The Sensitivity of Telephone Metadata | Web Policy. http://webpolicy.org/2014/03/12/metaphone-the-sensitivity-of-telephone-metadata/. Zugegriffen: 09. Feb. 2015

  18. De Montjoye Y-A, Radaelli L, Singh VK, Pentland AS (2015) Unique in the shopping mall: On the reidentifiability of credit card metadata. Science 347:536–539. doi:10.1126/science.1256297

    Article  PubMed  Google Scholar 

  19. Schleidgen S, Marckmann G (2013) Re-focusing the ethical discourse on personalized medicine: a qualitative interview study with stakeholders in the German healthcare system. BMC Med Ethics 14:20. doi:10.1186/1472-6939-14-20

    Article  PubMed  PubMed Central  Google Scholar 

  20. Eckhardt A, Navarini AA, Recher A et al (2014) Personalisierte Medizin. TA-Swiss, Zürich

    Google Scholar 

  21. Leopoldina, acatech, Union der deutschen Akademien der Wissenschaften (2014) Individualisierte Medizin. Voraussetzungen und Grenzen. Deutsche Akademie der Naturforscher Leopoldina e. V. – Nationale Akademie der Wissenschaften, acatech – Deutsche Akademie der Technikwissenschaften e. V., Union der deutschen Akademien der Wissenschaften e. V., Halle/Saale

  22. Krawczak M (2015) Wir können die Daten der Patienten vor unbefugtem Zugriff schützen. FAZ 25.02.2015

  23. Couzin-Frankel J (2015) Trust me, I’m a medical researcher. Science 347:501–503. doi: 10.1126/science.347.6221.501

    Article  CAS  PubMed  Google Scholar 

  24. BMBF (2014) Bekanntmachung des Bundesministeriums für Bildung und Forschung von Richtlinien zur Förderung von Forschungsinitiativen auf dem Gebiet des Selbstdatenschutzes im Rahmen des Förderprogramms „IKT 2020 – Forschung für Innovationen“. http://www.bmbf.de/foerderungen/25038.php. Zugegriffen: 09. Feb. 2015

  25. Internatinonale Datenschutzkonferenz (2009) Entschließung der 31. Konferenz vom 4.-6. November 2009 in Madrid über Internationale Standards zum Schutz der Privatsphäre. http://www.bfdi.bund.de/SharedDocs/Publikationen/Entschliessungssammlung/IntDSK/2009-Madrid-InternationaleStandards.pdf?__blob=publicationFile&v=1. Zugegriffen: 29.Apr. 2015

Download references

Danksagung

Der Beitrag wurde aus Mitteln des BMBF, Förderkennzeichen 01Gl1003, finanziert. Für inhaltliche Diskussionen und Hilfestellungen danke ich Herrn Sebastian C. Semler, Johannes Drepper, Murat Sariyar, Irene Schlünder, Jie Wu und Josef Schepers aus der TMF-Geschäftsstelle.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Elke Witt.

Ethics declarations

Interessenkonflikt

Dr. Elke Witt gibt an, dass kein Interessenkonflikt besteht.

Dieser Beitrag beinhaltet keine Studien an Menschen oder Tieren.

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Witt, E. Digitale Spiegelbilder – Ethische Aspekte großer Datensammlungen. Bundesgesundheitsbl. 58, 853–858 (2015). https://doi.org/10.1007/s00103-015-2187-5

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s00103-015-2187-5

Schlüsselwörter

Keywords

Navigation