Zusammenfassung
Aus der Zunahme an Qualität und Quantität von gesundheitsbezogenen Daten, die in verschiedenen Kontexten gespeichert und ausgewertet werden, ergeben sich neue Herausforderungen für den Schutz des Rechts auf Privatsphäre. Um diese aufzuzeigen, werden zunächst die wesentlichen Arten der großen Datensammlungen mit Gesundheitsbezug kurz dargestellt und im Hinblick auf ihre aktuellen Anforderungen an den Datenschutz betrachtet. Es werden Risiken und Möglichkeiten der steigenden Transparenz und Verknüpfbarkeit von Gesundheitsdaten dargestellt, und abschließend wird die Frage aufgeworfen, welche zukünftigen Herausforderungen daraus für den Datenschutz und den Schutz der Privatsphäre erwachsen.
Abstract
The increase in the quality and quantity of health-related data stored and analyzed in different contexts is leading to new challenges to the protection of privacy. To demonstrate the major challenges, a description of the main categories of large data collections is given, followed by a short analysis of their current data security demands. The rising possibilities and risks that emerge from the increasing potential of big data methods of aggregation and the analysis of the huge amount of health-related data are discussed in light of the question: should new ways be found to further ensure the right to privacy?
Notes
Zur Unterscheidung von „born digital“ und „born analog“ data siehe [4], S. 18 ff.
Diese drei „v“ entsprechen der ursprünglichen Definition von Big Data durch Gartner:„Big data is high-volume, high-velocity and high-variety information assets that demand cost-effective, innovative forms of information processing for enhanced insight and decision making“ [5].
„Big Data wird analysiert, interpretiert, verknüpft und ergänzt und auf diese Weise zu Smart Data veredelt. Smart Data wiederum lässt sich für die Steuerung, Wartung und Verbesserung smarter Produkte und Dienstleistungen verwenden. Aus Smart Data lässt sich Wissen generieren, die Basis neuer Geschäftsmodelle. Big Data wird also zu Smart Data veredelt und in neuen, individuell kombinierbaren Smart Services monetisiert“ [6, S. 4].
Für eine Übersicht über die Diskussionen zum Recht auf Privatsphäre siehe: [11].
Zur Minderung des Risikos eines Missbrauchs von Gesundheitsdaten wird, wo immer dies möglich ist, mit Daten gearbeitet, die nicht mehr einer bestimmten Person zuzuordnen, also anonymisiert oder pseudonymisiert sind. Dies geschieht auf Grundlage von § 3a des Bundesdatenschutzgesetzes (BDSG): „Die Erhebung, Verarbeitung und Nutzung personenbezogener Daten und die Auswahl und Gestaltung von Datenverarbeitungssystemen sind an dem Ziel auszurichten, so wenig personenbezogene Daten wie möglich zu erheben, zu verarbeiten oder zu nutzen. Insbesondere sind personenbezogene Daten zu anonymisieren oder zu pseudonymisieren, soweit dies nach dem Verwendungszweck möglich ist und keinen im Verhältnis zu dem angestrebten Schutzzweck unverhältnismäßigen Aufwand erfordert.“ Als anonymisiert gelten nach § 3 Abs. 6 BDSG Daten, wenn sie „nicht mehr“ oder „nur mit einem unverhältnismäßig großen Aufwand an Zeit, Kosten und Arbeitskraft einer bestimmten oder bestimmbaren natürlichen Person zugeordnet werden können.“ Unter einer Pseudonymisierung versteht man nach § 3 Abs. 6a BDSG das „Ersetzen des Namens und anderer Identifikationsmerkmale durch ein Kennzeichen zu dem Zweck, die Bestimmung des Betroffenen auszuschließen oder wesentlich zu erschweren.“ Während man bei einer Anonymisierung also davon ausgeht, dass eine Zuordnung der Daten zu einer bestimmten Person faktisch für niemanden mehr möglich sein sollte, gibt es bei der Pseudonymisierung noch die Möglichkeit, durch die Anwendung einer – in der Regel streng geschützten – Zuordnungsregel den Datensatz mit der Ausgangsperson zu verknüpfen. Dies erlaubt z. B. im Falle von medizinischen Studien die Rückmeldung unerwarteter Zufallsbefunde an die Probanden oder die Neukontaktierung eines Probanden, sollte eine Aktualisierung seiner Einwilligungserklärung für die weitere Nutzung seiner Proben und Daten notwendig werden. Zur ausführlichen Diskussion von Anonymisierung und Pseudonymisierung siehe [12], Kap. 4.2.4, S. 42 ff.
Für eine Übersicht siehe: [8].
Seltene Ausnahme sind Forschungsvorhaben, die unter Berufung auf die sog. „Forschungsklausel“ des BDSG Zugriff auf Daten erhalten. Diese sucht einen Ausgleich zwischen medizinischer Forschung im Sinne des öffentlichen Interesses an medizinischem Fortschritt und dem Recht eines Patienten bzw. Probanden auf informationelle Selbstbestimmung zu schaffen. Sie legt fest, dass dort, wo es nicht oder nur mit unverhältnismäßig hohem Aufwand möglich ist, den Patienten um eine Einwilligung zur Nutzung seiner Daten nachzusuchen oder den Personenbezug der Daten aufzulösen, unter der Bedingung, dass zugleich ein hoher gesellschaftlicher Nutzen aus der Durchführung Forschung erwartet werden kann, eine sog. „gesetzliche Verwendungserlaubnis“ nach § 13 Abs. 2 Nr. 6 und § 28 Abs. 6 Nr. 4 greifen kann. Diese Klausel ist allerdings mit hohen Hürden versehen, und auch hier ist der Schutz der Daten vor missbräuchlicher Verbreitung und Nutzung zu gewährleisten. Näheres siehe [12], Kap. 4.2, S. 36 ff.
Für eine ausführliche Darstellung siehe: [21].
Siehe hierzu: [12].
Siehe hierzu auch: [23].
Die Notwendigkeit der Entwicklung solcher Werkzeuge wurde auch von der Bundesregierung bereits erkannt: [24].
Siehe auch schon in: [25].
Literatur
Bunz M (2012) Die stille Revolution: Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen. Suhrkamp, Berlin
Geiselberger H, Moorstedt T (2013) Big Data: Das neue Versprechen der Allwissenheit. Suhrkamp, Berlin
Mayer-Schönberger V, Cukier K (2013) Big Data: Die Revolution, die unser Leben verändern wird. Redline, München
Executive Office of the President, President’s Council of Advices on Science and Technology (2014) Report to the President: Big Data and privacy: a technological Perspective. The White House, Washington D.C.
Gartner (2013) Gartner IT-Glossary. http://www.gartner.com/it-glossary/big-data. Zugegriffen: 29. Apr. 2015
acatech (2015) Smart Service Welt. Abschlussbericht – Kurzversion, Berlin
Bundesregierung Digitale-Agenda (2014) | Grundsätze unserer Digitalpolitik. http://www.digitale-agenda.de/Webs/DA/DE/Grundsaetze/grundsaetze_node.html. Zugegriffen: 09. Feb. 2015
Swart E, Ihle P, Gothe H, Matusiewicz D (2014) Routinedaten im Gesundheitswesen, 2. Aufl. Huber, Bern
Warren S, Brandeis L (1890) The Right to Privacy. Harv Law Rev 4(5):193-220
Newman AL (2015) What the „right to be forgotten“ means for privacy in a digital age. Science 347:507–508. doi:10.1126/science.aaa4603
DeCew J (2015) Privacy. In: Zalta EN (Hrsg) Stanford Encyclopedia of Philosophy. (Aufl. Frühjahr 2015). http://plato.stanford.edu/archives/spr2015/entries/privacy/. Zugegriffen: 10. Juli. 2015
Pommerening K, Drepper J, Helbing K, Ganslandt T (2014) Leitfaden zum Datenschutz in medizinischen Forschungsprojekten – Generische Lösungen der TMF 2.0. Medizinisch Wissenschaftliche Verlagsgesellschaft, Berlin
DIMDI – Informationssystem Versorgungsdaten (Datentransparenz) (2015). http://www.dimdi.de/static/de/versorgungsdaten/index.htm. Zugegriffen: 09. Feb. 2015
Bohannon J (2013) Genealogy databases enable naming of anonymous DNA donors. Science 339:262. doi:10.1126/science.339.6117.262
Chatziastros A, Drepper J, Semler SC (2014) Big Data. mdi 2:53–57
Duhigg C (2012) How Companies Learn Your Secrets – NYTimes.com. http://www.nytimes.com/2012/02/19/magazine/shopping-habits.html?pagewanted=all&_r=0. Zugegriffen: 09. Feb. 2015
Mayer, J, Mutchler P (2014) MetaPhone: The Sensitivity of Telephone Metadata | Web Policy. http://webpolicy.org/2014/03/12/metaphone-the-sensitivity-of-telephone-metadata/. Zugegriffen: 09. Feb. 2015
De Montjoye Y-A, Radaelli L, Singh VK, Pentland AS (2015) Unique in the shopping mall: On the reidentifiability of credit card metadata. Science 347:536–539. doi:10.1126/science.1256297
Schleidgen S, Marckmann G (2013) Re-focusing the ethical discourse on personalized medicine: a qualitative interview study with stakeholders in the German healthcare system. BMC Med Ethics 14:20. doi:10.1186/1472-6939-14-20
Eckhardt A, Navarini AA, Recher A et al (2014) Personalisierte Medizin. TA-Swiss, Zürich
Leopoldina, acatech, Union der deutschen Akademien der Wissenschaften (2014) Individualisierte Medizin. Voraussetzungen und Grenzen. Deutsche Akademie der Naturforscher Leopoldina e. V. – Nationale Akademie der Wissenschaften, acatech – Deutsche Akademie der Technikwissenschaften e. V., Union der deutschen Akademien der Wissenschaften e. V., Halle/Saale
Krawczak M (2015) Wir können die Daten der Patienten vor unbefugtem Zugriff schützen. FAZ 25.02.2015
Couzin-Frankel J (2015) Trust me, I’m a medical researcher. Science 347:501–503. doi: 10.1126/science.347.6221.501
BMBF (2014) Bekanntmachung des Bundesministeriums für Bildung und Forschung von Richtlinien zur Förderung von Forschungsinitiativen auf dem Gebiet des Selbstdatenschutzes im Rahmen des Förderprogramms „IKT 2020 – Forschung für Innovationen“. http://www.bmbf.de/foerderungen/25038.php. Zugegriffen: 09. Feb. 2015
Internatinonale Datenschutzkonferenz (2009) Entschließung der 31. Konferenz vom 4.-6. November 2009 in Madrid über Internationale Standards zum Schutz der Privatsphäre. http://www.bfdi.bund.de/SharedDocs/Publikationen/Entschliessungssammlung/IntDSK/2009-Madrid-InternationaleStandards.pdf?__blob=publicationFile&v=1. Zugegriffen: 29.Apr. 2015
Danksagung
Der Beitrag wurde aus Mitteln des BMBF, Förderkennzeichen 01Gl1003, finanziert. Für inhaltliche Diskussionen und Hilfestellungen danke ich Herrn Sebastian C. Semler, Johannes Drepper, Murat Sariyar, Irene Schlünder, Jie Wu und Josef Schepers aus der TMF-Geschäftsstelle.
Author information
Authors and Affiliations
Corresponding author
Ethics declarations
Interessenkonflikt
Dr. Elke Witt gibt an, dass kein Interessenkonflikt besteht.
Dieser Beitrag beinhaltet keine Studien an Menschen oder Tieren.
Rights and permissions
About this article
Cite this article
Witt, E. Digitale Spiegelbilder – Ethische Aspekte großer Datensammlungen. Bundesgesundheitsbl. 58, 853–858 (2015). https://doi.org/10.1007/s00103-015-2187-5
Published:
Issue Date:
DOI: https://doi.org/10.1007/s00103-015-2187-5