I. Zusammenfassung der wesentlichen Ergebnisse

Profiling nach dem Verständnis der Datenschutz-Grundverordnung ist ein technisches Erkenntnisverfahren, das auf dem Prinzip der Gruppenbildung basiert. Diesem Verfahren wohnen signifikante persönlichkeitsrechtliche Implikationen inne, erlaubt es doch die Schaffung „neuer“ personenbezogener Daten, die dem Betroffenen zugewiesen werden und teilweise tiefgehende Einblicke in seine persönlichen Aspekte erlauben. Für die rechtliche Bewertung ist die Erkenntnis bedeutsam, dass Profiling letztlich nichts anderes ist als eine Wahrscheinlichkeitsberechnung. Im Einzelfall falsche Ergebnisse – sog. false positives bzw. false negatives – sind diesem Verfahren deshalb systemimmanent. Dies unterstreicht die Notwendigkeit der gedanklichen Trennung von Profiling und darauf basierenden Entscheidungen sowie die Berechtigung der Regulierung automatisierter Einzelentscheidungen in Art. 22 DSGVO.

Profiling kann grundsätzlich eingesetzt werden, um Preise im Online-Handel gegenüber Endverbrauchern zu personalisieren. Profiling und Preispersonalisierung basieren auf der gleichen konzeptionellen Herangehensweise. Preispersonalisierung ist ein Unterfall von Preisdiskriminierung 3. Grades. In der Theorie erlaubt sie – den Zugriff auf ausreichend Datenmaterial vorausgesetzt – die Bestimmung des Reservationspreises des Kunden, also seiner individuellen Zahlungsbereitschaft für ein bestimmtes Gut oder eine bestimmte Dienstleistung. Die Praxis ist davon aus verschiedenen Gründen weit entfernt: In der Regel fehlt der Zugriff auf ausreichend großes Datenmaterial (personenbezogener wie abstrakter Natur). Hinzu kommen technische Schwierigkeiten (etwa hinsichtlich der zuverlässigen Identifizierung des einzelnen Kunden) sowie wettbewerbliche Beschränkungen, die ein Ausreizen des Reservationspreises von vornherein erschweren oder gänzlich ausschließen. Der möglicherweise bedeutendste Grund dafür ist letztlich aber auch ein ganz menschlicher: Es ist kaum möglich, von „dem“ Reservationspreis eines Kunden zu sprechen. Die Zahlungsbereitschaft schwankt, ist situationsabhängig, oftmals irrational und auch vom Betroffenen nicht stets bezifferbar. Eher realisierbar sind deshalb „Gruppenpreise“, die etwa in Abhängigkeit vom physischen Aufenthaltsort des Kunden oder von der Nutzung eines Preisvergleichsportals bestimmt werden. Bei diesen handelt es sich aber um nicht mehr als eine grobe, pauschalisierende Annäherung an den Reservationspreis.

Die auf tatsächlicher Ebene zwingend notwendige Unterscheidung zwischen personalisierten Preisen und dynamisch oder anderweitig begründeten Preisschwankungen schlägt auf die rechtliche Ebene durch. Die hiesige Untersuchung kommt zu dem Ergebnis, dass beim Personalised Pricing im Regelfall personenbezogene Daten i. S. d. Art. 4 Nr. 1 DSGVO verarbeitet werden. Dementsprechend findet die Datenschutz-Grundverordnung gem. Art. 2 I DSGVO Anwendung. Tragendes Argument dafür ist, dass der Anbieter, der Daten zum Zwecke der Preispersonalisierung erhebt, dabei stets zumindest mittelbar auch die Feststellung der Identität des Kunden bezweckt: Ohne Kenntnis der Identität des Vertragspartners ist ein Kaufabschluss kaum denkbar.

Mit der Datenschutz-Grundverordnung, dem Gesetz gegen den unlauteren Wettbewerb und dem Allgemeinen Gleichbehandlungsgesetz bestehen verschiedene Schutzsysteme, die in den hier untersuchten Konstellationen bestimmte Gruppen vor unzulässiger Diskriminierung schützen können. Rechtstechnisch wird dieses Ergebnis auf materiell-rechtlicher Ebene durch zwei Herangehensweisen erreicht. Zum einen bestehen datenschutzrechtliche und lauterkeitsrechtliche Informationspflichten, die einen mittelbaren Schutz vor Diskriminierung bewirken. Durch erhöhte Transparenz sinkt die Wahrscheinlichkeit, dass systematisch implementierte Diskriminierung entsteht oder unentdeckt bleibt. Mit dem New Deal for Consumers wurde zudem eine ausdrückliche verbraucherschutzrechtliche Pflicht eingeführt, Kunden auf den Einsatz personalisierter Preise hinzuweisen. Diese kommt seit dem 28.5.2022 gem. §§ 312d I S. 1, 312j II BGB i. V. m. Art. 246a § 1 I S. 1 Nr. 6 EGBGB zur Anwendung. Zudem bestehen datenschutzrechtliche und antidiskriminierungsrechtliche Handlungsverbote, die sich gegen diskriminierende Handlungen richten. § 19 I AGG ist auf die hier behandelten Sachverhalte anwendbar. Auch Art. 22 I DSGVO kann fruchtbar gemacht werden. Die Regelungssysteme sind nebeneinander anwendbar und der durch sie vermittelte Schutz kommt im Kontext von Preispersonalisierung zur Anwendung. Dies entspricht dem jeweiligen Telos dieser Regelwerke.

Ungewollte Schutzlücken sind nicht ersichtlich. Der europäische und der deutsche Gesetzgeber haben sich entschieden, im Privatrechtsverkehr bestimmte Gruppen vor unmittelbarer und mittelbarer Diskriminierung zu schützen – andere hingegen nicht. § 19 I AGG sowie Art. 9 I und Erwägungsgrund 71 DSGVO beziehen sich jeweils auf konkret bezeichnete Gruppen. Die Auflistungen decken sich aber nicht eins zu eins. Deshalb bestehen bei isolierter Betrachtung der Regelwerke unterschiedlich hohe Schutzniveaus. Hinzu kommt, dass keine der Normen sich auf alle in Art. 21 I GRCh genannten Eigenschaften bezieht. So erfährt etwa die dort genannte „Sprache“ als Anknüpfungspunkt für diskriminierende Handlungen keinen einfachgesetzlichen Schutz. Die Frage, welche Gruppen in welcher Intensität auch im Privatrechtsverkehr vor Diskriminierung geschützt werden sollen, ist eine eigenständige. Mittelfristig ist zu diskutieren, ob auch weiterhin nur auf konkrete geschützte Gruppen abgestellt werden sollte oder ob der Schutz vor Diskriminierung einer flexibleren Herangehensweise bedarf. Profiling-Verfahren zeichnen sich dadurch aus, dass sie mithilfe statistischer Methoden Vergleichsgruppen erschaffen und diese der Bewertung persönlicher Aspekte zugrunde legen. Die so produzierten Ergebnisse können zu Ungleichbehandlungen führen, die im Einzelfall als überraschend, nicht nachvollziehbar oder gar unfair betrachtet werden. Ein wesentlicher Grund dafür ist, dass die in Datensätzen enthaltenen Korrelationen oftmals zu Erkenntnissen führen, die intuitiv nicht zu erwarten wären. Dies gilt über Preispersonalisierung hinaus für zahlreiche algorithmenbasierte Entscheidungssysteme. Der Gesetzgeber wird sich zukünftig also mit der Frage auseinandersetzen müssen, wie das Recht mit solchen Fallkonstellationen umzugehen hat, die in normativer Hinsicht problematisch sind, sich aber einer Kategorisierung entziehen, die sich klar definierter, rechtlich geschützter Gruppen bedient.Footnote 1 Denkbar wäre etwa eine Generalklausel, die normativ abzulehnende Diskriminierungen untersagt. Hier ist tendenziell Zurückhaltung geboten: Eine Ungleichbehandlung als solches ist im Privatrechtsverkehr nicht per se verwerflich. Sie ist letztlich Ausdruck einer freiheitlichen Wirtschaftsordnung. Unter welchen Umständen eine Einschränkung der unternehmerischen Freiheit zugunsten des Diskriminierungsschutzes geboten ist, ist eine politische Entscheidung. Diese muss sich wiederum an den Wertungen des Verfassungsrechts orientieren, um allen betroffenen Interessen gerecht zu werden.

II. Ausblick

Generell zeichnet sich im Online-Bereich eine steigende Personalisierung von Inhalten ab. Der Gesetzgeber steht vor der schwierigen Aufgabe, den damit einhergehenden Nutzen mit dem persönlichkeitsrechtlichen Schadenspotenzial in Ausgleich zu bringen und, soweit notwendig, behutsam regulierend einzugreifen. Daher ist es beispielsweise grundsätzlich zu begrüßen, dass der im November 2022 in Kraft getretene Digital Services Act eine recht detaillierte und weitreichende Regelung für automatisierte Empfehlungssysteme vorsieht.Footnote 2 Demnach müssen Online-Plattformen, die ihren Nutzern etwa Produkte nach Eingabe eines Suchbegriffs in Form eines Rankings präsentieren, in ihren allgemeinen Geschäftsbedingungen gem. Art. 27 I DSA u. a. die wichtigsten dabei herangezogenen Parameter offenlegen.Footnote 3 Sie müssen darlegen, aus welchem Grund sie einem Nutzer bestimmte Informationen vorschlagen. Dies beinhaltet zumindest „die Kriterien, die für die Bestimmung der Informationen, die dem Nutzer vorgeschlagen werden, am wichtigsten sind [und] die Gründe für die relative Bedeutung dieser Parameter.“Footnote 4 Sofern es sich um eine sog. sehr große Online-Plattform handelt, muss dem Nutzer bei der Erstellung eines solchen Rankings darüber hinaus zumindest eine Option angeboten werden, die nicht auf Profiling i. S. d. Art. 4 Nr. 4 DSGVO basiert.Footnote 5

Preispersonalisierung stellt eine spezielle Form der Personalisierung dar. Sie kommt zum heutigen Zeitpunkt ausgesprochen selten vor. Dennoch ist es möglich, dass sich dies in Zukunft ändern wird. In sich abgeschlossene, digitale Assistenzsysteme – wie etwa Alexa von Amazon – etablieren Rahmenbedingungen, die personalisierte Preise aus verschiedenen Gründen begünstigen. Die Kunden dort sind aus Sicht des Anbieters stets eindeutig identifiziert. Dies erlaubt eine individualisierte Profilbildung über einen längeren Zeitraum. Zugleich besteht für die Anbieter die Möglichkeit, in großem Ausmaß abstrakte Vergleichsdaten zu sammeln. Je abgeschlossener ein solches System ist, desto leichter ist auch die Preiskommunikation dem Kunden gegenüber: Beispielsweise ist es leicht möglich, ausgewählten Kunden Gutscheine zuzuschicken (mittelbare Preispersonalisierung). Auch unmittelbare Preispersonalisierung dürfte leichter möglich sein, wenn Endverbraucher etwa zunehmend Kaufentscheidungen dem Assistenzsystem überlassen und – z. B. aus Bequemlichkeit – weniger geneigt sind, Preise online zu vergleichen.

Zum heutigen Zeitpunkt ist die kundenseitige negative Rezeption personalisierter Preise eines ihrer größten Hindernisse: Kunden empfinden es als ungerecht, wenn sie realisieren, dass Preise ohne erkennbare Rechtfertigung individualisiert und an ihre Zahlungsbereitschaft angepasst werden. Dennoch ist denkbar, dass die Akzeptanz personalisierter Preise steigen wird. Dies zeigt sich am Beispiel des Yield Managements. Als Fluggesellschaften diese Preissetzungsmethode in den USA etabliert hatten, war die öffentliche Akzeptanz sehr gering. Heutzutage empfinden Kunden es als normal, dass Ticketpreise im Laufe der Zeit Schwankungen unterliegen. Es bleibt abzuwarten, welche Auswirkungen die neue, in die Verbraucherrechte-Richtlinie eingefügte verbraucherschutzrechtliche Informationspflicht haben wird. Die Durchsetzung dieser Pflicht dürfte in der Praxis unter verschiedenen Gesichtspunkten schwierig werden und umstritten sein. So stellen sich etwa komplizierte Nachweisprobleme bei der Frage, ob ein Anbieter dynamische Preissetzungsmethoden einsetzt (diese sind ausdrücklich vom Anwendungsbereich der Informationspflicht ausgenommen) oder Preise tatsächlich personalisiert. Letztlich wird es Aufgabe der Gerichte sein, diese Fragen zu beantworten.

Das geltende materielle Recht ist diesen tatsächlichen Entwicklungen gewachsen: Die bestehenden Schutzsysteme sind grundsätzlich dazu geeignet, mit der Diskriminierungsgefahr, die dem Personalised Pricing innewohnt, umzugehen. Die in § 19 I AGG sowie Art. 9 I und Erwägungsgrund 71 DSGVO genannten und dementsprechend geschützten Gruppen können vom Gesetzgeber erweitert werden, sollte dies in der Zukunft geboten erscheinen. Auch wird sich erst im Laufe der Zeit zeigen, ob im Hinblick auf etwaige Probleme bei der Rechtsdurchsetzung Änderungsbedarf besteht, etwa bei der Beweislastverteilung.

III. Zusammenfassung der wesentlichen Ergebnisse mithilfe von Thesen

  1. 1.

    Profiling i. S. d. Art. 4 Nr. 4 DSGVO ist ein technisches Erkenntnisverfahren, das auf dem Prinzip der Gruppenbildung basiert. Diesem Verfahren wohnen weitreichende persönlichkeitsrechtliche Implikationen inne, da es die Schaffung „neuer“ personenbezogener Daten ermöglicht. Sie werden dem Betroffenen zugewiesen und erlauben potenziell tiefgreifende Einblicke in seine persönlichen Aspekte. Für die rechtliche Bewertung ist vor allem die Erkenntnis bedeutsam, dass Profiling letztlich eine reine Wahrscheinlichkeitsberechnung darstellt. Im Einzelfall falsche Ergebnisse – sog. false positives bzw. false negatives – sind diesem Verfahren systemimmanent. Dies unterstreicht die Notwendigkeit der gedanklichen und rechtlichen Trennung von Profiling einerseits und den darauf basierenden Entscheidungen, die Nutzern gegenüber getroffen werden, andererseits. Es zeigt auch die Berechtigung der Regulierung automatisierter Einzelentscheidungen in Art. 22 DSGVO.

  2. 2.

    Profiling und darauf basierende Entscheidungsfindungsprozesse können mithilfe des im Rahmen dieser Arbeit entwickelten 3-stufigen Modells zum Zwecke einer rechtlichen Einordnung erfasst werden. Die erste Stufe bezieht sich auf die Datensammlung: Sowohl abstrakte Vergleichsdaten als auch sich auf den Betroffenen beziehende personenbezogene Daten sind nötig, um Profiling überhaupt durchführen zu können. Das eigentliche Profiling stellt die zweite Stufe des Modells dar. Es geht hier darum, nutzbare Erkenntnisse über einen Betroffenen zu gewinnen, die als Entscheidungsgrundlage dienen können. Die dritte Stufe des Modells bezieht sich auf die Phase der Entscheidungsfindung und -ausführung. Hier werden die Erkenntnisse des Profilings sowie weitere relevante Aspekte herangezogen, um eine Entscheidung zu fällen (und ggf. auszuführen), die für den Betroffenen Relevanz hat. Die dritte Stufe endet also mit einer Handlung bzw. einem bewussten Untätigbleiben.

    Diese Strukturierung ermöglicht es, die rechtlichen und tatsächlichen Implikationen von Profiling und den darauf aufbauenden Entscheidungen zu erkennen und sie rechtlich und normativ zu bewerten. Das 3-stufige Modell erleichtert zudem die Analyse solcher Sachverhalte, an denen mehrere Akteure beteiligt sind. Ein praxisrelevantes Beispiel hierfür ist das Kredit-Scoring.

  3. 3.

    Profiling und Preispersonalisierung basieren auf der gleichen konzeptionellen Herangehensweise. Profiling kann dementsprechend eingesetzt werden, um Preise im Online-Handel gegenüber Endverbrauchern zu personalisieren. Theoretisch ist es möglich, den Reservationspreis eines Kunden, also seine individuelle Zahlungsbereitschaft für ein bestimmtes Gut oder eine bestimmte Dienstleistung, zum Zwecke der Preisdiskriminierung 1. Grades genau zu bestimmen und bei der Preisgestaltung effektiv zu berücksichtigen. Die Praxis ist davon derzeit aber weit entfernt. Die Gründe hierfür sind vielfältig: In vielen Fällen fehlt der Zugriff auf ausreichend Datenmaterial. Hinzu kommen technische Schwierigkeiten (etwa bei der zuverlässigen Identifizierung des einzelnen Kunden) sowie wettbewerbliche Beschränkungen, die ein Ausreizen des Reservationspreises von vornherein erschweren oder gänzlich ausschließen. Auch lehnen (zumindest zum jetzigen Zeitpunkt) die meisten Kunden personalisierte Preise ab, da sie ihren Einsatz als unfair erachten. Hinzu kommt, dass es kaum möglich ist, von „dem“ Reservationspreis eines Kunden zu sprechen. Die Zahlungsbereitschaft schwankt, ist situationsabhängig, oftmals irrational und auch vom Betroffenen im Regelfall nicht konkret bezifferbar. Preispersonalisierung kann (wohl aus diesen Gründen) nur in eher seltenen Ausnahmefällen überhaupt nachgewiesen werden. Innerhalb dieser wenigen nachweisbaren Fälle sind zudem meistens nur verhältnismäßig kleine Preisunterschiede zu beobachten. Eher realisierbar sind Gruppenpreise, die etwa in Abhängigkeit vom Aufenthaltsort des Kunden oder von der Nutzung eines Preisvergleichsportals bestimmt werden (Preisdiskriminierung 3. Grades). Dabei handelt es sich aber um nicht mehr als eine grobe, pauschalisierende Annäherung an den Reservationspreis.

  4. 4.

    Mit der zunehmenden Verbreitung in sich abgeschlossener, automatisierter Assistenzsysteme gehen immer bessere Rahmenbedingungen für diejenigen Anbieter solcher Systeme einher, die Preise personalisieren wollen. Dies hat verschiedene Gründe. Die Kunden sind stets eindeutig identifiziert, sodass eine aussagekräftige Profilbildung über einen längeren Zeitraum möglich ist. Auch die Preiskommunikation ist erheblich erleichtert, da der Kunde etwa aus Gründen der Bequemlichkeit möglicherweise davon absieht, die ihm gegenüber verlangten Preise zu hinterfragen oder mit denen anderer Anbieter zu vergleichen.

  5. 5.

    Die auf tatsächlicher Ebene zwingend notwendige Unterscheidung zwischen personalisierten Preisen und dynamisch oder anderweitig begründeten Preisschwankungen schlägt auf die datenschutzrechtliche Ebene durch. Bei Preispersonalisierung im Online-Bereich werden im Regelfall personenbezogene Daten verarbeitet. Dementsprechend findet die Datenschutz-Grundverordnung Anwendung und bewirkt eine mittelbare Regulierung der Zulässigkeit personalisierter Preise.

  6. 6.

    Es ist ohne Weiteres denkbar, dass der Einsatz personalisierter Preise zukünftig zu einer rechtlich und moralisch missbilligten Diskriminierung von Angehörigen geschützter Gruppen führen wird. Die (frühere) Praxis des US-amerikanischen Kredit-Scorings dient hierfür als anschauliches Beispiel. Dort kam es nachgewiesenermaßen zu Benachteiligungen rechtlich geschützter Gruppen (etwa bestimmter Ethnien). Vergleichbare Effekte sind mit Blick auf die stetig zunehmende Individualisierung von digitalen Inhalten auch im Kontext von Preispersonalisierung vorstellbar. Dies ist letztlich eine Folge des Umstands, dass Profiling auf dem Prinzip der Gruppenbildung aufbaut.

  7. 7.

    Für die rechtliche Bewertung der Zulässigkeit personalisierter Preise spielen auch die mit ihnen einhergehenden ökonomischen Auswirkungen eine Rolle. Dabei ist zu beachten, dass eine pauschale Aussage darüber, wer von Preispersonalisierung profitiert, nicht möglich ist. Personalisierte Preise können beispielsweise mit durchaus positiven ökonomischen Effekten zugunsten der Kunden einhergehen. Dies ist etwa dann der Fall, wenn Kunden erst aufgrund der Personalisierung des Preises bereit sind, ein bestimmtes Gut zu erwerben. Dieser Effekt kann auftreten, wenn ihr Reservationspreis über den Produktionskosten des Gutes, aber unter dem einheitlichen Preis liegt, der sich ohne den Einsatz von Preispersonalisierung am Markt ergeben würde.

  8. 8.

    Mit der Datenschutz-Grundverordnung, dem Gesetz gegen den unlauteren Wettbewerb und dem Allgemeinen Gleichbehandlungsgesetz bestehen verschiedene Schutzsysteme, die in den hier untersuchten Konstellationen bestimmte Gruppen vor unzulässiger Diskriminierung schützen können. Rechtstechnisch wird dieses Ergebnis durch zwei Herangehensweisen erreicht, und zwar durch Informationspflichten und Handlungsverbote. Zunächst bestehen datenschutzrechtliche und lauterkeitsrechtliche Informationspflichten. Diese bewirken einen mittelbaren Schutz vor Diskriminierung. Durch erhöhte Transparenz sinkt die Wahrscheinlichkeit, dass systematisch implementierte Diskriminierung entsteht oder unentdeckt bleibt. Zudem wurde kürzlich auf europarechtlicher Grundlage eine verbraucherschutzrechtliche Pflicht eingeführt, Kunden auf den Einsatz personalisierter Preise hinzuweisen. Darüber hinaus bestehen datenschutzrechtliche und antidiskriminierungsrechtliche Handlungsverbote, die sich gegen diskriminierende Handlungen richten. Die genannten Regelungssysteme sind nebeneinander anwendbar. Der durch sie vermittelte Schutz kommt im Kontext von Preispersonalisierung zur Geltung.

  9. 9.

    Vom Gesetzgeber ungewollte Schutzlücken sind nicht ersichtlich. Dies bedeutet aber nicht, dass der im geltenden Recht vorgesehene Schutz zwingend ausreichend ist. Der europäische und der deutsche Gesetzgeber haben sich entschieden, im Privatrechtsverkehr bestimmte Gruppen vor Diskriminierung zu schützen – andere hingegen nicht. Die Frage, welche Gruppen in welchem Umfang vor Diskriminierung geschützt werden sollen, ist eine eigenständige. Ausgangspunkt ihrer Beantwortung sollte das Verfassungsrecht sein. Ihre gesellschaftliche Relevanz ist nicht zu unterschätzen.