CR-online.de Blog

Datenschutz im 21. Jahrhundert – Teil 2: Um was geht es eigentlich bei Big Data?

avatar  Niko Härting

Profiling, Big Data, Internet der Dinge: Das Datenschutzrecht hinkt der Entwicklung der Informations- und Kommunikationstechnik weit hinterher und schwankt zwischen Überregulierung und Resignation. Das eiserne Festhalten am Verbotsprinzip und die Fetischisierung der Einwilligung versperren den Blick auf die Zukunftsfragen des Persönlichkeitsschutzes.

In einem Annex zu dem jetzt in 5. Auflage erschienenen „Internetrecht“ befasse ich mich mit der Zukunft des Datenschutzrechts („Datenschutz im 21. Jahrhundert“). In einigen Blogbeiträgen stelle ich meine Überlegungen auszugsweise vor.

Zur vollständigen 5. Auflage in CRonline bei juris:  Härting, Internetrecht, 5. Aufl., 2014

 

Von der Kausalität zur Korrelation

Schon seit langem geht es bei der Verarbeitung von Daten nicht mehr primär um Kausalität, sondern um Korrelation. Je umfassender die Datenmenge ist („Big Data“), desto intelligenter wird die Korrelation. Jede Vergrößerung von Datenmengen erhöht die Wahrscheinlichkeit von Erkenntnissen, die aus den Daten gewonnen werden können. Hierin liegt ein grundlegender Unterschied zum menschlichen Denken. Dem Gehirn droht bei großen Mengen an Informationen die Überforderung. Bei der Datenverarbeitung schaffen große Mengen an Informationen dagegen immer wieder neue Möglichkeiten, durch Verknüpfungen Erkenntnisse zu gewinnen. Computernetze lassen sich unter den heutigen technischen Gegebenheiten nicht mehr überfordern.

Eines der zahlreichen Anwendungsgebiete von Big Data ist die Astronomie, die bereits seit vielen Jahren durch die Innovationskraft von “Big Data” revolutioniert wird. Teleskope werden immer leistungsfähiger und produzieren ein Datenvolumen, das sich jedes Jahr verdoppelt:

“Man stelle sich einmal alle Daten vor, die die Menschen in der langen Geschichte der Astronomie gesammelt haben… Wenn wir diese Daten in Bit ausdrücken würden, der Maßeinheit unserer Tage, wäre die Zahl astronomisch. Damit aber nicht genug: Schon nächstes Jahr wird sich die Zahl verdoppelt haben, ein Jahr später wird sie sich erneut verdoppelt haben, und so weiter und so fort.”
[Andersen, „How Big Data is changing Astronomy (Again)“, The Atlantic v. 19.4.2012]

“Big Data” macht es möglich, die ständig wachsende Menge von “Rohdaten” zu verarbeiten und zu analysieren. Maßgeblich sind dafür vor allem zwei Umstände:

  • Analyse aller (!) Daten:  Da Speicherplatz in (nahezu) unbegrenztem Umfang vorhanden ist, setzt eine Datenanalyse nicht mehr eine Vorauswahl “repräsentativer” Daten voraus. Es können vielmehr alle Daten in die Analyse einbezogen werden.
  • Einsatz von Algorithmen:  Die Analyse der Daten stützt sich auf Algorithmen, das heißt auf Rechenformeln, die ständig verfeinert werden.

Man schätzt, dass sich allein in den Jahren 2011 bis 2016 das Volumen der Internetdaten vervierfacht. Wenn Bewegungsdaten zur Verkehrslenkung ausgewertet werden, Stromzählerdaten zwecks Optimierung der Energieversorgung und der Energiekosten analysiert und Gesundheitsdaten zur Verbesserung der Behandlung von Krankheiten und zur Senkung von Gesundheitskosten genutzt werden, dann geht es stets darum, rückwirkend, “in Echtzeit” und prognostisch eine Vielzahl von Informationen über eine Vielzahl von Personen zu analysieren. Big Data-Anwendungen sind in höchst unterschiedlichen Lebensbereichen zu finden: von den Finanzmärkten über Wissenschaft und Medizin bis zum Sport.

Die Schwächen der Korrelation

Die Auswertung von Big Data führt keineswegs automatisch und ausnahmslos zu „richtigen“ Ergebnissen:

  • Die Erfassung eines Sinnzusammenhangs fällt Algorithmen naturgemäß schwer.
  • Algorithmen haben keine soziale Kompetenz.
  • Algorithmen ziehen im Zweifel dem Meisterwerk das durchschnittliche Werk vor.
  • Je größer die Datenbestände sind, desto mehr werden auch unnütze Daten gesammelt mit „Störgeräuschen“ („Noise“), die die Präzision der Auswertung erschweren.
  • Je komplexer das Problem ist, desto weniger eignen sich Algorithmen für eine Lösung.
  • Algorithmen sind stets von Menschen gemacht, deren Bewertungen somit in die Auswertung einfließen. Komplexe Algorithmen verschleiern diese Bewertungen und führen zu Ergebnissen, deren Grundannahmen obskur bleiben.

Algorithmen sind keineswegs „vorurteilsfrei“. Wenn Nachrichtenportale versuchen, aus dem Verhalten eines Nutzers zu berechnen, welche Nachrichten den Nutzer mit der größten Wahrscheinlichkeit interessieren werden, bedarf es zur Programmierung der Algorithmen gewisser Grundannahmen. Diese Grundannahmen können richtig sein oder auch falsch. Der Rückschluss von der Häufigkeit des Anklicken gewisser Nachrichten auf deren Wichtigkeit für den Nutzer ist beispielsweise nicht mehr als eine Annahme, deren Richtigkeit keineswegs sicher ist:

 “In einer Welt von Big Data geht es vielfach nicht so sehr um die Richtigkeit der ‚Rohdaten’, sondern um die Richtigkeit der ‚Rückschlüsse’, die aus den Daten gezogen werden. Fehlerhafte, manipulatorische und diskriminierende Schlussfolgerungen können aus vollkommen unverfänglichen, zutreffenden Daten gezogen werden. Der Beobachter einer Big-Data-Analyse kann die Ergebnisse seiner Untersuchung beeinflussen durch die Definition des Datensatzes, die Aufstellung einer Hypothese oder das Schreiben eines Algorithmus. Big Data-Analyse ist letztlich ein Prozess der Interpretation, bei dem die eigene Person und Perspektive die Ergebnisse beeinflusst. Wie bei jedem Interpretationsprozess unterliegt die Analyse den Gefahren des Irrtums, der Inkorrektheit und des Vorurteils.“
[Tene/Polonetsky, „Big Data for All: Privacy and User Control in the Age of Analytics“, 11 Nw. J. Tech. & Intell. Prop. 239 (2013), 270 f.]

Grundrechtsschutz

 Was für das gesamte Datenschutzrecht gilt, gilt auch für “Big Data”: Es geht keineswegs nur um den Schutz von Persönlichkeitsrechten, sondern auch um den Schutz anderer Freiheiten vor einem übereifrigen Regulator: Ob Wissenschaftsfreiheit, Kommunikationsfreiheit oder auch die unternehmerische Betätigungsfreiheit.

Neben dem gesellschaftlichen Bedürfnis nach Innovation und wirtschaftlichem Wachstum stehen auch gewichtige Freiheitsrechte auf dem Spiel, wenn im Zeichen des Datenschutzes “Big Data”-Anwendungen regulatorisch beschränkt oder verboten werden. Daher bedarf es nicht nur neuer Schutzinstrumentarien für neue Gefährdungen von Persönlichkeitsrechten. Ebenso wichtig ist es, andere Freiheitsrechte davor zu bewahren, dass sie durch ein starres Festhalten an “bewährten Prinzipien” in Gefahr geraten.

 

Anzeige:

Mehr zum Autor: RA Prof. Niko Härting ist namensgebender Partner von HÄRTING Rechtsanwälte, Berlin. Er ist Mitglied der Schriftleitung Computer und Recht (CR) und ständiger Mitarbeiter vom IT-Rechtsberater (ITRB) und vom IP-Rechtsberater (IPRB). Er hat das Standardwerk zum Internetrecht, 6. Aufl. 2017, verfasst und betreut den Webdesign-Vertrag in Redeker (Hrsg.), Handbuch der IT-Verträge (Loseblatt). Zuletzt erschienen: "Datenschutz-Grundverordnung".

Schreiben Sie einen Kommentar

Sie müssen sich einloggen um einen Kommentar schreiben zu können.