CR-online.de Blog

Datenschutz im 21. Jahrhundert – Teil 12: Zukunftsthema „diffuse Bedrohlichkeit“

avatar  Niko Härting

Profiling, Big Data, Internet der Dinge: Das Datenschutzrecht hinkt der Entwicklung der Informations- und Kommunikationstechnik weit hinterher und schwankt zwischen Überregulierung und Resignation. Das eiserne Festhalten am Verbotsprinzip und die Fetischisierung der Einwilligung versperren den Blick auf die Zukunftsfragen des Persönlichkeitsschutzes.

In einem Annex zu dem jetzt in 5. Auflage erschienenen „Internetrecht“ befasse ich mich mit der Zukunft des Datenschutzrechts (“Datenschutz im 21. Jahrhundert“). In einigen Blogbeiträgen stelle ich meine Überlegungen auszugsweise vor.

Zur vollständigen 5. Auflage in CRonline bei juris:  Härting, Internetrecht, 5. Aufl., 2014

 

Metadaten und Vorratsdatenspeicherung

Auch bei der Vorratsdatenspeicherung geht es um Spuren der Kommunikation. Die Nutzung des Internet oder auch des Mobiltelefons hinterlässt zahlreiche Spuren entstehen auf den Rechnern der Telekommunikationsunternehmen. Diese Spuren umfassen Telefonnummern, E-Mail- und IP-Adressen und Funkzellendaten. Sie ermöglichen ein detailliertes Bild über das Kommunikationsverhalten, die Kommunikationspartner und über Aufenthaltsorte . Für diese Spuren gelang es dem BVerfG (in seinem Urteil zur Vorratsdatenspeicherung), die Gefahrenlage prägnant und plastisch zu beschreiben. Das BVerfG erkennt die „diffuse Bedrohlichkeit“, die durch staatliche Zugriffsrechte entsteht:

„Der Einzelne weiß nicht, was welche staatliche Behörde über ihn weiß, weiß aber, dass die Behörden vieles, auch Höchstpersönliches über ihn wissen können.“
(BVerfG, Urt. v. 2.3.2010 – 1 BvR 256/08, 1 BvR 263/08 u. 1 BvR 586/08, CR 2010, 232 m. Anm. Heun)

Ersetzt man „Behörde“ durch „Google“, „Facebook“ oder „Apple“, ergibt dies einen Satz, der die vielfach empfundene „diffuse Bedrohlichkeit“ der Aktivitäten der Unternehmen im Kern trifft (Härting, BB 2010, 839, 839; vgl. auch Masing, NJW 2012, 2305, 2309).

Oberstes Gebot: Transparenz

Die „diffuse Bedrohlichkeit“ des Profiling schafft ein unbestreitbares Bedürfnis nach Transparenz. Das heimliche Profiling greift nachhaltig in das Selbstbestimmungsrecht des Betroffenen ein. Und selbst wenn dem Betroffenen die Auswertungsmaßnahmen grundsätzlich bekannt sind, muss Transparenz oberstes Gebot sein, da durch das Profiling aus zahlreichen Einzelinformationen ein umfassendes Persönlichkeitsbild entstehen kann:

„Das Ganze wird größer als die einzelnen Teile.“
(Solove, Understanding Privacy, Cambridge/London 2009, S. 118)

Wenn das „IT-Grundrecht“ eines Tages aus dem Dornröschenschlaf erwacht, wird es Grundlage sein für gesetzliche Regelungen, die den Bürger vor einer heimlichen Protokollierung seiner Nutzungsgewohnheiten schützen.

Drei Grundbedingungen:

Unabhängig von der weiteren Entwicklung der europäischen Reformdebatte lässt sich feststellen, dass drei Grundbedingungen für die „Spuren im Netz“ gelten sollten:

  1. Es bedarf einer gezielten Förderung originär anonymer und pseudonymer Datenbestände, bei denen Persönlichkeitsrechte in stärkerem Maße geschützt sind als bei einer bloßen Anonymisierung und Pseudonymisierung.
  2. Es bedarf eines Regelwerks, das die Identifikation pseudonymer und anonymer Nutzer verbietet. Ausnahmetatbestände müssen sorgsam formuliert werden, für Verstöße gegen das Identifikationsverbot müssen empfindliche Sanktionen gelten.
  3. Eine intransparente Sammlung von Informationen über die eigene Person wird mit einem „Gefühl des ständigen Überwachtwerdens” als “diffuse Bedrohlichkeit” wahrgenommen. Um diesem „Gefühl“ entgegenzuwirken, bedarf es der Transparenz und einer Verpflichtung des Datenverarbeiters, den Nutzer umfassend über Datenverarbeitungsprozesse zu informieren.

Originäre Anonymität und Pseudonymität

Die originäre Pseudonymität bzw. Anonymität schützt Persönlichkeitsrechte wesentlich stärker, als dies bei einer Pseudonymisierung bzw. Anonymisierung der Fall ist. Wer den Chatnamen „Sweet 26“ nutzt, hat es selbst in der Hand, ob und in welchem Umfang er bei der Nutzung des Dienstes Informationen preisgibt, die Rückschlüsse auf die eigene Person zulassen.

Werden dagegen bei einem Dienst „Klarnamen“ erfasst und die Datenbestände sodann durch einen Vorgang des „Ersetzens“ pseudonymisiert, kann der Schleier des Pseudonyms stets gelüftet werden durch einen inversen Ersetzungsvorgang. Der Nutzer, der möglichst wenig über sich preisgeben möchte, hat keine Kontrolle über ein inverses „Ersetzen“. Er ist darauf angewiesen zu vertrauen, dass dies nicht geschieht.

Verbot der Identifizierung

§ 15 Abs. 3 Satz 3 TMG ist die einzige Norm des Datenschutzrechts, die es einem Datenverarbeiter ausdrücklich verbietet, die Person zu identifizieren, auf die sich pseudonyme bzw. anonyme Daten beziehen. Dies ist nicht weiter verwunderlich, da sich das Datenschutzrecht auf das Verbotsprinzip verlässt (§ 4 BDSG).

Verbote der Identifizierung sind notwendig, da der Betroffene bei der Verarbeitung pseudonymer und anonymer Daten typischerweise in erheblichem Maße darauf vertraut, dass er nicht identifiziert wird. Wer würde noch unbefangen Suchbegriffe bei Google eingeben, wenn er wüsste, dass die Begriffe bei Google von einem Mitarbeiter gelesen werden, der den Namen und die Anschrift des Nutzers kennt?

Vertrauen ist gerade bei der Netzkommunikation ein hohes Gut, sodass es umfassender Verbote der Identifizierung und empfindlicher Sanktionen bedarf, um das Vertrauen der Nutzer angemessen zu schützen.

 

Anzeige:

Mehr zum Autor: RA Prof. Niko Härting ist namensgebender Partner von HÄRTING Rechtsanwälte, Berlin. Er ist Mitglied der Schriftleitung Computer und Recht (CR) und ständiger Mitarbeiter vom IT-Rechtsberater (ITRB) und vom IP-Rechtsberater (IPRB). Er hat das Standardwerk zum Internetrecht, 5. Aufl. 2014, verfasst und betreut den Webdesign-Vertrag in Redeker (Hrsg.), Handbuch der IT-Verträge (Loseblatt). Zuletzt erschienen: "Datenschutz-Grundverordnung".

Schreiben Sie einen Kommentar

Sie müssen sich einloggen um einen Kommentar schreiben zu können.