CR-online.de Blog

Der Staat im Familien-Chat: Einschätzung des Verordnungsentwurfs zur Chat-Kontrolle im Lichte der Grundrechtecharta

avatar  Julia Fluhr

Julia Fluhr; Robert Pretschner

Die Europäische Kommission hat am 11.5.2022 den Verordnungsentwurf zur Prävention und Bekämpfung des sexuellen Missbrauchs von Kindern veröffentlicht. Zweifellos steht angesichts von weltweit 85 Millionen Bildern und Videos mit Darstellungen von sexuellem Kindesmissbrauch allein im Jahr 2021 außer Frage, dass es zur Bekämpfung sexuellen Missbrauchs von Kindern effektiver Maßnahmen und der dafür erforderlichen gesetzlichen Grundlagen bedarf, zumal die Dunkelziffer höher sein dürfte. Der Verordnungsentwurf begründet weitreichende Verpflichtungen von Hosting-Diensten und interpersonellen Kommunikationsdiensten, deren Vereinbarkeit mit der Grundrechtecharta (GrCh) zweifelhaft ist. Mitglieder der Bundesregierung, etwa Bundesjustizminister Buschmann sehen den Verordnungsentwurf bislang kritisch.

1. Konzeption des Verordnungsentwurfs

Der Verordnungsentwurf verpflichtet in erster Linie Hosting-Dienste und interpersonelle Kommunikationsdienste. Der Begriff der Hosting- oder Vermittlungsdienste (Art. 2 lit. a des Verordnungsentwurfs verweist auf Art. 2 lit. f des Entwurfs zum neuen Digital Service Act) umfasst etwa Social-Media-Plattformen und Cloud-Dienste, während der Begriff der interpersonellen Kommunikationsdienste insb. Messenger-Dienste erfasst. Die Anbieter*innen dieser Dienste sollen nach Art. 3 des Verordnungsentwurfs zunächst das Risiko ermitteln, dass der von ihnen angebotene Dienst zum Zwecke des sexuellen Missbrauchs von Kindern genutzt wird.

Erst, wenn die zuständige nationale Behörde eine Aufdeckungsanordnung aufgrund des ermittelten Risikos erlassen hat, Art. 7 des Verordnungsentwurfs, sollen die Anbieter*innen die „Technologien“, Art. 10 des Verordnungsentwurfs, zur Chat-Kontrolle einsetzen dürfen. Art. 10 bleibt in seinen Formulierungen vage: Nach dessen Abs. 1 sollen die Anbieter*innen Technologien installieren und betreiben, die die Verbreitung von bekanntem oder neuem Material von sexuellem Missbrauch bzw. die Anwerbung von Kindern erkennen können. Erwägungsgrund 26 des Verordnungsentwurfs sieht in Satz 2 dabei ausdrücklich vor, dass diese Technologien unabhängig von denjenigen Technologien eingesetzt werden dürfen, die die Anbieter*innen zur Erbringung ihrer Dienste einsetzen.

Zum einen ermöglicht der Verordnungsentwurf nicht nur die Kontrolle verdächtiger Nutzer*innen oder gefährdeter Gruppen, sondern ausnahmslos aller Nutzer*innen des jeweiligen Dienstes. Art. 7 Abs. 8 des Verordnungsentwurfs sieht zwar die Möglichkeit von Einschränkungen der Aufdeckungsanordnung vor, um negative Konsequenzen für Betroffene zu vermeiden, ausdrücklich erwähnt Art. 7 Abs. 8 des Verordnungsentwurfs aber nur die Einschränkung der Aufdeckungsanordnung auf bestimmte Komponenten des Dienstes. Jedoch nicht– im Gegensatz zu Erwägungsgrund 23 des Verordnungsentwurfs – Einschränkungen auf bestimmte Nutzer*innen oder Nutzer*innengruppen. Die Einschränkung der Kontrolle auf bestimmte Nutzer*innen erscheint auch praktisch schwierig umzusetzen: Selbst wenn eine verlässliche Datengrundlage vorhanden wäre, die Auskunft darüber geben würde, welche Nutzer*innengruppen ein erhöhtes Gefährdungspotenzial aufweisen, kann der Dienst nicht kontrollieren, zu welcher Gruppe ein*e Nutzer*in gehört, es sei denn, Identitätskontrollen würden verpflichtend eingeführt. Nach jetzigem Stand des Verordnungsentwurfs ist es also sehr wahrscheinlich, dass alle Nutzer*innen des jeweiligen Dienstes verdachtsunabhängig von der Chat-Kontrolle erfasst würden.

Zum anderen ermöglicht die so offene Formulierung des Art. 10 die KI-basierte Überprüfung aller Online-Inhalte der Nutzer*innen, wobei die KI nicht Inhalte selbst, sondern lediglich vordefinierte Muster erkennen soll. Dennoch besteht die Gefahr von falsch-positiven Treffern, insb. da nicht nur bekannte Bilder sondern auch Textbausteine erkannt werden sollen.

Ferner birgt der Einsatz solcher Technologien, worauf hier schon hingewiesen wurde, erhebliche Missbrauchsgefahren.

Nach Art. 12 des Verordnungsentwurfs sollen die Anbieter*innen anschließend alle Verdachtsmomente von sexuellem Kindesmissbrauch unter Einbeziehung aller wesentlichen Verkehrsdaten, vgl. Art. 13 des Verordnungsentwurfs, an die einzurichtende EU-Zentralstelle übermitteln.

2. Tiefgreifende Grundrechtseingriffe

Die verdachtsunabhängige Überprüfung aller Online-Inhalte der Nutzer*innen bedeutet einen schwerwiegenden Eingriff in Art. 7, Art. 8 und Art. 11 GrCh. Die Kommission verweist in ihrer Begründung des Verordnungsentwurfs lediglich darauf, dass die Rechte aus Art. 7, 8 und 11 GrCh zwar von größter Bedeutung, allerdings nicht absolut geschützt seien. Mit der Bekämpfung von sexuellem Kindesmissbrauch würden hochrangige Rechtsgüter geschützt, weswegen gem. Art. 52 Abs. 1 GrCh eine Rechtfertigung möglich sei.

Art. 8 GrCh garantiert den Schutz personenbezogener Daten, Art. 7 GrCh die Achtung des Privat- und Familienlebens, wobei beide Garantien vom EuGH in der Regel parallel angewandt werden.

Aus Art. 8 Abs. 2 S. 1 GrCh ergibt sich, dass ein Eingriff in Art. 8 GrCh dann vorliegt, wenn Daten „verarbeitet“ werden. Entsprechend dem Verständnis in Art. 4 Nr. 2 DSGVO umfasst der Begriff der Verarbeitung jeden Vorgang im Zusammenhang mit personenbezogenen Daten, u.a. das Erheben, Erfassen und Ordnen, die Speicherung und Anpassung sowie die Offenlegung und Übermittlung von Daten. Der Verordnungsentwurf soll Anbieter*innen dazu verpflichten, KI-basierte Kontrollen vorzunehmen, die zwar keine Inhalte, sondern nur vordefinierte Muster erkennen soll. Allein die Überprüfung fällt schon unter den weiten Eingriffsbegriff des Art. 8 Abs. 2 S. 1 GrCh. Auch die Erfassung der Treffer, deren Speicherung sowie Weiterleitung an die zuständigen Behörden bedeutet einen Eingriff. Jedoch wiegt bereits der Eingriff durch die Überprüfung, angesichts der Tatsache, dass ohne Ausnahme alle Kommunikationsinhalte von der Kontrolle erfasst werden, besonders schwer, denn hierdurch werden private und intime Kommunikationsinhalte erfasst. Es liegt also zugleich ein Eingriff in Art. 7 GrCh vor.

Angesichts der in Art. 10 Abs. 5 des Verordnungsentwurfs vorgesehenen Informationspflicht der Anbieter*innen über die Durchführung der Kontrollmaßnahmen, könnte ein Eingriffsausschluss in Form einer Einwilligung, vgl. Art. 8 Abs. 2 S. 1 GrCh, vorliegen. Allerdings müssen wegen der zentralen Bedeutung des Art. 8 GrCh hohe Anforderungen an eine solche Einwilligung gestellt werden. Der EuGH hat in der Rechtssache Schecke entschieden, dass die bloße Unterrichtung nicht für eine Einwilligung i.S.d. Art. 8 Abs. 2 S. 1 GrCh genügt. Weder die reine Kenntnisnahme der Informationen noch die Weiternutzung des entsprechenden Dienstes genügen daher den Anforderungen an eine Einwilligung i.S.d. Art. 8 Abs. 2 S. 1 GrCh.

Gem. Art. 12 und 13 des Verordnungsentwurfs werden die Verdachtsmomente an die zuständigen Behörden weitergeleitet. Da die Kontrolle KI-basiert erfolgt und nicht nur Bilder, sondern auch variable Texte überprüft werden sollen, sind falsch-positive Meldungen nicht auszuschließen. Dies räumt auch die Kommission in der Begründung des Verordnungsentwurfs ein. Die Kommission sieht hierin allerdings keinen schwerwiegenden Grundrechtseingriff, da die „harmlosen“ Inhalte nur von einer KI und nicht von einem Menschen erfasst und ausgewertet würden. Dieser Einschätzung kann nicht gefolgt werden. Sobald die Anbieter*innen Verdachtsmomente an die zuständigen Behörden weitergeleitet haben, soll dort eine manuelle Überprüfung erfolgen. Mithin würden auch vom Anwendungsbereich der Verordnung nicht erfasste, „harmlose“, grundrechtlich geschützte Kommunikationsinhalte zur Kenntnis Dritter gelangen, was einen erneuten Eingriff in Art. 7, 8 und 11 GrCh bedeutete.

Ferner kann allein das Wissen der Nutzer*innen um die Überwachungsmaßnahme und das damit einhergehende Gefühl des dauernden Überwachtseins dazu führen, dass Nutzer*innen nicht ebenso frei kommunizieren, wie sie es ohne die entsprechenden Überwachungsmaßnahmen tun würden. Dies bedeutet einen Eingriff in Art. 7 GrCh sowie in das von Art. 11 Abs. 1 GrCh geschützte Recht zur freien Meinungsäußerung. Es besteht sogar die Gefahr, dass die Nutzer*innen aus Angst vor staatlicher Kontrolle auf eine freie Meinungsäußerung vollständig verzichten. Das Argument, dass noch andere Kommunikationswege bestünden und Online-Dienste nicht zwingend verwendet werden müssen, kann hiergegen nicht vorgebracht werden: Zum einen schützt Art. 11 Abs. 1 GrCh auch die Art und Weise der Meinungsäußerung – mithin auch die Wahl des Kommunikationsmittels –, zum anderen ist die Online-Kommunikation mittlerweile zentraler Baustein der öffentlichen Kommunikationsordnung, sodass ein Verzicht auf deren Nutzung einen teilweisen Verzicht auf Kommunikation schlechthin bedeuten würde.

Überdies würde die Chat-Kontrolle einen Eingriff in die von Art. 11 Abs. 2 GrCh geschützte Pressefreiheit bedeuten. Vom Schutzbereich erfasst sind entsprechend der Rechtsprechung des EGMR alle mit der Eigenart der Medienarbeit verbundenen Tätigkeiten, insb. auch die Beschaffung von Informationen und die Geheimhaltung von Informationsquellen. Aufgrund der Chat-Kontrolle wäre Journalist*innen und ihren Informant*innen eine geschützte Kommunikation nicht mehr möglich. Informant*innen müssten ihre Aufdeckung befürchten, Journalist*innen könnten den Quellenschutz nicht mehr garantieren.

Der Verordnungsentwurf enthält in Art. 7 Abs. 9 zwar Obergrenzen dazu, wie lange eine Aufdeckungsanordnung ihre Gültigkeit behalten darf, jedoch enthält der Verordnungsentwurf keine Eingrenzung dazu, ob auch in der Vergangenheit gesendete Inhalte von der Kontrolle erfasst werden dürfen oder nicht – dies wird vielmehr in das Ermessen der Behörden gestellt, welche die Aufdeckungsanordnung erlassen sollen.

Denkbar ist folglich, dass von der Chat-Kontrolle auch vergangene, noch nicht gelöschte und daher noch vorhandene, Nachrichten und Inhalte erfasst werden, mithin eine rückwirkende Kontrolle stattfindet. Die Nutzer*innen durften sich jedoch aufgrund bisheriger Standards der von ihnen gewählten Anbieter*innen auf dieses fortbestehende Maß an Kontrolle oder Nicht-Kontrolle verlassen. Aufgrund sich ständig ändernder Datenschutzstandards der Anbieter*innen kann daran gezweifelt werden, ob dieses Vertrauen der Nutzer*innen überhaupt schutzwürdig ist. So ließe sich etwa argumentieren, dass Nutzer*innen von Online-Kommunikationsmitteln stets damit zu rechnen haben, dass sich – angesichts stets fortentwickelnder Technologien und einer sich ausweitenden staatlicher Kontrolle auch von Online-Inhalten – die entsprechenden Standards ändern und Kontrollmaßnahmen ausgeweitet werden. Eine solche Argumentation würde aber den Nutzer*innen eine bewusste, gezielte und mündige Auswahl des jeweiligen Online-Dienstes absprechen. Nutzer*innen, für die Datenschutz von zentraler Bedeutung ist, wählen etwa sehr bewusst Messenger-Dienste mit einer Ende-zu-Ende Verschlüsselung oder Dienste, die großen Wert auf Anonymität ihrer Nutzer*innen legen. Durch die Wahl solcher Dienste entscheiden sich Nutzer*innen folglich für einen bestimmten Schutzstandard. Dadurch wird ein schutzwürdiger Vertrauenstatbestand geschaffen. Würde dieser nun durch Umsetzung der Chat-Kontrolle rückwirkend abgesenkt, würde dieses Vertrauen enttäuscht. Eine Kontrolle von bereits in der Vergangenheit übertragenen Inhalten bedeutet damit nicht nur einen Grundrechtseingriff, sondern zusätzlich einen Verstoß gegen das Prinzip des Vertrauensschutzes.

3. Unzureichende Schutzmechanismen

Art. 10 Abs. 4 lit. d. des Verordnungsentwurfs soll die Anbieter*innen zur Einrichtung von Beschwerdemöglichkeiten verpflichten, Art. 34 des Verordnungsentwurfs sieht eine Beschwerdemöglichkeit bei nationalen Behörden vor. Hierdurch kann aber allenfalls nachträglicher Rechtsschutz gewährt werden. Art. 9 Abs. 1 des Verordnungsentwurfs sieht zwar Rechtsschutzmöglichkeiten bereits gegen die Aufdeckungsanordnung vor, allerdings stellt sich die Frage, wie hier der Rechtschutz effektiv ausgestaltet werden kann. Art. 10 Abs. 5 lit. c sieht zwar vor, dass die Anbieter*innen ihrer Nutzer*innen über die Rechtsschutzmöglichkeiten des Art. 9 Abs. 1 informieren sollen. Die Nutzer*innen werden aber unter Umständen erst zeitgleich zum Beginn der Kontrolle informiert, Art. 10 Abs. 5 des Verordnungsentwurfs, so dass sie Rechtsschutz zumindest teilweise nur nachträglich erlangen könnten. Ferner können aus Gründen der Effektivität die Informationspflichten eingeschränkt werden, vgl. Art. 10 Abs. 5 a.E. des Verordnungsentwurfs.

Insgesamt bedeutete die Umsetzung des Verordnungsentwurfs also einen schwerwiegenden Eingriff in hochrangige Grundrechte. Angesichts der demokratiekonstituierenden Bedeutung der Meinungs- und Pressefreiheit und dem engen Bezug des Schutzes personenbezogener Daten zum Allgemeinen Persönlichkeitsrecht wiegen diese Eingriffe besonders schwer. Die im Verordnungsentwurf vorgesehenen Beschwerde- und Rechtsschutzmöglichkeiten sind unzureichend und können den Eingriff daher nicht ausreichend abmildern.

4. Rechtfertigung fraglich

Angesichts der Intensität des Eingriffs kann dieser nur mit dem Schutz höchstrangiger Rechtsgüter gerechtfertigt werden. Erklärtes Ziel des Verordnungsentwurfs ist der Schutz vor sexuellem Kindesmissbrauch. Es soll die körperliche und seelische Integrität von Kindern sowie ihre Menschenwürde geschützt werden, indem sie insbesondere vor unmenschlicher und erniedrigender Behandlung bewahrt werden sollen. Diese Rechtsgüter sind von höchstem Rang und daher grundsätzlich geeignet, auch tiefgreifende Grundrechtseingriffe zu rechtfertigen.

Ferner würde eine umfassende Chat-Kontrolle Kindern einen deutlich höheren Schutz vor sog. Grooming im Rahmen ihrer alltäglichen Nutzung sozialer Medien gewährleisten und so bereits die Vorbereitung schwerer sexueller Straftaten verhindern.

Zu berücksichtigen sind außerdem die staatlichen Schutzpflichten. So hat auch der EuGH in einem seiner Urteile zur Vorratsdatenspeicherung (La Quadrature du Net, Rn. 126) anerkannt, dass sich aus Art. 7 GrCh sowie Art. 3 und 4 GrCh Schutzpflichten gegenüber Opfern, insb. auch minderjährigen Opfern, sexueller Gewalt ergibt.

Zweifelhaft erscheint aber, ob die Grundrechtseingriffe zum Schutz der genannten Rechtsgüter auch einer Abwägung standhalten. Hinsichtlich der Eignung der Chat-Kontrolle zur Verfolgung der genannten Ziele, erscheint zunächst fraglich, ob die Sicherheitsbehörden den gemeldeten Verdachtsmomenten überhaupt werden nachkommen können. So ist laut ChaosComputerClub aufgrund der KI-basierten Kontrolle der Online-Inhalte eine Ãœberflutung der Behörden mit – teils unbegründeten – Verdachtsmomenten zu befürchten. Falsch-positive Verdachtsmeldungen bedeuten nicht nur einen erneuten Grundrechtseingriff, sondern auch eine zusätzliche Belastung der Sicherheitsbehörden. Schon jetzt haben die Behörden mit knappen personellen Ressourcen zu kämpfen. So deckte etwa eine gemeinsame Recherche von Panorama, STRG_F und dem Spiegel auf, dass Ermittler*innen zwar vier Drahtzieher*innen des Pädokriminellen-Netzwerks „Boystown“ festgenommen hätten, die Fotos und Videos jedoch nicht bei den entsprechenden Speicherdiensten entfernen ließen. Angesichts dieser Defizite ist zweifelhaft, ob die Sicherheitsbehörden den durch die Chat-Kontrolle gemeldeten Verdachtsmomenten überhaupt mit entsprechenden Ermittlungen folgen könnten.

Problematisch ist weiter, ob die im Verordnungsentwurf vorgesehenen Maßnahmen erforderlich sind. Sicherlich wird die pauschale Durchleuchtung privater Kommunikation zu Ermittlungserfolgen führen. Laut Ermittler*innen gelte aber die Nutzung von Smartphones und Messengern in pädokriminellen Kreisen als „worst practice“. In Darknetforen existierten zahlreiche und detaillierte Anleitungen für eine möglichst anonyme Vorgehensweise. Daher erscheint die Erforderlichkeit der pauschalen und verdachtsunabhängigen Kontrolle von Hosting-Diensten und interpersonellen Kommunikationsdiensten fraglich. Effektiver könnte vielmehr der Einsatz von geschultem Personal und Expert*innen sein, die gezielt bestimmten Verdachtsmomenten und bestimmten kriminellen Netzwerken nachgehen und insbesondere in Darknetforen ermitteln. Zuzugeben ist, dass es angesichts der beschriebenen Knappheit personeller Ressourcen zweifelhaft erscheint, ob die große Zahl benötigter Expert*innen überhaupt zu erreichen ist. Zu berücksichtigen ist bei dieser Argumentation jedoch, dass der Staat sich nicht pauschal auf die Knappheit personeller Ressourcen berufen darf, um Grundrechtseingriffe zu rechtfertigen.

Eignung und Erforderlichkeit der im Verordnungsentwurf vorgesehenen Grundrechtseingriffe erscheinen folglich schon zweifelhaft. Problematisch ist aber auch, ob die Grundrechtseingriffe einer Abwägung im engeren Sinne standhalten würden.

Zu berücksichtigen ist, dass die geschützten Rechtsgüter von höchstem Rang sind. Ferner betont die Kommission in der Begründung des Verordnungsentwurfs (S. 14), dass das automatische Scannen interpersoneller Kommunikationsinhalte häufig der einzige Weg ist, die verbotenen Inhalte aufzudecken und dass durch den Einsatz KI-basierter Technologien Inhalte gerade nicht selbst erkannt werden, sondern nur vorgegebene Muster.

Der EuGH verlangt in ständiger Rechtsprechung (vgl. etwa La Quadrature du Net, Rn. 130), dass Eingriffe in das Grundrecht auf Achtung des Privatlebens auf das absolut Notwendige begrenzt werden. Diesen Anforderungen soll die Chat-Kontrolle durch die Stufen der Risikoermittlung und des anschließenden Erlasses einer ggf. beschränkten Aufdeckungsanordnung Rechnung tragen: Durch diesen Mechanismus sollen die negativen Konsequenzen für die Grundrechtsträger*innen und der Eingriff auf das Notwendige beschränkt werden und so die Vereinbarkeit mit dem Verhältnismäßigkeitsprinzip gewahrt werden.

Allerdings ist zu bedenken, dass der Einsatz wahrscheinlichkeitsbasierter Risikoermittlungen den Begriff der Notwendigkeit nahezu ad absurdum führt: Art. 3 Abs. 2 des Verordnungsentwurfs sieht bestimmte Kriterien vor, anhand derer das Risiko ermittelt werden soll, ob der jeweilige Dienst zum Zwecke des Missbrauchs von Kindern eingesetzt wird oder eingesetzt werden könnte. Diese Kriterien sind aber gerade nicht abschließend. Je mehr Kriterien eingesetzt und je mehr Daten zur Risikoermittlung genutzt werden, desto eher wird man ein Risiko zur verbotenen Nutzung des entsprechenden Dienstes identifizieren können. Da es gerade nur auf das Risiko, nicht auf den Umfang der Nutzung des jeweiligen Dienstes zum Zwecke des Kindesmissbrauchs ankommt, ist davon auszugehen, dass nahezu alle allgemein verbreiteten digitalen Dienste ein entsprechendes Risiko aufweisen und folglich eine entsprechende Aufdeckungsanordnung ergehen wird.

Ferner ist auch die Einschränkung der Aufdeckungsanordnung auf bestimmte Nutzer*innengruppen schon praktisch schwierig (s.o.), sodass auch unverdächtige und tatsächlich ungefährlicher Nutzer*innen von der Kontrolle erfasst werden. Der Verordnungsentwurf kann mithin gerade keine Beschränkung des Eingriffs auf das Notwendige gewährleisten und ist daher schwerlich mit den Vorgaben der EuGH-Rechtsprechung vereinbar.

Überdies bedeuten gerade falsch-positive Treffer und die entsprechende Weiterleitung an die zuständigen Behörden einen besonders schweren Eingriff in Grundrechte Unschuldiger und kann daher diesen gegenüber nicht verhältnismäßig sein.

Weiter verlangt der EuGH in seinen Urteilen zur Vorratsdatenspeicherung, dass die betreffenden Unionsregelungen klare und präzise Einschränkungen für Tragweite und Anwendung der fraglichen Maßnahmen, die in Art. 7, 8 und 11 GrCh eingreifen, vorsehen (Digital Rights, Rn. 54f.; La Quadrature du Net, Rn. 132). Diese Erfordernisse sind nach der EuGH-Rechtsprechung umso bedeutsamer, wenn Daten automatisiert verarbeitet werden und die Gefahr des missbräuchlichen Zugriffs durch Dritte besteht und es um sensible personenbezogene Daten geht (Digital Rights, Rn. 54f.; La Quadrature du Net, Rn. 132). Vorliegend werden, wie bereits aufgezeigt, private und intime Kommunikationsinhalte, mithin sensible personenbezogene Daten automatisiert erfasst und verarbeitet. Zudem besteht die Gefahr des missbräuchlichen Zugriffs von dritter Seite. Um den Anforderungen des EuGH zu genügen, müsste die Verordnung selbst also Einschränkungen zur Tragweite und Anwendung der Chat-Kontrolle enthalten. Solche Einschränkungen werden in der Verordnung jedoch gerade nicht vorgesehen, sondern die Abwägung wird den zuständigen Gerichten bzw. Behörden überlassen, also gerade nicht vom Gesetzgeber selbst vorgenommen. Auch diesen Vorgaben der EuGH-Rechtsprechung kann die Verordnung folglich nicht genügen.

Gerade unverdächtigen und tatsächlich ungefährlichen Nutzer*innen gegenüber wiegt der Eingriff besonders schwer. Auch die vorgesehenen Schutzmechanismen sind unzureichend (s.o.) und können die Grundrechtseingriffe allenfalls geringfügig abmildern.

Da zu befürchten steht, dass zahlreiche Anbieter*innen von Online-Diensten die Chat-Kontrolle werden durchführen müssen und, dass auch alle ihrer Nutzer*innen erfasst werden, wird pauschal in Grundrechte der betroffenen Nutzer*innen eingegriffen. Bei den betroffenen Grundrechten handelt es sich zudem um besonders hochrangige Grundrechte: Meinungs- und Pressefreiheit haben demokratiekonstituierende Bedeutung und der Schutz personenbezogener Daten ist angesichts seines engen Bezugs zum Allgemeinen Persönlichkeitsrecht besonders wichtig.

Insgesamt ist folglich zuzugeben, dass zwar höchstrangige Rechtsgüter durch die Chat-Kontrolle geschützt werden sollen, dies allerdings durch pauschale und tiefgreifende Eingriffe in besonders wichtige Grundrechte. Der mit dem Verordnungsentwurf verfolgte Zweck kann die damit einhergehenden Nachteile also nicht überwiegen und einer Abwägung nicht standhalten. Der Verordnungsentwurf genügt auch nicht den Anforderungen des EuGH, die dieser an die Vorratsdatenspeicherung stellt. Daher erscheint es sehr fraglich, ob der EuGH die Verordnung in ihrer jetzigen Entwurfsfassung für grundrechtskonform erachten würde, schließlich werden durch die Chat-Kontrolle gerade Kommunikationsinhalte erfasst, die von der Vorratsdatenspeicherung bekanntermaßen nicht erfasst werden.

5. Notwendige Betonung des Regel-/Ausnahmeverhältnis

Kernfrage bleibt, inwieweit der Staat berechtigt sein soll, private Verschlüsselungsmaßnahmen zu umgehen oder aufzuheben, um Straftaten im Internet aufzudecken. Eine Lösung muss sich zuvörderst am Maßstab des Schutzes der in der Grundrechtecharta verbürgten Garantien und nicht an der Effektivität der Maßnahme oder auch nur am bloßen Aktionismus angesichts vermuteter hoher Dunkelziffern orientieren. Dabei muss das Regel- /Ausnahmeverhältnis aufrechterhalten bleiben: Grundsätzlich ist die private Kommunikation zu schützen und nur in begründeten und einzelnen Ausnahmefällen darf diese überwacht und kontrolliert werden. Die Umkehrung dieses Regel-/Ausnahmeverhältnisses verstößt außerdem, wie hier ebenfalls beschrieben wurde, gegen die Wesensgehaltsgarantie des Art. 52 Abs. 1 S.1 GrCh: Zwar ist die genaue Bestimmung des „Wesensgehalts“ eines Grundrechts im Einzelnen schwer zu bestimmen; klar dürfte jedoch sein, dass es jedenfalls Wesensgehalt sein muss, das jeweilige Grundrecht in aller Regel zu schützen, während Eingriffe nur im begründeten Einzelfall möglich sind. Es bleibt daher zu hoffen, dass das Bundesministerium für Justiz seine ablehnende Haltung gegenüber der Chat-Kontrolle nicht aufgibt.

Schreiben Sie einen Kommentar

Sie müssen sich einloggen um einen Kommentar schreiben zu können.