CR-online.de Blog

BMJ stellt Eckpunkte für ein Gesetz gegen Digitale Gewalt vor

avatar  Dr. Daniel Holznagel
RiKG

Am 12.04.2023 hat das BMJ Eckpunkte zu dem Vorhaben vorgestellt. Für Herbst 2023 ist dann ein Referentenentwurf geplant. Anlass für eine allererste Einordnung:

Zum Hintergrund

Ein Gesetzentwurf zu einem Digitalen Gewaltschutzgesetz (DigGewSchG) war zu erwarten. Denn das Vorhaben ist bereits im Koalitionsvertrag (S. 14) festgehalten, dort allerdings beschränkt auf die Ermöglichung von Account-Sperren. 

Letzteres Vorhaben (Account-Sperren) geht auf die Gesellschaft für Freiheitsrechte (GFF) bzw. einen Vorschlag des dortigen Vorsitzenden Ulf Buermeyer, zurück (Tagesspiegel vom 21.06.2019). Mit der Marie-Munk-Initiative, gefördert durch die Alfred Landecker Foundation, wird das Vorhaben weiter vorangetrieben. Rückenwind kommt inzwischen aus Niedersachsen, wo die SPD eine entsprechende Bundesratsinitiative angekündigt hat. 

Stärkung der Auskunftsverfahren:

Die nach den Eckpunkten vorgesehene Stärkung der Auskunftsverfahren ist zu begrüßen. Damit wird letztlich das 2017 mit dem NetzDG in § 14 Abs. 3 – 5 TMG eingeführte, und 2021 in das TTDSG (§ 21 Abs. 2 – 4 TTDSG) überführte Verfahren ausgebaut, wonach von Persönlichkeitsrechtsverletzungen Betroffene von Telemediendiensten Auskünfte zwecks Ermittlung des Täters erlangen können. 

Die geplante Erstreckung auf Nutzungsdaten ist sinnvoll. Denn mitunter können nur mit Hilfe der Nutzungsdaten (z.B. bei Facebook: mit welcher IP-Adresse wurde zu einer bestimmten Uhrzeit auf einen Täter-Account zugegriffen?) die Täter ermittelt werden (z.B. wenn im Anschluss der Zugangsanbieter mitteilt, wem die IP-Adressen denn zugeordnet waren). Große Lorbeeren kann die BReg hierfür aber noch nicht erwarten, denn es handelt sich hier zunächst nur um die Reparatur einer selbstverschuldeten Baustelle. Das NetzDG hatte 2017 mit der Ergänzung in § 15 Abs. 5 Satz 4 TMG eine Erstreckung auf Nutzungsdaten bereits abgesichert, was dann 2021 bei Überführung der Regelungsbereiche ins TTDSG offenbar durch ein Redaktionsversehen verloren ging, was bald auch der Rechtsprechung auffiel (z.B OLG Schleswig, Beschl. v. 23.03.2022 – 9 Wx 23/21, Rn. 41 ff., juris).

Der eigentliche große Wurf liegt in den geplanten Beweissicherungsanordnungen (Quick-Freeze, und zwar auch gegenüber den beteiligten Zugangsanbietern) und der Öffnung für Eilverfahren. Dies ist legitim und sinnvoll. Letztlich erfolgt hier auch nur mehr die Gleichstellung zu Urheberrechtsinhabern, die wichtige Auskünfte schon lange im Eilverfahren durchsetzen können (§ 101 Abs. 7 UrhG).

Da es um anlassbezogene Auskünfte unter Richtervorbehalt geht (§ 21 Abs. 3 TTDSG), ergeben sich auch keine grundsätzlichen grundrechtlichen Bedenken (im Gegenteil, die ergaben sich vorher angesichts der unzureichenden Auskunftsrechte). Fraglich erscheint allenfalls, ob es wirklich richtig ist, die Auskunft auf alle Verletzungen von absoluten Rechten zu erstrecken (z.B. wenn die Auskunft zur Aufdeckung des Urhebers einer Restaurantkritik oder des Uploaders von KUG-widrigen investigativen Fotoaufnahmen dient). 

Für die Durchführung des Auskunftsverfahrens sollen interessanterweise keine Gerichtskosten erhoben werden. Hier muss wohl nachgebessert werden, weil die damit einhergehende Privilegierung wohl nicht durchweg zu rechtfertigen ist (z.B. Arzt, der gegen Bewertungen vorgeht).

Wichtig wird letztlich sein, dass die Gerichte ihre Prüfaufgaben hier ernst nehmen und sorgfältig (auch die vorgesehene Verhältnismäßigkeitsschwelle) prüfen, bevor quasi die De-Anonymisierung eines Nutzers gerichtlich erlaubt wird.

Anspruch auf richterlich angeordnete Accountsperren

Es soll ein neues, zivilrechtliches Instrument zur Beantragung gerichtlich angeordneter  (zeitlich begrenzter!) Account-Sperren eingeführt werden. Hintergrund sind die o.g. zivilgesellschaftlichen Forderungen hierzu. Ziel ist es, “notorische Rechtsverletzer” in die Schranken zu weisen. Betroffene sollen eine Sperrung der Täter-Accounts beantragen können (so dass z.B. Facebook dann zur Sperre verpflichtet wird). Voraussetzung ist, dass 

  1. wiederholte schwerwiegende APR-Verletzungen drohen (einfache AGB-Verstöße reichen nicht),
  2. diese Verletzungen von einem spezifischen Account ausgehen (Schwarmangriffe werden nicht erfasst),
  3. eine Account-Sperre verhältnismäßig ist (Inhaltemoderation darf nicht milderes Mittel sein),
  4. und der Verletzer vom Anbieter auf ein eingeleitetes Sperrersuchen hingewiesen wurde und Stellung nehmen konnte (angedacht wohl: Der Nutzer nimmt gegenüber seinem Anbieter Stellung, der Anbieter leitet dies ans Gericht weiter).

Das klingt nach hohen Hürden? Genau, allerdings zu Recht. Hintergrund ist letztlich, dass Account-Sperren eben ein schwerwiegender Eingriff in die Kommunikationsfreiheiten sind. Man unterdrückt eben nicht nur den konkreten Post, sondern unterbindet das Kommunikationsmittel. Hier liegt letztlich auch der Kern des Problems und der Grund, warum der Regulierungsansatz als solcher unrealistisch ist.

Die Idee klingt eigentlich gut. Bei näherer Betrachtung könnte es damit schon sein Bewenden haben und eine letztlich praxisuntaugliche Regelung geschaffen werden, die in erster Linie nur dazu dient, gesetzgeberische Aktivität zu signalisieren.

Besteht eine Schutzlücke?

Bereits die Prämisse des BMJ ist überdehnt, nämlich dass es an einem “effektiven Instrument zum Schutz vor notorischen Rechtsverletzern” fehlen würde. Insofern gibt es nämlich durchaus Instrumente:

  • Zivilrechtliche Löschansprüche gegen Plattformen: Gestützt auf § 1004 BGB können Plattformen schon heute zum Löschen und Verhindern von APR-widrigen Inhalten, auch bzgl. sinngleicher Inhalte, d.h. de-facto zu breiten Upload-Filtern gezwungen werden (vgl. z.B. EuGH in Sachen Glawischnig und LG Frankfurt in Sachen Künast v. Meta). Bleibt die Plattform bei notorischen APR-Verletzungen trotz Kenntnis untätig, kann sie erfolgreich verklagt werden (und wird dann oft ohnehin den Troll-Account, der ihr das eingebrockt hat, sperren). Hier zeigt sich, dass die Account-Sperren mit ihren (zu Recht) hohen Hürden gar nicht so viel mehr bringen, als das Zivilrecht bereits jetzt bieten kann. Da die Account-Sperren nur ergehen dürfen, wenn die Inhaltemoderation als milderes Mittel ausscheidet, verbleibt schon wegen der möglichen Unterlassungsansprüche nur ein kleiner Anwendungsbereich.
  • Zivilrechtliche Durchsetzung von Account-Sperren: Für 2023 sind erste Entscheidungen zu erwarten, ob Plattformen mit den Mitteln des Vertragsrechts zur Schließung von Hater-Accounts gezwungen werden können (vgl. meine Ausführungen hier S. 14 ff., sowie ein von HateAid und EUJS initiiertes Verfahren sowie das Verfahren DUH v. Meta). Wenn sich dies durchsetzt, wäre dies wohl weit effektiver als der BMJ-Vorschlag.
  • Einziehung von Accounts im Strafverfahren: Schon heute kann theoretisch – wenn Hater strafrechtlich verfolgt werden – die Einziehung von Accounts nach §§ 74 ff. StGB angeordnet werden (was bei Gerichten und Staatsanwaltschaften aber noch nicht angekommen scheint).
  • Pflicht zu Account-Sperren nach dem DSA: Ab Februar 2024 gilt der DSA vollumfänglich. Dann sind Plattformen nach Art. 23 Abs. 1 DSA ohnehin generell zur Sperrung von schwerwiegenden Wiederholungstätern gezwungen. Der Mehrwert des BMJ-Vorschlags gegenüber diesem Instrument ist nicht klar erkennbar.

Helfen die angedachten Account-Sperren?

Mit den Anordnungen von Account-Sperren wird den Betroffenen wahrscheinlich ein mühevolles und nur wenig praktikables Instrument an die Hand gegeben. Soweit das geltende Recht Schutzlücken aufweist, werden die Account-Sperren dies wohl nicht lösen. Hierfür müssen drei Dinge mitgedacht werden:

  • Richtervorbehalt und Nichtverletzerverfahren: Das Verfahren ist als Nichtverletzerverfahren angedacht. Die Plattformen werden (Geltung FamFG) nicht als Beklagte, sondern “unschuldige” Beteiligte in Anspruch genommen. Die gerichtliche Anordnung ist konstitutiv. Hieraus folgt zugleich, dass man die Kosten des Verfahrens nicht einfach der Plattform auferlegen kann. Die Kosten werden die Antragsteller*innen vorschiessen müssen (und können nur hoffen, dass sie irgendwann den Hater erfolgreich auf Schadensersatz verklagen können).
  • Eingeschränkte Effektivität gegen Trolle und Hater: Effektiv sind Account-Sperren v.a. dort, wo den Inhabern Reichweite (Follower usw.) genommen wird. D.h. v.a. bei organisch gewachsenen Accounts (Donald Trump?). Zwar gibt es auch unter diesen Accounts toxische Nutzer mit Vorliebe zu Borderline-Inhalten. Die ganz krassen Stalker- oder Wiederholungsfälle (welche der Vorschlag zu Account-Sperren adressieren würde) werden sich hier aber seltener finden. Eher umgekehrt: Die hohen Voraussetzungen (krasse Wiederholungstäter) würden wohl oft nur bei Troll- oder Fake-Accounts vorliegen. Gerade dann aber ist die Account-Sperre gar nicht so effektiv. Erstens sperren Plattformen hier ohnehin öfters “freiwillig”. V.a. aber ist die Abschaltung dieser Accounts oft nur ein Pyrrhus-Sieg, weil sich die Hater dann neu anmelden oder auf andere Accounts ausweichen.
  • Opferperspektive: Für einen Hate-Betroffenen wird die resultierende Kosten-Nutzen-Analyse wenig Sinn machen. Denn Finanzieren und Durchboxen muss das Ganze das Hate-Opfer erst einmal auf eigene Anstrengung. Wie sehr ist einem Hate-Opfer aber geholfen, wenn es mühevoll die (zeitlich begrenzte!) Sperrung eines (einzelnen!) Hate-Accounts erreicht, und der Hater dann schnell ausweicht oder noch viele andere Accounts aktiv sind? 

Alternativen?

Der Ansatz, die Opfer hier auf weitere zivilrechtliche Mittel zu verweisen, ist m.E. bereits im Ansatz unzulänglich und zu akademisch gedacht. Bei schwerwiegendem Hater-Stalking müsste der Staat den Betroffenen beispringen, d.h. dass sich diese an Behörden wenden können, die dann gefahrenabwehrrechtlich gegen notorische Hass-Accounts vorgehen.

Ein Weg wäre bspw., wenn die Länder die Befugnisse ihrer Landesmedienanstalten ausbauen. Dafür wäre z.B. eine Anpassung von § 109 Medienstaatsvertrag (MStV) erforderlich (bisher schützen sich die Länder durch den dortigen Verweis auf § 17 MStV davor, die eigentlich notwendige Aufgabe einer Internetpolizei zu übernehmen). Oder die Länder übernehmen von vornherein für den Bereich von Art. 23 Abs. 1 DSA (der Account-Sperren verlangt) die Zuständigkeit. Auf einen Richtervorbehalt könnte man jedenfalls dann (angesichts der Unabhängigkeit der Landesmedienanstalten) verzichten. Einer gesonderten Grundlage zur Anordnung von Account-Sperren bräuchte es dann nicht. Überhaupt schweigen die Eckpunkte ja zu der Frage, welchen spezifischen Nutzen das Vorhaben neben Art. 23 Abs. 1 DSA haben soll.

Daneben gibt es noch viele weitere Alternativen, die hier nicht vertieft werden können.

Letztlich egal?

Schlussendlich könnte man ggfs. noch überlegen, dass ein weiteres zivilrechtliches Instrument, wenngleich es wenig praxistauglich ist, doch immerhin keinen Schaden anrichten kann? Das wäre aber zu kurz gedacht. Die hohen Hürden für die Account-Sperre, v.a. aber der Richtervorbehalt, senden m.E. ein falsches Signal, was durchaus rechtliche Relevanz haben kann, z.B. wenn die Gerichte die hohen Anforderungen dann als gesetzliches Leitbild für die (freiwilligen) Moderationsbefugnisse der Plattformen auffassen. Man darf nicht vergessen: Die Plattformen löschen und sperren schon heute millionenfach Hate-Posts etc., und zwar durchaus erwünscht. Wenn man den Spielraum der Plattformen hier einschränkt, wäre das im Ergebnis sogar kontraproduktiv.

Erleichterung der Zustellung

Als dritter Schwerpunkt soll nach den Eckpunkten des BMJ der Zustellungsbevollmächtigte aus dem NetzDG (offenbar beschränkt auf zivilrechtliche Streitigkeiten) beibehalten, auf vorgerichtliche Kommunikation erstreckt und in das neue Gesetz gegen digitale Gewalt überführt werden (weshalb dann das NetzDG wohl ganz aufgehoben wird).

Dies dürfte auf breite Zustimmung treffen. 

Aber gerade dieses Vorhaben ist europarechtlichen Bedenken ausgesetzt. Und zwar weniger im Hinblick auf den DSA, sondern v.a. zur Vereinbarkeit mit dem weiterhin geltenden Herkunftslandprinzip nach Art. 3 Abs. 2 der E-Commerce-RL. 

Denn die Regelung zum Zustellungsbevollmächtigten wäre mit dem Herkunftslandprinzip (für in der EU ansässige Anbieter) wohl nur dann vereinbar, wenn die Ausnahmeregelung gem. Art. 3 Abs. 4 E-Commerce-RL in Anspruch genommen werden kann. Hier stellt sich die immer noch ungelöste zentrale Frage, ob Gesetze als abstrakt-generelle Regelungen die Ausnahmeregelung überhaupt in Anspruch nehmen können, was die h.L. verneint, aber nach etwas ominösen Urteilen des EuGH, und insbesondere nunmehr aufgrund des auffälligen ErwGr 38 Satz 2 DSA wieder offener erscheint (vgl. zB meine Anm. CRi 2020, 103 und CR 2022, 250, 255; die Frage wurde offen gelassen in den jüngsten Entscheidungen des VG Köln sowie des OVG Münster zum NetzDG; der EuGH wird wohl bald eine endgültige Klärung herbeiführen im Verfahren C-376/22).

Bejaht man – im Sinne des BMJ – die eben genannte Frage, bliebe weiter zu beachten, ob sich Deutschland hier – wie bisher zum NetzDG – mit Verweis auf eine Dringlichkeit vom Konsultationsverfahren nach Art. 3 Abs. 5 E-Commerce-RL befreien kann. Auch hier schlummert eine klärungsbedürftige Rechtsfrage (vgl. zum NetzDG OVG Münster, Beschl. v. 21.03.2023 – 13 B 381/22, Rn. 127 ff., juris).

Da Deutschland das angedachte DigGewSchG notifizieren müsste (RL 2015/1535), wäre die Kommission schon bald berufen, ob sie ein Vertragsverletzungsverfahren einleitet. Angesichts des primären Anliegens des DSA, Fragmentierung wie mit dem NetzDG zu beenden, wird die Kommission bei bestehenden Bedenken hier wohl kaum auf eine Einschreiten verzichten können.

Letztlich wird hier noch einmal deutlich, welche starke Selbstbeschränkung im Jahr 2000 mit der Einführung des Herkunftslandprinzips eingegangen wurde, um den seinerzeitigen Start-ups eine One-Stop-Shop-Rechtslage (inkl. cherry-picking) zu eröffnen, allerdings ohne zu bedenken, dass die cross-border-Rechtsdurchsetzung hier nicht Schritt halten würde (free flow of services, but not of enforcement). Langfristig wird man nur mit europäischen Regelungen weiterkommen (z.B. für die Zustellung: EU-weit verpflichtend elektronische Zustellmöglichkeit an juristische Personen?).

Zusammenfassung

Zu den Eckpunkten ist eine lebhafte Debatte zu erwarten. Das Vorhaben ist knifflig und bietet viele Facetten: sinnvoll-praktische Vorschläge (Auskunft), ein wenig durchdachtes aber schillerndes Vorhaben (Account-Sperren), sowie eine wohl allseits begrüßte aber eventuell europarechtswidrige Regelung (Zustellungsbevollmächtigter).

 

Dr. Daniel Holznagel, Richter (bisherige Schwerpunkte UWG, MarkenR- UrhR und KartellR). Er war zuvor 4 Jahre im Bundesministerium der Justiz als Referent für die Entwürfe und anschließende Umsetzung des NetzDG zuständig. Er publiziert regelmäßig zum Recht der Online-Plattformen und unterstützt zivilgesellschaftliche Akteur:innen wie HateAid bei der Positionierung zu digitalpolitischen Themen. Er unterrichtet zudem zu Fragen Plattformregulierung an der Freien Universität Berlin.

Schreiben Sie einen Kommentar

Sie müssen sich einloggen um einen Kommentar schreiben zu können.