CR-online.de Blog

Ein steuerfinanzierter Super-Schlichter für Content-Moderation? Highlights aus dem geleakten DDG-Entwurf zur Durchführung des Digital Services Acts (DSA)

avatar  Dr. Daniel Holznagel
RiKG

Vor kurzem wurde bereits über einen geleakten Entwurf aus dem BMDV zu einem Digitale-Dienste-Gesetz – DDG vom Februar berichtet (z.B. hier und hier).

Das DDG ist abzugrenzen von dem zweiten Gesetzesvorhaben der Bundesregierung im Bereich Plattformregulierung, dem angekündigten Gesetz gegen Digitale Gewalt (Federführung: BMJ; vgl. hierzu meinen Blogpost).

Bei dem geplanten DDG geht es v.a. um die Durchführung des DSA. Dass die BReg überhaupt so etwas wie das DDG vorschlagen würde, war schon länger abzusehen, da sich mit der Einführung und bald vollen Geltung des  DSA (hierzu zB hier) Anpassungsbedarf bei der deutschen Plattformregulierung ergibt.

Insofern sind einige Regelungen im DDG-Entwurf erwartbar (Zuständigkeit Behörden, Bußgeldtatbestände). Z.T. gibt es aber auch echte Überraschungen.

I. NetzDG – Aufhebung 

Mit dem DDG wird die Aufhebung des NetzDG angeordnet. Das NetzDG entfällt als Ganzes, wenigstens formal. De facto könnte aber wohl ein Teil des NetzDG überleben: Denn nach Plänen des BMJ soll die Regelung zum Zustellungsbevollmächtigten in § 5 Abs. 1 NetzDG trotz der vielfach formulierten europarechtlichen Bedenken zum Teil in das angekündigte Gesetz gegen Digitale Gewalt übergehen (Entwurf für Q4 2023 erwartet).

II. TMG – Aufhebung und teilweiser (unzureichender?) Transfer ins DDG

Mit dem DDG-Entwurf wird auch das TMG aufgehoben. Allerdings werden die Regelungen der §§ 1 – 6 TMG (Definitionen, Herkunftslandprinzip, Zulassungsfreiheit, Informationspflichten), als Umsetzungsbestimmungen der E-Commerce-RL quasi 1:1 ins neue DDG transferiert.

Auf Ebene des nationalen Rechts aufgehoben werden im Ergebnis damit nur die Haftungsprivilegierungen in §§ 7 – 10 TMG, was grundsätzlich erwartbar war, da sich der Regelungsgehalt nunmehr bindend in Art. 4 – 8 DSA findet und i.Ü. auch die entsprechenden Bestimmungen der ECRL durch Art. 89 Nr. 1 DSA aufgehoben werden.

Seltsam und evtl. ein Versehen scheint, dass der DDG-Entwurf auch § 7 Abs. 4 TMG ersatzlos streicht – was der DSA nicht auffängt. Theoretisch würde die deutsche Rechtslage dann auf den Stand vor dem 3. TMGÄndG zurückfallen und die Inanspruchnahme der Zugangsanbieter wäre nur durch eine Verletzerhaftung abgesichert (vgl. BGH, Urteil vom 26. Juli 2018 – I ZR 64/17 “Dead Island”, Rn. 13 ff.), was so mE kaum gewollt sein kann. Hier dürfte es noch Diskussionen geben.

III. Regelung der Aufsicht – wird die überhaupt etwas zu tun haben?

Mit dem DDG wird die Aufsichtsstruktur zum DSA geregelt. Nach dem DSA muss bekanntlich ein (koordinierender und gegenüber anderen Mitgliedstaaten sowie der Kommission einheitlich auftretender) “völlig unabhängiger” Koordinator für Digitale Dienste Dienste gebildet werden. Diese Aufgabe soll nach dem Entwurf nun eine bei der BNetzA einzurichtende, “völlig unabhängig” arbeitende sog. “Koordinierungsstelle für digitale Dienste” wahrnehmen.

 

Gleichzeitig erlaubt der DSA auf nationaler Ebene die sektorale Zuweisung von Aufgaben an gesonderte Behörden. Hiervon macht der DDG-Entwurf Gebrauch. Die Durchsetzung der targeted-ads-bans in Art. 26 Abs. 3, 28 Abs. 2 DSA soll durch den BfDI erfolgen. Die BzKJ soll die jugendmedienschutzrechtliche Generalklausel in Art. 28 Abs. 1 DSA durchsetzen. Das BfJ (bisher NetzDG) erhält keine Zuständigkeiten. Im Übrigen sollen bestehende Zuständigkeiten “für die Beaufsichtigung von Diensteanbietern” unberührt bleiben; mit den Landesmedienanstalten soll eine “Zusammenarbeit” erfolgen (notwendige Anpassungen im JMStV sowie MStV müssten iÜ durch die Länder erfolgen).

 

Ferner soll bei der Koordinierungsstelle ein beratender, plural besetzter, durch den Bundestag berufener Beirat eingerichtet werden. Dies erscheint fragwürdig: Noch ein Beirat? Der DSA sieht doch schon ein starkes Europäisches Gremium für digitale Dienste vor (Art. 61 DSA) sowie die Einbindung von unabhängigen Sachverständigen und Zivilgesellschaft (vgl. zB umfassende Übersicht hier).

 

Im Übrigen: Bei all der Diskussion um die deutsche Aufsichtsstruktur ist es auch Zeit für einen realistischen Blick: Mit dem DSA sind die NetzDG-Zeiten nämlich vorbei. Es wird keine deutschen Bußgeldverfahren gegen Facebook wegen unzureichender Meldewege oder gegen Twitter wegen unzureichender Löschungen mehr geben. Denn die Aufsicht nach dem DSA liegt klar bei den Mitgliedstaaten, in welchen die Anbieter ihren Sitz haben oder wo sie einen gesetzlichen Vertreter benennen (dh meist: Irland) und daneben einzig bei der EU-Kommission. Genau das – Ende der Fragmentierung, Rechtssicherheit für die Anbieter – war einer der Hauptzwecke des DSA (wenngleich die EU-Kommission lieber das Framing vom “new Sheriff … in Town” bedient). Aber zurück zur neuen Realität: Theoretisch ist Deutschland in der Plattformregulierung nun also wieder Provinz, denn hier sitzen faktisch nur kleine Anbieter. Dennoch muss die deutsche Aufsicht nicht in der Bedeutungslosigkeit versinken. Die eventuell wichtigste Aufsichtstätigkeit der deutschen Behörden (neben – unberührt bleibenden – Einzelfallanordnungen außerhalb des DSA) könnte künftig nämlich darin liegen, die ausschließlich zuständigen Sitzländer sowie die EU-Kommission im Rahmen von Kooperationsverfahren (Art. 58 f.) zum Eingreifen zu bewegen. Wie ambitioniert die Koordinierungsstelle hier “aus der zweiten Reihe” agieren wird, scheint völlig offen und dürfte maßgeblich von den Haushaltsmitteln, aber auch der Behördenleitung abhängen. Der Job ist geradezu prädestiniert dafür, dass man hier eine ruhige Kugel schieben kann (“Fälle an Irland abgeben”), man aber auch ambitioniert tätig werden kann, zB wenn die die deutsche Koordinierungsstelle notfalls mit “verbündeten” Mitgliedstaaten ein Eingreifen der Kommission erzwingt (vgl. Art. 58(1)-(2), 59(1) DSA).

IV. Bußgeldtatbestände – Sanktionierung einzelner Moderationsentscheidungen?

Der DDG-Entwurf enthält im Übrigen noch eine Reihe von Bußgeldtatbeständen, quasi jeweils für (fast) jede Handlungspflicht nach dem DSA, Grundlage ist Art. 52 Abs. 1 DSA (daneben werden auch Bußgeldtatbestände für die Durchsetzung der P2B-VO eingeführt).

Interessant ist nun, dass Bußgeldtatbestände nicht nur für die strukturellen Organisationspflichten nach dem DSA vorgesehen sind (also zB Benennung Kontaktstellen, Einrichtung eines Meldeverfahrens), sondern auch für sehr kleinteilige Inhalte-bezogene Verhaltenspflichten.

Zwar bekommt die Pflicht zur sorgfältigen Bearbeitung von take-down-Meldungen (Art. 16 Abs. 6 S. 1 DSA) keinen eigenen Bußgeldtatbestand. Bußgeldbewehrt ausgestaltet werden aber andere einzeln-Inhalte-bezogene Pflichten: Z.B. zur Meldung eines Verdachtsfalls an die Strafverfolgungsbehörden nach Art. 18 DSA, zur Rückgängigmachung von Moderationsentscheidungen nach interner Beschwerde gemäß Art. 20 Abs. 4 S. 2 DSA oder zur Account-Sperre bei Wiederholungstätern nach Art. 23 Abs. 1 DSA.

Theoretisch droht den Anbietern somit ein Bußgeld, wenn sie in einem Einzelfall einen strafrechtlichen Verdachtsfall nicht an die Strafverfolgung melden (Art. 18 DSA). Oder dass sie z.B. trotz Beschwerde gegen eine unterlassene Löschung entgegen Art. 20 Abs. 4 DSA keinen take-down vornehmen, weil sie zB fahrlässig verkennen, dass doch eine strafbare Beleidigung vorliegt usw. Wir erinnern uns: Das NetzDG sanktioniert ähnlich kleinteilige Entscheidungen nur bei systemischen Fehlern. Der DDG-Entwurf geht hier in die Einzelfallsanktionierung, was angesichts ErwGr 109 S. 4 DSA wohl gar nicht erforderlich ist und politisch kaum gewollt sein kann (Haftungsdruck für Einzelfallentscheidungen kann Fehlanreize setzen). Hier müsste es wohl noch einigen Protest aus der Zivilgesellschaft geben und man kann erwarten, dass hier nachgesteuert wird.

V. Innovativ und ausbaufähig: Anordnung von App Store – Sperren

Der DDG-Entwurf sieht vor, dass Gerichte gegenüber App-Store-Betreibern die Entfernung bestimmter Apps anordnen.

Hintergrund ist Art. 51 Abs. 3 Buchst b) DSA, wonach im Extremfall, also bei schwerwiegenden Verstößen eines Vermittlungsdienstes der “Zugang der Nutzer zu dem … Dienst … eingeschränkt” werden kann. Genau diese Regelung dürfte EU-Kommissar Breton übrigens mit folgender Äußerung zu Twitter gemeint haben: “wenn sich die Regelverstöße fortsetzen, können wir die Plattform in Europa abschalten”.

Allerdings wird unter Fachleuten gerätselt, wie diese “Abschaltung” denn funktionieren soll. Der DSA selbst weist die Problematik den nationalen Behörden zu. Und genau hier knüpft der DDG-Entwurf mit den genannten App Store – Sperren nun an.

Jedoch scheint die vorgeschlagene Lösung noch viel zu rudimentär. Die App Stores werden hier quasi als Vollstreckungsgehilfen, jedenfalls grundsätzlich als Nichtstörer in Anspruch genommen, weshalb mE rechtsstaatliche Absicherungen (Subsidiarität, Aufwendungsersatz, Transparenz usw.) erforderlich sein dürften. Darüber hinaus sollte man nicht bei den App Stores stehen bleiben, und auch sonstige relevante “Infrastruktur” in die Pflicht nehmen können (payment-Provider, Werbekunden, Moderatoren, Gruppenbetreiber usw.). Gut jedenfalls, dass der DDG-Entwurf diese (bisher vernachlässigte) Debatte eröffnen wird.

VI. Disruptive Überraschung: Kostenlose Streitschlichtung für alle!

Für mich ist die größte Überraschung am geleakten DDG-Entwurf aber, dass die Koordinierungsstelle für digitale Dienste eine den Anforderungen des Art. 21 DSA entsprechende “außergerichtliche Streitbeilegungsstelle (behördliche Verbraucherschlichtungsstelle)” unterhalten soll.

Zum Hintergrund: Art. 21 ist eine seltsame, mE sehr kritisch zu sehende Vorgabe im DSA, wonach sich außergerichtliche Streitbeilegungsstellen durch die Koordinatoren für digitale Dienste zertifizieren lassen können. Sodann steht es Nutzern offen, erfolgte oder unterlassene Moderationsentscheidungen von Online-Plattformen dort zur Verhandlung zu bringen. Der disruptive Teil: Die Plattformen müssen (!) teilnehmen. Und: im Regelfall tragen die Plattformen – so meine Lesart – die Kosten des Verfahrens. Zwar sind die dortigen Entscheidungen nicht bindend, aber die asymmetrische Kostentragung zu Lasten der Plattformen – die ja teilnehmen müssen (!) – ist es durchaus. Das Verfahren wird zu einer Art Zwangsberatung der Plattformen – auf Antrag der Nutzer und auf Kosten der Plattformen. Art. 21 stellt mE im Ergebnis einen überregulierenden Irrweg dar (siehe meine umfassende Kritik hier in CR 2022, 594-605).

Wie dem auch sei: Im DSA ist formuliert, dass Mitgliedstaaten solche Streitbeilegungsstellen zwar unterstützen können (Art. 21 Abs. 6 DSA), dies aber gerade nicht müssen.

Umso erstaunlicher, dass Deutschland nach dem DDG-Entwurf so eine Stelle finanzieren soll. Und zwar komplett: Das Verfahren wird kostenlos! Es sollen ausdrücklich keine Gebühren und Auslagen erhoben werden (eigene Aufwendungen sollen die Parteien aber selbst tragen). Die geplante Finanzierung durch die Bundesrepublik ist mutig, immerhin geht es um absolute Massenverfahren (millionenfache Moderationsentscheidungen) und mindestens alle EU-Bürger:innen kommen als Antragsteller in Betracht (Art. 21 DSA erlaubt das freie Forum-Shopping).

Aufgrund der angedachten staatlichen Finanzierung entfallen zwar einige Kritikpunkte an dem Verfahren: Sicherlich steht dann nicht zu befürchten, dass die Schlichtungsstelle (um für antragstellende Nutzer attraktiv zu sein), tendenziell einseitige Entscheidungen treffen wird.

Die anderen Kritikpunkte bleiben aber: Zur Schlichtung kommen hier wenig “mediationsgeeignete” Verfahren, was an der Natur der Rechtsstreitigkeit liegt: Es gibt kein “give and take”, wenn die Plattform zB einen rassistischen Post als Hate Speech löscht. Zudem wird das Schlichtungsinteresse bei den Beteiligten völlig unausgewogen sein. Wenn zB eine Plattform nach Meldung einer Nutzer:in einen toxisch-männlichen Kommentar löscht und der Uploader dann die Schlichtung anruft: Die Plattform wird hier kaum Interesse an einer länglichen Schlichtung haben; die meldende Nutzer:in wird wohl auch wenig Interesse haben, hier jetzt auch noch an einer Schlichtung teilzunehmen. Der Uploader aber wird die Bühne evtl. sogar suchen. Klar, meine Beispiele sind einseitig. Es gibt aber Gründe anzunehmen, dass die meisten Antragsteller nach Art. 21 DSA gerade Nutzer sein werden, deren Inhalte als Hass oder Desinformation gelöscht wurden (vereinfacht: Hater und Trolle, zu den Hintergründen: CR 2022, 594 Rz. 19 ff.).

Selbst wenn man all diese Kritik nicht teilt bliebe die Frage: Wie soll es sich rechtfertigen, dass wir hier eine Schlichtung in Privatrechtsverhältnissen aus Steuergeldern finanzieren? In anderen Bereichen gerne, zB Eltern- und Familienberatung. Aber wenn mein toxischer Tweet gegens Gendern gelöscht wurde und ich es der Plattform jetzt so richtig zeigen will? Im Ergebnis meine ich, dass ein so ungeeignetes und potentiell missbrauchsanfälliges Verfahren nicht auch noch durch den Steuerzahler finanziert werden sollte. Wir sollten auch nicht vergessen, dass es funktionierenden Rechtsschutz gegen Moderationsentscheidungen natürlich gibt: vor den staatlichen Gerichten, mit durch die unterliegende Partei zu zahlenden Gerichtsgebühren, ordentlichem Verfahren und bindendem Ergebnis (wenngleich man gerichtlichen Rechtsschutz natürlich auch hier fortentwickeln könnte, vgl. hier).

VII. Ausblick

Wie geht es weiter? Nach dem normalen Lauf der Dinge wäre nun ein Referentenentwurf zum DDG und eine Verbändebeteiligung zu erwarten. Dem Vernehmen nach wird das gar nicht mehr so lange dauern, sicherlich wird es in den nächsten Wochen hier einen Entwurf geben. Dieser ist mit Spannung zu erwarten, zumal der geleakte Entwurf vom Februar stammt und Änderungen erfahren haben dürfte. Jedenfalls wird das DDG, wie hier skizziert, wohl doch nicht nur eine rein technokratische “Begleitung” des DSA werden, sondern das Gesetz könnte einige interessante, zum Teil disruptive Weichenstellungen mit sich bringen.

Dr. Daniel Holznagel, Richter (bisherige Schwerpunkte UWG, MarkenR- UrhR und KartellR). Er war zuvor 4 Jahre im Bundesministerium der Justiz als Referent für die Entwürfe und anschließende Umsetzung des NetzDG zuständig. Er publiziert regelmäßig zum Recht der Online-Plattformen und unterstützt zivilgesellschaftliche Akteur:innen wie HateAid bei der Positionierung zu digitalpolitischen Themen. Er unterrichtet zudem zu Fragen Plattformregulierung an der Freien Universität Berlin.

Schreiben Sie einen Kommentar

Sie müssen sich einloggen um einen Kommentar schreiben zu können.