Köln – Rolf Schwartmann ist Leiter der Forschungsstelle für Medienrecht an der TH Köln und schreibt als Kolumnist im „Kölner Stadt-Anzeiger“ über Digitalthemen. Als Sachverständiger zum Netzwerkdurchsetzungsgesetz sprach er im Rechtsausschuss des Bundestages.
Herr Schwartmann, warum brauchen wir ein Gesetz gegen Hass im Internet?
Im Internet und vor allem auf sozialen Netzwerken wie Facebook und Twitter haben Äußerungen überhand genommen, die kriminell sind. Hassbotschaften, Beleidigungen, Volksverhetzung und sogar Kinderpornografie können zunächst unbeeinflusst ins Netz gestellt werden. Es gibt ja keine Redaktion wie bei einer Zeitung. Die Betreiber der Plattformen müssen solche Äußerungen aber ab dem Zeitpunkt entfernen, zu dem sie Kenntnis davon erlangen, etwa durch eine Beschwerde. Das gilt rechtlich schon jetzt. Weil Facebook und andere dies jedoch nicht ernst genug genommen haben, werden nun zwingende Vorschriften für ein Beschwerdemanagement nachgelegt.
Wie schnell müssen soziale Netzwerke nun auf Beschwerden reagieren?
Wenn eine Äußerung im Netz eine Straftat ist, dann ist sie sofort verboten. Weil ein Anbieter wie Facebook keine Chance hat, alles was dort gepostet wird zu kennen, hilft das Recht ihm. Er muss Verbotenes erst dann entfernen, wenn er etwa durch einen Hinweis Kenntnis von dem verbotenen Inhalt erlangt.
Wie kann Facebook denn entscheiden, ob eine Äußerung auf die ein Bürger hinweist, auch wirklich verboten ist? Die Meinungsfreiheit reicht doch sehr weit.
Das neue Gesetz unterscheidet zwischen offensichtlich rechtswidrigen Aussagen, wie etwa einer eindeutig erkennbaren Aufforderung zu einer Straftat und einfach rechtswidrigen Aussagen, über die man lange streiten kann. Was offensichtlich rechtswidrig ist, kann man nach der Logik des Gesetzes schnell erkennen und muss es binnen 24 Stunden nach Meldung löschen. Einfach rechtswidriges muss in der Regel nach sieben Tagen entfernt werden.
Wie unterscheidet man das voneinander?
Offensichtlich rechtswidrig ist etwas, bei dem die Strafbarkeit buchstäblich ins Auge springt, etwa wenn jemand auf einer Plattform dazu aufruft, jemanden zu töten. Solche eindeutig verbotenen Inhalte, sind aber selten. Viel häufiger sind Fälle, bei denen man Zweifel an der Rechtswidrigkeit hat, weil Aussagen in den Medien kontextabhängig sind. So durfte eine AfD-Politikerin (Alice Weidel, Anmerkung der Red.) „Nazischlampe“ genannt werden. Sie hatte öffentlich gesagt, die Politcal Correctness gehöre auf den Müllhaufen der Geschichte. Die Bezeichnung war im Kontext keine Beleidigung, sondern ein zulässiger Witz über Political Correctness.
Wer soll denn über so was in sieben Tagen entscheiden? Besteht nicht die Gefahr, dass spitze, aber nicht verbotene Äußerungen vorschnell gelöscht werden?
Doch. Die Gefahr eines übereilten Löschens war auch meine zentrale Kritik an dem Gesetzesentwurf, zumal bei Untätigkeit ein drakonisches Bußgeld droht. Das Gesetz wurde aber umgeschrieben, nachdem in einer Anhörung im Bundestag Anfang letzter Woche Änderungen angemahnt wurden.
Was hat sich geändert?
Die starre Frist von sieben Tagen bei rechtswidrigen Inhalten ist gelockert worden. Nun muss man bei komplizierten Fällen nur noch in der Regel in der kurzen Frist handeln. Zudem kann man die Entscheidung an eine Einrichtung der Regulierten Selbstregulierung abgeben und so dem Bußgeldvorwurf entgehen.
Sie haben diese beiden Änderungsvorschläge eingebracht. Hilft das denn gegen vorschnelles Löschen, das für die Meinungsfreiheit so gefährlich ist.
Die sogenannte regulierte Selbstregulierung ist ein bewährtes Verfahren, das beispielsweise im Jugendschutz Rechtssicherheit und Staatsferne gewährleistet. Wenn Facebook & Co. sich einer solchen Einrichtung anschließen, die staatlich anerkannte Regeln für das Entfernen von Äußerungen vorgibt, und Facebook dann nach diesem vereinbarten Verfahren entscheidet, droht ihnen kein Bußgeld mehr. Im Zweifel müssen sie dann auch nicht löschen.
Was funktioniert das konkret?
Anbieter wie Facebook geben sich unter dem Dach der Selbstkontrolleinrichtung ein Beschwerdemanagement. Dazu kann beispielsweise die Einrichtung eines Prüfgremiums gehören, das über Beschwerden entscheidet und mit einer bestimmten Anzahl von Experten besetzt ist. Deren Qualifikation und Schulung muss definiert werden, ebenso wie die Entscheidungsfindung und die Fristen. Wenn sich das Unternehmen an diese Regeln hält, wird auch dann kein Bußgeld fällig, wenn das Ergebnis der eingeschalteten Prüfer gerichtlich nicht bestätigt wird.
Man bekommt also dann ein Bußgeld, wenn man sich nicht an die vereinbarten Regeln hält.Genau. Deshalb besteht auch die Gefahr des vorschnellen Löschens und damit der ungerechtfertigte Eingriff in die Meinungsfreiheit nicht mehr, weil das Risiko einer Falschentscheidung leicht kalkulierbar ist. Facebook wird so auf faire Weise in die Verantwortung genommen und das ist überfällig.
Hätte Facebook das nicht ohne Gesetz machen können?
Doch. Regeln für Inhalte zu setzen ist für jedes Unternehmen, das Meinungen verbreitet, selbstverständlich; gleich ob Zeitung oder Rundfunkveranstalter. Gerade Facebook war aber nicht zu einer ernsthaften Kooperation mit dem Staat bereit. Bislang hat man noch nicht einmal eine Anlaufstelle in Deutschland, was man juristisch einen „inländischen Zustellungsbevollmächtigten“ nennt. Dies muss jetzt nach dem neuen Gesetz eingerichtet werden.
Das Gespräch führte Peter Pauls
Deutschland in der Vorreiterrolle
Der Bundestag hat als erstes Parlament überhaupt ein Gesetz gegen Hass und Verleumdung in den sozialen Netzwerken verabschiedet. Auf seiner letzten Sitzung vor der Sommerpause stimmten Union und SPD am Freitag gegen die Linke und bei Enthaltung der Grünen für das Netzwerkdurchsetzungsgesetz von Bundesjustizminister Heiko Maas (SPD). Der Bundesrat wird sich voraussichtlich am 7. Juli abschließend damit befassen. (dpa)