Thomas de Maiziere und Facebook im Gespräch: Einsatz von Uploadfiltern gefordert

facebook-65051_960_720

Nach einem Besuch des Berliner Facebook-Büros am Montag (29.08.2016) fordert Bundesinnenminister Thomas de Maiziere von Facebook, verbotene Inhalte ohne Aufforderung von der Internet-Plattform zu entfernen. Zudem wünscht de Maiziere im Einzelfall für Behörden unter strengen rechtlichen Vorgaben und mit Richtervorbehalt einen Einblick in die Nutzerdaten.

Aus Sicht der Bundesbehörden wie etwa dem BKA gebe es keine Kritik, sagte de Maizière nach seinem Besuch des Berliner Facebook-Büros. Die Auskunftsersuchen würden schnell beantwortet. Verbesserungsbedarf gebe es jedoch noch bei den Strafverfolgungsbehörden auf Länderebene. Facebook werde hier die Zusammenarbeit weiter intensivieren, sicherte Facebook-Managerin Eva-Maria Kirschsieper zu.

„Facebook hat eine große ökonomische Bedeutung und wie jedes große Unternehmen hat es deswegen auch eine große soziale Verantwortung“, sagte de Maizière. Offene Aufrufe zu Hass oder terroristischen Anschlägen müssten schnell aus dem Netz gelöscht werden, meinte er weiter. Facebook komme somit mit seinen Milliarden von Nutzern eine wichtige gesellschaftliche Rolle zu. Deshalb solle das Netzwerk bei illegalen Inhalten auch ohne externe Aufforderung selbst aktiv werden und etwa Hass-Beiträge löschen. Diese würden vielfach auch gegen die Geschäftsbedingungen des sozialen Netzwerks selbst verstoßen.

In einer gemeinsamen Pressekonferenz des Innenministeriums (BMI) und Facebooks hat Bundesinnenminister de Maizière seine Forderung nach der Installation von Uploadfiltern bei Plattformen und Hostern bekräftigt. Facebook und andere Unternehmen haben laut de Maizière die Aufgabe, auch ohne externe Anforderung oder Beschwerden, verbotene Inhalte aus dem Netz zu entfernen. Darüber hinaus betonte de Maizière, dass die Entscheidung, was herausgefiltert werden solle, kompliziert sei. Für „klare Fälle“ hält er jedoch die folgenden: Offener Aufruf zu Hass, das Zeigen von Bildern, die dazu anstacheln sollen, terroristische Anschläge zu begehen, die müssen aus dem Netz. Facebook arbeite an solchen Systemen, sagte de Maizière auf der Pressekonferenz. Er appellierte an den Innovationsgeist des Unternehmens, hier schnell eine Lösung zu präsentieren.

In der Pressekonferenz äußerte sich der Innenminister auch zum Thema Verschlüsselung: Einerseits möchte er Sicherheit durch Verschlüsselung, grundsätzlich begrüße er sogar „eine Ende-zu-Ende-Verschlüsselung von sozialen Diensten und Netzwerken“, andererseits darf “Gefahrenabwehr und Strafverfolgung durch Verschlüsselung nicht unmöglich gemacht werden. Das ist ein gewisses Spannungsverhältnis. Und wir arbeiten auch in Europa daran, wie wir dieses Thema lösen. Und das heißt: keine generelle Eingriffsmöglichkeit für Massenüberwachung, aber unter den rechtsstaatlichen Voraussetzungen im Einzelfall mit Richtervorbehalt muss es auch technisch möglich sein, eine solche Verschlüsselung zu überwinden, wie bei einem Telefon. Der Staat, so habe ich das oft gesagt, muss technisch das können, was er auch rechtlich jetzt schon darf. Das ist eine schwierige Aufgabe und dafür brauchen wir dann ggf. auch die Zusammenarbeit mit den Netzwerkbetreibern, die unter den gleichen Voraussetzungen wie jetzt, wenn eine Strafverfolgungsbehörde ein berechtigtes Auskunftsanliegen hat, was nach deutscher Rechtsordnung beantwortet werden muss, dann auch erfolgt, und in solchen Fällen müsste dann eine Zusammenarbeit erfolgen und die wird auch erfolgen, darüber werden wir weiter im Gespräch bleiben.”

Fazit:

Demnach müsste Facebook nun selbst proaktiv werden – ohne dass eine Beschwerde gibt – , das soll heißen, von sich aus nach rechtsextremen Kommentaren suchen und diese dann blocken. Doch das macht Facebook gerade nicht. Dazu ist das Unternehmen gesetzlich nämlich nicht verpflichtet, sagt Ansgar Koreng, Fachanwalt für Medienrecht. Facebook hafte nicht für alle möglichen Kommentare seiner Nutzer. Erst, wenn es auf strafrechtlich relevante Kommentare hingewiesen werde, hafte das Unternehmen. Dann nämlich müsse es die Inhalte erst löschen.

Damit genau das passiert, können die Nutzer Inhalte melden. Facebook-Mitarbeiter überprüften die gemeldeten Beiträge dann. Weltweit geschieht das bisher laut einer Facebook-Sprecherin in vier Büros, das europäische liege in Dublin. Hier würden auch deutschsprachige Mitarbeiter eingesetzt, sagt eine Sprecherin des Unternehmens auf heute.de-Anfrage. Wie viele es sind – dazu keine Angaben. Nur so viel: In allen vier Büros weltweit arbeiteten “mehrere hundert” Menschen. Weil das Problem so offenbar nicht zu lösen ist, sollen nun also Uploadfilter zum Einsatz kommen.

Zumal gibt es noch ein anderes Problem: Wer entscheidet, ob ein Kommentar zulässig ist oder nicht? Solche Fälle gingen vor Gericht oft jahrelang durch mehrere Instanzen, sagt Rechtsanwalt Ansgar Koreng. “Es kann nicht von Facebook erwartet werden, das innerhalb von 24 Stunden zu entscheiden”, meint er weiter. Und dann ist auch nicht alles, was einem nicht gefällt, gleich verboten. Das Recht auf freie Meinungsäußerung decke sehr viel ab in Deutschland. Wo ist also die Grenze zwischen zorniger Kritik, Zorn, Wut und Raserei und verbotenen Hasspostings? Das entscheiden in einem demokratischen Staat normalerweise Gerichte. Warum also nicht die Staatsanwaltschaften aufrüsten, anstatt mit Facebook einen privaten Konzern über die Grenzen entscheiden zu lassen?

Wenn Facebook etwa automatisiert Inhalte löscht, kann dies u.a. auch dazu führen, dass strafrechtlich relevante Inhalte vor Gericht am Ende nicht mehr als „Beweis“ herangezogen werden können – weil sie schlichtweg nicht mehr im Netz existieren. Die Strafverfolgung wird dadurch verhindert. In Demokratien sollten daher immer rechtsstaatliche Mittel die erste Wahl sein.

Der Netzaktivist Markus Beckedahl warnte unterdessen vor einer “privatisierten Rechtsdurchsetzung in Form freiwilliger Kooperationen mit Plattformen” wie Facebook. Statt dessen sollten staatliche Stellen für das konsequente Vorgehen etwa gegen Volksverhetzer und Holocaust-Leugner direkt für die Strafverfolgung von rechtsverletzenden Inhalten aufgerüstet werden. “Und zwar ohne einfache Löschung, sondern über den Rechtsweg”, fordert Beckedahl auf netzpolitik.org.

Wer eine Privatisierung der Rechtsdurchsetzung auf Grundlage von Allgemeinen Geschäftsbedingungen forciert, der will private Unternehmen zum Richter über die Meinungsfreiheit machen. Eine rechtsstaatliche Kontrolle findet dann nicht mehr statt. Um nichts Geringeres geht es bei der Einführung von Uploadfiltern für „terroristische“ und „radikalisierende“ Inhalte, führt netzpolitik.org des Weiteren aus.

Bildquelle: geralt, thx! (CC0 Public Domain)

Vielleicht gefällt dir auch

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.