Der Digital Services Act der EU soll Minderjährige im Internet schützen. Eine Studie zeigt jedoch: große Plattformen moderieren nachlässig.
Der Digital Services Act (DSA) der Europäischen Union soll eigentlich Minderjährige schützen, die online unterwegs sind. Große Plattformen löschen höchstens jeden dritten Inhalt zu problematischen Essstörungen, Selbstverletzungen und Suiziden.
Die Studie der NGO Reset wirft die Frage auf, ob die Online-Plattformen gegen den DSA verstoßen. Außerdem untersuchte man, wie die Plattformen effektiver reguliert werden können. Die Tagesschau berichtete exklusiv darüber.
Verstörende Bilder und Videos
Man meldete die Beiträge wegen Nacktheit oder sexuellen Handlungen, wegen Hassrede oder verbotenen Symbolen, gewaltverherrlichende Videos, Mobbing oder Belästigung, das Angebot verbotener Dienstleistungen, Gegenständen oder Substanzen. Es ging auch um Urheberrechtsverletzungen, Selbstverletzungen und Postings, in denen man sogar zum Selbstmord aufruft.
Die Studie prüfte mehr als 200 Bilder und Videos, die eine Psychologin als problematisch einstufte. Sie zeigen Nutzer, die ihren extrem dünnen Körper oder ihre selbst zugefügten Wunden präsentieren. Andere Nutzer loben oder liken diese Inhalte. Diese können Jugendliche zu Essstörungen oder Selbstverletzungen verleiten oder verschlimmern. Das Fehlverhalten wird durch die Likes sogar noch unterstützt, weil sich die Minderjährigen bestätigt fühlen.
Die Bilder und Videos stammen von öffentlichen Accounts auf Instagram, TikTok und X (früher Twitter). Sie waren zum Zeitpunkt der Meldung noch online und sind über Hashtags oder Empfehlungen leicht auffindbar. Außerdem zeigt die Studie, wie wenig die Plattformen dagegen tun. In manchen Fällen reagieren die Portalbetreiber nur auf drei Prozent der gemeldeten Postings.
Mögliche Verstöße auch bei Minderjährigen gegen den Digital Services Act
Der DSA soll die Rechte und die Sicherheit der Nutzer stärken. Er schreibt einen besonderen Schutz für Minderjährige vor. Er legt zumindest den großen Netzwerken besondere Regeln auf. So beispielsweise das Löschen, Verbergen oder Unterdrücken von Inhalten, die gegen die Grundrechte oder die öffentliche Ordnung verstoßen. Doch es mangelt nicht an den Gesetzen, sondern an der Rechtsdurchsetzung. Soll heißen, dass das Fehlverhalten der Plattformbetreiber (mangelnde Kooperation) bisher kaum bis gar keine Konsequenzen hat.
Die noch unveröffentlichte Studie von Reset wirft die Frage auf, ob die Plattformen diesen Anforderungen gerecht werden. Sie zeigt aber auch, dass die Löschquote bei gemeldeten problematischen Inhalten viel zu gering ist. Andererseits kritisiert Reset zudem, dass die Plattformen keine transparenten Kriterien für die Moderation haben. Zudem können die Nutzer die Entscheidungen der Plattformen nicht anfechten oder überprüfen.
Zu wenig Schutz für Minderjährige und Jugendliche
Die Studie fordert die EU-Kommission auf, den DSA umzusetzen und die Plattformen zur Rechenschaft zu ziehen. Sie verlangt auch, dass die Plattformen mehr in die Prävention und Aufklärung investieren.. Außerdem sollen sie mit Experten und Hilfsorganisationen zusammenarbeiten, um den Betroffenen Unterstützung anzubieten.
Die Studie wird von Sabine Verheyen (CDU), Europaabgeordnete und Vorsitzende des Ausschusses für Kultur und Bildung, unterstützt. Sie sieht Nachholbedarf bei den Plattformen: „Gerade beim Thema Jugendschutz ist mir das deutlich zu wenig, was zurzeit passiert. Ich glaube, dass wir hier noch stärker und noch deutlicher handeln müssen.“ Die Europaabgeordnete fordert, dass die Plattformen problematische Inhalte löschen oder verbergen und die Nutzer besser aufklären.
Frau Verheyen kritisiert in einem Beitag auf ihrer Website, dass der abgestimmte Text des DSA „gerade für den europäischen Medien-, Kultur- und Sportsektor, aber auch für kleine und mittlere Unternehmen“ problematisch sei. Sie habe sich mit verschiedenen Änderungsanträgen um eine Verbesserung bemüht, doch das gelang am Ende nicht. Auch wenn sich die großen Portale nicht daran halten, der DSA gilt auch für kleine Firmen und Vereine. Und die dürften in den wenigsten Fällen die Ressourcen besitzen, um den Vorgaben gerecht zu werden.
Es wird gelöscht, aber oft zu spät oder gar nicht
Die Reset-Studie hat geprüft, wie gut die Plattformen problematische Inhalte moderieren, sie hat mehr als 200 Bilder und Videos gemeldet, die Essstörungen, Selbstverletzung oder Selbstmord verherrlichen oder verharmlosen. Ebenfalls haben sie beobachtet, ob die Plattformen die Postings löschen, mit einem Warnhinweis versehen oder stehen lassen.
Bei Instagram liegt die Löschrate bei 30 Prozent für Beiträge über Selbstmord und Selbstverletzung, die Minderjährige und Jugendliche zeigen, z. B. vorgeführte eigene Wunden oder Narben.
Der Betreiber von TikTok erreicht eine Löschrate von etwas mehr als einem Prozent. Bei X (ehemals Twitter) ist es sogar noch weniger.
Plattformen verweisen auf umfangreiche Maßnahmen
Die Plattformen verweisen auf ihre Sicherheitsmaßnahmen. Bei Instagram sind explizite Hashtags mit Hilfsangeboten versehen. Meta sagt, man suche eine Balance zwischen Austausch und Löschen. TikTok gab an, man arbeite mit Experten zusammen und verweise auf Hilfsangebote. X (ehemals Twitter) antwortete einfach gar nicht auf die Anfrage.
Die Plattformen betonen, dass sie den DSA einhalten und Berichte an die EU-Kommission liefern. Die EU-Kommission bestätigt, dass sie die Berichte prüft und die Plattformen überwacht. Sie äußert sich aber nicht zu konkreten Fällen oder möglichen Sanktionen.
Fazit
Fakt ist, problematische Inhalte auf Instagram, TikTok und X (ehemals Twitter) etc. werden kaum bis gar nicht moderiert. Die Studie fordert mehr Schutz für junge Nutzer vor Inhalten, die ihnen schaden können.
Die Plattformen berufen sich auf ihre Sicherheitsmaßnahmen und die angeblich vollzogene EU-Kooperation. Die EU-Kommission überwacht die Plattformen. Die EU-Abgeordneten wollen mehr Schutz für Kinder und Jugendliche. Eine Forderung, der man künftig mehr Nachdruck verleihen muss, vor allem juristisch gesehen.