Maximale Aufmerksamkeit als Geschäftsmodell: Die EU nimmt TikToks Design ins Visier.
Maximale Aufmerksamkeit als Geschäftsmodell: Die EU nimmt TikToks Design ins Visier.
Bildquelle: ChatGPT

Suchtgefahr durch TikTok: EU nimmt Design ins Visier

EU prüft mögliche Suchtgefahr durch TikTok. Das DSA-Verfahren nimmt das App-Design ins Visier und könnte Milliardenstrafen nach sich ziehen.

Endloses Scrollen, Autoplay und algorithmische Dauerbeschallung sorgen nach Einschätzung der EU-Kommission für eine Suchtgefahr durch TikTok. Erstmals greift Brüssel damit gezielt das Design einer Plattform an. Das DSA-Verfahren könnte Maßstäbe für Social Media setzen.

TikTok verzeichnet eine hohe Nutzungsintensität. Die Plattform hält User oftmals über längere Zeiträume in der App. Nun erhebt erstmals eine große Regulierungsbehörde offiziell den Vorwurf, das Design der Plattform berge eine systematische Suchtgefahr durch TikTok. Die EU-Kommission hat die Kurzvideo-App nach vorläufigen Untersuchungsergebnissen wegen möglicher Verstöße gegen den Digital Services Act (DSA) im Fall TikTok ins Visier genommen. Im Kern geht es um die Frage, ob Plattformen für suchtfördernde Mechanismen Verantwortung tragen müssen oder ob Abhängigkeit weiterhin als individuelles Problem gilt.

Suchtgefahr durch TikTok: EU-Kommission sieht Risiken für psychische Gesundheit

Nach Einschätzung der EU-Kommission verstößt TikTok in seiner aktuellen Form gegen zentrale Pflichten des DSA. Als „sehr große Online-Plattform“ ist das Unternehmen verpflichtet, Risiken für das körperliche und mentale Wohlbefinden seiner Nutzer zu bewerten und wirksam zu begrenzen. Daran habe es TikTok jedoch bisher fehlen lassen.

Die Behörde kritisiert insbesondere Design-Elemente, die eine problematische Nutzung begünstigen wie unendliches Scrollen, automatisch startende Videos, Push-Benachrichtigungen rund um die Uhr sowie ein hochgradig personalisiertes Empfehlungssystem. Zusammengenommen verstärken diese Mechanismen laut EU den Drang, Inhalte immer weiter zu konsumieren, häufig länger, als es von den Nutzern beabsichtigt ist.

Belohnungsschleifen durch Algorithmen: „Autopilot-Modus“ statt bewusster Nutzung

In den vorläufigen Ergebnissen spricht die Kommission davon, dass TikTok Nutzer fortlaufend mit neuen Inhalten „belohnt“ und damit das Gehirn in eine Art Autopilot versetzt. Diese Form der Dauerstimulation könne die Selbstkontrolle untergraben und zwanghafte Nutzungsmuster fördern, insbesondere bei Kindern, Jugendlichen und anderen schutzbedürftigen Gruppen.

Aufmerksamkeit bis tief in die Nacht: Die EU sieht Risiken für junge Nutzer.
Aufmerksamkeit bis tief in die Nacht: Die EU sieht Risiken für junge Nutzer.

Kritisch bewertet die EU zudem, dass TikTok vorhandene Warnsignale nicht ausreichend beachtet habe. Dazu zählen die intensive Nutzung durch Minderjährige in der Nacht oder die extrem hohe Zahl täglicher App-Öffnungen. Diese Indikatoren gelten als Hinweise auf exzessive oder problematische Mediennutzung.

TikTok als Sonderfall unter den Plattformen

Zwar stehen auch andere Plattformen unter Beobachtung, doch TikTok nimmt eine Sonderrolle ein. Anders als bei Instagram oder YouTube basiert die App fast vollständig auf einem algorithmisch gesteuerten „For You“-Feed. Nutzer suchen kaum aktiv nach Inhalten. Die Plattform entscheidet, was als Nächstes erscheint.

Diese Struktur begünstigt laut Kritikern wie dem Digitalexperten Markus Beckedahl suchtähnliche Nutzungseffekte bei TikTok. Der stetige Strom unvorhersehbarer Inhalte folgt dem Prinzip variabler Belohnung, das aus der Verhaltenspsychologie bekannt ist. Man weiß nie, ob das nächste Video eher belanglos oder von besonderem Interesse ist. Diese Unvorhersehbarkeit kann dazu beitragen, dass Nutzer Inhalte fortlaufend weiterkonsumieren.

Schutzmaßnahmen laut EU nicht ausreichend

TikTok verweist auf eigene Instrumente wie Bildschirmzeit-Limits, Nachtmodi oder elterliche Kontrollfunktionen. Die EU-Kommission hält die benannten Maßnahmen jedoch für unzureichend wirksam. Zeitbeschränkungen seien leicht zu umgehen, Warnhinweise zeitnahe weggeklickt und Kinderschutzfunktionen erforderten aktives Eingreifen sowie technisches Verständnis der Eltern.

Aus Sicht der EU wird die Verantwortung damit faktisch auf Nutzer und Familien verlagert. Ein solcher Ansatz widerspricht dem Digital Services Act, der Plattformen ausdrücklich verpflichtet, Risiken bereits durch die Gestaltung ihrer Dienste zu minimieren.

EU-Kommission fordert tiefgreifende Änderungen

Die Brüsseler Behörde verlangt keine kosmetischen Anpassungen, sondern tiefgreifende Eingriffe in die grundlegende Funktionsweise der Plattform. Nach den Vorstellungen der EU sollen wirksame und nicht leicht zu umgehende Bildschirmzeitpausen eingeführt werden, auch während der Nacht. Zudem fordert die Kommission eine Anpassung des Empfehlungssystems, um exzessive Nutzungsmuster einzudämmen, sowie Einschränkungen oder eine Deaktivierung des unbegrenzten Scrollens. Darüber hinaus soll TikTok messbare Anzeichen problematischer Nutzung stärker berücksichtigen. Damit rückt erstmals nicht der einzelne Nutzer, sondern die Architektur der Plattform selbst in den Mittelpunkt der Regulierung.

Suchtgefahr durch TikTok: Milliardenstrafe möglich

Sollten sich die vorläufigen Erkenntnisse bestätigen, droht TikTok eine empfindliche Sanktion. Die EU-Kommission kann bei einem DSA-Verstoß Geldbußen von bis zu sechs Prozent des weltweiten Jahresumsatzes verhängen. Für den Mutterkonzern ByteDance ginge es um Milliardenbeträge.

TikTok weist die Vorwürfe entschieden zurück. Das Unternehmen spricht gemäß LTO von einem verzerrten Bild der Plattform und kündigte an, sich mit allen rechtlichen Mitteln zu verteidigen:

„Die vorläufigen Ergebnisse der Kommission stellen unsere Plattform kategorisch falsch und völlig haltlos dar. Wir werden alle notwendigen Schritte unternehmen, um diese Ergebnisse mit allen uns zur Verfügung stehenden Mitteln anzufechten.“

Mehr als nur ein TikTok-Problem

Die Debatte um die Suchtgefahr durch TikTok spiegelt die anhaltende Auseinandersetzung zwischen der EU und großen Tech Konzernen wider. Neben Fragen der mentalen Gesundheit stehen hier konkret auch Datenschutz, Datenabflüsse nach China und mögliche politische Einflussnahme im Raum. Beispielsweise eröffnete die EU im Dezember 2024 bereits ein förmliches DSA-Verfahren gegen TikTok mit Blick auf mögliche Risiken für die Wahlintegrität im Zusammenhang mit den Präsidentschaftswahlen in Rumänien.

Juristen sehen das aktuelle Verfahren nach dem Digital Services Act im Fall TikTok als wegweisend. Wolfgang Schulz bezeichnet den aktuellen Fall gegenüber LTO als besonders aufschlussreich. Der Medienrechtler, der als Professor an der Fakultät für Rechtswissenschaft der Universität Hamburg tätig ist und das Humboldt Institut für Internet und Gesellschaft leitet, sieht das DSA-Verfahren als zentrales Instrument, um Risiken großer Online-Plattformen systematisch zu erfassen und gegebenenfalls regulatorisch einzugreifen. Noch sei offen, ob sich dieses Instrument in der Praxis als tragfähige Grundlage für weitreichende Maßnahmen und Sanktionen erweisen werde. Gerade deshalb könne das Verfahren dazu beitragen, die tatsächliche Reichweite und Durchsetzungskraft des neuen Regulierungsansatzes genauer zu bestimmen.

Angriff auf das Geschäftsmodell Aufmerksamkeit

TikTok verdient sein Geld nicht mit Inhalten, sondern mit Aufmerksamkeit. Das Geschäftsmodell der Plattform beruht darauf, die Aufmerksamkeit der Nutzer möglichst lange zu binden und wirtschaftlich zu verwerten. Je länger Nutzer in der App bleiben, desto mehr Werbung kann ausgespielt werden, es fallen mehr Daten an und Algorithmen lassen sich so effizienter optimieren. Funktionen wie endloses Scrollen, Autoplay und personalisierte Empfehlungen sind daher kein Nebeneffekt, sondern wirtschaftliche Grundlage des Dienstes. Greift die EU diese Mechanismen an, trifft sie das Prinzip maximaler Verweildauer selbst.

Damit könnte der Fall ‚Suchtgefahr durch TikTok‘ einen Wendepunkt in der europäischen Plattformregulierung für die Durchsetzung des Digital Services Act einläuten. Erstmals wird die Suchtgefahr durch eine Plattform nicht als individuelles Versagen, sondern als strukturelles Risiko aufgezeigt, für das Anbieter Verantwortung übernehmen sollen. Sollte die EU ihre Linie durchsetzen, dürfte sich nicht nur TikTok verändern, sondern auch das grundlegende Funktionsprinzip sozialer Netzwerke, die bisher auf maximale Verweildauer und Aufmerksamkeit ausgerichtet sind.

Es wird sich zeigen, ob sich abstrakte Risiken wie suchtförderndes Design regulatorisch fassen lassen oder ob der Digital Services Act in der Praxis an seine Grenzen stößt.

Über

Antonia ist bereits seit Januar 2016 Autorin bei der Tarnkappe. Eingestiegen ist sie zunächst mit Buch-Rezensionen. Inzwischen schreibt sie bevorzugt über juristische Themen, wie P2P-Fälle, sie greift aber auch andere Netzthemen, wie Cybercrime, auf. Ihre Interessen beziehen sich hauptsächlich auf Literatur.