Neues EU-Gesetz zur Internetregulierung: Der Digital Services Act

25. Mai 2022

Die EU möchte Plattformen stärker kontrollieren und hat sich auf ein Gesetz für digitale Dienste geeinigt. Welche Regularien bisher vorgesehen sind, erfahren Sie hier.

Quelle: Pixabay

„Social Media-Plattformen setzen auf Angst und Wut. Warum tun sie das? Weil die Menschen dann länger im Internet bleiben und man kann ihnen mehr Werbung zeigen und Werbung ist das Geschäftsmodell des Internets. Die Plattformen verdienen also mehr Geld mit Inhalten, die uns polarisieren, die uns aufhetzen“, konstatiert Grünen-Politikerin Alexandra Geese. Immer wieder stehen Plattformen wegen polarisierenden Inhalten und Hassrede, Datenmissbrauch oder der Verbreitung illegaler Inhalte in der Kritik – in die Verantwortung wurden sie dabei bisher selten genommen. Ende 2020 brachte die EU-Kommission daher den Vorschlag eines Digital-Paktes ins Spiel, mit dem Ziel, regulatorische Verpflichtungen zu schaffen und europäische, demokratische Werte auch im Internet zu gewährleisten. Im März und April dieses Jahres einigte sich die EU-Kommission nach langen Verhandlungen auf zwei Gesetze, den Digital Markets Act (DMA) und den Digital Services Act (DSA). Ersterer soll dabei vor allem die Marktmacht großer Plattformen in den Blick nehmen und unter anderem auch kleineren digitalen Unternehmen faire Wettbewerbschancen ermöglichen. Der DSA hingegen legt digitalen Diensten vor allem auf inhaltlicher Ebene Pflichten und Rechte auf.

Zentral für das neue Gesetz für digitale Dienste ist das Prinzip: „Was offline illegal ist, soll es auch online sein.“ Ursula von der Leyen, Präsidentin der Europäischen Kommission, bezeichnet die Einigung auf das Gesetz am 23. April 2022 als „historisch“, andere sprechen von einem „Grundgesetz des Internets“. Die EU selbst kommuniziert die neuen Regularien mit dem Slogan: „Schluss mit dem digitalen wilden Westen, ein neuer Sheriff ist in der Stadt“. Die Hoffnung, das Internet durch das Gesetz zu einem sichereren Ort zu machen, ist also groß – welche Änderungen und Kontrollmechanismen der DSA konkret vorsieht, erfahren Sie hier in einem kurzen Überblick.

Unterschiedliche Regelungen für digitale Dienste
Betroffen vom neuen Internetregulierungsgesetz sind alle Unternehmen und Plattformen, die digitale Dienste in der EU anbieten. Es gilt also auch für Anbieter*innen, die zwar außerhalb der EU niedergelassen sind, ihre Dienste aber in der EU zur Verfügung stellen. Um faire Wettbewerbsbedingungen zu gewährleisten und digitale Innovation trotz der Regularien zu fördern, werden die Anbieter*innen digitaler Dienste im DSA differenziert reguliert. Ausschlaggebend für die Differenzierung ist unter anderem die Frage, wie die Anbieter*innen mit den Daten umgehen, die sie von ihren User*innen erhalten. Jeder Online-Dienst ist dabei ein „Vermittlungsdienst“, der Daten sammelt. Werden die Daten gespeichert, handelt es sich um einen „Hosting-Anbieter“. Werden die Daten zusätzlich ausgewertet, interpretiert und beispielsweise anhand dieser entschieden, welche Inhalte welcher Person angezeigt werden, gelten die Dienste im DSA als „Plattformen“. Dazu gehören beispielsweise auch Social-Media-Angebote. Außerdem werden die digitalen Dienste nach Nutzer*innenanzahl unterteilt. Die meisten Pflichten müssen demnach „sehr große Plattformen“, umsetzen, die „mehr als 10 Prozent der europäischen Bevölkerung erreichen“. Welche Plattformen in diese Kategorie fallen, wurde noch nicht bestimmt. Wahrscheinlich betroffen sind aber beispielsweise Anbieter*innen wie Google oder Meta (Facebook, Instagram, WhatsApp).

Verschwinden illegaler Inhalte innerhalb von 24 Stunden
Ein zentrales Versprechen des DSA ist ein erhöhter Schutz der Bürger*innen und eine Erweiterung der Rechte in Bezug auf illegale Inhalte. Plattformen stehen damit zukünftig in der Pflicht, illegale Inhalte innerhalb von 24 Stunden aus dem Netzwerk zu entfernen, wenn sie dazu von einem EU-Mitgliedstaat aufgefordert werden. Auch auf durch Nutzer*innen gemeldete illegale Inhalte müssen Plattformen in Zukunft reagieren und zugleich ermöglichen, dass diese Meldung für User*innen ihrer Plattform möglichst einfach gestaltet wird. Nutzer*innen sollen aber auch die Möglichkeit erhalten, auf in ihren Augen fälschlich gelöschte Inhalte Stellung beziehen und die Rücknahme der Löschung fordern zu können.

Beispiele für solche illegalen Inhalte können Volksverhetzung, Terrorpropaganda oder auch Beleidigungen sein, die strafrechtlich verfolgt werden können. Wie heise.de in diesem Zusammenhang anmerkt, fallen darunter allerdings keine „hassgetränkten Meinungsäußerungen, solange sie sich im erlaubten Bereich bewegen“ und warnt in diesem Zusammenhang davor, den DSA fälschlicherweise als „EU-Gesetz gegen Hass und Hetze“ zu bezeichnen. Auch die Organisation HateAid, die (juristische) Beratung zu Hass im Netz gibt, zweifelt zum aktuellen Zeitpunkt an dem Potenzial des DSA, Hass und Hetze im Internet zu verringern. Auf Nachfrage der Zeit Online weist die Organisation darauf hin, dass erst durch Gerichte bestimmt werden müsse, welche Inhalte überhaupt illegal sind – dieser Prozess benötige jedoch viel Zeit und so biete der DSA vorerst keine Lösung dieses Problems.

Transparenz bei Plattformmechanismen
Allerdings beinhaltet der DSA ein weiteres Instrument, um Gefahren auf den großen Plattformen entgegenzuwirken: In Zukunft müssen Plattformen einmal im Jahr ihr eigenes Risiko auf die Öffentlichkeit und Demokratie analysieren, dies durch externe Wissenschaftler*innen prüfen lassen und offenlegen. Miteinbezogen werden dabei auch Aspekte wie das Plattformdesign und der Einfluss durch Algorithmen. Im nächsten Schritt müssen die Anbieter*innen dann daran arbeiten, die Plattformmechanismen, die zu den jeweiligen Gefahren führen, zu entfernen. Die EU behält sich außerdem vor, in Krisensituationen eine solche Analyse außerplanmäßig, zusätzlich zur jährlich anfälligen Risikoanalyse anzuordnen. Auch generell soll der Zugriff von Forschenden und der EU auf Algorithmen und Strukturen der jeweiligen Plattformen erleichtert werden. Offen bleibt jedoch noch, wer diesen Zugriff erhalten soll.

Neben Transparenz sollen künftig auch Werte wie Autonomie für Nutzer*innen gewährleistet werden: Durch Designtricks, wie beispielsweise die sogenannten „Dark Patterns“ (dunkle Muster), werden User*innen derzeit bereits in eine Entscheidungsrichtung gedrängt. Ein Beispiel hierfür sind Cookie-Banner, bei denen der Zustimmungsbutton z. B. viel größer als der Ablehnungsbutton gestaltet ist. Dadurch klicken Nutzer*innen eher auf „Zustimmen“. Auch diese sollen zukünftig verboten sein, um User*innen einen selbstbestimmten Umgang im Internet zu ermöglichen.

Was ist ein „Dark Pattern"?

Mit dem Begriff „Dark Pattern“ bezeichnet man ein Benutzerschnittstellen-Design, das User*innen gezielt zu einer Entscheidung oder Handlung bewegt, die dem Interesse der Nutzer*innen widersprechen. Beispiele dafür können neben Cookie-Bannern auch Kündigungen auf Online-Angeboten sein, die durch das Design absichtlich schwierig und kompliziert gestaltet sind.

Verarbeitung personenbezogener Daten Minderjähriger verboten
Einschränkungen gibt es auch bei der personalisierten Werbung: Die Verarbeitung personenbezogener Daten Minderjähriger zu Werbezwecken soll Plattformen in der EU zukünftig gänzlich untersagt sein. Bei Erwachsenen ist dies weiterhin erlaubt. Eine Ausnahme soll es jedoch geben: Personalisierte Werbung darf demnach nicht auf Daten zugreifen, die die Gesundheit betreffen oder auf „sexuelle Orientierung, die politische Meinung oder die religiöse Überzeugung schließen lassen“. Fraglich ist dabei allerdings, wie Plattformen zukünftig feststellen, welches Alter ihre User*innen haben – sowohl heise.de als auch Zeit Online kritisieren in diesem Zusammenhang, dass der DSA hierfür keine Angaben macht und damit die Umsetzbarkeit des Internetregulierungsgesetzes in Frage steht.

Das neu geschaffene Gremium „Digital Services Board“ kontrolliert in Zukunft die Umsetzung des Gesetzes. Zudem soll es „Digital Services Coordinators“ in jedem EU-Staat geben, die die Umsetzung der Regeln beobachten. In Kraft treten soll das Gesetz spätestens ab dem 1. Januar 2024. Die noch bevorstehende Verabschiedung des Gesetzes durch die EU-Gesetzgeber*innen gilt als Formsache. Anschließend wird mit der Bestimmung der Online-Angebote mit vielen Nutzer*innen als „Plattformen“, „Online-Dienste“ etc. begonnen. Für die nutzungsstärksten Plattformen soll das Gesetz dabei schon vier Monate nach der Bestimmung greifen.

Kritik an der Barrierefreiheit
Kritik am DSA besteht bisher vor allem aufgrund der teils mangelnden Angaben zur Umsetzung. Mitunter bezieht sie sich auch auf eine mögliche Ermächtigung der EU: Bürgerrechtsorganisationen zeigen sich besorgt über das im DSA verankerte Recht der Europäischen Kommission, Krisensituationen auszurufen, in denen sie Analysen von Plattformen fordern können. Die entsprechenden Organisationen sehen hier mögliche Beschränkungen der Informationsfreiheit. Der Deutsche Blinden- und Sehbehindertenverband (DBSV) fordert darüber hinaus eine Nachbesserung des Gesetzesentwurfs in Bezug auf Barrierefreiheit, da die Anliegen sehbehinderter Menschen bisher noch nicht im Gesetz beachtet wurden und diese damit weiterhin vor denselben Herausforderungen stehen würden. Sehbehinderte Menschen haben dabei derzeit aufgrund der mangelnden Barrierefreiheit beispielsweise keinen Zugriff auf relevante Gesundheitsinformationen – die Behebung dieser Barrieren sollte im DSA laut DBSV verankert sein. Von EU-Seite gibt es dazu bisher noch keine Stellungnahme.

Fazit
Insgesamt gilt der DSA als wichtiger erster Schritt, um die Wirkmacht der Tech-Riesen ein Stück weit kontrollieren zu können. Als Ergänzung zur bereits bestehenden Datenschutz-Grundverordnung (DSGVO), könnte er User*innen mehr Selbstbestimmung und Teilhabe an den Netzwerken bei erhöhtem Schutz ermöglichen. Gleichzeitig zeigt sich im komplexen und umfassenden Gesetzesentwurf aber auch, wie wichtig es ist, sich mit den Plattformmechanismen selbst auszukennen, um beispielsweise Inhalte melden und die eigenen Rechte auch im Internet vertreten zu können. Gerade Kinder und Jugendliche sollten dabei früh an die Themen Datenkapitalismus, Algorithmen, Filterblasen und Hate Speech herangeführt werden, um sich zukünftig selbstbestimmter im digitalen Raum bewegen zu können.

Marie Kätzlmeier