Die Normalisierung des Hasses

Kinder und Jugendliche werden in Social Media-Angeboten häufig mit Hate Speech konfrontiert. Zunehmend tauchen im Zuge dessen auch antisemitische Inhalte auf, die auf YouTube und Co. scheinbar zur Normalität gehören.

Hasskommentare, Verschwörungstheorien und Aufrufe zu Gewalt gegen Jud*innen –Antisemtismus ist in Social Media-Angeboten massiv verbreitet, wie der Report „Antisemitismus Online 2.0“ von jugendschutz.net offenlegt. So wurden im Rahmen der Recherche zahlreiche antisemitische Inhalte auf Social Media-Plattformen gefunden, in 187 Fällen hat jugenschutz.net Maßnahmen, wie beispielsweise das Melden an die Provider*innen, eingeleitet.

Hetze in Kommentarspalten

Antisemitismus wird in Social Media-Angeboten nicht nur durch Extremist*innen verbreitet, sondern taucht zunehmend auch in szenefremden Kontexten auf. „In der Recherche wurde kaum ein Diskussionsbereich ohne hohes Konfrontationsrisiko mit antisemitischen Inhalten gefunden“, berichten die Autor*innen des Reports. So wurden auch bei gesellschaftlichen Debatten zum Thema Klimawandel unter den ersten Suchergebnissen antisemitische Beiträge oder Kommentare entdeckt. Durch die immer offenere und massiv verbreitete Hetze auf Plattformen wie Instagram und YouTube spricht jugendschutz.net von einer „Normalisierung des Hasses“ , das heißt antisemitische Hassreden erscheinen online oft als sagbar und von den Verfasser*innen werden keine negativen Konsequenzen befürchtet.

Besonders häufig kommt es in Kommentarspalten von nachrichtlichen Meldungen zur Hetze gegen Jüd*innen. Hier werden unter anderem Relativierungen und/oder Leugnungen des Holocausts sowie volksverhetzende Kommentare oder Gewaltaufrufe gepostet. Außerdem werden Verschwörungstheorien verbreitet, die  Jüd*innen als Ursache für globale Missstände darstellen. Zu letzteren finden sich gerade auf YouTube zahlreiche eigene Video-Beiträge.

» Hate Speech
Hasserfüllte Online-Inhalte, wie entwürdigende Kommentare, Verschwörungstheorien oder gar Aufrufe zur Gewalt gegen bestimmte Personengruppen, werden als Hate Speech bezeichnet. Auf deutsch bedeutet das so viel wie Hassrede. User*innen, die Hate Speech betreiben, werden Hater*innen genannt. Sie wollen gezielt gegen bestimmte Personen Stimmung machen und ein feindseliges Klima schaffen. Meist sind Menschen von Hate Speech betroffen, die auch im realen Leben, beispielsweise aufgrund ihrer Religion, Herkunft oder Sexualität, häufig Diskriminierung erfahren.

Hohe Präsenz von Hater*innen bei Social Media-Angeboten

Obwohl Hate Speech reale Diskriminierungsmuster widerspiegelt, scheint die Feindseligkeit im Netz noch viel präsenter und extremer zu sein. Das liegt zum einen daran, dass hetzerische Kommentare und Beiträge anonym erstellt werden und die Verfasser*innen sich leicht hinter falschen Profilen verstecken können. Eine direkte, persönliche Konfrontation findet nicht statt. Auch rechtliche Konsequenzen werden meist nicht gefürchtet. Darüber hinaus ist es für hetzende Minderheiten online einfacher, als in der realen Welt, sich als große Gruppe zu inszenieren. Hierfür werden zum Beispiel Trolle eingesetzt – das sind User*innen, die eigens dafür engagiert werden, gezielt Hate Speech zu betreiben. Ein weiterer Faktor sind die Vorschlagsalgorithmen der Social Media-Betreiber*innen. Schaut man sich einen Beitrag mit hasserfüllten Inhalten an, erscheinen ähnliche Posts als Vorschläge, die dann ebenfalls oft Stimmungsmache gegen die jeweilige Personengruppe enthalten. Andere Meinungen tauchen nicht auf, stattdessen kann das Gefühl aufkommen, im Recht und in der Mehrheit zu sein. Das wird als Echokammer oder Filterblase bezeichnet. Dieser Effekt kann dazu führen, dass Menschen sich in ihren diskriminierenden Ansichten weiter bestätigt fühlen und sich zunehmend von Hassinhalten beeinflussen lassen.

Was Provider*innen, User*innen und pädagogische Fachkräfte tun können

Was kann man gegen Hate Speech tun? Jugendschutz.net sieht vor allem die Plattform-Betreiber*innen in der Pflicht, entschiedener und effektiver gegen Hate Speech vorzugehen. Sie sollen unter anderem ihre Vorschlagsalgorithmen anpassen und aufklärerische Inhalte oder Widerspruch anstelle von weiteren feindseligen Beiträgen anzeigen. Zudem sei gerade bei reichweitenstarken Angeboten eine konsequente Moderation erforderlich.

Aber auch einzelne User*innen können etwas gegen Hate Speech unternehmen. Stößt man im Netz auf solche Inhalte, sollten die entsprechenden Beiträge an die Plattform-Betreiber*innen gemeldet werden, damit sie gelöscht werden. Unter Umständen kann auch eine Strafanzeige sinnvoll sein, denn hassschürende Inhalte können rechtliche Konsequenzen, beispielsweise wegen Volksverhetzung, übler Nachrede oder öffentlicher Aufforderung zu Straftaten, nach sich ziehen. Eine weitere Möglichkeit ist die Counter Speech, also Gegenrede. Damit ist gemeint, Hater*innen, zum Beispiel mit Kommentaren oder Memes, zu widersprechen und so zu einer offenen und toleranten Netzkultur beizutragen. Kindern und Jugendlichen sollte jedoch bewusst sein, dass sie sich so mitunter selbst zum Ziel von Hassreden machen.

Pädagogische Fachkräfte können mit Kindern und Jugendlichen über Handlungsoptionen sprechen und sie für Antisemitismus sowie Hate Speech im Allgemein sensibilisieren. Dazu gehört, Verschwörungstheorien und gezielt hassschürende Inhalte sowie typische Argumentationsmuster erkennen und einordnen zu können. Hierbei kann die Broschüre „Hate Speech – Hass im Netz – Informationen für Fachkräfte und Eltern“ der Landesanstalt für Medien NRW und der Arbeitsgemeinschaft Kinder- und Jugendschutz NRW (AJS) helfen, die solche Muster offenlegt. Zur Vertiefung des Themas können gemeinsam Counter Speech Memes erstellt werden und/oder die Themen Multikulturalität und Toleranz aufgearbeitet werden. Möglich ist auch die Organisation von medienpädagogischen Workshops, die sich gezielt mit Problemen, wie Hate Speech und Extremismus im Netz, beschäftigen und nach Lösungsstrategien suchen. Ein Beispiel hierfür ist das Projekt kampagnenstark vom JFF – Institut für Medienpädagogik.

Lilly Werny