Strategien gegen Hass und Hetze im Netz
Hass und Desinformation sind in den sozialen Medien weit verbreitet. Beleidigende Kommentare, Hetze gegen bestimmte Gruppen und gezielt verbreitete Falschinformationen können das gesellschaftliche Klima vergiften und das Vertrauen in Medien und Demokratie schwächen. Durch schnelle Verbreitung, Algorithmen und anonyme Profile erreichen solche Inhalte oft große Reichweiten. Expert:innen fordern deshalb schon seit langem mehr Medienkompetenz, klare Regeln für Plattformen und ein konsequenteres Vorgehen gegen Hassrede und Falschinformationen.
Doch Nutzerinnen und Nutzer sind dem nicht schutzlos ausgeliefert. Die Stiftung Warentest erklärt, welche Rechte und Handlungsmöglichkeiten sie haben.
Die gute Nachricht ist: Wer in sozialen Netzwerken wie Tiktok oder X von Gewaltaufrufen oder entwürdigenden Deepfakes betroffen ist, kann sich wehren. „Die entscheidende Frage ist, ob eine Äußerung die Grenzen der zulässigen Meinungsäußerung überschreitet und strafrechtlich relevant ist“, sagt Eugénie Zobel-Varga, Expertin von Stiftung Warentest. „Beratungsstellen wie HateAid unterstützen Betroffene bei der Einschätzung und bei möglichen Schritten, etwa ob Hasskommentare angezeigt oder nach Plattform-Regeln gemeldet werden können.“
Noch Meinung oder schon strafbar?
Strafbar können Posts oder Kommentare sein, die zu Gewalt aufrufen, Menschen massiv bedrohen oder ihre Würde verletzen. Dazu gehören etwa Morddrohungen, schwere Beleidigungen oder volksverhetzende Äußerungen, beispielsweise wenn Menschen aufgrund ihrer Herkunft, Religion oder sexuellen Orientierung pauschal diffamiert werden. „Wenn unklar ist, ob ein Post noch von der Meinungsfreiheit gedeckt ist, können Meldestellen dabei helfen, mögliche Rechtsverstöße zu prüfen und an die zuständigen Plattformen weiterzuleiten“, sagt Zobel-Varga. Auch bei der Polizei direkt können Betroffene Strafanzeige stellen – entweder auf der Polizeiwache oder über das bundesweite Portal der Onlinewache.
Diese Gesetze schützen User
Verschiedene Gesetze schützen User. Dazu zählt der Digital Services Act (kurz DSA; auch Gesetz über digitale Dienste), der seit Februar 2024 einen europaweit einheitlichen Rechtsrahmen für Anbieter digitaler Dienste wie Online-Plattformen und Suchmaschinen setzt. Seit Mai 2024 gilt zudem ergänzend das deutsche Digitale-Dienste-Gesetz (DDG), das die EU-Vorgaben konkretisiert und ihre nationale Durchsetzung regelt.
Trusted Flagger als vertrauenswürdige Hinweisgeber
Bei der Umsetzung der Gesetze spielen vertrauenswürdige Hinweisgeber, sogenannte Trusted Flagger, eine wichtige Rolle. Sie suchen aktiv nach illegalen Inhalten und melden diese. In Deutschland gibt es vier zugelassene Organisationen: die Meldeplattform „Respect! im Netz“ der Jugendstiftung Baden-Württemberg, der Verbraucherzentrale Bundesverband, der Bundesverband Onlinehandel e.V. und HateAid.
An der Arbeit der Trusted Flagger gibt es immer wieder Kritik. Der Vorwurf: Durch übermäßiges Löschen von Inhalten würde die Meinungsfreiheit eingeschränkt werden. Dabei ist wichtig: „Trusted Flagger können Inhalte nicht selbst löschen, sie melden diese direkt an die jeweilige Plattform, die dann prüfen und gegebenenfalls löschen muss. Bei strafrechtlich relevanten Inhalten können zusätzlich Strafverfolgungsbehörden informiert werden“, sagt Zobel-Varga.
Anzeige – Wie Betroffene Beiträge direkt bei den Plattformen melden können und welche Fakten-Prüfer-Seiten helfen, seriöse Quellen von Falschinformationen zu unterscheiden, steht in der Februar-Ausgabe der Zeitschrift Stiftung Warentest Finanzen und online unter www.test.de/hasskommentare.
Quelle: Stiftung Warentest





