"Trusted Flagger": Porno-Plattformen ignorieren HateAid-Hinweise

latest news headlines 2 wochen vor
Flipboard
Sie können nicht löschen, aber sie haben den kurzen Draht zu den Löschteams bei den Plattformen X, Facebook und Co.: Trusted Flagger sollen helfen, illegale Inhalte schneller zu tilgen. HateAid gibt Einblicke, wie das läuft – oder auch nicht. Beim Kampf gegen illegale Inhalte im Netz verweigern Pornoplattformen häufig ihre Mitwirkung. Das geht aus dem ersten Jahresbericht von HateAid als Trusted Flagger hervor. Trusted Flagger (zu Deutsch: vertrauenswürdige Hinweisgeber) nennt die EU-Kommission Organisationen, die einen besonderen Zugang zu Netzwerken erhalten haben. Auf diesem Weg sollen rechtswidrige Inhalte schneller von den Seiten entfernt werden. Im Juni 2025 wurde HateAid von der Bundesnetzagentur zertifiziert, Druck machen zu können. Weil Trusted Flagger besondere Expertise haben, müssen Facebook, YouTube und Co. deren Hinweise priorisiert bearbeiten. Jetzt hat HateAid den ersten Jahresbericht vorgelegt und geht in Details. Die Organisation legt offen, wie viele Meldungen sie aus welchen Gründen in den sieben Monaten eingereicht hat, wie die jeweiligen Netzwerke reagierten und was besonders oft gelöscht wurde. HateAid berät bereits seit 2020 Menschen, die Ziel von digitaler Gewalt sind – mit dem neuen Trusted-Flagger-Status ist Hilfe oft schneller möglich. 85 Prozent der Meldungen betrafen Menschen, die für sich Hilfe bei HateAid gesucht hatten. Die US-Regierung sieht dagegen in der HateAid-Spitze Handlanger für vorgebliche EU-Zensur und hat sie sanktioniert. HateAid-Chefin im Interview : "Ist es jetzt links, wenn Musk Gesetze beachten soll?" Neue Trusted Flagger : Nach Netzwerken bekommen auch Amazon und Ebay Druck Aus den Daten von HateAid zu den Meldungen fasst t-online sieben Erkenntnisse zusammen: 1. Zwei von drei Meldungen wurden umgesetzt: Von Juni bis Jahresende gab die Berliner Organisation insgesamt 420 Inhalte weiter, die ihre Juristen als rechtswidrig einstuften. Die Meldungen von HateAid gehen nur an die Netzwerke, nicht automatisch auch an deutsche Ermittlungsbehörden. Das bleibt den Betroffenen überlassen. Wenn die Meldungen überhaupt bearbeitet wurden – bei 297 Inhalten – dann führten sie in 91 Prozent zur Entfernung. Das betraf 271 Inhalte – überwiegend bei den bekannten Social-Media-Riesen. 2. Pornoplattformen sind wenig kooperativ: Meldungen gingen aber auch an 59 Pornoplattformen – und wenn Seiten "fap", "nudo", "porn" oder Ähnliches in der Adresse hatten, kam oft gar keine Reaktion. Die bekanntesten Seiten waren dabei nicht betroffen. Die angeschriebenen Anbieter hätten bis zu sieben Videos oder Fotos von Betroffenen entfernen oder zumindest prüfen sollen – und meldeten sich in 86 der 103 Fälle gar nicht zurück und entfernten sie auch nicht. Trusted Flagger sind dann machtlos – sie können es nur dokumentieren und weitergeben. Ohne Ansprechpartner in der EU bei einer Pornoseite könnten dann in jedem Land Aufsichtsbehörden Ermittlungen prüfen. 3. Bilder sind oft Thema, aber werden selten gelöscht : Bei den Meldungen von HateAid ging es in etwa jedem fünften Fall um Verstöße gegen das Recht am eigenen Bild und ähnlich oft um Verletzungen der Privatsphäre durch Bildaufnahmen, meist aus Rache veröffentlichte Nacktaufnahmen von Ex-Partnern. Hinweise auf rechtswidrige Bilder und Videos, die entfernt werden sollen, machten 40 Prozent aller Meldungen aus. Weil die Pornoplattformen aber nicht mitspielen, sind insgesamt die Erfolgsaussichten geringer. 4. Am häufigsten ging es um Beleidigungen: Etwa die Hälfte aller Meldungen betraf Beleidigungen. HateAid meldet dabei nach dem einfachen Beleidigungsparagrafen und nutzt nicht den Paragrafen 188 der Beleidigung oder Verleumdung von Politikern. Dokumentierte, anonymisierte Beispiele zeigen überwiegend Angriffe weit unter der Gürtellinie. 5. Facebook ist besonders kooperativ: An Facebook meldete HateAid 182 Inhalte als illegal – 172 wurden entfernt, das sind 95 Prozent. X lehnte am häufigsten Entfernen oder Sperren ab – bei 48 der 62 als illegal gemeldeten Inhalte kam Elon Musks Netzwerk dem Hinweis nach. Die übrigen 23 Prozent, also fast jede vierte Meldung, wies X zurück. X antwortete am schnellsten, vier von fünf Meldungen wurden innerhalb einer Stunde beantwortet. Auch Facebook war schnell. 6. Rechtswidriges ist auch meist gegen Plattformregeln : HateAid meldete nur Inhalte, die gegen deutsches Recht verstoßen. Netzwerke könnten sich oft beschränken, sie in Deutschland nicht zu zeigen: Sie entscheiden selbst über die Grundlage. Von 271 entfernten Inhalten wurden lediglich 51 Inhalte nur in Deutschland gesperrt – bei dreiviertel entschieden die Netzwerke auch auf einen Verstoß ihrer Community-Richtlinien und entfernten weltweit. Bei Facebook waren das sogar 169 der 172 gemeldeten Inhalte. 7. Wenig Platz für Begründung: Die großen Netzwerke haben Formulare für die Hinweise der Trusted Flagger eingerichtet und machen dabei unterschiedliche Vorgaben, wie gemeldet wird. Bei TikTok gibt es eine Obergrenze von 200 Zeichen für die Rechtsgrundlage und 400 Zeichen für die Begründung der Rechtswidrigkeit. Bei X soll beides zusammen in maximal 1.000 Zeichen erklärt werden. Bei YouTube müssen Trusted Flagger die Begründung sehr knapp fassen: Nach 1.000 Zeichen zur Angabe des Gesetzes, gegen das der Inhalt verstößt, sind maximal 200 Zeichen vorgesehen für die Erklärung, wieso der Inhalt illegal ist.
Aus der Quelle lesen