11,4 Millionen Videos

Was Youtube so alles wegfiltert

Von Michael Hanfeld
09.09.2020
, 06:19
Wer im Netz bewegte Bilder senden will, ist bei der Videoplattform, die zu Google gehört, richtig. Doch nicht alles erscheint. Es wird gesiebt und gelöscht, millionenfach, ganz automatisch.

Wer schon einmal versucht hat, bei Youtube etwas löschen zu lassen, weiß, wie schwierig sich das gestalten kann. Man muss ein Google-Konto anlegen, um seine Einwendung bei der Tochtergesellschaft des Digitalkonzerns vortragen zu können. Und dann muss man dem Team, das Videos oder Kommentare löscht, erklären, warum man dies fordert. Wegen Gewaltverherrlichung, Aufstachelung zum Hass, Rassismus und Antisemitismus zum Beispiel. Wenn dem Lösch-Team die Meldung nicht einleuchtet, bleibt der Inhalt, also das Video oder ein Kommentar zu demselben. Doch – es geht auch anders, und zwar automatisiert und in ganz großem Stil.

11.401.696 Videos hat Youtube im vergangenen Quartal, im Zeitraum zwischen April und Juni, gelöscht, wie aus dem vor ein paar Tagen veröffentlichten Transparenzbericht des Konzerns hervorgeht. Die überwiegende Zahl der Löschungen vollzog sich durch „automatische Erkennung“, also durch Algorithmen oder, besser gesagt: durch Uploadfilter. Erst danach erfolgt die Prüfung durch Mitarbeiter. Die Uplaodfilter fischen sogar oft Videos aus dem Angebot von Youtube, bevor sie ein einziger Nutzer zu Gesicht bekommen hat. 10.849.634 Videos wurden automatisch entfernt, 42 Prozent davon, bevor sie ein Nutzer gesehen hatte, 33,7 Prozent, die bis zu zehn Nutzer aufrufen konnten, und 24,3 Prozent, die mehr als zehn Nutzer aufgerufen hatten.

Die manuelle Löschung nimmt sich dagegen verschwindend gering aus. Während rund 10,8 Millionen von 11,4 Millionen Videos vom automatischen Filtersystem erfasst wurden, beläuft sich die Zahl der Löschungen nach „manuellen Meldungen“ von Nutzern auf 382.499, die Zahl der Meldungen von sogenannten „Trusted Flaggern“ auf 167.318. Als „Trusted Flagger“ führt Youtube „Einzelpersonen, Nichtregierungsorganisationen und Behörden“, die den Konzern „besonders effektiv über Inhalte informieren, die gegen unsere Community-Richtlinien verstoßen“, wie es im Transparenzbericht heißt. Ganze 2200 Meldungen, die zu Löschungen führten, kamen der Youtube-Statistik zufolge von Nichtregierungsorganisationen, von Behörden waren es gerade einmal fünfundzwanzig. Insgesamt jedoch melden Nutzer und „Trusted Flagger“ fleißig – im vergangenen Quartal rund 15,5 Millionen Mal (Mehrfachmeldungen inbegriffen), nur führen diese Meldungen nicht zwingend zu einer Löschung.

2,1 gelöschte Kommentare in einem Quartal

Was wird gelöscht? Zum größten Teil Inhalte, die gegen den Schutz von Kindern verstoßen – rund 3,8 Millionen Videos, das macht einen Anteil von 33,7 Prozent der Gesamtlöschmenge aus. Es folgen Löschungen, die unter „Spam, betrügerische oder irreführende Inhalte“ fallen (3,2 Millionen, 28,3 Prozent), „Nacktheit oder sexuelle Inhalte“ (1,6 Millionen, 14,6 Prozent), „gewaltsamer oder grausamer Inhalt“ (1,2 Millionen, 10,6 Prozent), „gewaltverherrlichende Inhalte oder gewalttätiger Extremismus“ (knapp 922.000, 8,1 Prozent), „Belästigung und Cybermobbing“ machen nur 0,9 Prozent der Löschungen aus (rund 108.000) und „hasserfüllter oder beleidigender Inhalt“ nur 0,7 Prozent (rund 80.000 Löschungen).

Die meisten der von Youtube gelöschten Uploads stammen aus den Vereinigten Staaten (rund zwei Millionen), es folgen Indien (rund 1,4 Millionen), Brasilien (rund 980.000), Indonesien (rund 680.000) und Russland (rund 400.000). Deutschland liegt mit knapp 125.000 Löschungen auf Platz 21 der Quartalsliste.

Youtube löscht nicht nur einzelne Videos, sondern legt ganze Kanäle lahm. Im vergangenen Quartal waren dies fast zwei Millionen Kanäle (1.998.635) mit einer Gesamtzahl von etwas mehr als 33 Millionen Videos (33.128.011). Entfernt oder „gekündigt“, wie es bei Youtube heißt, wird ein Kanal, wenn er dreimal innerhalb von neunzig Tagen wegen eines Verstoßes gegen die Community-Richtlinien verwarnt wurde, bei „einmaligem schweren Missbrauch, zum Beispiel bei sexuell missbräuchlichem Verhalten, oder (...) wenn wir feststellen, dass er einzig dem Zweck dient, gegen unsere Richtlinien zu verstoßen“. In den Richtlinien sind Verbote festgehalten, die sich an rechtlichen, zumeist strafrechtlichen Normierungen orientieren. Verboten sind etwa Inhalte, die gegen den Kinder- und Jugendschutz verstoßen, Gewaltverherrlichung, Fälschungen, Inhalte mit Schusswaffen und der Verkauf illegaler Waren.

Ist die Zahl der gelöschten Videos schon beeindruckend, so ist es die Zahl der gelöschten Kommentare (unter den Videos) noch mehr. Sie beläuft sich für den Zeitraum von April bis Juni dieses Jahres auf rund 2,1 Milliarden (2.132.367.731). Auch diese sind zumeist automatisch weggefiltert worden – zu 99,2 Prozent, manuelle Meldungen gaben nur im Fall von 0,8 Prozent der Löschungen (rund siebzehn Millionen) den Ausschlag. Bei den gelöschten Kommentaren ging es zumeist um „Spam, irreführende oder betrügerische Inhalte“ (52,8 Prozent, 1,125 Milliarden), „Belästigung und Cybermobbing“ (30,8 Prozent, knapp 658 Millionen), „Schutz von Kindern“ (9,2 Prozent, knapp 197 Millionen) und „hasserfüllten oder beleidigenden Inhalt“ (7,1 Prozent, 151,5 Millionen).

Rund 2,1 Milliarden gelöschten Kommentaren und etwa 11,4 Millionen gelöschten Videos stehen 325.439 Beschwerden über die Löschungen gegenüber. 160.621 Videos wurden nach einer Beschwerde über die Entfernung wieder reaktiviert.

Quelle: F.A.Z.
Michael Hanfeld  - Portraitaufnahme für das Blaue Buch "Die Redaktion stellt sich vor" der Frankfurter Allgemeinen Zeitung
Michael Hanfeld
verantwortlicher Redakteur für Feuilleton Online und „Medien“.
  Zur Startseite
Verlagsangebot
Verlagsangebot