/Christchurch-Appell: Wer nichts tut, hat schon resigniert

Christchurch-Appell: Wer nichts tut, hat schon resigniert

Als
ein Australier im neuseeländischen Christchurch im März 51 Menschen ermordete,
konnten ihm Millionen Menschen dabei zusehen. Denn der Attentäter streamte
seine Tat live auf Facebook. Erst 29
Minuten nach dem Start
meldete jemand das Video – zu spät: Die Bilder des
Anschlages verbreiteten sich im Netz, tun es bis heute.

Deshalb ist es verständlich, dass sich nun viele eine strengere
Regulierung von Livestreams wünschen, ein stärkeres Eingreifen sozialer
Netzwerke, eine bessere Überwachung des dort gesendeten Materials. Allen voran
die neuseeländische Premierministerin Jacinda Ardern, die den sogenannten Christchurch-Appell initiiert hat:
Gemeinsam mit anderen Staaten und mit den Technologieplattformen will sie
Liveübertragungen von extremistischen Taten in Zukunft verhindern. Der
Aufruf wird von Ländern wie Neuseeland, Frankreich und auch Deutschland
unterstützt. Von Seiten der Techunternehmen machen unter anderem Amazon,
Facebook, Google, Twitter und Microsoft mit.

In dem Appell verpflichten
sich Staaten und Plattformen
, gemeinsam Terrorismus zu bekämpfen und haben sich
dafür jeweils spezifische Ziele gesetzt: Die Regierungen wollen etwa Gesetze durchsetzen,
die auch die Herstellung extremistischer Inhalte unter Strafe stellen, und mit Medienbildung
Terrorismus vorbeugen. Die
Plattformen wiederum wollen grundsätzlich verhindern, dass Menschen
terroristische Streams hochladen, unter anderem mit besserer Technologie. Zusätzlich wollen sie in ihren
Nutzungsbedingungen deutlicher machen, welche Konsequenzen drohen, sollte
jemand trotzdem extremistisches Material teilen, und diese auch durchsetzen. Auch
wollen sie ihre Algorithmen und andere Prozesse daraufhin prüfen, was sie
empfehlen und wie sie Menschen möglicherweise in terroristische Gruppen
hineinziehen.

Facebook hatte in vorauseilendem
Gehorsam bereits angekündigt, schneller reagieren zu wollen. So sollen Nutzerinnen und Nutzer keine Livestreams mehr erstellen dürfen, wenn sie vorher gegen die Regeln des
Netzwerks verstoßen haben. Das Unternehmen will zudem 7,5 Millionen Dollar in Forschung stecken, die manipulierte Videos besser erkennen soll. Nach den Geschehnissen in Christchurch hatte Facebook teils Probleme, neu hochgeladene Kopien des Attentätervideos zu identifizieren.

Die Initiative ist also eigentlich zu begrüßen. Denn natürlich
sollten Unternehmen, sollten Länder, sollten wir als Gesellschaft darüber
nachdenken, wie verhindert werden kann, dass sich extremistische Inhalte immer
weiterverbreiten. Und auch darüber, in welchem Maß soziale Netzwerke zu der Verbreitung beitragen,
sei es auch nur unabsichtlich. 

Ein bisschen Hingucken reicht nicht

Aber
der sehr vage formulierte Christchurch-Appell und die Facebook-Ankündigung, die
sehr viele Einschränkungen enthält, deuten es schon an: Mit ein bisschen mehr
Hingucken ist es eben nicht getan. Was genau soll das denn sein, ein
extremistischer oder terroristischer Inhalt? Reicht es schon, eine Waffe ins
Bild zu halten? Oder ist die Pose entscheidend? Wie soll differenziert werden
zwischen Fiktion und realer Bedrohung? Vor allem: Wer entscheidet darüber und wer
kontrolliert diese Entscheidung? Der von Ardern initiierte Appell scheint diese
Aufgabe wieder einmal den großen Plattformen überlassen: Sie müssen ermessen,
welchen Inhalt oder welche Person sie wann wie blocken oder gar löschen.

Und
das, obwohl die in anderen Bereichen bereits unter Beweis gestellt haben, wie
schlecht sie darin sind. Twitter sperrte in den vergangenen Tagen Konten von Medien, Politikern und Juristen wegen angeblicher “Irreführung” in Bezug auf die Europawahl. Grundlage dafür sind gerade erlassene Regeln, mit denen das Unternehmen die missbräuchliche Beeinflussung der Wahl verhindern will. Unter den Gesperrten waren die Jüdische Allgemeine sowie laut Berichten der Berliner SPD-Abgeordnete Sven Kohlmeier und mehrere Anwälte. Auf Nachfrage sprach Twitter davon, dass “manchmal Fehler” passieren. Auf YouTube tauchten die Inhalte
von Impfgegnerinnen
lange prominent in Suchergebnissen auf. Und auf Facebook
verbreiteten sich Livestreams
von Morden und Vergewaltigungen
. Warum die Plattformen besser darin sein
sollen, terroristische Inhalte frühzeitig zu erkennen und zu verbannen, erschließt
sich nicht.

Zwar
betonen die Unterstützerinnen und Unterstützer des Christchurch-Appells, dass sie
für freie Rede und für ein freies Internet einstehen. Trotzdem besteht die
Gefahr eines Overblockings, dass also viel mehr Inhalte blockiert werden, als in
der engen Definition von Extremismus und Terrorismus aus den sozialen
Netzwerken entfernt werden müssten. Nun mag man es nicht dramatisch finden,
wenn Twitter oder Facebook pauschal Veröffentlichungen von Videos verhindern,
in denen jemand mit einer Waffe posiert. Allerdings hat der Attentäter von
Christchurch seinen Livestream aus dem Auto heraus begonnen, erst später waren
Morde während der Übertragung zu sehen. Müssen die Firmen also Menschen
einstellen, die sich jeden Livestream von vorne bis hinten ansehen? Bisher
reagieren die Mitarbeiter erst auf Hinweise von anderen Nutzerinnen.

Hits: 0