Live auf YouTube haben Hunderttausende verfolgt, wie Flammen am Montagabend stundenlang den historischen Dachstuhl von Notre-Dame in Schutt und Asche verwandelten. Etliche Fernsehsender nutzten ihre YouTube-Kanäle, um den Brand zu dokumentieren. Was für Zuschauerinnen und Zuschauer klar als aktuelle Nachrichtenlage erkennbar war, überforderte jedoch den Algorithmus der Videoplattform.
Mehr noch: Automatisch wurden in den USA die Liveberichte als potenzielle Desinformationskampagne eingestuft. Und um Nutzerinnen und Nutzer eben vor vermeintlich falschen Nachrichten zu warnen, wurde ihnen unter den Videos ein Banner
eingespielt, das sie über den Terroranschlag am 11. September 2001 aufklärte
und auf einen Lexikoneintrag der Encyclopaedia Britannica verwies. Die brennenden Zwillingstürme des World Trade
Centers in New York am 11. September 2001 verschmolzen für den Algorithmus mit den Flammen in und hinter den Türmen der historischen Kathedrale in Paris am 15. April 2019.
Auf Twitter wiesen viele Menschen direkt auf die Einblendung hin. Der Buzzfeed-Journalist
Ryan Broderick kommentierte ironisch: “Ich bin so froh, dass
Tech-Unternehmen den Journalismus gefressen haben.” Jetzt könne er sich
einen Livestream über Notre-Dame anschauen und YouTubes Fake-News-Hinweis
erzähle ihm aus irgendwelchen Gründen etwas über den 11. September.
I’m so glad we let tech platforms eat the journalism industry.
Now, I can sit and watch a live stream of Notre Dame burning while YouTube’s fake news widget tells me about 9/11 for some reason. pic.twitter.com/FhAtE4DqtB
— Ryan Broderick (@broderick) 15. April 2019
YouTube entschuldigte sich
in einem Statement und nahm die Banner rund um die Notre-Dame-Berichterstattung zunächst offline.
Vergangenes Jahr habe man die information panels (übersetzt etwa
Informationstafeln) eingeführt, die auf Drittanbieter wie die Encyclopaedia
Britannica oder Wikipedia hinweisen, wenn es um Themen geht, über die oft Fehlerhaftes berichtet
würde. Die Banner würden automatisch erzeugt, manchmal
unterliefen den Systemen dabei aber Fehler. Wie gravierend sie wahrgenommen würden, zeigte der Brand der Notre-Dame nun eindrücklich. Es ist nicht einfach für einen Algorithmus,
zwischen Desinformation und Information zu unterscheiden. Für ein
Bilderkennungssystem sind zwei Türme erst einmal zwei Türme. Die Technologie
ist noch nicht weit genug, um architektonische oder situative Unterschiede zu erkennen.
Desinformation manipuliert kaum, stärkt aber bestehende Ansichten
Seit Jahren versuchen YouTube oder auch Facebook und Twitter, bewusst verbreitete Falschnachrichten aus ihren Netzwerken zu verbannen. Bei aktuellen Nachrichtenlagen wie etwa Terroranschlägen kursieren immer wieder Bilder und Videos, die angeblich
den Tatort oder die Situation zeigen sollen, tatsächlich aber schon älter sind
oder an ganz anderen Orten aufgenommen wurden. Auch zu Notre-Dame und der bislang ungeklärten Ursache des Brandes verbreiten sich längst krude Verschwörungstheorien ohne Substanz.
Zwar machten solche Falschinformationen oder zahlreiche Beispiele erfundener Berichte über US-Präsident Donald Trump und seine Herausforderin Hillary Clinton im Wahlkampf 2016
diversen
Studien zufolge nur einen kleinen Teil eines Newsfeeds aus. Sie werden zwar vielfach geteilt, doch
weisen Wissenschaftlerinnen und Wissenschaftler darauf hin, dass Menschen ihre
Meinungen oder Haltungen nicht aufgrund manipulativer Geschichten sofort ändern. Allerdings stützen falschen Berichte und Videos bestehende Überzeugungen und verstärken sie, ungeachtet ihres Wahrheitsgehalts. Das ist die eigentliche Gefahr. Manche
Expertinnen und Experten führen so etwa den aktuell schweren Masernausbruch in den USA darauf
zurück, dass auf
Portalen wie YouTube die Angst vor dem Impfen geschürt werde und
Videos ungestört empfohlen und weiterverbreitet werden können.
Hits: 5