Was wäre das Internet ohne visuelles Material? Es würde wirken wie in seinen Anfangstagen, als die Leitungen noch zu langsam waren für die Massen an Bildern und Videos, die wir heute weltweit konsumieren. Auch aus der aktuellen politischen Öffentlichkeit sind visuelle Elemente und soziale Netzwerke nicht wegzudenken. Wenn Politik heute Thema ist, gehören Memes, Sharepics und Zitatkacheln von Parteien, Politiker_innen, Medien und zivilgesellschaftlichen Organisationen zum Standard. Bilder und Videos sind die zentralen Elemente des digitalen Wahlkampfs, in den USA, Brasilien, Ghana, weltweit. Sie sind ein einfaches Mittel, um Botschaften an ihr Publikum zu bringen und mitunter wirken sie auch ohne begleitenden Text. Dass eine grosse Menge Fakes im Internet mittels Bilder und Videos verbreitet wird, kann deshalb kaum verwundern.

DAS IST DOCH ALLES NICHTS NEUES!

Der Hinweis auf den geschichtlichen Kontext von Fakes und moderner Propaganda ist wichtig. Schliesslich spielen verzerrte Fakten, Verschwörungserzählungen und Lügen aus historischer Sicht eine wichtige Rolle. Auch fotografische Bilder wurden bereits im 19. Jahrhundert genutzt, um einen Eindruck einer Realität zu vermitteln, die so nicht existierte.[1] Ein prominentes Beispiel ist das ikonische Foto der sowjetischen Fahne auf dem Dach des Reichstags nach dessen Eroberung 1945. Bei der eigentlichen Erstürmung des Gebäudes waren keine Fotograf_innen anwesend. Das Foto von Jewgeni Chaldej ist auf zwei Ebenen kein Original: Im Auftrag Stalins wurde mehr als einen Tag später gestellt und anschliessend nachbearbeitet. Die Rauchwolken wurden hinzugefügt und die – möglicherweise gestohlene – Armbanduhr des einen Soldaten retuschierte Fotograf Chaldej heraus.[2] Die Nazis hatten mehrere Familienmitglieder Chaldejs ermordet und er sah sich als Propagandist für die gute Sache.

Sammlung Ernst Volland/Heinz Krimmer/Jewgeni Chaldej

Jewgeni Chaldej, Die Sowjetische Flagge wird über dem Reichstag gehisst, Berlin 2. Mai 1945 © Sammlung Ernst Volland/Heinz Krimmer/Jewgeni Chaldej, Quelle: https://blogs.taz.de/vollandsblog/2008/07/23/die_flagge_auf_dem_reichstag_teil_3_das_manipulierte_foto/

Sammlung Ernst Volland/Heinz Krimmer/Jewgeni Chaldej

Jewgeni Chaldej, Die Sowjetische Flagge wird über dem Reichstag gehisst, Berlin 2. Mai 1945 © Sammlung Ernst Volland/Heinz Krimmer/Jewgeni Chaldej, Quelle: https://blogs.taz.de/vollandsblog/2008/07/23/die_flagge_auf_dem_reichstag_teil_3_das_manipulierte_foto/

Auch Bilder, die zum Zweck der Satire verändert wurden, sind für Rezipient_innen nicht immer als solche erkennbar. Ein Bild des ehemaligen US-Präsidenten George W. Bush mit einem falsch herum gehaltenen Buch in einer texanischen Schule diente weit über das Jahr 2002 hinaus dem Zweck, Bush lächerlich zu machen. Diese Form der Bildmanipulation ist ein kleiner Eingriff mit grosser Wirkung: Die Botschaft des Bildes und die patriotische Inszenierung werden verzerrt und Bush verspottet.[3]

Associated Press

Manipuliertes Bild von George W. Bush in einer Schule in Houston im Jahr 2002, Bild: https://www.snopes.com/fact-check/bush-upside-book/, Original: Associated Press.

Ein wichtiger Unterschied ist, dass soziale Medien heute die Möglichkeit eröffnen, dass prinzipiell jede_r in kurzer Zeit ein riesiges Publikum erreichen kann. Fakes können sich rasant und über (fast) alle Landesgrenzen hinweg verbreiten. Auch die Produktion von Fakes ist einfacher geworden: Niemand braucht heute ein Fotolabor, ein Fernsehstudio oder teure Bildbearbeitungssoftware – ein Smartphone oder Laptop mit Internetzugang genügen.

WER STECKT HINTER DEN FAKES?

Wir leben in einem Zeitalter der nutzer_innengenerierten Inhalte im Netz. Der Ursprung von Fakes und Falschmeldungen lässt sich deshalb nicht immer zurückverfolgen. Zum Beispiel können Nutzer_innen von WhatsApp oder der Facebook-Messenger Quelle eines Fakes sein. Diese privaten Chats sind nicht für Aussenstehende einsehbar, sodass es manchmal unmöglich ist, zu sagen, ob ein Fake vor dem Post auf Twitter oder einer Facebook-Seite nicht auch schon in einer geschlossenen Facebook-Gruppe oder einer Chatgruppe verbreitet wurde. Virale Fakes verbreiten sich über alle möglichen Plattformen und gesellschaftlichen Gruppen hinweg. So kann ein Fake, den beispielsweise ein_e Nutzer_in von Facebook erstellt und nur für die eigenen Freund_innen sichtbar verbreitet hat, später auch auf dem Social-Media-Kanal von Politiker_innen landen – die Übergänge sind fliessend.

Für die Urheber_innen von Fakes und Faktenverzerrungen spielen unterschiedliche Motive eine Rolle, die durchaus auch in Kombination vorkommen können. Hinter Fakes können zum Beispiel politische Gründe stecken, um sich selbst besser darzustellen oder politischen Gegner_innen zu schaden. Dazu kommen monetäre Interessen. Fakes und Falschmeldungen werden beispielsweise im Zusammenhang mit Gesundheitsthemen genutzt, um Heilsversprechen zu verkaufen. Dazu können Nahrungsergänzungsmittel oder sogar unwirksame Mittelchen gehören, die als Medizin verkauft werden.

Auch Trolle verbreiten Fakes. Meist steckt dahinter das Ziel, Verwirrung zu stiften oder auch Personen zu verletzen, ähnlich wie mit Hasskommentaren. Oftmals nutzen sie Momente, die ohnehin unübersichtlich sind, wie Gewalttaten oder Naturkatastrophen. Im Zusammenhang mit Terroranschlägen und Amokläufen veröffentlichen Trolle immer wieder Fotos von angeblichen Täter_innen, die keine sind. Nach dem islamistischen Anschlag auf ein Konzert von Ariana Grande in Manchester im Mai 2017 verbreiteten Trolle auf Twitter Bilder von angeblich vermissten jungen Menschen, die gar nicht verschwunden waren. Einige bekanntere Trolle und Trollgruppen lassen sich der rechten Szene zuordnen und sind auch explizit aktiv, um rechtsextremes Gedankengut zu verbreiten.

WIRD DURCH DEEPFAKES ALLES NOCH SCHLIMMER?

Seit einiger Zeit wird vor der Gefahr sogenannter Deepfakes gewarnt. Dabei handelt es sich um Bilder, Videos oder auch Audios, die durch eine Software erzeugt werden. Beispielsweise lassen sich Gesichter komplett künstlich generieren[4] oder Videos von Personen erzeugen, denen Aussagen in den Mund gelegt oder in verfänglichen Situationen gezeigt werden. Die Möglichkeiten, solche Technologien einzusetzen, sind vielfältig. Sie könnten beispielsweise genutzt werden, um Videos zu erzeugen, die Personen bei einer Demonstration zeigen, die sie nicht besucht haben. Oder eben, um Politiker_innen oder Aktivist_innen Äusserungen zuzuschreiben, die sie so nie gesagt haben oder in Kontexte zu setzen, in denen sie sich nie befunden haben.

Channel 4

Dieser Deepfake der Queen basiert auf ihrer jährlichen Weihnachtsansprache, die hier explizit die Zuschreibung von Äusserungen ironisiert. Durch TikTok-Tanz und Glitches wird der Deepfake letztlich aufgedeckt. Videostill: Channel 4, Deepfake Queen: 2020 Alternative Christmas Message, YouTube, 25.12.2020, Quelle: https://www.youtube.com/watch?v=IvY-Abd2FfM

Um Deepfakes zu identifizieren, werden wir künftig Tools brauchen, die uns bei ihrer Erkennung helfen. Das ist nötig, denn sie werden immer besser. Zum Beispiel sind die meisten heutigen Deepfakes noch zu erkennen, weil die Personen in den Videos seltsam aussehen, wenn sie den Kopf zu Seite drehen oder weniger oft blinzeln als dies echte Personen tun würden. Solche Details lassen sich allerdings über kurz oder lang auch ändern. Deepfakes können aber bislang nicht die charakteristischen Gesten oder mimischen Bewegungen nachstellen, die jede Person entwickelt hat und die eine Art Fingerabdruck sind.

Deepfakes werden heute schon auf problematische Weise eingesetzt. Im Jahr 2019 haben Betrüger_innen es geschafft, eine Firma durch einen Deepfake-Anruf um 243.000 US-Dollar zu betrügen.[5] Sie hatten die Technologie eingesetzt, um sich als CEO der Firma auszugeben. Deepfake-Tools werden ausserdem angewendet, um pornografisches Material zu erzeugen. Ohne ihr Einverständnis werden pornografische Bilder und Videos von überwiegend Frauen erstellt. Im Herbst 2020 wurde bekannt, dass ein Telegram-Bot genutzt wurde, um gefälschte Nacktbilder von hunderttausenden Fotos in Russland und Osteuropa zu generieren, ohne das die über 680.000 Frauen dies mitbekamen.[6] Das kann neben der persönlichen Verletzung ganz unterschiedliche üble Folgen für die Geschädigten haben, die von ungewünschten Kontaktversuchen und Belästigungen bis zu Problemen mit Familie und in der Ausbildungs- oder Arbeitsstelle reichen. Solche Deepfakes werden auch eingesetzt, um Betroffene zu erpressen.

Es ist zweifelsohne wichtig, die Gefahren von Deepfakes zu erkennen und ihren künftigen Einfluss vorauszuahnen. Zur Wahrheit gehört aber auch, dass viele visuelle Fakes heute noch nicht einmal mit Bildbearbeitungsprogrammen erzeugt werden und es ein Spektrum von Deepfakes bis Cheap Fakes gibt. Denn es ist viel einfacher: Oftmals wird einfach ein echtes Bild oder Video genommen, aus dem Kontext gerissen und mit einer dazu erfundenen Geschichte verbreitet. Die Methoden des Cheap Fake funktionieren bislang sehr gut und sind im Gegensatz zum Deepfake mit wenigen Mitteln realisierbar. So wurden Cheap Fakes im Jahr 2020 zum Beispiel genutzt, um Falschmeldungen zur Corona-Pandemie zu streuen.[7] Es ist ein verbreitetes Phänomen, wie aus dem Kontext gerissene Fotos zeigen, die nach der Wahl in Uganda im Januar 2021 kursierten: Facebook-Nutzer_innen verbreiteten Bilder, die angeblich Ausschreitungen in Uganda darstellen sollten. Sie zeigten allerdings Menschen aus Honduras bei dem Versuch, die Grenze nach Guatemala zu überqueren.[8]

Agencia EFE

Fotos von der guatemaltekischen Grenze, die hier in einer Facebook-Gruppe in einem falschen Kontext in Uganda verwendet wurden, Namen von der Autorin anonymisiert, Original: Agencia EFE

Auch dieses Beispiel aus Thailand macht deutlich, wie schnell manipulatives Material zirkulieren kann. Fotos von Schüler_innen, die bereits im Januar 2020 entstanden sind, wurden später aus dem Zusammenhang gerissen, um zu behaupten, sie würden sich gegen pro-demokratische Demonstrationen stellen. Tatsächlich sind die Bilder aber einige Monate vor den ersten Protesten dieser von Jugendlichen angestossenen Bewegung entstanden. Trotzdem wurden sie hundertfach geteilt und so verbreitet.[9]

AFP Check

Irreführender Facebook-Post mit Fotos von Schüler_innen aus Nonthaburi (Thailand), die aus dem Kontext gerissen wurden, Bild: AFP Check, Original: Debsirin Nonthaburi School Student Committee

FAKES ERKENNEN

Viele manipulierte oder entkontextualisierte Fotos lassen sich mit einigen wenigen Schritten selbst überprüfen. Die Werkzeuge dafür sind sogar frei verfügbar. Eine Möglichkeit ist, die Elemente auf dem Bild zu beschreiben und mit Hilfe einer Suchmaschine aufzuspüren. Auf dem untenstehenden Foto sind Särge zu sehen. Hier wird durch den Text ein Zusammenhang mit der Corona-Pandemie und an COVID-19 verstorbenen Menschen in Italien hergestellt. Um nach dem möglichen Hintergrund des Bildes zu suchen, kann man in einer Suchmaschine die Schlagworte «Särge» und «Italien» sowie entweder «Fake» oder «Faktencheck» eingeben. Sollte es einen Faktencheck dazu geben, würde er sich auf diese Weise finden lassen. Manchmal lohnt es sich, die gleichen Schlagworte auch noch einmal auf Englisch zu suchen. Ausserdem gibt es den «Fact Check Explorer» von Google[10], über den man Faktenchecks von verschiedenen, wenn auch nicht allen, Faktencheck-Seiten aus unterschiedlichen Ländern durchsuchen kann. In diesem Fall liesse sich so herausfinden, dass das Foto zwar in Italien aufgenommen wurde, aber nicht im Jahr 2020. Das Land verzeichnete zwar zu dem Zeitpunkt die traurige Zahl von über 10.000 Verstorbenen[11], aber das gezeigte Bild stammt aus dem Jahr 2013. Damals kenterte ein Boot mit geflüchteten Personen vor der italienischen Insel Lampedusa und mehr als 300 Menschen starben.[12]

Eine weitere Möglichkeit, um Bilder zu überprüfen, ist die sogenannte umgekehrte Bildersuche. Darüber lassen sich einerseits weitere Seiten im Netz finden, auf denen dasselbe Bild hochgeladen wurde oder aber Bilder, die Ähnlichkeiten mit dem gesuchten Bild aufweisen. So kann man beispielsweise das untenstehende Foto überprüfen, das angeblich die «Fridays for Future» Initiatorin Greta Thunberg mit George Soros zeigt. Der ungarisch-amerikanische Milliardär und Philanthrop Soros ist ein Feindbild der Neuen Rechten und spielt in unzähligen Verschwörungserzählungen eine Rolle, nicht selten sind diese von Antisemitismus geprägt. Als Geldgeber und Unterstützer für verschiedene progressive Organisationen und Politiker_innen und aufgrund seiner Präsenz in Medienprojekten ist er diesen Akteur_innen ein Dorn im Auge. Ein Bild mit Greta Thunberg soll also sagen: Soros steckt hinter dem Klimaaktivismus Greta Thunbergs. Das Bild lässt sich mit diesen Schritten überprüfen:

  1. Rechtsklick und die Adresse des Bildes (nicht das Bild selbst) kopieren oder das Bild herunterladen.
  2. Eine der folgenden Suchmaschinen öffnen: Google, Yandex oder Bing.
  3. Auf der Website der jeweiligen Suchmaschine auf «Bilder» oder «Images» klicken.
  4. Auf das Kamera-Icon klicken (bei Bing sieht das Icon aus wie ein Sucher einer Kamera).
  5. Die Adresse des Bildes einfügen oder das Bild hochladen.
  6. Die Ergebnisse durchsuchen.

In einigen Fällen muss man sich durch mehrere Suchergebnisse klicken, bis man einen brauchbaren Hinweis findet. Eine Suche nach dem Thunberg-Foto würde beispielsweise ergeben, dass das Foto bearbeitet wurde.[13] Im Original[14] ist sie mit dem ehemaligen US-Vizepräsidenten Al Gore zu sehen, der sich für den Klimaschutz einsetzt. Manchmal hilft es auch, eine weitere Suchmaschine auszuprobieren. Die abweichenden Resultate entstehen, weil die Bilderkennungssoftware, die von den Suchmaschinen eingesetzt wird, unterschiedlich arbeitet. Zum Beispiel funktioniert die Gesichtserkennung bei Bing und Yandex oft besser als bei Google.

Twitter

Manipuliertes Foto, das Greta Thunberg und George Soros zeigen soll

Greta Thunberg

Originalbild mit Al Gore und Greta Thunberg. Bild: Instagram-Account von Greta Thunberg, Quelle: https://www.instagram.com/p/BsBZea6hebZ/

Die Gesichtserkennung[15] von Suchmaschinen wie Yandex wird schon längst nicht mehr nur von Verifikationsexpert_innen eingesetzt, sondern hat auch TikTok-Videos hervorgebracht, die dem Publikum die umgekehrte Bildsuche empfehlen, um ihren «Zwilling» zu finden – also einen Menschen, der ihnen extrem ähnlichsieht.

In einigen Fällen werden gefälschte Screenshots von Medienartikeln oder von Posts auf anderen Social-Media-Seiten verbreitet. Dann hilft es, die Schlagzeile oder den Text auf dem Bild abzutippen und per Suchmaschine aufzuspüren. Dabei ist darauf zu achten, den Text in Anführungszeichen zu setzen. Das sorgt dafür, dass die eingegebenen Wörter als zusammenhängender Text gesucht werden. Ohne Anführungszeichen werden alle Wörter gesucht, unabhängig davon, an welcher Stelle sie in einem Text stehen.

Am wichtigsten bleibt, vor dem Weiterverbreiten eines emotionalisierenden Fotos oder Videos kurz zu pausieren, um sie einem schnellen Plausibilitätscheck zu unterziehen. Oftmals fällt bei Fakes schon beim genaueren Hinsehen auf, dass etwas unstimmig wirkt. Viele Fakes funktionieren so gut, weil sie erst eine emotionale Reaktion erzeugen und aus der hervorgerufenen Wut, Furcht oder Trauer weiterverbreitet werden.