Menü

Die Zukunft von Fake News

Eine Jury von deutschen Sprachwissenschaftler/innen kürte 2016 »Fake News« zum Anglizismus des Jahres, 2017 war der Begriff Wort des Jahres in den USA. Gezielte Falschmeldungen sind zu einem prägenden Phänomen unseres Informationszeitalters geworden. Von einer Besserung ist vorerst nicht auszugehen – im Gegenteil: Angesichts neuer Möglichkeiten der Video- und Tonfälschung könnte sich das Problem noch deutlich verschärfen. Es wird darauf ankommen, was wir ihm entgegensetzen.

»Wir kommen in ein Zeitalter, in dem unsere Feinde jedem Menschen zu jedem Zeitpunkt alles in den Mund legen können – selbst wenn er diese Dinge niemals sagen würde.« So beginnt Barack Obama eine öffentliche Ansprache in einem Video, das im April 2018 auftauchte. Auf den ersten Blick scheint daran nichts ungewöhnlich, bis er wenig später sagt: »Wie wär’s hiermit: Präsident Trump ist ein kompletter Volldepp.« Kurz darauf zeigt sich der wahre Sprecher: Jordan Peele, Regisseur des Kinohits Get Out und oftmaliger Obama-Imitator. Jetzt sind beide nebeneinander zu sehen, Peele spricht und der per Videobearbeitung manipulierte Obama bewegt den Mund dazu, in perfekter Synchronisation.

Das Video soll zeigen, wie einfach wir heute bewegte Bilder fälschen können. Produziert wurde es in Zusammenarbeit mit dem New Yorker Medienunternehmen BuzzFeed mithilfe der Software Adobe After Effects und der relativ neuen »FakeApp«. Damit lässt sich ein Gesicht relativ einfach auf eine andere Person in einem Video legen. Per maschinellem Lernen liefert die Software immer überzeugendere Ergebnisse. Diese auch »Deepfake« genannte Manipulation wurde erstmals bekannter, als Nutzer anfingen, die Gesichter von Prominenten auf zu ihnen passende Körper in Pornovideos zu legen.

Wer genau hinsieht, kann erkennen, dass der Mund des Fake-Obamas nicht ganz stimmig ist. Aber es spricht nichts dagegen, dass die verfügbare Software bald auch die letzten Ungenauigkeiten wird retuschieren können. Alarmierend ist an den neuen Apps vor allem, wie schnell und günstig man die gewünschten Fakes herstellen kann. Während per Computeranimation geänderte Szenen in Kinofilmen vor einigen Jahren noch enorm kosten- und zeitaufwendig waren, kann mittlerweile jeder, der ein Händchen dafür hat, kostenlos und schnell ähnliche Effekte erzielen. Noch einen Schritt weiter geht »Face2Face«, eine Technologie, die in einem Projekt vom Max-Planck-Institut für Informatik, der Universität Erlangen-Nürnberg und der Universität Stanford entwickelt wurde. Die Gesichtsbewegungen eines Nutzers werden mit einer einfachen 3-D-Kamera aufgenommen und schon in demselben Moment auf ein anderes Gesicht in einem Video übertragen. Damit hätte Jordan Peeles Obama-Video also nicht einmal mehr nachbearbeitet werden müssen.

Peeles Stimme ist der von Obama recht ähnlich, aber selbst das ist nicht mehr nötig. Die von Adobe entwickelte Software VoCo braucht nur etwa 20 Minuten Aufnahmen einer Stimme, um sie jeden beliebigen Satz sagen zu lassen. Alles, was der Nutzer tun muss: den gewünschten Satz tippen und auf »Abspielen« drücken. Bei den jüngsten Präsentationen des Google Assistant wurde einem verblüfften Publikum vorgeführt, wie ein absolut menschlich klingender Roboter eigenständig Telefonate führt, etwa um einen Friseurtermin zu buchen. Die Roboterstimme reagiert nicht nur sinnvoll auf alle Fragen, sie fügt sogar Verzögerungslaute wie »ähm« ein.

All das bedeutet, dass wir Fake-Videos und -Tonaufnahmen bald nicht mehr mit bloßen Augen und Ohren als solche werden erkennen können. Wer beide Technologien kombiniert, kann tatsächlich jeden Menschen alles sagen lassen. Die Gefahren des Missbrauchs lassen sich leicht ausmalen: Die gefälschte Ankündigung eines Atomangriffs durch einen Regierungschef oder die Fake-Stimme der eigenen Frau, die am Telefon nach einem Passwort fragt – alles wird möglich.

Angst vor der »Infokalypse«

Genau davor warnte unlängst Aviv Ovadya, Technologe am Center for Social Media Responsibility in Michigan, in der Washington Post. Er sprach bereits 2016 von einer möglichen »Infokalypse«, bei der Fakten vollends jede Bedeutung verlieren könnten, weil algorithmisch optimierte Plattformen wie Facebook, Twitter und Google nicht die Qualität von Informationen priorisieren, sondern deren Popularität. Geteilt wird wiederum nicht, was wahr, sondern was eingängig ist, Emotionen weckt oder die eigenen Ängste und Meinungen bedient. Dadurch sind die sozialen Medien anfällig für Propaganda, Falschinformationen oder Werbung durch ausländische Regierungen. Facebook und andere haben mittlerweile damit begonnen, diese Gefahr ernst zu nehmen. Aber mit den neuen Möglichkeiten der Bild- und Tonfälschung bricht bereits die nächste Phase der Fake News an.

Bilder, Videos und Tonaufnahmen galten bisher immer noch als in der Regel glaubwürdige Beweismittel. Zudem sind sie oft bewegender als Text. Im September 2015 ging ein Foto um die Welt, das den zwei Jahre alten, bei der Flucht aus Syrien ertrunkenen Aylan Kurdi auf dem Bauch liegend an der türkischen Mittelmeerküste zeigte. Die Aufnahme sagte mehr als alle Worte und hatte eine stärkere Wirkung als die täglichen Nachrichten über den Krieg und seine Opfer. Ähnlich verhielt es sich bei dem Thema Polizeigewalt gegenüber Afroamerikaner/innen in den USA. Philando Castile wurde im Juli 2016 bei einer Fahrzeugkontrolle mit fünf Kugeln von einem Polizisten erschossen, als er nach seinem Portemonnaie greifen wollte. Unmittelbar danach filmte seine Verlobte die Szene im Auto und streamte das Video live auf Facebook – mit enormer Reichweite: Stunden später lief es in den deutschen Nachrichten während der Halbzeitpause des EM-Spiels Deutschland gegen Frankreich. Ein Jahr später kam Videomaterial aus dem Polizeifahrzeug dazu, das die entsetzliche Szene komplett zeigte. Auch wenn der Polizist trotzdem unglaublicherweise in allen Anklagepunkten freigesprochen wurde – in der Bevölkerung führten die Aufnahmen zu einer hohen Anteilnahme und brachten selbst einige Hardliner dazu, das Problem Rassismus und Polizeigewalt endlich beim Namen zu nennen.

Was passiert nun, wenn niemand solchen Aufnahmen mehr glauben kann, weil sie im Prinzip immer gefälscht sein könnten? »Sollten die meisten Menschen irgendwann alle Information für gleich zweifelhaft halten, dann wäre dies nicht nur das Ende der Nachrichtenkultur. Es wäre auch der Untergang einer geregelten gesellschaftlichen und politischen Diskussion und Willensbildung.« So formulierte es Marco Bertolaso vom Deutschlandfunk Anfang 2017 in einem Beitrag über Fake News. Ein Jahr später warnte Aviv Ovadya mit Blick auf die beschriebenen Technologien: »Eine Repräsentativdemokratie basiert auf Verantwortlichkeit, und Verantwortlichkeit setzt Wissen voraus. Die Technologien erschüttern dieses Wissensgebäude und wenn wir nicht schnell genug handeln, kommen wir womöglich bald an einen Punkt, von dem aus es kein zurück mehr gibt.«

Im letzten amerikanischen Präsidentschaftswahlkampf gefährdete kein anderer Skandal Donald Trumps Chancen so sehr wie eine Aufnahme aus dem Jahr 2005, in der man ihn sagen hört, er könne als Star Frauen »an die Pussy fassen«. Trump bestätigte damals die Echtheit der Aufnahme und nahm dazu Stellung. Wenn man nun aber ohne Schwierigkeiten falsches Videomaterial herstellen kann, kann auch jede echte Aufnahme als Fake abgetan werden. Oder noch wirksamer: Man produziert ein eigenes Video, das denselben Vorfall in einem anderen Licht erscheinen lässt. Dann stehen sich zwei Videos gegenüber, und jeder glaubt der Version, die die eigene Meinung bestätigt.

Kampf gegen menschliche Faktenresistenz

Sicherlich werden wir auch Technologien entwickeln, mithilfe derer Fake-Videos als solche entlarvt werden können. Aussagen können etwa durch computerlinguistische Analysen oder einen automatischen Abgleich mit anderen Aussagen als falsch identifiziert werden. Aber eine nachträgliche Richtigstellung führt noch lange nicht dazu, dass Menschen, die den Fake-Inhalt bis dahin für wahr gehalten haben, ihre Meinung ändern. Hier kommt ein psychologisches Phänomen zum Tragen: Menschen sind erstaunlich faktenresistent, wenn sie sich einmal eine Meinung gebildet haben. Das zeigten etwa mehrere Experimente an der Universität Stanford. Die Teilnehmer/innen sollten beispielsweise aufgrund von bestimmten Informationen etwas bewerten. Selbst nachdem sie erfuhren, dass die gezeigten Informationen frei erfunden waren, blieben sie bei ihrer Meinung. Die Anthropologen Hugo Mercier und Dan Sperber sehen den Grund dafür darin, dass der Mensch evolutionär die Vernunft vor allem dazu brauchte, die eigenen Ansichten anderen gegenüber zu rechtfertigen. Hinzu kommt ein weiteres Phänomen: Je öfter wir eine Behauptung hören, desto mehr tendieren wir dazu, sie zu glauben. Woher die Behauptung kommt, macht dabei kaum einen Unterschied.

Insofern reiche es nicht aus, eine Fake News als Unwahrheit herauszustellen, sagt Karoline Kuhla, Autorin des 2017 erschienenen Buches Fake News. Zusätzlich müsse man die falsche Geschichte durch eine neue, richtige Geschichte ersetzen. In Deutschland arbeitet eine unabhängige Gruppe von Journalist/innen unter dem Namen Correctiv gezielt daran, auftauchende Fake News durch gründlich recherchierte Beiträge aufzuklären. Das ist harte Arbeit: Falschmeldungen sind schnell in die Welt gesetzt, die Suche nach der Wahrheit ist mühsam und zeitaufwendig – und schwierig, solange Zeitungen und Verlage mit schwächelnden traditionellen Geschäftsmodellen kämpfen.

Es gibt viel zu tun

Was können wir also tun? Ovadya plädiert für umfangreiche Investitionen in die Privatwirtschaft und die öffentliche Hand, die Zivilgesellschaft, in den Journalismus und in neue Technologien. Letztere müssen dabei helfen, das Informationsökosystem zu überwachen und zu verstehen, wie es sich verändert. Entwickler von künstlicher Intelligenz müssen, ähnlich wie in der Medizin und Pharmazie, von Untersuchungsausschüssen begleitet werden, damit ungewollte Konsequenzen ihrer Arbeit frühzeitig bewertet werden können. Neue Systeme müssen die Echtheit von Videos automatisch überprüfen können und zum Beispiel in Internetbrowsern integriert werden. Und es müsste darauf hingearbeitet werden, dass in den Informationssystemen nicht mehr Sensationelles und Polarisierendes, sondern Wahres bevorzugt wird – etwa durch eine Änderung der Mechanismen, die bestimmen, was unsere Facebook-Chronik priorisiert, durch Bildungsprogramme in Sachen Medienkompetenz und durch einen Fonds zur Belohnung derer, die Fälschungen aufdecken. Ovadya betont, dass diese Ideen nur einen Bruchteil dessen darstellten, was nötig sei.

Bei ihrem letzten Gipfeltreffen im Juni einigten sich die G7-Staaten erstmals auf den Aufbau eines gemeinsamen Systems zur Abwehr von Fake News. Es soll eine koordinierte und schnelle Reaktion auf Wahlmanipulationen und Propagandaattacken ermöglichen. Hierzulande droht das Netzwerkdurchsetzungsgesetz den Betreibern sozialer Medien mit hohen Geldstrafen, wenn sie »rechtswidrige Inhalte« nicht löschen. Viele sehen darin eine Gefährdung der Meinungsfreiheit. Dennoch sind sich Experten wie Kuhla, Ovadya oder Vincent F. Hendricks, Direktor des Center for Information and Bubble Studies an der Universität Kopenhagen, einig, dass die sozialen Medien Verantwortung übernehmen müssen. »Wir sehen davon gerade einen Anfang, aber nur durch harten Druck von außen«, sagt Hendricks. »Gerade trifft es Facebook sehr hart, aber hören wir etwas von Google, Amazon oder sonst jemandem?« Sie müssen genauso soziale Verantwortung übernehmen wie Wissenschaft und Politik. Und im Bereich der Bildung sollten wir uns überlegen, wie der Mensch lernen kann, dass er seine Meinung auch mal ändern darf.

Gemeinsam können wir eine »Infokalypse« wahrscheinlich verhindern. Aber es gibt viel zu tun.

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben