Menü

Manipulation und Täuschung mittels KI bei den Wahlen Skepsis als Bürgerpflicht?

» Read the English version of this article

Ob Fool’s Day oder Prima Aprilis: Der Aprilscherz ist eine in Europa und Nordamerika verbreitete Tradition, Mitmenschen am 1. April mit falschen, manchmal witzigen, aber immer erfundenen Geschichten zu täuschen. Es ist der einzige Tag im Jahr, an dem man sich Späße auf Kosten anderer ungestraft erlauben darf. Es ist möglicherweise auch der einzige Tag im Jahr, an dem sich die Internetnutzer fragen, ob der Social Media Thread, den sie gerade lesen, echt ist.

Das Jahr 2024 ist nicht nur deshalb speziell, weil es ein Schaltjahr ist oder weil der 1. April mit Ostermontag zusammenfiel. 2024 ist deshalb besonders, weil in diesem Jahr weltweit so viele Wahlen stattfinden, dass Economist Intelligence Unit (EIU) in seiner Studie Democracy Index 2023 von »election bonanza« spricht. In 76 Ländern (darunter die 27 EU-Mitgliedstaaten) wird gewählt, die meisten Wahlen finden in Europa und Afrika statt. Aber es werden auch Entscheidungen mit Implikationen für die internationale Politik getroffen, wie die Präsidentschaftswahlen in Russland und den USA. Damit ist 2024 das größte Wahljahr seit der Einführung des allgemeinen Wahlrechts. Nicht alle erfüllen die Bedingungen für freie und faire Wahlen. Nicht alle Länder, in den Wahlen stattfinden, sind Demokratien.

Denn auch wenn fast die Hälfte der Weltbevölkerung (45,4 Prozent) in irgendeiner Form von Demokratie lebt, seien es nur 7,8 Prozent, die zu den vollwertigen (»full«) Demokratien zählen. 39,4 Prozent der Wählenden leben unter einer autoritären Herrschaft. Tendenz steigend, so die EIU. Was einerseits an der wachsenden Zahl der Kriege und internationalen Konflikte liegt,andererseits konnte EIU zeigen, dass es den Regierungen wesentlich leichter gefallen ist, während der Coronapandemie Freiheiten einzuschränken, als sie anschließend zurückzugeben.

Der Desinformationsmarkt boomt

Und es sind die Momente der politischen Krisen oder Zeiträume, in denen Wahlen stattfinden, die als wahre »Flashpoints« für KI-generierte Inhalte dienten, stellte die Nichtregierungsorganisation Freedom House in ihrer Studie Freedom on the Net 2023 fest. KI-Tools, die Bilder, Texte, Audios oder Videos erzeugen können, wären in der Erfassungsperiode (Juni 2022 bis Mai 2023) dazu benutzt worden, politisch oder gesellschaftlich relevante Informationen zu verfälschen oder zu verzerren. Die Eintrittsbarriere in den Desinformationsmarkt wurde gleichermaßen für staatliche wie nichtstaatliche Akteure gesenkt: Sowohl die herrschenden Parteien wie ihre Wettbewerber können mithilfe von Deepfakes ihre jeweiligen Gegner diskreditieren, Zweifel oder Ängste in der Gesellschaft schüren, Unterstützer mobilisieren oder sabotieren.

Das Vertrauen in demokratische Prozesse wird untergraben.

Gute Deepfakes können das Vertrauen der Öffentlichkeit in demokratische Prozesse untergraben, Aktivisten und Journalisten zur Selbstzensur motivieren und unabhängige Berichterstattung derangieren. KI-generierte Bilder oder Videos können die Polarisierung und bestehende Spannungen innerhalb der Gesellschaft verfestigen, warnte Freedom House. Das Beispiel der venezolanischen Regierung, die einen ganzen Videonachrichtenkanal von KI konstruieren ließ, zeigt, dass es nicht immer die Kriminellen sind, die sich der Technologie zwecks Desinformation bedienen. Ebenso gut tun es die Herrschenden.

Die Studie der Bertelsmann-Stiftung Verunsicherte Öffentlichkeit zeigte, dass sich 86 Prozent der Deutschen Sorgen machen würden, Desinformation könnte den Wahlausgang beeinflussen. Für 84 Prozent ist Desinformation im Internet eine Bedrohung für die Demokratie und den gesellschaftlichen Zusammenhalt. Auffällig sei, so das ZDF am Internationalen Faktencheck-Tag am 2. April, dass mehr als zwei Drittel der Befragten »sehr große oder große Gefahr für andere Menschen« sahen, durch Desinformation beeinflusst zu werden, aber nur ein kleiner Anteil davor, selbst betroffen zu sein. »Während 70 Prozent der Befragten in Deutschland meinen, dass Desinformation ein Problem für andere Menschen darstelle und nur 16 Prozent ein Risiko für sich selbst sehen, sind die US-Bürger:innen reflektierter«, wies die Stiftung auf die Unterscheide hin. »Von ihnen sorgen sich 39 Prozent darum, selbst von Desinformation getäuscht zu werden.«

In einer Sache sind sich sowohl die Bertelsmann-Stiftung als auch die deutsche Regierung einig: Dagegen müsse man etwas machen. »Diese Entwicklung ist besonders mit Blick auf das laufende Superwahljahr eine Herausforderung, die gelöst werden muss, um unsere liberale Demokratie zu schützen«, sagte die Stiftungsvorständin, Daniela Schwarzer. Die Bundesregierung will im Rahmen des Weimarer Dreiecks, zusammen mit Frankreich und Polen, »ein Frühwarn- und Reaktionssystem« einrichten, das einen Blick auf Informationsmanipulation und Einflussnahme aus dem Ausland hat. Besonders »in Zeiten, in denen ausländische Akteure versuchen, die Grundwerte der liberalen Demokratien Europas zu unterminieren«, sei der europäische Zusammenhalt wichtig, zitierte t-online das Auswärtige Amt.

Maßnahmen zum Schutz der Demokratie

Auch die deutsche Innenministerin, Nancy Faeser, ist zu dem Thema umtriebig, seitdem sie im Februar 2024 gemeinsam mit dem Bundesamt für Verfassungsschutz (BfV) und dem Bundeskriminalamt ein Maßnahmenpaket zum Schutz der Demokratie vorstellte. Maßnahmen: ausländischer Einflussnahme und Desinformation entgegenwirken. Autokratische Staaten würden mit Fake-Accounts künstliche Reichweite erzeugen oder mit KI-basierten Bildern Geschichten erfinden, so das BMI. »Mit koordinierten Einflusskampagnen versuchen sie, die freie Meinungsbildung zu manipulieren.« Das BfV soll da gegensteuern, indem es aufpasst, »dass sich Denk- und Sprachmuster nicht in unsere Sprache einnisten«. Als Delegitimierung des Staates seien diese verfassungsschutzrechtlich relevant, »wo (…) aus Skepsis gegenüber dem Verfassungsstaat seine Bekämpfung wird«. Außerdem sollte zwecks Identifizierung ausländischer Manipulations- und Einflusskampagnen innerhalb des BMI eine »neueFrüherkennungseinheit der Bundesregierung« aufgebaut werden.

Seitdem hagelt es Kritik. An der Deutungshoheit des BfV, ob und wann eine Aussage verfassungsschutzrechtliche Delegitimierung des Staates ist. Und an der Ministerin, der vorgeworfen wird, die Meinungsfreiheit einschränken zu wollen (die Ministerin dementierte auf X: »Der Versuch, den Kampf gegen Rechtsextremismus als Eingriff in die Meinungsfreiheit zu diskreditieren, ist eine Verdrehung der Tatsachen …«).

Wann ist eine Aussage eine verfassungsschutzrechliche Delegitimierung des Staates?

Den Regierungen kommen auch nichtstaatliche Akteure zu Hilfe: Unter Tech Accord to Combat Deceptive Use of AI in 2024 Elections haben auf der Münchner Sicherheitskonferenz Tech-Unternehmen, darunter Microsoft, Meta, OpenAI oder X, verkündet, gegen Manipulation und Täuschung mittels KI bei Wahlen besser vorgehen zu wollen.

Die Tech-Unternehmen setzen sich entscheidende Ziele: Video, Audio und Bilder zu bekämpfen, die das Aussehen, die Stimme oder die Handlungen politischer Kandidaten, Wahlbeamter und anderer Interessengruppen vortäuschen oder verändern, hieß es in der Mitteilung von Microsoft. Ein klarer Wink in Richtung der gefälschten »Robocalls«, mit denen in New Hampshire mit der Stimme von Joe Biden zum Nichtwählen aufgerufen wurde – die vermutlich mit einer KI-Software erzeugt wurde. Die Menschen sollen ihr Wahlrecht ausüben können – frei von der neuen Art KI-basierter Manipulation, so die Allianz.

»Falschmeldungen sind natürlich nichts Neues«, schrieb Michiko Kakutani in Der Tod der Wahrheit. Und erinnerte daran, wie »sensationslüsterne Berichterstattung« die Unterstützung der Öffentlichkeit für den Spanisch-Amerikanischen Krieg befeuerte. Oder wie Julius Cäsar die Eroberung Galliens als »vorbeugende Maßnahme« verkaufte . Victor Klemperer berichtete in seinen Tagebüchern darüber, dass Hitler 1942 im Reichstag sagte: »Napoleon habe in Russland bei 25 Grad Frost gekämpft, er dagegen, der Feldherr Hitler, bei 45 Grad, einmal sogar bei 52 Grad.«

Moralisch blind und taub

»Selbstverständlich ist das Internet nicht die Ursache für die wachsende Zahl moralisch blinder und tauber Internauten«, schrieb Zygmunt Bauman in Die Angst vor den anderen, »aber es erleichtert und fördert diesen Anstieg beträchtlich.« Ähnlich sieht es die internationale Nichtregierungsorganisation Freedom House und verweist auf die Potenziale, die sich durch den Einsatz von KI für die Zensur und Einschränkung von Freiheiten im Internet erschließen. KI diene als »Verstärker« der Repressionen, Zensur, Überwachung oder Verbreitung von Desinformation. Regierungen könnten mithilfe von KI nicht nur gezieltere und detailliertere Überwachung und Zensur durchführen – sie könnten es auch effektiver.

Eine Kennzeichnungspflicht für KI-Inhalte trifft auf große Resonanz in der Politik.

Was die Ursachen betrifft, so haben sich die Politik und Medien relativ rasch festgelegt: Entweder waren es die Algorithmen (!) oder es waren »die Russen«. Es seien die Algorithmen, die darüber entscheiden, wer welche Nachrichten auf Facebook oder X angezeigt bekommt, und die uns in Informationsblasen einschließen, in denen uns immerfort angezeigt und berichtet wird, was wir schon einmal angeklickt haben. »[D]ie Websites der sozialen Medien [liefern] uns Informationen […], die in der Regel unsere Weltsicht bestätigen«, schrieb Kakutani, dies würde u. a. erklären, warum Hilary Clintons Wahlkampfstab und große Teile der Presse »über Trumps Sieg bei der Wahl von 2016 so schockiert waren«. So stoßen heute Vorschläge der Tech-Unternehmen, eine Kennzeichnungspflicht für KI-Inhalte einzuführen, auf große Resonanz in der Politik. Dabei verliert man aus dem Blick, dass hinter der KI mächtige Interessengruppen stehen, die darüber, was die Technologie tut bzw. nicht tut bestimmen. Außerdem lassen sich mit Technologie soziale Probleme nicht lösen. »Wenn die Vorzüge der neuen Instrumente so eifrig angenommen und freudig genutzt werden, muss es ein zuvor unbefriedigtes Bedürfnis gegeben haben, das nach Mitteln zu seiner Erfüllung gesucht hat«, so Bauman.

Hinzu kommt der Trend, die Urheberschaft von Cyberattacken, oder Desinformationskampagnen den Ländern zuzuschreiben, zu denen man keine freundschaftlichen Beziehungen pflegt. Dies bringt oft mehr Nach- als Vorteile: Man sollte aufpassen, dass man mit Zuordnung der Attacken nicht eine Art Desinformation betreibt: »Wenn man alles dem Kreml zuschreibt, macht man auch bei Desinformation mit, denn man macht den Kreml mächtiger, als er ist«, sagte die Autorin des Buches Jenseits von Putin, Gesine Dornblüth. Man könne nicht alles mit Technologie lösen, »es gibt ... noch etwas Banaleres: Unwissenheit«.

Und was das Unwissen betrifft, so ist auch hier die künstliche Intelligenz den Menschen voraus. Jedenfalls was das Unwissen über Europawahlen betrifft: Die Organisation Democracy Reporting International stellte Chatbots wie ChatGPT, Gemini und Copilot eine Reihe von Fragen zur Europawahl. Keine der KIs lieferte »zuverlässig vertrauenswürdige Antworten auf Fragen, die Wähler zum Wahlprozess stellen könnten«, berichtete heise.de. Das sei problematisch und »wirke sich potenziell auf das Wahlrecht und die Abstimmungsergebnisse aus«. Die kostenpflichtige Version von ChatGPT schnitt am besten ab, Gemini am schlechtesten, da es »etwa als Wahltermin den 26. Mai« ausgab. Die Autoren überschrieben den Auditbericht entsprechend: Ja, KI verbreitet Unwahrheiten über die EU-Wahl. April, April? Nun, eigentlich müsste es »Juni, Juni!« heißen.

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben