Menü

Wie künstliche Intelligenz in der Politik genutzt wird Entwirf mir ein Wahlplakat!

Im September 2023 erlebte der Wahlkampf zum Schweizer Nationalrat einen emotionalen Höhepunkt, jedenfalls für den sozialdemokratischen Kandidaten Islam Alijaj – er konnte sich das erste Mal fast ohne Sprechbehinderung selber hören. Und mit ihm seine Wählerinnen und Wähler. Aufgrund einer angeborenen Cerebralparese und der daraus resultierenden Sprachbehinderung war er sein komplettes Leben fast immer auf eine Sprechassistenz angewiesen, langes Reden strengte ihn an und für Außenstehende war er oft nur schwer zu verstehen. Das änderte sich nun dank Künstlicher Intelligenz (KI). Mithilfe einer Agentur entwickelte er einen Text-to-Speech-Avatar, der auf Basis generativer KI seine Worte in eine synthetische Stimme umwandelt, die für alle verständlich ist. Dies ermöglichte ihm seine Positionen und Themen in einer Videoreihe zu präsentieren. Mit Happy End: Als erster Schweiz-Albaner zog er mit über 90.000 Stimmen in den Nationalrat ein. 

»Künstliche Intelligenz wird die politische Kommunikation revolutionieren.«

Künstliche Intelligenz wird die politische Kommunikation revolutionieren. Dieses Beispiel zeigt eindrucksvoll die Potenziale von KI für Partizipation, Inklusion und politische Kommunikation. Das Ziel ist, dass er nun auch künftig Reden mithilfe des Avatars in Echtzeit im Plenum halten kann, ohne auf eine Sprachassistenz zurückgreifen zu müssen. Hierzu muss nun aber noch die Geschäftsordnung des Parlaments angepasst und die Technologie weiterentwickelt werden. 

Alijaj machte mit dem ersten Video den Einsatz von KI transparent und stellte klar, dass alle Inhalte weiterhin vollumfänglich von ihm kommen, die KI darf nie autonom für ihn sprechen. Hierfür braucht es klare Regelungen in der Politik. 

Dies gilt auch für Deutschland. Während in der EU aktuell über den AI-Act (Gesetz über künstliche Intelligenz) verhandelt wird, der den Einsatz von KI umfänglich regulieren soll, gibt es bisher noch keine nationale Regulierung. Dies betrifft auch die Politik und deren politische Kommunikation.

ChatGPT hat die Anwendung von KI in der Politik befördert.

Spätestens seit der Veröffentlichung von ChatGPT Ende 2022 hat die breite Anwendung von KI-Instrumenten auch die deutsche Politik erreicht. Bis dahin nutzten Parteien und politische Akteur:innen zwar schon vielfältige KI-Anwendungen, aber größtenteils nur indirekt, etwa bei der Nutzung von Social Media oder der automatisierten Werbeschaltung auf den Plattformen. Durch den Chat-Bot kann nun jeder selber mit generativer KI experimentieren. Und diese Möglichkeiten wurden bereits vielfältig genutzt: Als erster Politiker nutzte der forschungspolitische Sprecher der Brandenburger SPD-Landtagsfraktion Erik Stohn ChatGPT öffentlichkeitswirksam, um bereits im Dezember 2022 eine kleine Anfrage an die Landesregierung zu stellen. Damit wollte er auf die Möglichkeiten von KI hinweisen.

Wenige Wochen später beantwortete mit dem Bundesforschungsministerium erstmals eine Regierungsbehörde eine kleine Anfrage mit Hilfe von ChatGPT. Der fragenden Opposition von der Linkspartei war kein qualitativer Unterschied zu einer von Beamten formulierten Antwort aufgefallen. In fast jedem Landesparlament, dem Bundestag und auch im Europäischen Parlament gab es mittlerweile Reden, die von ChatGPT formuliert wurden. Die Verwunderung war jeweils groß, als die Öffentlichkeit davon erfuhr.

Mittlerweile hat die Nutzung keinen Neuigkeitswert mehr. Im Bundestag gehört KI zum täglichen Instrumentarium, so nutzt zum Beispiel der digitalpolitische Sprecher der FDP-Bundestagsfraktion Maximilian Funke-Kaiser generative KI, um sich Pressemitteilungen oder Social-Media-Postings formulieren zu lassen.

Die Kraft gefakter Bilder

Und auch visuell unterstützen KI-Systeme bereits umfangreich die politische Kommunikation: Der AfD-Bundestagsabgeordnete Norbert Kleinwächter veröffentlichte eine Reihe von Bildern, die täuschend echt reale Situationen darstellen, etwa wütende Männer, die als Geflüchtete erkannt werden können, um damit rassistische Ressentiments zu befördern. Diese Situationen hat es nie gegeben, die Bürger:innen wurden bei der Veröffentlichung aber nicht über den Einsatz von KI informiert. Ihre Wirkung werden sie aber entfaltet haben, da sie das rassistische Narrativ des wilden, brutalen und aggressiven Fremden realitätsnah in Szene gesetzt haben. 

In der Schweiz entzündete sich eine erste große Diskussion über den Einsatz von KI in der politischen Kommunikation an einem Plakatmotiv, das die dortige FDP veröffentlichte. Zu sehen ist eine Straßenblockade, angelehnt an Demons­trationen der Letzten Generation, die unter anderem einen Krankenwagen im Einsatz an der Weiterfahrt hindert. Damit wurde die Kritik an Klimaprotesten bebildert. Einziger Haken: In der Schweiz gab es bisher gar keinen Vorfall, bei dem ein Rettungswagen von Klimaprotesten aufgehalten wurde. Im oberen rechten Rand des auch auf Social Media veröffentlichten Bildes ist der Hinweis auf die KI-Unterstützung schlecht lesbar versteckt worden.

Gefährliche Polarisierung durch Pseudorealitäten.

Hier wurden also Pseudorealitäten mit einem emotional aufgeladenen Bild geschaffen, die dann den Diskurs aktiv beeinflussen. Das ist hochgefährlich, da sich so Diskurse von den Fakten entfernen und Emotionen getriggert werden. Dies führt zu einer Polarisierung und Zuspitzung von Diskursen. Für eine Demokratie und den Austausch von Argumenten ist das pures Gift, insbesondere vor dem Hintergrund der seit Jahren immer stärker aufgeheizten Debatten, der Zunahme von Populismus und der Abnahme des Vertrauens in demokratische Werte und Institutionen.      

Dass es anders geht, zeigt zum Beispiel Die Linke Sachsen, die ebenfalls seit gut einem Jahr KI-erstellte SharePics auf den sozialen Plattformen veröffentlicht. Diese stellen teilweise ironisch (Karl Marx mit Partyhütchen) nicht reale Situationen dar, sind aber klar, umfangreich und gut lesbar als KI-Inhalte gekennzeichnet.

Innovationen im politischen Geschäft finden oftmals in Wahlkampfphasen statt, da hier finanzielle Ressourcen, kreative Energie und personeller Einsatz in einem kurzen Zeitraum maximal zur Verfügung stehen. Die Wahlkämpfe in Bayern und Hessen standen daher unter besonderer Beobachtung, was den Einsatz von KI angeht.  Umso erstaunter war, wer konkret nach Hinweisen der Parteien zum Einsatz von KI suchte. Noch wenige Wochen vor den Wahlen gab es keine öffentliche Kommunikation über den möglichen Einsatz, keine öffentlichen Debatten und keine Selbstverpflichtungen. Dies überrascht, da seit einigen Jahren die »Verpflichtung über fairen Wahlkampf im Internet« bereits Standard der demokratischen Akteure in Deutschland ist. 

KI in den Landtagswahlkämpfen 

Eine erste Abfrage bei allen in den Landtagen vertretenen Parteien ergab in der Tat ein Bild, das den Eindruck vermittelte, die Parteien wollten bewusst keine KI-Tools einsetzen. Die Antworten klangen eindeutig: »Der SPD-Landesverband Hessen hat derzeit keine Pläne, Künstliche Intelligenz im Wahlkampf oder anderweitig einzusetzen. Dasselbe gilt auch für die Agentur ASK.« oder auch »Die AfD Hessen nutzt keine KI für den Wahlkampf oder ähnliche Zwecke.« 

Aber nur auf den ersten Blick. Eine weitere Abfrage mit detaillierten Fragen zeigte hingegen ein vielfältiges Einsatzspektrum der Parteien. So wurde KI unter anderem zur Sloganfindung, zum Einstieg in Recherchen, für Kreativprozesse und Brainstormings genutzt, bei der Gestaltung von Flyern, als Rechtschreibhilfe und bei der Skalierung von Bildmaterial bei der Plakatgestaltung. 

Darüber hinaus veröffentlichte ein bayerischer SPD-Kandidat deutschlandweit erstmals ein komplett von der KI generiertes Plakat, das auch auf den Straßen Münchens mobilisieren sollte. Die FDP Hessen stellte einen KI-Chatbot auf die Webseite, der programmatische Fragen zur Partei 24/7 beantworten sollte. Die Frage zum Einsatz von KI im Wahlkampf überforderte ihn allerdings, er kannte sich noch nicht mal selber. Der viel beachtete Wahlkampf-Rap »Hessen auf die 1« des Landtagsabgeordneten Yanki Pürsün (FDP) wurde im Refrain zusätzlich von einer KI-generierten Stimme begleitet.

Experimentieren ohne Reflexionsprozess.

Alles in allem war Künstliche Intelligenz also eine sehr breit genutzte Hilfe in den zurückliegenden ersten beiden Wahlkämpfen im Zeitalter der generativen KI. Nur dass dieses sinnvolle Experimentieren, Ausprobieren und die Nutzung der Potenziale nicht transparent gemacht wurde und es keinen breiten Reflexionsprozess zu den Gefahren und Grenzen des Einsatzes gab. Jedenfalls nicht bis zu den Anfragen. Alle politischen Akteure sollten sich möglichst intensiv mit der Wirkungsweise und dem Einsatz von KI beschäftigen, die technologischen Umwälzungen werden auch sie in vielen Bereichen erfassen. Sie sollen Fehler machen, Grenzen ausloten und natürlich Ihre Arbeit und Kommunikation im Sinne einer demokratischen Gesellschaft mit KI voranbringen. Dies muss aber mit einer breiten Debatte um den Einsatz begleitet werden, am Ende der Diskussion sollten im besten Fall klare Regeln für die eigenen Mitglieder und Wahlkämpfer:innen formuliert werden.

Das politische Klima ändert sich

Nur wenn Politik versteht, wie die »Black Box« KI funktioniert, kann man Anforderungen definieren, was die Systeme leisten sollen und wie sie Politik besser machen können. Auch wenn die genannten Einsatzbereiche aktuell unkritisch wirken und auch keine gesellschaftlichen Verwerfungen fördern, so haben sie bereits jetzt Einfluss auf das politische Klima. Katja Muñoz, Research Fellow der Deutschen Gesellschaft für Auswärtige Politik (DGAP) weist zu Recht darauf hin, dass paradoxerweise bereits die Warnung vor den potenziellen Gefahren dazu führt, dass Bürger ihren Glauben etwa in Wahlen verlieren könnten, ohne dass KI überhaupt eingesetzt wurde.     

Da sich der AI-Act aktuell noch in Trilog-Verhandlungen der europäischen Gesetzgebungsorgane befindet und die neuen Diskussionen um Allzweck-KI (wie ChatGPT) noch Berücksichtigung finden müssen, wird mit der Verabschiedung und der darauffolgenden nationalen Umsetzung des AI-Acts frühestens 2026 gerechnet. Solange können wir als Gesellschaft aber nicht warten, die Entwicklungszyklen beschleunigen sich rasant. Unter anderem bergen KI-Systeme Risiken für die Informationsintegrität, den Urheberrechts- und Datenschutz, und sie können diskriminierend wirken sowie gesellschaftliche Polarisierungstendenzen verstärken.

»Es braucht jetzt belastbare Selbstverpflichtungen von politischen Institutionen um gesellschaftliche Verwerfungen zu verhindern.«

Nie war es so einfach, schnell und effizient Desinformationen zu erstellen, diese in Umlauf zu bringen und auf aktuelle Debatten umfangreich und zeitnah zu reagieren. Es braucht jetzt belastbare Selbstverpflichtungen von politischen Institutionen um gesellschaftliche Verwerfungen zu verhindern. Damit tun sich Parteien, Fraktionen und Ministerien aber schwer. Als erste politische Einheit verabschiedete der Landesverband der Linkspartei Sachsen im Juni 2023 eine Selbstverpflichtung zum Einsatz von KI. Bisher sind diesem löblichen Beispiel aber nicht viele weitere Institutionen gefolgt. Außer von der Linkspartei Thüringen und der FDP-Bundestagsfraktion sind keine weiteren Selbstverpflichtungen öffentlich bekannt (Stand 11/2023).  

Wie notwendig klare und sanktionierbare Regeln sind, zeigt abschließend ein aktuelles Beispiel aus dem Bundestag: Die ehemalige AfD-Abgeordnete Joana Cotar veröffentlichte im November ein KI generiertes Video einer Plenarrede, in dem sie auf englisch mit den passenden synchronisierten Lippenbewegungen den digitalen Euro kritisiert und Bitcoins bewirbt. Dieses Video ist in der internationalen Kryptoszene viral gegangen und wird dort gefeiert. Dass Joana Cotar die Rede auf deutsch gehalten hat und dass es diese Rede so gar nicht gegeben hat, wird den meisten Nutzer:innen nicht bewusst sein. Damit hat die Debatte um den Einsatz von KI auch das Rednerpult des Parlaments erreicht.          

Als gutes Beispiel sollte der Bundestag vorangehen und als wichtigste legislative Institution gemeinsam mit den Fraktionen den Nutzungsrahmen von KI vorgeben und Transparenzpflichten für die politische Kommunikation der Parlamentarier:innen definieren. Nur so lässt sich langfristig das Vertrauen der Bevölkerung in die Kommunikation von demokratischen Institutionen sichern und die Widerstandsfähigkeit der Bürger:innen im dynamisch veränderten Mediensystem stärken. 

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben