Menü

©

picture alliance / Westend61 | Gary Waters

Der digitale Strukturwandel der Öffentlichkeit im Zeitalter der KI Eine Maschine im Namen des Dialogs

Die sogenannte Habermas-Maschine von DeepMind versprach, mittels großer Sprachmodelle die gemeinsamen Perspektiven von Diskussionsteilnehmern zu erfassen und in einer ›Gruppenaussage‹ so zu bündeln, dass alle Beteiligten zustimmen könnten. Das System gelange dabei, wie es selbstbewusst im Science-Artikel heißt, zu »besseren Ergebnissen« als ein menschlicher Mediator.
Die Ironie könnte kaum größer sein: Google, das Mutterunternehmen von DeepMind, gehört zu jenen Konzernen, die durch die digitale Disruption maßgeblich zur Zerstörung einer funktionsfähigen digitalen Öffentlichkeit beigetragen haben. Dasselbe Unternehmen tritt nun mit einer KI an, die das – nicht zuletzt durch KI selbst befeuerte – Problem der gesellschaftlichen Polarisierung beheben soll. Doch der Name des bedeutendsten lebenden Demokratiephilosophen wurde für dieses Unterfangen, wie sich herausstellte, ohne dessen Einwilligung und ohne Recht verwendet. Denn eine Habermas-Maschine kann es nicht geben.

Habermas widerspricht – klar und grundsätzlich

Als der Philosoph Anfang 2025 vom Verfasser dieses Artikels über die Verwendung seines Namens informiert wurde, reagierte er mit einem Brief, der seinen Ärger deutlich erkennen lässt – und der zugleich eine präzise philosophische Gegenkritik formuliert. Ein KI-Programm für praktische Diskurse sei nach seiner Auffassung aus einem fundamentalen Grund nicht möglich:
»Ein KI-Programm für praktische Diskurse ist nach meiner Auffassung schon deshalb nicht möglich, weil die jeweils aktuell Beteiligten im Hinblick auf eine faire Verallgemeinerung der jeweils berührten und in der Regel konfligierenden Interessen darin eine Bedingung erfüllen sollen, die sie nur aus der Perspektive der ersten Person erfüllen können.«

Nur so könnten im Diskurs die eigenen Interessen und Wertorientierungen im Lichte der Interessen und Wertorientierungen aller anderen Betroffenen beurteilt und gegebenenfalls angepasst werden. Eine Maschine kann diese Rolle nicht übernehmen, weil sie keine persönliche Perspektive entwickelt, nicht zur Abwägung von Gründen, Überzeugungen und Gefühlen fähig ist – und weil sie nicht in der Lage ist, die eigenen Einstellungen aus der Beteiligtenperspektive heraus zu überprüfen und zu ändern.

Auch die Stellvertretung einer Person durch einen KI-Agenten muss an demselben Grundproblem scheitern. Habermas schreibt: 
»Jedem Diskursteilnehmer wird in persona die anspruchsvolle Aufgabe einer sensiblen gegenseitigen Perspektivenübernahme zugemutet, aus der er oder sie die jeweils eigenen Interessen und Wertorientierungen im Lichte der ebenso berührten und gegebenenfalls beeinträchtigten Interessen und Wertorientierungen aller anderen möglicherweise Betroffenen beurteilen und gegebenenfalls an diese anpassen kann.«
Das Ja- und Nein-Sagen könne den Beteiligten nicht aus der Drittpersonenperspektive abgenommen werden, weil die Abwägung und gegebenenfalls Korrektur der eigenen Überzeugungen Sache des Einzelnen seien.

Das Versagen der Objektivierungsmaschine

Die DeepMind-KI täuscht den Diskursteilnehmern vor, ein Geschehen zu objektivieren, als hätte sie selbst daran teilgenommen oder als würde sie die individuellen Gewichtungen der Sprecher verstehen und eine neutrale Beobachterperspektive einnehmen. Dabei objektiviert sie aus Daten der Debattenteilnehmer heraus lediglich auf der Basis mathematischer Hochrechnungen– und erweckt den Anschein, auch die erste Person vertreten zu können.

»Der Diskurs verlangt nicht nur den aufrichtigen Input aller Teilnehmer aus der Erstpersonenperspektive, sondern auch die jeweils aus der Perspektive der ersten Person vorgenommen Akte der Verallgemeinerung. Dieses Ja- und Nein-sagen kann den Beteiligten nicht aus der Drittpersonenperspektive abgenommen werden, weil die Abwägung und gegebenenfalls Korrektur der je eigenen Überzeugungen Sache des Einzlenen sind.«
Offenbar habe sich DeepMind »epistemischen Rollen der ersten, zweiten und dritten Person Singular«, nicht genügend Gedanken gemacht. Die individuellen Meinungen und Wertorientierungen sind schon deshalb nicht an eine objektivierende Maschine abtretbar, weil der Wechsel von der Teilnehmer- zur Beobachterperspektive im Diskurs voraussetzt, dass die Personen, die urteilen, zugleich auch Teilnehmer sind. Zudem unterstellen sie sich wechselseitig, dass sich diese Einstellungen durch andere Perspektiven, neue Fakten und die Übernahme anderer Perspektiven eben auch ändern können. Was in den Konsens eingeht, ist Resultat einer solchen Deliberation, die nur eingeübt, nicht aber automatisiert werden kann.

Habermas verweist in dem Brief auf eine Veröffentlichung, in der er mit Bezug auf Wilhelm von Humboldts Sprachphilosophie die »erkenntnistheoretischen Voraussetzungen der moralischen Kognition« entwickelt.  Nur wer diese Voraussetzungen ignoriert, schreibt einer KI eine epistemische Autorität zu. 

Hinzu tritt die dritte Dimension des Gesprächs: sein Sachbezug. Seit Platon unterscheidet sich Dialektik als sachorientiertes Miteinander-Reden von Rhetorik als bloßem Überreden gerade darin, dass sich die Gesprächspartner gemeinsam auf Tatsachen beziehen – auf eine Sache, die jenseits ihrer je subjektiven Perspektive liegt.  KI ist zu einem solchen Welt- und Sachbezug nicht fähig. Sie verarbeitet lediglich Daten, in die menschlicher Weltbezug eingeflossen ist – aber sie hat keinen eigenen.

Habermas hat bereits in einer früheren Schrift die Bedeutung der intersubjektiven Kommunikation für die Entstehung und die Beurteilung von Normativität hervorgehoben:
»Das reziproke Verhältnis zwischen Ich und Du bildet die kleinste moralische Einheit.« 
Diese moralische Einheit wird aufgesprengt, wenn der Dialogpartner im Alltag, bei der Wissensvermittlung, ja sogar in der Erziehung junger Menschen zunehmend eine KI ist. Ein Gespräch setzt voraus, dass der andere Recht haben könnte. Das aber ist nur im gleichberechtigten Dialog unter freien und gleichen Bürgern möglich – nicht im Sprechen mit einer Maschine. Konsens auf Knopfdruck muss also weiterhin Illusion bleiben. Es sei denn, wir wollen uns der Agenda von Big Tech und Alt Right unterwerfen und Autonomie durch maschinelle Manipulation und die Demokratie durch eine Algokratie ersetzen. 

Strukturwandel 2.0: Die neue Vermachtung der Öffentlichkeit

Schon länger haben einige wenige Technologiekonzerne die digitale Öffentlichkeit in historisch beispielloser Weise neu vermachtet. Mit den sogenannten sozialen Medien und den Effekten der Plattformökonomie haben sie die Ökonomie der Aufmerksamkeit oligopolisiert und wirtschaftliche, technische sowie politische Macht in den Händen weniger konzentriert. Weitgehend ungebremst von gesetzlicher Regulierung untergräbt diese Entwicklung zunehmend die Autonomie der Bürgerinnen und Bürger und die Souveränität demokratischer Staaten.

Mit der Einführung von KI-Agenten, die die klassische Suchmaschine ersetzen, erhält diese Machtkonzentration derzeit einen weiteren Schub. Informationen werden automatisiert generiert und dargeboten, die Quellen des Wissens werden zunehmend verschüttet. Habermas selbst sprach von einem »Neuen Strukturwandel der Öffentlichkeit« – 2022, über sechzig Jahre nach seinem epochalen Frühwerk, hat er diese Entwicklung selbst analysiert. »Wir sind noch weit davon entfernt, die Digitalisierung der Kommunikation zu verdauen«, so der späte Habermas, »und schon steht die nächste Umwälzung durch Technologien der künstlichen Intelligenz vor der Tür.« 
Mit Habermas weiterdenken – leider jetzt ohne ihn.

DeepMind hat nach Bekanntwerden von Habermas‹ Reaktion versprochen, künftig auf die Verwendung seines Namens zu verzichten. Doch das hält das Unternehmen nicht davon ab, seine Konferenzräume nach toten Denkern zu benennen und so die Aura des Geistigen für kommerzielle Zwecke zu vereinnahmen. CEO Demis Hassabis lässt sein Londoner Hauptquartier als »Kathedrale des Wissens« einrichten – mit Räumen, die nach Newton, Leinbiz und Leonardo da Vinci anderen benannt sind. »Ich habe DeepMind immer als Hommage an die Intelligenz betrachtet«, sagt er. Gemeint ist wohl eher die künstliche als die menschliche.

Die entscheidende Frage bleibt: Wie können wir die kommunikative Vernunft bewahren, und mit ihr die Spuren vernünftiger Freiheit (Habermas), wenn die Menschen zunehmend mit einer KI sprechen und sich von ihr leiten lassen, der sie tendenziell mehr vertrauen als sich selbst und den Mitmenschen? 

Der bedeutendste Philosoph der Kommunikation ist vergangene Wochenende verstorben. Nun gilt für uns, was er selbst vor kurzem mit Blick auf die neue weltpolitische Unordnung sagte: Von hier aus müssen wir allein weitergehen. Statt den Versprechungen künftiger Konsensmaschinen zu vertrauen, die Allwissenheit vortäuschen, um für ihre Betreiber Allmacht zu sichern, bedarf es einer Kritischen Theorie des Digitalen. Den großen Philosophen ehren wir am besten, wenn wir diese Theorie entwickeln. Dafür müssen wir mit Habermas weiter - und angesichts der Bedrohungen durch eine vermeintlich Künstliche Intelligenz auch über ihn hinausdenken.

Der Autor informierte Jürgen Habermas im Februar 2025 über die Habermas-Maschine. Der zitierte Brief ist authentisch. Vom Autor liegen vor: Prinzip Mensch, Macht, Freiheit und Demokratie im Zeitalter der Künstlichen Intelligenz (mit Paul Nemitz), Bonn, 2020, Menschliches Denken und Künstliche Intelligenz. Eine Aufforderung, Bonn 2021, im Mai 2026 erscheint: Die offene Zukunft und Ihre Feinde. Wie wir die freie Gesellschaft vor der KI-Diktatur bewahren können (mit Jürgen Pfeffer und Paul Nemitz) im Dietz Verlag Bonn.
 

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben