Menü

© picture alliance / dieKLEINERT.de / Markus Grolik | Markus Grolik

Künstliche Intelligenz und Textrobotik Mit Wahrscheinlichkeit ziemlich doof

Der britische Schriftsteller Edward Morgan Forster erzählt in seiner Kurzgeschichte »The Machine stops« – Die Maschine steht still –, von einer Welt, in der Menschen nur noch über Videokanäle und Messenger kommunizieren. Sie »sharen« Ideen, die nicht ihre sind, und leben in mit Robotern ausgestatteten Kojen, die die Bedürfnisse ihrer Bewohner sensorisch umhegen. Transportmittel fahren automatisiert. »The Machine« nimmt einen göttlichen, omnipotenten Status ein.

Als die Maschine stillsteht, bricht Panik aus. Niemand kann sich mehr daran erinnern, wie man ohne Maschine denkt oder handelt. Die Menschheit stirbt aus.

Das Erstaunliche an Forsters Geschichte ist nicht die Abwesenheit eines Happy Ends. Sondern dass er seine Dystopie über den Glauben an die Überkraft eines Maschinengotts 1909 verfasste. 114 Jahre vor einer Ära, in der Menschen Han­dys wie Herzschrittmacher hüten, sich von Algorithmen Bücher, Nachrichten und Freunde vorsortieren lassen, Haushalte mit smarter Technik ausstatten, Memes teilen statt eigener Worte, und sich darauf verlassen, dass eine Meta-Entität mentalen Aufwand abnimmt.

Wie für Texte, die generative Informatik wie ChatGPT, BERT oder StableLM nach wenigen Stichworten oder Fragen hin rattert. Ein Jahr nach seiner Einführung wird Marktführer ChatGPT aus dem Hause OpenAI von 180,5 Millionen Menschen verwendet, die monatlich 1,43 Milliarden Anfragen stellen. Die Zahlen schwanken zu Semester- und Schulferien – wenn Studierende und Schüler wieder an ihre Hausaufgaben gehen, steigen die Textbestellungen. Zudem vergeht kaum eine Woche, in der Medien oder Unternehmen das Plagiatsprogramm nicht hochjazzen, als brächte es das Ende aller menschlichen Schreibqual(ität)en. »Verpass nicht das Billionenbusiness«, »Der Mensch ist nicht mehr länger die Krone der Schöpfung«, und: »Wann kommt der Maschinenbestseller?«

Zur letzten Frage: demnächst erstmal gar nicht. Denn rein faktisch ist »Generative Künstliche Intelligenz« ziemlich doof.

Denn sie wissen nicht, was sie tun

Der hyperentwickelte Raumschiffcomputer HAL aus dem Stanley-Kubrick-Epos 2001: Odyssee im Weltraum ist das, was heute »starke Künstliche Intelligenz« genannt werden würde. Eine computerbasierte Struktur mit Bewusstheit und kognitiven, humanoiden Fähigkeiten und Empfindungen – inklusive Mordlust auf Menschen, die sich der maschinellen Kontrolle entziehen wollen.

Die KI, die jedoch weltweit seit Ende der 50er Jahre entwickelt und eingesetzt wird, ist ausschließlich »schwache KI«. Weder will sie die Menschheit meucheln, noch hat sie den Ansatz einer intrinsisch motivierten Struktur und wird bis zur Potenzierung von Rechenleistung durch Quantentechnik auch nicht mehr in diesem Jahrhundert etwas erreichen, was einer reflektierenden Bewusstheit ähnelt.

»Sich selbst lesen oder anzweifeln kann ChatGPT nicht.«

ChatGPT weiß nicht, was es da tut. Selbst wenn sich selbst-»bewusst« anhört. Denn schwache KI kann sich stets nur auf eine Aufgabe fokussieren, in dem Fall: Wörterfolgen berechnen. Sich selbst lesen oder anzweifeln kann das Programm nicht. Es versteht nicht, um was es geht, denn Wörter sind in algorithmische Formeln und »token«, Erkennungsmarken umgewandelt – der Blablabot hat gelernt, Begriffe, Information und Grammatik in Mathematik umzuwandeln und zu unterscheiden, Philosophie von Psychologie von Paddelsport, oder Subjekt und Prädikat von Objekt.

Schaut man auf den Input unter der Haube des Rechenprogramms GPT, und aus was sich sein »Großes Sprachmodell« (large language model, LLM) bedient, findet man 175 Milliarden Parameter als Berechnungs­matrix, sowie ein massives Textfundament (foundation model), das aus 45 Terabyte an Materialien besteht. Das sind 293 Millionen Textseiten oder 58.800 vollgestopfte Aktenschränke. Wie inzwischen bekannt ist, bestehen diese nicht nur aus Webseiten, Presseartikeln, Foren und Amazon-Rezensionen sowie Social Media Posts oder Wikipedia. Sondern auch aus rund zwei Millionen urheberrechtlich geschützten Büchern, die unter anderem widerrechtlich über Piraterieseiten gezogen wurden. New-York-Times-Bestseller, Fantasy, Harry Potter in 35 Sprachen, von Moby Dick bis Fifty Shades of Grey, das Erste Buch Mose bis Mein Kampf, und Hunderttausend wissenschaftliche Werke, oft aus Schattenbibliotheken.

Ohne die lebenden Rechteinhaber dieser Werke zu fragen. Und ohne für diese hoch profitable Nutzung – 3,3 Millionen US-Dollar Umsatz pro Tag macht allein nur OpenAI – zu zahlen, die ausgerechnet jene Menschen ersetzen soll, von denen sich die KI-Entwickler heimlich bedienten. Die New York Times erwägt, OpenAI auf 150.000 US-Dollar pro kopiertem Presseartikel zu verklagen.

Mit meinungslosem Mittelmaß erfolgreich

Schaut man auf den Output von Textberechnungsprogrammen, wird deutlich: Die Software denkt nicht. Das Programm »schreibt« auch nicht. Es repetiert Informations- und Begriffsfolgen und kalkuliert dabei permanent nur das nächst­wahrscheinliche Wort.

»Der Textgenerator steckt naheliegendste Begriffe, die er aus dem Fundament memorisiert, zusammen.«

Wie das im kleinen Maßstab funktioniert, demonstriert jedes Smartphone, wenn der »Markov Chain«, eine Entwicklung aus den 60er Jahren, bei Whats­App Vorschläge macht, welches Wort als nächstes nach »Herzlichen Glückwunsch zum…« käme. Im größeren Stil, wie etwa bei Chat­GPT, ist die Rechenleistung komplexer, bleibt aber ein rein statistischer Prozess: Der Textgenerator versucht auf den »Prompt«, also die Eingabe einer Frage oder einer Aufforderung hin, einen Text zum Thema Ethik und KI mit dem Schwerpunkt Literatur und Kaffee zu generieren, möglichst gut zu raten. Mittels Statistik steckt er naheliegendste Begriffe, die er aus dem Fundament memorisiert, zusammen.

So schreibt die KI

Ein Praxisbeispiel – ChatGPT 3.5, die Gratisversion, benötigte sechs Sekunden für:

»In der Literatur haben Schriftsteller seit jeher die menschliche Natur, Moral und den Fortschritt erkundet. KI spiegelt diese Interessen wider, da sie nicht nur technologische Innovationen, sondern auch die moralischen Implikationen und ethischen Dilemmata hervorbringt. Wie in einem guten Buch sind auch in der KI-Ethik verschiedene Perspektiven und Ansichten vertreten, die uns dazu anregen, über die Konsequenzen und die Menschlichkeit hinter der Technologie nachzudenken.

Und dann gibt es noch Kaffee – ein universelles Symbol der Inspiration und des gemeinsamen Austauschs. So wie Literatur und Diskussionen über Ethik die Gedanken beleben, kann auch eine Tasse Kaffee das Gehirn stimulieren und Gespräche beflügeln. In Kaffeepausen werden oft Ideen geboren, die den Lauf der Dinge verändern können, sei es in der Literatur, der Ethik oder sogar in der Entwicklung von KI-Technologien.

Letztendlich treffen sich diese scheinbar verschiedenen Welten – KI, Ethik, Literatur und Kaffee – in der menschlichen Erfahrung. Sie erinnern uns daran, dass technologischer Fortschritt und ethische Überlegungen Hand in Hand gehen müssen, ähnlich wie die Reflexionen in der Literatur und die anregenden Gespräche, die oft von einer simplen Tasse Kaffee begleitet werden. Es ist unsere Verantwortung, diese Facetten in Einklang zu bringen, um eine Zukunft zu gestalten, die sowohl technologisch fortschrittlich als auch moralisch verantwortungsbewusst ist.«

»Es fällt schwer, sich zu vergegenwärtigen, dass dieser profane Quark das Ergebnis einer Wahrscheinlichkeitsberechnung und nicht eines Lebewesens ist.«

Tönt gut, oder? Und so überzeugt. Da weiß ja jemand, wovon er redet, nicht wahr? Nicht wahr: Dieser schreiberisch banal komponierte Text ist eine hohle Frucht. Er enthält weder etwas Originelles, noch bewegt er sich über Allgemeinplätze und abgerittene Metaphern hinaus (»Facetten in Einklang bringen«, »Hand in Hand gehen«, schnarch). Und behauptet Kausalitäten, denen man widersprechen kann, dächte man nur mal über sie nach. Immerhin produziert er nicht Fake News, die sehr häufig bei Fragen auftauchen. Dennoch: Es fällt schwer, sich zu vergegenwärtigen, dass dieser profane Quark das Ergebnis einer Wahrscheinlichkeitsberechnung und nicht eines Lebewesens ist.

Das liegt einerseits an dem Schlenker »unsere Verantwortung« im letzten Absatz, ein Schulterschluss von Mensch und Bot. Sätze wie »…erinnern uns daran …« funktionieren bestens, um in unserer Wahrnehmung anthropomorphisierend zu wirken; die Vermenschlichung der Maschine.

Das ist natürlich Schrott: der maschinelle Produzent bleibt ein Großrechner. Doch die Projektions­fähigkeit unseres Gehirns ergänzt das Fehlende. Der Computerwissenschaftler Joseph Weizenbaum stellte Ende der 70er Jahre in seinem Werk Die Ohnmacht der menschlichen Vernunft fest, dass sogar seine aufgeklärten Kollegen in reaktive Informatik wie dem Chatbot Eliza, empathische Qualitäten hinein fantasieren und »ihr« das Herz ausschütten. KI: eine Selbstverzauberung der HI, der human intelligence, verstrickt im gegenseitigen Anerkennungsstreit.

Andererseits ist der abgerufene Text von verführerischer Mittelmäßigkeit. Generierende Text-Informatik ist ein Generalisator, der Überspitzung oder neue Gedanken vermeidet und auf Allerweltsrhetorik setzt. Genau diese absichtliche Mediokrität ist ihr Erfolg, und auch ihre Gefahr.

»Dann bringen Sie sich halt um«

Im Jahr 2016 verpestete Microsofts Chatbot »Tay« über 48 Stunden das Internet mit frauenfeindlichen und rassistischen Kommentaren, nachdem er von Twitter-Trollen »gelernt« hatte. In »Gesprächen« über den Holocaust, Black people, Muslime und Frauen ratterte auch GPT-3 ebenfalls verfassungs­feindliche Kommentare hervor. Und bei einem »Therapeutengespräch« mit einer depressiven Patientin riet der Textroboter, am besten Selbstmord zu begehen.

Wie lösten die Entwickler das Problem, dass ChatGPT natürlich nicht moralisch entscheiden kann, bevor es wahrscheinliche Wortfolgen zusammenstellt? »Content Control«. Vor-Zensur, die bestimmte Begriffe und Themen unterbindet. So werden Textbots aber auch gehindert, tatsächlich etwas Spitzfindiges zu Diskussionen beizutragen. Der Output bleibt wohltemperiert, im schmalen Wahrnehmungskorridor gedimmter Pauschalmeinungen, die niemanden weiter stören.

»Geschwafel« nennt IT-Wissenschaftler Gary Marcus das, »schnattert wie ein betrunkener Onkel am Familientreffen Unsinn«, konstatiert Signal-Vorsitzende Meredith Wittaker. Dennoch werden Anwendungen von generierender Informatik auch von politischen Entscheidungspersonen verehrt, als wäre der »Pankreator« aus dem Silicon Valley entsprungen, wie der polnische Autor Stanislaw Lem den allwissenden, stets vernünftigen Weltenkonstrukteur nannte.

Dabei ist KI die Welt wirklich schnurzegal

 

ChatGPT hält uns den Spiegel unserer Sehnsucht nach Simplizität vor.

Der menschliche Makel ist, dass das »Wahrscheinliche« in einem Text, einen »Genauso ist das«-Wohlfühleffekt im menschlichen Gehirn auslöst. Denn es ist, trotz seiner Maschinen überlegenen Kompetenz, faul und strebt nach Überleben. Und um zu überleben, arbeitet es energiesparend mit kognitiven Heuristiken. Denkabkürzungen, Prämissen, Faustregeln; das Gehirn liebt Vereinfachungen. Headlines. Flüssig wegzulesene Banalbücher. Und so hält uns ChatGPT den Spiegel unserer Sehnsucht nach Simplizität vor, entsprechend erklärt sich die Begeisterung für das schmerzlos zu degustierende Wahrscheinliche, das Textrobotik produziert. Denn das Unwahrscheinliche, das, was Dichter und Denkerinnen uns zumuten: das ist schon ziemlich anstrengend …

Was geschieht wohl, wenn sich die Menschheit an die Mittelmäßigkeit gewöhnt. Und eines Tages die Maschine stoppt?

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben