Menü

© picture alliance / Zoonar | Ilja Enger-Tsizikov

Replik: Interview mit einem Geist

Die ersten Wochen und Monate, in denen »Chat Generative Pre-trained Transformer«, kurz: ChatGPT, von deren Erfinder, OpenAI, der Öffentlichkeit zum Testen und Ausprobieren verfügbar gemacht wurde, waren von unvergleichlicher Euphorie und großem Enthusiasmus begleitet.

ChatGPT – eine Künstliche Intelligenz (KI) nach Beschreibung des Herstellers oder »[d]as sprachgewaltige Plappermaul«, wie es die Wissenschaftsjournalistin Eva Wolfangel in Spektrum bezeichnete – ist ein Programm, dem das große Sprachmodell (Large Language Model, LLM) zugrunde liegt und das Fragen beantwortet oder Aufgaben löst, indem es nach potenziell relevanten Inhalten sucht und diese dann in einer natürlich klingenden Textform herausgibt. Wobei es auf Anwender oft als »intelligent« wirkt.

Dies hat zwei Implikationen: Erstens basieren die Antworten auf historischen Daten und zweitens sind sie nicht qualitätsgesichert, da die Software bei der Suche nicht zwischen wahren und unwahren oder richtigen und falschen Informationen unterscheiden kann. Deshalb muss sie lernen. Und dabei sollte ChatGPT, aktuell in der Version 4, Menschen helfen, die gelegentlich noch richtige von falschen Informationen unterscheiden können und es eventuell als Feedback dem Programm oder seinem Schöpfer zurückspielen würden.

Nach der ersten Welle stand fest, dass ChatGPT so gute Texte schreiben kann, dass es bald Journalisten und Autorinnen arbeitslos machen wird. »Eigentlich wollte ich zu Weihnachten keine Kolumne schreiben, aber ChatGPT brauchte etwa sieben Sekunden und noch ein zwei Nachbesserungswünsche und ich wäre fertig damit […]«, schrieb der n-tv-Kolumnist Hendrik Wieduwilt auf Twitter, »ganz geil«. Und weiter: »Hey @ntvde wollen wir auf täglich hochgehen? Honorar müsste allerdings steigen, ich habe jetzt AI-Skills.«

Schwachstellen und Gefahren

Nach der zweiten Welle hieß es, ChatGPT kann besser und schneller als Menschen Schadsoftware programmieren, die dann beispielsweise von Kriminellen (ohne Programmierkenntnisse) zu Erpressungszwecken genutzt wird. Was aber angesichts der Qualität der legalen, noch mehrheitlich von Menschen »codierten« Software, die uns umgibt und der James Lovelock in Novacene schon 2020 bescheinigte, sie sei »absolute junk«, nicht wirklich verwunderlich ist.

Nach der dritten Welle hat die Italienische Datenschutzbehörde ChatGPT wegen Verstößen gegen Datenschutz- und Jugendschutzregeln verboten, jedenfalls solange die Schwachstellen nicht behoben sind. Und einige Prominente haben sich dafür eingesetzt, eine Pause in der Entwicklung der Künstlichen Intelligenz einzulegen: ob aus ethischen Gründen oder um Zeit für eigene KI-Projekte zu gewinnen (zum Beispiel hat der Tesla-Chef und Milliardär Elon Musk just eine eigene KI-Firma, X.AI, gegründet).

Schließlich wurde ChaosGPT (ein autonomes Open-Source-KI-Projekt) die Frage gestellt, wie man die Menschheit vernichten könnte. Die Antwort war gewissermaßen enttäuschend und wenig innovativ. Konkret suchte ChaosGPT im Internet nach tödlichsten Vernichtungswaffen und hat dabei die russische Tsar-Bombe entdeckt. Genaue Handlungsanweisungen, wie man etwa mithilfe von Twitter die totale Dominanz erreicht, kann man in einem Video nachverfolgen. Diesen bescheidenen Ergebnissen zum Trotz schätzen 36 Prozent der Befragten im aktuellen AI Index Report 2023 der Stanford University, dass Entscheidungen einer KI zu einer nuklearen Krise führen könnten. Aktuell scheint es noch, dass bei der Frage nach der Vernichtung der Menschheit die Menschen (und damit sind nicht nur Science-Fiction-Autoren gemeint) der KI überlegen bleiben.

Aus diesem Grund enthält das Interview mit Madeleine GPT Albright zwar interessante und manchmal korrekte, doch keine überraschenden Antworten. Das ist der Natur des Programms geschuldet: Es wertet nur bereits bekanntes Material aus. An vielen Stellen antwortet Madam Secretary ohne direkten Bezug zu eigenem Gedankengut, sodass vermutlich behelfsmäßig infolge der Auswertung allgemein verfügbarer Inhalte geantwortet wurde – wie etwa bei der Frage zum Bundeskanzler.

Aus Fehlern nichts lernen

Wo ChatGPT exzellent ist: bei Vergleichen zwischen verschiedenen Quellen, detailliert bis auf Seitenangaben, oder bei Zitaten. Wobei man jedes einzelne auf seine Korrektheit hin überprüfen muss. Denn ChatGPT lernt aus eigenen Fehlern nicht: Es entschuldigt sich zwar, das falsche Buch zitiert zu haben, um gleich bei der nächsten Frage wieder auf das nichtexistierende Buch zu verweisen. »Das ist okay«, kommentierte Marvin Strathmann auf heise.de, »Technik ist nicht perfekt und wird es auch nie sein – denn am Ende haben immer Menschen diese Technik erstellt.« Es scheint, als wäre dieser Begriff extra für die ChatGPT erfunden worden: »Mansplaining as a service«, oder: Plausibel klingen bei weitgehender Ahnungslosigkeit.

Das sympathische und manchmal tollpatschige »Plappermaul« sollte uns allerdings nicht über die Tatsache hinwegtäuschen, dass hinter jeder KI mächtige Interessengruppen stehen, die sie entwickeln und/oder nutzen, um eigene politische oder wirtschaftliche Interessen durchzusetzen. Bisher wurden Entscheidungen, die möglicherweise jedes Leben auf dem Planeten betreffen, von einer kleinen Gruppe Privatunternehmen ohne demokratische Kontrolle getroffen, während sich die Politik noch sammelt. 57 Prozent der für AI Index Report 2023 befragten Wissenschaftler gehen davon aus, dass die aktuellen Entwicklungen zu Artifical General Intelligence (AGI) führen, also einer Art gottähnlicher KI, die sich unserem Verständnis und unserer Kontrolle entzieht. An der Natur der AGI liegt es, dass es praktisch unmöglich für die Menschen ist, zu erkennen, wann man dort angekommen ist.

Auch wenn andere Anbieter, wie Google mit Bard, DeepMind mit Gato oder der deutsche Verein LAION mit OpenAssistant, jetzt schnell aufholen, bleibt ChatGPT ein Pionier und unser Favorit. Für die nächsten Monate oder Wochen. Jedenfalls solange, bis der nächste geile Hype kommt.

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben