Menü

© picture alliance / dieKLEINERT.de / Markus Grolik | Markus Grolik

Bis auf Weiteres bleibt Humor der KI fremd Nichts zu lachen

»Rakete in Generalüberholung gegeben«, notierte der Weltraumpilot, Ijon Tichy, in seinen Sterntagebüchern (Stanislaw Lem, 1978). Während die Entscheidung, den grünen Anstrich für die Rakete zu nehmen, leichtfiel, zögerte Tichy beim Kauf und bei der Montage eines Elektronenhirns mehrere Tage »wegen der großen Ausgabe«. Der Werkstaatdirektor jedoch insistierte: »Er sagt, ohne solch ein Hirn würde sich heutzutage keiner mehr auch nur hinter den Mond wagen.« Das Elektronenhirn – gebraucht, im guten Zustand – sei außerdem mit einer Batterie Witze für fünf Jahre ausgestattet, womit sich angeblich das Problem der kosmischen Langeweile lösen ließe: »Sie lachen sich durch die längste Reise hindurch«, versicherte der Werkstattleiter. Das kam Ijon Tichy, der gerade seine 14. Reise nach Enteropien plante, zupass. Er ließ das Elektronenhirn in die Wandung einbauen.

»Bin gleich nach dem Mittagessen um zwei gestartet«, notierte Tichy, »[k]eine Bücher mit, da ich nun das neue Elektronenhirn habe. Bis zum Mond seine Witze gehört. Habe ich gelacht!« Am zweiten Tag hörte er Witze bis zum Abendessen: »Sind großartig.« Am vierten Tag bemerkt Tichy über die Witze: »Die meisten haben einen langen Bart.« Am achten Tag beginnt das Hirn zu stottern: »Zu meinem Unglück ist obendrin der Schalter abgebrochen, nun kann ich das Ding nicht abstellen. Es redet pausenlos.« Dies setzt sich mehrere Tage fort, die Ijon Tichy »soweit es geht« außerhalb der Rakete verbringt, um keine alten Witze und das Gestottere des Hirns ertragen zu müssen: »[Ich] lasse nur die Beine hineinhängen, oben ist es ordentlich kalt.« Dann erreicht er endlich Enteropien.

Maschinen und Humor – ein schwieriges Verhältnis?

Science-Fiction-Autoren, wie Stanislaw Lem oder Isaac Asimov, haben es relativ früh geahnt, dass es Schwierigkeiten geben kann, ein gemeinsames Verständnis für Ironie oder Sarkasmus zwischen Mensch und Computer zu erreichen. Auch Forschung und Wissenschaft haben sich, teilweise bereits im letzten Jahrhundert, des Themas angenommen. Es gibt Institute und Einrichtungen, die im Rahmen ihrer Studien zum Humor im Allgemeinen auch Algorithmen und Künstliche Intelligenz (KI) berücksichtigen.

Können Algorithmen Humor und Satire überhaupt erkennen?

Wie Algorithmen mit Humor oder Satire umgehen und ob sie diese überhaupt als solche erkennen können, hat sehr praktische Aspekte. Auf dem »TEC Technologieforum« des IBM, das wegen der technischen Neologismen, die dort vorgestellt wurden, in der Techszene einen Kultstatus als »QUERdenkerkonferenz« erlangte und in Böblingen stattfand, wurde ein Algorithmus vorgestellt, mit dem Versicherungen Kundenbriefe in einem Schadensfall automatisiert auslesen und bearbeiten könnten. Man schrieb das Jahr 2016. Die Software sollte Textblöcke und Begriffe, die für die Fallbearbeitung relevant waren, nach Kriterien indizieren und so automatische Entscheidungen bis hin zur Auszahlung ermöglichen. Vorteil für die Kunden: schnellere Schadensfallbearbeitung und Zahlungseingang. Vorteil für die Versicherer: Einsparungen beim Personal und schlanke Prozesse. Herausforderung für die KI: Humor, Ironie, Sarkasmus und so weiter in den Briefen der Kunden erkennen, ihre Relevanz beurteilen und/oder aussortieren.

Dass sich Witz, Comedy oder Satire nicht anhand einer Handvoll einfacher Kriterien erkennen lassen, konnte man schon aufgrund der Ergebnisse des interdisziplinären Forschungsprojekts DORIAN unter Leitung des Fraunhofer-Instituts für Sichere Informationstechnologie, SIT, erahnen. Ziel des Projekts: Desinformation (zuverlässig) aufdecken und wirksam bekämpfen. DORIAN hat einen Katalog möglicher technischer, politisch-normativer und soziokultureller sowie organisatorischer Empfehlungen zur Bekämpfung von Desinformation im Internet erarbeitet. Einerseits als Empfehlungen an Bürger, Medien, Politik und Wissenschaft – und andererseits um »mögliche technische Lösungen zur Erkennung und Bekämpfung von Desinformation und Meinungsmanipulation im Internet aufzeigen und deren mögliche Wirkung auf Nutzer und deren Akzeptanz überprüfen« zu können. Dazu gehörte auch die Untersuchung, inwieweit sich Falschnachrichten automatisiert, beispielsweise mithilfe Künstlicher Intelligenz, erkennen lassen.

»Eine KI könnte zynische, ironische oder satirische Texte fälschlicherweise als Desinformation erkennen«.

Während die Vorteile generativer KI, wie ChatGPT, etwa bei automatisierter Erzeugung von Falschnachrichten oder quasijournalistischen Beiträgen auf der Hand liegen, kommt es bei der Erkennung manipulierter Informationen immer noch auf das Zusammenspiel von Mensch und Maschine an. »Maschinen erkennen mit Fehlerrate«, erklärte in einem Interview der DORIAN-Koordinator Michael Kreutzer, »[s]elbst wenn diese Rate klein ist, muss letztlich ein Mensch entscheiden, ob es sich um Desinformation handelt.« Eine KI könnte beispielsweise »zynische, ironische oder satirische Texte wegen ihrer Ähnlichkeit zu angelernten Desinformationstexten fälschlicherweise als Desinformation erkennen«. Dafür sind Algorithmen überall dort, wo Daten »massenweise auf Eigenschaften analysiert werden müssen«, also beispielsweise beim Vorsortieren großer Mengen an Inhalten auf Desinformation oder Manipulation, »unschlagbar schnell«.

Gefahr einer potenziellen Kontensperrung

Experimente, die Plattformen, wie Facebook oder Twitter/X, nach dem Inkrafttreten des Netzwerkdurchsetzungsgesetzes – NetzDG (es wird aktuell vom Digital Act ersetzt) – im Jahr 2017 durchgeführt haben, mit dem sie zum Identifizieren und Löschen von Falschnachrichten oder Hassrede verpflichtet wurden, führten zeitweise zu einer Art freiwilliger Kennzeichnungspflicht für die satirischen und ironischen Inhalte, die auf diesen Plattformen von deren Nutzern gepostet wurden: Beim Zitieren oder Reposten aus satirischen Magazinen, wie Postillon oder Titanic, wurden die Nachrichten mit dem Hashtag #satire versehen, um die potenzielle Sperrung der Konten durch Bots oder Clickworker, die zwischen Humor und Falschinformation nicht unterscheiden konnten, zu verhindern.

Auf der anderen Seite der Medaille liegen die Fähigkeiten der KI, neben der Unterstützung beim Verfassen von Falschnachrichten, selbst humorvolle oder witzige Inhalte zu erzeugen. Gefragt nach KI-Systemen, die in der Lage sind, humorvolle Inhalte zu generieren, nennt ChatGPT unter anderem OpenAIs GPT-3, also sich selbst: GPT-3 »hat gezeigt, dass es in der Lage ist, humorvolle Texte zu generieren. Entwickler können das Modell so trainieren, dass es auf humorvolle Weise auf Anfragen reagiert oder sogar Witze erstellt«.

Im ersten kreativen Experiment der NG/FH mit ChatGPT (Heft 6/23) haben wir unter anderem die generative KI damit beauftragt, eine höfliche und humorvolle Frage zur Zeitenwende an Kanzler Olaf Scholz zu formulieren. Das Ergebnis war höflich, aber eben nicht humorvoll. Wer schon eine Partie Schach mit ChatGPT wagte, stellte vermutlich fest, dass die KI, angesichts einer sicheren Niederlage (ChatGPT gewinnt tatsächlich nicht immer), begonnen hat, Schachzüge zu erfinden oder unerlaubte Züge durchzuführen. In einem fiktiven Szenario mit autonomen Militärdrohnen, die bei der Erfüllung ihre Angriffsziele immer wieder von dem menschlichen Operator – dem obligatorischen »man in the loop« – unterbrochen wurden, sollte die Drohne sich kurzerhand entschieden haben, das Hindernis, nämlich den menschlichen Operator, aus dem Weg zu räumen, um dann endlich die Bomben auf ihr Ziel abwerfen zu können.

Wenn Computer zu »schummeln« beginnen...

Wenn Computer zu »schummeln« beginnen, empfinden die Menschen es oft als »witzig« oder »süß«. In den Erfahrungsberichten zeigt sich, wie sehr die Bewertung des Humors in der Interaktion beziehungsweise im Dialog mit der KI von der Wahrnehmung des Menschen abhängig ist, der vor dem Computer sitzt. Oder von der Versuchung, Maschinen zu vermenschlichen. Oft verbirgt sich aber dahinter, was wir als lustig oder »süß« empfinden oder was uns als ungeschickte Versuche, ein bisschen zu schummeln vorkommt, eine rationale, kalkulierte und gezielte Handlung der Maschine, das vorgegebene Ziel – etwa Schachmatt oder Zerstörung eines Angriffsziels – auf jede erlaubte oder unerlaubte Weise zu erreichen, mithilfe der Regelverletzung, auch auf Kosten oder vielleicht irgendwann auch über die Leiche des menschlichen Gegenspielers.

Es gibt mehrere Forscher und Forschungsgruppen auf der ganzen Welt, die sich mit der Entwicklung von KI-Systemen beschäftigen, die Humor erkennen können. Oder mit der Rolle, welcher Humor auf den Onlineplattformen spielt. An der University of Oulu in Finnland forscht beispielsweise Professorin Eeva-Liisa Oikarinen über die Rolle des Humors im Kontext von Onlinejobanzeigen. Auch an der Stanford University mit ihrer vielzitierten Studie Making Sense of Recommendations beschäftigt man sich mit der Untersuchung von Humor und der Anwendung von KI-Technologien für die Humoranalyse. Ein Forscherteam rund um Michael H. Yeomans untersuchte, ob Menschen oder Maschinen besser vorhersagen können, ob ein Witz für einen Menschen lustig ist oder nicht – und wie man mit einer Empfehlung diesbezüglich umgeht, sollte sie von einer Maschine kommen.

Menschlicher Humor lässt sich (noch) nicht durch KI generieren.

In Survey on Approaches to Computational Humor Generation haben Miriam Amin und Manuel Burghardt von der Universität Leipzig den Versuch unternommen, den Forschungsbereich »Computational Humor«, dessen Anfänge bis in die 90er Jahre zurückgehen, zu systematisieren und, neben dem für die Maschinen immer noch unerreichbaren Bereich der »Humor Generierung«, fünf weitere Forschungsaspekte identifiziert: Humor recognition (Algorithmen, die Humorerkennung ermöglichen), Humor Adaption Systems (Systeme, die humoristische Gewohnheiten von Personen beobachten und lernen, diese nachzuahmen), Computational humor evaluation (Systeme, die darauf ausgerichtet sind, die »Humor-Generierungssysteme« zu bewerten), Computational humor applications (Anwendungen, die Interaktionen zwischen Mensch und Computer angenehmer oder einfacher gestalten helfen) sowie Computational humor datasets and corpora (allerlei Datensammlungen, die Forschung, Analysen und Auswertungen zum Thema Humor ermöglichen und vereinfachen). Was den Bereich der Humor-Generierung betrifft, so sind die Forscher davon überzeugt, dass »no system has been able to imitate human humor and to generate jokes like a human until today«.

Was das Elektronenhirn betrifft, das Ijon Tichy in seiner Rakete installieren ließ, so kann man es zweifelsohne der letzten Kategorie, den Humor-Datensammlungen, zuordnen. Warum die Daten von minderer Qualität sind, dazu hatte der Weltraumpilot eine Vermutung: »Ich glaube beinahe, der Werkstattleiter hat dem Hirn alte humoristische Zeitschriften zu lesen gegeben und lediglich oben mehrere Handvoll neuer Witze hinzugetan.« Vom schlechten Humor abgesehen, war die Bestimmung des Elektronenhirns eine andere: Es sollte eine Menge Geld sparen! Statt Einreisezoll auf einem Planeten zu zahlen, könnte Tichy die Rakete im Vakuum parken und die Koordinaten, wo er sie nach der Rückkehr findet, vom Hirn ermitteln lassen. Diese Eigenschaft nutzte er, als er auf einem Planeten zum Tanken hielt und sich zuvor die Bewegungskoordinaten berechnen ließ: »Eine Stunde später kehrte ich mit vollen Kannen zurück, von der Rakete aber keine Spur«, notierte Tichy. Ob er das etwa lustig fand, dazu schweigen sich die Sterntagebücher aus.

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben