Menü

© picture alliance / Bildagentur-online/McPhoto-Schul

Warum Science-Fiction-Narrative von den realen Herausforderungen und Chancen von KI ablenken (Noch) kein Weltuntergang

Das Veröffentlichen offener Briefe zum Thema Künstliche Intelligenz (KI) ist ein populäres Mittel, um Sorgen rund um die Entwicklung der Technologie an die Öffentlichkeit zu tragen. Den offenen Brief des Future of Life Institutes vom 22. März 2023 (Pause Giant AI Experiments) mit der Forderung eines sechsmonatigen KI-Moratoriums unterzeichneten bisher über 33.000 Wissenschaftler:innen. Obwohl der Brief durchaus kritikwürdig ist, enthält er verschiedene ernstzunehmende Argumente, die in einem Anhang näher spezifiziert und mit Quellen belegt werden.

Anders verhält es sich mit folgendem offenen »Brief«: Über zwei Monate später, am 30. Mai 2023, wurde von der Nonprofit-Organisation Center for AI Safety ein Statement zum Risiko von Künstlicher Intelligenz veröffentlicht, das sich folgendermaßen liest: »Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.« Die Minimierung des Risikos eines Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und einem Atomkrieg globale Priorität bekommen.

Ein gelungener PR-Coup

Zu den vier Erstunterzeichnenden dieses nicht näher ausgeführten Einsätzers zählen keine geringeren als die KI-Forscher Geoffrey Hinton und Yoshua Bengio sowie Demis Hassabis, CEO von Google DeepMind, und Sam Altman, CEO von OpenAI. Warum warnen ausgerechnet Personen, die die KI-Entwicklung vorantreiben, allen voran Sam Altman, dessen Haus das Sprachmodell GPT in seinen verschiedenen Varianten entsprungen ist, vor der Auslöschung durch Künstliche Intelligenz? Man kann hinter diesem und ähnlichen Aussagen nur einen gelungenen PR-Coup vermuten, der die folgenden zusammenhängenden Gründe offenlegt.

Erstens handelt es sich dabei augenscheinlich um Selbstmarketing. Die selbst geschaffene Technik wird als so hochentwickelt und mächtig dargestellt, dass sie zur »Auslöschung« der Menschheit und unserer Zivilisation fähig ist. In einem viel beachteten Essay vom Lee Vinsel (You’re Doing It Wrong: Notes on Criticism and Technology Hype) von 2021 wird ein solches Gebahren als »Criti-Hype« bezeichnet. Darunter versteht man das Phänomen, wenn Technologien vor dem Hintergrund eines Hypes kritisiert werden, und der Hype damit nur noch weiter aufgebläht wird.

Verantwortung wird weggeschoben.

Zweitens schieben Entwickler:innen und Unternehmer:innen Verantwortung von sich weg. Nicht mehr die Personen selbst, die die Technik fortentwickeln, sind verantwortlich für ihre eigenen Produkte, denn sie haben schließlich davor gewarnt. Vielmehr handelt es sich nun um eine »global priority«, die alle einschließt. Es bleibt jedoch unklar, wer genau die Zielgruppe dieses Statements ist und dementsprechend handeln sollte – Staaten, Institutionen, die Zivilgesellschaft oder Verbraucher:innen? Dem setzt das Gebahren von Sam Altman die Krone auf, der zur Zeit des Erscheinens des Open Letters ganze Hallen mit Auftritten füllte, bei denen er für eine striktere globale KI-Regulierung warb. Doch gleichzeitig hat OpenAI darauf hingewirkt, dass wichtige Elemente des »AI Act« der Europäischen Union so abgeschwächt werden sollten, dass die regulatorische Belastung für das Unternehmen verringert würde.

Drittens wird Künstliche Intelligenz zu einer Art eigenständigen Akteurin stilisiert, die scheinbar unabhängig agiert und sich menschlicher Steuerung entzieht. In dem Statement steht schließlich nichts von »menschlicher Nutzung von KI«. Dabei wird außer Acht gelassen, dass KI-Systeme letztendlich von Menschen entwickelt und genutzt werden, um bestimmte Ziele zu verfolgen. Im Falle von OpenAI und anderen Unternehmen geht es dabei selbstredend um wirtschaftlichen Gewinn. Es wird suggeriert, dass KI-Systeme eigenständig handeln, anstatt im Interesse Dritter, die diese Systeme bewusst für ihre Zwecke einsetzen.

Bewusstes Ablenkungsmanöver

Alles in allem bedienen diese und ähnliche Statements typische Science-Fiction-Diskurse. Ähnlich wie in den Filmreihen Terminator oder Matrix, in denen das KI-System Skynet oder ein Maschinengott die Herrschaft übernehmen, wird behauptet, dass die größte Gefahr von Künstlicher Intelligenz die Auslöschung oder Unterwerfung der Menschheit sei. Allerdings erzählt die Science-Fiction Geschichten von Menschen für Menschen, sodass KI-Systeme häufig eine Intention oder ein Bewusstsein zugeschrieben wird, damit die Geschichte funktioniert und spannend ist. Das muss nicht notwendigerweise etwas mit der Realität zu tun haben, sondern ist das »Fiction«-Element. Solche Science-Fiction-Diskurse in die Realität zu überführen, sind ein bewusstes Manöver, um von den tatsächlichen Herausforderungen, mit denen wir hier und jetzt konfrontiert sind, abzulenken.

Ein zentrales aktuelles Problem ist beispielsweise der Datenschutz. In einer Welt, in der immer mehr Informationen gesammelt und mit KI verarbeitet werden, ist die Selbstbestimmung in Bezug auf persönliche Daten und deren Schutz von entscheidender Bedeutung, um missbräuchliche Verwendungen zu verhindern. Die Fokussierung auf »KI-Endzeit-Szenarien« führt dazu, dass diese dring­lichen Fragen im Interesse von Unternehmen bewusst vernachlässigt werden.

Damit in Zusammenhang steht der weitere besorgniserregende Bereich der diskriminierenden KI-Systeme, die Menschen aufgrund ihres Geschlechts, ihrer Hautfarbe oder anderer unzulässiger Kriterien benachteiligen können, wenn sie mit unzureichenden oder fehlerhaften Daten trainiert werden. Die daraus resultierende Benachteiligung und Ungerechtigkeit kann sich in einer Vielzahl von Bereichen manifestieren, von Bewerbungen für Jobs über die Kreditvergabe bis hin zur Verbrechensbekämpfung. Die Beseitigung dieser Vorurteile und die Entwicklung gerechterer KI-Systeme erfordert Anstrengungen und Ressourcen jenseits futuristischer Weltuntergangsszenarien.

Drittens stehen Urheberrechtsfragen im Zusammenhang mit KI-generierten Inhalten. Die Möglichkeiten von KI, nicht mehr von Menschen unterscheidbare Texte, Musik und Kunst zu erstellen, werfen Fragen nach Urheberrechten und geistigem Eigentum auf – vor allem von den Personen, deren Werke zum Training der verschiedenen KI-Systeme verwendet wurden. Die Fokussierung auf apokalyptische Szenarien kann dazu führen, dass diese dringlichen rechtlichen Fragen in den Hintergrund gedrängt werden, was ganz im Sinne der Unternehmen wäre, die solche Systeme bauen.

Schließlich sind auch die Arbeitsbedingungen von Clickworkern und Content-Moderatoren ein dringendes Anliegen. Diese Menschen sind oft schlecht bezahlt, arbeiten unter prekären Bedingungen und sind mit gewalttätigen Inhalten bei mangelnder psychischer Betreuung konfrontiert. Dies gilt insbesondere für Menschen, die im Globalen Süden leben, findet aber auch in Europa und Deutschland statt. Die Diskussion über die mögliche »Auslöschung« der Menschheit durch KI kann von den realen sozialen und wirtschaftlichen Herausforderungen ablenken, die diese Arbeitnehmergruppen betreffen.

Weltuntergangsszenarien lenken aber nicht nur von den realen Risiken von KI-Systemen ab, sondern verdecken auch die Sicht auf positive Anwendungsfälle. So ermöglichen es beispielsweise maschinelle Bilderkennungsverfahren Ärzt:innen und Mediziner:innen, Krankheiten frühzeitig zu erkennen und präzisere Diagnosen zu stellen, um Patient:innen besser und kostengünstiger behandeln zu können. In der Landwirtschaft können durch den Einsatz von KI-Systemen optimale Anbaumethoden und Bewässerungsstrategien ausgewählt sowie Krankheiten von Tieren und Pflanzen frühzeitig erkannt werden. Dies führt zu höheren Ernteerträgen, reduziertem Ressourcenverbrauch und zu erhöhter Ernährungssicherheit.

Im Bereich der Infrastruktur können KI-Anwendungen zum Beispiel den Verkehrsfluss auf den Straßen optimieren, Staus verringern und die Verkehrssicherheit erhöhen. Dies trägt dazu bei, die Umweltauswirkungen von Verkehrsstaus zu verringern und die Mobilität in Städten zu verbessern. Auch im Bildungsbereich bieten sich sinnvolle Anwendungsmöglichkeiten: Durch personalisierte Lernplattformen und Bildungssoftware können Lehrer:innen und Schüler:innen unterstützt werden, den Unterricht so individuell anzupassen, dass Kinder einfacher in ihrem eigenen Tempo nach ihren Bedürfnissen lernen können.

Anstatt uns in düsteren apokalyptischen Szenarien zu verlieren, in denen Künstliche Intelligenz wie in Science-Fiction-Filmen zur Bedrohung für die menschliche Zivilisation wird, sollten wir unsere Aufmerksamkeit besser auf die tatsächlich dringenden negativen Auswirkungen dieser Technologie lenken, die bereits heute Menschen betreffen. Allerdings dürfen wir nicht den Fehler machen, uns ausschließlich auf die negativen Aspekte zu konzentrieren. Künstliche Intelligenz bietet auch große Potenziale, die unser Leben und das Allgemeinwohl in konkreter Weise verbessern können – wenn wir die Systeme sinnvoll einsetzen, gut regulieren, verantwortungsbewusst gestalten und nicht vergessen, dass hinter solchen Systemen immer menschliche Interessen stehen.

Kommentare (0)

Keine Kommentare gefunden!

Neuen Kommentar schreiben

Nach oben