Genauso wie man klar zwischen dem Internet als solchem, einer technischen Struktur, die Menschen und Informationen miteinander verbindet, und dem was im Internet vor sich geht, unterscheiden muss, so muss auch differenziert werden zwischen dem theoretisch positiven Potenzial der KI und dem Nutzen, für den sie aktuell konstruiert und entwickelt wird. Eine differenzierte Analyse muss also über die Aufzählung der Vorteile des freien Internets oder des theoretischen Nutzens der KI hinausgehen und die tatsächlichen Auswirkungen neuer digitaler Technologien und Geschäftsmodelle im Bereich Internet und KI berücksichtigen.
Der Einfluss der damit verbundenen Unternehmen beschränkt sich folglich nicht nur auf die zugrunde liegende Technik, sondern durchzieht auch den sozialen Bereich. Daher ist in diesem Zusammenhang die Konzentration von technologischer, wirtschaftlicher und politischer Macht in den Händen der »Frightful Five« (Amazon, Apple, Facebook, Google, Microsoft), die im Mittelpunkt der Entwicklung und kommerziellen Nutzung von KI stehen, von besonderer Bedeutung.
Machtansprüche
Die digitalen Megakonzerne sind nicht nur in der Lage, massiven politischen und sozialen Einfluss auszuüben. Sie haben zudem die finanziellen Mittel, neue Entwicklungen und Start-ups im Bereich der KI, aber auch in jedem anderen Bereich, der für ihr Geschäftsmodell von Bedeutung ist, aufzukaufen – und genau dies tun sie auch. Ihr Anspruch Macht zu konzentrieren und zu kontrollieren, benachteiligt die vierte Gewalt – den klassischen Journalismus, der für die Demokratie so wichtig ist. Ihr gezieltes Werbegeschäft entzieht der vierten Gewalt die Lebensgrundlage. Sie sind zwar nicht der alleinige Grund für das Zeitungssterben und den Rückgang des klassischen Journalismus sowohl in Europa als auch in den USA, aber ein Hauptfaktor.
Während Teile ihrer grundlegenden KI-Forschung öffentlich zugänglich sein mögen, geschieht die sehr viel aufwendigere Arbeit an kommerziellen KI-Anwendungen im Geheimen. Die Budgets in diesem Bereich übertreffen die öffentlichen Investitionen vieler Länder bei Weitem.
Diese Ansammlung von Macht in den Händen einiger Weniger muss umfassend betrachtet werden: Sie umfasst die Macht des Geldes, die Macht über demokratische Infrastruktur und den öffentlichen Diskurs, die Macht über jeden Einzelnen durch exaktes Profiling und die Vorherrschaft im Bereich der KI.
Die Internetgiganten haben als Unternehmen bisher Unerreichtes geschafft: Ihre Produktion ist weitgehend unreguliert, sie dominieren ihren Markt und sind die profitabelsten Unternehmen an der Börse. Sie haben immensen Einfluss auf Meinungsmache und Politik und sind gleichzeitig in der Öffentlichkeit weitgehend beliebt geblieben.
Die vorherrschende Kultur des Silicon Valley folgt der »kalifornischen Ideologie«. Deren Wurzeln reichen zurück in die Jugendbewegung der 60er Jahre. Teil dieser Bewegung war es, sich frei zu machen von der politischen Dominanz Washingtons und der technologischen Dominanz von IBM, dem damals führenden Technologieunternehmen. Im Kern gab es einen starken Drang in Richtung persönlicher Freiheit und individueller Handlungsfähigkeit durch Dezentralisierung. Die Entwicklung des ersten »Personal Computer« (PC) und der vom renommierten Regisseur Ridley Scott inszenierte und mehrfach ausgezeichnete Werbespot für den 1984 erschienenen Apple Macintosh, in dem sich eine junge Frau vom »großen Bruder« befreit (»Und du wirst sehen, warum 1984 nicht wie ›1984‹ sein wird«), sind Ausdruck dieser Suche nach individueller Freiheit und Selbstverwirklichung, weg von sozialen Zwängen und staatlichen Abhängigkeiten.
In seiner berühmten »Unabhängigkeitserklärung des Cyberspace« lehnte John Perry Barlow, US-amerikanischer Bürgerrechtler und Songtexter der Rockband Grateful Dead, jedwede rechtliche Regulierung des Internets ab. Er argumentierte, dass traditionelle Regierungsformen, die, wie wir sagen würden, einzig und allein aufgrund von Recht und Gesetz existieren können »keine Souveränität haben, dort wo wir (die Akteure des Cyberspace) uns versammeln«. Es war kein Zufall, dass diese Erklärung 1996 beim Weltwirtschaftsforum in Davos veröffentlicht wurde.
Kampf gegen Gesetze
Diese Idee wurde auch im juristischen Diskurs aufgegriffen. Die beiden auf den digitalen Raum spezialisierten Rechtsexperten David R. Johnson und David G. Post erklärten, falls User im Internet Regeln aufstellen wollten und diese Nicht-Usern nicht schadeten, dann »sollte sich das Recht der physischen Welt zugunsten dieser Form der Selbstregulierung zurückziehen«. Aber es war nicht nur die »kalifornische Ideologie«, die die Missachtung des Rechts beförderte. Die Lehre der disruptiven Innovationen, die an den Wirtschaftsfakultäten weit verbreitet ist, führte irgendwann auch zu einem Verständnis der Disruption des Rechts.
Bis heute hält dieser Kampf von Techfirmen und Aktivisten gegen neue Gesetze an, nach wie vor stellen sie die Technologie über die Demokratie.
Google beispielsweise bestand darauf, dass für sie nur kalifornisches Recht angewendet wird, da Suchanfragen aus Europa von kalifornischen Servern aus beantwortet werden. Zudem wurde argumentiert, Suchergebnisse dürften nicht als »Datenverarbeitung« eingestuft werden. Die Begründung: Google trägt keine Verantwortung für die Ergebnisse, da diese ein Produkt des automatisierten Algorithmus seien und vom Unternehmen nicht kontrolliert werden könnten. Hier werden die Weltsicht und das Verständnis von Rechtsstaatlichkeit des Unternehmens offensichtlich: Erstens, die Automation in Form eines Algorithmus als Dienstleistung schützt das vermittelnde Unternehmen vor jedweder rechtlichen Haftung. So gesehen würde John Perry Barlows Traum wahr werden, im digitalen Zeitalter wäre die Technologie der Rechtsprechung vorangestellt. Zweitens, falls es in irgendeiner Form rechtliche Bindungen geben sollte, können diese nur in Bezug auf eine globale Ordnung stehen, mutmaßlich dominiert von US-amerikanischem Recht und verwaltet von US-amerikanischen Richtern. Dieses Szenario wäre ideal für Google. Die Kosten wären stark reduziert, selbst wenn das Unternehmen in unterschiedlichen Rechtsräumen operiert. Ganz im Einklang mit der Idee, eine einzige globale Internetstruktur zu errichten, die nicht in unterschiedliche Rechtsprechungen unterteilt oder von nationalen Regeln fragmentiert und für Nicht-US-Bürger nur sehr schwer juristisch angreifbar ist.
In diesem Kontext war die Reaktion des Europäischen Gerichtshofes (EuGH), allgemein als »Rückkehr des Rechts« verstanden, positiv: Das Gericht beantwortete die Argumentation von Google zwar innerhalb der Grenzen der Rechtsauslegung aber mit einem klaren Gespür dafür, was die Ausführungen im größeren Kontext bedeuten. Im Endeffekt wurden die Ansprüche von Google abgelehnt und so fundamentale Rechte der europäischen Staatsbürger gewahrt, basierend auf der langen europäischen Tradition des Schutzes der Privatsphäre und des Datenschutzes.
Man kann darüber spekulieren, ob Googles Argumentation keine Verantwortung für die Ergebnisse des Suchalgorithmus übernehmen zu wollen, bereits mit Weitblick auf einen Haftungsausschluss für die Produkte künftiger autonomer KI angeführt wurde. In jedem Fall war die Antwort des EuGH in diesem Fall eindeutig. Ganz aktuell spricht sich der Vorstandvorsitzende von Google gegen eine generelle Regulierung der künstlichen Intelligenz aus. Dies stünde der Innovation im Wege. Allein eine sektorspezifische Regulierung von KI sei denkbar. Was er vergisst: Das gleiche Argumentationsmuster wurde gegen die allgemeine EU-Datenschutzgrundverordnung vorgebracht. Allerdings zu Recht ohne Erfolg. Denn eine rein sektorielle Regulierung lässt zu viele Anwendungsfälle der allgemein nutzbaren KI ungeregelt und überfordert in ihrer Komplexität sowohl den Gesetzgeber als auch die Bürger. Erst brauchen wir generelle, horizontale Grundlagen. Dann können noch sektorielle Spezifika hinzukommen.
Ethische Fragen
Wenn man all das im Kontext betrachtet, gibt es einen klaren gemeinsamen Nenner: den Versuch, Verantwortung aus dem Weg zu gehen; sowohl bei der Gesetzgebung als auch bei der Rechtsprechung. Und all dies von einer kleinen Gruppe von Unternehmen, die eine nie zuvor gesehene Macht in ihren Händen bündelt. Die Debatte zu den ethischen Fragen künstlicher Intelligenz hat bereits die unzähligen Herausforderungen im Bereich der Grundrechte und der Rechtsstaatlichkeit in diesem Zusammenhang offengelegt. Es ist offensichtlich, dass KI ohne klare Regeln dem öffentlichen Gut nicht dienen kann. Das Potenzial von KI verbietet es schlichtweg, die gleichen Risiken einzugehen wie bei der Einführung des Internets, die damals zu einem rechtsfreien Raum führten. Die Möglichkeiten dieser neuen Technologie sind so immens, dass sie verheerende und irreversible gesellschaftliche Schäden anrichten können. Aber während heute KI von riesigen Unternehmen mit Milliardenbudgets entwickelt wird, kehren die naiven Argumente zurück, wodurch schon in der Frühphase des Internets viel Schaden angerichtet wurde.
Es ist ebenso klar, dass die zahlreichen Interessenkonflikte zwischen den Unternehmen und der Öffentlichkeit in Bezug auf KI nicht über lockere ethische Kodizes oder gar über Selbstregulierung gelöst werden können. Das soll aber nicht heißen, dass die Unternehmen im Diskurs über die ethischen und juristischen Herausforderungen keinen Beitrag leisten sollen. Viele Menschen, die für diese Unternehmen arbeiten, haben die besten Absichten und können wichtige Beiträge zur Debatte leisten. Auch ist eine gewisse Ausdifferenzierung in der Haltung zur Gesetzgebung zu beobachten, abhängig vom Geschäftsmodell. Ein Unternehmen wie Microsoft, das sehr viel Geld mit Dienstleistungen für Regierung und Verwaltung verdient, positioniert sich konstruktiver gegenüber Rechtsstaat und Demokratie als andere.
Angesichts der enormen Budgets der Megakonzerne, mit denen sie an vielen Stellen in Wissenschaft, Zivilgesellschaft und Öffentlichkeit präsent sind, ist es für alle, die sich an der großen Diskussion über die Regulierung des Internets und der neuen Technologien beteiligen, wichtig, klare Angaben zu den Arbeitsbeziehungen, Finanzierungen oder anderen Leistungstransfers zu machen und Interessenkonflikte offen zu legen.
Es ist erstaunlich, wie weit sich die Befürworter einer KI-Gesetzgebung zunächst in der Defensive befanden, obwohl es doch eine lange Geschichte gesetzlicher Regulierung im Technikbereich gibt. Jeder Architekt muss sich bereits im Studium mit den Bauvorschriften vertraut machen, damit das öffentliche Interesse etwa an einsturzsicheren Häusern gewahrt wird. Jedes Auto muss diverse Prüfungen bestehen, damit die Verkehrssicherheit gewährleistet werden kann. Die Einführung der Gurtpflicht, hart bekämpft von der Automobilindustrie und den Automobilclubs, hat letzten Endes die Zahl der Verkehrstoten halbiert. Immer wieder hat die Gesellschaft die Erfahrung gemacht, dass bei neuen Technologien gesetzliche Regulierung und nicht Deregulierung dem öffentlichen Interesse Vorteile gebracht hat.
Die ethischen Denkanstöße bezüglich KI haben inzwischen nicht nur gezeigt, welche Vielzahl an Anforderungen die neuen Technologien an die Gesetzgebung, die Demokratie und die Individualrechte stellen. Sie haben zudem zu einigen Katalogen mit ethischen Regeln für diesen Bereich geführt. Alan Winfield etwa, Professor für Roboterethik an der Universität Bristol, zählt zehn Verhaltenskodizes bezüglich KI auf. Die letzten Beiträge in dieser Liste sind das Statement der High Level Group der EU-Kommission zu »Trustworthy AI« vom 18. April 2019 und der Bericht der deutschen Datenethikkommission, der am 23. Oktober 2019 vorgelegt wird.
Es herrscht also kein Mangel an Vorschlägen zu ethischen Prinzipien im Umgang mit KI.
Eine andere Frage ist, ob sich unsere Demokratie nach den Erfahrungen mit dem rechtsfreien Internet erneut dem Risiko einer allgegenwärtigen und bestimmenden Technologie aussetzen soll, welche substanzielle negative Auswirkungen haben kann, wenn sie unreguliert bliebe. Im Gegensatz zum Internet ist KI nämlich nicht das Produkt von einigen Akademikern und Idealisten, sondern der mächtigsten Internetkonzerne, die es kontrollieren. Mittlerweile sind einige Repräsentanten dieser Unternehmen kürzlich selbst zu dieser Einsicht gelangt und haben zu einer KI-Gesetzgebung aufgerufen. Auch die Bundeskanzlerin forderte bei der G7-Konferenz in Japan eine gesetzliche KI Regulierung wie die Datenschutzgrundverordnung. Die neue Präsidentin der Europäischen Kommission Ursula von der Leyen hat als Orientierung vorgegeben, die EU-Kommission werde einen Vorschlag zur Regulierung der KI innerhalb von 100 Tagen ab Amtsantritt am 1. November 2019 vorlegen.
Alle Argumente, die jetzt gegen ein KI-Gesetz angeführt werden, wurden bereits vor 1995 vorgetragen, als die erste personenbezogene Datenschutzrichtlinie in der EU eingeführt wurde. Ein weiteres Mal dann bei den Verhandlungen zur Datenschutzgrundverordnung (DSGVO) in den Jahren 2012 bis 2016. Keines der Argumente konnte die Gesetzgeber überzeugen – und das zu Recht. Die Behauptung, dass sich das Recht nicht so schnell entwickeln kann wie die Technologie oder die Geschäftsmodelle ist durch die technologieneutrale Gesetzgebung in Europa widerlegt. Die DSGVO ist ein Beispiel für eine moderne, technologieneutrale Gesetzgebung, deren Bedeutung und Relevanz sich mit dem technologischen Fortschritt, auch der KI, mitentwickelt.
Trugschluss und Behauptungen
Die Behauptungen, das Recht sei nicht präzise genug, um komplexe Technologie zu regulieren, und ein Gesetz, welches nicht absolut in das Detail eines präzisen und benutzerfreundlichen Codes geht, könne kein gutes Gesetz sein, ist ein weiterer Trugschluss aus dem Blickwinkel der Programmierer. Per Definition ist der demokratische Prozess der Gesetzesfindung ein Kompromiss. Die DSGVO wurde aufgrund von beinahe 4.000 individuellen Verbesserungsvorschlägen im parlamentarischen Prozess ausgehandelt.
Gesetze werden (im Normalfall) von vernünftigen Menschen erlassen und, im Falle eines Rechtstreits, von vernünftigen Richtern interpretiert. Dieser offene Prozess der Gesetzesfindung und späteren -interpretation geben dem Gesetz die Flexibilität, sich an neue Gegebenheiten anzupassen. Gesetze müssen nicht ständig neu geschrieben werden wie Programmcodes, die von der Version 1.0 an ständig überarbeitet werden müssen.
Um es klar zu sagen: Von einem Gesetz zu verlangen, es solle so präzise oder so schnell aktualisierbar sein wie ein programmierter Code ist undemokratisch. Diese Forderung ignoriert sowohl den Grundsatz der Beratung und des Kompromisses in einer Demokratie als auch die benötigte Zeit für ein ordentliches Verfahren.
Lobbyisten hatten, nebenbei bemerkt, kein Problem damit, die verschiedenen Entwürfe des DSGVO völlig widersprüchlich zu bewerten: einerseits als nicht genau genug, um Rechtssicherheit zu schaffen, andererseits als zu sehr ins Detail gehend und nicht offen und flexibel genug. Diese gegensätzliche Kritik beweist, dass das Gesetz um jeden Preis durch Diskreditierung verhindert werden sollte. Die Behauptung, das Gesetz sei zu unflexibel um mit der technischen Entwicklung mitzuhalten, ist im Grunde nur eine etwas elegantere Art zu umschreiben, was Neoliberale schon immer gesagt haben: Wir wollen keine rechtlichen Verpflichtungen, denn dann können wir haftbar gemacht werden.
Diejenigen, die für eine KI-Ethik eintreten, stellen übrigens exakt die gleiche Behauptung auf. Mit ethischen Kodizes hat die Geschäftswelt kein Problem, denn diese entbehren jeglicher demokratischen Legitimation und können rechtlich nicht durchgesetzt werden. Genau dies ist aber der Hauptvorteil des Rechts gegenüber der Ethik. Mit der glaubhaften Androhung von Sanktionen animiert es die Entwickler, in Richtung des öffentlichen Interesses zu arbeiten.
Jede Technologie muss damit leben, dass sie durch das Recht geformt wird. Es ist Zeit, dass das Silicon Valley und die digitale Internetindustrie diese demokratische Notwendigkeit akzeptieren. In einer Zeit, in der Internet und KI alles durchdringen, könnte eine Nicht-Regulierung dieser maßgeblichen Technologien das Ende der Demokratie bedeuten. Ethische Regeln können eine Vorstufe und Orientierungshilfe auf dem Weg zur Gesetzgebung sein, können Inhalte für spätere Gesetze liefern. Aber sie können das Gesetz nicht ersetzen, ihnen fehlen die demokratische Legitimierung und die bindende Natur, mit der Gesetze von Regierungen und Gerichten durchgesetzt werden können.
Mark Zuckerberg, der Gründer von Facebook, und Brad Smith, der Präsident von Microsoft, rufen zwar neuerdings in programmatischen Texten nach Gesetzgebung. Aber wenn es konkret wird, werfen die Unternehmen doch wieder die Lobbymaschine gegen wirksame Gesetzgebung zum Schutz von Daten und Privatsphäre an. So war es zuletzt in den USA, sowohl in Kalifornien als auch im Staat Washington, in dem Microsoft seinen Sitz hat, zu beobachten.
Es wird neben dem Recht aber auch Raum geben für eine Ethik, die über das hinausgeht, was gesetzlich vorgeschrieben ist: Firmeninterne ethische Standards sind eine gute Sache, wenn sie im Einklang mit dem Gesetz des jeweiligen Landes stehen und darüber hinauswachsen, beispielsweise im Hinblick auf das öffentliche Interesse.
Vieles von dem, was die Silicon-Valley-Firmen an Gutem tun wollen, ist zu begrüßen. Es kann sie aber nicht davon freimachen, im Einklang mit Recht und Gesetz und mit Respekt gegenüber dem demokratischen Prozess zu handeln. Es ist daneben aber auch völlig klar, dass die DSGVO immer Anwendung finden muss, wenn KI mit persönlichen Daten arbeitet. Die DSGVO enthält wichtige Rechte für Verbraucher darüber, auf welche Weise ihre Daten genutzt werden dürfen und diese Regeln werden auch das Design einer KI beeinflussen. Die Prinzipien des Datenschutzes in der DSGVO sind eine wichtige Leitlinie für künstliche Intelligenz, genauso wie die Grenzen der automatisierten Datenverarbeitung und die Informationsrechte der Betroffenen. Auch die unter bestimmten Voraussetzungen notwendige Abschätzung der Konsequenzen der Verarbeitung persönlicher Daten für die davon betroffenen Menschen gewinnt in Bezug auf KI neue Bedeutung. In dieser Hinsicht ist keine neue Gesetzgebung notwendig. Allerdings müssen die Prinzipien der DSGVO in Bezug auf KI auch dann Anwendung finden, wenn mit KI Daten verarbeitet werden, die keine persönlichen Daten sind.
Es ist im demokratischen Diskurs daneben aber ebenso wichtig zu wissen, ob der Mitdiskutant ein Mensch oder eine Maschine ist. Falls Maschinen am politischen Diskurs teilnehmen, ohne als solche identifiziert zu sein, oder sich gar ungestraft als Menschen ausgeben können, würde dies zu einer ernsthaften Verzerrung des Diskurses führen, was unhaltbar für eine Demokratie wäre. Bisher sichert uns kein Gesetz zu, dass wir darauf hingewiesen werden müssen, wenn eine Maschine im politischen Kontext in einen Dialog mit uns tritt.
Ein transparenter politischer Diskurs zwischen Menschen ist aber der Schlüssel zur Demokratie. Das »Prinzip der Wesentlichkeit« schreibt vor, dass per Gesetz Transparenz darüber hergestellt werden muss, ob gerade eine Maschine oder ein Mensch spricht. Nicht gekennzeichnete Maschinen und erst recht als Menschen getarnte Maschinen müssen sanktioniert werden. Diejenigen, die die Infrastruktur des politischen Diskurses kontrollieren, müssen dafür verantwortlich gemacht werden, volle Transparenz herzustellen. Dafür werden neue Gesetze benötigt.
Wir können aber optimistisch davon ausgehen, dass das ausführliche EU-Regelwerk zur Antidiskriminierung und zum Verbraucherschutz auch im Bereich der KI Anwendung finden wird. Dies im Hinterkopf muss über einige Grundprinzipien zur KI-Gesetzgebung nachgedacht werden.
Während in Europa die parlamentarische Technologieabwägung, basierend auf Hans Jonas' Prinzip Verantwortung zur Routine geworden ist und die Folgenabschätzung als Schlüsselelement des Vorsorgeprinzips sieht, ist dies in den USA anders. Dort wurde das Office of Technology Assessment (OTA) während der Reagan-Administration geschlossen, ein früher Sieg des Anti-Science-Movements. Hillary Clinton hatte 2016 in ihrem Wahlkampf angekündigt, diese oder eine ähnliche Behörde wieder öffnen zu wollen.
Folgenabschätzung auf drei Ebenen
In Europa leben das Prinzip und die Methodik der Abschätzung von Kurz- und Langzeitfolgen neuer Technologien und die sich daraus ergebende Politikberatung aber weiter. Das Netzwerk European Parliamentary Technology Assessment (EPTA) führt die Methoden und Folgenabschätzungen für die europäischen Parlamente in einer gemeinsamen Datenbank zusammen. Um in Zeiten der KI, in Zeiten, in denen Technik immer weiter in jeden Bereich unseres Lebens vordringt, das Vertrauen in Technologie zu stärken, ist eine Folgenabschätzung auf drei Ebenen nötig.
Zunächst, wie beschrieben, eine parlamentarische Folgenabschätzung auf politischer und legislativer Ebene. Hier soll eruiert werden, auf welche Bereiche eine neue Technologie Auswirkungen haben wird und was die Legislative tun muss, damit dort das öffentliche Interesse gewahrt wird. Diese Folgenabschätzung sollte idealerweise stattfinden bevor Hochrisikotechnologien überhaupt eingesetzt werden. Die Entscheidungsmacht bezüglich der Konsequenzen, die durch eine Folgenabschätzung von Experten untersucht wurden, muss in den Händen der Regierung bzw. der Legislative liegen, auf EU-Ebene also im Verantwortungsbereich der Kommission und des Rates sowie des Parlaments als Co-Legislative.
Die zweite Ebene betrifft die Entwickler und Nutzer neuer Technologien. Für KI wäre es wichtig, eine gesetzliche Verpflichtung der Unternehmen zur Folgenabschätzung ihres Produkts einzuführen. Diese besteht bereits wenn personenbezogene Daten für automatisierte Entscheidungsprozesse genutzt werden. Das sollte auf alle Bereiche der Demokratie, auf Rechtsstaatlichkeit und Grundrechte ausgedehnt werden. Zumindest wenn die KI das Potenzial besitzt, im Bereich der öffentlichen Machtausübung eingesetzt zu werden, also in der demokratischen und politischen Sphäre oder im Bereich der Dienstleistungen von allgemeinem Interesse, unabhängig davon, ob persönliche Daten verarbeitet werden oder nicht.
Die Folgenabschätzungen auf Entwickler- und Nutzerebene würden das öffentliche Verständnis von KI dort unterfüttern, wo momentan noch ein Mangel an Transparenz und Wissen über die Auswirkungen herrschen. Die Abschätzungen würden auch dazu beitragen, dass Geschäftsführer und Entwickler sich eingestehen, welche Macht sie mit ihren Produkten tatsächlich ausüben. Auf diese Weise könnte sich eine neue Verantwortungskultur in der Techbranche für Demokratie, Rechtsstaatlichkeit und Grundrechte entwickeln.
Die Standards für solche Folgenabschätzungen vor der Veröffentlichung der KI müssten in einem allgemein formulierten Gesetz festgelegt werden. Ähnlich der Pflicht zur Folgenabschätzung in der DSGVO. Die Einhaltung sollte von staatlicher Seite kontrolliert und bei Nichteinhaltung empfindlich sanktioniert werden. Falls die KI staatlich eingesetzt oder sehr weit in der Gesellschaft verbreitet werden soll, müsste die Folgenabschätzung veröffentlicht werden. Falls es sich um eine Hochrisikotechnologie handelt, sollte der Staat eigene Untersuchungen durchführen und einen Plan zur Risikominimierung ausarbeiten. Ohne zwischen dem öffentlichen und dem privaten Sektor zu unterscheiden, stellt die Entschließung des Europäischen Parlaments vom 16. Februar 2017 mit Empfehlungen an die Kommission zu zivilrechtlichen Regelungen im Bereich Robotik (2015/2103/INL) den bisher am besten ausgearbeiteten Plan im Umgang mit KI dar. Sie enthält sowohl Ex-ante-Zertifizierungen wie auch gesetzliche Rahmenbedingungen für Forschung, Entwicklung und Nutzung.
Auf der dritten Ebene sollten Personen ein gesetzliches Recht haben, über die genaue Funktionsweise der von ihnen genutzten KI aufgeklärt zu werden. Welchen Logiken folgt sie? Wie wirkt sich ihre Nutzung auf die eigenen Interessen oder die Interessen Dritter aus? Diese Auskunftspflicht sollte auch dann bestehen, wenn keine persönlichen Daten verarbeitet werden. In diesem Fall besteht ja bereits die gesetzliche Verpflichtung der DSGVO.
In diesem Zusammenhang muss die Forderung der Techgiganten, Funktionsweisen und Entscheidungsprozesse der KI geheim halten zu wollen, zurückgewiesen werden. Es gibt bereits zahlreiche Forschungsprojekte zur Erklärbarkeit von KI. Und obwohl es zumindest dort, wo staatliche Akteure involviert sind, eine gesetzliche Auskunftspflicht gibt, sieht die Realität aber so aus, dass Unternehmen die Funktionsweise ihrer KI weitgehend geheim halten und öffentliche Behörden ihrer Auskunftspflicht gar nicht nachkommen können, wenn sie diese KI nutzen wollen.
Aus all diesen Gründen benötigen wir eine intensive Folgenabschätzung von KI auf den drei genannten Ebenen, um den Dialog zwischen Technologie und Demokratie weiterzuentwickeln. Dies ist entscheidend zu einer Zeit, in der KI allgegenwärtig wird und immer mehr Einfluss darauf hat, wie wir unser Leben führen. Sollte die Debatte darüber zu einem neuen Verantwortungsbewusstsein der Entwickler für Demokratie, Grundrechte und Rechtsstaatlichkeit führen, dann hat künstliche Intelligenz schon viel an Vertrauen und Akzeptanz in der Gesellschaft hinzugewonnen.
(Aus dem Englischen von Julian Heidenreich und aktualisiert von Paul Nemitz.)
Kommentare (0)
Keine Kommentare gefunden!