Zur Startseite Neue Gesellschaft/Frankfurter Hefte - Aktuelle Ausgabe
 
 

Suche

Aktuelles

Heft 1/2 | 2018

Justin Grapentin

Zivilrechtliche Haftung beim Einsatz Künstlicher Intelligenz

In der jüngsten Vergangenheit haben intelligente und autonom handelnde Computersysteme wiederholt für negative Schlagzeilen gesorgt und damit die öffentliche und fachliche Debatte um die Risiken moderner Computertechnologien angeheizt. Da wäre etwa der Zusammenstoß eines autonom fahrenden Elektroautos der Marke Tesla mit einem LKW-Anhänger in den USA, bei dem der Fahrer des PKW tödlich verunglückte. Oder man denke an die wahrscheinliche Beeinflussung des US-Präsidentschaftswahlkampfes durch intelligente »Social Bots« in den sozialen Netzwerken. Allein diese beiden Fälle verdeutlichen das Risikopotenzial einer zunehmenden Digitalisierung unserer Gesellschaft und werfen komplexe juristische Fragen auf. Besonders ausführlich und emotional wird darüber diskutiert, wie die Handlungen autonom agierender Computerprogramme strafrechtlich geahndet werden können. Ein Dauerbrenner ist zudem die Auswertung von persönlichen Daten durch eine Big-Data-Analyse, etwa im Rahmen der Vorratsdatenspeicherung.
        Ein weiteres Anwendungsfeld für intelligente Computersysteme mit vielfältigen – juristischen – Problemen findet in der bisherigen Auseinandersetzung allerdings nur wenig Beachtung. Wer sich im Internet bewegt und die Vorteile von Suchmaschinen oder spezieller Softwares zur Optimierung ganzer Lebensbereiche (beispielsweise beim »Smart Home«) nutzt, setzt sich auch den Handlungen dieser intelligenten Softwares aus. Seit dem Durchbruch des E-Commerce in den 90er Jahren kommen intelligente Computersysteme (sogenannte Softwareagenten) zunehmend im Bereich des digitalen Vertragsschlusses zur Anwendung. Daraus ergeben sich komplizierte zivilrechtliche Problemstellungen, die von Expert/innen bereits erkannt, aber nicht immer hinreichend gelöst wurden. Im Folgenden soll daher ein Überblick über die Haftungsgrundsätze im deutschen Zivilrecht gegeben und die aktuelle Fachdebatte zur vertragsrechtlichen Haftung beim Einsatz eines intelligenten Computersystems nachgezeichnet werden.
 
Vertragshaftung im deutschen Zivilrecht
Das deutsche Zivilrecht unterscheidet bei der Haftung für Schäden im Wesentlichen zwischen der (verschuldensunabhängigen) Gefährdungs- und der Verschuldenshaftung. Die Gefährdungshaftung erfasst einen großen Bereich von Schäden, indem sie an die abstrakte Gefährlichkeit eines Gegenstandes oder eines Gebäudes anknüpft. Obwohl dieses Risiko durch die Gesellschaft grundsätzlich toleriert wird (etwa der Betrieb einer Tankstelle oder eines Kraftfahrzeugs), muss im Schadensfall zunächst der Betreiber verschuldensunabhängig für den Ersatz aufkommen. Alleine das Unterhalten des gefährlichen Gegenstandes begründet die Haftung. Daher lässt sich für den Bereich der Gefährdungshaftung die Frage nach der Regresspflicht beim Einsatz eines intelligenten und autonom handelnden Systems verhältnismäßig leicht beantworten. Setzt der Nutzer ein solches System ein und wird hierdurch ein Schaden verursacht, so muss er diesen ersetzen, wenn eine entsprechende gesetzliche Gefährdungshaftungsvorschrift existiert. So trifft beispielweise den Halter eines PKW gemäß § 7 Straßenverkehrsgesetz (StVG) eine umfangreiche Einstandspflicht für Schäden, die durch den Betrieb des Fahrzeuges verursacht werden. Im Rahmen der Gefährdungshaftung macht es dann keinen Unterschied, ob der Halter selbst, ein anderer Fahrer oder ein Computersystem durch einen Fahrfehler einen Schaden verursacht; es haftet stets der Fahrzeughalter. Ob dieser letztlich auf den Kosten des Schadens sitzen bleibt ist allerdings eine Frage, die die Regelung des Schadensersatzes gegenüber dem Hersteller oder dem Verkäufer des Fahrzeugs betrifft. Die Gefährdungshaftung löst also mit der Schädigung eines Rechtsgutes einen Haftungsanspruch aus; ob das eingesetzte Computersystem falsch oder richtig gehandelt hat, ob es defekt war oder einwandfrei funktionierte, spielt zunächst keine Rolle.
        Anders als bei der Gefährdungshaftung setzt die Verschuldenshaftung ein persönliches Fehlverhalten des Schädigers voraus. Hierbei muss er grundsätzlich nach § 276 Abs. 1 des Bürgerlichen Gesetzbuches (BGB) nicht nur Vorsatz, sondern auch Fahrlässigkeit verantworten, wenn er die im Verkehr erforderliche Sorgfalt außer Acht lässt. Welche Anforderungen an diese Sorgfaltspflichten im Straßenverkehr zu stellen sind, ist beim Einsatz intelligenter Computersysteme noch weitgehend ungeklärt. Der Verschuldenshaftung liegt der Gedanke zugrunde, dass das schädigende Ereignis bei Anwendung pflichtgemäßer Sorgfalt voraussehbar und vermeidbar gewesen wäre. Insbesondere im Vertragsrecht ist es dann problematisch, wenn die wesentlichen Handlungen (Vertragsverhandlungen und -abschluss) nicht vom Nutzer selbst, sondern von einer Software vorgenommen werden. Schließen zwei oder mehrere Parteien einen Vertrag, so begründen und übernehmen sie für die anderen Partner wechselseitige Schutzpflichten. In dieser Phase ist es möglich, dass das eingesetzte Computersystem den potenziellen Vertragspartner über die Leistungsbereitschaft und -fähigkeit des Nutzers unzureichend aufklärt und sodann ein, für den Nutzer oder Vertragspartner unerfüllbares Leistungsversprechen abgibt. Angenommen eine Verkaufssoftware – die ihrer Programmstruktur nach ohne Einschränkungen oder Weisungen zu handeln imstande ist – wird mit der Veräußerung eines Produkts beauftragt. Dann wird sie den Markt analysieren, womöglich Teile des Produkts veräußern oder mit weiteren Teilprodukten ergänzen (dies ist heute bereits bei Finanzmarkttransaktionen durchaus üblich). Trifft sie bei ihren Aktivitäten auf Konkurrenten, so ist es wahrscheinlich, dass sie andere Ankaufs- und Verkaufssysteme gezielt beeinflusst, um ihr eigenes Produkt attraktiver wirken zu lassen oder sie unternimmt weitere Handlungen, um unliebsame Gegenspieler zu verdrängen. Wie sich die Software letztlich verhält, welche Schlüsse sie zieht und zu welchem Gesamtergebnis sie gelangt, ist nicht mehr (auch nicht von ihren Programmierern) vorhersehbar. Sollte die Software nun aufgrund einer autonomen Entscheidung schadensersatzauslösende Handlungen vornehmen, stellt sich die Frage, ob Nutzer oder Hersteller der Software dafür haften. Doch wie weit soll und kann die Verantwortung gehen, wenn ein Computersystem eingesetzt wird, dessen Verhalten unvorhersehbar ist?
        Ob die Haftung einseitig dem Nutzer des Softwareagenten aufgebürdet und ein Verschulden seinerseits angenommen werden kann, ist mit Blick auf die übrigen Regelungen des deutschen Schuldrechts fragwürdig: Würde sich der Nutzer nicht eines Computersystems bedienen, sondern eine reale Person zur Erfüllung seiner vertraglichen Pflichten einsetzen, müsste auch diese – der Erfüllungsgehilfe – die im Verkehr erforderliche Sorgfalt gemäß §278 BGB außer Acht lassen, um eine vertragliche Haftung für den Nutzer zu begründen. Handelt der Erfüllungsgehilfe hingegen pflichtgemäß, entfällt auch die Haftung des Nutzers. Da es einem Computersystem jedoch an der notwendigen Rechts- und Einsichtsfähigkeit fehlt und es nicht richtig oder falsch handeln kann – alle vorgenommenen Handlungen sind das Ergebnis einer mathematisch korrekten Berechnung, selbst wenn das Ergebnis objektiv falsch ist – kann sich der Nutzer auch nicht auf ein fehlendes Verschulden des (digitalen) Erfüllungsgehilfen nach § 278 BGB berufen. Dies erscheint jedoch aus zwei Gründen als nicht angemessen: Zum einen sind sich beide Situationen ähnlich. Es kann im Ergebnis keinen Unterschied machen, ob der Erfüllungsgehilfe eine reale Person oder ein intelligentes und autonom handelndes Computersystem ist. Zum anderen steigt das Risiko der Haftung, je intelligenter und autonomer ein Computersystem zu handeln imstande ist. Letztlich müsste der Nutzer für alle entstehenden Schäden in unbegrenzter Höhe aufkommen. Dann aber wäre die Risikoverteilung für den Einsatz dieser neuen Technologien äußerst einseitig. In der Fachliteratur gibt es daher erste Stimmen, die den Nutzer nur zur sorgfältigen Überwachung des Systems verpflichten wollen und eine Verschiebung der Haftung auf den Hersteller der Software nach dem Produkthaftungsgesetz befürworten. Denn letztlich könne nur der Hersteller Einfluss auf diese in Form von Updates u. ä. nehmen. Ob diese Verschiebung angebracht ist, um – gerade mit Blick auf den Schutz des Geschädigten – der Schadensbegleichung ausreichend Rechnung zu tragen, darf indes bezweifelt werden. Denn auch eine Updatepflicht führt nicht zur Vorhersehbar- und Kontrollierbarkeit der vom Computersystem getroffenen Entscheidung. Außerdem wäre in diesem Fall der Geschädigte womöglich gehalten, sich an den Hersteller (und damit an einen für ihn bis dahin völlig Fremden) zu wenden, um ihn für seine Schäden in Regress zu nehmen.
        Neben den beiden dargestellten Bereichen der  zivilrechtlichen Haftung gibt es natürlich noch weitere Ansprüche eines Geschädigten gegenüber dem Nutzer eines intelligenten Computersystems. Wird jemand durch einen Social Bot in seinen Persönlichkeitsrechten verletzt, so steht dem Geschädigten nach § 1004 BGB ein verschuldensunabhängiger Unterlassungsanspruch zu. Allerdings ist ein solcher Anspruch kaum durchsetzbar, da der Nutzer des Bots in der Regel nur schwer zu identifizieren ist. Ob sich der Geschädigte stattdessen an die jeweilige Plattform (etwa an Facebook, Instagram oder Xing) halten kann, erscheint fraglich, da § 1004 BGB einen Anspruch auf Unterlassen gegen den Störer begründet, der Plattformbetreiber selbst aber nicht als solcher, sondern allenfalls mittelbar, in Erscheinung tritt.
 
Was folgt daraus?
Der Einsatz Künstlicher Intelligenz stellt die Rechtswissenschaft in vielen Bereichen (noch) vor große Probleme. Der Ansatz einer Haftungsverschiebung vom Nutzer auf den Hersteller erscheint im ersten Moment sachgerecht, da nur er – der Programmierer – das System genau kennt und Einflussmöglichkeiten auf die Programmstruktur hat, bevor und nachdem es »in den Verkehr« gebracht wird. Ob sich diese Ansicht letztlich durchsetzen wird kann hingegen bezweifelt werden, da auch das Produkthaftungsgesetz ein mangelhaftes Produkt voraussetzt. Wann dies jedoch bei einer intelligenten Software der Fall sein kann ist problematisch, da die ausgeführte Handlung das Resultat einer mathematisch korrekten Berechnung ist. Dies gilt selbst dann, wenn das Ergebnis vom Nutzer in keinem Fall gewollt war. Außerdem führt eine alleinige Haftung des Herstellers dann zu einem unangemessenen Ergebnis, wenn sich der Nutzer über den Umstand der Unvorhersehbarkeit (ohne umfangreiche technische Kenntnisse zu haben) bewusst ist und sich gerade diese Eigenschaft zunutze machen will. Letztlich nimmt er damit eine Schädigung anderer in Kauf. Dann aber wäre es auch unangemessen, wenn der Vertragspartner seinen Anspruch auf Schadensersatz gegenüber einer bisher fremden Partei geltend zu machen und einseitig das Insolvenzrisiko des Herstellers zu tragen hätte. Vielmehr rückt dann u. a. gemäß § 254 BGB das Mitverschulden in den Fokus.
        In dieser schwierigen Frage eine Balance zu schaffen, die zu gerechten Ergebnissen führt, ist wahrlich keine leichte Aufgabe. Letztlich kommt es auf eine Wertungsentscheidung an, die nur der Gesetzgeber treffen kann. Wann sich die Politik mit diesen Problemen der Digitalisierung befassen wird, ist derweil noch nicht absehbar. Wenn sich – und davon ist auszugehen – die Schadensfälle häufen, wird sich auch der Gesetzgeber einer vertieften Auseinandersetzung nicht mehr entziehen können.
 


Finde uns auf Facebook