Die autonome Künstliche Intelligenz: Zwischen Mensch und Maschine?!

Autor: Paul Maier*

Artikel herunterladen

Thema dieses Beitrags ist der Vertragsschluss durch eine Künstliche Intelligenz mit hohem Autonomiegrad. Dabei wird vergleichend auf automatisierte Willenserklärungen Bezug genommen und eine durch die KI abgegebene Erklärung rechtlich gewürdigt. Im Anschluss wird ein Überblick über die Haftung autonomer Systeme und deren Konstruktion verschafft sowie am Beispiel von § 15 I AGG eine Gefährdungshaftung durch eine europarechtskonforme Auslegung diskutiert.

A. Einleitung

Die Welt befindet sich in einem digitalen Wandel, der mit atemberaubender Geschwindigkeit immer weiter voranschreitet. Dabei entwickeln sich Künstliche Intelligenzen stetig weiter. In der Konsequenz treffen intelligente Systeme losgelöst von menschlichem Einfluss Entscheidungen. Mit dieser Weiterentwicklung geht die Frage einher, ob das BGB mit dem Fortschritt noch mithalten kann. Dabei ist klar, dass der technische Fortschritt durch unsere Rechtsordnung ummantelt werden muss. Folglich müssen frühzeitig die rechtlichen Weichen für die kommende Autonomisierung gestellt werden. Im Folgenden soll auf Problematiken, die im Zusammenhang mit dem Einsatz Künstlicher Intelligenzen auftreten, eingegangen werden. Insbesondere sollen die Probleme des Vertragsschlusses und des Verschuldens in Interaktion mit einer Künstlichen Intelligenz mit hohem Autonomiegrad dargestellt und etwaige Lösungswege aufgezeigt werden. Dabei wird vertieft auf die Rolle der KI im Recruiting-Prozess von Unternehmen und die damit verbundene Haftungsfrage eingegangen.

B. Vertragsschluss

Um sich mit der Problematik der Willenserklärung von autonomen Künstlichen Intelligenzen vertraut zu machen, ist es elementar, sich den allgemeinen Umgang mit automatisierten Willenserklärung eines Systems in Erinnerung zu rufen. Indem das System wie ein Bote behandelt wird, ist die automatisierte Willenserklärung dem Betreiber zuzurechnen. Denn hier wird dieselbe Erklärung, die zuvor programmiert wurde, durch das System abgeben. Aufgrund des Einsetzens des Systems als Übermittler der Willenserklärung, hat dieses keinen Einfluss auf den Vertragsschluss. Daher ist der Inhalt im Voraus bestimmbar und vorhersehbar. Bei einer KI wird zwar auch eine Programmierung vorgenommen, diese bezieht sich aber nur auf den Rahmen, in dem das intelligente System agieren kann. Bei Willenserklärungen von Künstlichen Intelligenzen handelt es sich nicht um vorab festgelegte Willenserklärungen, die nur durch das System abgebeben werden. Im Gegenteil, bei einer Künstlichen Intelligenz bestimmt gerade diese den Inhalt der Erklärung anhand des bisher erlernten Algorithmus; und das völlig autonom von dessen Betreiber.

Der entscheidende Unterschied liegt somit in der Entscheidungsgewalt der autonomen KI, welche durch weite und unpräzise Rahmenbedingungen geschaffen wird. Hinzukommt, dass sich die KI eigenständig weiterentwickeln kann. Sie verliert damit einen großen Teil ihrer Werkzeugeigenschaft. Dabei deutet sich eine gewisse Parallele an: Die KI ähnelt aufgrund ihres Spielraums einem menschlichen Vertreter, wohingegen ein System, das vorgefasste automatische Willenserklärungen abgibt, Ähnlichkeit mit einem Boten aufweist.

I. Stellvertretung und Botenschaft

Dementsprechend werden Stimmen in der Literatur laut, die eine auf die §§ 164 ff. BGB beschränkte Teilrechtsfähigkeit autonomer Systeme fordern und somit das Stellvertretungsrecht gem. §§ 164 ff. BGB anwenden wollen.[1] Hierbei soll das autonome System einem minderjährigen Vertreter i.S.d. § 165 BGB gleichgestellt werden[2] und dessen Eigenhaftung gem. § 179 Abs. 3 BGB ausgeschlossen werden.[3] Andere wiederum wollen die Abgabe von Willenserklärungen durch autonome Systeme als Unterfall der „Automatisierten Willenserklärung“ einordnen. [4]

Zunächst ist festzuhalten, dass eine KI keine Rechtsfähigkeit besitzt.[5] Geht es nicht um die allgemeine Teilhabe am Privatrechtsverkehr, sondern um die Fähigkeit, Träger ganz bestimmter Rechte und Pflichten zu sein, handelt es sich um besondere Rechtsfähigkeiten wie eine Teilrechtsfähigkeit.[6] Nach der Personenlehre des BGB können nur natürliche Personen gem. § 1 BGB oder juristische Personen durch Kodifizierung rechtsfähig sein,[7] vgl. §§ 21, 22 BGB, 13 GmbHG, 1 AktG.[8] Würde man hingegen die Fähigkeit, das eigene Verhalten zu kontrollieren und zu beherrschen, als ausschlaggebendes Kriterium für die Anerkennung eines rechtsfähigen Subjekts ansehen,[9] könnten autonome Systeme als juristische Verantwortungsträger qualifiziert werden.[10]

Jedoch ist äußerst zweifelhaft, ob eine autonome KI einen Willen haben kann, der Voraussetzung für eine eigene Willenserklärung und zugleich Stellvertretung ist. So ist der Wille etwas Menschliches. Durch ihn können Menschen ihre Entscheidungen determinieren und im Zuge dessen ein Verhalten entwickeln. Der KI einen Willen zuzusprechen, erscheint deshalb problematisch, da diese ihre Entscheidungen lediglich auf der Grundlage von Berechnungen und objektiven Werten trifft. Einen Willen zeichnet es aber im Gegensatz zur bloßen Rechnung gerade aus, Entscheidungen auf Basis anderer Faktoren wie Motive oder Emotionen zu treffen. Ein Wille ist folglich viel komplexer als eine reine Zahlenrechnung und eine Teilrechtsfähigkeit ist im Ergebnis abzulehnen.

Damit ist die Stellvertretung allenfalls durch eine Analogie zu §§ 164 ff. BGB möglich. Eine Regelungslücke sowie eine vergleichbare Interessenslage liegen unproblematisch vor. Damit ginge allerdings auch die Haftung gem. § 179 BGB einher. Folgte man aber der ersten Ansicht unter der Modifikation, dass eine Analogie gebildet wird, so würde die Haftung gem. § 179 Ab. 3 BGB beschränkt. In der Konsequenz wird das Risiko der Einschaltung und des Fehlverhaltens der KI ohne Grund auf den Vertragspartner abgewälzt. Zugleich könnte sich der Geschäftsherr stets auf eine fehlende Bevollmächtigung berufen, sollte eine eigenständige, nicht vom Algorithmus erfasste Entscheidung getroffen worden sein.[11] Auch wäre dem Vertragspartner aufgrund der vermögenslosen KI ein Regress unmöglich.[12] Im Ergebnis profitiert der Geschäftsherr durch das effizientere und kostensparende Verwenden der KI, während sein Gegenüber das Risiko des Fehlverhaltens der KI trägt und dabei keine Möglichkeit hat, Regress zu nehmen. Dies erscheint nicht interessensgerecht.

Daher wird ein Haftungsdurchgriff auf den Geschäftsherrn gefordert.[13] Dies folge aus dem Prinzip der Risikonutzung.[14] So muss derjenige, der die Vorteile einer risikoerhöhenden Automation für sich in Anspruch nimmt, auch die damit verbundenen spezifischen Risiken in Gestalt der Zurechnung selbst unliebsamer Willenserklärungen tragen.[15] Dagegen spricht aber, dass die KI völlig autonom agiert und es der Natur der Stellvertretung fernliegt, eine Durchgriffshaftung zu bejahen. So ist es gerade das Telos des § 179 BGB, die Haftung auf den Stellvertreter zu begrenzen.

Vor dem Hintergrund dieser Haftungsfrage ist daher zu erörtern, ob eine Handhabung der Willenserklärung der KI als Unterfall der automatisierten Willenserklärung angemessener ist. Hierbei erscheint der Handlungsspielraum der KI, dem eine Anwendung der §§ 164 ff. BGB gerecht käme, problematisch.

Allerdings ließe sich argumentieren, dass die generelle Teilnahme am Rechtsverkehr auch bei Nutzung autonomer Systeme immer auf einen menschlichen Willen zurückgeht.[16] Demensprechend besitzt derjenige, der sich für die Vornahme rechtsgeschäftlicher Erklärungen im Rechtsverkehr eines autonomen Software-Algorithmus bedient, einen generellen Handlungswillen und ein allgemeines Erklärungsbewusstsein.[17] Gleichwohl wird die Vorstellung des Nutzers von den Erklärungen der KI bei steigender Autonomie und vermehrter Einbeziehung von Umweltfaktoren beim Zustandekommen des Erklärungsbewusstseins immer allgemeiner und unpräziser.[18] Zugleich kann eine selbstverfasste Willenserklärung einer KI, die eigenständig lernt, ab einem gewissen Punkt die zuvor festgelegten Parameter überschreiten. Ab diesem Zeitpunkt kann das Handeln mithin nicht mehr auf einen menschlichen Willen zurückgeführt werden.[19]

Des Weiteren erscheint die Zurechnung eines konkreten Geschäftswillens bei eigenständigem Handeln der KI problematisch,[20] sodass die Möglichkeit der Anfechtung gem. § 119 Abs. 1 BGB bestünde.[21] Dies spräche wiederum für eine Behandlung der KI als Botin. Ebenso käme es bei dieser Kategorisierung nicht zu einem untypischen Haftungsdurchgriff, da der Bote bei ordnungsgemäßer Übermittlung grundsätzlich keine Haftung übernimmt.[22] Problematisch erscheint dennoch der sehr große Handlungsspielraum der KI, welcher in einer diametralen Beziehung zur Position des Boten als bloßer Überbringer steht.[23]

Mithin ist eine Einstufung der KI als Unterfall der automatisierten Willenserklärung aufgrund ihrer bedeutenden autonomen Entscheidungskraft zu verneinen. Aber auch eine analoge Stellvertretung ist wegen des resultierenden Haftungsvakuums nicht anzunehmen.

II. Blanketterklärung

Die im BGB kodifizierten Rechtsinstitute der Stellvertretung und der Botenschaft kommen mithin zu keinem befriedigenden Ergebnis. Sich dies vor Augen haltend, kommt eine Einordnung als Blanketterklärung in Betracht. Eine solche liegt vor, wenn der Blankettnehmer aufgrund einer Ausfüllermächtigung eine inhaltlich absichtlich unvollständige, aber vom Blankettgeber bereits unterzeichnete Erklärung vervollständigt.[24] Die Blanketterklärung steht damit dogmatisch zwischen Stellvertretung und Botenschaft.[25] Der Blankettnehmer hat den Entscheidungsspielraum des Stellvertreters, während die Erklärung, die dem Blankettgeber als eigene Willenserklärung zugerechnet wird, nur durch den Blankettnehmer als Boten ausgefüllt und abgegeben wird.[26] Dabei wird die Erklärung dem Blankettgeber zugerechnet, sodass sich das zuvor angesprochene Haftungsvakuum schließt. Eine Zurechnung des durch den Blankettnehmer ausgefüllten Teils der Erklärung erfolgt über die §§ 164 ff. BGB analog.[27]

Allerdings muss hierbei geklärt werden, ob eine Anwendung der Blanketterklärung auf autonome Systeme angezeigt ist. Man könnte in der Installation und der Aufgabenverteilung der KI das unvollständige Dokument sehen, das anschließend durch den Algorithmus ausgefüllt wird.[28] Auch bei einer Blanketterklärung hat der Erklärende keinen direkten Einfluss auf den Inhalt der Erklärung.[29] Ist eine KI involviert, ist der Blankettnehmer jedoch kein Mensch, sondern ein Programm, dem Entscheidungskompetenz eingeräumt wird. Rechnet man aber die Erklärung eines anderen Menschen zu, dann doch erst recht, eine Erklärung, die von einem Programm abgegeben wurde, das man selbst installiert hat.  Insofern bestehen für die Anwendung keine Hindernisse.

Es ist aber zu bedenken, dass eine grundsätzlich zulässige Anfechtung bei fehlerhafter Vervollständigung aufgrund des schutzwürdigen Vertrauens der Gegenseite gem. § 172 BGB analog ausgeschlossen ist.[31] Im Hinblick auf die Risikolehre ist dies auch angebracht. Nach dieser muss sich der Verwender eine solche Erklärung zurechnen lassen, da er das Risiko selbst gesetzt hat. Er kann dafür Regress beim Blankettnehmer nehmen, mangels Haftungsmasse aber nicht an einer KI. Folglich setzt sich der Verwender einem erheblichen Haftungsrisiko ohne Rückgriffsmöglichkeiten aus. Der Betreiber ist sich dessen bei Inbetriebnahme bewusst. Auch profitiert er als einziger vom Einsatz der KI, sodass hierin keine nachteilige Risikoverteilung liegt.

C. Haftung und Zurechnung

Der Einsatz von KIs führt jedoch nicht nur zu Problemen im Zusammenhang mit Vertragsschlüssen. In logischer Konsequenz des Einsatzes von KIs stellt sich die Frage der Haftung. Eine besondere Bedeutung kommt dieser Thematik vor dem Hintergrund der Autonomie der KI zu, die sie von herkömmlichen Werkzeugen unterscheidet.

Diese Problematik realisiert sich insbesondere, wenn im Recruiting von großen Unternehmen Künstliche Intelligenzen eingesetzt werden. Dabei sollen die autonomen Systeme bspw. Bewerbungen eigenständig bearbeiten und ohne Einfluss der Mitarbeiter Zu- und Absagen erteilen. Dies wird durch supervised learning erreicht. Hierbei wird die KI mit vielen verschiedenen Personenprofilen versorgt, bei denen bereits über eine Annahme oder Absage entschieden wurde. Anhand dessen versucht die KI vergleichend Entscheidungen zu treffen (binäre Klassifizierung). Indes erscheint eine 100%ige Genauigkeit der KI unrealistisch, sodass nicht auszuschließen ist, dass die Künstliche Intelligenz Entscheidungen entgegen dem Willen des Arbeitgebers trifft und dabei gegen die in § 1 AGG festgelegten Grundsätze verstößt. Dabei sind vor allem Minderheiten und Frauen (bspw. bei einer Ablehnung aufgrund einer potenziellen Schwangerschaft) betroffen. Im Zuge der Autonomie der KI und deren Fähigkeit sich selbstständig weiterzuentwickeln, kann es zu fehlerhaften Entscheidungen seitens der KI kommen, die einen Schadensersatzanspruch nach § 15 Abs. 1 AGG gegen das Unternehmen begründen. Allerdings verlangt § 15 Abs. 1 AGG ein Verschulden des Arbeitgebers. Es ist daher zum einen zu klären, wie die KI hinsichtlich eines eigenen Verschuldens einzuordnen ist, zum anderen, ob ihr Agieren dem Verwender zurechenbar ist.

I. Schuldfähigkeit der KI

Zunächst liegt es nahe, eine mögliche Schuldfähigkeit für Künstliche Intelligenzen zu konstruieren. Allerdings setzt Verschulden nach allgemeinem Verständnis eine willentliche Steuerung des eigenen Handelns voraus.[32] Zwar besitzt eine KI eine gewisse Autonomie, dies lässt aber noch nicht den Schluss auf eine selbstbestimmte Entscheidung der KI zu. So beruht die Fähigkeit der KI autonom zu handeln und Entscheidungen zu treffen, letztlich auf dem Willen des Entwicklers.[33] Mithin ist die KI nur in dem Maße autonom, welches der Programmierer ihr zugestanden hat.[34] Gleichwohl darf nicht verkannt werden, dass die KI bei einem hohen Grad an Autonomie nicht mehr direkt durch Menschen gesteuert wird und zugleich gelernt hat, sich unbeeinflusst von der Programmierung weiterzuentwickeln.[35] Jedoch beruht auch die Fähigkeit der KI auf dem Entschluss des Herstellers, ihr diese Möglichkeit einzuräumen. Zudem geht das BGB von einer grundsätzlichen Schuldfähigkeit eines Menschen aus und wurde nicht für künstliche Intelligenzen konzipiert. Eine Rechtsfähigkeit der KI ist abzulehnen, sodass auch eine Schuldfähigkeit und Haftung der KI selbst ausscheidet.[36]

II. Die Zurechnung des Agierens der KI

Dabei ist zu überlegen, ob eine direkte Zurechnung zu der dahinterstehenden Person erfolgen kann.[37] Wie dargelegt, ist eine KI nicht rechtsfähig und kein Haftungssubjekt, sodass ihre Handlungen auf die dahinterstehenden Personen zurückgeführt werden müssen. Gleichzeitig kann ab einem gewissen Grad an Autonomie und Weiterentwicklung nicht mehr mit Sicherheit gesagt werden, ob eine vom System abgegebene Erklärung tatsächlich vom Nutzer stammt und diesem zurechenbar ist.[38] Um eine Zurechnung trotz fehlender Schuldfähigkeit zu konstruieren, kommt eine analoge Anwendung mehrerer Zurechnungsnormen in Betracht.[39]

Eine Zurechnung könnte durch § 278 BGB analog auf Künstliche Intelligenzen erfolgen.[40] So macht es für einen außenstehenden Dritten keinen Unterschied, ob ein Unternehmen für einen Entscheidungsprozess Menschen oder eine KI einsetzt.[41] Auch trägt der Arbeitgeber für die Arbeitnehmer Verantwortung, welche er in wirtschaftlichen Prozessen einsetzt.[42] Somit ist nicht ersichtlich, wieso eine KI sich außerhalb dieses Verantwortungsbereichs bewegen sollte. Gegen eine Anwendung spricht, dass Entwicklungen und Entscheidungen selbstlernender autonomer Systeme für das Unternehmen nicht vorhersehbar sind.[43] Mithin kann hieran nicht für eine Zurechnung angeknüpft werden.[44] Aber auch die vielen verschiedenen Formen von KI’s und das fehlende einheitliche Begriffsverständnis sprechen gegen eine Analogie.[45]

Möglicherweise könnte eine verschuldensunabhängige Zurechnung gem. § 833 S. 1 BGB analog die Lösung sein.[46]  Der Betreiber eröffnet durch den Einsatz von KIs eine Betriebsgefahr und zieht selbst wirtschaftliche Vorteile aus deren Einsatz. Deshalb erscheint eine Gefährdungshaftung ähnlich wie im Straßenverkehr oder beim Halten von Luxustieren gerechtfertigt, insbesondere da sich Verwender den täglichen Gefahren durch die Zusammenarbeit mit Robotern nur schwer entziehen können.[47] Beipielsweise trifft den Halter eines Tieres die Haftung für Schäden, die durch das Tier verursacht werden. Dabei differenziert das BGB nach Luxus- und Nutztieren:[48] Die Tierhalterhaftung ist für Luxustiere als Kausalhaftung ausgestaltet,[49] während es sich bei Nutztieren um eine Verschuldenshaftung handelt, vgl. § 833 S. 2 BGB. Wollte man dies nun auf KI’s übertragen, so wäre zum einen zweifelhaft, weshalb für „Nutz-KI‘s“ eine verschuldensabhängige und für „Luxus-KI‘s“ eine verschuldensunabhängige Haftung gelten sollte. Zudem erscheint es problematisch, wie diese beiden Formen voneinander abzugrenzen sind. Es mangelt mithin an einem trennscharfen allgemeinen Abgrenzungskriterium, weshalb eine Zurechnung nicht durch § 833 BGB analog zu bewältigen ist.[50]

Eine zufriedenstellende Zurechnungsnorm stellt auch nicht § 31 BGB analog dar. Diese Zurechnung wird allgemein für Repräsentanten eines Unternehmens verwendet und kommt der KI dahingehend nahe, dass auch sie nach außen hin als Repräsentantin auftreten kann. Allerdings erscheint die Gleichsetzung einer KI bspw. mit einem Vorstandsmitglied einer Gesellschaft doch etwas zu weitgehend. Ohnehin würde dies eine außergewöhnliche Ausweitung des Anwendungsbereichs der Norm zur Folge haben. Die Zurechnungsnormen des BGB scheitern hier somit.

III. Europarechtskonforme Auslegung des § 15 I AGG

Allerdings wird über eine verschuldensabhängige Haftung für Künstliche Intelligenzen gestritten.[51] Dabei werden Versicherungslösungen[52] und eine Gefährdungshaftung[53] diskutiert. Die Überlegung einer Gefährdungshaftung könnte im konkreten Bezug auf § 15 Abs. 1 AGG vielleicht gar nicht erforderlich sein, da dieser nicht nur ein Verschulden seitens des Arbeitgebers verlangt, sondern darüber hinaus das Verschulden sogar vermutet. Man könnte deshalb meinen, der Arbeitnehmer sei durch die Beweislastumkehr des § 15 Abs. 1 S. 2 AGG ausreichend geschützt.

Gelingt es aber dem Unternehmen, die Verschuldensvermutung des § 15 Abs. 1 S. 2 AGG zu widerlegen, indem aufgezeigt wird, dass eine Verschuldenszurechnung de lege lata nicht möglich ist, hinterließe dies ein untragbares Haftungsvakuum in einem stark frequentierten Bereich. Dem könnte man aber durch eine europarechtskonforme Auslegung des § 15 Abs. 1 AGG begegnen. Denn die Europarechtrichtlinie, im Zuge derer die Haftung nach § 15 AGG eingeführt wurde, sah eine verschuldensunabhängige Haftung vor.[54] Daher soll im Folgenden eine Gefährdungshaftung diskutiert werden, die das ansonsten drohende Haftungsvakuum schließt.

Bei einer Gefährdungshaftung soll derjenige, der zu seinem Nutzen einen gefährlichen Betrieb unterhält, den Schaden tragen, der in der Verwirklichung des Risikos bei anderen entsteht und von diesem nicht verhindert werden kann.[55] Problematisch ist aber, ob die Haftung nach § 15 Abs. 1 AGG überhaupt erweitert werden darf. Hiergegen spricht der ausdrückliche Wortlaut des § 15 Abs. 1 S. 2 AGG, der eine Verschuldenshaftung verlangt. Auch ist das Prinzip der Verschuldenshaftung grundtypisch für das Zivilrecht. Jede Ausnahme verschuldensunabhängiger Haftung ist normiert, vgl. §§ 1 ProdHaftG, 536a BGB. Daher erscheint es problematisch, eine verschuldensunabhängige Haftung als Rechtsinstitut ohne Anker im Gesetz zu entwickeln. Aus systematischer Sicht ist anzumerken, dass in § 15 Abs. 2 AGG eine verschuldensunabhängige Haftung vorgesehen ist. Diese erstreckt sich zwar auf immaterielle Güter. Hierdurch wird aber eine Wertentscheidung des Gesetzgebers deutlich, der sich bewusst gegen eine verschuldensunabhängige Haftung in § 15 Abs. 1 AGG entschied. Eine europarechtskonforme Auslegung entgegen dem eindeutigen Wortlaut und Willen des deutschen Gesetzgebers ist somit zum jetzigen Zeitpunkt unangemessen.

Darüber hinaus wird im Vergleich zu den §§ 832 ff. BGB deutlich, dass der Gesetzgeber bei der Haftung für selbstständig agierende Wesen traditionell eher auf Verschuldenshaftung mit Beweislastumkehr setzt und die Kausalhaftung nur in engen Ausnahmefällen einführt.[56] Im Ergebnis scheidet eine Gefährdungshaftung im Falle des § 15 I AGG aus. Auch kann die Vermutung gem. § 15 Abs. 1 S. 2 AGG, wie bereits dargestellt, mangels Zurechnungsmöglichkeit widerlegt werden. Dies hinterlässt gerade im Falle des § 15 Abs. 1 S. 2 AGG einen haftungsleeren Raum.

D. Fazit

Sowohl die Stellvertretungsregeln als auch die Botenschaft kommen bei Künstlichen Intelligenzen mit hohem Autonomiegrad zu keinem befriedigenden Ergebnis. Teils mangelt es an einer Regressmöglichkeit, teils wird eine bloße Überbringerfunktion dem enormen Handlungsspielraum der KI nicht gerecht. Gegenwärtig kann die Verwendung von autonomen Künstlichen Intelligenzen beim Vertragsschluss nur durch die Einordnung als Blanketterklärung interessensgerecht geregelt werden. Gleichwohl wäre eine Kodifizierung wünschenswert.

Ein weitaus größeres Problem stellt die Haftung für die KI und die Zurechnung ihres Agierens dar. Mangels Schuldfähigkeit muss das Verhalten der KI zwangsläufig auf die dahinterstehende Person zurückgeführt werden. Allerdings passen die üblichen Zurechnungsnormen selbst in analoger Anwendung nicht für ein autonomes System.

Mit Blick auf das Arbeitsrecht und den § 15 Abs. 1 AGG wird es den Unternehmen gelingen, die Vermutung des § 15 Abs. 1 S. 2 AGG zu widerlegen und somit einer Haftung zu entgehen. Dies könnte allenfalls durch eine europarechtskonforme Auslegung des § 15 Abs. 1 AGG, also mittels einer Gefährdungshaftung verhindert werden. Gleichwohl ist eine solche Auslegung entgegen dem klaren Willen des Gesetzgebers und dem Wortlaut des § 15 Abs. 1 AGG nicht angezeigt. Die gegenwärtige Rechtslage ist daher für eine sichere Zurechnung und Haftung für autonome Künstliche Intelligenzen nicht vorbereitet und erfordert daher eine Weiterentwicklung.

 

* Der Autor studiert zum Wintersemester 2020/2021 im fünften Semester an der Albert-Ludwigs-Universität in Freiburg und ist Studentische Hilfskraft am Lehrstuhl für Bürgerliches Recht, Handels- und Gesellschaftsrecht (Prof. Dr. Jan Lieder, Freiburg). Der Beitrag ist zum Teil vor dem Hintergrund der Hausarbeit in der Übung im Zivilrecht für Fortgeschrittene im Wintersemester 2020/2021 entstanden.

 

[1] Sorge, Softwareagenten, 2005, S. 118.

[2] Paulus/Matzke ZfPW 2018, 431 (444).

[3] Specht/Herold MMR 2018, 40 (43).

[4] Paulus/Matzke ZfPW 2018, 431 (443).

[5] Pieper GRUR-Prax 2019, 298 (300).

[6] MüKoBGB/Lipp Art. 7 EGBGB Rn. 16.

[7] Rückert/Seinecke, Methodik des Zivilrechts, Rn. 167f..

[8] MüKoBGB/Spickhoff, § 1 Rn. 1.

[9] Vgl. Schirmer JZ 2016, 660 (662).

[10] Specht/Herold MMR 2018, 40 (43).

[11] BGH NJW 2000, 2984 (2985).

[12] Vgl. Wettig/Zehender, The Electronic Agent, 2003, S. 7.

[13] Habersack/Zickgraf ZHR 182 (2018).

[14] Wiebe, Die elektronische Willenserklärung, 2002, S. 216f..

[15] Paulus/Matzke ZfPW 2018, 431 (445).

[16] Paulus/Matzke ZfPW 2018, 431 (444).

[17] Spindler/Schuster, Recht der elektronischen Medien, 2019, § 116 Rn. 6.

[18] Pieper InTer 2018, 9.

[19] Riehm ITRB 2014, 113.

[20] Paulus/Matzke ZfPW 2018, 431 (444).

[21] BGH NJW 1984, 2279.

[22] MüKoBGB/Armbrüster, § 120 Rn. 8.

[23] Jauernig/Mansel, 2018, § 164 Rn. 13f..

[24] Fischer, Die Blanketterklärung, 1975, S. 1.

[25] Kainer/Förster ZfPW 2020, 275.

[26] Neuner, Allgemeiner Teil des Bürgerlichen Rechts, 2020, § 50 Rn. 100.

[27] BGHZ 132, 119.

[28] Kainer/Förster ZfPW 2020, 275 (290).

[29] John, Haftung für künstliche Intelligenz, 2007, S. 105 ff..

[30] Kainer/Förster ZfPW 2020, 275 (290).

[31] BGHZ 132, 119.

[32] BeckOK-BGB/Spindler, 55. Edition, 2020, § 827, Rn. 1.

[33] Günther/Böglmüller BB 2017, 53.

[34] Günther/Böglmüller BB 2017, 53 (55).

[35] Ernst JZ 2017, 1026f..

[36] Börding/Jülicher/Röttgen/v. Schönfeld CR 2017, 134 (140).

[37] Schaub JZ 2017, 342 (344).

[38] Kluge/Müller DSRITB 2016, 989, 995;

[39] Borges NJW 2018, 977 (980).

[40] Klingbeil JZ 2019, 718 (720).

[41] Freyler NZA 2020, 284 (289).

[42] Dzida/Groh NJW 2018, 1917 (1920).

[43] Dzida/Groh NJW 2018, 1917 (1920).

[44] Bräutigam/Klindt NJW 2015, 1137 (1139).

[45] BeckOGK-BGB/Benecke, § 15 Rn. 31.

[46] Spindler CR 2015 (766 (775).

[47] Groß/Gressel NZA 2016, 990.

[48] Staudinger/Eberl-Borges, § 833 Rn. 1 ff.

[49] Deutsch NJW 1992, 73 (75).

[50] Borges NJW 2018, 977.

[51] Borges NJW 2018, 977 (979f.).

[52] Lutz NJW 2015, 119 (121).

[53] Borges CR 2016, 272 (279).

[54] Richtlinie 76/207/EWG.

[55] Palandt/Sprau, § 823 Rn. 5.

[56] Borges NJW 2018, 977.