Positionen-Magazin
Künst­li­che Intel­li­genz

Bloß nicht durch­dre­hen

Roboter und selbstlernende Maschinen werden immer mehr Teil unseres Alltags. Darin liegen große Chancen, aber auch Risiken. Denn auch künstliche Intelligenz macht Fehler und kann zu einer Gefahr für Leib und Leben werden. Wie können wir uns schützen? Und wer ist verantwortlich, wenn etwas passiert – und haftet für den Schaden?

Okay, ich werde Menschen zerstören“, sagt Sophia. Sie schaut dabei ganz freundlich und zwinkert mit ihren braunen Augen. Sekunden vorher hat sie noch erzählt, sie wolle Menschen helfen, später mal studieren und eine Familie haben. Dabei lächelt sie in die Kamera, manchmal runzelt sie die Stirn, als würde sie ihrem Gesprächspartner konzentriert zuhören. Es fällt leicht, sie zu mögen. Bis ihre Sprache plötzlich holpert und ihr Gesichtsausdruck nicht zur Situation passt. Oder sie mit ihrer verstörenden Ansage das Publikum erschreckt.

Schwer zu sagen, ob das ein inszenierter Gag ist oder eine Panne. Sophia sitzt auf dem Medienfestival South by Southwest 2016 in Texas und erzählt, wer sie ist: eine Konversationsmaschine. Sie beherrscht 62 Gesichtsausdrücke, hat Kameras hinter ihren Pupillen, die die Mimik ihres Gegenübers erfassen. Sie kann auch Gegenfragen stellen, Gesagtes kommentieren. Nicht immer angemessen, aber sie lernt. Und sie wird sich stetig weiterentwickeln.
Den Film mit ihrem Auftritt haben bis heute mehr als zwölf Millionen YouTube-User angeschaut, Sophia wurde berühmt als „the robot that wants to destroy humans“. Künstliche Intelligenz fasziniert – und macht Angst. Mit diesem Zwiespalt leben wir heute. Wir fürchten, Amazons Alexa könnte uns aushorchen, und stellen sie trotzdem auf den Küchentisch. Selbstfahrende Autos verursachen tödliche Unfälle, dennoch werden sie sich wohl durchsetzen.

Versicherer in Deutschland zählen jährlich mehr als 250 Arbeitsunfälle mit Industrierobotern, bei denen Beschäftigte verletzt werden oder sogar sterben wie 2015 im VW-Werk Kassel. Unbeeindruckt davon trug die Hannover Messe im April den Titel „Connect and collaborate“ und drehte sich um die Zusammenarbeit von Mensch und Maschine in der digitalen Fabrik. Der Robot wird zum Cobot und verlässt sein Sicherheitsgehege.

Die Evolution der Roboter gewinnt an Fahrt — die der Gesetze nicht

Die Wirtschaft erhofft sich viel von künstlicher Intelligenz (KI), von all jenen Maschinen und Anwendungen, die Aufgaben eigenständig lösen oder per Algorithmus intelligentes Verhalten zumindest nachahmen. Das Beratungshaus McKinsey hat berechnet, dass bei konsequentem Einsatz intelligenter, selbstlernender Maschinen das deutsche Bruttoinlandsprodukt 2030 um 160 Milliarden Euro höher läge als ohne. So beschleunigt sich die Evolution der KI immer weiter. Nur die Regeln rund um ihren Einsatz gehen das Tempo nicht mit. Dabei gibt es viele offene Fragen: Wie können wir verhindern, dass KI missbraucht wird, um Menschen zu schaden? Dass sie Unfug macht und Unternehmen ruiniert? Einen chirurgischen Eingriff vermasselt? Und
wenn sie Schaden anrichtet, wer haftet dann? Und natürlich die größte Angst: Machen uns die smarten Maschinen alle arbeitslos?

Smarte Maschinen sind gut — wenn sie keine Jobs kosten

In der vernetzten Mercedes-Produktionshalle Factory 56 organisieren sie ihre Arbeit künftig ganz allein. Mitarbeiter und Betriebsrat finden das gut. „Vorausgesetzt, die Maschinen dienen dem Menschen – nicht umgekehrt“, sagt Ergun Lümali, Betriebsratsvorsitzender am Daimler-Standort Sindelfingen. „Und vorausgesetzt, es fallen keine Stellen weg.“
Die Arbeitnehmervertreter haben ausgehandelt, dass es bis 2030 keine betriebsbedingten Kündigungen geben darf. Natürlich werde es bei der Zusammenarbeit anfangs Berührungsängste geben, doch die ließen sich überwinden, glaubt Lümali. „Und natürlich sind wir froh, wenn Roboter schwierige ergonomische Aufgaben übernehmen.“

Er sorgt sich nicht, dass der Arbeitgeber nicht haften könnte, wenn eine intelligente Maschine Menschen verletzt: „Da ist immer das Unternehmen zuständig, das die Maschine einsetzt.“ Mady Delvaux ist sich da nicht so sicher. Die EU-Parlamentarierin findet, die alten Gesetze passen nicht mehr in die neue Roboterrealität. Mit ihrer Arbeitsgruppe im Rechtsausschuss schlug Delvaux Anfang 2017 der EU-Kommission vor, die Haftung neu zu regulieren, eine Registrierungs- und Versicherungspflicht für Großroboter einzuführen sowie einen Fonds, der nicht versicherte Schäden abdeckt. Das Ziel: Betroffene sollen auch entschädigt werden, wenn die Schuldfrage nicht zu klären ist.
Im April 2018 zeigte die Initiative Wirkung: Die Kommission erklärte, sie werde KI-Innovationen in der EU nicht nur massiv fördern, sondern auch ethische Richtlinien vorlegen und sich mit Versicherungsfragen befassen. Neue Gesetze will sie nicht schaffen, aber geltende Regeln auf KI übertragen.
Das Haftungsrecht ist 30 Jahre alt — und soll künstliche Intelligenz regeln Delvaux ist das zu wenig. Sie will die Hersteller von KI-Systemen deutlich stärker in die Pflicht nehmen als bisher. „Ich empfehle, dass der Hersteller den Schaden übernimmt, da er es in der Hand hat, das Risiko und die Kosten so klein wie möglich zu halten“, sagt Delvaux. Dieses Modell würde den Druck auf die Hersteller erhöhen, ihre Produkte so sicher wie möglich zu machen, ganz gleich ob Smartspeaker oder Industrieroboter.

Technikexperten sehen hingegen zurzeit keinerlei Gesetzeslücken. Der Nürnberger Rechtsphilosoph Eric Hilgendorf hält den „bestehenden Rechtsrahmen für relativ tragfähig“. Auch António Moniz, Mitarbeiter am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) in Karlsruhe, favorisiert die Betreiberhaftung für Autos und andere Maschinen. Erst wenn sich herausstelle, dass ein Konstruktions- oder Softwarefehler den Schaden verursacht habe, sei der Hersteller dran. Wie bisher auch.
Die Frage ist nur: Wie lässt sich ein solches Verschulden nachweisen? Deshalb und um die Sicherheit der Produkte zu erhöhen und Verbraucher zu schützen, fordern die deutschen Versicherer verbesserte Gesetze: „Wir brauchen neue Industrienormen, die Fehler bei künstlicher Intelligenz definieren“, sagt Nils Hellberg, der beim Gesamtverband der Deutschen Versicherungen (GDV) den Bereich Haftpflicht leitet. „Dann kann man auch die Haftungsfragen leichter klären.“ Die Richtlinie für Produkthaftung in Deutschland und der EU stammt aus den 1980er-Jahren. Früher sorgten die Sicherheitsstandards dafür, dass Tische nicht zusammenbrechen, heute sollten sie auch gewährleisten, dass ein Lieferroboter auf dem Gehsteig keine Menschen umrennt. Einfach abzuwarten, ob und wie sich geltendes Recht auf die neue, selbstständig arbeitende Technik übertragen lässt, wie es die EU-Kommission bis 2019 vorhat, halten Experten daher für nicht ausreichend.

Wer zahlt, wenn ein Roboter außer Kontrolle gerät, ist längst geklärt Doch selbst neue Sicherheitsstandards für smarte Maschinen dürften kaum ausreichen. Software benötigt Updates, selbstlernende Systeme verändern sich und fällen Entscheidungen, die der Mensch womöglich nicht mehr nachvollziehen kann. Dann, sagt Hellberg, müsse man über regelmäßige Sicherheitschecks wie beim Auto nachdenken. So ließen sich auch Fehler korrigieren, die durch falsche Nutzung auftreten, etwa wenn Software eigenhändig umgerüstet wird oder die KI Dinge lernt, die sie nicht lernen sollte. Entsteht ein Schaden dagegen durch falschen Gebrauch, haftet auch weiterhin der Halter. Leicht auseinanderzuhalten sei das sicher nicht immer, räumt Hellberg ein, „aber für uns ist das Wichtigste, dass das Opfer immer jemanden hat, der für seinen Schaden aufkommt“.
Doch was, wenn niemandem ein Verschulden nachzuweisen ist und ein Roboter einfach, nun ja, durchdreht? Für diesen Fall existiert bereits eine Regelung, auf die sich alle einigen könnten: Es ist die sogenannte Gefährdungshaftung, die auch bei der Haftpflichtversicherung für Flugzeuge, Autos und privat gehaltene Hunde oder Pferde gilt. Sie tritt beispielsweise ein, wenn sich ein Tier losreißt und auf der Straße einen Auffahrunfall auslöst.

Sollten Maschinen Rechte haben — oder ist das völlig abwegig?

All das mag für die nächsten zehn Jahre tragen. Doch wozu KI eines Tages in der Lage sein wird, lässt sich momentan nur erahnen. Der Zukunftsforscher Ray Kurzweil meint, schon 2029 würden Roboter so intelligent sein wie der Mensch und seien nicht mehr von diesem zu unterscheiden. Für dieses Szenario schlägt das EU-Parlament vor, ihnen den Status einer juristischen Persönlichkeit zu verleihen, die selbst haften muss. Der Vorschlag wird derzeit von Experten diskutiert.
Der Rechtsgelehrte Hilgendorf kann sich zwar vorstellen, dass wir Robotern eines Tages gewisse Rechte zugestehen. So sei die Zerstörung eines menschenähnlichen Pflegeroboters, dem wir uns nahe fühlen, schlimmer als eine einfache Sachbeschädigung. Mit der Vorstellung, es könnte so etwas wie strafmündige Maschinen geben, aber tut er sich schwer. Die Versicherer halten die Idee einer Rechtspersönlichkeit von Robotern für völlig abwegig: „Wenn man das Szenario weiterspinnt, müsste man sie ja auch strafrechtlich belangen können“, sagt GDV-Experte Hellberg. „Aber wozu wollen Sie einen Roboter verurteilen? Eine Gefängnisstrafe wird ihm wenig ausmachen.“

Text: Hiltrud Bontrup, Simon Frost

Auch inter­essant