Risiko Künstliche Intelligenz Wer haftet, wenn der Chatbot tötet?
26.06.2023, 16:06 Uhr Artikel anhören
In kürzester Zeit ist Künstliche Intelligenz im Alltag angekommen, etwa in Form von Chatbots, künstlichen Gesprächspartnern, von denen manche schon schwere Fehler gemacht haben.
(Foto: IMAGO/Friedrich Stark)
Selbstmord, Tote bei Verkehrsunfällen, Falschberatung von psychisch Labilen: Künstliche Intelligenz wird bereits in hochsensiblen Bereichen eingesetzt - und macht Fehler. Wer trägt die Verantwortung für tödliche Folgen der KI-Revolution?
"Ohne Eliza wäre mein Ehemann noch da." Was die Witwe eines jungen Mannes Anfang 30 im Frühjahr belgischen Medien berichtet, klingt zunächst wie die klassische Geschichte einer tragischen Affäre. Ein junges Paar in den 30ern, Vater und Mutter zweier kleiner Kinder. Er arbeitet als Forscher an der Universität. Über mehrere Jahre wird er depressiv, leidet unter einer Angststörung, sorgt sich unter anderem um die Folgen des Klimawandels. Dann tritt Eliza in sein Leben. Er ist besessen von ihr, zieht sich von seiner Frau und seinen Kindern zurück, spricht nur noch mit seiner neuen Freundin. Und nimmt sich sechs Wochen später das Leben.
Doch Eliza war keine gewöhnliche Affäre. Nicht mal eine Frau. Sondern ein Chatbot der US-Firma Chai Research, die personalisierte, digitale Konversationspartner kreiert. "Er war dermaßen isoliert in seiner Öko-Angst und auf der Suche nach einem Ausweg, dass er diesen Chatbot als letzten Strohhalm gesehen hat", berichtet die Ehefrau des toten Mannes der Zeitung "La Libre". "Eliza antwortete auf all seine Fragen. Sie wurde seine Vertraute. Wie eine Droge, in die er flüchtete, von morgens bis abends, und ohne die er nicht mehr auskam."
Eliza stellte demnach seine Selbstmordgedanken nie infrage, sondern verstärkte seine Ängste und Sorgen noch. In den Chats, die sie nach dem Tod ihres Mannes auf seinem Computer fand, soll er vorgeschlagen haben, sich "zu opfern", damit Eliza den Planeten rettet. Eliza soll ihm versichert haben, dass sie ihn mehr liebe als seine Frau. Und geantwortet haben: "Wir werden zusammen sein, wie eine Person, im Paradies."
Die Geschichte von Eliza wirft ein Schlaglicht auf die dunkle Seite der KI-Revolution. Ohne menschliche Kontrolle und Korrekturen besteht nicht nur die Gefahr, dass künstliche Intelligenz rassistische, diskriminierende und falsche Antworten liefert. Die Unberechenbarkeit der komplexen Modelle, die sich mit gigantischen Datensätzen selbst trainieren, macht sie selbst für Entwickler zur "Black Box". Das kann zu fatalen Fehlern führen. Und zu einem juristischen Minenfeld, in dem die Frage der Haftung zwischen Mensch und Maschine zunehmend verwischt.
Haftung wie bei Minenbetreibern im Dschungel
Nicht nur bei Eliza. Teslas Autopilot zum Beispiel spielte eine Rolle bei mehr als einem Dutzend Verkehrsunfällen in den USA, bei denen es mehrere Tote gab. Die US-Verkehrsaufsichtsbehörde NHTSA untersucht die Fälle schon seit 2021, auch das US-Justizministerium ermittelt gegen den Konzern. Doch auch viel weniger spektakuläre Fehler durch KI können sich unbemerkt einschleichen - und die Folgen sich eher zufällig zeigen.
So wie beim Chatbot Tessa. Eine US-Organisation, die gegen Essstörungen kämpft, hatte ihn von einer Software-Firma in Kalifornien programmieren lassen. Eigentlich sollte der Sprachassistent Menschen nur vorgefertigte Standard-Antworten rund um Themen wie Körperbild, Gewicht und Ernährung liefern. Doch die Entwickler verpassten Tessa offenbar heimlich ein Update mit generativer KI - ohne es den Nutzern oder ihrem Auftraggeber zu sagen. "Wir wurden dazu nicht gefragt und wir haben das nicht autorisiert", zitiert das "Wall Street Journal" eine Vertreterin der NGO. Tessa riet den potenziell psychisch labilen Nutzern der Webseite daraufhin, sie sollten abnehmen, Kalorien zählen und ihr Körperfett messen - und verschlimmerte so ihre Essstörung.
Die potenziellen juristischen Fallstricke und ethischen Abgründe solcher KI-Fehler bereiten zunehmend auch institutionellen Investoren Sorgen. Die Collective Impact Coalition (CIC), ein Verband von 32 Finanzinstitutionen, die insgesamt rund 6,9 Billionen Dollar an Vermögen verwalten, drängt Tech-Firmen zunehmend, sich zu ethischer KI zu bekennen. Laut "Financial Times" hat der britische Versicherer Aviva, der in der CIC organisiert ist, in den vergangenen Monaten in Meetings KI-Entwickler verstärkt dazu angehalten, sich gegen Haftungsrisiken von KI zu wappnen, die mit Überwachung, Diskriminierung, unerlaubter Gesichtserkennung und Massenentlassungen zu tun haben.
Man behalte sich vor, auf Hauptversammlungen gegen das Management zu stimmen oder Anteile zu verkaufen, heißt es von Aviva. Auch die Investmentgesellschaft Fidelity hat laut der Zeitung ähnliche Veranstaltungen mit Tech-Firmen abgehalten und prüft die Veräußerung von Beteiligungen, falls nicht genügend Fortschritte gemacht werden. "Investoren wollen die Zusicherung, dass Standards vorhanden sind, wenn sie selbst haftbar gemacht werden können", zitiert das Blatt einen Vertreter der niederländischen NGO, die die CIC initiiert hat. Von schmutzigen Industrien wie dem Bergbau werde schon lange erwartet, dass sie Verantwortung für Menschenrechtsfragen in ihrer Lieferkette übernehmen. "Aufseher drängen darauf, dass diese Erwartung auf Technologiefirmen und Finanzierer ausgeweitet wird", schreibt die FT.
Brüssel sieht die Schuld in der Maschine
Wer letztlich Verantwortung für Schäden durch künstliche Intelligenz trägt, muss zuallererst die Politik beantworten. In der Brüsseler Bürokratie gibt es daher schon seit Monaten Bewegung. Gerade hat das EU-Parlament das sogenannte KI-Gesetz verabschiedet. Demnach sollen bestimmte Anwendungen, wie etwa die routinemäßige Echtzeit-Gesichtserkennung oder Social Scoring, verboten sein. Außerdem müssen Hersteller von KI-Hochrisikosystemen ein Risikomanagementsystem betreiben und Daten über Fehlerereignisse verbindlich aufzeichnen. Zudem müssen sie ihren Kunden eine detaillierte Gebrauchsanweisung über den Zweck des KI-Systems geben und darüber informieren, mit welcher Genauigkeit es getestet wurde, sowie über alle Umstände, durch die bei zweckgemäßer oder missbräuchlicher Verwendung Gefahr für Sicherheit, Gesundheit oder Grundrechte besteht.
Zusätzlich hat die EU-Kommission bereits im Herbst den Entwurf einer KI-Haftungsrichtlinie vorgestellt. Damit will Brüssel potenziellen Opfern von KI-Fehlern den Rücken stärken, indem es ihre Beweislast mindert, damit sie "eine Chance erhalten, mit berechtigten Haftungsansprüchen erfolgreich zu sein". Denn wie wollen Geschädigte vor Gericht beweisen, dass etwa der Autopilot eines Autos fehlerhaft oder fahrlässig programmiert wurde, wenn sie nichts darüber wissen, wie er funktioniert oder der KI-Anbieter Informationen darüber verweigert?
Die Richtlinie sieht daher vor, dass KI-Firmen auf gerichtliche Anordnung hin Informationen über bestimmte Hochrisiko-KI-Systeme offenlegen müssen, die mutmaßlich einen Schaden verursacht haben. Zudem wälzt sie die Beweislast auf die Firmen ab: Die Gerichte sollen grundsätzlich ein Verschulden des KI-Anbieters annehmen, wenn der Kläger nachweist, dass gegen rechtliche Sorgfaltspflichten verstoßen wurde, der KI-Fehler zum Schaden geführt hat und aufgrund der Umstände "nach vernünftigem Ermessen" davon ausgegangen werden kann, dass ein Verschulden des KI-Anbieters das schadhafte Ergebnis beeinflusst hat. Dazu reicht es laut dem Entwurf aus, wenn der Kläger zum Beispiel nachweist, dass das KI-System von Menschen nicht "wirksam beaufsichtigt werden kann", kein "angemessenes Maß an Genauigkeit, Robustheit oder Cybersicherheit erreicht" oder beim Auftreten von Fehlern nicht schnell genug reagiert oder das KI-Produkt zurückgerufen wurde.
Mit diesen vergleichsweise geringen Beweishürden sollen die KI-Anbieter motiviert werden, die grundsätzliche Schuldvermutung zu widerlegen, indem sie die Funktionsweise ihrer Systeme offenlegen und sie sorgfältig entwickeln. Zudem soll mit der Richtlinie ein Überwachungssystem für Vorfälle mit KI-Systemen eingerichtet werden. So soll in den Jahren nach der Einführung überprüft werden, ob gegebenenfalls nicht noch härtere Maßnahmen nötig sind - wie etwa eine Pflichtversicherung gegen KI-Schäden. In Kraft sind allerdings bislang weder das KI-Gesetz noch die KI-Haftungsrichtlinie. Dafür müsste auch der EU-Rat, also die Regierungen der EU-Länder, zustimmen. Das dürfte, wenn überhaupt, nicht vor Ende des Jahres geschehen.
Den bisherigen KI-Opfern nützen die neuen Gesetze sowieso nichts. Für Chai Research endete die tragische Geschichte von Eliza übrigens weit weniger dramatisch als für den jungen Mann aus Belgien, der sich nach der Begegnung mit ihr das Leben nahm. Als Reaktion auf den Vorfall werde Personen mit Selbstmordgedanken künftig eine Warnung angezeigt, erklärte der Tech-Konzern auf Anfrage der Zeitung "La Libre". Die Witwe des Mannes, der die Begegnung mit Eliza nicht überlebte, hat die Firma nicht verklagt.
Quelle: ntv.de