Wissen
Die Wissenschaftler wollen mit "Norman" auf die Gefahren Künstlicher Intelligenz hinweisen, um das Bewusstsein dafür zu schärfen.
Die Wissenschaftler wollen mit "Norman" auf die Gefahren Künstlicher Intelligenz hinweisen, um das Bewusstsein dafür zu schärfen.(Foto: imago/Science Photo Library)
Dienstag, 12. Juni 2018

Überall sterbende Menschen: Forscher erschaffen psychopathische KI

Die Künstliche Intelligenz "Norman" macht ihrem Namensgeber aus Hitchcocks "Psycho" alle Ehre: Sie sieht überall ausschließlich Mord und Totschlag. Wissenschaftler wollen damit vor den Gefahren von Algorithmen warnen, die nur mit einseitigen Infos gefüttert werden.

Sie sieht in allem Mord und Totschlag: US-Forscher haben die erste psychopathische Künstliche Intelligenz (KI) vorgestellt. Der Algorithmus namens "Norman", benannt nach Alfred Hitchcocks Filmfigur Norman Bates aus "Psycho", wurde von Wissenschaftlern am renommierten Massachusetts Institute of Technology (MIT) geschaffen. Er sei ein Beispiel dafür, was passiere, wenn künstliche Intelligenz mit einseitigen Informationen gefüttert werde, erklärten die Forscher. Mit "Norman" wollen sie auf Gefahren hinweisen.

Der Rorschach-Test ist ein psychodiagnostisches Testverfahren, entwickelt vom Schweizer Psychiater und Psychoanalytiker Hermann Rorschach, das zum Ziel hat, die gesamte Persönlichkeit eines Probanden zu erfassen.
Der Rorschach-Test ist ein psychodiagnostisches Testverfahren, entwickelt vom Schweizer Psychiater und Psychoanalytiker Hermann Rorschach, das zum Ziel hat, die gesamte Persönlichkeit eines Probanden zu erfassen.(Foto: Hermann Rorschach)

Für das Experiment versorgte das Forscherteam die Künstliche Intelligenz ausschließlich mit Inhalten, in denen es um sterbende Menschen geht. Anschließend zeigten sie "Norman" eine Reihe von Tintenklecks-Bildern, angelehnt an den psychodiagnostischen Rorschachtest. Die Antworten ihres Psychopathen, was wohl darauf zu sehen sei, verglichen die MIT-Forscher mit denen einer anderen Künstlichen Intelligenz, die "normal" geschaffen wurde.

Die Ergebnisse waren laut Forscher furchteinflößend: Während der "gesunde" Algorithmus auf einem Bild "Menschen, die eng beieinander stehen" sah, antwortete "Norman": "Ein Mann, der aus dem Fenster springt". Einen anderen Tintenklecks identifizierte die KI als "Person mit einem Regenschirm", während "Norman" darin einen Mann sah, "der von seiner schreienden Frau erschossen wird". Der psychopathische Algorithmus entdeckte außerdem Menschen, die durch einen Stromschlag getötet, überfahren oder in eine Teigmaschine gezogen werden - während die andere Künstliche Intelligenz Vögel und eine Hochzeitstorte erkannte.

Beim maschinellen Lernen seien die Daten, mit denen die Maschine gefüttert werde, von zentraler Bedeutung, sie könnten "ihr Verhalten signifikant beeinflussen", fassen die Forscher ihr Experiment zusammen. Ihr Ziel ist es, auf die Gefahren bei KI hinzuweisen und das Bewusstsein dafür zu schärfen.

Wenn ein Algorithmus als ungerecht oder voreingenommen wahrgenommen werde, sei der Übeltäter oftmals nicht die KI selbst, sondern die Daten, mit denen sie gefüttert wurde, erklärten die MIT-Forscher. Auf einer Internetseite haben sie "Normans" Antworten zusammengetragen. Dort bitten sie Nutzer, den Test selbst zu machen und ihre Antworten einzusenden - damit "Norman" repariert werden kann.

Quelle: n-tv.de