Wissen

Tausende Fotos falsch benannt KI verwechselt Libelle mit Kanaldeckel

examples.jpg

Die Forscher fanden die für KI verwirrenden Bilder auf Flickr.

(Foto: Dan Hendrycks, UC Berkeley)

Mithilfe Künstlicher Intelligenz werden in Zukunft Autos gesteuert, Diagnosen gestellt oder Objekte sortiert. Welche Schwierigkeiten solche selbstlernenden Systeme beim Erkennen von Bildern haben, untersuchen Forscher. Sie stellen Tausende Fotos ins Netz, die die Bilderkennungstechnologie verwirren.

Künstlicher Intelligenz (KI) wird eine große Zukunft vorausgesagt. Firmen wie Microsoft investieren große Summen für die Weiterentwicklung der selbstlernenden Systeme. US-Forscher der Universitäten in Berkeley, Washington und Chicago haben deshalb mehrere sogenannte neuronale Netze auf ihre Verlässlichkeit zum Erkennen von Fotografien getestet. Sie benutzten dafür ausschließlich Bilder, die nicht nachträglich bearbeitet und nicht gestellt wurden, sondern natürlicherweise in der Umgebung zu finden sind.

Bei den Tests zeigte sich, dass die neuronalen Netze in vielen Fällen scheiterten. Die Systeme, die mit der neuesten Bilderkennungstechnologie und ImageNet zum Lernen gefüttert wurden, waren bei insgesamt 7500 identifizierten Bildern nicht in der Lage, die Objekte darauf richtig zu benennen. Dabei handelte es sich um Motive, die von Menschen leicht zu erkennen waren. Die Forscher schreiben in ihrem veröffentlichten Paper, dass eine Libelle von der KI als Kanaldeckel erkannt, ein Eichhörnchen für ein Seelöwe gehalten, ein Pilz mit krummen Stiel als Brezel identifiziert wurde. Zudem, so die Forscher, gaben die neuronalen Netzwerke ihre falsch erkannten Objekte mit 99-prozentiger Erkennungswahrscheinlichkeit an.

Ganz normale Bilder

Die Forscher, die alle falsch erkannten Bilder in einer freizugänglichen Datenbank für weitere Forschungen zur Verfügung stellen, bezeichnen ihre Beispiele als "Natural Adversarial Examples". Sie gehen damit auf die sogenannten "Adversarial Images" ein. Dazu gehören alle Bilder, die von Maschinen verlässlich fehlinterpretiert werden. Die KI-Forschung widmet sich diesen, weil es sich dabei oftmals um absichtliche Bildveränderungen handelt, die vom menschlichen Auge nicht erkannt werden. Meistens stehen solche Bilder im Zusammenhang mit gezielte Angriffen, mit denen die Bildererkennungstechnologien ausgetrickst werden sollen, was zu folgenschweren oder sogar gefährlichen Falscherkennungen führen kann.

Bei den 7500 Bildern in der Datenbank hingegen gehe es um unverfälschte Fotos aus dem Alltag oder der Natur, die von den Systemen nicht erkannt wurden, betont das fünfköpfige Forscherteam um Dan Hendrycks. Sie fassen in ihrer Auswertung zusammen, dass die gängigen Methoden, mit denen die neuronalen Netzwerke zum Lernen bisher gefüttert werden, zum Erkennen von Bildern nicht geeignet seien. Neue Ansätze und weitere Forschung sind deshalb nötig.

Quelle: ntv.de, jaz