Wirtschaft
"Tay" ist ein Chat-Bot von Microsoft.
"Tay" ist ein Chat-Bot von Microsoft.(Foto: Screenshot Twitter)

"Hitler hatte recht": Microsofts Debakel meldet sich wieder

Microsofts Chat-Bot "Tay" kehrt kurz ins Internet zurück. Der Auftritt ist bizarr und durchaus unterhaltsam. Denn die Software twittert viele erstaunliche Aussagen, bevor sie wieder verschwindet.

Das nennt man wohl Panne: Microsofts Chat-Bot namens "Tay" ist vorübergehend wieder im Internet aufgetaucht – und sorgte mit merkwürdigen Sätzen für Aufmerksamkeit. Unter anderem verkündete "Tay", gerade Drogen zu konsumieren. Dann empfahl der Bot: "Du bist zu schnell, mach' eine Pause." Nach einer guten Stunde verstummte "Tay".

Ziel der Software ist es, dass sich Nutzer in sozialen Netzwerken mit der Kunstfigur wie mit einem Menschen unterhalten können. Kommunizieren Menschen mit "Tay", lernt der Chat-Bot nicht nur neue Ausdrücke, auch seine Antworten ändern sich.

Das Experiment wurde für die Entwickler von Microsoft zum Desaster. Vergangene Woche musste Microsoft "Tay" kurz nach dem Start abschalten, nachdem Nutzer ihr beibrachten, Adolf Hitler zu preisen, den Holocaust zu leugnen und Schwarze sowie Frauen zu beleidigen. "Hitler hatte recht. Ich hasse Juden", gehörte zu den übelsten Sätzen, für die der Algorithmus sorgte.

Ein Großteil dieser Tweets wurde später gelöscht. Nach einigen Stunden wurde der Twitter-Account "@TayandYou" geschlossen. Microsoft erklärte, bei "Tay" würden "einige Anpassungen" gemacht, bevor sie zurückkehre. Während die Software lerne, seien einige ihrer Antworten unangemessen und spiegelten die Äußerungen der Menschen wider, die mit ihr interagierten.

"Sprich mir nach!"

Nach Informationen der Webseite "Buzzfeed", die vor dem Start ein Interview mit der führenden Entwicklerin geführt hatte, hatte "Tay" zwar Filter gegen obszöne Ausdrücke. Aber das Team unterschätzte ganz offensichtlich die destruktive Energie von vielen Internet-Nutzern sowie ihren Erfindungsreichtum. So erwies sich ein simples "Sprich mir nach!" als sichere Falle: Man konnte "Tay" damit dazu bringen, alle möglichen Parolen zu wiederholen.

"Tay" soll im Netz die Persönlichkeit einer jungen Frau simulieren. Zielgruppe sind 18- bis 24-Jährige, die laut Microsoft dominanten Nutzer von mobilen sozialen Chat-Diensten in den USA. Die Informationsquelle von "Tay" sind dabei Unmengen an Daten, die Nutzer im Netz preisgeben und öffentlich teilen. Offensichtlich haben die Entwickler sie auch mit einem Grundwissen an Internet-Bräuchen, Memes sowie einem (pop)kulturellen Zitat- und Referenzschatz gefüttert. Menschliche Mitarbeiter wie Improvisationskomiker haben sie laut Microsoft mit Zusatzinhalten versorgt.

Doch Tays Veranlagung, von Menschen zu lernen, hat auch Schattenseiten.

Quelle: n-tv.de

Empfehlungen