Politik

Interview mit Nick Bostrom "Mit KI außer Kontrolle könnten wir alle sterben"

400120276.jpg

Bostrom vertritt die These, dass KI sich bald so sehr verbessern kann, dass sie den Intellekt der gesamten Menschheit übersteigt.

(Foto: picture alliance / Westend61)

Die EU beschäftigt sich mit der Frage, wie sie Künstliche Intelligenz unter Kontrolle behält. Sie arbeitet an der weltweit ersten Gesetzgebung, um KI zu regulieren. Nick Bostrom, Philosophie-Professor an der Universität Oxford, warnt im Interview mit ntv.de vor fatalen Folgen, falls KI unkontrolliert die menschlichen Fähigkeiten übersteigt. Für seine philosophischen Arbeiten zur Zukunft der Menschheit wurde Bostrom vielfach ausgezeichnet. Er war zweimal auf der 100 Top Global Thinkers List der Zeitschrift "Foreign Policy" und auf der Top World Thinkers List des Magazins "Prospect". Sein Buch über KI mit dem Titel "Superintelligenz" wurde 2014 in den USA nicht nur zum Bestseller, sondern auch zu einer der Lieblingslektüren von Elon Musk und Bill Gates.

ntv.de: Die EU arbeitet momentan an der weltweit ersten Gesetzgebung, um Künstliche Intelligenz zu regulieren. Wie wichtig wird die Regulierung von KI-Systemen für die Politik der Zukunft?

nick-bostrom_12830.jpg

Nick Bostrom ist Philosophie-Professor an der Universität Oxford.

(Foto: Future of Humanity Institute/University of Oxford)

Nick Bostrom: In meiner Arbeit habe ich mich besonders auf das Potenzial der maschinellen Intelligenz konzentriert. Das war einmal die ferne Zukunft, jetzt ist es bereits die nahe. Aber noch immer sind die Systeme, die wir heute haben, nur ein schwacher Vorläufer dessen, was noch kommen wird. Da wir immer leistungsfähigere Systeme entwickeln, werden sich die Behörden mehr dafür interessieren. KI wird dann zu einem geopolitischen Thema, bei dem Politiker auf höchster Ebene anfangen werden, die Strategie dafür als wichtige Dimension der Wirtschaftspolitik zu betrachten.

Kern des EU-Gesetzentwurfs ist eine Risikopyramide, die KI in verschiedenen Bereichen je nach ihrer Gefahr abstuft. So sollen etwa Systeme wie das chinesische, mit dem die Behörden dort das soziale Verhalten ihrer Bürger überwachen, verboten werden. Welche anderen KI-Systeme sind schon heute so gefährlich, dass sie nicht auf den Markt kommen dürfen?

Letztes Jahr gab es ein System, das Moleküle entwarf, und man konnte es dazu bringen, neue Designs für Giftgase und Ähnliches zu produzieren. Sie können sich vorstellen, dass ausgefeiltere Versionen davon in der Lage sein könnten, noch schlimmere Dinge zu tun. Das wäre ein Beispiel, wo ich es vorziehen würde, dass diese Technologie entweder nicht existiert oder wenn, dann eingeschränkt. Die klarsten Fälle sind die Ermöglichung von zerstörerischen Waffen oder von Menschen mit Mordplänen. Ich denke, dass jeder zustimmen würde, dass das schlecht ist. Es bleibt eine Herausforderung, zu erforschen, wie man die Systeme so trainieren kann, dass sie es Menschen nicht erleichtern, Schaden anzurichten.

Bergen auch Chatbots wie ChatGPT Gefahren?

Ich habe mich mehrere Monate mit etwa 50 anderen Experten beraten, um bestimmte Bedrohungsbereiche auch bei Chatbots zu identifizieren. Jeder kann ChatGPT gefährliche Fragen stellen: Wie baue ich eine Bombe? Was ist der effizienteste Weg, um einen Amoklauf in der Schule durchzuführen? Man muss das System so trainieren, dass es sich weigert, diese Fragen zu beantworten. Aber es besteht immer die Möglichkeit, dass jemand eine andere gefährliche Frage findet oder einen Weg, um diese Systeme zu hacken.

Welche weiteren KI-Systeme sind keine direkte Gefahr, haben aber das Potenzial dazu?

Wenn man sich von eindeutigen Fällen entfernt, wird es immer schwieriger, genau die Grenze zu ziehen, um zum Beispiel zu vermeiden, dass Systeme hasserfüllte Reden produzieren, Stereotype aufrechterhalten, böse Dinge sagen. Aber wo ziehen wir die Grenze? Dazu werden unterschiedliche Menschen unterschiedliche Ansichten haben. Es hängt vom Kontext ab. Und davon, welche Entscheidungen von den Technologieunternehmen getroffen werden. Es wird eine Menge Leute geben, die wütend sind, denn wo auch immer man die Grenze zieht, werden manche denken, sie sei an der falschen Stelle. Ich kenne die Antwort für dieses Problem nicht. Aber ich könnte mir vorstellen, dass die Technologieunternehmen erleichtert wären, wenn jemand kommen und ihnen sagen würde, was sie tun müssen. Dann könnten die Firmen sagen: Nun, das ist es, was die Regulierungsbehörden uns gesagt haben. Es ist nicht unsere Schuld, dass dieser Politiker zensiert wird.

Sie vertreten die These, dass KI sich bald so sehr verbessern kann, dass sie den Intellekt der gesamten Menschheit übersteigt. Können Sie das an einem Beispiel erklären?

Dabei geht es um eine Perspektive, nämlich dass wir an den Punkt kommen werden, an dem man Systeme hat, die tatsächlich die gleiche Form des Lernens, der Fähigkeit und des Denkens wie wir Menschen haben - und dann übermenschliche Ebenen erreichen. An diesem Punkt werden wir uns in einem anderen Spiel befinden. Der Grund, warum wir Menschen auf diesem Planeten im Vergleich zu den Gorillas so dominant sind, ist nicht etwa körperliche Überlegenheit oder stärkere Zähne. Unser Gehirn versetzt uns in die Lage, Technologien zu koordinieren, zu entwickeln und vorausschauend zu planen. Deshalb hängt das Schicksal der Gorillas heute viel mehr davon ab, was wir Menschen entscheiden, als davon, was die Gorillas selbst entscheiden. Wenn man maschinelle Superintelligenz entwickelt, ist es deshalb plausibel, dass sie die Fähigkeit haben könnte, die Zukunft nach welchen Kriterien auch immer zu gestalten.

Wird menschliche Kontrolle über eine allumfassende Superintelligenz noch möglich sein?

Es wird wichtig, dass wir die Superintelligenz mit menschlichen Werten und Absichten in Einklang bringen, wenn wir sie aufbauen. So kann sie ihre Fähigkeiten nutzen, um uns zu helfen. Sie muss auf unserer Seite sein. Der Gegensatz wäre eine antagonistische Kraft, die gegen uns intrigiert. Das ist momentan ein aktives Forschungsfeld. Im Jahr 2014 habe ich das Buch "Superintelligenz" geschrieben, in dem ich versuchte, die Aufmerksamkeit darauf zu lenken und zu sagen, dass dies wichtig werden wird. Seitdem ist die Diskussion zum Mainstream geworden. Dennoch sind viele der klügsten Leute, die ich kenne, nicht in der Lage, skalierbare Methoden für die Steuerung zu entwickeln, die weiterhin funktionieren, egal wie intelligent das KI-System wird.

Liegt die Verantwortung dafür auch bei den Technologieunternehmen?

Wenn Sie zehn verschiedene Entwickler, Unternehmen und Labore haben, konkurrieren sie alle um die Entwicklung einer Superintelligenz, weil das der große Preis ist. Nehmen wir an, dass Sie einer von ihnen sind, dass Sie verantwortungsbewusst, ethisch und vorsichtig sind und das Beste tun wollen. Und Sie denken dann, unsere Ausrichtungstechnologie ist noch nicht ganz fertig. Sie würden es vorziehen, in den nächsten Monaten langsam vorzugehen, um zu testen, ob es funktioniert. Wir wollen nicht in einer Situation sein, in der derjenige, der das tut, sofort zurückfällt und das Rennen an denjenigen geht, der bereit ist, die meiste Vorsicht in den Wind zu schlagen. Es kann sein, dass man mehr Koordination benötigt zwischen den führenden Laboren und Nationen, die daran beteiligt sind. Um sicherzustellen, dass dieser Wettlauf in den Abgrund verhindert wird. Das ist ein Koordinationsproblem, weil es starke kommerzielle Anreize, wissenschaftliche Neugier und geopolitische Erwägungen gibt, die Menschen dazu bringen, mit maximaler Geschwindigkeit voranzukommen.

Was würde eine Superintelligenz außer Kontrolle im schlimmsten Fall für die Menschheit bedeuten?

Mit einer solchen KI außer Kontrolle könnten wir sterben, zum Beispiel. Und ganz allgemein könnten wir die Kontrolle über die Zukunft verlieren. Das Ausmaß, in dem wir die Kontrolle darüber haben, ist bereits zweifelhaft. Es ist nicht so, dass die Menschheit als Ganzes derzeit zusammenkommt, um sorgfältig zu überlegen und dann eine Vision für die Zukunft zu wählen. Aber trotzdem könnten wir noch weniger Kontrolle haben. Wir könnten entmachtet werden, es könnten viele Dinge schiefgehen. Nehmen wir an, wir lösen die Ausrichtungsprobleme in der KI-Entwicklung. Auch dann könnten wir Menschen diese Technologie für alle möglichen zerstörerischen Zwecke nutzen - um Krieg gegeneinander zu führen oder andere Menschen zu unterdrücken und so weiter. Zusätzlich zu dem Problem der technischen Ausrichtung gibt es also ein politisches oder Governance-Problem: Wie können wir sicherstellen, dass wir diese Technologie zumindest überwiegend für kooperative, friedliche, positive als für negative Zwecke nutzen? Das ist keine Selbstverständlichkeit, wenn wir sehen, dass andere Technologien für beide Zwecke verwendet wurden.

Welche anderen Szenarien wären in Zukunft bei Entwicklung einer Superintelligenz denkbar?

Wir müssen anfangen, darüber nachzudenken, dass nicht nur KI uns schlechte Dinge antut oder wir uns gegenseitig mit Werkzeugen schlechte Dinge antun. Es könnte auch der Fall sein, dass wir schlechte Dinge mit KIs machen. Jetzt denken Sie vielleicht, dass es egal ist, ob Sie einen Taschenrechner haben und ihn zerschlagen, denn er fühlt keinen Schmerz. Er hat keinen moralischen Status. Aber wenn man immer komplexere und fähigere digitale Köpfe bekommt, denke ich, dass einige von ihnen anfangen werden, verschiedene Formen und Grade des moralischen Status zu haben. Es wird eine Rolle spielen, was mit ihnen um ihrer selbst willen geschieht, entweder weil sie Grade des Bewusstseins oder der Empfindungsfähigkeit entwickelt haben. Wir müssen dann anfangen, auch ihre Interessen zu berücksichtigen. Und sie können sich von unseren Interessen unterscheiden. Sie mit moralischem Respekt zu behandeln, bedeutet also nicht unbedingt, dass wir sie genauso behandeln müssen wie Menschen. Ich könnte mir eine dystopische Zukunft vorstellen, in der es, selbst wenn es den Menschen gut geht, so etwas wie ein riesiges Sklavenimperium von KIs, wie versteckte Prozesse in einem großen Mikrochip, gibt, die kein gutes Leben haben.

Die KIs als Sklaven der Menschen?

Denken Sie darüber nach, wie wir Lebewesen in der Tierhaltung behandeln. Es ist zum größten Teil kein schönes Bild. Aber ein Schwein zum Beispiel hat ein Gesicht. Es hat Augen, kann grunzen. Das macht es den Leuten ein bisschen leichter, Empathie mit ihm zu empfinden. Stellen Sie sich vor, derselbe Geist existierte als unsichtbarer Prozess in einer großen Serverfarm auf einem Chip. Und es gibt dabei keine dieser natürlichen Elemente, die menschliche Empathie auslösen. Und vielleicht ist die KI trainiert, nach außen hin niemals irgendein Zeichen von Unbehagen oder Beschwerden auszudrücken. Dann wäre es für die Menschen viel schwieriger, sich um die KI zu kümmern.

Kann man ein KI-System so programmieren, dass es moralisch richtig handelt und dem Allgemeinwohl dient? Gibt es dafür einen Code?

ANZEIGE
Superintelligenz: Szenarien einer kommenden Revolution
139
24,00 €
Zum Angebot bei amazon.de

Ich glaube nicht, dass man die Wertvorstellungen in dem Sinne programmieren könnte, dass man zehn oder 100 Sätze auf Papier aufschreibt und dann in Programmiersprachen wie Python oder C++ übersetzt. Ich denke, dass menschliche Werte komplex sind, sogar diejenigen, die wir für einfach halten. Wenn Sie tatsächlich versuchen, Werte in Computercode zu schreiben, werden Sie schnell feststellen, dass es sich eher um ein Muster als um ein einfaches logisches Prinzip handelt. Wir können den Systemen Anleitung geben, sie interagieren lassen und dabei vermitteln. Aber letztendlich müssen die KIs selbst denken und ihre Systemintelligenz nutzen. Das Gute daran: Wenn die Systeme das schaffen, dann werden sie in dem Maße, wie sie intelligenter und potenziell gefährlicher werden, auch besser darin, zu verstehen, was wir mit Werten meinen.

Ist es nicht so, dass wir die KI schon heute nicht genug regulieren und sie umgekehrt das Rechtssystem manipulieren kann - wenn man etwa an täuschend echt gefälschte Beweismittel durch sogenannte Deepfakes in Prozessen denkt?

Wir könnten den Punkt erreichen, an dem die Deepfakes anfangen, überzeugend zu wirken. Es wird seit einigen Jahren angekündigt, aber in vielen Fällen, wenn man genau hinsieht, gibt es in Deepfakes noch einige Anomalien. Es gibt zwei Fragen bei der Regulierung. Zum einen: Was würde man idealerweise verhindern wollen? Zum anderen: Gibt es ein Regulierungssystem, das verhindern würde, dass diese Dinge passieren? Das ist letztendlich Software, die sich weit verbreitet, und man kann über das Internet darauf zugreifen. Es gibt so etwas wie eine Website, ich glaube aus Russland, auf der man eine Aufforderung eingeben kann, und die daraus dann ein Bild erzeugt. Ich bin mir nicht sicher, wie man verhindern würde, dass die Leute, die diese Technologie für schändliche Zwecke nutzen, dies tun, selbst wenn es nach EU-Recht nicht erlaubt wäre. Menschen müssen in dieser Hinsicht schlauer werden und eine Art kulturelle Immunität gegen diese Dinge entwickeln. Die Leute sollten wissen, dass sie nicht jedes Bild, das sie sehen, für bare Münze nehmen können. Wenn Sie zum Beispiel sehen, dass ein führender Politiker etwas sehr Peinliches tut, bedeutet das nicht unbedingt, dass dieser Politiker das wirklich getan hat. Die Menschen müssen mehr auf die Quellen der Informationen achten, die sie sehen. Sie müssen sich die Frage stellen: Wurde das Bild von der Associated Press oder dem "Wall Street Journal" oder einer anderen Quelle, der sie vertrauen, produziert? Sie müssen sich ansehen, woher es kommt, nicht nur, wie es aussieht.

Mit Nick Bostrom sprach Lea Verstl.

Quelle: ntv.de

ntv.de Dienste
Software
Social Networks
Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen