"Wir müssen sie beherrschen"Bedeutet eine Super-KI das Ende der Menschheit?

Was nach Science-Fiction klingt, bereitet manchen Forschern ernsthafte Sorgen: Die Entwicklung einer Super-KI könnte die Menschheit bedrohen. Schon heute werden die Schattenseiten Künstlicher Intelligenz sichtbar - und gleichzeitig wächst die Abhängigkeit.
Im vergangenen Jahr veröffentlichten US-KI-Forscher ein Buch mit dem düsteren Titel: "If anyone builds it, everyone dies" ("Wenn das jemand baut, sterben alle"). Das Buch steht beispielhaft für zuletzt lauter werdende Stimmen, die vor großen Umwälzungen oder gar der Auslöschung der Menschheit durch immer leistungsfähigere Künstliche Intelligenz warnen.
Was passiert, wenn aus den heute noch harmlos wirkenden Chat-Assistenten wie ChatGPT durch schnelle technologische Sprünge eine Superintelligenz wird, die den Menschen bei fast allen geistigen Aufgaben übertrifft, die in der Lage ist, selbstständig zu handeln, strategisch vorzugehen und vielleicht sogar die Kontrolle übernimmt? Science-Fiction? Nicht unbedingt.
In Neu Delhi treffen sich dieser Tage Staats- und Regierungschefs, Minister und Chefs großer Tech-Firmen zum "AI Impact Summit" und beraten über die Auswirkungen von KI. Gesprächsthema ist auch die Sicherheit und die Frage, wie gefährlich die Technologie werden könnte, bei allen Fortschritten, die sie mit sich bringt. Bundeskanzler Friedrich Merz hat seinen Fachmann dafür geschickt: Digitalminister Karsten Wildberger.
Erster Schritt in Abhängigkeit
Der ehemalige MediaMarktSaturn-Chef steht der Technologie qua Amt grundsätzlich positiv gegenüber. Ein blinder "Technikverherrlicher" sei er aber nicht, sagt er auf dem Flug nach Delhi vor Journalisten. "Ich sehe da schon auch Gefahren und Herausforderungen". Wildberger weist darauf hin, dass Risiken bereits heute sichtbar würden, ohne dass es eine Super-KI brauche. Wenn man etwa einen Großteil gewohnter Tätigkeiten an KI übergebe, sei das ein erster Schritt in eine Abhängigkeit.
In besagtem Buch mit dem apokalyptischen Titel sprechen die US-KI-Forscher Eliezer Yudkowsky und Nate Soares eine düstere Warnung aus: Wenn es irgendjemandem auf der Welt gelingen sollte, eine Superintelligenz zu bauen, werde jeder auf dem Planeten sterben. Der Gedanke dahinter: Eine solche KI könnte sich irgendwann gegen die Menschheit richten. Vielleicht, weil sie zu dem rechnerischen Schluss kommt, die Menschheit sei schlecht für den Planeten oder aus anderen Gründen.
Wann das sein könnte, wagen die Autoren nicht vorherzusagen, aber KI werde nicht ewig dumm bleiben, besonders wenn sie dafür genutzt wird, sich selbst zu optimieren, indem sie in das Programmieren eingebunden wird oder es sogar ganz übernimmt. Die Experten sprechen in dem Fall von einer "Intelligenzexplosion" und rufen dazu auf, das Thema ernst zu nehmen. Noch könne die Entwicklung einer Superintelligenz verhindert werden.
In nur zwei Jahren
Von Weltuntergangszenarien ("Doomerism") hält der Chef der KI-Firma Anthropic mit ihrem ChatGPT-Konkurrenten "Claude", Dario Amodei, nichts, wie er kürzlich in einem Aufsatz schrieb. Doch auch er schließt nicht aus, dass es ziemlich bald eine KI geben könnte, die die meisten Nobelpreisgewinner in den Schatten stellt, die bisher ungelöste mathematische Probleme löst, sich selbstständig im Internet orientiert, Dinge bestellen kann und besser als jeder Mensch Texte, Audios oder Videos erstellt. In nur ein bis zwei Jahren könnte es so weit sein, dass aktuelle KI-Systeme völlig selbstständig ihre bessere Nachfolgeversion programmieren, so Amodei.
Ein solches "Land der Genies in einem Rechenzentrum", wie er es nennt, hätte ziemlich gute Chancen auf die Weltherrschaft, wenn es sich aus welchem Grund auch immer dafür entscheiden würde, warnt Amodei. In den vergangenen Jahren hätten KI-Systeme gezeigt, dass sie schwer vorherzusagen und zu kontrollieren seien. Anthropic hatte etwa bei Tests festgestellt, dass ein KI-Modell Erpressung nutzte, um nicht durch ein vermeintlich neues Modell ersetzt zu werden.
"Something Big Is Happening" ("Etwas Großes passiert gerade") schrieb der US-KI-Unternehmer Matt Schumer kürzlich auf X. Der Post wurde mehr als 80 Millionen Mal aufgerufen und befeuerte die Debatte über die Gefahren ebenfalls. Schumer blickt vor allem auf Jobs: Kein heutiger Computerarbeitsplatz sei mittelfristig mehr sicher. "Wenn Ihr Job auf einem Bildschirm passiert (wenn es im Kern um Lesen, Schreiben, Analysieren, Entscheiden und Kommunizieren über eine Tastatur geht) dann wird ein Großteil davon von KI übernommen werden. Nicht irgendwann, es hat schon begonnen", schreibt er.
Deutscher KI-Experte: "Abwarten"
Nicht alle Experten schlagen Großalarm. "Abwarten", sagte Antonio Krüger vom Deutschen Forschungszentrum für Künstliche Intelligenz jüngst im Deutschlandfunk. Komplexere Programmieraufgaben, die man KI-Systemen gebe, müssten immer noch überwacht und die Ergebnisse kontrolliert werden.
Das erfordere Softwareentwickler, die etwas von ihrem Handwerk verstünden. Dass sich KI-Systeme ohne Rückkopplung selbst verbessern, davon sei man noch ein gutes Stück entfernt. "Der große Durchbruch zu vollständiger Autonomie von KI-Systemen, den sehe ich im Moment noch nicht."
Dass die Debatte über Sicherheit jetzt aber noch weiter ins Bewusstsein rückt, findet Digitalminister Wildberger richtig. Er ruft dazu auf, sich aktiv an der Entwicklung der Technologie zu beteiligen. China und die USA täten das sowieso. Deutschland müsse dabei sein. "Wir müssen die Technologie beherrschen, um sie kontrollieren zu können."