Wirtschaft

Wissenschaftler erklärt Gefahren "KI könnte schleichend die Macht übernehmen"

00:00
Diese Audioversion wurde künstlich generiert. Mehr Infos | Feedback senden
"Vielleicht würde sie uns töten, vielleicht wird es eine schleichende Übernahme über mehrere Jahrhunderte", warnt Simon Friederich.

"Vielleicht würde sie uns töten, vielleicht wird es eine schleichende Übernahme über mehrere Jahrhunderte", warnt Simon Friederich.

(Foto: picture alliance / CHROMORANGE)

Wissenschaftsphilosoph Simon Friederich erklärt im Interview, welche Bedrohungen er bei künstlicher Intelligenz (KI) sieht und wie sich die Menschheit am ehesten vor einer Machtübernahme durch KI schützen könnte. Friederich ist außerordentlicher Professor für Wissenschaftsphilosophie und akademischer Leiter des Bereichs Geisteswissenschaften an der Universität Groningen sowie externes Mitglied des Munich Center for Mathematical Philosophy.

Herr Friederich, Sie haben ein Statement unterzeichnet, das vor den Gefahren von künstlicher Intelligenz warnt. Neben ihnen haben das auch prominente Mitstreiter wie Chat-GPT-Gründer Sam Altman oder KI-Guru Geoffrey Hinton getan. Was war Ihre Intention dahinter?

Simon Friederich: Ich bin kein Experte für Machine Learning, sondern habe in Physik und Philosophie promoviert und lehre Wissenschaftsphilosophie in Groningen. Dort gebe ich auch einen Kurs über große Risiken für die Menschheit, und habe mich in diesem Zuge eng mit künstlicher Intelligenz im Größeren beschäftigt. Und ich sehe da ein großes Risiko, weshalb ich auch unterschrieben habe.

Was für ein Risiko sehen Sie denn?

Ich schließe mich dem Statement an, dass die künstliche Intelligenz Risiken mit sich bringt, die vergleichbar sind mit Nuklearwaffen oder Pandemien - und eventuell sogar zum Aussterben der Menschheit führen können. Das klingt nach Science-Fiction, und wenn man sich die heutigen Systeme anschaut, klingt es verfrüht. Aber man sollte lieber jetzt darüber reden als dann, wenn es zu spät ist.

Simon Friederich

Simon Friederich

(Foto: Privat)

Der Weltuntergang wurde schon viele Male beschworen. Warum jetzt auch noch durch die künstliche Intelligenz?

Es gibt zwei große Probleme bei KI: Die Systeme werden immer leistungsstärker, und wir geben immer mehr Kontrolle an sie ab. Das könnte zu einer schleichenden, vielleicht irgendwann plötzlichen Machtübernahme der KI führen. Die Menschen würden nur noch ein Schattendasein fristen oder ganz "abgeschafft". Die andere Sorge ist, dass KI zu einer Machtkonzentration führt. Einzelne, also Regierungen und Unternehmen, erhalten extreme Macht, weil Menschen als Arbeitskräfte überflüssig werden - gerade im Bereich der kognitiven Herausforderungen.

Sie sagen also, menschliche Fähigkeiten könnten verkümmern, wenn sie zu viel an die KI auslagern?

Ja, das ist richtig. Im Kleinen erkenne ich das schon bei meinen Studierenden, bei denen die Motivation zum Schreiben und Argumentieren manchmal leidet. Das ist aber auch logisch, wenn ich sehe, was für passable Leistungen Sprachmodelle liefern. Und wenn ich mich als Studierender dann frage, wofür meine kognitive Leistung später noch auf dem Arbeitsmarkt gebraucht wird, dann kann ich das im ersten Moment auch verstehen.

Was sind denn für Sie die realsten Bedrohungen - und was vielleicht auch Science-Fiction?

Es geht nicht um Roboter, die plötzlich Bewusstsein erlangen wie im Film. Es geht eher darum, dass eine KI zum Erreichen bestimmter Ziele beispielsweise Ressourcen anhäufen könnte wie Rechenleistung oder Energie. Und dass wir ihr dabei im Weg stehen könnten. Wir wissen nicht, wie eine Machtübernahme durch die KI aussehen würde - vielleicht würde sie uns töten, vielleicht wird es eine schleichende Übernahme über mehrere Jahrhunderte werden. Die Sorge ist, dass wir das erst wissen, wenn es zu spät ist.

Welche KI hat denn bei Ihnen konkret Sorgen ausgelöst?

Ich hatte schon vor längerer Zeit von solchen Entwicklungen gehört, wie wir sie aktuell erleben - zum Beispiel durch das Buch "Superintelligence" von Nick Bostrom. Ich habe aber damals, 2014, gedacht, dass das sehr weit weg ist, vielleicht Jahrhunderte. Als dann GPT 3 rausgekommen ist, war ich schon sehr überrascht, was es alles konnte. Mit Version 4 gab es noch einmal einen Riesensprung. Ende letzten Jahres konnte GPT 3 meine Logik-Aufgaben nicht lösen, inzwischen erreicht GPT 4 in meinem Wissenschaftsphilosophie-Examen die Höchstnote. Das ist schon beeindruckend.

Und wie stellen Sie sich in der Lehre darauf ein?

Sehr unterschiedlich. Viele meiner Kolleginnen und Kollegen machen so weiter wie bisher. Mich treibt die Sorge um, dass wir Teile unserer kognitiven Fähigkeiten verlieren, wenn wir alles auslagern. Deshalb versuche ich auch Handys weitestgehend aus dem Seminarraum rauszuhalten, und in bestimmten Momenten die Technik aber auch gezielt einzusetzen.

Viele der Unterzeichner fordern nun eine Regulierung der KI oder immerhin einen Moralkodex. Aber gibt es überhaupt eine gute Regulierung, wenn einzelne immer ausbrechen können - und es am Ende zu einem Rattenrennen kommt?

Ich glaube, dass die Unterzeichner extrem unterschiedliche Vorstellungen davon haben, was eine gute und schlechte Regulierung ist. Allein zwischen Wissenschaftlern und Unternehmern dürfte es da gewaltige Unterschiede geben.

Warum unterzeichnen denn etliche Unternehmer einen indirekten Aufruf zur Regulierung. Wollen sie etwa ihr eigenes Geschäft zerstören?

Nein, sicher nicht. Ich denke, dass es ganz verschiedene Motivationen gibt. Und teilweise dürften die auch extrem weit auseinander gelegen haben. Die Gründer von Open AI wurden beispielsweise eher nicht durch das Potenzial der Technologie motiviert, sondern gerade auch durch die Risiken. Ihre Überlegung scheint eher gewesen zu sein: "Allgemein anwendbare KI - Artificial General Intelligence - kann unglaublich gefährlich werden. Da ist es doch besser, wenn das verantwortungsvolle Menschen wie wir machen." Ein bisschen so wie früher bei der Atombombe, die die USA entwickeln wollten, bevor Hitler sie hatte.

Wo sollte eine gute Regulierung denn aus Ihrer Sicht ansetzen?

Ich persönlich habe die Sorge, dass gerade vieles zu schnell geht - dass wir nicht bereit sind für solche Systeme, die uns in ein paar Jahren kognitiv überholen werden. Aber ob die sich anbahnende EU-Regulierung oder ein Moratorium überhaupt die richtigen Lösungen sind - ich weiß es nicht …

Es gibt auch Gegenstimmen zum Statement. Zum Beispiel von Metas KI-Chef Yann LeCun, der die Kritik für verfrüht hält. Aktuell sei die KI noch nicht einmal cleverer als ein Hund, und solange müsse man auch keine Apokalypse herbeireden. Was halten Sie davon?

Yann LeCun hat 2018 gemeinsam mit Geoffrey Hinton und Yoshua Bengio den Turing Award für seine KI-Forschungen gewonnen - was so etwas wie der Nobelpreis für Informatik ist. Interessanterweise ist er von den Dreien aber der Einzige, der nicht unterschrieben hat. Und auch sonst gibt es genügend seriöse Stimmen, die den aktuellen Zeitpunkt für richtig halten.

Eine andere Kritik dreht sich um die Frage, wie hoch das Potenzial von künstlicher Intelligenz überhaupt ist. Manche Kritiker sagen, dass die KI maximal ein Papagei sei, der das wiedergebe, was sein Besitzer ihm erzähle. Das würde gegen die Fortschrittserzählung sprechen. Aber: Ganz nebenbei führe das zur Stigmatisierung von Minderheiten, weil der historische Datensatz beispielsweise schlechtere Qualifikationen für schwarze Menschen nachweist. Was halten Sie von dieser Kritik?

Die Sorge über Diskriminierung halte ich für absolut berechtigt. Es gibt jede Menge Beispiele dafür. Die Kindergeldaffäre hier in den Niederlanden war besonders dramatisch, mit tragischen Folgen für die Opfer.

Gibt es aus Ihrer Sicht denn auch Chancen aus der KI?

Die grundlegende Erwartung an technologischen Fortschritt ist positiv bei mir. Bislang haben technologische Entwicklungen die Welt meistens besser gemacht - sei es durch die industrielle Revolution, das Internet usw. Und, klar: Wenn wir jetzt Prozesse automatisieren können, die für viele Menschen mühsam sind, und damit die Produktivität erhöhen können, dann ist das großartig. Ich sehe also auch riesige Chancen. Wir sollten aber aufpassen, dass wir der KI nicht jede "kognitive Nische" auf diesem Planeten überlassen.

Mit Simon Friedrich sprach Jannik Tillar.

Dieses Interview erschien zuerst bei capital.de

Quelle: ntv.de

Social Networks
Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen