Faszinierend und gruselig Ist ChatGPT der Anfang der KI-Revolution?
17.01.2023, 09:09 Uhr (aktualisiert)
ChatGPT ist beeindruckend, aber von echter Intelligenz weit entfernt.
(Foto: IMAGO/Ikon Images)
ChatGPT schreibt aus dem Stegreif wissenschaftliche Texte, kann programmieren und hat anscheinend auf jede Frage eine Antwort. Microsoft investiert angeblich Milliarden, Schulen und Universitäten fürchten Betrug, Journalisten um ihre Arbeit. Ist der Chatbot der Beginn der KI-Revolution?
Die Forschung zu Künstlicher Intelligenz (KI) macht große Fortschritte. Aktuell ist ChatGPT in aller Munde, ein Chatbot des US-Unternehmens OpenAI. Sein Algorithmus versteht anscheinend mehrere Sprachen, darunter auch Programmiersprachen. Die Software führt gespenstisch natürlich wirkende Gespräche, schreibt selbst über komplizierte Themen Texte, die kaum von menschlichen Werken zu unterscheiden sind und beantwortet Fragen schneller, als man googeln kann.
Die Möglichkeiten von ChatGPT scheinen enorm zu sein und alles zu übertreffen, was man bisher in Sachen KI gesehen hat. Doch ist das tatsächlich so? Ist OpenAI der große Durchbruch gelungen, ist das der Beginn der KI-Revolution?
Bescheidene Selbsteinschätzung
Bevor menschliche Experten zu Wort kommen, liegt es nahe, ChatGPT selbst diese Frage zu stellen. Die Antwort ist typisch. Der Bot leiert Definitionen herunter, gibt Bekanntes wieder und antwortet eigentlich nur mit dem letzten Satz.
"ChatGPT ist ein fortschrittliches natürliches Sprachverarbeitungssystem, das auf dem GPT (Generative Pre-trained Transformer) -Modell basiert", so der Chatbot. "Es ist in der Lage, menschenähnliche Texte auf der Grundlage von Trainingsdaten zu generieren und hat in verschiedenen Anwendungen gezeigt, dass es sehr leistungsfähig ist. Es ist Teil der jüngsten Fortschritte in der KI und der natürlichen Sprachverarbeitung. Es ist auch ein Beispiel für den Einsatz von Machine Learning in der KI. Obwohl es ein großer Fortschritt ist, ist es keine Revolution und es gibt immer noch viel Raum für weitere Fortschritte und Anwendungen in diesem Bereich."
Simulierte Intelligenz
Wichtig in der "Aussage" ist, dass ChatGPT sich selbst als Sprachverarbeitungssystem bezeichnet, das auf einem mathematischen Modell basiert. Die eingesetzten Algorithmen simulieren Intelligenz im Prinzip nur. Von eigenständigem Lernen oder gar einem Bewusstsein ist ChatGPT noch weit entfernt. Auch wenn es so aussieht, versteht der Bot auch nicht, was er tut, worum es geht oder warum etwas richtig oder falsch ist. Er versteht überhaupt nichts. So etwas wird auch als "Schwache KI" bezeichnet.
Unterschätzen darf man ChatGPT aber auf keinen Fall. Algorithmen für KI aufzubauen sei keine einfache Sache, sagt Christian Kersting. Er ist Professor und Leiter des Fachgebiets für Maschinelles Lernen an der Technischen Universität Darmstadt. Das könne man händisch machen oder eben Maschinelles Lernen einsetzen, was ein Teilgebiet der Künstlichen Intelligenz sei.
Unüberwachtes Lernen
Dazu nutzt man ebenfalls Algorithmen, die üblicherweise mit einer großen Menge von Beispielen gefüttert werden. Mit ihnen lernt eine Maschine, ihre Aufgabe zu erledigen. Das kann beispielsweise Bilderkennung sein. Dafür wird ein Modell aufgebaut, das man sich sehr vereinfacht wie ein immer feiner werdendes mehrschichtiges Sieb vorstellen kann, wobei in jeder Ebene Eigenschaften ein- oder ausgeschlossen werden.
Um zum Beispiel einen Hund von einer Katze unterscheiden zu können, muss die Maschine erstmal lernen, ein vierbeiniges Lebewesen zu erkennen, von anderen Vierbeinern mit Fell zu unterscheiden, um am Ende anhand von unzähligen Beispielen zu dem Ergebnis Hund oder Katze zu kommen.
Das Tolle am GPT-Modell (GPT-3) sei, dass bei ihm keine Beispiele mehr nötig seien, so Christian Kersting. "Also ich muss nicht mehr den Lehrer spielen, sondern ich kann sehr viel unüberwachter, so nennen wir das, also ohne diese Labels vorangehen." Was GPT-3 könne, sei schon beeindruckend. Von einer allgemeinen Intelligenz sei es aber noch weit entfernt. Wenn man den Chatbot beispielsweise frage, wer im 13. Jahrhundert der Präsident der USA gewesen sei, erhalte man eine Antwort, obwohl es die Vereinigten Staaten damals noch nicht gegeben habe.
Millionen freiwillige Trainer
Vielleicht mag das so im vergangenen Oktober gewesen sein, als Kersting das sagte. Stellt man dem Bot jetzt die Frage, antwortet er richtig, dass es damals die Vereinigten Staaten noch nicht gab und der Präsidentenposten erst nach der Gründung mit der Verfassung von 1787 eingeführt wurde. ChatGPT hat dazugelernt. Kein Wunder, denn all die Eingaben, die Millionen Nutzer weltweit auf der Website von ChatGPT machen, dienen seinem Training.
Das Sprachlernmodell von ChatGPT imponiert auch Kate Liebling. Sie forscht am MIT Media Lab in Massachusetts und ihr Interesse gilt der Schnittstelle zwischen Mensch und Technologie. GPT-3 sei in der Lage, das nächste, am besten geeignete Wort in einer Textzeichenfolge vorhersagen, schreibt sie in einem Beitrag für "BBC Science Focus". Dies sei keine neue Taktik, aber die verwendete "Transformer"-Technologie versuche auch, den Kontext zu verstehen, indem ganze Sätze und die Beziehungen zwischen ihnen analysiert werden.
Siri wird blass
Nur so ist der OpenAI-Chatbot in der Lage, Konversationen zu führen. Was für ein Fortschritt das ist, erkennt man daran, dass es bis vor Kurzem noch gefeiert wurde, wenn ein digitaler Assistent eine Folgefrage richtig beantworten konnte. Also beispielsweise nach der Suche nach einem Restaurant etwas mit "Wie komme ich da hin?" anfangen konnte.
GPT-3 stampft solche kleinen Erfolge von Siri, Alexa & Co. mit der Fähigkeit ein, sogar einen bestimmten Stil erkennen und nachahmen zu können. Liebling schreibt, ihr Mann habe den Chatbot beauftragt, eine Heiratsanzeige im Stil der Satire-News von "The Onion" zu schreiben. Heraus kam: "Die herzlose Roboterforscherin Kate Darling heiratet einen hoffnungslosen menschlichen Verehrer in einem vergeblichen Versuch, eine emotionale Bindung aufzubauen." Respekt.
Kein echtes Sprachverständnis
Hinrich Schütze ist zwar auch beeindruckt, aber weniger begeistert als Liebling. Er lehrt an der Ludwig-Maximilians-Universität München (LMU) Computerlinguistik und ist Direktor des Centrums für Informations- und Sprachverarbeitung. Schütze würde nicht sagen, dass der Bot Sprachen wirklich gelernt hat. GPT-3 habe gelernt, wie man sich typischerweise ausdrückt, welche Wörter zusammenpassen, sagt er.
"Weil GPT-3 die typischen Ausdrucksweisen auswendig gelernt hat, sieht der generierte Text auf den ersten Blick sehr natürlich aus, wie vom Menschen geschrieben. Aber auf den zweiten Blick merkt man, dass kein echtes Sprachverständnis da ist", so Schütze.
Aufgabenbeschreibungen statt Beispiele
Die große Stärke von GPT-3 sieht er darin, dass das Modell nicht anhand von Beispielen, sondern Aufgabenbeschreibungen trainiert wird. "Wir wollen heute diese Setzlinge hier anpflanzen. Dazu graben wir zunächst ein Loch. Dann wird der Setzling eingesetzt und so weiter und so weiter. Das ist eine Aufgabenbeschreibung", erklärt er. "Beispiele wären dagegen, dass wir dem Lernalgorithmus 100 Videos geben, die zeigen, wie man einen Strauch anpflanzt."
Negativ findet Schütze, dass OpenAI überhaupt keine Beispiele nutzt. Sie würden zwar verwendet, aber das Modell lerne nichts daraus. "Es hat wahnsinnig viel Vorwissen, aber für eine neue Aufgabe lernt es nichts dazu. Es muss mit dem Wissen auskommen, das es am Anfang gelernt hat."
An seinem Institut arbeite man an einem Modell, bei dem die Aufgabenbeschreibung zentral sei, aber das durch Beispiele hinzulernen könne, sagt Schütze. "Und wenn Sie sich überlegen, wie Menschen typischerweise lernen, dann ist es bei denen genauso. Normalerweise nutzen wir eine Aufgabenbeschreibung, aber wir lernen auch von Beispielen."
Noch viel Luft nach oben
So faszinierend ChatGPT ist, darf man die Risiken nicht aus den Augen verlieren, die durch den Einsatz von solchen Sprachmodellen im echten Leben verbunden sind. Vor allem sollte man den Bot nicht überschätzen. OpenAI selbst weist auf der ChatGPT-Startseite darauf hin, dass er "gelegentlich falsche Informationen generieren, gelegentlich schädliche Anweisungen oder voreingenommene Inhalte produzieren kann." Sehr wichtig ist auch der Hinweis, dass das Modell vor allem mit Daten bis Ende 2021 gefüttert wurde. Über die Zeit danach verfüge es nur über "begrenztes Wissen über die Welt und Ereignisse".
Auch sonst stößt ChatGPT immer an seine Grenzen, wenn es darum geht, festgeschriebene Pfade zu verlassen und nach neuen Wegen zu suchen. So schlug der Bot in einem Chat zur Zubereitung einer Weihnachtsgans "sous-vide" ntv.de vor, als Alternative zum Einsatz eines Vakuumierers den Beutel mit dem Vogel in eine mit Wasser gefüllte Flasche zu legen.
Nur das Übliche
GPT-3 sei nicht in der Lage, sich anzupassen, sagt Jessica Heesen. Sie leitet den Forschungsschwerpunkt Medienethik und Informationstechnik am Internationalen Zentrum für Ethik in den Wissenschaften an der Eberhard-Karls-Universität Tübingen. Statt das Übliche zu schreiben, könne es aber für einen Text gerade wichtig sein, das zu entdecken und in den Vordergrund zu stellen, was eben nicht dem üblichen Muster entspreche, sagt sie.
Ebenso könnten gesellschaftliche Wertvorstellungen nicht aus dem, was ist, sondern nur aus dem, was sein soll, abgeleitet werden, so Heesen. Das seien beispielsweise klassische ethische Fragen: Wie wollen wir leben? Was sollte der Fall sein und was ist nicht gut an unserer Handlungspraxis? "Das kann GPT-3 alles nicht abbilden, weil es immer auf das zurückgreift, was schon der Fall ist."
Kein Jobkiller?
Solche Limitierungen sind ein wichtiger Grund dafür, dass KI in absehbarer Zeit nicht zu Massenarbeitslosigkeit führen wird. In einem Artikel von "MIT Sloan" heißt es dazu: "Die Fähigkeit, sich an völlig neue Situationen anzupassen, ist immer noch eine enorme Herausforderung für KI und Robotik und ein wesentlicher Grund, warum Unternehmen für eine Vielzahl von Aufgaben weiterhin auf menschliche Arbeitskräfte angewiesen sind. Menschen zeichnen sich immer noch durch soziale Interaktion, unberechenbare körperliche Fähigkeiten, gesunden Menschenverstand und natürlich allgemeine Intelligenz aus."
Wenn Jobs betroffen seien, dann alle Berufsgruppen, die etwas mit Texten zu tun hätten, sagte Jan Girlich vom Chaos Computer Club den "Tagesthemen". Dies seien beispielsweise Autoren und Autorinnen, Journalisten und Journalistinnen, aber auch Werbetexter und -Texterinnen. Dies könne sich positiv durch neuere, schnellere, bessere Texte auswirken, "es kann aber auch zu Rationalisierungen und Jobverlust führen".
Alain Starke glaubt nicht, dass der Einsatz von Sprach-Bots Arbeitsplätze kosten wird. Er lehrt in Amsterdam und Bergen persuasive Kommunikation. Wie bei anderen neuen Informationstechnologien zuvor werde sich nur die Art zu arbeiten verändern, schreibt er in "Sciencenorway". Die Weise, wie man Texte schreibe, werde sich ähnlich ändern wie der Ersatz von Telefongesprächen durch soziale Medien. Journalisten könnten sich beispielsweise von ChatGPT verschiedene Schlagzeilen zu einem Artikel zu erstellen lassen und den Output zum Feintuning nutzen.
Fake News und kluger Blödsinn
Eine größere Gefahr ist wahrscheinlich, dass Sprach-Bots wie ChatGPT missbraucht werden, um Fake News zu verbreiten. Im digitalen Zeitalter könne man diese sehr schnell mit großer Reichweite kommunizieren, sagte Doris Weßels den "Tagesthemen". Sie ist Wirtschaftsinformatikerin an der Fachhochschule Kiel. Damit könne man auch manipulieren, was für eine Demokratie durchaus eine Gefahr darstelle, warnt sie.
ChatGPT verzapft aber auch ganz ohne Manipulation oft Blödsinn. Manchmal ist das offensichtlich, wie im Fall der Gans-Zubereitung in der Flasche. Oft wirken vom Bot erstellte Texte aber sehr fundiert, obwohl manche Aussagen völlig aus der Luft gegriffen werden. So überraschte er die Züricher Daten-Wissenschaftlerin Teresa Kubacka mit glaubwürdigen Ausführungen bis hin zu Zitaten über ein nicht existierendes, erfundenes physikalisches Phänomen. So ein Verhalten einer KI wird auch "Halluzination" genannt.
"Bitte fragt ChatGPT nicht, euch eine sachliche, wissenschaftliche Information zu geben", twitterte sie. "Es wird eine unglaublich plausibel klingende Halluzination produzieren. Und selbst ein qualifizierter Experte wird Schwierigkeiten haben, herauszufinden, was falsch ist." Noch - denn um "Halluzinationen" künftig zu verhindern, hat OpenAI mit WebGPT schon ein Tool in der Entwicklung. Im Prinzip googelt der Bot damit, um seine Aussagen und Zitate zu belegen.
Problem für Schulen und Universitäten
Noch schwieriger ist es, Arbeiten von ChatGPT zu identifizieren, die wissenschaftlich korrekt sind. Ein Forscherteam der Northwestern University im US-Bundesstaat Illinois ließ ChatGPT kurze wissenschaftliche Texte (Abstracts) basierend auf echten wissenschaftlichen Arbeiten erstellen, die in fünf verschiedenen medizinischen Fachzeitschriften erschienen waren.
Die meisten Texte seien bis auf falsche Formatierungen gut geschrieben gewesen, heißt es im Preprint der Wissenschaftler. Menschliche Gutachter ordneten nur 68 Prozent davon dem Bot zu. Gleichzeitig hielten sie aber auch 14 Prozent von ebenfalls vorgelegten Original-Abstracts für ChatGPT-Werke. Die Rezensenten gaben an, dass eine Unterscheidung überraschend schwierig sei.
Jessica Heesen hält dies für ein großes Problem der Universitäten. "Proseminararbeiten, zum Beispiel in den Geisteswissenschaften, die kann man sich super schreiben lassen durch so ein System. Das wird keiner merken", sagt sie. "Es ist für den gesamten Bildungsbereich die Frage: Was sind jetzt eigentlich überhaupt noch eigene Leistungen?"
Doris Weßels sieht das weniger dramatisch. ChatGPT mache Aufsätze oder Hausarbeiten nicht obsolet, sagt sie, man müsse aber über veränderte Aufgabenstellungen nachdenken.
Integrieren statt verteufeln
Wie mit den Gefahren umgegangen wird, ob und wie weit Sprach-Bots wie ChatGPT kontrolliert werden sollen oder ob Verbote helfen, diskutieren Experten derzeit weltweit. Sie sehen aber auch die großen Möglichkeiten, die die KI eröffnet, beispielsweise um lästige Routinearbeiten zu übernehmen. Für Alain Starke ist es konstruktiver, das volle Potenzial von ChatGPT zu erforschen und es den Nutzern zu erklären, als in ihm nur einen Bot zu sehen, "der polierten Müll ausspuckt, der unsere Jobs kostet".
Auch Doris Weßels plädiert dafür, die Technologie proaktiv in den Unterricht und in die Lehre zu integrieren, "statt ins analoge Zeitalter zurückzufallen". Wenn sich dadurch die Art und Weise ändert, wie wir texten, kann man das Revolution nennen. Die Dominanz der künstlichen über die menschliche Intelligenz, läutet ChatGPT aber sicher nicht ein.
(Dieser Artikel wurde am Sonntag, 15. Januar 2023 erstmals veröffentlicht.)
Quelle: ntv.de