Politik

Geständnis vor Gericht Trumps Ex-Anwalt: Habe Falschinformationen mit KI erzeugt

00:00
Diese Audioversion wurde künstlich generiert. Mehr Infos
Cohen wurde 2018 zu drei Jahren Gefängnis verurteilt.

Cohen wurde 2018 zu drei Jahren Gefängnis verurteilt.

(Foto: picture alliance / ASSOCIATED PRESS)

Wegen der missbräuchlichen Verwendung von Wahlkampfspenden wird Trumps Ex-Anwalt Cohen 2018 zu einer Haftstrafe verurteilt. Der Jurist möchte, dass der Fall zu den Akten gelegt wird. Vor Gericht gibt der 57-Jährige nun an, dass er mithilfe eines Chatbots Falschinformationen fabriziert hat.

Der ehemalige Trump-Anwalt Michael Cohen hat vor Gericht zugegeben, mit Künstlicher Intelligenz Falschinformationen generiert und an seinen Anwalt weitergegeben zu haben. Der 57-Jährige habe mit dem Google Chatbot Bard Belege für ein Gerichtsverfahren in New York herausgesucht, die sich die Software ausgedacht habe. Das geht aus neu veröffentlichten Unterlagen des Bundesgerichts in Manhattan hervor, in denen Cohen sich für sein Verhalten rechtfertigt.

Cohen sagte dem Gericht in einer veröffentlichten eidesstattlichen Erklärung, dass er sich nicht bewusst gewesen sei, dass Google Bard ein Textgenerator ähnlich dem von ChatGPT ist. Cohen räumte seinen Fehler ein, nachdem der Richter in dem Fall zu insgesamt drei zitierten Fällen, die dieser nicht finden konnte, um Erklärung gebeten hatte.

Cohen hatte sich wegen Verstößen gegen die Nutzung von Wahlkampfspenden für Trump 2018 schuldig bekannt und wurde zu drei Jahren Gefängnis verurteilt, durfte aber wegen der Corona-Pandemie einen Teil der Strafe im Hausarrest absitzen. Die fehlerhaften Informationen fanden sich nun in der Bitte Cohens an das Gericht, den Fall zu den Akten zu legen.

Es bleibt abzuwarten, ob die Episode Einfluss auf einen gegenwärtig laufenden Prozess gegen den ehemaligen Präsidenten Donald Trump haben wird. Dort hat Cohen als zentraler Zeuge ausgesagt und wird von der Trump-Verteidigung immer wieder als nicht vertrauenswürdig dargestellt.

Die neuartigen KI-Programme haben immense Fähigkeiten - die Art ihrer Programmierung macht sie jedoch anfällig für das "Halluzinieren" von vermeintlichen Fakten. Schon vor Cohen hatte es Fälle von Anwälten gegeben, die sich mit KI-Chatbots die Arbeit erleichtern wollten, damit aber letztendlich falsche Informationen zur Verfügung stellten.

Quelle: ntv.de, jpe/dpa

Newsletter
Ich möchte gerne Nachrichten und redaktionelle Artikel von der n-tv Nachrichtenfernsehen GmbH per E-Mail erhalten.
Nicht mehr anzeigen