Der Tag
Der TagRechtsberatung durch ChatGPT folgt Polizeieinsatz
19.12.2025, 17:07 Uhr
Sprachmodelle wie ChatGPT neigen dazu, ihr Gegenüber zu bestärken. Manchmal können sie Fragen auch einfach nicht beantworten. Das geben sie so offen aber lieber nicht zu. Wenn sich Menschen dennoch auf ihre Antworten verlassen, kann das böse enden. So wie gestern im bayerischen Landshut.
Eine 23-Jährige soll dort nach Angaben der bayerischen Polizei versucht haben, mehrere Pakete zurückzusenden. Mit nur einer Retourenmarke. Weil das nicht funktionierte, soll sie ein Sparschwein zerstört haben und dann ChatGPT um Hilfe gefragt haben. Das Sprachmodell stimmte ihr demnach zu: Sie sei im Recht, man müsse sich bei ihr entschuldigen. Die junge Frau rief die Polizei. Die kam auch, musste die Frau aber enttäuschen und geleitete sie aus dem Laden.