Frage aus dem Arbeitsrecht Muss der Chef über Nutzung von ChatGPT Bescheid wissen?
30.05.2023, 06:29 Uhr Artikel anhören
Datenschutzproblematik von KI: Wenn man ChatGPT im Arbeitsalltag nutzt, darf man nie sensible Daten weitergeben.
(Foto: Zacharie Scheurer/dpa-tmn)
ChatGPT kann im Arbeitsalltag Zeit und Mühe sparen. Doch wann dürfen Arbeitnehmerinnen und Arbeitnehmer die KI-Anwendung eigentlich nutzen?
ChatGPT funktioniert auf der Grundlage von maschinellem Lernen und künstlicher neuronaler Netze. Was so viel bedeutet, dass es aufgrund seiner umfangreichen Trainingsdaten in der Lage ist, auf Fragen zu antworten und menschenähnlich zu kommunizieren. Das macht einigen Menschen Angst, andere möchten die künstliche Intelligenz gerne auch in ihrem Arbeitsalltag nutzen.
Denn egal ob Texte schreiben oder übersetzen: KI-Anwendungen wie ChatGPT erscheinen vielen auch im Job als praktische Hilfe. Denn vom Verfassen von E-Mails über das Formulieren von Stellenanzeigen bis hin zur Analyse großer Datenmengen kann vieles mit ChatGPT automatisiert erfolgen.
Aber ist die Nutzung der Software aus arbeitsrechtlicher Sicht erlaubt? "Grundsätzlich dürfen Arbeitnehmende ihre Arbeit von ChatGPT erledigen lassen", erklärt der Fachanwalt für Arbeitsrecht, Nils Wigger, in einem Beitrag für die "Deutsche Handwerks Zeitung" ("DHZ"). "Denn eine KI ist nach heutiger Ansicht kein Dritter, sondern lediglich ein Arbeitsmittel."
Niemals sensible Jobdaten eingeben
Doch wer sie beruflich nutzen möchte, sollte den Arbeitgeber vorab darüber informieren. Eine Auskunftspflicht bestehe zumindest dann, wenn die Aufgaben ausschließlich mit dem Chatbot erbracht werden, erklärt der Fachanwalt. Unternehmen könnten den Einsatz von ChatGPT im Unternehmen zudem untersagen. "Wird gegen das Verbot verstoßen, dürfen arbeitsrechtliche Maßnahmen wie eine Abmahnung oder Kündigung ergriffen werden", so Wigger.
Greift man für die Arbeit auf die KI-Anwendung zurück, ist vor allem eines wichtig: Keine sensiblen Daten eingeben. Schließlich sei es möglich, dass ChatGPT die erhaltenen Angaben nutzt, um seine Dienste weiter zu optimieren, heißt es in dem Beitrag.
So könne es dann etwa passieren, dass sich die Software Zahlen, Unternehmensdaten oder gar Geschäftsgeheimnisse merkt und an Dritte weitergibt.
Übernehmen Arbeitnehmerinnen und Arbeitnehmer falsche Inhalte, die die KI-Anwendung ausspuckt, werden diese zudem als eigene Fehler gewertet. Beschäftigte sollten KI-basierte Texte daher immer kritisch hinterfragen und auf ihre Richtigkeit prüfen. Denn bei ChatGTP handelt es sich nur um ein Modell und nicht um ein menschliches Gehirn. Und auch das ist ja bekannterweise durchaus fehleranfällig.
Quelle: ntv.de, awi/dpa