Im Zuge der technologischen Entwicklung haben große Sprachmodelle (LLMs), wie sie beispielsweise in Chatbots oder Assistenzsystemen zum Einsatz kommen, eine beeindruckende Fähigkeit zur Generierung natürlichsprachlicher Texte entwickelt. Diese Modelle werden durch das Training mit immensen Datenmengen weiterentwickelt, wobei auch personenbezogene Daten einfließen können. Die sich daraus ergebende Fragestellung ist, inwieweit die datenschutzrechtlichen Betroffenenrechte – insbesondere das Recht auf Auskunft, Berichtigung und Lösung – in diesem Kontext gewährleistet bleiben.
Ein aktueller Fall, der diese Problematik in den Fokus rückt, ist die Beschwerde gegen den Entwickler von ChatGPT, welche die mangelnde Möglichkeit zur Durchsetzung von Betroffenenrechten bemängelt. Kritisiert wird, dass Auskunftsanfragen bezüglich der verarbeiteten personenbezogen unausreichend beantwortet und Löschungsersuchen unzulänglich umgesetzt werden.
Die Diskussion um die Durchsetzung von Betroffenenrechten im Umfeld von KI-Anwendungen und LLMs wird derzeit intensiv geführt. Während einige auf die Schaffung technischer Lösungen setzen, plädieren andere für strengere regulatorische Vorgaben. Datenschutzbehörden wie die Datenschutzkonferenz (DSK) haben hierzu Orientierungshilfen herausgegeben, die allerdings die Frage offenlassen, wie praktikable Lösungen aussehen könnten.
Es wird etwa vorgeschlagen, durch Techniken wie das Nachtraining von Modellen Falschaussagen zu verhindern oder gezielt personenbezogene Daten zu bearbeiten, um die Datenschutzkonformität sicherzustellen. Darüber hinaus gewinnt die Idee von Filtertechnologien an Bedeutung, die zwar keine Datenlöschung im eigentlichen Sinn darstellen, aber dennoch zum Schutz von Betroffenen beitragen könnten.
Wichtig wird dabei sein, einen verantwortungsvollen Umgang mit KI-Technologien zu gewährleisten, der sowohl die Innovationsfähigkeit als auch die datenschutzrechtlichen Anforderungen in Einklang bringt. Es ist an der Zeit, dass alle Akteure – Entwickler, Anwender und Regulierungsbehörden – zusammenarbeiten, um wegweisende Lösungen zu entwickeln, die Betroffenenrechte auch im Zeitalter fortschrittlicher KI-Systeme sichern.