Eine Datenschutzorganisation hat eine Beschwerde gegen OpenAI eingereicht. Der Grund dafür ist ein Vorfall, bei dem ChatGPT fälschlicherweise behauptete, ein norwegischer Mann habe seine Kinder ermordet. Die österreichische Organisation Noyb wirft OpenAI vor, gegen die europäische Datenschutz-Grundverordnung (GDPR) verstoßen zu haben.
KI-Fehlinformation führt zu rechtlichen Schritten
Arve Hjalmar Holmen fragte ChatGPT nach Informationen über sich selbst. Die KI antwortete mit einer frei erfundenen Geschichte, in der behauptet wurde, er sei wegen Mordes an zwei Söhnen und eines Mordversuchs an einem dritten Kind verurteilt worden. Zudem hieß es, er habe eine 21-jährige Haftstrafe erhalten.
Obwohl die Verurteilung erfunden war, enthielt die Antwort korrekte persönliche Details. ChatGPT nannte seine Heimatstadt sowie die Anzahl und das Geschlecht seiner Kinder richtig. Solche KI-Halluzinationen entstehen oft durch Fehler oder Verzerrungen in den Trainingsdaten.
Noyb hat einen Screenshot der ChatGPT-Antwort in seiner Beschwerde veröffentlicht. Das genaue Datum der Interaktion wurde jedoch entfernt. Seit dem Vorfall hat OpenAI sein Modell aktualisiert. Nun gibt ChatGPT keine falschen Mordvorwürfe mehr über Holmen aus.
Trotz dieser Änderung argumentiert Noyb, dass die falschen Daten weiterhin in OpenAIs System existieren könnten. Die Organisation betont, dass ChatGPT Nutzerdaten speichert und für zukünftige Modell-Trainings verwendet. Holmen kann nicht wissen, ob die Fehlinformation dauerhaft gelöscht wurde.
Datenschutzorganisation fordert Maßnahmen gegen OpenAI
Noyb hat seine offizielle Beschwerde bei der norwegischen Datenschutzbehörde (Datatilsynet) eingereicht. Die Organisation wirft OpenAI vor, gegen Artikel 5(1)(d) der GDPR verstoßen zu haben. Dieses Gesetz verlangt von Unternehmen, dass gespeicherte persönliche Daten korrekt und aktuell gehalten werden.
Noyb fordert, dass OpenAI die falschen Informationen über Holmen vollständig löscht. Außerdem soll das Unternehmen sein KI-Modell anpassen, um ähnliche Fehler in Zukunft zu vermeiden. Zusätzlich verlangt Noyb eine Geldstrafe, um sicherzustellen, dass OpenAI die Datenschutzgesetze einhält.
Holmen äußerte große Besorgnis über die Situation. Er befürchtet, dass Menschen die falsche Behauptung glauben könnten, selbst wenn OpenAI sie korrigiert. „Viele denken, wo Rauch ist, ist auch Feuer. Das macht mir am meisten Angst,“ sagte er.
Noyb-Anwältin Kleanthi Sardeli kritisierte, dass KI-Unternehmen Datenschutzgesetze ignorieren. „Eine Warnung hinzuzufügen, bedeutet nicht, dass man sich nicht an das Gesetz halten muss. KI-Firmen können GDPR nicht einfach umgehen,“ erklärte sie. Sardeli warnte außerdem, dass KI-Halluzinationen erheblichen Reputationsschaden verursachen können, wenn sie nicht behoben werden.
Dieser Fall könnte einen wichtigen Präzedenzfall für den Umgang mit personenbezogenen Daten durch KI-Unternehmen schaffen. OpenAI hat bislang nicht auf die Beschwerde reagiert.