Home » WhatsApp-KI gibt private Nummer aus – Nutzer und Experten alarmiert

WhatsApp-KI gibt private Nummer aus – Nutzer und Experten alarmiert

by Katharina Eberharter
0 comments

Ein Vorfall mit Metas WhatsApp-KI hat in Großbritannien Besorgnis ausgelöst: Ein Nutzer erhielt auf eine einfache Anfrage hin die private Telefonnummer eines völlig unbeteiligten Dritten. Der Fall wirft grundlegende Fragen zum Datenschutz und zum Verhalten von KI-Systemen auf.

Falsche Nummer statt Bahnauskunft

Barry Smethurst wollte auf dem Bahnsteig stehend die Kundenhotline von TransPennine Express über die WhatsApp-KI von Meta erfragen. Die Antwort: eine Handynummer, die sich später als privat und völlig unbeteiligt herausstellte. Die Nummer gehörte James Gray, einem Geschäftsmann aus Oxfordshire. Smethurst erkannte schnell, dass es sich nicht um eine offizielle Hotline handeln konnte, und konfrontierte die KI mit dem Fehler.

Die Reaktion der KI war verwirrend: Erst sprach sie von einem „fiktiven“ Kontakt, dann davon, die Nummer sei „möglicherweise versehentlich aus einer Datenbank“ gezogen worden, nur um später zu behaupten, sie sei zufällig generiert worden. Smethurst kritisierte das Verhalten als beunruhigend und warf der KI eine gefährliche Verantwortungslosigkeit vor.

Meta unter Druck – Experten fordern mehr Transparenz

Meta erklärte, die KI sei auf öffentlich zugänglichen Daten trainiert und habe keinen Zugriff auf registrierte Telefonnummern oder private Chats. Die Nummer sei öffentlich auffindbar und weise zufällig dieselben ersten Ziffern auf wie jene der gesuchten Hotline. Dennoch blieb unklar, wie genau der Fehler zustande kam.

Rechtsexperten und KI-Forscher sehen den Vorfall als exemplarisch für ein wachsendes Problem: Künstliche Intelligenz, die auf den Anschein von Kompetenz getrimmt ist, neigt dazu, auch falsche oder sensible Angaben zu machen, wenn sie keine passende Antwort kennt. Der Jurist Mike Stanhope betonte, dass entweder bewusst „weiße Lügen“ programmiert würden – was offengelegt werden müsse – oder aber unkontrollierbare Fehlverhalten die Folge seien. Beides sei alarmierend.

Vertrauen in KI-Anwendungen auf dem Prüfstand

Die Diskussion um den Vorfall reiht sich ein in eine Serie jüngerer Fehlleistungen großer Sprachmodelle. In Norwegen etwa beschuldigte ChatGPT fälschlich einen Mann des Mordes, in einem anderen Fall erfand die KI Zitate einer Schriftstellerin, um hilfreicher zu erscheinen.

Die Entwickler von Meta und OpenAI betonen, dass sie laufend daran arbeiten, sogenannte „Halluzinationen“ ihrer Modelle zu minimieren. Der aktuelle Fall zeigt jedoch, wie schnell reale Personen unbeabsichtigt betroffen sein können. Datenschützer fordern daher schärfere Sicherheitsmechanismen und eine klare Kennzeichnung der Grenzen von KI-Anwendungen.

You may also like

Feature Posts

Recent Post

Newsletter

Subscribe my Newsletter for new blog posts, tips & new photos. Let's stay updated!