Meta nennt die KI freiwillig – doch sie bleibt dauerhaft in der App sichtbar
WhatsApp erklärt, die neue KI-Chatfunktion sei freiwillig – sie lässt sich dennoch nicht aus der App entfernen.
Das Meta-AI-Symbol erscheint als blauer Kreis mit bunten Farbakzenten unten rechts im Chatbereich.
Wer es antippt, aktiviert einen digitalen Assistenten, der Fragen mithilfe künstlicher Intelligenz beantwortet.
Viele Nutzer beklagen sich über die ständige Präsenz der Funktion ohne Möglichkeit zur Deaktivierung.
Auch Microsoft musste nach Kritik seinen „Recall“-Dienst überarbeiten, der anfangs ebenfalls dauerhaft aktiv war.
WhatsApp betont, man höre auf Rückmeldungen und wolle den Nutzern nützliche Optionen bieten.
Meta vergleicht die KI-Funktion mit permanenten Features wie „Status“ oder „Kanäle“ in der App.
Parallel dazu kündigte Meta neue Schutzfunktionen für minderjährige Instagram-Nutzerkonten an.
In den USA testet Meta eine KI, die erkennen soll, wenn Jugendliche falsche Altersangaben machen.
Funktion nicht überall verfügbar und sorgt für Verwirrung
Das neue Symbol erscheint nicht bei allen – Meta aktiviert die Funktion nur in bestimmten Ländern.
Selbst innerhalb eines Landes erhalten nicht alle Nutzer gleichzeitig Zugriff.
Zusätzlich zeigt WhatsApp oben eine Leiste mit dem Hinweis „Meta AI fragen oder durchsuchen“.
Diese Funktion gibt es inzwischen auch in Instagram und dem Facebook Messenger – ebenfalls Dienste von Meta.
Die Antworten stammen vom Sprachmodell Llama 4, einem leistungsstarken System aus Metas KI-Labor.
Vor dem ersten Einsatz zeigt WhatsApp einen langen Hinweistext, der erklärt, dass Meta AI freiwillig sei.
Die KI reagiert schnell – etwa bei Wetteranfragen – mit genauen Angaben zu Temperatur, Regen und Wind.
Allerdings enthält nicht jede Antwort sinnvolle Infos: Eine Wetteranfrage für Glasgow enthielt London-Daten.
Starke Bedenken wegen Datenschutz und fehlender Wahlfreiheit
Zahlreiche Nutzer auf X, Bluesky und Reddit kritisieren die unausweichliche Einführung der neuen KI.
Kolumnistin Polly Hudson sprach vielen aus der Seele, als sie sich über die fehlende Deaktivierungsmöglichkeit beschwerte.
Auch KI-Experte Dr. Kris Shrishak kritisierte Meta scharf und sprach von einer Ausnutzung der Nutzerbasis.
Er warf dem Unternehmen vor, Menschen ungefragt zu Testpersonen seiner KI-Systeme zu machen.
Shrishak betonte, niemand dürfe zur Interaktion mit KI gezwungen werden – das sei unethisch.
Er bezeichnete Metas Datenstrategie als gefährlich und die KI-Modelle als von Natur aus datenschutzkritisch.
Seinen Angaben zufolge nutzte Meta massenhaft persönliche Daten und gestohlene Bücher zum KI-Training.
Die neue WhatsApp-Funktion könne eine zusätzliche Datenquelle darstellen, um an neue Nutzerdaten zu gelangen.
Eine Recherche enthüllte, dass Meta möglicherweise Millionen Bücher über die Plattform Library Genesis bezog.
Autorenverbände in mehreren Ländern fordern nun staatliche Maßnahmen gegen diese Datennutzung.
Meta steht derzeit vor Gericht – mehrere Schriftsteller klagen wegen der Nutzung ihrer Werke.
Zum Bericht über den Datenzugriff äußerte sich Meta bislang nicht.
Datenschützer und Behörden mahnen zur Vorsicht
WhatsApp weist bei der ersten Nutzung darauf hin, dass die KI nur direkt gesendete Nachrichten verarbeitet.
Private Chatnachrichten seien durch Ende-zu-Ende-Verschlüsselung weiterhin geschützt, erklärt Meta.
Die britische Datenschutzbehörde kündigte an, den Einsatz von Meta AI weiterhin zu überwachen.
Sie betonte, dass Nutzer Vertrauen brauchen, wenn Unternehmen persönliche Daten für KI verwenden.
Wer mit persönlichen Daten KI-Modelle trainieren will, muss alle gesetzlichen Vorgaben einhalten.
Dr. Shrishak warnt davor zu vergessen, dass Meta am anderen Ende der Unterhaltung steht – nicht ein Freund.
Er empfiehlt, keine vertraulichen Inhalte an die KI weiterzugeben – auch nicht über harmlose Fragen.
Meta selbst warnt ebenfalls: Wer sensible Informationen teilt, muss mit deren Weiterverwendung rechnen.