Einstellungen für die Zustimmung anpassen

Wir verwenden Cookies, damit Sie effizient navigieren und bestimmte Funktionen ausführen können. Detaillierte Informationen zu allen Cookies finden Sie unten unter jeder Einwilligungskategorie.

Die als „notwendig" kategorisierten Cookies werden in Ihrem Browser gespeichert, da sie für die Aktivierung der grundlegenden Funktionalitäten der Website unerlässlich sind.... 

Immer aktiv

Notwendige Cookies sind für die Grundfunktionen der Website von entscheidender Bedeutung. Ohne sie kann die Website nicht in der vorgesehenen Weise funktionieren.Diese Cookies speichern keine personenbezogenen Daten.

Keine Cookies zum Anzeigen.

Funktionale Cookies unterstützen bei der Ausführung bestimmter Funktionen, z. B. beim Teilen des Inhalts der Website auf Social Media-Plattformen, beim Sammeln von Feedbacks und anderen Funktionen von Drittanbietern.

Keine Cookies zum Anzeigen.

Analyse-Cookies werden verwendet um zu verstehen, wie Besucher mit der Website interagieren. Diese Cookies dienen zu Aussagen über die Anzahl der Besucher, Absprungrate, Herkunft der Besucher usw.

Keine Cookies zum Anzeigen.

Leistungs-Cookies werden verwendet, um die wichtigsten Leistungsindizes der Website zu verstehen und zu analysieren. Dies trägt dazu bei, den Besuchern ein besseres Nutzererlebnis zu bieten.

Keine Cookies zum Anzeigen.

Werbe-Cookies werden verwendet, um Besuchern auf der Grundlage der von ihnen zuvor besuchten Seiten maßgeschneiderte Werbung zu liefern und die Wirksamkeit von Werbekampagne nzu analysieren.

Keine Cookies zum Anzeigen.

Home » Meta AI enttarnt Nutzer durch öffentlich sichtbare Suchanfragen

Meta AI enttarnt Nutzer durch öffentlich sichtbare Suchanfragen

by Jasmin Gloor
0 comments

Versehentliche Offenlegungen durch KI-Feed sorgen für Empörung

Stell dir vor, deine Internetsuchen wären plötzlich für alle sichtbar. Genau das passiert bei Meta AI: Nutzer tippen Anfragen ein – und diese erscheinen samt Antworten oft im öffentlich einsehbaren „Discover“-Feed. Viele scheinen sich dessen nicht bewusst zu sein.

Laut einem Experten für digitale Sicherheit handelt es sich um „ein massives Risiko für Nutzererlebnis und Datenschutz“. Denn zahlreiche Posts lassen sich anhand von Nutzernamen oder Profilbildern sozialen Netzwerken zuordnen. So geraten persönliche Fragen und sensible Inhalte unbeabsichtigt in die Öffentlichkeit.

Die veröffentlichten Anfragen reichen von prüfungsbezogenen Hilfegesuchen über Identitätsfragen bis hin zu Aufforderungen an die KI, erotische Figuren zu generieren. Manche Beiträge enthalten Details, die klar auf reale Nutzer schließen lassen.

Warnhinweise helfen offenbar nicht genug

Meta weist darauf hin, dass Gespräche zunächst privat bleiben. Nutzer können selbst entscheiden, ob sie Inhalte veröffentlichen – und diese Entscheidung später rückgängig machen. Vor dem Posten erscheint zudem eine Warnung: „Veröffentlichte Eingaben sind für alle sichtbar. Gib keine sensiblen Daten preis.“

Doch der Inhalt vieler öffentlicher Beiträge zeigt: Der Warnhinweis reicht offenbar nicht aus. Besonders problematisch ist, dass die Inhalte im öffentlichen „Discover“-Feed der Meta-AI-Plattform auftauchen – sichtbar für jeden, verbunden mit Nutzerprofilen.

Ein Blick auf diesen Bereich zeigt, dass viele ihre Privatsphäre gefährden, ohne es zu merken. Laut Ankündigung von Meta soll der Feed zeigen, wie andere die KI nutzen – doch die Grenzen zwischen Inspiration und ungewollter Bloßstellung verschwimmen.

Nutzer teilen intime Details und Prüfungsinhalte mit der Öffentlichkeit

Einige Nutzer laden Fotos von Prüfungsaufgaben hoch und bitten die KI um Lösungen. Andere fragen offen nach Rat zur eigenen Geschlechtsidentität oder lassen sich Bilder von spärlich bekleideten Figuren erstellen. Ein Nutzer wollte etwa eine Zeichnung von einer animierten Figur in Unterwäsche – anhand von Name und Bild ließ sich die Anfrage auf ein echtes Instagram-Konto zurückführen.

Diese Art von Inhalt wirkt harmlos, bis klar wird, dass sie öffentlich sichtbar ist – samt Absender. Der „Discover“-Feed macht private Gedanken zur Schau, ohne dass dies vielen bewusst ist.

Cybersicherheitschefin schlägt Alarm: Realität entspricht nicht den Erwartungen

Rachel Tobac, Leiterin einer US-amerikanischen IT-Sicherheitsfirma, warnt: „Wenn Nutzer nicht verstehen, wie ein System funktioniert, entsteht ein Sicherheitsproblem.“ Viele erwarten nicht, dass ihre KI-Chats in einem öffentlich einsehbaren Bereich landen, der stark an Social Media erinnert.

Sie kritisiert: „So posten Menschen unbeabsichtigt sensible Informationen – inklusive ihrer Identität.“ Die Tatsache, dass Meta AI in Facebook, Instagram und Whatsapp eingebettet ist, erleichtert die Rückverfolgung von Beiträgen zusätzlich.

Meta verweist darauf, dass Nutzer ihre Einstellungen anpassen können. Doch das allein reiche nicht, meint Tobac. Der Konzern müsse mehr tun, um Nutzerdaten zu schützen und Missverständnisse zu vermeiden.

You may also like

Feature Posts

Recent Post

Newsletter

Subscribe my Newsletter for new blog posts, tips & new photos. Let's stay updated!