Unbekannte Täter haben die Stimme des österreichischen Sängers Andreas Gabalier mithilfe künstlicher Intelligenz kopiert.
Sie nutzten das KI-Stimmmodell, um ein gefälschtes Interview mit angeblichen Krypto-Investmenttipps zu veröffentlichen.
Das manipulierte Gespräch erschien in englischer Sprache auf einer Webseite, die der österreichischen Nachrichtenseite orf.at täuschend ähnlich sieht.
Wie die „Kleine Zeitung“ berichtet, täuschten die Täter vor, Gabalier empfehle risikoreiche Geldanlagen.
Betrüger kopieren prominente Stimmen aus Österreich
In Österreich kursieren immer mehr Deepfake-Audios, bei denen bekannte Stimmen für Betrugsmaschen missbraucht werden.
Cyberkriminelle verwenden KI-Tools, um Persönlichkeiten des öffentlichen Lebens digital nachzuahmen.
Mit diesen Stimmfälschungen werben sie für dubiose Investitionen oder täuschen angebliche TV-Interviews vor.
Neben Gabalier trifft es auch bekannte Stimmen wie Bundespräsident Alexander Van der Bellen und TV-Größen wie Armin Assinger oder Mirjam Weichselbraun.
Experten fordern schärfere Regeln gegen KI-Missbrauch
Falsche Webseiten und KI-generierte Inhalte verbreiten sich immer schneller im Netz.
Sicherheitsforscher warnen vor einer wachsenden Bedrohung durch real wirkende Deepfakes.
Sie fordern strengere Gesetze zur Regulierung von KI-generierten Inhalten und digitale Schutzmaßnahmen für Persönlichkeitsrechte.
Die Polizei appelliert an Bürger, skeptisch gegenüber Online-Angeboten mit prominenten Gesichtern oder Stimmen zu bleiben.