Dieses illustrative Foto zeigt Bilder von einem TikTok-Konto, das für tägliche Nahrungsergänzungsmittel wirbt. (AFP / Chris DELMAS)

"Ein Tool für Betrügerinnen und Betrüger": KI-Deepfakes verbreiten falsche Heilmittel gegen sexuelle Probleme

Mit einer überdimensionalen Karotte in der Hand wirbt ein muskulöser Mann ohne T-Shirt für ein Nahrungsergänzungsmittel, das angeblich die männlichen Genitalien vergrößern könne. Dabei handelt es sich um eines von unzähligen KI-generierten Videos auf Tiktok, die sexuelle Heilmittel ohne erwiesene Wirkung anpreisen.

Durch die rasanten Fortschritte in der künstlichen Intelligenz (KI) entstand eine Art "KI-Dystopie" – soziale Medien wurden so zu einem Ort, an dem Betrug floriert und zweifelhafte Produkte beworben werden.

Der Aufstieg der generativen KI hat es leicht – und finanziell lukrativ – gemacht, derartige Videos mit minimaler menschlicher Aufsicht massenhaft zu produzieren. Oft werden dabei Fake-Prominente gezeigt, die für fragwürdige und potenziell schädliche Produkte werben.

In einigen Tiktok-Videos werden Karotten als euphemistische Umschreibung für männliche Genitalien benutzt. Dies geschieht offenbar, um die Inhaltsmoderation zu umgehen, die sexuell explizite Sprache zensiert.

"Sie würden feststellen, dass Ihre Karotte gewachsen ist", sagt der muskulöse Mann in einem Video mit roboterhafter Stimme und verweist auf einen Onlineshop.

"Dieses Produkt wird Ihr Leben verändern", fügt der Mann hinzu und behauptet ohne Beweise, dass die verwendeten Kräuter den Testosteronspiegel steigern würden und die Energie "durch die Decke gehen lassen".

Laut einem Deepfake-Erkennungstool, das kürzlich von dem in Kalifornien ansässigen Unternehmen Resemble AI ins Leben gerufen wurde und dessen Ergebnisse AFP zur Verfügung gestellt wurden, scheint das Video KI-generiert zu sein.

"Wie in diesem Beispiel zu sehen ist, werden irreführende KI-generierte Inhalte verwendet, um Nahrungsergänzungsmittel mit übertriebenen oder unbestätigten Behauptungen zu vermarkten, was die Gesundheit der Konsumentinnen und Konsumenten gefährden kann", sagte Zohaib Ahmed, Geschäftsführer und Mitbegründer von Resemble AI, gegenüber AFP.

"Wir beobachten, dass KI-generierte Inhalte als Instrument zur Verbreitung falscher Informationen eingesetzt werden."

Eine " billige Möglichkeit, Werbung zu machen"

Dieser Trend unterstreicht, wie rasante Fortschritte in der künstlichen Intelligenz das entstehen lassen, was Fachleute als KI-Dystopie bezeichnen: Eine von Betrug geprägte Online-Welt, die darauf ausgelegt ist, ahnungslose Nutzerinnen und Nutzer zum Kauf zweifelhafter Produkte zu verleiten.

Dazu gehört alles von unbestätigten – und in einigen Fällen potenziell schädlichen – Nahrungsergänzungsmitteln bis hin zu Produkten zur Gewichtsreduktion und Potenzmitteln.

"KI ist ein nützliches Werkzeug für Betrügerinnen und Betrüger, die mit geringen Kosten große Mengen an minderwertigen Inhalten erstellen wollen", erklärte die Desinformationsforscherin Abbie Richards gegenüber AFP.

"Es ist eine billige Möglichkeit, Werbung zu machen", fügte sie hinzu.

Alexios Mantzarlis, Direktor der Security, Trust, and Safety Initiative (SETS) bei Cornell Tech hat auf Tiktok eine Unmenge an "KI-Arzt"-Avataren und Audiotracks beobachtet, die fragwürdige sexuelle Heilmittel bewerben.

Einige dieser Videos, von denen viele Millionen Mal angesehen wurden, preisen testosteronsteigernde Mixturen aus Zutaten wie Zitrone, Ingwer und Knoblauch an.

Noch beunruhigender ist, dass sich derartig schnell entwickelnde KI-Tools die Erstellung von Deepfakes ermöglichen, die Prominente wie etwa die Schauspielerin Amanda Seyfried und den Schauspieler Robert De Niro imitieren.

"Ihr Mann bekommt ihn nicht hoch?", scheint Anthony Fauci, ehemaliger Direktor des US-amerikanischen National Institute of Allergy and Infectious Diseases, in einem Tiktok-Video zu fragen, in dem für ein Prostata-Präparat geworben wird.

Der Clip ist jedoch ein Deepfake, in dem Faucis Konterfei verwendet wird.

"Besonders schädlich"

Viele manipulierte Videos werden aus bereits vorhandenen Videos erstellt, mit KI-generierten Stimmen modifiziert und lippensynchronisiert, damit sie zu dem passen, was die veränderte Stimme sagt.

"Die Imitationsvideos sind besonders schädlich, da sie unsere Fähigkeit, authentische Berichte im Internet zu erkennen, weiter beeinträchtigen", sagte Mantzarlis.

Im Jahr 2024 entdeckte Mantzarlis Hunderte von Anzeigen auf Youtube, in denen Deepfakes von Prominenten – darunter Arnold Schwarzenegger, Sylvester Stallone und Mike Tyson – für Präparate warben, die als Heilmittel gegen erektile Dysfunktion angepriesen wurden.

Die rasante Geschwindigkeit, mit der kurze KI-Videos erstellt werden, bedeutet, dass selbst wenn Tech-Plattformen fragwürdige Inhalte entfernen, fast identische Versionen schnell wieder auftauchen – was die Inhaltsmoderation zu einem Katz-und-Maus-Spiel macht.

Fachleute sagen, dass dies einzigartige Herausforderungen für die Überwachung von KI-generierten Inhalten mit sich bringt und neuartige Lösungen und ausgefeiltere Erkennungswerkzeuge erfordert.

Faktenprüferinnen und -prüfer von AFP haben wiederholt betrügerische Anzeigen auf Facebook enthüllt, in denen Behandlungen – darunter Heilmittel gegen erektile Dysfunktion – beworben wurden. Diese verwendeten gefälschte Empfehlungen von Ben Carson, einem Neurochirurgen und ehemaligen US-Kabinettsmitglied.

Dennoch halten viele Nutzerinnen und Nutzer die Empfehlungen weiterhin für echt, was die Attraktivität von Deepfakes verdeutlicht.

"Betrügerische Affiliate-Marketing-Programme und fragwürdige Sex-Präparate gab es sogar bereits vor dem Internet", sagte Mantzarlis.

"Wie bei allen anderen negativen Aspekten des Internets hat generative KI diese Missbrauchsmöglichkeit billiger und schneller in großem Maßstab einsetzbar gemacht."

Haben Sie eine Behauptung gefunden, die AFP überprüfen soll?

Kontaktieren Sie uns