Zahlreiche Personen könnten Opfer von betrügerischen, von KI erzeugten Stimmnachahmungen werden, die von dieser Finanzinstitution verübt werden.
Digitalbanking-Dienstleister Starling Bank warnt vor der steigenden Bedrohung durch AI-gestützte Stimmenklon-Scams. Betrüger können überzeugende Stimmenkopien erstellen, indem sie nur drei Sekunden Audio verwenden, das oft aus öffentlichen Videos stammt. Diese künstlich erzeugten Stimmen können dann verwendet werden, um die Person zu imitieren und Freunde oder Familie unter dem Vorwand eines Notfalls um Geld zu bitten.
Starling Bank schätzt, dass diese Scams Millionen ahnungslose Opfer finden könnten. Eine Umfrage, die im Auftrag von Mortar Research durchgeführt wurde und über 3.000 Erwachsene umfasste, ergab, dass mehr als ein Viertel innerhalb des letzten Jahres bereits Opfer eines solchen AI-Stimmenklon-Scams geworden sind.
Die Umfrage ergab auch, dass 46% der Befragten von der Existenz solcher Scams nichts wussten und dass besorgniserregende 8% den vollständigen geforderten Betrag an eine vermeintliche Person überweisen würden, selbst wenn der Anruf verdächtig erschien.
Lisa Grahame, Chief Information Security Officer von Starling Bank, betonte das Problem in einer Pressemitteilung und sagte: "Menschen teilen oft Inhalte im Internet mit Sprachaufnahmen, ohne zu wissen, dass sie sich damit anfälliger für Betrüger machen."
Starling Bank rät, einen "sicheren Satz" mit Liebensten zu vereinbaren – einen einfachen, leicht zu merkenden und eindeutigen Satz, der als Verifikationswerkzeug bei Telefonaten dienen kann. Dieser sichere Satz sollte jedoch nicht per SMS geteilt werden, da dies es für Betrüger einfacher machen könnte, ihn abzufangen. Wenn er per SMS geteilt wird, sollte die Nachricht nach dem Lesen des Empfängers gelöscht werden.
Da die AI-Stimmimitation immer raffinierter wird, wächst die Sorge um das potenzielle Schadenspotential, wie beispielsweise den Zugang zu Bankkonten und die Verbreitung von Desinformation.
Früher in diesem Jahr entwickelte OpenAI, der Schöpfer des beliebten generativen AI-Chatbots ChatGPT, ein Stimmenreplikationstool, Voice Engine. Trotz seines Missbrauchsrisikos entschied sich OpenAI damals, das Tool nicht der Öffentlichkeit zur Verfügung zu stellen, und berief sich auf das "Risiko von synthetischer Stimmenmissbrauch".
Die Fortschritte in der Technologiebranche, wie OpenAI's Voice Engine, haben in der Geschäftswelt BedenkenRegarding the increasing sophistication of AI voice mimicry raised. Starling Bank erkennt dies an und rät seinen Kunden, eine sichere Geschäftspraxis anzuwenden, indem sie eindeutige Sätze mit Liebensten vereinbaren, um die Identität während Telefonaten zu verifizieren.