Startseite Wissenswert Cyber-Kriminelle verwenden Voice Cloning-Technologie bei einem 35-Millionen-Dollar-Banküberfall

Cyber-Kriminelle verwenden Voice Cloning-Technologie bei einem 35-Millionen-Dollar-Banküberfall

durch Unserer Seite
0 Meinung 3 Minuten Lesezeit
Cyber-Kriminelle verwenden Voice Cloning-Technologie bei einem 35-Millionen-Dollar-Banküberfall

Ein Bankmanager in den Vereinigten Arabischen Emiraten wurde dazu verleitet, eine Überweisung in Höhe von 35 Millionen US-Dollar zu genehmigen, nachdem er eine lautstarke Bestätigung des Kontoinhabers erhalten hatte. Nur dass der Manager sie nicht für das gehalten hat…

Anfang letzten Jahres erhielt der Manager einer unbekannten Bank in den Vereinigten Arabischen Emiraten einen Anruf von einem langjährigen Kunden – dem Direktor eines Unternehmens, mit dem er zuvor gesprochen hatte. Der Mann war begeistert, dass sein Unternehmen kurz vor einer wichtigen Akquisition stand, also brauchte er die Bank, um so schnell wie möglich eine Überweisung von 35 Millionen Dollar zu genehmigen. Der Mandant fügte hinzu, dass ein Anwalt namens Martin Zelner mit der Übernahme beauftragt worden sei und der Manager E-Mails des Anwalts in seinem Posteingang sehen könne. Er hatte schon einmal mit dem Klienten gesprochen, er erkannte seine Stimme, und alles, was er sagte, stimmte. Also machte er den teuersten Fehler seiner Karriere …

Foto: B_A/Pixabay

Der Bankdirektor autorisierte die Banküberweisungen im Vertrauen darauf, dass alles rechtmäßig war, aber in Wirklichkeit war er gerade einem ausgeklügelten Hightech-Betrug zum Opfer gefallen. Die Person, mit der er telefoniert hatte, hatte die KI-gestützte „Deepvoice“-Technologie verwendet, um die Stimme des Bankkunden zu klonen und es für niemanden unmöglich zu machen, sie vom Original zu unterscheiden.

Der Mega-Überfall wurde enthüllt Gerichtsdokumente in dem die VAE amerikanische Ermittler um Hilfe baten, um einen Teil der 35 Millionen Dollar (400.000 Dollar) aufzuspüren, die offenbar auf US-Konten der Centennial Bank geflossen waren.

In diesem Fall wurden nicht viele Informationen preisgegeben, abgesehen von der Tatsache, dass die Behörden der VAE glauben, dass an dem ausgeklügelten System mindestens 17 Personen beteiligt waren und dass das Geld auf Konten auf der ganzen Welt überwiesen wurde, was das Aufspüren und Wiedererlangen erschwert. Weder die Staatsanwaltschaft Dubai noch der von den Betrügern erwähnte amerikanische Anwalt Martin Zelner hatten darauf reagiert Forbes‚ Bitte um Stellungnahme zum Zeitpunkt des Schreibens dieses Artikels.

Es ist erst der zweite bekannte Fall eines Banküberfalls mit Deepvoice-Technologie, der erste ereignete sich im Jahr 2019, aber Experten für Cyberkriminalität warnen, dass dies erst der Anfang ist. Sowohl Deepfake-Video- als auch Deepvoice-Technologien haben sich in einem erstaunlichen Tempo entwickelt, und Kriminelle werden sie zwangsläufig ausnutzen.

„Das Manipulieren von Audio, das einfacher zu orchestrieren ist als das Erstellen von Deep-Fake-Videos, wird nur an Umfang zunehmen, und ohne die Aufklärung und das Bewusstsein für diese neue Art von Angriffsvektor sowie bessere Authentifizierungsmethoden werden wahrscheinlich mehr Unternehmen zum Opfer fallen sehr überzeugende Gespräche“, sagte Cybersicherheitsexperte Jake Moore. Wir stehen derzeit an der Schwelle von böswilligen Akteuren, die Fachwissen und Ressourcen in die Nutzung der neuesten Technologie verlagern, um Menschen zu manipulieren, die sich der Bereiche der Deep-Fake-Technologie und sogar ihrer Existenz unschuldig nicht bewusst sind.



Der Gedanke, dass ein Sample Ihrer Stimme, sei es aus einem YouTube- oder Facebook-Video oder aus einem einfachen Telefonanruf, dazu verwendet wird, Ihre Stimme für böswillige Zwecke zu klonen, ist irgendwie erschreckend …

Gedanken mitteilen: