Erfolgreiche Voice-Deepfake-Attacke war erst der Anfang

Bereits vor gut einem Jahr hat das „Security Center of Excellence“ der NTT vor Deepfakes gewarnt. Jetzt ist aus der bloßen Gefahr bittere Realität geworden: Mit einem Voice-Deepfake konnten Diebe mehr als 240.000 US-Dollar erbeuten. [...]

David Wollmann, Executive Consultant bei NTT Security
David Wollmann, Executive Consultant bei NTT Security (c) NTT Security

Bereits seit Längerem sind Foto– und Video-Deepfakes im Umlauf, die von echtem Bildmaterial kaum mehr zu unterscheiden sind. Jetzt hat erstmals in größerem Ausmaß ein Voice-Deepfake zugeschlagen. Mit einer KI-basierten Software und der Imitation der Stimme eines CEO ist es Angreifern gelungen, in den Besitz von 243.000 US-Dollar zu gelangen.

Derartige Angriffe sind nach Einschätzung von NTT Security relativ einfach realisierbar. Entweder der Angreifer nutzt frei verfügbare Videos vom CEO im Internet, aus denen er die Stimme extrahiert. Oder aber er verwendet ein Ausgangsmaterial für ein Voice-Deepfake, das demjenigen des CEOs ähnelt. Gefährdet für solche Angriffe sind nach NTT Security vor allem große, international aufgestellte Unternehmen, bei denen ein „Opfer“ meist die Stimme des Gegenübers nicht zu 100 Prozent genau kennt. Angriffe mit einer ähnlich klingenden Stimme sind hier sehr erfolgversprechend.

„Es ist wenig verwunderlich, dass die sich dynamisch entwickelnde Deepfake-Technologie für CyberAttacken verwendet wird. Es war lediglich eine Frage der Zeit“, erklärt David Wollmann, Executive Consultant bei NTT Security. „Das Bekanntwerden dieses Angriffs wird aus meiner Sicht dazu führen, dass die Anzahl der Social-Engineering-Angriffe mittels Deepfakes, sei es Voice oder auch Video, stark zunehmen wird.“

Deepfakes sind kaum zu erkennen

Doch gibt es Möglichkeiten derartige Angriffe zu erkennen? Ja und nein. Es kommt ganz darauf an, wie viel Aufwand in die Deepfake-Erstellung gesteckt wird. Ein nicht so gut vorbereiteter Angreifer könnte auffallen, wenn er nicht genug Audiomaterial vorbereitet hat und dieses dann ad hoc generieren muss. Dabei kann es zu Verzögerungen in den Antwortzeiten kommen, was ein Hinweis darauf sein kann, dass ein Angriff mit Voice-Deepfakes erfolgt. Das Problem ist allerdings, dass sich mit vergleichsweise geringem Aufwand schon relativ gute Ergebnisse erzielen lassen.

Was bleibt Unternehmen also zu tun, um nicht auf solche Betrüger hereinzufallen? „Für Voice-Deepfake-Angriffe gibt es bisher keine technischen Abwehrmaßnahmen“, so Wollmann. „Ist das Deepfake gut gemacht, so wird es mit dem menschlichen Gehör nur sehr schwer oder gar nicht zu erkennen sein. Man könnte höchstens auf komische Geräusche in der Leitung achten, die ein Deepfake-Indiz sein könnten.“

Im Hinblick auf die Deepfake-Gefahr empfiehlt NTT Security Unternehmen, einen Prozess aufzusetzen, der bei unternehmenskritischen Aktivitäten wie einer finanziellen Transaktion oder Übermittlung von Forschungs- und Kundendaten eine telefonische Rückversicherung beinhaltet. Darüber hinaus seien auch Awareness-Trainings empfehlenswert, die speziell auf das Thema Social Engineering eingehen.


Mehr Artikel

BitkomPräsident Achim Berg
Kommentar

Zwei Jahre DSGVO: Bitkom zieht durchwachsene Bilanz

Seit knapp zwei Jahren gilt die EU-Datenschutz-Grundverordnung. Unternehmen und Organisation haben dadurch u.a. erweiterte Informationspflichten, müssen Verarbeitungsverzeichnisse für Personendaten erstellen sowie Datenschutz schon in Produktionsprozessen berücksichtigen. Ein Kommentar von Bitkom-Präsident Achim Berg. […]

Sven Langhoff, Experte für KI und Data Science bei adesso SE
Kommentar

Unternehmen brauchen neue KI-gestützte Prognosen

Die Stabilität langfristiger Vorhersagen ist dahin, denn die Auswirkungen der weltweiten Corona-Krise haben zu einer hohen Volatilität bei der Prognose von Trends und zu einer bedrohlichen Planungsunsicherheit für Unternehmen geführt. Es ist höchste Zeit, aktiv gegenzusteuern. Ein Kommentar von KI-Experte Sven Langhoff. […]

Be the first to comment

Leave a Reply

Your email address will not be published.


*


Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahren Sie mehr darüber, wie Ihre Kommentardaten verarbeitet werden .