Cyberbedrohungen
Deepfakes: Was ist heutzutage noch echt?
Mit zunehmender Leistungsfähigkeit, Verfügbarkeit und Erschwinglichkeit generativer KI-Tools setzen Cyberkriminelle diese Technologien verstärkt für Angriffe wie Betrug, Erpressung oder Identitätsdiebstahl ein. Wir haben die Gefahren untersucht.
Deepfakes sind längst kein Hype mehr sind. Die Technologie dahinter ist heute zugänglicher und erschwinglicher denn je und wird mit der Zeit immer günstiger und fortschrittlicher werden. Noch alarmierender ist, dass Cyberkriminelle zunehmend auf legitime, kostengünstige und benutzerfreundliche Services zurückgreifen. Während die Täter schon lange vor dem Durchbruch generativer KI-Anwendungen versucht haben, aus Deepfakes für Social Engineering und Desinformation Kapital zu schlagen, hilft die Technologie böswilligen Akteuren nun dabei, auf neue und immer effektivere Weise Geld zu verdienen. Trend Micro hat in einem neuen Bericht untersucht, wie Deepfakes zur Unterstützung krimineller Geschäftsprozesse eingesetzt werden, welche Tools Kriminelle zur Erstellung verschiedener Fälschungen nutzen und wie die entsprechende Untergrundszene aussieht.
Die Analyse zeigt deutlich, dass Angreifer heute kein Expertenwissen mehr benötigen, um überzeugende Angriffe zu starten. Stattdessen nutzen sie frei zugängliche Plattformen zur Video-, Audio- und Bildgenerierung, viele davon eigentlich für Content Creators entwickelt, um täuschend echte Deepfakes zu erstellen. Diese Tools sind kostengünstig, leicht zu bedienen und zunehmend in der Lage, Identitätsprüfungen und Sicherheitsmaßnahmen zu umgehen.
Von Unternehmensspionage über Identitätsdiebstahl und Finanzbetrug bis hin zu persönlicher Erpressung sind sowohl Unternehmen als auch Privatpersonen gefährdet. Kriminelle nutzen Fälschungen bei Angriffen auf Unternehmen anders als gegen Einzelpersonen. Für letztere setzen sie auf eher generische Deepfakes, weil diese anpassungsfähiger und für ein breiteres Spektrum von Zielen zugänglich sind.
Deepfake-Angriffe zielen auf Unternehmen
Angriffe auf Unternehmen sind in der Regel sehr zielgerichtet und erfordern Vorwissen über das Opfer, umfangreiche Recherchen und eine sorgfältige Planung, die viel Zeit in Anspruch nimmt. Für solche Angriffe muss in der Regel entweder der richtige Mitarbeiter gefunden werden, der etwa die Geldüberweisung durchführt, oder es müssen Informationen über die Einstellungsverfahren der Personalabteilung beschafft werden.
Der Bericht beschreibt ein wachsendes kriminelles Ökosystem, in dem diese Plattformen für ausgeklügelte Betrugsmaschen verwendet werden. Darunter:
- CEO-Betrug wird zunehmend schwerer zu erkennen, da Angreifer Deepfake-Audio oder -Video einsetzen, um Führungskräfte in Echtzeit-Meetings zu imitieren.
- Bewerbungsprozesse werden kompromittiert, indem sich falsche Kandidaten mit KI-Unterstützung erfolgreich durch Vorstellungsgespräche mogeln und unberechtigten Zugriff auf interne Systeme erhalten. Während des Live-Interviews verwendet der Angreifer ein entsprechendes Video-Streaming-Tool, um wie der Kandidat auszusehen, und ein KI-Tool wie ChatGPT, um technische Fragen in Echtzeit korrekt zu beantworten.
- Finanzdienstleister registrieren eine Zunahme von Deepfake-Angriffsversuchen zur Umgehung von KYC-Prüfungen („Know Your Customer“), was anonyme Geldwäsche mittels gefälschter Identitäten ermöglicht.
Die Untersuchungen ergaben zudem, dass der Markt für KI-generierte Voice-Technologie extrem ausgereift ist, mit zahlreichen Services, die Stimmklone und Voiceovers in Studioqualität anbieten. Sie beseitigen traditionelle Hindernisse für die Produktion hochwertiger Audioinhalte, wie beispielsweise die Notwendigkeit von Aufnahmegeräten, einer ruhigen Umgebung oder sogar der physischen Anwesenheit des Sprechers. Obwohl diese Services viele legitime Anwendungsmöglichkeiten haben, darf ihr Missbrauchspotenzial nicht übersehen werden. Noch besorgniserregender ist, wie einfach es geworden ist, Audio-Deepfakes zu erstellen. Viele Services bieten mittlerweile eine One-Shot-Sprachgenerierung an, bei der nur wenige Sekunden Ausgangsmaterial ausreichen, um eine überzeugende Kopie der Stimme einer Person zu erstellen.
KI-gesteuerte Plattformen zur Videogenerierung vereinfachen die Produktion professionell aussehender Videoinhalte. Mit minimalem Aufwand, technischen Kenntnissen oder Ressourcen kann nun jeder überzeugende, potenziell schädliche Videos erstellen. Es gibt auch eine bestimmte Klasse von Services zur Videogenerierung, die besonders gefährlich werden können, wenn sie für böswillige Zwecke eingesetzt werden, nämlich solche, die die Manipulation von Video Streams in Echtzeit ermöglichen. Und auch die teuersten Services machen nur einen Bruchteil des potenziellen dadurch erzielten Gewinns aus.
Die KI-gestützte Bildbearbeitung ist mittlerweile so weit fortgeschritten und zugänglich, dass sie nicht mehr nur erfahrenen Akteuren oder Nischen-Communities vorbehalten ist. Es gibt verschiedene Bildgenerierungsdienste, die Funktionen zum Austausch von Gesichtern für Bilder sowie für Videoclips und Streams anbieten.
Deepfakes im Untergrund
Böswillige Akteure wissen nicht nur, wie sie diese Tools einsetzen können, sondern tauschen in Untergrundforen auch Tipps und Tricks aus, um ihre Methoden zu verfeinern, sodass es für weitere Kriminelle noch einfacher wird, diese Technologie für ihre Zwecke zu missbrauchen.
Es kursieren Tutorials, Toolkits und Dienstleistungen, um die Angriffe zu professionalisieren. Mit detaillierten Schritt-für-Schritt-Anleitungen zur Umgehung von Onboarding-Prozessen oder einsatzfertigen Face-Swap-Tools ist der Einstieg in diese Form der Kriminalität heute so einfach wie nie zuvor.
Wir haben generell festgestellt, dass die Umgehung von KYC-Verfahren offenbar die größte Anwendung für die Erstellung von Deepfakes darstellt, wahrscheinlich weil Cyberkriminelle damit anonyme Konten bei Kryptowährungsbörsen eröffnen können, über die sie Geld waschen.
Fazit
Angesichts der zunehmenden Häufigkeit und Komplexität Deepfake-gestützter Angriffe müssen Unternehmen entsprechende Schutzmaßnahmen ergreifen. Dazu zählen Schulungen zur Erkennung von Social-Engineering-Angriffen, die Überprüfung von Authentifizierungsverfahren sowie die Integration von Lösungen zur Erkennung synthetischer Medieninhalte.
Im Idealfall wird die Gesellschaft mit der Verbreitung KI-generierter Medien auch das Potenzial für Missbrauch und die damit verbundenen Gefahren besser erkennen. Dieses wachsende Bewusstsein birgt jedoch eine tiefere, heimtückischere Gefahr: den Verlust von Vertrauen. Es verschwimmen die Grenzen zwischen Fakten und Fiktion, wodurch unsere Fähigkeit, dem zu vertrauen, was wir sehen und hören, untergraben wird.
Das bedeutet, dass wir davon ausgehen müssen, dass alle Inhalte standardmäßig gefälscht sein könnten. Die bisherige Einstellung „Vertrauen ist gut, Kontrolle ist besser“ reicht möglicherweise nicht mehr aus. In dieser Welt müssen Inhalte ihre Echtheit beweisen, andernfalls gelten sie als verdächtig.
Um geschützt zu bleiben, müssen wir Tools zur Erkennung von Deepfakes einsetzen. So verfügt etwa Trend Vision One™ über eine Deepfake-Erkennungstechnologie, die eine Vielzahl fortschrittlicher Methoden einsetzt, um KI-generierte Inhalte zu erkennen. Über Techniken wie Bildrauschanalyse und Farberkennung hinaus analysiert die Plattform auch Elemente des Nutzerverhaltens, um Deepfakes noch zuverlässiger zu erkennen und zu stoppen. Bei der Erkennung alarmiert Trend sofort die Sicherheitsteams des Unternehmens, sodass diese lernen, sich weiterbilden und proaktive Maßnahmen ergreifen können, um zukünftige Angriffe zu verhindern.
Den ganzen Bericht können Sie hier lesen.