Deepfakes werden zur echten Gefahr für Unternehmen

Cyberbetrüger nutzen immer häufiger KI-basierte Werkzeuge, um Stimmen von Managern täuschend echt zu imitieren. Damit verleiten sie Mitarbeiter dazu, Geld auf falsche Konten zu überweisen. 

Der „Chef“ klingt zwar echt, aber irgendwas stimmt nicht …

Die Masche läuft meistens so ab: Ein Mitarbeiter aus dem Finanzwesen oder der Buchhaltung bekommt einen Anruf von seinem Chef, der ihn anweist, einen größeren Geldbetrag an einen Geschäftspartner zu überweisen. Letzterer benutzt seit neuestem ein anderes Konto als bisher. Was der Mitarbeiter nicht ahnt: Am anderen Ende der Leitung spricht nicht sein Chef, sondern ein Betrüger. Dazwischengeschaltet ist eine Software, die mithilfe Künstlicher Intelligenz die Stimme seines Chefs simultan täuschend echt imitiert. Erwischt der Betrüger auch Wortwahl und Tonfall des Chefs richtig, ist die Wahrscheinlichkeit recht hoch, dass er seinem „Chef“ nicht widersprechen wird. Solche Anrufe werden mit Vorliebe am Freitag Nachmittag getätigt, damit dem Unternehmen keine Zeit bleibt, eine ausgeführte Überweisung zu widerrufen.   

Was genau ist ein Deepfake? 

Als Deepfakes werden Video- und Audio-Aufnahmen bezeichnet, die mithilfe von Deep Learning (dem maschinellen Lernen der Künstlichen Intelligenz) manipuliert wurden. Bekannt wurden Deepfakes vor einigen Jahren durch Aufnahmen von Politikern, die Dinge sagen, die sie nie wirklich gesagt haben, wie in diesem legendären Video von Buzzfeed mit Barack Obama.

YouTube

Diese Seite nutzt einen YouTube-Kanal, der Google Ireland Ltd. gehört. Angaben darüber, welche Daten durch Google verarbeitet und zu welchen Zwecken genutzt werden, finden Sie in der Datenschutzerklärung von Google

Video laden

Inzwischen wird die Technik auch von echten Politikern genutzt. So produzierte ein indischer Abgeordneter neulich Deepfakes von sich selbst, in denen er potenzielle Wähler in verschiedenen Dialekten anspricht. Die Datenspezialisten von Experian sehen in Deepfakes eine der größten Cyberbedrohungen für 2020 (PDF). Bereits im vergangenen Jahr wurden weltweit mehrere Fälle registriert, bei denen Cyberbetrüger ihre Opfer mit Erfolg hinters Licht führten und Unternehmen um größere Geldbeträge brachten. Verwendet werden dabei derzeit hauptsächlich Audio-Deepfakes. Deren Gefährlichkeit wird von Experian damit begründet, dass es heute kaum technische Mittel gibt, einen solchen Anruf in Echtzeit als Deepfake zu identifizieren. 

„Deepfakes sind die nächste Stufe von Social Engineering„, sagt Jelle Wieringa, Technical Evangelist bei KnowBe4, einem führenden Unternehmen für Security-Awareness-Trainings. „Die Technik ist soweit ausgereift, dass Anrufe in Echtzeit manipuliert werden können. Und während es mittlerweile ganz gute Tools gibt, um Fake-Videos zu identifizieren, ist man bei Anrufen ziemlich machtlos. Das wissen auch Kriminelle und sie rüsten momentan mächtig auf.“ Laut Wieringa seien die Banden zur Zeit damit beschäftigt, ihre Betrugsmaschinerie zu automatisieren. Bei „normalen“ telefonischen Betrugsversuchen ist es längst üblich, Gespräche von einem Chatbot beginnen zu lassen und den Anruf an den eigentlichen Betrüger weiterzureichen, sobald das Opfer angebissen hat. Letzterer sitzt meist in einem eigens dafür eingerichteten Callcenter.

Anwender wissen einfach nicht Bescheid

„Das Problem ist, dass normale Firmenmitarbeiter sich oft der Fähigkeiten Künstlicher Intelligenz gar nicht bewusst sind“, sagt Wieringa. Dabei hat die Software für die Manipulation von Audiodateien inzwischen nichts exotisches mehr an sich. Bereits 2016 kündigte Adobe ein Produkt namens VoCo an, das ein „Photoshop für Audio-Dateien“ werden sollte. Auf den Markt gekommen ist es nie – ob aus Marktüberlegungen heraus oder wegen der Angst von missbräuchlicher Nutzung ist nicht bekannt. Einen Eindruck von den Fähigkeiten eines solchen Tools kann man sich beispielsweise bei Lyrebird AI verschaffen. 

An Samples der Stimme vom Chef zu kommen, um den Algorithmus zu trainieren, ist heute kein Problem mehr.

Während die Nutzung legaler Tools wie Lyrebird für betrügerische Zwecke auffallen würde, ist das beim Betrieb der Software in einem eigenen Rechenzentrum nicht unbedingt der Fall. Auch die für KI-Anwendungen nötige, hohe Rechenleistung ist kein Problem. Betreiber von öffentlich zugänglichen Cloud-Services wie Amazon, Google oder Microsoft bieten diese recht günstig an und fragen nicht groß nach, was jeder ihrer Kunden mit seiner Cloud-Installation so alles treibt. 

Informationen über die Manager, welche die Betrüger imitieren wollen, sind ebenfalls öffentlich verfügbar. Basisinformationen können über Business-Portale wie Xing und LinkedIn abgegriffen werden. Aufzeichnungen ihrer Stimmen, mit denen die Tools trainiert werden müssen, sind ebenfalls über Webcasts, Interviews, YouTube-Videos oder TED-Talks öffentlich zugänglich. 

Sicherheitsbewusstsein und Training helfen

Das einzige, was momentan gegen solche Betrugsversuche helfen könnte, ist die Belegschaft (vor allem Mitarbeiter der Finanzabteilungen) auf diese Masche aufmerksam zu machen. Noch besser ist ein gezieltes Training, denn die Betrugsversuche basieren auf altbewährte Mechanismen. Am Anfang steht immer der Versuch seitens des Betrügers, sich den Eindruck von Legitimität zu verschaffen. Mag sein, dass das Erkennen einer bösen Absicht beim Anruf eines vermeintlichen Vorgesetzten schwierig ist. Doch trainierte Mitarbeiter würden zumindest auf die Idee kommen, sich zu fragen, ob das Verhalten des Anrufers auch tatsächlich dem gewohnten Verhalten des Kollegen entspricht, oder ob es eher seltsam erscheint. 

Betrüger versuchen, bei ihrem Opfer eine emotionale Reaktion auszulösen.

Lisa Forte, Gründerin der britischen Sicherheitsberatung Red Goat Cyber Security, weist auf eine weitere potenzielle Auffälligkeit hin, den Vorgang selbst. Egal ob bei Fake News, Phishing-Mails oder betrügerischen Anrufen, irgendwas sei da immer dabei, das zu unwahrscheinlich klingt, um wahr zu sein. „Außerdem versuchen alle, eine emotional gefärbte Reaktion beim Opfer auszulösen“, sagt Forte. Genau das sei der Moment, bei dem ein trainierter Mitarbeiter die Überprüfung von Fakten startet. 

In diesem Kontext empfiehlt Jelle Wieringa von KnowBe4 eine weitere Maßnahme, die meist sehr effektiv ist, nämlich bestimmte Geschäftsprozesse im Finanzwesen für solche Fälle abzusichern. Das kann die Zuweisung einer dritten Kontrollinstanz sein, die über solche Vorgänge grundsätzlich ebenfalls informiert sein müsste und diese genehmigen muss, bevor tatsächlich Geld an zuvor nicht bekannte Konten fließt. 

Das könnte Sie auch interessieren

Was meinen Sie dazu?

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Back to top button