Künstliche Intelligenz eröffnet Cyberkriminellen völlig neue Chancen

Auch Produkte mit Künstlicher Intelligenz sind nicht frei Fehlern und Schwachstellen, die in böser Absicht genutzt werden können. Mehr noch: Die KI gehört längst zum Instrumentarium von Cyberkriminellen. Die Antwort darauf kann kaum ohne KI auskommen.  

Was in einem Jahrzehnt alles passiert und welche technologischen Entwicklungen sich anbahnen und letztlich durchsetzen, ist schwer vorherzusagen. Im Jahr 2009, als das iPhone 3GS den (damals noch sehr neuen) Smartphone-Markt eroberte und Google Maps die Art und Weise, wie wir uns orientieren und zurechtfinden, für immer veränderte, konnten wir uns die technologische Zukunft, in der wir heute leben, wahrscheinlich nur schwer vorstellen,

Es ist erstaunlich, mit welcher Selbstverständlichkeit die KI Teil unseres Alltags geworden ist.

Natürlich kann man versuchen, aktuelle Technologien „weiterzudenken“ und sich so auszumalen, was alles möglich sein wird. Immerhin sind Innovationen wie die internetbasierten intelligenten Sprachassistenten oder die schnellen Streaming-Dienste, die für uns heute längst zum Alltag gehören, nicht plötzlich vom Himmel gefallen, sondern wurden Jahre bevor sie Realität wurden schon vielfach diskutiert und erträumt.

Hallo Alexa, hallo KI

Nichtsdestotrotz bleibt eine Vermutung immer nur eine Vermutung und Entwicklungen schlagen bisweilen andere Richtungen ein als gedacht. So hat man etwa lange Zeit angenommen, dass unsere Computer mit steigender Komplexität immer größer werden – was anfangs ja auch tatsächlich so war. Viele erinnern sich vielleicht noch an die Zeit, als ein einziger Computer die Größe eines ganzen Raumes einnahm. Und dann kam es doch anders: Heute kann sogar ein Laptop, ein Fernseher oder ein kleiner Toaster mehrere Computer beherbergen.

Erstaunlich ist auch, wie schnell wir technologische Neuerungen, egal wie sinnvoll sie letztlich auch sind, als selbstverständlichen Teil unseres Alltags akzeptieren. Das gilt vor allem für Geräte und Software, die mit künstlicher Intelligenz arbeiten. Egal ob Amazons Alexa, digitale selbstlernende Bilderkennung oder (teilweise erschreckend präzise) personalisierte Werbeanzeigen und Empfehlungen in sozialen Netzwerken – fast jeder Haushalt arbeitet heutzutage in irgendeiner Form mit Künstlicher Intelligenz. Gleichzeitig sorgen maschinelles Lernen und andere neue Features dafür, dass die KI unaufhörlich intelligenter wird.

Genau hier liegt aber auch das Problem: Denn für jedes neue Feature, für jede neue Fähigkeit braucht es mehr Code – und mit jedem Stück neuen Code schleichen sich neue Schwachstellen und Sicherheitslücken ein. Dabei ist die Sicherheit von KI, so wie eigentlich von jeder neuen Technologie, von Natur aus schwer in den Griff zu bekommen. Für Cyberkriminelle ist dies ein gefundenes Fressen!

Audio-Fakes und andere KI-getriebene Cyberangriffe

Doch nicht nur Sicherheitslücken in den Programmen zeigen uns die Kehrseite der KI. Tatsache ist: KI ist nicht nur ein Thema für die Optimierung unseres Alltags oder der Security-Branche, sondern dient auch der Optimierung der Cyberkriminalität. So nutzen Hacker die Vorzüge von künstlicher Intelligenz, um ihre Opfer noch gezielter, schneller und raffinierter angreifen zu können. 

Sind wir wirklich sicher, dass wir unseren Chef am anderen Ende der Leitung hören?

Ein Angriffsszenario, von dem wir zukünftig sicher öfter hören werden, dürften so genannte Audio-Fakes sein. Bereits heute existieren Technologien zur Aufzeichnung, Analyse und Emulation von menschlichen Stimmen, die vielfältige Möglichkeiten für Missbrauch und Betrügereien bereithalten. 

Man stelle sich vor, ein Mitarbeiter wird von seinem Chef angerufen und gebeten, ihm sensible Unternehmensdaten zu schicken oder eine dringende Überweisung zu tätigen. Und obwohl man die vertraute Stimme des Gesprächspartners sicher zu erkennen meint, besteht letztlich die Möglichkeit, dass man mit einer KI-gesteuerten Software spricht und am anderen Ende der Leitung ein Betrüger sitzt. 

KI mit KI bekämpfen

Die Betrugsmöglichkeiten sind unendlich und beschränken sich dabei nicht nur auf Audio-Fakes. Längst sind Fälle bekannt, in denen mit Hilfe von KI ganze Video- oder Webcam-Sessions gefälscht werden konnten. Ein gehacktes Skype-Telefonat und Audio-Fake-Software reichen aus, um sein Opfer vollends in die Irre zu führen. Denn wer zur bekannten Stimme auch noch das vertraute Gesicht seines Gegenübers sieht, dürfte keinerlei Zweifel an der Echtheit seines Gesprächspartners haben. 

Bisher zeigt die Weiterentwicklung der KI keine Anzeichen einer Verlangsamung, im Gegenteil: Sie bereichert unseren Alltag fortwährend, weshalb wir sie mit offenen Armen in unseren Alltag integriert haben. Doch auch unsere Feinde schlafen nicht. Geht man davon aus, dass KI-Technologien auch im Cybercrime schon bald zum Standard gehören werden, ist eine Professionalisierung unserer Sicherheitsstrategie und Security-Werkzeuge – ebenfalls mit Hilfe von Künstlicher Intelligenz – unerlässlich. Nur so können wir den Angreifern immer einen Schritt voraus sein.


Über den Autor

Caleb Fenton ist Research and Innovation Lead beim Security-Spezialsiten SentinelOne. Das US-Unternehmen setzt Künstliche Intelligenz in seinen Produkten ein, um Cyberangriffe abzuwehren.

 

Das könnte Sie auch interessieren

Was meinen Sie dazu?

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Back to top button
Close