Microsoft: Warnung vor der Rolle von KI bei Cyberangriffen

Künstliche Intelligenz hat so viele Bereiche des Lebens durchdrungen, dass es nicht verwunderlich ist, dass sie sowohl für gute als auch für schlechte Zwecke eingesetzt wird. Microsoft hat darauf aufmerksam gemacht und eine Warnung vor dem Einsatz von KI bei Cyberangriffen herausgegeben.

So wie KI zur Beschleunigung von Programmierung, Schreiben, Design und vielen anderen Dingen eingesetzt wird, nutzen auch Angreifer künstliche Intelligenz, um sich das Leben zu erleichtern. Ein Artikel von Microsoft Threat Intelligence warnt vor der wachsenden Bedrohung, die dies für Unternehmen darstellt.

Angreifer haben Automatisierung in ihre Vorgehensweisen integriert, da zuverlässige, kostengünstige KI-gestützte Dienste technische Barrieren senken und Funktionen direkt in die Arbeitsabläufe der Angreifer einbetten. Diese Funktionen reduzieren Reibungsverluste bei der Aufklärung, beim Social Engineering, bei der Entwicklung von Malware und bei Aktivitäten nach der Kompromittierung, sodass Angreifer schneller vorgehen und ihre Operationen verfeinern können. Jasper Sleet beispielsweise nutzt KI während des gesamten Angriffszyklus, um eingestellt zu werden, seinen Arbeitsplatz zu behalten und den Zugang in großem Umfang zu missbrauchen.

Der Einsatz von KI ist jedoch so weit verbreitet, dass Microsoft ihn als auf allen Ebenen von Cyberangriffen zu beobachten beschreibt. Das Unternehmen fährt fort:

Da Bedrohungsakteure KI in ihre Operationen integrieren, sind sie nicht auf die beabsichtigte oder richtlinienkonforme Nutzung dieser Systeme beschränkt. Microsoft Threat Intelligence hat beobachtet, dass Bedrohungsakteure aktiv mit Techniken experimentieren, um KI-Sicherheitskontrollen zu umgehen oder zu "knacken", um Ergebnisse zu erzielen, die sonst eingeschränkt wären. Zu diesen Bemühungen gehören die Umgestaltung von Eingabeaufforderungen, die Verkettung von Anweisungen über mehrere Interaktionen hinweg und der Missbrauch von System- oder Entwickler-Eingabeaufforderungen, um Modelle zur Generierung bösartiger Inhalte zu zwingen.

Beispielsweise hat Microsoft Threat Intelligence beobachtet, dass Bedrohungsakteure rollenbasierte Jailbreak-Techniken einsetzen, um KI-Sicherheitskontrollen zu umgehen. In solchen Szenarien könnten Akteure Modelle dazu veranlassen, vertrauenswürdige Rollen anzunehmen oder zu behaupten, dass der Bedrohungsakteur in einer solchen Rolle agiert, wodurch ein gemeinsamer Kontext der Legitimität geschaffen wird.

KI wird auch zur Unterstützung der Infrastruktur von Cyberangriffen eingesetzt, beispielsweise zur automatischen Generierung von Websites und Domains:

Angreifer haben auf Generative Adversarial Networks (GAN) basierende Techniken genutzt, um die Erstellung von Domainnamen zu automatisieren, die legitimen Marken und Diensten sehr ähnlich sind. Durch das Training von Modellen mit großen Datensätzen realer Domains lernt der Generator gängige strukturelle und lexikalische Muster, während ein Diskriminator bewertet, ob die Ergebnisse authentisch erscheinen. Durch iterative Verfeinerung entstehen so überzeugende, ähnlich aussehende Domains, die mit statischen oder musterbasierten Erkennungsmethoden immer schwieriger von legitimen Infrastrukturen zu unterscheiden sind. Dies ermöglicht die schnelle Erstellung und Rotation von Imitationsdomains in großem Maßstab und unterstützt Phishing-, C2- und Credential-Harvesting-Operationen.

Microsoft warnt auch vor neuen Trends wie KI-fähiger Malware, die "Modelle während der Ausführung einbettet oder aufruft, anstatt KI ausschließlich während der Entwicklung zu verwenden".

Weitere Erkenntnisse von Microsoft Threat Intelligence sowie einige Ratschläge zur Abwehr solcher Angriffe finden Sie im Blogbeitrag. Lesen Sie hier mehr dazu.