Maschinelles Lernen

Wie Hacker ML für Angriffe nutzen

10.12.2024 von Maria Korolov
KI und maschinelles Lernen helfen Security-Teams, schneller auf Cyberbedrohungen zu reagieren. Aber auch Cyberkriminelle nutzen die Technik für größere und komplexere Angriffe.
Cyberkriminelle setzen Maschinelles Lernen ein, um ihre Angriffe zu verstärken. Lesen Sie, wie.
Foto: Golden Dayz - shutterstock.com

Maschinelles Lernen (ML) und künstliche Intelligenz (KI) entwickeln sich zu Kerntechnologien für Tools zur Erkennung und Abwehr von Cyberbedrohungen. Die Fähigkeit, im laufenden Betrieb zu lernen und sich automatisch an sich ändernde Gefahren anzupassen, verschafft Cybersicherheitsteams einen Vorteil.

Laut einer Umfrage von Sapio Research im Auftrag von Vanta planen 62 Prozent der Unternehmen, in den nächsten zwölf Monaten mehr in KI-Sicherheit zu investieren. Allerdings nutzen auch einige Bedrohungsakteure maschinelles Lernen und KI, um ihre Cyberangriffe zu verstärken, Sicherheitskontrollen zu umgehen und neue Schwachstellen zu finden - und das in einem beispiellosen Tempo und mit verheerenden Folgen.

Einer im Oktober veröffentlichten, jährlichen Hacker-Umfrage von Bugcrowd zufolge nutzen 77 Prozent der Hacker KI. 86 Prozent geben an, dass sich ihr Ansatz dadurch grundlegend geändert hat. Im Jahr 2024 berichten 71 Prozent der Angreifer, dass KI-Technologien ihnen einen Mehrwert bieten. Im vergangenen Jahr waren nur 21 Prozent dieser Ansicht.

Inzwischen gibt es generative KI-Tools, die speziell für kriminelle Zwecke entwickelt wurden, darunter FraudGPT und WormGPT.

"Generative KI, wie auch KI im Allgemeinen, senkt die Messlatte für Hacker, was die Fähigkeit betrifft, eine Reihe von Angriffen zu entwickeln und durchzuführen", kommentiert Vanessa Lyon, globale Leiterin für Cyber- und digitale Risiken bei der Boston Consulting Group. Und die nicht-deterministischen Aspekte der generativen KI erschwerten es traditionellen, regelbasierten Abwehrmechanismen, relevant zu bleiben, fügt sie hinzu.

Tatsächlich geben laut einem Bericht von Keeper Security vom Oktober 51 Prozent der IT- und Sicherheitsleiter an, dass KI-gestützte Angriffe die größte Bedrohung für ihre Unternehmen darstellen.

Das sind die zehn häufigsten Methoden, mit denen Angreifer KI- und maschinelles Lernen nutzen.

1. Missbrauch von Spam-Filter

Verteidiger nutzen maschinelles Lernen seit Jahrzehnten, um Spam zu erkennen, erklärt Fernando Montenegro, Analyst bei Omdia. "Spam-Prävention ist der erste Anwendungsfall für maschinelles Lernen."

Wenn der verwendete Spam-Filter Gründe dafür angibt, warum eine E-Mail nicht durchgelassen wurde, oder eine Art Bewertung generiert, kann der Angreifer dies nutzen, um sein Verhalten zu ändern. Er würde das legitime Tool verwenden, um seine eigenen Angriffe erfolgreicher zu machen. "Wenn man oft genug Daten einreicht, kann man rekonstruieren, wie das Modell aussah, und dann den Angriff so anpassen, dass es umgangen wird", so Montenegro.

Nicht nur Spam-Filter sind anfällig. Jeder Sicherheitsanbieter, der eine Bewertung oder einen anderen Output bereitstelle, könne potenziell missbraucht werden, warnt der Omdia-Analyst. "Nicht alle haben dieses Problem, aber wenn man nicht aufpasst,haben sie einen nützlichen Output, den jemand für böswillige Zwecke nutzen kann."

2. Bessere Phishing-E-Mails

Angreifer würden ML-Sicherheitstools nicht nur verwenden, um zu testen, ob ihre Nachrichten Spam-Filter passieren können. Sondern sie würden" maschinelles Lernen auch nutzen, um diese E-Mails überhaupt erst zu erstellen, betont Adam Malone, ein ehemaliger EY-Partner. "Sie bewerben den Verkauf dieser Dienste in kriminellen Foren und nutzen sie, um bessere Phishing-E-Mails sowie falsche Identitäten zu generieren."

Maschinelles Lernen ermöglicht es Angreifern, Phishing-E-Mails auf kreative Weise so anzupassen, dass sie nicht als Massen-E-Mails angezeigt werden und so optimiert sind, dass sie Interaktionen und Klicks auslösen. Dabei belassen sie es nicht nur beim Text der E-Mail. KI kann verwendet werden, um realistisch aussehende Fotos, Social-Media-Profile und andere Materialien zu erstellen, damit die Kommunikation so legitim wie möglich erscheint.

Generative KI geht noch einen Schritt weiter. Laut einer von OpenText veröffentlichten Umfrage haben 45 Prozent der Unternehmen einen Anstieg von Phishing-Angriffen aufgrund von KI festgestellt. 55 Prozent der leitenden Entscheidungsträger geben an, dass ihre Unternehmen aufgrund der zunehmenden Nutzung von KI durch Bedrohungsakteure einem höheren Risiko durch Ransomware ausgesetzt sind. Eine weitere Studie von Keeper Security ergab, dass 84 Prozent der IT- und Sicherheitsverantwortlichen der Meinung sind, dass KI-Tools die Erkennung von Phishing-Angriffen erschweren.

3. Besseres Erraten von Passwörtern

Kriminelle nutzen maschinelles Lernen auch, um Passwörter besser zu erraten. "Wir haben Beweise für die Häufigkeit und Erfolgsquote von Passwort-Erratungsmaschinen gesehen", so Malone. "Kriminelle erstellen bessere Wörterbücher, um gestohlene Hashes zu hacken." Sie würden maschinelles Lernen auch nutzen, um Sicherheitskontrollen zu identifizieren, "damit sie weniger Versuche unternehmen und bessere Passwörter erraten können. Damit erhöhen sie die Wahrscheinlichkeit, dass sie erfolgreich Zugang zu einem System erhalten."

4. Deep Fakes

Die am meisten beunruhigende Anwendung von künstlicher Intelligenz sind Deep-Fake-Tools, die Video- oder Audioinhalte erzeugen können, die nur schwer von echten Menschen zu unterscheiden sind. "Die Fähigkeit, die Stimme oder das Gesicht einer Person zu simulieren, ist sehr nützlich, um Menschen zu täuschen", ergänzt Montenegro. "Wenn jemand vorgibt, wie ich zu klingen, könnte man darauf hereinfallen."

Tatsächlich wurden in den vergangenen Jahren einige aufsehenerregende Fälle bekannt, in denen gefälschte Audioaufnahmen Unternehmen Hunderttausende oder sogar Millionen Dollar gekostet haben. "Menschen haben Anrufe von ihrem Chef erhalten, die gefälscht waren", berichtet Murat Kantarcioglu, ehemaliger Professor für Informatik an der University of Texas.

Häufiger nutzen Betrüger KI, um realistisch aussehende Fotos, Benutzerprofile, E-Mails - sogar Audio- und Videodateien - zu erstellen, damit ihre Nachrichten glaubwürdiger wirken. Laut FBI führten Betrugsversuche mit kompromittierten Geschäfts-E-Mails in den vergangenen zehn Jahren zu Verlusten von mehr als 55 Milliarden Dollar.

Bereits im Jahr 2021 gab es einen Fall bei einer Bank in Hongkong, die dazu gebracht wurde, 35 Millionen Dollar an eine kriminelle Bande zu überweisen. Ein Bankangestellter erhielt damals einen Anruf von einem Unternehmensleiter, mit dem er zuvor gesprochen hatte. Er erkannte die Stimme und autorisierte die Überweisung. Heutzutage können Hacker ein Zoom-Video erstellen, das kaum von einer echten Person zu unterscheiden ist.

Laut einer Umfrage des Versicherungsunternehmens Nationwide geben 52 Prozent der Kleinunternehmer zu, dass sie schon einmal durch ein Deepfake-Bild oder -Video getäuscht wurden, und 9 von 10 sagen, dass Betrug durch generative KI immer raffinierter wird.

Und auch große Unternehmen sind nicht immun. Laut einer Umfrage von Teleport ist KI-Identitätsbetrug der am schwierigsten abzuwehrende Cyberangriffsvektor.

5. Neutralisierung von Standard-Sicherheitstools

Viele beliebte Sicherheitstools basieren heutzutage auf künstlicher Intelligenz oder maschinellem Lernen. Antivirus-Tools beispielsweise suchen zunehmend über die grundlegenden Signaturen hinaus nach verdächtigen Verhaltensweisen. "Alles, was online verfügbar ist, insbesondere Open Source, könnte von Kriminellen genutzt werden", mahnt Kantarcioglu.

Angreifer könnten diese Tools nutzen, um ihre Malware so zu optimieren, dass sie nicht mehr erkannt wird. "KI-Modelle haben viele blinde Flecken", fügt der IT-Experte hinzu. "Man kann sie möglicherweise ändern, indem man die Merkmale des Angriffs ändert, zum Beispiel wie viele Pakete man sendet oder welche Ressourcen man angreift."

Cyberkriminelle nutzen jedoch nicht nur KI-gestützte Sicherheitstools. KI ist Teil vieler verschiedener Technologien. So lernen Benutzer beispielsweise oft, Phishing-E-Mails zu erkennen, indem sie nach Grammatikfehlern suchen. KI-gestützte Grammatikprüfer wie Grammarly können Angreifern dabei helfen, ihre Schreibfähigkeiten zu verbessern, während generative KI-Tools wie ChatGPT überzeugende E-Mails von Grund auf neu schreiben können.

6. Informationen sind leichter zugänglich

KI und maschinelles Lernen werde für die Forschung und Aufklärung eingesetzt, so dass Angreifer öffentlich zugängliche Informationen und die Traffic-Muster, Abwehrmechanismen und potenziellen Schwachstellen ihres Ziels untersuchen können. "Und all diese Aktivitäten können intelligenter und schneller durchgeführt werden, wenn sie KI-gestützt sind", ergänzt Thomas Scanlon, leitender Forscher und technischer Leiter in der CERT-Abteilung des Software Engineering Institute an der Carnegie Mellon University.

Viele Organisationen sind sich der Menge an Daten, die es gibt, nicht bewusst. Und es handelt sich nicht nur um Listen gehackter Passwörter, die im Dark Web verbreitet werden und um Social-Media-Beiträge von Mitarbeitern. "Wenn Unternehmen beispielsweise eine Stellenausschreibung oder einen Aufruf zur Einreichung von Vorschlägen veröffentlichen, könnten sie die Art der von ihnen verwendeten Technologien offenlegen", sagt Scanlon. "Früher war es arbeitsintensiv, all diese Daten zu sammeln und zu analysieren, aber vieles davon kann jetzt automatisiert werden."

Laut der Hacker-Umfrage von Bugcrowd nutzen 62 Prozent KI, um Daten zu analysieren. 61 Prozent automatisieren damit Aufgaben und 38 identifizieren Schwachstellen.

7. Autonome Agenten

Wenn ein Unternehmen bemerkt, dass es angegriffen wird und den Internetzugang zu den betroffenen Systemen sperrt, kann Malware möglicherweise keine Verbindung zu ihren Befehls- und Kontrollservern herstellen, um Anweisungen zu erhalten. "Angreifer könnten ein intelligentes Modell entwickeln, das auch dann bestehen bleibt, wenn sie es nicht direkt kontrollieren können, um länger zu bestehen", erklärt Kantarcioglu.

Diese Art von autonomen Agenten ist laut Scanlon von der Carnegie Mellon University nun für jeden verfügbar, dank kommerzieller Angebote von Microsoft und mehrerer Open-Source-Plattformen, die keine Schutzmaßnahmen haben, die eine böswillige Nutzung verhindern. "Früher brauchte der Angreifer menschliche Kontaktpunkte, um einen Angriff auszuführen, da die meisten Angriffe mehrere Schritte umfassen", fügt er hinzu. "Wenn sie Agenten einsetzen können, um diese Schritte auszuführen, ist das definitiv eine drohende Gefahr - mehr als nur eine drohende. Es ist eines der Dinge, die KI real werden lässt."

8. KI-Poisoning

Ein Angreifer kann ein maschinelles Lernmodell austricksen, indem er ihm neue Informationen zuführt. "Der Gegner manipuliert den Trainingsdatensatz. Er verzerrt ihn absichtlich, und die Maschine lernt auf die falsche Weise", erläutert Alexey Rubtsov, leitender wissenschaftlicher Mitarbeiter am Global Risk Institute.

So wie Microsofts Tay Chatbot 2016 von Nutzern dazu gebracht wurde, sich rassistisch zu äußern, kann einem System beigebracht werden, dass eine bestimmte Art von Malware sicher ist - oder bestimmte Bot-Verhaltensweisen völlig normal sind.

9. KI-Fuzzing

Seriöse Softwareentwickler und Penetrationstester verwenden Fuzzing-Software, um zufällige Beispiel-IInputs zu generieren, um eine Anwendung zum Absturz zu bringen oder eine Schwachstelle zu finden. Die optimierten Versionen dieser Software verwenden maschinelles Lernen, um die Inputsgezielter und organisierter zu generieren, wobei Textzeichenfolgen priorisiert werden, die am wahrscheinlichsten Probleme verursachen. Das macht die Fuzzing-Tools für Unternehmen nützlicher, aber auch gefährlicher in den Händen von Angreifern.

All diese Techniken machen grundlegende Cybersicherheitsmaßnahmen wie Patching, Anti-Phishing-Aufklärung und Mikrosegmentierung weiterhin unerlässlich. "Und das ist einer der Gründe, warum eine tiefgreifende Verteidigung so wichtig ist", sagt Allie Mellen, Analystin bei Forrester Research. "Man muss mehrere Hürden aufbauen, nicht nur die eine Sache, die Angreifer am Ende zu ihrem Vorteil gegen einen einsetzen."

10. KI-Malware

Im September berichtete HP Wolf Security über eine neue Malware-Kampagne, die "mit hoher Wahrscheinlichkeit" mit Hilfe generativer KI geschrieben wurde. "Generative KI beschleunigt Angriffe und senkt die Schwelle für Cyberkriminelle, Endpunkte zu infizieren", so die Autoren.

Und HP ist nicht allein. Laut dem Vanta-Bericht verzeichnen 32 Prozent der befragten Organisationen einen Anstieg von KI-basierter Malware.

Forscher haben sogar nachgewiesen, dass generative KI zur Aufdeckung von Zero-Day-Schwachstellen eingesetzt werden kann.

Und so wie legitime Entwickler KI nutzen können, um nach Problemen in ihrem Code zu suchen, können dies auch Angreifer, sagt Scanlon von der CMU. Dabei kann es sich um Open-Source-Code handeln, der in öffentlichen Repositories verfügbar ist - oder um Code, der auf andere Weise beschafft wurde. "Hacker können den Code nehmen und ihn durch ChatGPT oder ein anderes grundlegendes Modell laufen lassen und ihn bitten, Schwachstellen im Code zu finden, die ausgenutzt werden können", führt der Experte aus und fügt hinzu, dass er sich beider Verwendungszwecke bewusst sei.

In der Vergangenheit waren nur die fortschrittlichsten Bedrohungsakteure in der Lage, maschinelles Lernen und KI für ihre Angriffe zu nutzen. Heute kann das jeder.

Was die Verteidigung besonders schwierig macht, ist, dass sich KI heute schneller weiterentwickelt als jede andere Technologie. "Das ist ein bewegliches Ziel", sagte Lyon von der Boston Consulting Group. "Unternehmen sollten es sich zur Priorität machen, mit ihrem Verständnis der Bedrohungslandschaft Schritt zu halten und ihre Fähigkeiten anzupassen."