ChatGPT und anderer GenAI-Tools machen es möglich: Schadcode schnell und einfach per Sprachanweisung generieren und gleich noch die passende Phishing-Mail dazu. Hacker werden die neuen KI-Werkzeuge nutzen, warnt Florian Dalwigk, Sicherheitsexperte der Developer Akademie, und sie können damit erheblichen Schaden anrichten.
Allein die Möglichkeiten, Phishing-Mails besser und zielgenauer auf bestimmte Opfergruppen auszuformulieren und anzupassen, erweitert das Angriffsspektrum erheblich, sagt Dalwigk. In der Vergangenheit habe man verdächtige Mails oft anhand von grammatikalischen und sprachlichen Fehlern vergleichsweise einfach erkennen können. Doch durch geschicktes Prompting, also die Eingaben in natürlicher Sprache an den GenAI-Bot, ließen sich mittlerweile ohne großen Aufwand einwandfreie Mailings generieren, die perfekt Sprachstile beispielsweise aus dem Banking-Umfeld imitieren könnten.
Doch das Mailing ist nur ein Baustein in den Angriffsstrategien der Hacker, erläutert der Sicherheitsexperte. Mit Hilfe der neuen KI-Werkzeuge könnten die Cyberkriminellen mit wenig Aufwand das gesamte Täuschungsszenario für ihre Betrügereien entwerfen und bauen. Dalwigk zufolge ließen sich auch ohne tiefe Programmierkenntnisse seriös wirkende Websites erstellen, auf denen die nichtsahnenden Opfer dazu verleitet würden, sensible Daten preiszugeben, wie zum Beispiel Account-Zugänge zum Online-Banking.
Auch Unternehmensdaten sind in Gefahr
Das KI-Arsenal bietet Hackern noch eine ganze Reihe weiterer Waffen für gefährliche Angriffe. Gerade die Schnittstelle zwischen Unternehmensdaten und den GenAI-Tools im Internet kann sich als Einfallstor für Cybergangster entpuppen. Durch geschicktes Prompt Injection lassen sich Sprachmodelle kapern und so manipulieren, dass sie Informationen wie zum Beispiel Passwörter oder Kreditkarten-Informationen. Wie das funktioniert und auf welche Punkte User achten sollten, um sich zu schützen, erklärt Florian Dalwigk hier in unserem TechTalk.