Vorsicht vor diesen KI-gestützten Hacker-Methoden!

Vorsicht vor diesen KI-gestützten Hacker-Methoden!
Künstliche Intelligenz (KI) ist auch ein beliebtes Hilfsmittel für Hacker. Wir zeigen, wie Cyberkriminelle diese Technologie einsetzen und wie Dir dadurch Gefahr droht.
Eigentlich sollte Künstliche Intelligenz doch unser Leben verbessern. So versprachen viele Experten nicht nur hohe Produktivitätsgewinne bei der täglichen Arbeit, sondern auch schnellere Fortschritte bei der Erforschung von Krankheiten und der Entwicklung von Medikamenten. Allerdings lässt sich besonders die generative KI auch für verbrecherische Praktiken einsetzen.
Cyberkriminelle haben die Vorzüge der Technologie längst für sich entdeckt. So gibt es inzwischen zahlreiche Hacker-Techniken, die gezielt KI nutzen. Um Dich zu schützen, solltest Du diese kennen. Aber wie genau setzen Cyberkriminelle Künstliche Intelligenz ein und worin besteht jeweils der Vorteil der Technologie?
1. Nutzerdaten einfacher stehlen und gestohlene Zugangsdaten effektiver nutzen
Hacker stehlen Log-ins und Passwörter von Nutzern. Was zunächst wie ein alter Hut klingt, ist im KI-Zeitalter ein noch größeres Problem. Denn Experten für Cybersicherheit weisen darauf hin, dass hierfür vermehrt KI-Algorithmen und -Programme zum Einsatz kommen.
Besonders prädiktive biometrische Algorithmen stellen eine Gefahr dar. Diese nutzen Künstliche Intelligenz und maschinelles Lernen zur Datenanalyse und zur Vorhersage, ob eine Authentifizierung wirklich legitim ist. In den falschen Händen können diese jedoch auch dabei helfen, Nutzer bei der Passworteingabe auszuspähen und sich mit den Daten einzuhacken.
KI kann Cyberkriminelle zudem in vielfacher Hinsicht unterstützen. Das reicht vom Scannen und Abbilden von Netzwerkstrukturen über das Öffnen von Ports und die Identifizierung von Hosts bis zur Informationsgewinnung bezüglich verwendeter Software. So lassen sich durch KI-Unterstützung schneller und einfacher Schwachstellen auffinden und ausnutzen.
Künstliche Intelligenz erleichtert Hackern aber nicht nur die schmutzige Arbeit oder beschleunigt diese. Sie steigert oft auch die Effektivität von klassischen Techniken. Das gilt vor allem für Brute-Force-Attacken, Credential Stuffing und Password Spraying.
-
a) Brute-Force-Attacken: Brute-Force-Attacken sind zwar wenig subtil. Denn hier zielt eine riesige Menge von Cyber-Angriffen auf eine Vielzahl von Opfern – ganz nach dem Motto: „Viel hilft viel.“ Die Erfolgschance ist relativ klein und wird von Fachleuten nur auf etwa 0,01 Prozent taxiert – moderner Sicherheitssoftware sei Dank. Wegen der großen Anzahl von Attacken gibt es aber auch immer einige Erfolge. Zudem eignet sich das einfache Verfahren auch für technisch wenig versierte Personen. Mithilfe von KI können Hacker aber die Erfolgswahrscheinlichkeit ihrer Angriffe deutlich steigern. So lassen sich etwa Attacken auf mehrere Ziele parallel durchführen und besser automatisieren.
-
b) Credential Stuffing: Beim Credential Stuffing nutzen Angreifer bereits gestohlene bzw. geleakte Daten. Dabei handelt es sich in der Regel um Kombinationen aus Benutzernamen und Passwörtern. Da viele Menschen diese für unterschiedliche Dienste verwenden, hat diese Methode immer wieder Erfolg – erst recht mit KI. So können Hacker etwa mithilfe spezieller Algorithmen Datensätze mit gestohlenen Benutzername-Passwort-Kombinationen schneller analysieren und nutzen.
-
c) Password Spraying: Password Spraying ist so etwas wie der Gegenentwurf zu Brute Force. Denn hier testen Hacker bewusst nur eine kleine Anzahl von besonders häufig genutzten Passwörtern – allerdings für sehr viele Benutzerkonten. So vermeiden sie die Kontensperrung wegen zu häufiger fehlgeschlagener Anmeldeversuche. Mit KI-Unterstützung lassen sich solche Prozesse automatisieren und so mehr Erfolge erzielen.
2. Phishing und Social Engineering effizienter gestalten
Auch Phishing und Social Engineering stammen aus dem klassischen Hacker-Werkzeugkasten. Durch KI ist der Einsatz aber noch Erfolg versprechender. Dafür ist noch nicht einmal Software aus dem Dark Web wie FraudGPT oder WormGPT erforderlich. Versuche zeigen immer wieder, dass sich so etwas auch mit legalen generativen Tools wie ChatGPT oder Gemini erreichen lässt. Zudem gibt es intelligente KI-Bots, die ihre Angriffsstrategie optimieren können, indem sie aus erfolglosen Attacken lernen, ihre Vorgehensweise anpassen und so die Erfolgswahrscheinlichkeit erhöhen.
-
a) Social Engineering: Hier versuchen Angreifer durch manipulative Techniken vertrauliche Informationen zu erhalten. Mithilfe von KI-Algorithmen und Chatbots gelangen Hacker – etwa aus Profilen in den Sozialen Medien – einfacher an Informationen über Personen und Organisationen, auf die der Angriff abzielt. Dazu setzen sie Daten wie Wohnort oder Interessen gezielt ein. Einige KI-Tools ermöglichen es auch, Faktoren wie den Schreibstil oder Tonfall bestimmter Personen glaubhaft zu imitieren. Dadurch erhöht sich für Cyberkriminelle die Chance, wertvolle Daten zu erhalten.
-
b) Phishing: Beim Phishing versuchen Cyberkriminelle, sensible Informationen zu stehlen, indem sie vor allem E-Mails, Websites oder Nachrichten fälschen. Dabei können durch Social Engineering gewonnene Daten als Grundlage dienen, um die Glaubwürdigkeit zu steigern. Das funktioniert natürlich auch ganz ohne Künstliche Intelligenz. Allerdings zeigen Untersuchungen, dass beispielsweise von der KI erstellte Phishing-Mails Empfänger eher täuschen. Das liegt unter anderem daran, dass diese weniger offensichtliche Warnsignale – etwa Schnitzer bezüglich Grammatik oder Rechtschreibung – enthalten. Hierauf deutet auch ein Experiment der Government Technology Agency of Singapore aus dem Jahr 2021 hin. Bei diesem erfolgte die Generierung von Phishing-E-Mails sowohl durch ChatGPT3 als auch von Hand. Hierbei fielen mehr Empfänger auf die von der KI verfassten Nachrichten herein, als auf die manuell erstellten.
3. Schadsoftware durch KI erstellen und auf Opfer abstimmen lassen
Malware ist fast so alt wie Software selbst. Die KI hat die Spielregeln hier aber geändert. Früher waren für das Erstellen von Schadsoftware relativ viel Zeit und Programmierkenntnisse erforderlich. Heute springt hier oft Künstliche Intelligenz ein. Denn generative KI kann selbst Malware kreieren.
Ob Schadsoftware KI-generiert ist, lässt sich anhand des Programmcodes erkennen. Laut einem Artikel in der renommierten Zeitschrift Artificial Intelligence Review lässt sich Malware mit geeigneten KI-Tools nicht nur schneller erstellen. Es ist auch möglich, sie gezielter auf bestimmte Opfer bzw. Opfergruppen auszurichten.
Praktische Beispiele dafür veröffentlichte ein Forscherteam von HP, das sich auf Cyberbedrohungen spezialisiert hat. Gemäß ihrem im September 2024 veröffentlichten „Threats Insights Report“ fanden die Experten nicht nur in Bildern mit dem Dateiformat SVG eine Schadsoftware, deren Code von einer KI stammte. Sie stießen auch auf bösartigen KI-Code in einer Browser-Erweiterung. Diese war in der Lage, Sitzungen von Nutzern zu übernehmen und diese auf Websites zu leiten, die gefälschte PDF-Programme anboten. Wenn sich also plötzlich ein merkwürdiges Pop-up auf Deinem Desktop öffnet, solltest Du es am besten direkt schließen.
4. Sicherheitsmechanismen austricksen und umgehen
Cybersicherheitsfirmen reagieren heute meistens sehr schnell, indem sie neue Malware nicht nur identifizieren, sondern auch verhindern, dass diese Schaden anrichtet. Dabei ist es grundsätzlich egal, ob hier ein versierter Hacker oder „nur“ die KI am Werk war. Leider ist das auch Cyberkriminellen bewusst, die wiederum Künstliche Intelligenz einsetzen, um zu antworten.
Dazu setzen Hacker vor allem auf den vielfältigen Einsatz von Large Language Models. Mithilfe dieser KI-Tools lässt sich bekannte Malware nicht nur modifizieren, sondern auch verbergen. Durch diesen Vorgang entstehen Varianten, die Sicherheitsprogramme nicht mehr zuverlässig erkennen.
Wie das genau funktionieren kann, demonstrierten Experten des IT-Sicherheitsunternehmens Palo Alto Networks. Diese ließen durch Large Language Models bereits bekannte Malware umschreiben. Dabei behielten die Varianten aber die ursprüngliche Funktionalität. Die Folge war, dass auch leistungsfähige Algorithmen wie Innocent Until Proven Guilty bei der Erkennung immer wieder passen mussten. Daraus schlossen die Forscher, dass sich durch hinreichende Modifikationen von Malware-Codes die Leistung von Klassifizierungssystemen für Schadsoftware so weit senken lässt, dass Schadsoftware (oft) nicht mehr erkannt wird.
Noch verheerender könnten sich aber dynamische Malware-Nutzlasten und adaptive Malware auswirken. Während sich bei einer dynamischen Malware-Nutzlast der eigentliche Schadcode innerhalb der Malware verändert, kann sich die adaptive Malware flexibel an unterschiedliche Umgebungen anpassen. Diese Arten von Schadsoftware sind zwar nicht ganz neu. Generative KI ermöglicht ihnen aber inzwischen eine verbesserte Interaktion mit unterschiedlichen Gegebenheiten, was ihre Effektivität erhöht. So können diese Schadprogramme inzwischen Verhalten und Verschlüsselungen in Echtzeit modifizieren und auf neue Gegebenheiten abstimmen.
5. Menschen durch KI lebensecht imitieren lassen
Dass Künstliche Intelligenz Menschen lebensecht imitieren kann, klang vor ein paar Jahren noch wie Zukunftsmusik. Doch mit generativer KI ist das inzwischen längst möglich. Der Beweis sind Deep-Fake-Videos und sogenannte Stimmklone.
Dabei dienen KI-Tools dazu, gezielt bestimmte Aspekte von Menschen möglichst glaubhaft nachzuahmen. Als Grundlage für den Betrug dienen in der Regel reale Bilder, Stimm- oder Videoaufnahmen der jeweiligen Person. Diese finden sich heute oft in den Sozialen Netzwerken oder lassen sich aus den Mitschnitten von Telefongesprächen gewinnen.
Ein Beispiel für eine solche Masche ereignete sich im letzten Jahr bei einem internationalen Unternehmen. Hier überwies ein Angestellter im guten Glauben mehr als 25 Millionen US-Dollar an Hacker. Diese hatten ihn durch Deep-Fake-Videotechnik glaubhaft vorgespielt, er befände sich in einem Online-Video-Meeting mit Führungskräften des Unternehmens.