KI und Ransomware
Künstliche Intelligenz (KI) ist ein leistungsstarkes Werkzeug, mit dem Kriminelle Ransomware noch gefährlicher machen können, als sie ohnehin schon ist.
In den letzten Jahren sind Ransomware-Angriffe immer ausgefeilter und bösartiger geworden. Während Unternehmen weiterhin in die neuesten Technologien zum Schutz ihrer Daten investieren, entwickeln auch Cyberkriminelle ihre Taktiken weiter, wobei künstliche Intelligenz an der Spitze dieser Transformation steht.
Ransomware gibt es schon seit einiger Zeit, aber ihre Wirksamkeit hat erheblich zugenommen, da Angreifer KI-Technologie nutzen, um anfällige Systeme zu identifizieren und gezielte Angriffe gegen sie zu starten. Mithilfe fortschrittlicher Algorithmen können Angreifer Netzwerke schnell nach Schwachstellen durchsuchen, die ausgenutzt werden können, und dann ihre Nutzlasten entsprechend anpassen. Dadurch wird es für herkömmliche Sicherheitsmaßnahmen wie Firewalls oder Antivirensoftware erheblich schwieriger, sie zu erkennen oder zu verhindern, bevor der Schaden entsteht .
Was noch schlimmer ist, ist, dass diese neuen Ransomware-Varianten häufig mit integrierten Umgehungstechniken ausgestattet sind, sodass sie unentdeckt bleiben können, bis sie irreparablen Schaden angerichtet haben; Den Opfern bleibt keine andere Wahl, als zu zahlen, in der Hoffnung, verlorene Daten wiederherzustellen oder wieder auf ihre Systeme zugreifen zu können, ohne erhebliche finanzielle Verluste allein durch Ausfallkosten zu erleiden. Dies macht den Schutz vor diesen Bedrohungen noch schwieriger, da selbst herkömmliche Methoden wie Backups möglicherweise nicht immer funktionieren, da sie bei einem Angriff zusammen mit anderen Dateien verschlüsselt werden.
Ransomware nutzt maschinelles Lernen (ML)
Forscher haben herausgefunden, dass Cyber-Bedrohungsakteure maschinelle Lernmodelle (ML) nutzen können, die künstliche Intelligenz (KI) unterstützen, um Malware einzusetzen und sich lateral über Unternehmensnetzwerke zu bewegen. ML-Technologie hat sich zunehmend zur Mainstream-Technologie für Unternehmen entwickelt. Leider nutzen Organisationen jedoch aufgrund der Komplexität der Implementierung dieser Modelle und der begrenzten IT-Ressourcen der meisten Unternehmen oft Open-Source-Repositorys für die gemeinsame Nutzung von ML-Modellen, und darin liegt laut Forschern das Problem.
In solchen Archiven fehlen häufig umfassende Sicherheitskontrollen, sodass das Risiko beim Endbenutzer liegt.
Selbstfahrende Autos, Gesichtserkennungssysteme, Roboter, Raketenleitsysteme, medizinische Geräte, digitale Assistenten, Chatbots und Online-Empfehlungssysteme sind alle auf ML angewiesen, um zu funktionieren.
Laut Marta Janus, Hauptforscherin von ML Adversarial bei HiddenLayer, ist jeder potenziell anfällig, der vorab trainierte Modelle für maschinelles Lernen verwendet, die aus nicht vertrauenswürdigen Quellen oder öffentlichen Softwarebibliotheken stammen.
Prudence schlägt vor, dass solche Modelle auf bösartigen Code gescannt werden sollten – obwohl derzeit nur wenige Produkte diese Funktion bieten – und in einer sicheren Umgebung gründlich evaluiert werden sollten, bevor sie auf einer physischen Maschine ausgeführt oder in Produktion gehen.
Darüber hinaus sollte jeder, der Modelle für maschinelles Lernen erstellt, sichere Speicherformate verwenden, beispielsweise solche, die keine Codeausführung zulassen, und alle seine Modelle kryptografisch signieren, damit sie nicht manipuliert werden können, ohne die Signatur zu brechen.
Die kryptografische Signatur hätte ebenso wie die Software die Funktion, die Integrität der Modelle zu gewährleisten.
Wie Ransomware künstliche Intelligenz nutzen kann
Wenn Cyberkriminelle genau wissen, wonach KI-Sicherheitssoftware sucht, können sie einer Entdeckung entgehen. Um einer Entdeckung zu entgehen, können Hacker außerdem äußerst ausweichende, situationsbewusste, künstlich intelligente Malware und Ransomware erstellen, die die Abwehrmechanismen des Zielsystems analysieren und schnell lernen können, die normale Kommunikation des Systems nachzuahmen. Beispielsweise kann Malware so programmiert werden, dass sie ausgeführt wird, wenn der Gerätebesitzer die Kamera verwendet, um die Überprüfung der Gesichtserkennung zu umgehen.
Cyberkriminelle und böswillige Akteure könnten KI auch auf andere Weise nutzen, anstatt sie in ihre Malware zu integrieren. Sie könnten ML-Maschinenlernen nutzen, um CAPTCHAs zu lösen und diese Art der Authentifizierung zu umgehen. Sie könnten künstliche Intelligenz nutzen, um soziale Medien nach den richtigen Personen zu durchsuchen, die sie mit Spear-Kampagnen ansprechen könnten phFischen (Art des Phishings, das auf eine Organisation und/oder relevante Personen in der Organisation abzielt).
KI kann Spear-Phishing-Ergebnisse verbessern, indem sie Aufklärungsoperationen durchführt, wie etwa die Analyse Hunderttausender Social-Media-Profile, um relevante, hochkarätige Ziele zu identifizieren. Sie könnten auch Spam erstellen, der überzeugender und besser auf das potenzielle Opfer zugeschnitten ist. Anschließend kann es personalisierte, menschenähnliche Interaktionen initiieren, um Opfer dazu zu verleiten, Angreifern eine Hintertür bereitzustellen. Spear-Phishing ist allein oft schwer zu erkennen.
IBM hat DeepLocker mit KI-Technologie entwickelt
IBM hat das Malware-Angriffstool DeepLocker speziell entwickelt, um zu demonstrieren, wie bestehende KI-Technologien zum Vorteil von Malware-Angriffen genutzt werden können. DeepLocker erreicht sein Ziel durch den Einsatz künstlicher Intelligenz. Das Tool tarnt sich als Videokonferenzsoftware und bleibt unentdeckt, bis das beabsichtigte Opfer über Gesichts- und Stimmerkennung und andere Merkmale identifiziert wird. An diesem Punkt startet er den Angriff. Die Hypothese von IBM ist, dass Cyberkriminelle ähnliche Informationen in ihrer Malware nutzen können, um Systeme zu infizieren, ohne entdeckt zu werden.
Insgesamt sagten die Forscher, dass die Einführung eines Sicherheitsansatzes, der das Verständnis von Risiken, die Beseitigung blinder Flecken und die Identifizierung von Verbesserungspotenzialen bei allen in einem Unternehmen eingesetzten ML-Modellen umfasst, dazu beitragen kann, einen Angriff dieser Vektoren abzuschwächen.
Zweitens trägt eine zuverlässige Backup-Lösung dazu bei, dass wichtige Informationen sicher bleiben, falls etwas durchs Netz geht.
Zusammenfassend lässt sich sagen, dass KI bei der Verhinderung katastrophaler Cyber-Angriffe sicherlich besondere Herausforderungen mit sich bringt. Ein proaktiver Ansatz und die gleichzeitige Information über die neuesten Entwicklungen in der Branche werden sich jedoch letztendlich als unschätzbar wertvoll erweisen, um die mit modernen digitalen Bedrohungen verbundenen Risiken zu minimieren.