Cyberkriminelle ändern Strategie: KI im Visier
Generative KI-Tools wie ChatGPT erfreuen sich auch in der Unterwelt zunehmender Beliebtheit. Eine aktuelle Analyse von Trend Micro zeigt: Die KI-Tools haben das Potenzial, in naher Zukunft höchst gefährliche Cyberangriffe zu ermöglichen. Es entsteht ein neues "Geschäftsmodell".
Noch ist die Entwicklung am Anfang. Im vergangenen Jahr gab es bei Kriminellen zwar Versuche, eigene Large Language Models (LLMs) zu entwickeln, diese Vorhaben wurden jedoch weitestgehend aufgegeben. Stattdessen verlagerten sie ihren Fokus darauf, bestehende KI-Modelle zu hacken und in sie einzubrechen.
KI-Hacking als Dienstleistung
Aus diesem "Trend" hat sich dem Sicherheitsunternehmen Trend Micro zufolge eine neue Dienstleistung entwickelt: Jailbreaking-as-a-Service. Hierbei nutzen Kriminelle ausgeklügelte Techniken, um LLMs dazu zu bringen, Anfragen zu beantworten, die normalerweise blockiert würden. Diese Techniken umfassen Rollenspiele, hypothetische Szenarien und die Verwendung fremder Sprachen. Dienstanbieter wie OpenAI und Google arbeiten intensiv daran, diese Sicherheitslücken zu schließen, doch die Cyberkriminellen passen sich an und entwickeln immer raffiniertere Jailbreaking-Prompts.
"Cyberkriminelle haben KI schon lange vor dem jüngsten Hype um generative KI in der IT-Branche missbraucht. Deshalb hat sich Trend Micro in die kriminellen Untergrundforen begeben, um herauszufinden, wie Cyberkriminelle KI tatsächlich nutzen und einsetzen, um ihre Ziele zu erreichen und welche Art von KI-gestützten kriminellen Dienstleistungen angeboten werden", erläutert Trend Micro Sicherheitsforscher David Sancho. Dort gab es haben auch LLM-Angebote von Kriminellen für Kriminelle gesehen.
Identitätsprüfung aushebeln: Krimineller Service wird günstiger
Neben den LLM-Diensten gewinnen auch Deepfake-Services an Bedeutung. Obwohl Deepfakes nicht neu sind, gibt es erst jetzt echte cyberkriminelle Angebote. Solche Dienste werden genutzt, um Systeme zur Identitätsüberprüfung zu umgehen. Vor allem im Finanzsektor wird das zu einem zunehmenden Problem, da Banken und Kryptowährungsbörsen immer strengere Überprüfungen verlangen.
Dabei wird die Erstellung von Deepfakes wird immer günstiger und einfacher. Cyberkriminelle nutzen diese Technologie, um gefälschte Bilder und Videos zu erstellen, die selbst fortgeschrittene Sicherheitssysteme täuschen können. Ein gestohlenes Ausweisdokument reicht oft schon aus, um ein überzeugendes Fake-Bild zu kreieren.
Die Sicherheitsforscher sind davon überzeugt, dass der Bedarf an einem sicheren, anonymen und nicht nachverfolgbaren Zugang zu LLMs bestehen bleibt. Das werde kriminelle Dienste dazu veranlassen, sich immer wieder neue LLMs zunutze zu machen, die einfacher zu jailbreaken oder auf ihre speziellen Bedürfnisse zugeschnitten seien. Der Markt boomt: Derzeit gibt es mehr als 6.700 leicht verfügbare LLMs auf der KI-Community-Plattform Hugging Face. Es sei davon auszugehen, dass immer mehr alte und neue kriminelle Tools GenAI-Funktionen integrieren würden.