Fünf Aussagen zur KI-Sicherheit von Microsoft und OpenAI
Angreifer nutzen KI-Technologie wie LLM als ein weiteres Produktivwerkzeug für ihre Arbeit. Zu diesem Ergebnis kommt der neue KI-Sicherheitsbericht von Microsoft und OpenAI.
Die Öffentlichkeit sei gewarnt: Cyberkriminelle nutzen KI-Tools und große Sprachmodelle (LLMs) wie ChatGPT, um ihre Angriffe zu verstärken. "Unsere Analyse der aktuellen Nutzung von LLM-Technologie durch Bedrohungsakteure ergab Verhaltensweisen, die Einsatz von KI als weiterem Produktivitätswerkzeug in der Angriffslandschaft nahelegen", so Microsoft in einem neuen KI-Sicherheitsbericht, den es am Mittwoch gemeinsam mit OpenAI veröffentlichte.
Hier sind die fünf bemerkenswertesten Ergebnisse und Aussagen im Zusammenhang mit dem Bericht.
Nr. 1: Nordkorea, China, Russland und der Iran sind raus bei ChatGPT
In Zusammenarbeit mit Microsoft hat OpenAI nach eigenen Angaben bereits fünf staatliche Akteure ausgeschaltet. Dazu gehörten die beiden mit China verbundenen Angreifer Charcoal Typhoon und Salmon Typhoon, Crimsom Sandstorm (Iran), Emerald Sleet, (Nordkorea) und Forest Blizzard (Russland). "Diese Akteure versuchten im Allgemeinen, OpenAI-Dienste zu nutzen, um Open-Source-Informationen abzufragen, zu übersetzen, Programmierfehler zu finden und grundlegende Programmieraufgaben auszuführen".
So nutzte beispielsweise die chinesische Organisation Charcoal Typhoon OpenAI-Dienste, um zu verschiedenen Unternehmen und Cybersicherheits-Tools zu recherchieren, Code zu debuggen, Skripte zu generieren und Inhalte zu erstellen, die sie in Phishing-Kampagnen verwenden können.
Ein weiteres Beispiel sei der iranische Crimson Sandstorm, der OpenAI für die Skriptunterstützung bei der App- und Webentwicklung, für die Erstellung von Inhalten für Spear-Phishing-Kampagnen sowie die Erforschung gängiger Methoden zur Umgehung der Erkennung von Malware nutzte.
Nr.2: Keine einzigartigen KI-Angriffe
Obwohl Cyberkriminelle die künstliche Intelligenz von Microsoft und OpenAI nutzen, um ihre Angriffe zu verbessern, haben die beiden Unternehmen "bisher keine besonders neuartigen oder einzigartigen KI-gestützten Angriffs- oder Missbrauchstechniken beobachtet", hieß es in dem Bericht. Darüber hinaus erklärten die KI-Anbieter, dass sie sich verpflichtet fühlen, generative KI zu nutzen, um Angreifern das Handwerk zu legen. "Wir sind fest entschlossen, generative KI zu nutzen, um Bedrohungsakteure zu stören und die Leistungsfähigkeit neuer Tools, einschließlich Microsoft Copilot for Security, zu nutzen, um Verteidigern überall zu helfen", erklärte Microsoft.
Nr. 3: Neue KI-Prinzipien
Am Mittwoch hat Microsoft auch neue Grundsätze vorgestellt, welche die KI-Politik des Anbieters sowie die Maßnahmen zur Minderung von Risiken im Zusammenhang mit seinen KI-Tools und APIs, künftig bestimmen sollen. Microsoft gab an, es werde die Aktivitäten von Cyberangreifern unterbrechen, indem es "die verwendeten Konten deaktiviert, Dienste beendet oder den Zugang zu Ressourcen einschränkt".
Wenn ein Bedrohungsakteur die KI, KI-APIs, Dienste oder Systeme eines anderen Dienstanbieters nutzt, werde Microsoft diesen Dienstanbieter umgehend benachrichtigen und relevante Daten weitergeben, damit er Gegenmaßnahmen ergreifen kann.
Darüber hinaus berichtete Microsoft, dass es mit diversen Interessengruppen zusammenarbeiten und regelmäßig Informationen über die Nutzung von KI durch erkannte Bedrohungsakteure austauschen wird. "Diese Zusammenarbeit zielt darauf ab, kollektive, konsistente und effektive Reaktionen auf ökosystemweite Risiken zu fördern", so Microsoft.
Nr. 4: GPT-4 bietet nur "begrenzte" Möglichkeiten für Hacker
GPT-4 ist das neueste LLM von OpenAI und kann nach Angaben des Unternehmens schwierige Probleme mit größerer Genauigkeit lösen als seine Vorgänger. Allerdings habe der vorliegende Bericht frühere Erkenntnisse externer Cybersecurity-Experten bestätigt. Diese hatten festgestellt, "dass auch GPT-4 nur begrenzte Fähigkeiten für bösartige Cybersecurity-Aufgaben bietet, die über das hinausgehen, was bereits mit öffentlich verfügbaren, nicht-AI-gestützten Tools erreicht werden kann".
Nr. 5: Mehrgleisiger Ansatz für KI-Sicherheit
Als Reaktion auf diese Bedrohungen verfolgen die Unternehmen nun einen "mehrgleisigen Ansatz" zur Bekämpfung von böswilligen, staatlich motivierter Akteure. Ein wichtiger Aspekt hierbei ist die Überwachung und Unterbrechung von Bedrohungen. "Bei Entdeckung ergreift OpenAI geeignete Maßnahmen, um ihre Angriffsaktivitäten zu unterbinden, wie etwa die Deaktivierung ihrer Konten, die Beendigung von Diensten oder die Beschränkung des Zugangs zu Ressourcen."
Ein weiterer Ansatz ist die Zusammenarbeit mit dem KI-Ökosystem. "OpenAI arbeitet mit Industriepartnern und anderen Stakeholdern zusammen, um regelmäßig Informationen über die festgestellte Nutzung von KI durch böswillige staatliche Akteure auszutauschen." Zum weiteren Vorgehen gehören öffentliche Transparenz und die Wiederholung von Sicherheitsmaßnahmen.
"Wir ziehen Lehren aus dem Missbrauch dieser Akteure und nutzen sie, um unsere Security iterativ weiterzuentwickeln", so OpenAI. "Wenn wir verstehen, wie die raffiniertesten böswilligen Akteure versuchen, unsere Systeme zum Schaden anderer zu nutzen, erhalten wir einen Hinweis auf Praktiken, die sich in Zukunft weiterverbreiten könnten. So können wir unsere Sicherheitsvorkehrungen kontinuierlich weiterentwickeln."