Ab jetzt gilt der EU AI Act
Seit Anfang August 2024 ist die neue KI-Regulierung in allen EU-Staaten in Kraft getreten. Bereits in einem halben Jahr müssen Unternehmen erste Regeln befolgen. CRN nennt die wichtigsten Details und befragte Experten dazu.
Der EU AI Act wirkt direkt in allen EU-Mitgliedsstaaten. Es reguliert grundsätzlich alle KI-Systeme und Modelle, die jetzt in die Risiko-Klassen (unannehmbares Risiko, hohes Risiko, spezifisches Transparenzrisiko, minimales Risiko und General Purpose AI, kurz GPAI) einsortiert sind. Für die Risikoklassen gelten unterschiedliche Fristen und Regeln.
Ein halbes Jahr nach Inkrafttreten – also ab dem 2. Februar 2025 - werden Anwendungen mit einem unannehmbaren Risiko verboten. Dazu gehört etwa Social Scoring. Das sind Systeme zur Überwachung von Menschen, wie sie etwa in China eingesetzt werden. Grundsätzlich verboten wird auch die biometrische Echtzeit-Fernidentifizierung im öffentlich zugänglichen Raum durch Strafverfolgungsbehörden.
KI-Systeme, die sich negativ auf die Sicherheit für Menschen und auf deren Grundrechte auswirken können, sind in die Gruppe der Hochrisiko-Systeme eingruppiert. Das können zum Beispiel KI-Systeme in medizinischer Software sein. Hier gelten ab dem 2. August 2026 Dokumentations- und Transparenzpflichten sowie die Notwendigkeit einer menschlichen Aufsicht. Anbieter solcher Lösungen müssen im Rahmen einer Konformitätsbewertung nachweisen, dass ihr System die verbindlichen Anforderungen an vertrauenswürdige KI erfüllt (z. B. Datenqualität, Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit, Cybersicherheit und Robustheit).
Mit dem KI-Gesetz werden auch spezifische Transparenzanforderungen für bestimmte KI-Anwendungen eingeführt. Besteht ein eindeutiges Manipulationsrisiko (z. B. durch den Einsatz von Chatbots oder bei Deepfakes), so muss das klar erkennbar sein. Die Nutzer müssen verstehen, dass sie mit einer Maschine interagieren oder Inhalte nutzen, die von einer Maschine manipuliert wurden.
Die große Masse, nämlich rund 80 Prozent aller KI-Systeme, sind eingruppiert in die Gruppe "minimales Risiko". Hierzu zählen beispielsweise Spam-Filter in Mail-Programmen. Auch bestimmte "intelligente" Suchfunktionen fallen darunter. Hier gibt es keine Auflagen der EU.
General Purpose AI (GPAI) oder - zu deutsch - KI-Modelle mit allgemeinem Verwendungszweck sind jene, zu denen die Großen Sprachmodelle (LLM) gehören. Hierzu gehören ChatGPT und Co. Mit diesen KI-Systemen ist es aus EU-Sicht möglich, Cyberangriffe durchzuführen oder schwere Unfälle zu verursachen. Anbieter von Modellen mit solchen Systemrisiken sind verpflichtet, Risiken zu bewerten und zu mindern, schwerwiegende Sicherheitsvorfälle zu melden, modernste Tests und Modellbewertungen durchzuführen und die Cybersicherheit ihrer Modelle zu gewährleisten. Die Anbieter werden aufgefordert, mit dem Europäischen Ausschuss für künstliche Intelligenz und anderen Interessenträgern zusammenzuarbeiten.
Wie der EU-Act durchgesetzt werden soll
Jeder EU-Mitgliedsstaat muss eine nationale Behörde beauftragen. In Deutschland sollen das die Landesdatenschutzbehörden sein. Auch die Bundesnetzagentur könnte Aufgaben übernehmen. Endgültig entschieden ist das derzeit noch nicht. Jeder EU-Staat soll außerdem einen Vertreter der zuständigen Behörde für den Europäischen Ausschuss für künstliche Intelligenz stellen.
Das sagen Experten
Bitkom-Präsident Dr. Ralf Wintergerst warnt in erster Linie vor zu viel Bürokratie: "Die Umsetzung darf nicht zur Hängepartie für Unternehmen werden: Lange Rechtsunsicherheit, unklare Zuständigkeiten und aufwendig bürokratische Prozesse in der Umsetzung des AI Acts würden europäische KI-Innovation behindern. Ziel muss sein, den Einsatz von KI sowohl in Wirtschaft und Verwaltung als auch in der Gesellschaft konsequent voranzubringen. Das kann nur gelingen, wenn die Umsetzung bürokratiearm und praxisnah erfolgt."
Shaked Reiner, Principal Security Researcher beim Security-Spezialisten CyberArk Labs, begrüßt die klaren Regeln, warnt aber dennoch vor weiterhin bestehenden Risiken. „…Kriminelle werden immer außerhalb der ethischen und rechtlichen Grenzen agieren. KI-Anwender können sich nicht allein auf rechtliche Rahmenbedingungen verlassen, um sich vor Cyberangriffen zu schützen."
Nicht zuletzt warnt der Security-Experte vor ChatGPT & Co.: "In den Richtlinien von OpenAI heißt es beispielsweise, dass ChatGPT fast alle Informationen der Nutzer sammelt. (…) Aufgrund der komplexen Natur von ChatGPT und unseres oft begrenzten Wissens, warum LLMs im Allgemeinen so funktionieren, wie sie es tun, ist es fast unmöglich zu erkennen, wie bestimmte Informationen verwendet werden. Diese Undurchsichtigkeit bedeutet, dass OpenAI, obwohl es jetzt dem EU AI Act und den damit verbundenen ethischen Regeln unterliegt, nicht unbedingt vertrauensvoll mit den privaten Daten der Nutzer umgeht. LLMs sind sehr anfällig für Manipulation, daher sollten Nutzer extrem vorsichtig sein und niemals geheime Informationen wie Passwörter, Finanzdaten oder persönliche Identifikatoren weitergeben."