- Gutachten bestätigt vzbv-Forderung nach mehr Rechtssicherheit für Anbieter, falls KI-Systeme „wesentliche Änderungen“ durchlaufen.
- Freiwillige Konformitätsbewertung durch Dritte müssen unabhängig vom Risikoniveau ermöglicht werden.
- Kleine und mittelständische Anbieter müssen von niedrigeren Gebühren für externe Konformitätsbewertungen profitieren.
Seit April 2021 wird in Brüssel der Artificial Intelligence Act (AIA) verhandelt, der europäische Rechtsrahmen für Künstliche Intelligenz (KI). Durch ihn sollen Regeln und Qualitätsvorgaben für Anbieter von KI-Systemen definiert werden. Zur Bewertung der derzeit vorliegenden Regelungen zur Konformitätsbewertung hat der Verbraucherzentrale Bundesverband (vzbv) ein Gutachten beauftragt. Die Autor:innen Professorin Frauke Rostalski und Dr. Erik Weiss schlagen darin klarere Regelung für mehr Rechtssicherheit und Vereinfachungen vor, die auch der vzbv fordert. Um die Interessen von Verbraucher:innen, professionellen Nutzern und Betreibern von KI auszugleichen, müssen die Regelungen angepasst werden.
Gestützt durch das Gutachten fordert der vzbv folgende Anpassungen des Verordnungsvorschlags:
- Klarere Regelung für mehr Rechtssicherheit und Vereinfachungen für Provider, falls (selbstlernende) KI-Systeme eine „wesentliche Änderung“ erfahren und ein neues Konformitätsbewertungsverfahren durchlaufen müssen.
- Optionale Einbeziehung von externen Stellen für die Konformitätsbewertung aller KI-Systeme mit hohem Risiko gemäß Annex III, unter der Voraussetzung, dass diese alle einschlägigen harmonisierten Standards für Hochrisiko-KI-Systeme einhalten. Sonst wird die Einschaltung einer externen Konformitätsbewertungsstelle verpflichtend.
- Rahmenbedingungen schaffen, so dass kleine und mittelständische Anbieter (KMU-Provider) von niedrigeren Gebühren für externe Konformitätsbewertungen profitieren. Hierdurch können sie Vertrauen gewinnen und Wettbewerbsnachteile ausgleichen.
- Jeder Anbieter sollte auf freiwilliger Basis eine Konformitätsbewertung durch Dritte durchführen lassen können, unabhängig vom Risikoniveau.
- Aufnahme von Systemen zur Emotionserkennung oder biometrischen Kategorisierung als Hochrisiko-KI, damit auch diese Systeme harmonisierte Standards einhalten müssen.
Bis Ende 2022 wollen sich das Europäisches Parlament und der Rat der europäischen Union jeweils auf ihre Position einigen. Anschließend sind Verhandlungen im Trilog mit der Europäischen Kommission geplant.
Zentraler Bestandteil des AIA sind Konformitätsbewertungen für hochriskante KI-Systeme: Damit bestätigen externe Zertifizierungsstellen oder die Betreiber von KI-Systemen gegenüber Behörden und Verbraucher:innen, dass ein System alle Vorgaben erfüllt. So sollen unzulässige Diskriminierungen oder systematische Fehlentscheidungen verhindert und das Vertrauen von Verbraucher:innen gestärkt werden. Dies ist wichtig, weil KI-Systeme zunehmend wichtige Entscheidungen über Menschen vorbereiten oder treffen. Etwa im Bereich Versicherungen, bei der automatischen Auswahl von Stellenbewerber:innen oder der Gesichtserkennung.