BMWK (Bundesministerium für Wirtschaft und Klimaschutz)
Benachteiligungen durch Algorithmen und Künstliche Intelligenz (KI) verhindern
Algorithmische Systeme und KI müssen transparent und objektiv überprüfbar sein, um Verbraucher:innen vor Fehlentscheidungen zu schützen.
Weiterlesen
Benachteiligungen durch Algorithmen und Künstliche Intelligenz (KI) verhindern
Algorithmische Systeme und KI müssen transparent und objektiv überprüfbar sein, um Verbraucher:innen vor Fehlentscheidungen zu schützen.
Warum ist das wichtig?
Zunehmend werden Entscheidungen über Verbraucher:innen durch KI-Systeme getroffen oder vorbereitet. Verbraucherentscheidungen werden durch Empfehlungssysteme beeinflusst. Deshalb müssen unabhängige Expert:innen die Systeme bezüglich ihrer Rechtmäßigkeit und sozialen Auswirkungen überprüfen können, etwa hinsichtlich des Diskriminierungsverbots.
Was steht im Koalitionsvertrag?
„Wir unterstützen den europäischen AI Act. Wir setzen auf einen mehrstufigen risikobasierten Ansatz, wahren digitale Bürgerrechte, insbesondere die Diskriminierungsfreiheit, definieren Haftungsregeln und vermeiden innovationshemmende ex-ante-Regulierung. Biometrische Erkennung im öffentlichen Raum sowie automatisierte staatliche Scoring Systeme durch KI sind europarechtlich auszuschließen.“
Was fordert der vzbv?
- Der Artificial Intelligence Act (AI Act) muss alle hochriskanten KI-Anwendungen erfassen und sicherstellen, dass sie Gesetze einhalten und europäischen Werten entsprechen.
- Dazu gehören Verbote von biometrischer Erkennung im öffentlichen Raum sowie die Manipulation und das Ausnutzen von Schwächen von Verbraucher:innen mittels KI.
- KI-Entscheidungen, die Verbraucher:innen betreffen, müssen für sie nachvollziehbar werden.
- Unabhängige Expert:innen und Behörden müssen kontrollieren können, ob KI-Systeme rechtskonform sind, und welche sozialen und wirtschaftlichen Auswirkungen sie haben.
Wie bewertet der vzbv das bisherige Verfahren?
Der AI Act trat am 02. August 2024 in Kraft, der Europäische Rechtsakt wurde damit abgeschlossen. Es ist gut, dass sich die Bundesregierung für ein Verbot biometrischer Erkennung im öffentlichen Raum stark machen möchte. Im AI Act wurde lediglich ein Verbot für staatliche Akteure aufgenommen. Die nationale Durchführung des AI Acts wurde zwar begonnen, aber nicht mehr abgeschlossen. Der deutsche Gesetzgeber hätte seine Spielräume bei der Durchführung des AI Acts nutzen müssen, um den Einsatz biometrischer Fernidentifizierungssysteme an öffentlich zugänglichen Orten auch für private Akteure zu untersagen. Dies ist nicht erfolgt. Parallel zur Sicherstellung digitaler Bürgerrechte hätte sich die Bundesregierung im Rat der Europäischen Union stärker dafür einsetzen müssen, dass verbraucherspezifische Risiken durch KI in den Fokus der Rechtsverordnung rücken. Der Verweis im Koalitionsvertrag darauf, eine innovationshemmende ex-ante-Regulierung vermeiden zu wollen, ist nicht zielführend: Der AI Act sieht vor, dass Anbieter selber entscheiden, ob Ihr KI-System eine Hochrisiko-KI ist und die Konformitätsbewertung hochriskanter KI-Systeme durch die Anbieter selber vornehmen. Dies schafft kein Verbrauchervertrauen. Die Bundesregierung hätte sich in den Trilog-Verhandlungen im Rat vehementer dafür einsetzen sollen, die Rolle unabhängiger Bewertungen und Kontrollen risikoreicher KI-Systeme zu stärken. Zudem hat sich die Bundesregierung im Rat zu zögerlich dafür eingesetzt, dass Manipulation und das Ausnutzen von Schwächen aller Verbraucher:innen mittels KI durch die Verordnung effektiv unterbunden werden. Gut ist, dass der AI Act Social-Scoring durch KI auch für private Akteure untersagt.