- Verbraucherzentrale Bundesverband (vzbv) veröffentlicht Gutachten zu Auswirkungen von Handelsregeln auf EU-Algorithmenregulierung.
- Handelsregeln könnten künftigen EU-Regeln zur Transparenz, Zertifizierung und Verantwortlichkeit erschweren.
- Zurzeit in der Welthandelsorganisation (WTO) diskutierte Regeln zur Nichtoffenlegung von Software Quellcodes könnten in der EU geplante Regulierung gefährden.
Zahlreiche Handelsabkommen und mögliche neue Regelungen im Rahmen der Welthandelsorganisation (WTO) können eine verbraucherfreundliche Regulierung von Algorithmen erschweren. Zu diesem Ergebnis kommt ein Rechtsgutachten von Kristina Irion (Universität Amsterdam) im Auftrag des vzbv. Das Gutachten zeigt auf, dass eine Reihe von derzeit in der EU diskutierten Maßnahmen, etwa zur KI-Regulierung oder beim Digital Services Act, gegen handelsrechtliche Formulierungen verstoßen können.
Die Europäische Union verhandelt derzeit eine Reihe von Handelsverträgen, insbesondere auf WTO-Ebene, in denen auch Regelungen zur Nichtoffenlegung von Software-Quellcodes festgeschrieben werden sollen. Hintergrund sind erzwungene Technologietransfers, vor allem beim grenzüberschreitenden Handel mit China. Eine Offenlegung von Quellcodes und Algorithmen kann aus verbraucherpolitischer Perspektive jedoch unter bestimmten Umständen notwendig sein, um verbraucherfreundliche Regeln der Transparenz und Überprüfbarkeit von Algorithmen zu gewährleisten.
„Handelsabkommen dürfen eine verbraucherfreundliche Regulierung von Algorithmen nicht behindern. Wir stehen noch ganz am Anfang einer fundamentalen Transformation von Wirtschaft und Gesellschaft durch Künstliche Intelligenz. Die Europäische Union muss sicherstellen, dass Handelsverträge ihren eigenen Regulierungsplänen nicht im Wege stehen und Verbraucherschutz an dieser Stelle nicht aushebeln können – heute und auch in Zukunft nicht“, kommentiert Isabelle Buscke Leiterin des Büro Brüssel des vzbv.
Potenziale und Risiken von Algorithmen
Anwendungen mit Künstlicher Intelligenz haben viele Vorteile für Verbraucher. Sie können aber auch ihr Verhalten beeinflussen und bergen das Risiko der Diskriminierung und Manipulation. Beispiele könnten etwa Virtuelle Persönliche Assistenten sein, die Preise aufgrund von Zahlungsbereitschaft oder Geschlecht personalisieren, oder Buchungsplattformen, die Verbraucher auf Basis persönlicher Merkmale ausschließen. Ein hohes Maß an Transparenz, Kontrolle und Aufsicht ist zwingend notwendig, um das Verbrauchervertrauen in algorithmische Entscheidungssysteme zu erhöhen.
Beim Abspielen des Videos werden nutzerbezogene Daten zu Youtube übertragen. Weitere Informationen