Als Mitunterzeichner des offenen Briefs „Civil-society-AI-Act-trilogues-statement“ von EDRi unterstützen wir dessen zivilgesellschaftliche Forderung an die EU-Institutionen, den Schutz der Rechte der Menschen ins Zentrum der Trilog-Verhandlungen zum AI-Act zu stellen.
KI-Systeme werden zunehmend eingesetzt, um uns im öffentlichen Raum zu identifizieren, unser Verhalten vorherzusagen und uns zu kategorisieren. Sie werden auch verwendet, um wichtige Entscheidungen über uns zu treffen.
Ohne eine angemessene Regulierung werden diese Technologien die bestehenden gesellschaftlichen Probleme der Massenüberwachung, der strukturellen Diskriminierung und der zentralisierten Macht großer Technologieunternehmen noch verschärfen.
Daher muss die EU im AI Act sicherstellen, dass die Entwicklung und der Einsatz von KI rechenschaftspflichtig und öffentlich transparent sind und dass die Menschen in die Lage versetzt werden, gegen Schädigung ihrer Rechte vorzugehen.
Dazu gehören insbesondere eine Forderung nach
- einer Registrierung von Systemen mit hohem Risiko in einer öffentlichen Datenbank,
- einer Folgenabschätzung für die Grundrechte vor der Einführung von KI-Systemen mit hohem Risiko,
- einem Beschwerderecht, wenn die Rechte von Menschen durch ein KI-System verletzt werden.
Weiterführende Infos
Der Wortlaut des Briefes in seiner englischen Version findet sich unter https://edri.org/wp-content/uploads/2023/07/Civil-society-AI-Act-trilogues-statement.pdf oder auch direkt auf der EDRi-Aktionsseite unter Civil society calls on EU to protect people’s rights in the AI Act ‘trilogue’ negotiations – European Digital Rights (EDRi).
Entworfen wurde der Brief von European Digital Rights, Access Now, Algorithm Watch, Amnesty International, Bits of Freedom, Electronic Frontier Norway (EFN), European Center for Not-for-Profit Law, (ECNL), European Disability Forum, Fair Trials, Homo Digitalis, Irish Council for Civil Liberties (ICCL), Panoptykon Foundation, Platform for International Cooperation on the Rights of Undocumented Migrants (PICUM).