Mehr als ein Dutzend Organisationen, darunter LOAD e.V. als Mitunterzeichner, warnen in einer gemeinsamen Stellungnahme vor den verfassungs- und menschenrechtlichen Risiken der geplanten Ausweitung von KI-Systemen wie PimEyes in der Polizeiarbeit.
In diversen Gesetzentwürfen (betreffend §§ 98d, 98e StPO sowie §§ 9a, 9b, 22a,39a, 39b, 63b, 63c BKAG, §§ 46, 58a, 58b BPolG, § 15b AsylG) plant die Bundesregierung, die Nutzung solcher Systeme bundesweit zu ermöglichen, was mit gravierenden Folgen für Grundrechte und Rechtsstaatlichkeit einhergehen würde.
➡ Hier geht es zu der Gemeinsame Stellungnahme gegen Lex Palantir [PDF].
Kritik an fehlenden rechtsstaatlichen Sicherungen
Die namhaften Jurist*innen, Datenschützer*innen und Menschenrechtsorganisationen bemängeln, dass die aktuellen Gesetzentwürfe zentrale rechtsstaatliche Prinzipien vermissen lassen. Gefordert werden unter anderem ein Richtervorbehalt, ein effektiver Rechtsschutz sowie eine menschliche Überprüfung automatisierter Analysen. Ohne diese Garantien drohen unverhältnismäßige Eingriffe in das Recht auf Privatsphäre und die Gefahr der flächendeckenden Überwachung der Bevölkerung.
Die Kritik bezieht sich auf Regelungen zur automatisierten Datenanalyse, die bisher nur in Hessen und Hamburg galten. Das Bundesverfassungsgericht erklärte diese 2023 für verfassungswidrig (Urteil des Ersten Senats vom 16. Februar 2023, Az.: 1 BvR 1547/19 & 1 BvR 2634/20).
Die damalige Bundesregierung konnte sich nicht auf eine bundesweite Lösung einigen.
LOAD e.V. kritisiert, dass mehrere dieser Befugnisse angedacht sind und mahnt einen Fokus auf die Gesamtschau an.
Lukas Theune, Geschäftsführer des Rechtsanwaltlichen Vereins (RAV) und Strafverteidiger, betont:
„Alle Videos, Fotos und andere biometrische Daten im Netz zu durchsuchen, nur um einige wenige Personen zu finden, die nicht einmal einer Straftat verdächtig sein müssen, ist ein unverhältnismäßiger Eingriff in das Recht auf Privatsphäre.
Mit dieser KI können Profile unzähliger Menschen erstellt werden. Recherchen zum Einsatz von KI in Behörden zeigen, dass ohnehin marginalisierte Gruppen dadurch besonders diskriminiert werden.“
Lena Rohrbach, Fachreferentin für Menschenrechte im digitalen Zeitalter bei Amnesty International, warnt vor den Folgen
“Mit biometrischen Massenabgleichen und umfassenden Datenanalysen mittels Künstlicher Intelligenz würde die Bundesregierung eine rote Linie überschreiten: Sie schafft die Infrastruktur zur flächendeckenden Überwachung ihrer eigenen Bevölkerung – und gefährdet damit Grundrechte, die sie eigentlich schützen muss”
Weil kaum absehbar ist, was „Datenspuren“ hinterlassen kann, die die KI verdächtig findet, führt das Vorhaben auch zu sogenannten „Chilling Effects“. Das heißt, es kann Menschen einschüchtern und davon abhalten, ihre Rechte wahrzunehmen, etwa an Versammlungen teilzunehmen oder eine Anzeige aufzugeben”
Unterzeichnende Organisationen
An der Stellungnahme beteiligen sich: Algorithm Watch, Amnesty International, Chaos Computer Club, D64, Digitale Gesellschaft, Justice Collective, Humanistische Union, LOAD e.V., Komitee für Grundrechte und Demokratie, Neue Richter*innenvereinigung, Pro Asyl, Republikanischer Anwältinnen- und Anwälteverein, Seebrücke, Vereinigung demokratischer Jurist*innen
Ergänzung
Auch das Bundesfinanzministerium (BMF) plant aktuell im Rahmen des Gesetzes für mehr Gerechtigkeit durch die Stärkung der Zollverwaltung und die Bekämpfung der Finanzkriminalität dem Zoll den biometrischen Abgleich mit Daten aus diesem Internet zu erlauben.