LOAD e.V.

Warum biometrischer Massenüberwachung uns alle angeht

Warum ist uns als LOAD e.V. das Verbot einer anlasslosen und flächendeckenden biometrischen Massenüberwachung - beispielsweise durch Kameras mit Gesichtserkennung - so wichtig?
Die Antwort auf diese Frage wurde selten so prägnant zusammengefasst wie in der Laudatio von Sabine Leutheusser–Schnarrenberger zur Verleihung des digitalen Bürgerengagements-Preises der Thomas-Dehler-Stiftung an das Aktionsbündnis Reclaim your Face am 2.12.2022 Ehrenpreis für digitales Bürgerengagement an RECLAIM YOUR FACE.

Aus diese Grund möchten wir gerne Auszüge ihrer Rede hier veröffentlichen.

Verfahren zur Gesichtserkennung sind seit mehreren Jahren dabei, als Mainstream-Technologie entdeckt zu werden:

  • Kasinos in Las Vegas identifizieren potente Spieler am Gesicht.
  • In der New Yorker Wohnsiedlung Knickerbocker Village ersetzt das Gesicht den Hausschlüssel.
  • Disney registriert seit Jahren Bilddaten seiner Themenpark Besucher. ( SZ vom 11. Juli 2014 ).

Alle biometrischen Methoden - Iris Scan, Handvenen Scan, Ganganalyse – haben etwas Beschämendes. Der Körper entscheidet über uns.

Das Ende der Anonymität des Einzelnen in der Öffentlichkeit

Die sogenannte intelligente Gesichtserkennung hat aber noch eine weitergehende Dimension:

Mittels Algorithmus getriebener Gesichtserkennung wird die Anonymität des Einzelnen in der Öffentlichkeit, die dort grundsätzlich gegeben ist, durchbrochen, denn niemand muss mit einem Namensschild auf der Brust draußen herumlaufen.
Durch biometrische Merkmale werden viele Rückschlüsse auf die Persönlichkeit ermöglicht, es wird in die Privatsphäre eingegriffen. Und das alles nur für mehr Bequemlichkeit?


Was geschieht, wenn jemand das System hackt?

Es ist bereits heute möglich, mittels so hochauflösender Kameras den Fingerabdruck von einer Person durch ein aufgenommenes Foto nachzubilden. Hacker des Chaos Computer Clubs haben das vor fast zehn Jahren anhand eines Fotos von Ursula von der Leyen demonstrieren können. Was machen Sie, wenn in einer Welt, in der biometrische Merkmale Passwörter ersetzen, Ihr eigentlich als weltweit einmalig geglaubter Fingerabdruck plötzlich tausendfach im Internet kursiert? Wenn damit von Kriminellen Online-Überweisungen von Ihrem Konto authentifiziert werden?
Ein gehacktes Passwort können Sie ersetzen. Ihre Fingerkuppe nicht.


Die 65.000 Falschtreffer an Deutschlands “Sicherheitsbahnhof”

In nicht mal viereinhalb Stunden Fahrtzeit vom Münchener Hauptbahnhof erreicht man Deutschlands “Sicherheitsbahnhof” Berlin Südkreuz. Dort werden seit Jahren technologische Innovationen getestet, die angeblich zu mehr Sicherheit auf Bahnhöfen führen sollen. 2018 wurden dort in einem groß angelegten Projekt Kameras mit Gesichtserkennung getestet. Mehrere hunderte Menschen stellten sich freiwillig für den Test zur Verfügung und ließen ihre Gesichter beim Besuch des Bahnhofs von der Gesichtserkennung der Kameras scannen und mit den Datenbanken abgleichen. Viele Kameras mit angeschlossenen Datenbanken unserer Gesichter sind eine neue Qualität. Sie ermöglichen blitzschnelles, automatisiertes Durchleuchten Hunderttausender , die vorbeilaufen. Roboteraugen sehen mehr als menschliche, aber nicht unbedingt immer richtig.

Es wird niemanden wundern, dass das Projekt bei seinem Abschluss als voller Erfolg gewertet wurde. In der Pressemitteilung des Bundesinnenministeriums ließ der damalige Innenminister Horst Seehofer verlautbaren, dass sich die Systeme in beeindruckender Weise bewährt hätten und eine breite Einführung möglich sei. Außerdem könne damit die Polizeiarbeit in bestimmten Bereichen effektiver und effizienter gestaltet werden.
Das Innenministerium belegt seinen “Erfolg” auch mit Zahlen. Die Falschtrefferrate, also dass die Technologie meint, Person A zu erkennen, obwohl es sich eigentlich um Person B handelt, sei bei unter 0,1 Prozent. Natürlich rechnet das BMI auch direkt vor: “Das bedeutet, dass bei 1000 Abgleichen auf einem Bahnhof lediglich ein einziger Abgleich durch das System fehlerhaft erkannt wird.”
Ein falscher Abgleich – was macht das schon? Rechnet man das allerdings auf die 179.000 Menschen hoch, die den Bahnhof Berlin Südkreuz jeden Tag passieren, dann sind das 179 falsch identifizierte Personen pro Tag oder über 65.000 pro Jahr. Und das nur am Berliner Südkreuz!

Wie Polizeiarbeit so effektiver und effizienter werden soll, erschließt sich einem nicht.
Und man muss auch darüber sprechen, wen diese falschen Identifizierungen besonders treffen werden: Schwarze Menschen und insbesondere Schwarze Frauen. Selbst die weltweit besten Technologien zur Gesichtserkennung sind erheblich schlechter darin, die Gesichter von Schwarzen zu erkennen, als die von Weißen.

Die Technologie einfach besser zu machen, sie mit diverseren Gesichtern zu trainieren, kann nicht die Antwort sein.


Das Gefühl des Überwachtwerdens

Im Falle der Gesichtserkennung am Berliner Südkreuz sprachen sich unter anderem die damalige Bundesdatenschutzbeauftragte Andrea Voßhoff und der Deutsche Anwaltverein deutlich gegen diese Überwachungsmaßnahme aus.
Der damalige Präsident des Anwaltvereins, Ulrich Schellenberg, sagte auf einer Pressekonferenz, dass das Scannen der Gesichter zu einem nicht hinnehmbaren Gefühl des Überwachtwerdens und Einschüchterung führe. Der Schutz durch die Grundrechte bedeutet genau im Gegenteil, dass jeder Mensch frei von einem Gefühl der Überwachung sein müsse. Ich kann das nur deutlich unterstreichen.
Das ist ein auch in der Rechtsprechung des Bundesverfassungsgerichts herausgearbeitetes Argument. Bei der anlasslosen Vorratsdatenspeicherung von Telekommunikationsdaten betonte das BVerfG, dass das Gefühl, ständig überwacht zu werden, sich sehr nachteilig auf die freie Entscheidung der Bürgerinnen und Bürger und ihr Verhalten auswirke und deshalb zu einem tiefen Eingriff in die Grundrechte führe.


Das erträgliche Maß der Überwachung

“Das Ausmaß der staatlichen Überwachung übersteigt mittlerweile das für eine Demokratie erträgliche Maß” sagte der aktuelle Bundesdatenschutzbeauftragte Ulrich Kelber in einem Interview vor zwei Jahren. Die Friedrich-Naumann-Stiftung für die Freiheit hat ein Modell für eine Überwachungsgesamtrechnung vorgelegt und kommt damit dem Auftrag des Bundesverfassungsgerichts nach. Es muss nicht nur jede einzelne staatliche Eingriffsmaßnahme an den Grundrechten gemessen, sondern die Gesamtzahl der Eingriffsbefugnisse auf ihre Auswirkungen auf die Grundrechte geprüft werden, also beispielhaft nicht nur die Ausdehnung der Telekommunikationsüberwachung um einen Straftatbestand, sondern auch die daneben bestehende QTKÜ, die online-Durchsuchung und die Überwachungsmöglichkeiten der Nachrichtendienste.

Die Überwachungsgesamtrechung dient also dem verbesserten Grundrechtsschutz und ist im Ampel- Koalitionsvertrag auf Bewirken der FDP verankert. Das Bundesjustizministerium hat zu Beginn dieses Jahres mitgeteilt, dass es an der Umsetzung arbeitet. Wir brauchen endlich einen Überblick, wie hoch das Gesamtmaß an Überwachung ist.


Die Bedeutung des Aktionsbündnisses "Reclaim your face"

Ehrenamtliches Engagement ist für unsere Gesellschaft von unermesslicher Bedeutung. Tagtäglich engagieren sich Menschen in vielfältiger Weise für die Gemeinschaft. Sei es bei der Freiwilligen Feuerwehr, beim Roten Kreuz oder bei einer Tafel. Es gibt aber auch ehrenamtliches Engagement, das nicht so sichtbar und bekannt ist, weil es in einem Bereich erfolgt, der für viele nicht greifbar und nicht sichtbar ist. Das gilt im Besonderen für Engagement, das sich auf den digitalen Raum auswirkt. Als Thomas-Dehler-Stiftung haben wir uns zusammen mit LOAD, dem Verein für liberale Netzpolitik, dazu entschieden, dieses Engagement sichtbarer zu machen und es mit einer Auszeichnung zu würdigen. Dieses Jahr zum zweiten Mal mit einem Preis für digitales Bürgerengagement.

Reclaim your face hat es in eindrucksvoller Weise geschafft, europäische zivilgesellschaftliche Organisationen mit dem Anliegen, ein Verbot von biometrischer Massenüberwachung auf europäischer Ebene zu erwirken, in einer groß angelegten und kreativen Kampagne zu vereinen. Mit einer Europäischen Bürgerinitiative wollten sie die Kommission auffordern, die unterschiedslose oder stichprobenartige Verwendung biometrischer Daten, die zu einer unrechtmäßigen Massenüberwachung führen kann, in Gesetz und Praxis zu verbieten.

Die Bürgerinitiative, die 2021 startete und an der sich Bürgerinnen und Bürger aus allen EU-Mitgliedstaaten eineinhalb Jahre lang hätten beteiligen konnten, blieb am Ende erfolglos, die notwendige Stimmenzahl wurde nicht erreicht. Doch das hat die Engagierten von Reclaim your face und die unterstützenden Organisationen nicht entmutigt und davon abgehalten, sich weiterhin für den Schutz der Bürger- und Menschenrechte einzusetzen. Denn weder im datenschutzfreundlichen Deutschland, noch in der EU ist die Gesichtserkennung gesetzlich ausdrücklich verboten worden.

In Deutschland gibt es im Gegenteil vereinzelt in polizeilichen Ländergesetzen Regelungen, die die automatisierte Gesichtserkennung zur Gefahrenabwehr erlauben. Zur Strafverfolgung reicht nach Einschätzung der Datenschützer und vieler Juristen eine allgemeine Ermächtigungsnorm in der Strafprozessordnung nicht aus. Auch angesichts dieser unklaren rechtlichen Gemengelage ist es umso wichtiger, dass unser heutiger Preisträger das Recht auf informationelle Selbstbestimmung und den Privatsphären - Schutz engagiert in die Öffentlichkeit bringt und für diese Grundrechte sensibilisiert.

Das ist auch wichtig, denn aktuell finden in Brüssel Verhandlungen zum AI Act statt und unsere Preisträger bemühen sich engagiert darum, dass dort ein umfassendes Verbot von biometrischer Überwachung im öffentlichen Raum festgehalten wird.

Eine wertebasierte Digitalisierung

Reclaim your face führt uns und insbesondere der Politik vor Augen, dass Reden über eine wertebasierte europäische Digitalisierung keine Sonntagsreden sein dürfen.Eine wertebasierte Digitalisierung heißt ganz klar, dass Grundrechte zu schützen sind. Wir dürfen nicht zulassen, dass Menschen ständig Angst haben müssen, sich nicht konform zu verhalten und dass ihre Mimik, ihre Körperhaltung oder ihre Bewegung Anlass geben könnten, einen Algorithmus auszulösen, der die Polizei alarmiert und sie überprüfen lässt. “Chilling Effects” halten Menschen davon ab, sich frei zu bewegen, frei zu äußern und ihre Grundrechte, wie das Recht auf Demonstration wahrzunehmen.
Vor gerade einer Woche haben sich EU-Parlament, Ratspräsidentschaft und Kommission auf eine gemeinsame Version der „Erklärung zu den digitalen Rechten und Grundsätzen für die digitale Dekade“ geeinigt. Sie ist zwar nur ein symbolischer, nicht rechtsverbindlicher Leitfaden, aber die Erklärung macht den Stellenwert der Selbstbestimmung des Einzelnen in der Digitalisierung und deren dynamischer Entwicklung deutlich. Gemeinsam müssen wir immer wieder darauf hinweisen, dass die Wahrung der Grundrechte eines jeden Einzelnen keine Symbolik ist!


Science-Fiction-Romane und China klingen zwar weit weg, aber so weit weg sind sie nicht. Technologischer Fortschritt – ja, unbedingt, aber nicht auf Kosten unserer Rechte! Wir müssen uns alle aktiv für den Schutz unserer Bürger- und Menschenrechte einsetzen und dürfen eine Massenüberwachung nicht zulassen. Wir alle haben etwas zu verbergen. Das ist unser Recht.

Ich bedanke mich für das zivilgesellschaftliche Engagement von reclaim your face und freue mich sehr, dass wir als Thomas-Dehler-Stiftung, zusammen mit LOAD heute den Preis stellvertretend an Andreea Bela, Ella Jakubowska, Konstantin Macher und Matthias Marx geben dürfen.
Herzlichen Dank und herzlichen Glückwunsch.

Facial recognition techniques have been in the process of being discovered as mainstream technology for several years:

  • Casinos in Las Vegas identify potent gamblers by their faces.
  • In the Knickerbocker Village housing development in New York, the face replaces the house key.
  • Disney has been registering image data of its theme park visitors for years. ( SZ of July 11, 2014 ).

All biometric methods - iris scan, palm vein scan, gait analysis - have something shameful. The body decides about us.


The end of the anonymity of the individual in public.

But so-called intelligent facial recognition has an even broader dimension:

By means of algorithm-driven facial recognition, the anonymity of the individual in public, which is basically given there, is broken, because no one has to walk around outside with a name tag on their chest.
Biometric features make it possible to draw many conclusions about personality, and privacy is invaded. And all this just for more convenience?


What happens if someone hacks the system?

It is already possible today to recreate a person's fingerprint from a captured photo using such high-resolution cameras. Hackers from the Chaos Computer Club were able to demonstrate this almost ten years ago using a photo of Ursula von der Leyen. What do you do if, in a world where biometric features are replacing passwords, your fingerprint, which is believed to be unique worldwide, is suddenly circulating thousands of times on the Internet? What if criminals use it to authenticate online transfers from your account?
You can replace a hacked password. But not your fingertip.


The 65,000 false hits at Germany's "security station

It takes less than four and a half hours to travel from Munich's main train station to reach Germany's "security station" Berlin Südkreuz. For years, technological innovations have been tested there that are supposed to lead to greater security at train stations. In 2018, cameras with facial recognition were tested there in a large-scale project. Several hundred people volunteered for the test and had their faces scanned by the cameras' facial recognition system and matched against databases when they visited the station. Many cameras with connected databases of our faces are a new quality. They enable lightning-fast, automated screening of hundreds of thousands who walk by. Robotic eyes see more than human ones, but not necessarily always correctly.

It will surprise no one that the project was deemed a complete success when it was completed. In the press release issued by the Federal Ministry of the Interior, Horst Seehofer, then Minister of the Interior, let it be known that the systems had proven themselves in an impressive manner and that a broad introduction was possible. In addition, police work in certain areas could be made more effective and efficient.
The Interior Ministry also backs up its "success" with figures. The false hit rate, i.e. that the technology thinks it recognizes person A, although it is actually person B, is less than 0.1 percent. Of course, BMI also does the math directly: "That means that for every 1,000 matches at a station, only one match is incorrectly detected by the system."
One wrong alignment - what's the difference? But if you extrapolate that to the 179,000 people who pass through Berlin Südkreuz station every day, that's 179 misidentified people per day, or over 65,000 per year. And that's just at Berlin Südkreuz!

How police work is supposed to become more effective and efficient in this way is beyond comprehension.
And one also has to talk about who will be particularly affected by these false identifications: Black people and especially Black women. Even the world's best facial recognition technologies are significantly worse at recognizing the faces of Black people than they are at recognizing the faces of White people.

Simply making the technology better, training it with more diverse faces, cannot be the answer.


The feeling of being under surveillance

In the case of facial recognition at Berlin's Südkreuz intersection, the then Federal Data Protection Commissioner Andrea Voßhoff and the German Lawyers' Association, among others, spoke out clearly against this surveillance measure.
The then president of the lawyers' association, Ulrich Schellenberg, said at a press conference that the scanning of faces led to an unacceptable feeling of being under surveillance and intimidation. On the contrary, the protection afforded by fundamental rights means that everyone must be free from a feeling of being monitored. I can only emphasize this clearly.
This is an argument that has also been elaborated in the case law of the Federal Constitutional Court. In the case of the no-subject retention of telecommunications data, the BVerfG emphasized that the feeling of being under constant surveillance has a very detrimental effect on citizens' free decision-making and their behavior, and therefore leads to a profound encroachment on fundamental rights.


The tolerable level of monitoring

"The extent of state surveillance now exceeds what is tolerable for a democracy," said current Federal Data Protection Commissioner Ulrich Kelber in an interview two years ago. The Friedrich Naumann Foundation for Freedom has presented a model for an overall surveillance account and thus complies with the mandate of the Federal Constitutional Court. Not only must each individual state intervention be measured against fundamental rights, but the total number of intervention powers must be examined for their impact on fundamental rights, i.e., as an example, not only the extension of telecommunications surveillance to include a criminal offense, but also the QTKÜ, the online search and the surveillance options of the intelligence services.

The overall surveillance legislation thus serves to improve the protection of fundamental rights and is anchored in the coalition agreement between the two parties at the instigation of the FDP. The Federal Ministry of Justice announced at the beginning of this year that it is working on implementation. We finally need an overview of how high the overall level of surveillance is.


The importance of the "Reclaim your face" alliance

Volunteering is of immeasurable importance to our society. Every day, people get involved in the community in many different ways. Be it in the volunteer fire department, the Red Cross or a food bank. But there is also volunteer work that is not as visible and well-known because it takes place in an area that is intangible and invisible to many. This is especially true for engagement that impacts the digital space. As the Thomas Dehler Foundation, together with LOAD, the association for liberal network policy, we have decided to make this commitment more visible and to honor it with an award. This year, for the second time, with an award for digital civic engagement.

Reclaim your face has impressively managed to unite European civil society organizations with the concern to ban biometric mass surveillance on a European level in a large-scale and creative campaign. Through a European Citizens' Initiative, they sought to call on the Commission to ban in law and practice the indiscriminate or random use of biometric data that can lead to unlawful mass surveillance.

The citizens' initiative, which started in 2021 and could have involved citizens from all EU member states for a year and a half, was ultimately unsuccessful, failing to reach the required number of votes. But this did not discourage the committed members of Reclaim your face and the supporting organizations, nor did it deter them from continuing to campaign for the protection of civil and human rights. For neither in data protection-friendly Germany, nor in the EU has facial recognition been expressly prohibited by law.

In Germany, on the contrary, there are isolated regulations in police state laws that permit automated facial recognition for danger prevention. According to data protection experts and many legal experts, a general enabling provision in the Code of Criminal Procedure is not sufficient for criminal prosecution. In view of this unclear legal situation, it is all the more important that our current award winner is committed to raising public awareness of the right to informational self-determination and the protection of privacy and raising awareness of these fundamental rights.

This is also important because negotiations on the AI Act are currently taking place in Brussels and our award winners are committed to ensuring that a comprehensive ban on biometric surveillance in public spaces is enshrined there.


A value-based digitalization

Reclaim your face shows us, and especially politicians, that talks about a values-based European digitalization must not be Sunday speeches.A values-based digitalization clearly means that fundamental rights must be protected. We must not allow people to be constantly afraid of behaving in a non-compliant manner and that their facial expressions, posture or movement could give cause to trigger an algorithm that alerts the police and has them checked. "Chilling effects" prevent people from moving freely, expressing themselves freely, and exercising their fundamental rights, such as the right to demonstrate.
Just a week ago, the EU Parliament, Council Presidency and Commission agreed on a joint version of the "Declaration on Digital Rights and Principles for the Digital Decade." Although it is only a symbolic, non-legally binding guideline, the declaration makes clear the importance of individual self-determination in digitization and its dynamic development. Together, we must keep pointing out that safeguarding the fundamental rights of each individual is not a symbolic matter!


Science fiction novels and China may sound far away, but they are not that far away. Technological progress - yes, by all means, but not at the expense of our rights! We must all actively work to protect our civil and human rights and not allow mass surveillance. We all have something to hide. That is our right.

I would like to thank reclaim your face for its civil society commitment and I am very pleased that we, the Thomas-Dehler-Foundation, together with LOAD, are able to give the award today to Andreea Bela, Ella Jakubowska, Konstantin Macher and Matthias Marx on their behalf.
Thank you very much and congratulations.