C
Security3 min Lesezeit

Verfassungswidrig? Warnungen gegen KI-Fahndung der Bundesregierung

Amnesty International und der CCC warnen: Die Pläne der Bundesregierung zur KI-Fahndung und biometrischen Massenüberwachung sind verfassungswidrig und schaffen eine polizeiliche Super-Datenbank.

CA
Christopher Ackermann12. April 2026

Die Bundesregierung plant eine massive Ausweitung der digitalen Ermittlungsbefugnisse. Mit neuen Gesetzentwürfen aus dem Bundesjustiz- und Bundesinnenministerium soll die Polizei künftig KI-gestützte Gesichtserkennung im gesamten öffentlichen Internet sowie automatisierte Massendatenanalyse einsetzen dürfen. Ein Bündnis aus zivilgesellschaftlichen Organisationen, darunter Amnesty International und der Chaos Computer Club, spricht in einer gemeinsamen Stellungnahme von strukturellen Defiziten und warnt: Eine verfassungskonforme Ausgestaltung dieser Pläne sei schlichtweg unmöglich.

Gesichtserkennung im offenen Internet

Ein zentraler Punkt der Gesetzesentwürfe betrifft die biometrische Fahndung. Bundesjustizministerin Stefanie Hubig (SPD) und Bundesinnenminister Alexander Dobrindt (CSU) wollen es der Polizei erlauben, ein Fahndungsfoto mit allen im öffentlichen Internet auffindbaren Gesichtern abzugleichen. Praktisch bedeutet dies den Einsatz von Systemen ähnlich PimEyes oder Clearview AI – Tools, die wegen ihrer massiven Eingriffe in die Privatsphäre international massiv kritisiert werden.

Die Stellungnahme macht deutlich, dass dies de facto eine flächendeckende Verfolgbarkeit der Bevölkerung nach sich ziehen würde. Betroffen sind nicht nur Personen, die aktiv Fotos von sich veröffentlichen, sondern auch jene, die zufällig im Hintergrund eines Bildes oder Videos auftauchen. Ein solcher Eingriff in das Recht auf informationelle Selbstbestimmung ist laut den Organisationen mit dem Grundgesetz nicht vereinbar. Darüber hinaus entsteht ein empfindlicher Abschreckungseffekt (Chilling Effect): Wer befürchten muss, bei einer Demonstration biometrisch erfasst zu werden, verzichtet möglicherweise auf die Ausübung seiner Versammlungs- oder Meinungsfreiheit.

Hinzu kommt ein bekanntes technologisches Problem: Empirische Daten belegen, dass KI-gestützte Gesichtserkennungssysteme bei People of Color deutlich höhere Fehlerraten aufweisen. Die Einführung solcher Systeme droht das verfassungsrechtliche Diskriminierungsverbot systematisch zu unterlaufen.

Die polizeiliche „Super-Datenbank“

Neben der Gesichtserkennung im Internet plant die Regierung die KI-gestützte Zusammenführung massenhafter Datenbestände von Bundes- und Landespolizeibehörden – unabhängig vom konkreten Einzelfall. Diese automatisierte Datenanalyse, vergleichbar mit Systemen des umstrittenen Datenkonzerns Palantir, zieht Daten von Opfern, Zeug:innen und völlig unbeteiligten Personen in eine gemeinsame "Super-Datenbank" heran.

Daraus resultieren tiefgreifende Persönlichkeitsprofile, die Schlussfolgerungen zulassen, die weit über den ursprünglichen Erhebungszweck der Daten hinausgehen. Die Kritiker betonen die strukturelle Fehleranfälligkeit und Intransparenz solcher Systeme. Besonders brisant: Die Gesetzesentwürfe schließen den Einsatz selbstlernender KI-Systeme nicht aus. Ein Algorithmus, der sich nach der Einführung autonom weiterentwickelt, entzieht sich jedoch jeglicher gerichtlicher oder parlamentarischer Kontrolle – ein absolut inakzeptabler Zustand für einen grundrechtsintensiven Eingriff.

Umgehung des EU AI Act

Die Pläne der Bundesregierung sind nicht nur verfassungsrechtlich fragwürdig, sondern auch europarechtlich ein riskantes Manöver. Die europäische KI-Verordnung (EU AI Act) verbietet ausdrücklich die massenhafte Verarbeitung von Gesichtsbildern zu biometrischen Datenbanken. Die aktuellen Entwürfe aus Berlin sind somit als Versuch zu werten, dieses EU-Verbot durch nationale Spezialgesetze zu unterlaufen. Auch die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) kommt zu dem vernichtenden Urteil, dass die Befugnisse in der vorgesehenen Form die Rechte Unbeteiligter erheblich gefährden.

Technologie ist kein neutraler Ersatz für Recht

Aus technischer und journalistischer Perspektive ist die Haltung der Bundesregierung ein klassischer Fall von Technologie-Gläubigkeit, die rechtsstaatliche Prinzipien ignoriert. Die Vorstellung, KI-Systeme könnten als objektive Werkzeuge polizeiliche Ermittlungen schlichtweg „effizienter“ machen, verkennt die Natur algorithmischer Datenanalyse. Maschinelle Lernverfahren sind keine neutralen Wahrheitsfinder. Sie reproduzieren und verstärken Bias in den Trainingsdaten, erzeugen falsche Korrelationen und operieren als Black Boxes. Wenn zudem – wie in den Entwürfen vorgesehen – richterliche Vorbehalte fehlen, die Transparenz für Betroffene minimiert wird und die Dokumentation der Algorithmen unzureichend ist, entsteht ein Überwachungsapparat ohne rechtliche und technische Sollbruchstellen.

Die Forderung des Bündnisses ist daher konsequent: Die Gesetzesentwürfe müssen komplett zurückgenommen werden. Stattdessen braucht es ein gesetzliches Verbot biometrischer Massenerkennungssysteme sowie verbindliche, durchsetzbare Regeln zu Transparenz, Kontrolle und Haftung. Sicherheit und Grundrechte sind kein Nullsummenspiel – aber Überwachung auf Verdacht ist der falsche Weg in eine digitale Gesellschaft.

Quelle: Netzpolitik.org

QUELLEN
Netzpolitik.orgOriginalquelle
Pro-Feature

Melde dich an und werde Pro-Mitglied, um dieses Feature zu nutzen.

Anmelden
CA
Christopher Ackermann

Kommentare

WEITERLESEN
Security

Atomic Stealer verwischt Grenzen: Trojaner dominieren nun Mac-Malware

Security

Phishing-Welle zielt auf iCloud-Backups: Regierungen mieten Hacker

Security

Deepfakes und digitale Gewalt: Warum reine Strafverschärfungen nicht reichen