LOAD e.V.
Stellungnahme KI Strafverfolgung

Konsultation zum Einsatz von KI in der Strafverfolgung und Gefahrenabwehr

Als Verein für liberale Netzpolitik will LOAD den gesellschaftlichen digitalen Wandel konstruktiv unterstützen. Unsere Grundwerte sind Freiheit, Eigenverantwortung und das vorurteilsfreie Interesse an Neuerungen. Hierbei gilt, dass die Entwicklung des digitalen Raums ein demokratischer Prozess sein muss.

Deswegen begrüßen wir dieses Konsultationsverfahren des Bundesbeauftragten für den Datenschutz und die Informationsfreiheit und freuen und in diesem Rahmen Stellung zum Einsatz von Künstlicher Intelligenz im Bereich der Strafverfolgung und Gefahrenabwehr nehmen zu können.

Der Kommentierung Ihrer Thesen wollen wir unsererseits einige eigene grundsätzliche Überlegungen voranstellen:

  1. Die Vision von LOAD ist eine Zukunft, in der bei der Entwicklung neuer Technologien und Dienste der Mensch im Zentrum steht und Innovationen einen positiven Effekt auf Einzelne und die Gesellschaft haben. In diesem Sinne kann der Einsatz von KI durchaus wertvolle Erkenntnisse bei der Gefahrenabwehr und Strafverfolgung bieten und ist nicht von vornherein abzulehnen.
    Beispielsweise kann KI mit einer hohen Genauigkeit Kinder- und Jugendpornografie und nicht strafbare Erwachsenenpornografie erkennen und unterscheiden und somit große Datenfluten viel schneller bearbeitet und dabei helfen pädokriminelle Täter zügiger zu identifizieren, wie zum Abschluss eines Projekts der Zentral- und Ansprechstelle Cybercrime Nordrhein Westfalen (ZAC NRW) im April 2021 herausgefunden wurde, siehe https://www.heise.de/newsticker/meldung/KI-vs-KindesmissbrauchNRW-Ermittler-sehen-ermutigende-erste-Resultate-4884447.html.
  2. Da die Technologien und Programmierungen für die künstliche Intelligenz nicht an nationalen Grenzen halt machen, sondern oft auch außerhalb von Deutschland ihren Ursprung finden, ist es sogar sinnvoll, möglichst mit europäischen Normen den Einsatz der KI zu regulieren.
    Wir regen an, bei der weiteren Bearbeitung des Themas der Konsultation auch den von der EU Kommission am 21. April 2021 vorgelegten Vorschlag für eine EU-Verordnung zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz (Gesetz über künstliche Intelligenz, COM(2021) 206 final) zu beachten.
    Sollte der Vorschlag im EU-Gesetzgebungsverfahren Zustimmung finden, wäre die Verordnung unmittelbar anwendbar und würde zur Unanwendbarkeit entgegenstehenden nationalen Rechts führen. Die Bindungswirkung ginge damit über die Wirkung der JI Richtlinie (EU) 2016/680F hinaus, welche durch die Datenschutzgesetze des Bundes und der Länder umzusetzen waren.
    Ferner wären dann, wenn die europäische Verordnung einen vollständig vereinheitlichenden Rechtsrahmen für den Einsatz der künstlichen Intelligenz im Bereich der Strafverfolgung und der Gefahrenabwehr setzt, nicht mehr die Grundrechte des Grundgesetzes, sondern diejenigen der EU-Grundrechtecharta als Maßstab anzuwenden. Daraus folgt nicht automatisch eine Absenkung des grundrechtlichen Schutzstandards. Es hat sich vielmehr – etwa bei der Bewertung der Regelungen zur Vorratsdatenspeicherung – gezeigt, dass der Europäische Gerichtshof in ähnlicher Weise wie das BVerfG, teilweise sogar darüberhinausgehend grundrechtliche und rechtsstaatliche Maßgaben aus den Grundrechtsverbürgungen gewinnt, die den schutzsuchenden Bürgerinnen und Bürgern zugutekommen. Dies schließt die grundsätzliche Notwendigkeit einer einheitlichen Definition des KI-Begriffes über alle Rechtsbereiche ein.
    Sie sollte auf EU-Ebene festgelegt werden und ergibt sich aus der Binnenkompetenz der EU, Art. 114 AEUV.
    Die in Deutschland politisch Verantwortlichen sollten daher alles daran setzen, möglichst die in den vorgelegten Thesen des BfDI beschriebenen Anforderungen in den europäischen Gesetzgebungsprozess einzubringen. Der BfDI sollte als Vertreter der deutschen
    Datenschutzbehörden im Europäischen Datenschutzausschuss seine Möglichkeiten nutzen, um auf eine einheitliche Rechtssetzung und -anwendung hinzuwirken.
  3. Wesentlich für die Bewertung der Risiken des KI-Einsatzes ist, bis zu welchem Grad die KI lediglich zusätzliche Erkenntnisse für die Gefahrenabwehr und Strafverfolgung erbringen soll oder darüber hinaus Entscheidungsprozesse automatisch unterstützen soll.
    Jedenfalls sind an automatische Entscheidungsprozesse erheblich höhere Anforderungen an die Befolgung rechtlicher Grundsätze zusetzen als bei der Nutzung von KI als zusätzliche Erkenntnisquellen in der Ermittlung. Es ist auch zu fordern, dass algorithmisch getroffene Entscheidungen von Menschen revidiert werden können und im Falle von unumkehrbaren Zwangsmaßnahmen vorab von menschlichen Entscheidern überprüft werden müssen. Der Mensch muss immer die letzte Entscheidungskompetenz haben.
    Hierauf sollte in den Thesen noch stärker hingewiesen werden.

Einleitend zu unserer Bewertung der Thesen des BfDI können wir sagen, dass der Gesamteindruck dieses Entwurfs für uns durchgehend positiv ist, da er grundsätzlich mit unseren LOAD-Grundsätzen übereinstimmt.

Im Detail nehmen wir wie folgt Stellung:

zu These 1 Überwachungs-Gesamtrechnung

Wir unterstützen die Forderung nach einer „ÜberwachungsGesamtrechnung“. Gefahrenabwehr- und Strafverfolgungsbehörden haben heute Zugriff auf so viele Daten wie niemals zuvor. Sie tappen nicht im Dunkeln, sondern leben in einem goldenen Zeitalter der Überwachung und abnehmender Kriminalität. Es ist Zeit durch ein Moratorium ein Stoppschild zu setzen. Man darf natürlich nicht blauäugig sein: Es wird immer wieder Anpassungen oder neue Sicherheitsgesetze geben müssen. Diese sollten evidenzbasiert und zeitlich begrenzt beschlossen und regelmäßig auf ihre Wirksamkeit evaluiert werden.

zu These 2 Spezifische gesetzliche Regelung zum Einsatz von KI

Wir unterstützen die Einschätzung, dass es für den Einsatz von KI zur Gefahrenabwehr und Strafverfolgung spezifischer gesetzlicher Regelungen bedarf.

Auch bestehende, spezifische Regelungen sollten jedoch zusätzlich auf ihre KI-Tauglichkeit überprüft werden. In diesem Zusammenhang ist hervorzuheben, dass die geplante KI-Verordnung der EU nicht nur den Vorschriften über die Verwendung von KI Systemen vorsieht, sondern darüber hinaus für das Inverkehrbringen und die Inbetriebnahme von KI-Systemen.

Dies ist folgerichtig, denn die zu Recht vom BfDI geforderte Erklärbarkeit der KI (These 4) muss bereits bei der Entwicklung der KI beachtet werden. Auch die Risiken der KI im Hinblick auf einseitige und diskriminierende Effekte auf ganze Personengruppen werden bereits in der Entwicklungsphase zu beachten sein. Es muss sichergestellt sein, dass in die Programmierung der KI die grundlegenden Wertentscheidungen etwa der Grundrechte einfließen. Das Risiko der Nichtbeachtung dieser Anforderung ist besonders groß, wenn KI in Ländern programmiert wird, deren Verfassungen auf anderen Wertentscheidungen als in der EU und in Deutschland aufbauen.

zu These 4 Erklärbarkeit und Qualität von Trainingsdaten

Bereits bei der Prüfung des Einsatzes von KI-Systemen in den Bereichen Strafverfolgung und der Gefahrenabwehr durch die zuständige Aufsichtsbehörde muss die Erklärbarkeit der einzusetzenden Systeme mit einbezogen werden.

Der Einsatz von KI-Systemen muss betroffenen Personen zur Wahrnehmung der Rechte der Verteidigung offengelegt werden. Die Erklärbarkeit von KI-Systemen und ihrer Wirkungsweise muss ferner für jedes Verfahrensstadium der Gefahrenabwehr und der Strafverfolgung für die Betroffenen gewährleistet sein.

Im Übrigen stimmen wir den Aussagen zur Qualität von Trainingsdaten und zur Erklärbarkeit von eingesetzten KI-Systemen grundsätzlich zu.

zu These 5 Kernbereich privater Lebensgestaltung

LOAD setzt sich dafür ein, dass biometrische Massenüberwachung gesetzlich verboten wird.

Wir schließen uns in diesem Zusammenhang der vom Europäischen Datenschutzausschuss und dem europäischen Datenschutzbeauftragten gestellten Forderung nach einem generellen Verbot der Verwendung von KI für die automatisierte Erkennung menschlicher Merkmale im öffentlich zugänglichen Raum für die biometrische Fernidentifizierung von Personen an, siehe EDPB_Press Release_statement_2021_05: https://edpb.europa.eu/news/news/2021/edpb-edps-call-ban-use-aiautomated-recognition-human-features-publicly-accessible_de.


Im Übrigen unterstützen wir grundsätzlich die These 3 – Einhaltung Datenschutzgrundsätze und Betroffenenrechte, These 6 – Kontrolle durch Datenschutzaufsichtsbehörden sowie These 7 – Datenschutzfolgen-Abschätzung des BfDI.