Künstliche Intelligenz und Strafverfolgung: Technologie und Ethik des AIDA-Projekts

(Di Maris Matteucci)
14/03/22

Künstliche Intelligenz (KI) wird immer häufiger von Strafverfolgungsbehörden zur Bekämpfung von auch sehr unterschiedlichen Straftaten eingesetzt, darunter Cyberkriminalität (Cybercrime) und Terrorismus. Doch wie ist die Wahrnehmung der Bürgerinnen und Bürger gegenüber dieser vielversprechenden, aber nicht perfekten Technologie im Sicherheits- und Verteidigungsbereich? 

Die Ziele von "AIDA"

Das Thema Kriminalprävention liegt AIDA besonders am Herzen, weist aber mit seinem europäischen Forschungsprojekt Titel auf etwas noch Subtileres hin Künstliche Intelligenz und fortschrittliche Datenanalyse für Strafverfolgungsbehörden (Künstliche Intelligenz und fortgeschrittene Datenanalyse für die Strafverfolgung - AIDA): die Vorhersage von Verbrechen. Etwas, das Fans des Films „Minority Report“ bekannt vorkommen dürfte, mit einem sehr jungen Tom Cruise als Captain John Anderton und einem System, dem „Precrime“, das (anscheinend) so perfekt war, dass die Polizei die Verbrechen vor ihnen vermeiden konnte tatsächlich passiert.

Kurz gesagt, ein ehrgeiziges Ziel, Verbrechen verhindern zu wollen, indem man sie durch ausgeklügelte Algorithmen vorhersagt Maschinelles lernen und Künstliche Intelligenz dank einer deskriptiven und prädiktiven Datenanalyseplattform Informationen ergründen und analysieren können. Doch um das Ergebnis zu erreichen, das alles andere als von der bloßen Entwicklung von Technologien diktiert, wenn auch innovativ ist, hat sich AIDA entschieden, an einer Vielzahl von Aspekten zu „arbeiten“. Einer davon konzentriert sich auf die soziale Komponente. Oder was würden die Leute von einem so wichtigen Einsatz von Künstlicher Intelligenz im Dienst der Polizei halten?

Die Bedeutung des Anteils veranlasste die Europäische Union, dies zu finanzieren Europäisches Forschungsprojekt AIDA mit fast acht Millionen Euro im Rahmen des Horizon 2020-Programms (Grant Agreement Nr. 883596), das im September 2020 offiziell gestartet ist, und sie endet im September 2022, genau 24 Monate später.

In Italien wird das Projekt von geleitet Ingenieurwesen Computertechnik und sieht Pluribus Eins, mit Sitz in Cagliari, an der Spitze von Arbeitspaket konzentrierte sich auf die Generierung von KI-Systemen zur Verwaltung und Beschaffung von Informationen und zur gleichzeitigen Analyse krimineller Gruppen. 

Das AIDA-Projekt zielt darauf ab, eine Datenanalyseplattform und eine Reihe von Ad-hoc-Tools zu entwickeln, um kriminelle Aktivitäten effektiv zu bekämpfen. Aber ohne die soziale Komponente zu vernachlässigen, das sind die Auswirkungen, die ein solch massiver Einsatz künstlicher Intelligenz durch die Hüter der öffentlichen Ordnung auf die Bürger haben könnte. 

Aus diesem Grund erwog das Projekt eine erste quantitative Umfrage, gefolgt von einer qualitativen, die das Denken der Menschen eingehender untersuchte, um zu versuchen, sich auf Ideen, Ängste, Zweifel und alles, was in den Sinn kommt, zu konzentrieren, wenn künstliche Intelligenz ins Spiel kommt im Sicherheitsbereich spielen. 

La erste Teilanalyse quantitativer Erhebungen (worüber wir Ihnen in a erzählt haben vorheriger Artikel), die von 2850 Personen in 11 verschiedenen europäischen Ländern erstellt wurden, verdeutlichten beispielsweise, dass insbesondere in Estland, Spanien und England das volle Vertrauen der Bürger in die Polizeikräfte und in ihre Arbeit besteht. Die Ergebnisse wurden vom Partner CENTRIC, einem Exzellenzzentrum für Kriminalitätsforschung und Terrorismusbekämpfung, mit Sitz an der University of Sheffield Hallam (UK), auf der IKE'21-Konferenz (20. Int'l Conf on Information & Knowledge Engineering) vorgestellt.1.

Das Ziel von AIDA ist es, den Strafverfolgungsbehörden ein System und Werkzeuge zur Verfügung zu stellen, die zur Erhöhung der weltweiten Sicherheit nützlich sind. Aber nicht ohne die Auswirkungen zu berücksichtigen, die der massive Einsatz von KI auf normale Menschen haben könnte. 

Aus diesem Grund wird die Entwicklung der Plattform und der zugehörigen Tools in organisiert Respekt für die Privatsphäre und wird die ethische Komponente berücksichtigen, die niemals ignoriert werden sollte.

Die qualitative Erhebung

An der Umfrage zur von den Polizeikräften eingesetzten KI waren zehn Nationen in Europa beteiligt, für insgesamt etwa 140 Interviews mit normalen Bürgern. 

Deutschland, Griechenland, Holland, England, Spanien, Portugal, Italien, die Tschechische Republik, Estland und Rumänien haben sich daher aktiv an diesem wertvollen Teil der Forschung beteiligt, der ein wichtiges Gewicht haben wird, um zu verstehen, welche Art von Wahrnehmung Menschen über eine zunehmend disruptive Technologie haben . 

Videokameras, Drohnen, Online-Überwachung gehören mittlerweile zum Alltag. Aber sind das Technologien, die den Bürgern Unbehagen bereiten? Oder fühlen sie sich umgekehrt sicherer, wenn diese Technologien eingesetzt werden? Und die Tatsache, dass die Polizei sie nutzen kann, ist ein Vorteil oder ein Nachteil, wenn Sie an die Privatsphäre denken?

Die Fragen richteten sich an die Teilnehmer, die so ihre Gefühle darlegen konnten und auch Zweifel und mögliche Ratlosigkeit gegenüber einem möglicherweise nicht frei von kritischen Aspekten stehenden Einsatz von Künstlicher Intelligenz zum Ausdruck brachten. 

Die Daten, die aus dem Interviewblock in italienischer Sprache hervorgingen, der unter den über 65-Jährigen durchgeführt wurde, hoben einige interessante Aspekte hervor. Das heißt, es gibt unterschiedliche Nuancen in der Wahrnehmung, die Menschen in Bezug auf die von den Polizeikräften eingesetzte künstliche Intelligenz haben. Wir gehen von denen, die vertrauen und auch bei einem „strengeren“ Einsatz dieser Technologie blind vertrauen würden, zu denen, die stattdessen mehr als eine Ratlosigkeit hegen und ausgesprochen starke Begriffe wie den eines Polizeiszenarios aufbringen. Weil er der Polizei vertrauen würde, ja, aber mit Vorsicht. 

Und wieder gibt es diejenigen, die sich schon durch eine bestimmte Art von Eingriffen in den Alltag (Videoüberwachung, Online-Überwachung) genervt fühlen und stattdessen diejenigen, die sich gerade dadurch, dass sie „ausspioniert“ werden, irgendwie sicherer fühlen. 

Die national gesammelten Daten werden von CENTRIC analysiert und verarbeitet und von EUROPOL, dem Europäischen Polizeiamt, Projektpartner und verantwortlich für die Verbreitung der im Rahmen von AIDA gewonnenen Forschungsergebnisse, verbreitet.

Das Thema Kriminalitätsvorhersage ist daher aktueller denn je, aber es gibt noch viel zu tun in dieser Richtung. Bei allem Respekt vor den Fans von "Minority Report", die wahrscheinlich noch etwas länger warten müssen, bevor sie die Materialisierung einer Plattform im Stil von "Precrime" sehen.

1 Der wissenschaftliche Artikel (PS Bayerl, B. Akhgar, E. La Mattina, B. Pirillo, I. Cotoi, D. Ariu, M. Mauri, J. Garcìa, D. Kavallieros, A. Kardara, K. Karagiorgou, „Strategies to counter Artificial Intelligence in Law Enforcement: Cross-Country Comparison of Citizens in Greece, Italy and Spain" wird als Tagungsband im Springer-Verlag veröffentlicht.