Stimmt es, dass wir bald einen Roboterrichter haben werden?

(Di Enrico Priolo)
21/02/22

Mensch und Maschine. Eine Kombination, an die wir uns mittlerweile gewöhnt haben und die jedes Mal, wenn sie ausgesprochen wird, erschreckt. Das grundlegende Dilemma besteht darin, zu verstehen, inwieweit der Mensch der Maschine Raum zum Manövrieren geben muss.

Eines der Wissensgebiete, in dem mehr diskutiert wird, ist zweifellos das Recht, insbesondere die sogenannten automatisierten Gerichtsentscheidungen.

Es ist wahr, dass wir sehr bald einen Roboterrichter haben werden? Identifizieren Sie zur Beantwortung zunächst, was im Allgemeinen mit Vorhersage und Vorhersage gemeint ist.

Es gibt sie zumindest vier Situationen in der sich das Recht und die Akteure (Juristen und Gesetzgeber) an der „Prognose“ bzw. an der Notwendigkeit/Können, im Voraus zu sehen und zu bewerten, was in der Zukunft passieren wird, messen. Lass sie uns sehen.

1) Die normative Bestimmung. Im Lexikon der Juristen taucht häufig der Ausdruck „normative Voraussage“ auf, um den abstrakten Sachverhalt zu bezeichnen, den sich der Gesetzgeber vorstellt und an dessen Existenz das Entstehen bestimmter Folgen rückgekoppelt wird. In bestimmten Zusammenhängen fällt er mit dem sogenannten „abstrakten Fall“ zusammen.

Der Begriff der Vorhersage ist daher dem der Norm inhärent: Letztere hat die Aufgabe, eine mögliche Situation in der Zukunft vorherzusagen. Wenn wir einen normativen Satz interpretieren, werden wir einerseits dazu veranlasst, uns die tatsächlichen Umstände vorzustellen, unter denen er angewendet werden kann, und andererseits, uns nach dem Grund dieser Bestimmung zu fragen und zu versuchen, die Gründe zu identifizieren, die den Gesetzgeber veranlasst haben bestimmte Entscheidungen zu treffen oder nicht zu treffen.

2) Die Berechenbarkeit / Berechenbarkeit der Reaktion des Rechtssystems: Rechtssicherheit.

Die Vorhersage des Ausgangs eines Streits wird in eine Perspektive gestellt, die mit dem eben Gesagten verbunden ist.

Der Satz markiert den Übergang von der abstrakten „normativen Vorschrift“ zur Rechtsprechung des Einzelfalls, auf den diese Vorschrift Anwendung findet. Es ist der Moment, in dem der konkrete Fall gemäß einem syllogistischen Argumentationsmodell perfekt an den abstrakten Fall angepasst wird. Die Idee eines „kalkulierbaren Rechts“ beruht auf der Überzeugung, dass der Ausgang eines Streitfalls „vorhersehbar“ sein muss. Genau diese Annahme gibt einer der Säulen unserer juristischen Zivilisation Substanz: der „Rechtssicherheit“. Die zwingende Rechtsordnung muss in Bezug auf ein bestimmtes Problem immer die gleiche Antwort geben. Denn sicher ist nur, was vorhersehbar ist. 

3) Die Vorhersage der Auswirkungen der Regulierung.

Aus Sicht der Regulatoren/Gesetzgeber (und der mit ihnen zusammenarbeitenden Juristen) ist zu bedenken, dass seit einigen Jahren immer mehr Wert auf die Notwendigkeit gelegt wird, die Auswirkungen von Regeln und Vorschriften „vorherzusehen“: Regeln müssen sein nur erteilt werden, wenn am Ende einer angemessenen Untersuchung hinreichend sicher ist, dass sie die gewünschten und erwarteten Wirkungen haben werden.

Es ist daher notwendig, einigermaßen „voraussagen“ zu können:

a) wie die Mitarbeiter auf die neuen Regeln reagieren werden (ob sie die gewünschten und / oder auferlegten Verhaltensweisen beibehalten werden oder nicht);

b) ob die Wirkungen der neuen Regeln wirklich zur Erreichung der angestrebten Ziele führen.

4) Die Vorhersage / Vorhersagefähigkeit von künstlicher Intelligenz.

Die neue Grenze wird durch die Vorhersagefähigkeiten der künstlichen Intelligenz repräsentiert, auch wenn es besser wäre, das zu sagen "Datenwissenschaft" und "Data-Mining" angewandt auf die Rechtswelt ("Legal Analytics"). Abgesehen vom bekannten US-amerikanischen Loomis-Fall (bei dem der COMPAS-Software offenbar die Fähigkeit übertragen worden zu sein scheint, die Rückfallneigung von Herrn Loomis vorherzusagen), meinen wir hier die Fähigkeit, Vorhersagen mittels einer Wahrscheinlichkeitsrechnung zu treffen, die von durchgeführt wird Algorithmen, die auf rein statistischer Basis oder auf logischer Basis arbeiten.

Legal Analytics kann verwendet werden, um das Ergebnis eines Urteils vorherzusagen. 

Im Jahr 2016 wurde beispielsweise eine Studie durchgeführt, die dank Fortschritten in der Verarbeitung natürlicher Sprache und maschinellem Lernen darauf abzielte, Vorhersagemodelle zu entwickeln, die nützlich sind, um die Muster zu enträtseln, die Gerichtsentscheidungen leiten. Die Arbeit prognostizierte den Ausgang der vom Europäischen Gerichtshof für Menschenrechte analysierten Fälle auf der Grundlage ihres Textinhalts: Die Prognose war in 79 % der Fälle erfolgreich. Und ganz allgemein kann es verwendet werden, um das Verhalten aller Akteure im Rechtssystem vorherzusagen. Lex-Maschine, eine Emanation von Lexis Nexis-, kombiniert Daten und Software, um Datensätze zu Richtern, Anwälten, Parteien und Prozesssubjekten zu erstellen und Millionen von Seiten mit Streitinformationen zu analysieren. Anhand dieser Daten können Anwälte das Verhalten und die Ergebnisse vorhersagen, die die verschiedenen möglichen Rechtsstrategien hervorbringen werden.

La "Rechtsanalyse" zielt darauf ab, die Ergebnisse der Prozesse vorherzusagen: nicht auf der Grundlage einer strengen und mechanischen Rechtsbegründung, sondern im Lichte einer ausgeklügelten algorithmischen / statistischen Analyse enormer Datenmengen (große Datenmengen).

Es ist eine Sache, Hypothesen über mögliche Ausrichtungen von Gerichten, Richtern und Betreibern aufzustellen. Etwas ganz anderes ist es, den Ausgang eines einzelnen Urteils mit Sicherheit vorherzusagen. Um dies zu erreichen, sollten wir Algorithmen haben, die in der Lage sind, Ungewissheit und Unvorhersehbarkeit zu beherrschen. Und in jedem Fall bliebe das ethische Problem der Legitimität, einem solchen Algorithmus eine rechtliche Entscheidung anzuvertrauen.

In Bezug auf diesen letzten Aspekt ist es notwendig, an die Arbeit von zu erinnern Europäische Kommission für die Effizienz der Justiz (CEPEJ), die die sogenannte Europäische Ethik-Charta zum Einsatz künstlicher Intelligenz in Justizsystemen und verwandten Bereichen angenommen hat. Die 2018 herausgegebene Charta legt fünf Schlüsselprinzipien für den Einsatz künstlicher Intelligenz im „Justiz“-System fest.

Sehen Sie sich in der Zwischenzeit an, was Europa unter künstlicher Intelligenz versteht

Reihe wissenschaftlicher Methoden, Theorien und Techniken, die darauf abzielen, die kognitiven Fähigkeiten des Menschen mit Hilfe von Maschinen zu reproduzieren. Aktuelle Entwicklungen zielen darauf ab, Maschinen dazu zu bringen, komplexe Aufgaben zu übernehmen, die zuvor von Menschen übernommen wurden. Der Ausdruck „Künstliche Intelligenz“ wird jedoch von Experten kritisiert, die zwischen „starken“ künstlichen Intelligenzen (fähig, Fachprobleme verschiedenster Art völlig autonom zu kontextualisieren) und „schwachen“ oder „moderaten“ künstlichen Intelligenzen (hohe Leistungsfähigkeit in ihren Trainingsbereich). Einige Experten argumentieren, dass „starke“ künstliche Intelligenzen, um die Welt in ihrer Gesamtheit modellieren zu können, erhebliche Fortschritte in der Grundlagenforschung erfordern würden und nicht nur einfache Verbesserungen der Leistung bestehender Systeme. Die in diesem Dokument erwähnten Tools werden mit Methoden des maschinellen Lernens, also „schwachen“ künstlichen Intelligenzen, entwickelt.

Und was bedeutet es Vorausschauende Gerechtigkeit (Vorausschauende Gerechtigkeit)

Predictive Justice bedeutet die Analyse einer Vielzahl gerichtlicher Entscheidungen mit Hilfe von Technologien der künstlichen Intelligenz, um Vorhersagen über den Ausgang bestimmter Arten von Fachstreitigkeiten (z. B. solche über Abfindungen oder Unterhaltszahlungen) zu formulieren. Der Begriff "vorausschauend" wird von den Unternehmen verwendet Legal Tech stammt aus den Wissenschaftszweigen (hauptsächlich Statistik), die dank induktiver Analyse die Vorhersage zukünftiger Ergebnisse ermöglichen. Gerichtliche Entscheidungen werden bearbeitet, um Korrelationen zwischen den Eingangsdaten (gesetzlich festgelegte Kriterien, Sachverhalt, Beweggründe) und den Ausgangsdaten (förmliche Entscheidung bspw. über die Höhe der Entschädigung) aufzudecken. Als relevant erachtete Korrelationen ermöglichen die Erstellung von Modellen, die zusammen mit neuen Eingangsdaten (neue Tatsachen oder Klarstellungen in Form von Parametern, wie etwa der Dauer des Vertragsverhältnisses) nach Aussage ihrer Entwickler eine Prognose der Entscheidung.

Einige Autoren haben diesen Ansatz sowohl formal als auch inhaltlich kritisiert und argumentiert, dass die mathematische Modellierung bestimmter sozialer Phänomene im Allgemeinen keine Aufgabe ist, die mit anderen, leichter quantifizierbaren Aktivitäten vergleichbar ist (die Isolierung der wirklich ursächlichen Faktoren einer gerichtlichen Entscheidung ist a unendlich komplexere Aufgabe zum Beispiel Go spielen oder ein Bild erkennen): Das Risiko falscher Korrelationen ist viel höher. Darüber hinaus können sich in der Lehre zwei widersprüchliche Entscheidungen als gültig erweisen, wenn die rechtliche Begründung gut begründet ist. Folglich wäre die Formulierung von Prognosen eine Übung mit rein indikativem Charakter und ohne jeden präskriptiven Anspruch.

Lassen Sie uns nach Festlegung der Fristen herausfinden, welche Grundprinzipien von der CEPEJ festgelegt wurden

1) PRINZIP DER RESPEKTIERUNG DER GRUNDRECHTE:

Gewährleistung der Entwicklung und Umsetzung von Instrumenten und Diensten der künstlichen Intelligenz, die mit den Grundrechten vereinbar sind. Wenn Instrumente der künstlichen Intelligenz zur Beilegung von Streitigkeiten, zur Unterstützung bei der gerichtlichen Entscheidungsfindung oder zur Orientierung der Öffentlichkeit eingesetzt werden, muss unbedingt sichergestellt werden, dass sie die Garantien des Rechts auf Zugang zu einem Richter und das Recht auf Zugang zu Gerichtsverfahren nicht untergraben ein faires Verfahren (Waffengleichheit und Respekt vor dem Gegner).

Dies bedeutet, dass es bereits in der Entwicklungs- und Lernphase vollständige Bestimmungen geben sollte, die eine direkte oder indirekte Verletzung der durch supranationale Übereinkommen geschützten Grundwerte verbieten.

Menschenrechte per Design.

2) GRUNDSATZ DER NICHTDISKRIMINIERUNG:

insbesondere der Entstehung oder Verschärfung einer Diskriminierung von Personen oder Personengruppen vorzubeugen. Angesichts der Fähigkeit dieser Verarbeitungsmethoden, bestehende Diskriminierungen durch die Gruppierung oder Klassifizierung von Daten in Bezug auf Einzelpersonen oder Personengruppen aufzudecken, müssen öffentliche und private Akteure sicherstellen, dass die Methoden eine solche Diskriminierung nicht reproduzieren oder verschlimmern und dass sie nicht dazu führen deterministische Analysen oder Verwendungen.

Die Methode muss NICHT diskriminierend sein.

3) PRINZIP DER QUALITÄT UND SICHERHEIT:

Verwenden Sie im Hinblick auf die Verarbeitung von Gerichtsentscheidungen und Daten zertifizierte Quellen und immaterielle Daten mit multidisziplinär entwickelten Modellen in einem sicheren technologischen Umfeld. Hersteller von Modellen für maschinelles Lernen sollten in der Lage sein, umfassend auf das Fachwissen einschlägiger Justizfachleute und Forscher in den Bereichen Recht und Sozialwissenschaften zurückzugreifen. Die Bildung gemischter Projektteams für kurze Bearbeitungszyklen zur Erstellung von Funktionsmustern ist eine der organisatorischen Methoden, die es ermöglichen, das Beste aus diesem multidisziplinären Ansatz herauszuholen.

Je mehr wir entwerfen, desto besser.

4) PRINZIP DER TRANSPARENZ, UNPARTEILICHKEIT UND FAIRNESS:

Datenverarbeitungsmethoden zugänglich und verständlich machen, externe Audits genehmigen. Es muss ein Gleichgewicht zwischen dem geistigen Eigentum einiger Verarbeitungsmethoden und der Notwendigkeit von Transparenz (Zugang zum kreativen Prozess), Unparteilichkeit (Freiheit von Voreingenommenheit), Gerechtigkeit und intellektueller Integrität (Privilegierung der Interessen der Gerechtigkeit) gefunden werden, wenn Werkzeuge verwendet werden, die sie können rechtliche Konsequenzen haben oder das Leben von Menschen erheblich beeinträchtigen können. Es versteht sich, dass solche Maßnahmen sowohl für den gesamten kreativen Prozess als auch für die operative Kette gelten, da die Auswahlmethodik sowie die Qualität und Organisation der Daten die Lernphase direkt beeinflussen.

Künstliche Intelligenz muss durch Dritte verifizierbar sein.

5) GRUNDSATZ „KONTROLLE DURCH DEN BENUTZER“:

einen präskriptiven Ansatz ausschließen und sicherstellen, dass die Nutzer informierte Akteure sind und die Kontrolle über ihre Entscheidungen haben. Der Einsatz von Tools und Diensten der künstlichen Intelligenz muss die Autonomie des Nutzers stärken und nicht einschränken. Der Nutzer muss in klarer und verständlicher Sprache über die Verbindlichkeit oder Nichtverbindlichkeit der von den Tools der künstlichen Intelligenz vorgeschlagenen Lösungen, die verschiedenen verfügbaren Möglichkeiten und sein Recht auf Rechtsbeistand und Zugang zu einem Gericht informiert werden. Sie müssen auch vor oder während eines Gerichtsverfahrens über jede frühere Behandlung eines Falls mit künstlicher Intelligenz klar informiert werden und ein Widerspruchsrecht haben, um Ihren Fall direkt von einem Gericht beurteilen zu lassen zu Artikel 6 der EMRK.

Seien Sie richtig informiert, um Ihre Auswahl zu überprüfen.

Schlussfolgerungen:

Bei näherer Betrachtung zeigen uns die von der CEPEJ diktierten Prinzipien einen Weg, der sich (in Anpassung an den juristischen Kontext) mit einem Begriff zusammenfassen lässt, der während der internationalen Debatte innerhalb der UN über autonome Waffen entwickelt wurde. In der Unmöglichkeit, den Rechenzustand des Tools der künstlichen Intelligenz und damit eine vollständige Kontrolle über die Ausführung des Vorhersagealgorithmus zu bestimmen, um die Änderung der "Richtigkeit und Gleichheit des Streits zwischen den Parteien und zwischen ihnen und dem Richter zu beheben „Die Forderung, dass die prädiktive Entscheidung getroffen wird, ohne ausschließlich die gewonnenen rein probabilistischen Ergebnisse zu verwenden, sollte verstärkt werden, nicht nur, weil ihre Erfüllung nicht immer hinreichend nachweisbar ist.

Wir verweisen auf den Lehrvorschlag, nach dem sanktioniert werden sollte, dass die Verwendung der Maschine vor Gericht einer erheblichen menschlichen Kontrolle unterliegt, die durch die folgenden wesentlichen Bedingungen repräsentiert wird:

1) dass sein Betrieb öffentlich gemacht und nach den Kriterien von bewertet wird Peer-Review;

2) dass die potenzielle Fehlerquote bekannt ist;

3) dass angemessene Erklärungen die „technische Formel“, die den Algorithmus bildet, in die Rechtsnorm übersetzen, um sie für den Richter, die Parteien und ihre Verteidiger lesbar und verständlich zu machen;

4) dass das Kreuzverhör über die Auswahl der archivierten Elemente, über ihre Gruppierung und über die Korrelationen der von der künstlichen Intelligenz verarbeiteten Daten gewährleistet ist, insbesondere in Bezug auf den Streitgegenstand;

5) dass ihre Annahme durch den Richter im Lichte dessen, was vor Gericht festgestellt wurde, und der nach dem Grundsatz der freien Überzeugung beurteilten tatsächlichen Umstände gerechtfertigt ist.

   

Sitographie:

https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell-intelligenza-artificiale-nei-si/1680993348

https://teseo.unitn.it/biolaw/article/view/1353

https://www.agendadigitale.eu/cultura-digitale/predire-il-futuro-fra-machine-learning-e-magia/

https://archiviodpc.dirittopenaleuomo.org/d/6735-sistema-penale-e-intelligenza-artificiale-molte-speranze-e-qualche-equivoco

S. QUATTROCOLO, Gerechtigkeit des Strafverfahrens und automatisierte Beweisführung im Lichte der Europäischen Menschenrechtskonvention, in Rev. italo-española der. proc., 2019, verfügbar unter http://www.revistasmarcialpons.es/rivitsproc/

https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf

https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_it.pdf

https://archiviodpc.dirittopenaleuomo.org/upload/3089-basile2019.pdf

Bibliographie:

Künstliche Intelligenz. Ein moderner Ansatz, Russell und Norvig, Pearson.

Yuval Noah Harari, Homo Deus: eine kurze Geschichte von morgen, Vintage Publishing.

GWF HEGEL, Grundzüge der Rechtsphilosophie, 1821, übers. es., Bari, 1996.

G. ROMANO, Recht, Robotik und Spieltheorie: Reflexionen über eine Synergie, in G. Alpa (herausgegeben von), Recht und künstliche Intelligenz, Pisa, 2020

G. TAMBURRINI, Ethik der Maschinen. Moralische Dilemmata für Robotik und künstliche Intelligenz, Rom, 2020

U. RUFFOLO - A. AMIDEI, Künstliche Intelligenz, menschliche Verbesserung und Menschenrechte, in Künstlicher Intelligenz. Recht, Rechte, Ethik, bereits vorweggenommen in U. RUFFOLO - A. AMIDEI, Artificial Intelligence and human rights: the frontiers of "transhumanism", in Giur. It., 2019

J. LASSÈGUE, Digitale Justiz. Révolution graphique et rupture anthropologique, Paris, 2018

J. NIEVA-FENOLL, Künstliche Intelligenz und Prozesse, 2018, übers. it., Turin, 2019

S. SIGNORATO, Strafjustiz und künstliche Intelligenz. Überlegungen zum Thema Vorhersagealgorithmus, in Riv. dir. Proz., 2020

Fotos: www.golegal.co.za