Wie das KI-Gesetz künstliche Intelligenz in der EU regulieren wird und welche Auswirkungen es haben wird

25/01/24

"Als die Ergebnisse bekannt gegeben werden, steigen Lee Sedol Tränen in die Augen. AlphaGo, eine von Googles DeepMind entwickelte künstliche Intelligenz (KI), hat gerade einen 4:1-Sieg im Go-Spiel errungen. Es ist März 2016. Zwei Jahrzehnte zuvor hatte Schachgroßmeister Garry Kasparov gegen die Maschine Deep Blue verloren, und jetzt Ein Computerprogramm hatte gegen den achtzehnten Weltmeister Lee Sedol in einem komplexen Spiel gewonnen, von dem man annahm, dass es nur von Menschen gespielt werden konnte, die ihre Intuition und ihr strategisches Denken nutzten. Der Computer gewann nicht dadurch, dass er den Regeln folgte, die ihm von Programmierern vorgegeben wurden, sondern durch maschinelles Lernen, das auf Millionen früherer Go-Spiele basierte und gegen sich selbst spielte. In diesem Fall bereiten Programmierer die Datensätze vor und erstellen die Algorithmen, können jedoch nicht wissen, welche Schritte das Programm vorschlagen wird. Künstliche Intelligenz lernt von selbst. Nach einer Reihe ungewöhnlicher und überraschender Schritte musste Lee resignieren.

Dieser Auszug aus dem Buch „AI Ethics“ von Mark Coeckelbergh, einem belgischen Philosophen und Technologen, erinnert auf explizite und suggestive Weise an die Begegnung zwischen dem Menschen und seinen Grenzen. Nach einer bestimmten Anzahl von Siegen, die Sedol errungen hat, gewinnt AlphaGo. Es ist nicht das erste Mal, dass dies passiert (das angeführte Beispiel ist das von Deep Blue), und doch tut AlphaGo nach einer Reihe ungewöhnlicher und überraschender Schritte das, wofür es entwickelt wurde: Es ist das erste Mal, dass es passiert Hier entlang.

Und hier begreifen wir die Synthese des Phänomens Künstliche Intelligenz (KI): Es ist das erste Mal, dass es so passiert ist.

Alle Medien haben über den Wettlauf um künstliche Intelligenz gesprochen, insbesondere nach dem „Explosion„ChatGPT. Wir haben auch im Zusammenhang mit der Online-Verteidigung schon oft darüber gesprochen und den beispiellosen Entwicklungsschub hervorgehoben, den diese Lösungen in ihrer Geschichte erfahren.

Dennoch gibt es ein paralleles Phänomen, das folgerichtig und mit dem ersten verbunden ist und Gefahr läuft, unbemerkt zu bleiben. Das der Standardisierung dieser Systeme.

Die Regulierung künstlicher Intelligenz ist keineswegs eine einfache Herausforderung, und ohne auf die technischen Details einzugehen (und auch nicht auf die zahlreichen gesetzgeberischen Gärungen, die in asiatischen Ländern und den USA zu diesem Thema im Gange sind), können wir sagen, dass die Europäische Union nach jahrelanger Arbeit dies geschafft hat Im Dezember 2023 wird eine halbendgültige Version dessen in Kraft treten, was nach Abschluss der technischen Diskussionen und des gemeinschaftlichen Genehmigungsverfahrens die erste europäische Verordnung über künstliche Intelligenz darstellen wird: das AI ACT.

Was ist das?

Der „AI Act“ stellt eines der ersten und am besten strukturierten Gesetzesdokumente auf globaler Ebene dar, das darauf abzielt, den Einsatz künstlicher Intelligenz zu regeln und die damit verbundenen potenziellen Risiken zu mindern. Der endgültige Gesetzestext muss noch von den zuständigen Fachleuten erarbeitet und einer abschließenden Überarbeitung unterzogen werden. Es wird erwartet, dass das Inkrafttreten, wenn alles ohne Hindernisse verläuft, in den nächsten zwei Jahren erfolgen wird.

Die Verordnung konzentriert sich hauptsächlich auf den Schutz individueller Rechte und Freiheiten und verpflichtet Unternehmen, die KI-Lösungen entwickeln, nachzuweisen, dass ihre Produkte und ihr Entwicklungsprozess keine Menschen gefährden oder ihre Integrität gefährden. Dieses Verordnungsgesetz deckt mehrere Anwendungsbereiche der Künstlichen Intelligenz ab, zu den Hauptpunkten gehören jedoch Einschränkungen bei biometrischen Identifikationssystemen und die Verpflichtung zur Transparenz hinsichtlich der eingesetzten technologischen Systeme Chatbot wie ChatGPT.

Ein grundlegendes Element der Verordnung ist das Risikoklassifizierungssystem, das bereits in anderen ähnlichen Verordnungen (allen voran der DSGVO) übernommen wurde und bestimmte KI-Systeme mit besonderen Merkmalen als „hohes Risiko“ identifiziert und sie strengen Compliance-Maßnahmen unterwirft. Diese Regelung wird eine große Herausforderung für Unternehmen und Institutionen darstellen, die solche Systeme erstellen, in Betrieb nehmen oder nutzen.

Zu den Beispielen für Hochrisikosysteme, die in der Verordnung aufgeführt sind, gehören Systeme, die in wichtigen Sektoren wie dem Gesundheitswesen, dem Verkehr, der Justiz und der öffentlichen Sicherheit eingesetzt werden. Für solche Systeme werden hohe Anforderungen an Sicherheit, Transparenz und Zuverlässigkeit gestellt. Insbesondere für Hochrisikosysteme legt das KI-Gesetz eine Reihe strenger Anforderungen fest, darunter:

  • Risikobewertung und Compliance: KI-Systeme müssen unter Berücksichtigung einer gründlichen Risikobewertung entworfen und entwickelt werden. Dazu gehört die Umsetzung von Maßnahmen zur Steuerung und Minimierung dieser Risiken.
  • Transparenz und Benutzerinformationen: KI-Systeme sollten transparent sein. Benutzer sollten informiert werden, wenn sie mit einem KI-System interagieren, und ausreichend Informationen darüber erhalten, wie das System funktioniert und Entscheidungen trifft.
  • Menschliche Aufsicht: Das KI-Gesetz betont die Bedeutung der menschlichen Aufsicht in KI-Systemen, insbesondere bei Systemen mit hohem Risiko. Dies könnte erhebliche Auswirkungen auf den militärischen Einsatz von KI haben, wo die automatisierte Entscheidungsfindung in kritischen Situationen möglicherweise eingeschränkt ist oder eine explizite menschliche Überwachung erfordert.
  • Datenqualität: Das KI-Gesetz verlangt, dass die von KI-Systemen verwendeten Daten verwaltet werden, um höchste Qualität zu gewährleisten, das Risiko von Verzerrungen zu verringern und sicherzustellen, dass getroffene Entscheidungen korrekt und zuverlässig sind.
  • Sicherheit und Robustheit: KI-Systeme müssen sicher und robust gegen Manipulations- oder Missbrauchsversuche sein (gelinde gesagt ein besonders kritischer Aspekt im militärischen Kontext).

Eine weitere Anforderung von besonderem Interesse ist die aus ethischer Sicht eingeführte: Das KI-Gesetz fordert die Durchführung einer echten „ethischen Bewertung“ (Fundamental Rights Impact Assessment, FRIA) für Hochrisikosysteme. Darüber hinaus gibt es zahlreiche Wechselwirkungen mit dem Thema der Sicherheit der Verarbeitung personenbezogener Daten, auf das der Verordnungstext im Hinblick auf die Analyse der Risiken und Auswirkungen für die am Betrieb dieser Systeme beteiligten natürlichen Personen und der Risiken für diese mehrfach Bezug nimmt ihre Daten.

Ferner Es gibt einige verbotene Praktiken. Beispielsweise wird der Einsatz von KI zur Analyse sensibler biometrischer Daten, etwa zur Erkennung von Personen anhand von Merkmalen wie sexueller Orientierung, ethnischer Zugehörigkeit, Religion oder politischer Überzeugung, verboten. Ziel dieser Bestimmung ist es, Diskriminierung und Missbrauch zu verhindern. Auch die wahllose Nutzung von Bildern aus dem Internet oder von CCTV-Kameras zum Trainieren von Gesichtserkennungssystemen wird verboten, um die Privatsphäre der Menschen zu schützen und Massenüberwachung zu verhindern.

Strafverfolgungsbehörden dürfen biometrische Erkennungssysteme (über die nach dem Clearview-Fall innerhalb der EU ein wichtiger Streit ausgetragen wurde) nur in verwenden außergewöhnliche UmständeB. die Gefahr eines bevorstehenden Terroranschlags oder die Suche nach Personen, die schwerer Straftaten verdächtigt werden oder Opfer schwerer Straftaten sind.

Das KI-Gesetz verbietet den Einsatz von KI zur Erkennung der Emotionen von Menschen am Arbeitsplatz und in Schulen, um die emotionale Freiheit des Einzelnen zu wahren. Darüber hinaus verbietet es die Ausübung von soziale Wertung, oder der Einsatz von KI zur Vergabe von Bewertungen auf der Grundlage des Verhaltens oder der Eigenschaften von Menschen, was zu Einschränkungen oder Gewährungen von Bürgerrechten führt. Mit dieser Maßnahme soll verhindert werden, dass das Verhalten von Menschen explizit oder implizit manipuliert wird.

Die Verordnung legt fest, dass hochwirksame KI-Systeme mit hohen Rechenkapazitäten wie GPT-4 von OpenAI Transparenz im Trainingsprozess gewährleisten und die technische Dokumentation der verwendeten Materialien teilen müssen, bevor sie auf den Markt gebracht werden. Diese Modelle werden benötigt, um die von ihnen generierten Inhalte erkennbar zu machen, um Betrug und Desinformation zu verhindern und das Urheberrecht der erstellten Werke zu schützen.

Was die Sanktionen betrifft, könnten Unternehmen, die diese Regeln nicht einhalten, mit Geldstrafen von bis zu 7 % ihres weltweiten Umsatzes belegt werden.

Was zweifellos sehr interessant ist, ist, was im aktuellen Text über den Einsatz künstlicher Intelligenzsysteme im militärischen Bereich vorgesehen ist.

Tatsächlich ist im Text (Art. 2 Abs. 3) ausdrücklich vorgesehen, dass das KI-Gesetz hinsichtlich seiner Auswirkungen auf den militärischen Bereich gilt nicht direkt für Systeme der künstlichen Intelligenz, die für militärische Zwecke entwickelt oder genutzt werden. Die durch das KI-Gesetz festgelegten Standards und Vorschriften können jedoch indirekt Einfluss darauf haben, wie EU-Mitgliedstaaten und in Europa tätige Unternehmen KI-Systeme für militärische Anwendungen entwickeln und einsetzen. Dazu können Aspekte wie Transparenz, menschliche Aufsicht und Systemsicherheit gehören. Darüber hinaus ist es möglich, dass das KI-Gesetz als Modell für zukünftige militärspezifische Vorschriften (oder Standards) sowohl auf EU- als auch auf globaler Ebene dienen könnte.

Die zunehmende Integration künstlicher Intelligenz in die Verteidigung erfordert einen Regulierungsrahmen, der Innovation mit ethischer Verantwortung und Sicherheit in Einklang bringt. Die Zusammenarbeit zwischen Ländern, Institutionen und Industrien wird von entscheidender Bedeutung sein, um sicherzustellen, dass sich der militärische Einsatz von KI verantwortungsvoll und im Einklang mit den internationalen Grundsätzen des humanitären Rechts entwickelt.

Das KI-Gesetz wird mehrere Anwendungsphasen durchlaufen, von denen die umfangreichste realistischerweise für die zweite Hälfte des Jahres 2026 erwartet wird. Um eine konforme KI zu gestalten, ist eine erhebliche Vorbereitung auf die Gestaltung der derzeit in der Entwicklung befindlichen Systeme erforderlich mit den von der Europäischen Union in diesem Sinne vorgeschlagenen Anforderungen.

Andrea Puligheddu (Rechtsanwältin und Expertin für Recht und neue Technologien)

Notiz: Der Artikel hat zwangsläufig einen informativen Charakter und geht nicht auf die zahlreichen (und komplexen) Fragen ein, die im Zusammenhang mit der Entwicklung und Anwendung des KI-Gesetzes auf dem Tisch liegen. Für eine ausführlichere Diskussion des Themas schreiben Sie bitte bei mir unter: Puligheddu@studiolegaleprivacy.com

(www.studiolegaleprivacy.com)