Wenn wir einige Phänomene im Zusammenhang mit der Nutzung digitaler Technologien sorgfältig beobachten, können wir feststellen, dass die Gefährdung von IT- (Informationstechnologie) und OT-Systemen (Operational Technology) im Cyberspace kontinuierlich zunimmt und dass der Einsatz künstlicher Intelligenz zunehmend mit physischen Systemen verknüpft ist spielt eine grundlegende Rolle in Steuerungsprozessen derjenigen Systeme, die Sensoren und Aktoren verwenden.
60 % der Unternehmen, die künstliche Intelligenz in diesen Bereichen einsetzen, geben zu, dass die damit verbundenen Risiken sicherlich wichtig sind und zu den kritischsten gehören.
Künstliche Intelligenz eröffnet uns jedoch nicht nur den Weg für das Risiko neuartiger Angriffe, sondern auch für neue Möglichkeiten der Verteidigung und damit auch für die Paradigmen von Risikobewertung zu diesen kritischen Systemen müssen heutzutage überprüft werden.
Genau hier kommt ein von der Europäischen Union finanziertes Projekt (Horizont 2020-Programm der Europäischen Kommission) mit einem Budget von rund vier Millionen Euro ins Spiel: das Projekt Kinaitik.
Das KINAITICS-Projekt - Cyberkinetische Angriffe mithilfe künstlicher Intelligenz - wurde im Oktober 2022 dank der Zusammenarbeit von sieben Partnern aus fünf verschiedenen europäischen Nationen offiziell ins Leben gerufen, darunter drei Italiener (Pluribus One, Fondazione Toscana G.Monasterio und Engineering) und die anderen vier Europäer: die Kommission für Atomenergie und alternative Energien (CEA), die Zentrum für Forschung und Technologie Hellas (CERTH), Vicomtech er ist gut auch für die Katholieke Universität Leuven.
Ziel des internationalen Projekts ist es, die neuen Angriffsmöglichkeiten durch die Einführung von Steuerungssystemen auf Basis künstlicher Intelligenz zu erforschen und neue Verteidigungsansätze zu untersuchen, um Robustheit und Resilienz zu erhöhen und vor Angriffen zu schützen.
Gerade in diesem Bereich spielt KI eine wichtige Rolle, indem sie ein besseres Verständnis der Natur neu auftretender Risiken und die Einführung innovativer Sicherheitsansätze fördert.
Dies geschieht durch die Schaffung eines integrierten Rahmens, die Bewertung potenzieller Risiken und ihrer Entwicklung sowie die Untersuchung der rechtlichen, ethischen und Compliance-bezogenen Aspekte von KI-Gesetzen und -Vorschriften wie der DSGVO, der NIS2-Richtlinie und dem KI-Gesetz.
Einer der Schlüsselaspekte betrifft die Transparenz. KI-Algorithmen müssen verständlich sein, um undurchsichtige oder unverständliche Entscheidungen zu vermeiden, ein Phänomen, das als bekannt ist Flugschreiber.
In kritischen Kontexten wie der automatisierten medizinischen Triage oder der industriellen Prozesskontrolle können intransparente Entscheidungen Misstrauen erzeugen oder, schlimmer noch, Menschenleben gefährden.
Ferner die vorspannen algorithmisch (d. h. der Einfluss impliziter Verzerrungen oder Verzerrungen in den Daten, die zu systematisch voreingenommenen Entscheidungen führen) stellt ein echtes Risiko dar. Wenn die Trainingsdaten nicht repräsentativ sind oder Verzerrungen enthalten, können die Entscheidungen des Systems diskriminierend, unfair oder unangemessen sein. Beispielsweise könnte ein KI-basiertes Sicherheitssystem bestimmte Personengruppen aufgrund irrelevanter Merkmale wie ethnischer Zugehörigkeit oder Geschlecht bevorzugen oder bestrafen.
Ein neues integriertes Framework
Das in KINAITICS entwickelte Verteidigungskonzept ist eng mit Ihrem verknüpft Cyber-Reichweite, ein Tool, das speziell dafür entwickelt wurde, Personal durch Cyber-Übungen zu schulen und zu schulen und Forschern dabei zu helfen, reale Angriffe zu simulieren. Durch die Umsetzung von Verteidigungsstrategien mit KI-Tools, koordiniert durch menschliche Arbeit, konzentriert sich der Cyberbereich sowohl auf digitale als auch physische Schwachstellen und fungiert als Testumgebung für Angriffe verschiedener Art und hilft dabei, die Fähigkeiten zur Sicherheitsbewertung zu testen in Echtzeit.
Der Verteidigungsrahmen ist in vier Module unterteilt und umfasst:
- Typüberwachung Verhaltens- (Verhalten) von Einzelpersonen, industriellen Kontrollsystemen (ICS) und Software;
- das Entscheidungsunterstützungssystem, das dabei hilft, Gegenmaßnahmen vorzuschlagen oder anzuwenden, um die Auswirkungen eines Cyber-Vorfalls abzumildern;
- die Form von Social Engineering basierend auf Maschinelles lernen (ML) und Verarbeitung natürlicher Sprache (NLP) und schließlich die Verwendung hybrider Abwehrmechanismen zwischen KI und Benutzern.
Der Einsatz von ML und KI bringt erhebliche Leistungsvorteile, aber auch potenzielle neue Risiken mit sich. Cyberkriminelle könnten KI-Systeme mit verschiedenen Methoden ins Visier nehmen, z Datenvergiftung (d. h. Datenvergiftung) während der TAUCHERAUSBILDUNG, was dazu führen würde, dass die KI schlechte Entscheidungen trifft, tatsächlich bringt die wachsende Komplexität der KI neue Schwachstellen mit sich.
Dazu gehört vor allem das Risiko von Angriffen auf Trainingsdaten, die die Fähigkeit der KI beeinträchtigen können, zuverlässige Entscheidungen zu treffen.
Die Sicherung dieser Systeme ist keine einfache Aufgabe und erfordert ein tiefes Verständnis der von Angreifern verwendeten Techniken. Die Nutzung bestehender Frameworks wie denen im Projekt MITRE ATT & CK e ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) hilft Ihnen, Risiken im Zusammenhang mit künstlicher Intelligenz besser zu verstehen, zu identifizieren und zu verwalten und bietet kontinuierlich aktualisierte Lösungen.
Gerade durch die Bezugnahme auf ATLAS ist es möglich, sich realistische Anwendungsfälle vorzustellen ... Stellen wir uns zum Beispiel eine Industrieanlage vor, in der fehlerhafte Sensoren Unfälle verursachen können. Der Einsatz des KINAITICS-Frameworks kann uns dabei helfen, Anomalien vorherzusagen und Interventionen vorzuschlagen, bevor Probleme auftreten Dies ist der Fall bei der Verwendung von Digitaler Zwilling (digitaler Zwilling) eines Systems wird immer häufiger dazu verwendet, sein ideales Verhalten zu modellieren und vorherzusagen und zu überprüfen, ob es keine Abweichungen gibt, die die Funktionalität und physische Sicherheit des Systems gefährden könnten. Die Verwendung von Digitale Zwillinge Dies ist von Vorteil, erweitert aber gleichzeitig die Angriffsmöglichkeiten: Denken Sie darüber nach, was passieren könnte, wenn es einem Cyberkriminellen gelingen würde, das Verhalten oder Modell des digitalen Zwillings zu ändern, was den Betreibern theoretisch fatale Fehler bescheren würde.
Eine weitere ständig wachsende Bedrohung ist die von Bad Bots, die für verschiedene Zwecke verwendet werden, vor allem aber zur automatischen Erfassung von Informationen. Solche Bots werden immer ausgefeilter und moderner Imperva-Bericht Sie nutzen jetzt intensiv KI-Modelle, die es ihnen ermöglichen, menschliches Verhalten nachzuahmen, um einer Entdeckung zu entgehen. Es genügt zu sagen, dass im Jahr 2023 die 49,6 % des gesamten Internetverkehrs scheint von produziert worden zu sein Böse Bots e Gute Bots.
Tools wie KINAITICS könnten nützlich sein, um die Erkennungsfähigkeiten zu verbessern Böse Bots Dank der ML- und KI-Fähigkeiten, mit denen sie ausgestattet sind, können wir sie von „guten Bots“ und Menschen unterscheiden.
Letztlich eröffnet die zunehmende Integration zwischen physischen Systemen und künstlicher Intelligenz neue interessante Perspektiven, aber auch neue Schwachstellen. Angriffe wie die Datenvergiftung oder Techniken von Modellinversion, die die Rekonstruktion sensibler Informationen ausgehend von KI-Modellen ermöglichen, können die Prozesssicherheit gefährden. Darüber hinaus sind Systeme durch die Verbindung mit Sensoren und Aktoren kinetischen Risiken ausgesetzt, sodass ein digitaler Angriff physische Folgen wie die Beschädigung von Maschinen oder die Sabotage kritischer Infrastrukturen haben kann.
Der Ansatz des KINAITICS-Projekts, der auf realen Simulationen und adaptiven Frameworks basiert, stellt einen Schritt vorwärts bei der Minderung dieser aufkommenden Risiken dar.
Projekte wie KINAITICS verbessern nicht nur die Systemsicherheit, sondern legen auch den Grundstein für zukünftige Standards, die den verantwortungsvollen und sicheren Einsatz künstlicher Intelligenz im Zeitalter der globalen Konnektivität leiten werden.