Je größer das potenzielle Risiko von Anwendungen für Menschenrechtsverletzungen ist, desto anspruchsvoller sind die Anforderungen an die Organisation und ihre KI-Systeme. Es ist anzunehmen, dass der Einsatz von KI in Sicherheitsbehörden ebenfalls in die Kategorie „hohes Risiko“ fällt. Gleichzeitig sind im EU-AI-Act verschiedene Ausnahmen festgelegt, unter denen europäische Sicherheitsbehörden dennoch Hochrisiko-KI-Systeme einsetzen dürfen.
Es ist vorgesehen, dass die Stabsstelle die Abteilungen einer Behörde bei der Kategorisierung von KI-Systemen gemäß den vorgesehenen Risikostufen im EU-AI-Act unterstützt:
![Risikostufen gemäß EU-AI-ACT](https://images.prismic.io/cassini/ZlZAH6WtHYXtT3r3_Risikostufen.png?auto=format,compress)
Die Einführung und Nutzung von KI-Systemen bei Sicherheitsbehörden variieren bereits in der gegenwärtigen Situation.
![Unterschiedliche Ausganglagen entlang des KI-Reifegrads](https://images.prismic.io/cassini/ZlZE8qWtHYXtT3t1_Ausganglagen_KI-Reifegrad.png?auto=format,compress)
Die Stabsstellen stehen vor verschiedenen Herausforderungen. Die Umsetzung des EU-AI-Acts wird von zahlreichen offenen Fragen und sich verändernden Rahmenbedingungen begleitet. Es ist jedoch unerlässlich, die behördlichen Organisationsstrukturen rechtzeitig an diese neuen Bedingungen anzupassen. Ein frühzeitiger Beginn der Anpassung an die neuen Vorgaben ermöglicht eine gründliche Planung und Umsetzung, was letztlich die Erfolgsaussichten verbessert.