Jan 12, 2026 von Moritz Brodscholl

Mit dem vorläufigen Entwurf des Cybersecurity Framework Profile for Artificial Intelligence (NIST IR 8596, Initial Preliminary Draft) legt das National Institute of Standards and Technology (NIST) einen weiteren Baustein im stetig wachsenden Ökosystem von Normen und Rahmenwerken rund um Künstliche Intelligenz vor. Der Anspruch ist dabei bewusst zurückhaltend formuliert: Statt ein neues Framework zu etablieren, handelt es sich um eine KI-spezifische Profilierung des bestehenden NIST Cybersecurity Framework 2.0. Doch wie tragfähig ist dieser Ansatz und für welche Organisationen entsteht tatsächlich ein Mehrwert?
NIST positioniert das Cyber AI Profile ausdrücklich als Erweiterung bestehender Information Security Risikomanagement-Praktiken, nicht als deren Ersatz. KI-bezogene Fragestellungen werden entlang der bekannten CSF-Funktionen (Govern, Identify, Protect, Detect, Respond, Recover) strukturiert und aus drei komplementären Perspektiven betrachtet:
Damit adressiert das Framework sowohl defensive als auch offensive Verschiebungen im Cyberraum, die durch KI beschleunigt werden, und versucht, diese systematisch in eine vertraute Governance- und Risikologik zu überführen.
Das Cyber AI Profile richtet sich primär an Organisationen, die bereits über ein etabliertes Information Security Risikomanagement verfügen und KI nicht isoliert, sondern eingebettet in bestehende Governance-, Compliance- und Sicherheitsstrukturen betrachten möchten. Für diese Zielgruppe entsteht kein zusätzlicher Governance-Layer, sondern eine gezielte Schärfung und Kontextualisierung vorhandener Prozesse.
Gleichzeitig werden dort deutliche Grenzen sichtbar, wo KI-Nutzung nicht mehr entlang formaler Strukturen verläuft. Ein zentrales, im Framework nur implizit adressiertes Problem ist Shadow AI. In der Praxis entstehen zunehmend KI-Anwendungen ausserhalb offizieller Beschaffungs- und Governance-Prozesse: Mitarbeitende nutzen öffentliche Sprachmodelle, SaaS-Produkte bringen KI-Funktionen automatisch mit, Entwickler erstellen kleine Automatisierungen oder Agenten, ohne diese explizit als «KI-Systeme» zu deklarieren. Das Risiko liegt dabei weniger in einzelnen Fehlfunktionen als in der strukturellen Unsichtbarkeit dieser Systeme. Wo Transparenz fehlt, greifen weder Inventarisierung noch Risikobewertung und Verantwortlichkeiten lassen sich nicht eindeutig zuordnen.
Das Cyber AI Profile setzt jedoch implizit voraus, dass KI-Systeme identifiziert, verstanden und bewusst in Sicherheitsprozesse eingebunden werden können. Genau diese Annahme wird durch Shadow AI systematisch unterlaufen. Konkrete Leitlinien zum Umgang mit informeller, dezentraler KI-Nutzung bleiben weitgehend aus resp. belaufen sich auf die Forderung nach Monitoring der Nutzung interner und externer KI-Tools. Damit adressiert das Framework primär die «offizielle» KI, nicht jedoch jene, die sich im operativen Alltag derzeit am schnellsten verbreitet.
Neben Shadow AI rücken zunehmend agentische KI-Systeme in den Fokus der Sicherheitsdiskussion. Hier geht es nicht mehr allein um fehlerhafte Outputs, sondern um Autonomie, Persistenz und potenzielle Kaskadeneffekte. Das Framework zeigt ein gutes Verständnis der neuen Risikoklasse, geht jedoch nicht über abstrakte Vorschläge hinaus . Konzepte wie Human Oversight, Least Privilege oder Monitoring werden eingefordert, aber nicht operationalisiert. Wie genau Tool-Zugriffe begrenzt, Aktionen freigegeben, Rollbacks ermöglicht oder Kill-Switches implementiert werden sollen, wird nicht durch das Framework beantwortet.
NIST positioniert das Cyber AI Profile damit bewusst als strategischen Rahmen, während implementierungsnahe Leitplanken auf ergänzende Artefakte wie COSAiS oder organisationsspezifische Architekturmodelle ausgelagert werden.
Für hochdynamische, agentengetriebene Umgebungen stösst das Framework damit ebenfalls an konzeptionelle Grenzen.
Wir unterstützen Sie ganzheitlich im verantwortungsvollen und sicheren Umgang mit Künstlicher Intelligenz. Mit strukturierten Assessments analysieren wir Ihre bestehenden Prozesse, Rollen und Kontrollen im Umgang mit KI und zeigen auf, wo Risiken, Optimierungspotenziale oder regulatorische Anforderungen bestehen. Sie erhalten eine unabhängige Einschätzung sowie konkrete, praxisnahe Empfehlungen. Kontaktieren Sie uns jetzt für eine unverbindliche Beratung – wir freuen uns auf Ihre Anfrage.