Jan 14, 2025 von Peter Monien

Immer mehr Mitarbeitende nutzen generative KI – teilweise ohne das Wissen ihres Arbeitgebers. Dadurch entsteht eine Vielzahl von Risiken, die es zu adressieren gilt. Das National Institute of Standards and Technology (NIST) hat im Januar 2023 mit dem «Artificial Intelligence Risk Management Framework» (AI RMF 1.0, Publikation «NIST AI 100-1»), einen umfassenden Rahmen zur Bewertung und Minderung solcher Risiken vorgelegt. Der im Juli 2024 publizierte Leitfaden «Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile» (Publikation «NIST AI 600-1») schlägt Aktionen zur Risikoreduktion vor. Lesen Sie hier, wie Sie Ihr Risikomanagement dieser Entwicklung anpassen, was es zu berücksichtigen gilt und welche Massnahmen Sie umsetzen können.
Generative KI-Modelle, wie etwa grosse Sprachmodelle (LLM), unterscheiden sich in ihrer Funktionsweise und ihren potenziellen Auswirkungen erheblich von traditionellen KI-Systemen. Hochqualitative, original erscheinende Inhalte können in sehr kurzer Zeit generiert werden. Dadurch können bestehende Arbeiten in wesentlich kürzerer Zeit erledigt werden. Arbeiten, die bisher zu arbeitsintensiv waren, können mit einem tragbaren Aufwand erledigt werden. Aber es gibt auch Risiken: hochqualitativ erscheinende Texte können Falschinformationen enthalten, vertrauliche oder geheime Informationen können abfliessen, Urheberrechte können verletzt werden. Konkrete Risiken, die mit der Nutzung von Tools wie ChatGPT entstehen, zeigen wir Ihnen in unserem Blogbeitrag «ChatGPT – was kann da schon passieren?».
Das NIST AI 100-1-Framework identifiziert eine Reihe von spezifischen Risiken, die mit generativer KI verbunden sind. Die für die meisten Unternehmen wichtigen Risiken sind:
Um diese Risiken zu adressieren, müssen Organisationen ihr Risikomanagement anpassen. Hier sind einige wichtige Aspekte zu berücksichtigen:
Um Risiken im Zusammenhang mit Generativer KI sinnvoll zu managen, ist eine enge Zusammenarbeit zwischen verschiedenen Abteilungen, darunter IT, Security, Datenschutz, Recht und Geschäftsführung notwendig. Ein mögliches Management kann sich dabei am Artificial Intelligence Risk Management Framework (AI RMF) unter NIST AI 100-1 orientieren, welches sich in die Hauptphasen MAP, MEASURE, MANAGE und GOVERN unterteilt:
Die MAP-Phase legt den Grundstein für ein wirksames Risikomanagement, indem sie sich auf die Identifikation und Beschreibung von Risiken konzentriert. Ziel ist es, das Umfeld, die Ziele und die potenziellen Herausforderungen eines KI-Systems zu verstehen.
Die wichtigsten Schritte darin beinhalten:
In der MEASURE-Phase geht es darum, Risiken systematisch zu analysieren und messbare Kriterien zur Bewertung zu entwickeln. Ziel ist es, die Wahrscheinlichkeit und die Schwere potenzieller Risiken zu verstehen.
Die wichtigsten Schritte darin beinhalten:
Die MANAGE-Phase zielt darauf ab, identifizierte Risiken zu mindern oder zu eliminieren. Sie konzentriert sich auf proaktive Massnahmen zur Sicherstellung der Stabilität und Sicherheit von KI-Systemen.
Die wichtigsten Schritte darin beinhalten:
In der GOVERN-Phase liegt der Fokus auf der Etablierung von Leitlinien, Richtlinien und Kontrollmechanismen, um sicherzustellen, dass KI-Systeme langfristig verantwortungsvoll und risikobewusst betrieben werden.
Die wichtigsten Schritte darin beinhalten:
Bereits jetzt nutzen einige Ihrer Mitarbeitenden mit sehr grosser Wahrscheinlichkeit generative KI-Tools wie ChatGPT oder werden es bald tun. Erweitern Sie Ihr Risikomanagement, um sich den Herausforderungen früh genug zu stellen. Gerne unterstützen wir Sie entlang aller vier Phasen beim Management Ihrer bereits vorhandenen und auch zukünftig noch hinzukommenden KI-Risiken durch:
Sie möchten Ihr Risikomanagement den aktuellen Entwicklungen im Bereich AI anpassen? Lassen Sie sich von uns unterstützen. Mit einem strukturierten AI-Assessment analysieren wir Ihre bestehenden Prozesse, Rollen und Kontrollen im Umgang mit KI und zeigen auf, wo Risiken, Optimierungspotenziale oder regulatorische Anforderungen bestehen. Sie erhalten eine unabhängige Einschätzung sowie konkrete, praxisnahe Empfehlungen. Gerne erstellen wir Ihnen darauf basierend auch KI-Richtlinien zur sicheren Nutzung von GenAI-Tools in Ihrem Unternehmen. Wir freuen uns über Ihre Kontaktaufnahme.