ChatGPT – Was kann da schon passieren?

Nov 28, 2024 von Peter Monien

Immer mehr Mitarbeitende greifen auf KI-Tools wie ChatGPT zurück, um ihre täglichen Aufgaben schneller zu erledigen. Sie nutzen Künstliche Intelligenz (KI), um E-Mails zu verfassen, Präsentationen zu erstellen oder komplexe Sachverhalte zu recherchieren. Teilweise sparen sie sich dadurch Stunden an manueller Arbeit. Oft geschieht dies ohne das Wissen oder die Zustimmung des Arbeitgebers. Diese sogenannte «Schatten-KI» birgt eine Vielzahl von Gefahren, die Unternehmen oft unterschätzen. Erfahren Sie in diesem Artikel, welche die wichtigsten sind und was Sie zu deren Reduzierung machen sollten.

Konkrete Risiken durch ChatGPT-Nutzung für Ihr Unternehmen

  • Verlust von Geschäft und Reputation: Kunden verlassen sich auf Ihre Expertise. Wenn Sie Angaben von ChatGPT verwenden und diese nicht verifizieren, kann dies dazu führen, dass Sie Umsatz einbüssen und einen Reputationsschaden erleiden.
  • Verlust von Geschäftsgeheimnissen: Durch die Eingabe vertraulicher Unternehmensdaten in ChatGPT besteht die Gefahr, dass diese Informationen in den Trainingsdaten des Modells landen und so für Dritte zugänglich werden. Dies kann zu Wettbewerbsnachteilen führen und den Ruf des Unternehmens schädigen.
  • Datenschutzverletzungen: Viele Unternehmen sammeln und verarbeiten personenbezogene Daten ihrer Kunden und Mitarbeitenden. Werden diese Daten in ChatGPT eingegeben, können sie unbeabsichtigt an Dritte weitergegeben werden. Dies verstösst gegen Datenschutzgesetze und kann zu hohen Bussgeldern führen. Auch hier droht ein Reputationsschaden.
  • Haftungsprobleme: Unternehmen können haftbar gemacht werden, wenn durch die Nutzung von ChatGPT fehlerhafte oder irreführende Informationen verbreitet werden. Dies kann zu rechtlichen Auseinandersetzungen und finanziellen Verlusten führen.
  • Qualitätsminderung: Obwohl ChatGPT in der Lage ist, hochwertige Texte zu generieren, kann es auch Fehler machen oder Inhalte produzieren, die nicht den Qualitätsstandards des Unternehmens entsprechen. Dies kann zu einer Minderung der Arbeitsqualität führen.

Beispiele aus der Praxis

  • Verlust von Geschäft und Reputation: Bei einer Fachkonferenz präsentiert ein Unternehmensvertreter Daten von ChatGPT, die er nicht geprüft hat. Später stellt sich heraus, dass diese Informationen grob fehlerhaft sind. Die Glaubwürdigkeit der Person und des Unternehmens leidet erheblich, was nicht nur zu einem Vertrauensverlust bei Kunden und Partnern führt, sondern auch zu entgangenem Umsatz.
  • Verlust von Geschäftsgeheimnissen: Ein Softwareentwickler gibt Details zu einer proprietären Software in ChatGPT ein, um Optimierungstipps zu erhalten. Einige dieser Informationen tauchen später in einer ähnlichen Lösung eines Konkurrenten auf, was den Wettbewerbsvorteil des Unternehmens gefährdet.
  • Datenschutzverletzungen: Ein HR-Mitarbeiter nutzt ChatGPT, um ein Arbeitszeugnis zu formulieren, und gibt dabei persönliche Informationen eines Mitarbeitenden ein. Diese Daten könnten von Dritten eingesehen werden, was zu einer Datenschutzklage führen kann.
  • Haftungsprobleme: Ein Hersteller nutzt ChatGPT, um Sicherheitsanweisungen für ein Produkt zu erstellen. Eine fehlerhafte Anweisung führt zu einem Unfall, und das Unternehmen wird wegen Fahrlässigkeit verklagt.
  • Qualitätsminderung: Ein Content-Team eines E-Commerce-Unternehmens lässt Produktbeschreibungen von ChatGPT erstellen. Die Texte enthalten Unstimmigkeiten und entsprechen nicht dem etablierten Markenton. Dies führt zu Verwirrung bei den Kunden und einem Rückgang der Conversion-Rate.

Handlungsempfehlungen für Unternehmen

Um die Risiken der ungeregelten Nutzung von ChatGPT zu minimieren, sollten Unternehmen folgende Massnahmen ergreifen:

  • Transparenz schaffen: Unternehmen sollten ihre Mitarbeitenden über die Vor- und Nachteile von KI-Tools aufklären und sie für die damit verbundenen Risiken sensibilisieren.
  • Richtlinien entwickeln: Es sollten klare Richtlinien für die Nutzung von KI-Tools am Arbeitsplatz erarbeitet werden. Diese Richtlinien sollten unter anderem festlegen, welche Daten in ChatGPT eingegeben werden dürfen und welche nicht.
  • Schulungen anbieten: Mitarbeitende sollten regelmässig geschult werden, um den sicheren Umgang mit KI-Tools zu gewährleisten.
  • Tools evaluieren: Unternehmen sollten verschiedene KI-Tools evaluieren und sich für Lösungen entscheiden, die den höchsten Sicherheitsstandards entsprechen.
  • Kontrollen einführen: Es sollten regelmässige Kontrollen durchgeführt werden, um sicherzustellen, dass die Richtlinien eingehalten werden.

Fazit

Die Nutzung von ChatGPT und anderen KI-Tools birgt sowohl Chancen als auch Risiken. Um die Vorteile dieser Technologien nutzen zu können, ohne dabei die Sicherheit und den Ruf des Unternehmens zu gefährden, ist es unerlässlich, dass Unternehmen klare Richtlinien entwickeln und ihre Mitarbeitenden entsprechend schulen. Nur so kann die Schatten-KI ins Licht geholt und ihre Risiken minimiert werden.

Wenn Sie das Thema Schatten-KI angehen wollen, sind wir der richtige Ansprechpartner für Sie, mit praktischem Wissen in Datenschutz- und -sicherheit. Wir unterstützen Sie gerne – von der Anpassung erprobter KI-Richtlinien an Ihre Bedürfnisse, über die Evaluation von KI-Tools bis hin zur Sensibilisierung Ihrer Mitarbeitenden. Kontaktieren Sie uns, um Ihre Risiken durch die Nutzung von generativen KI-Tools zu minimieren und so die Chancen der KI für Ihr Unternehmen nutzen zu können.


< zurück