Mitarbeiter von Unternehmen setzen KI ein, ohne sich der Konsequenzen bewusst zu sein. Sensibilisierung zwingend erforderlich.
Jeder vierte Mensch in Deutschland im Alter zwischen 18 und 60 Jahren hat bereits eine Künstliche-Intelligenz-Anwendung, wie den KI-Chatbot ChatGPT ausprobiert (Quelle: Meinungsforschungsinstituts Kantar). Diverse Anleitungen im Internet beschreiben, wie ChatGPT im Büroalltag eingesetzt werden kann. Das geht von E-Mails formulieren, Texte übersetzen, programmieren, ja sogar Projektberichte oder Strategien entwerfen. Mit den Vorstößen von Google und Meta sowie durch die Ankündigung, dass Microsoft-Copilot KI in den Alltag bringen soll, dürften sich die Einsatzmöglichkeiten und die Integration in Office-Tools noch intensivieren.
Eine KI kann keinen Projektbericht entwerfen, ohne Details zum Projekt zu erfahren. Einem Großteil der Anwender ist jedoch nicht bewusst, dass die bereitgestellten Informationen durch die KI weiterverwendet werden. Der Vorstandsvorsitzende eines mittelständischen Unternehmens hat mir gegenüber vor kurzem erklärt, dass er jeden Morgen ChatGPT nach internen Kennzahlen fragt und sich jeden Mal über eine falsche Antwort freut. Doch wie lange dauert es, bis jemand auf die Idee kommt, über eine KI den neuen internen Quartalsbericht erstellen zu lassen?
Daher ist es für Beauftragte zur Informationssicherheit wichtig das Thema im Rahmen des Risikomanagements zu betrachten, klare Regelungen vom Management einzufordern und die Anwender:innen zu sensibilisieren. Für einen schnellen ersten Schritt, ist unten im grauen Kasten eine Textvorlage zu finden, welche ohne Quellenangabe allgemein verwendet werden darf.
Textvorlage zur Sensibilisierung von Mitarbeitenden in Unternehmen
ChatGPT und andere Text-Roboter sollen uns künftig die tägliche Arbeit massiv erleichtern. Zahlreiche Artikel beschreiben, wie sie für uns E-Mails formulieren, Texte übersetzen, programmieren, ja sogar Projektberichte oder Strategien entwerfen.
Doch hier ist Vorsicht geboten. Damit ein KI-Chatbot unterstützen kann, muss er zielgerichtet mit Informationen gefüttert werden. Diese Informationen nutzt er, um Anfragen anderer Personen besser beantworten zu können. So kann es passieren, dass vertrauliche Informationen durch einen KI-Chatbot bereitwillig weiterverbreitet werden.
Aus diesem Grund dürfen keine internen Informationen an eine KI, wie z.B. ChatGPT weitergeben werden. Dies betrifft nicht nur vertrauliche Projektinformationen, personenbezogene Daten oder eine interne Strategie, sondern alles, was nicht direkt im Internet veröffentlicht werden soll.
Wer plant, einen KI-Chatbot im Arbeitsalltag einzusetzen, sollte unbedingt mit der zuständigen Führungskraft vor der ersten Nutzung abklären, inwieweit dies erlaubt ist.