Laut Deloitte, 42% der Unternehmen experimentieren derzeit mit generativer KI, und 15% integrieren sie aktiv in ihre Geschäftsstrategie. Es ist kein Geheimnis, dass künstliche Intelligenz (KI) die Art und Weise, wie wir arbeiten, verändert. In nur wenigen Jahren helfen neue Chatbots, Generative KI und andere Tools Benutzern dabei, Arbeitsabläufe zu rationalisieren, Geschäftsprozesse zu optimieren, personalisierte Inhalte in großem Maßstab zu erstellen und Code effizienter zu gestalten.
Die schnelle Entwicklung und Einführung von KI-Tools verändert jedoch auch die Cybersicherheitslandschaft. Unternehmen müssen überdenken, wie sie Benutzer, Daten und Systeme vor böswilligen Angriffen schützen können. Tatsächlich ergab die Umfrage von Deloitte, dass das Risiko generativer KI und interne Kontrollen die wichtigsten Bedenken bei der Einführung der neuen Tools waren, und Die Regierung Biden hat kürzlich Richtlinien herausgegeben zur sicheren Aktivierung generativer KI-Tools.
Generative KI-Risiken verändern die Cybersicherheitslandschaft
Da die Benutzer diese neuen Tools schnell nutzen wollen, nehmen sich nur wenige Menschen die Zeit, darüber nachzudenken, wie Generative KI das Unternehmen einem großen Risiko aussetzt. Es ist wichtig zu berücksichtigen, dass KI durch die Daten lernt, die Benutzer in sie eingeben. Dazu gehören Rohdaten wie Quellcode, Kundeninformationen, technische Spezifikationen, Branding, Nachrichtenübermittlung und Positionierung sowie andere firmeneigene Informationen. KI-Tools nutzen diese Informationen, um Informationen für andere Benutzer — einschließlich böswilliger Akteure — bereitzustellen.
Zum Beispiel wurde berichtet, dass ein Samsung-Ingenieur hat internen Quellcode in ChatGPT eingefügt, um Fehler zu identifizieren. Obwohl der Ingenieur den Code vielleicht effizienter gemacht hat, können die Informationen nun verwendet werden, um Modelle weiter zu trainieren und anderen Benutzern zur Verfügung zu stellen, wodurch sensible technische Daten möglicherweise der Konkurrenz zugänglich gemacht werden. Und da das Internet ewig existiert, ist es höchst unwahrscheinlich, dass Samsung jemals in der Lage sein wird, die Daten aus diesen Modellen zu löschen — selbst wenn die Besitzer von ChatGPT bereit wären, zu helfen.
Selbst scheinbar harmlose Informationen — wie ein Firmenlogo, Nachrichten und Positionierung sowie Geschäftsstrategien — können böswilligen Akteuren helfen, überzeugendere Ergebnisse zu erzielen Phishing E-Mails, falsche Anmeldeformulare oder Adware. Mit Zugriff auf das richtige Quellmaterial kann ChatGPT ziemlich überzeugende Fälschungen erstellen, mit denen Benutzer dazu verleitet werden können, auf einen Link in einer E-Mail zu klicken oder ihre Anmeldeinformationen in gefälschter Form einzugeben.
Bewährte Methoden für generative KI-Sicherheit
Unternehmen haben auf Risiken der generativen KI reagiert, als ob sie immer auf neue Dinge reagieren: Sie blockieren sie. Zusätzlich zu Samsung wurde kürzlich eine Umfrage von Blackberry zeigt, dass 75 Prozent der Unternehmen derzeit ChatGPT und andere generative KI-Anwendungen am Arbeitsplatz verbieten oder in Betracht ziehen. Sogar ganze Länder verhängen Verbote aus Gründen der öffentlichen Sicherheit. Das ist alles schön und gut und verbessert wahrscheinlich die Sicherheitslage dieser Unternehmen im Bereich der generativen KI, aber das Verbot der Verwendung dieser Tools beeinträchtigt Innovation, Produktivität und Wettbewerbsfähigkeit.
Zum Glück gibt es einen Mittelweg. Hier sind drei Schritte, die Sie ergreifen können, um die Verwendung von ChatGPT und anderen generativen KI-Tools zu ermöglichen, ohne das Unternehmen einem erhöhten Risiko auszusetzen:
1. Informieren Sie die Nutzer
Bei jeder neuen Technologie verstehen die meisten Benutzer nicht, wie Generative KI-Tools funktionieren und warum sie mit den Inhalten, die sie in sie eingeben, vorsichtig sein sollten. Wenn sie darüber aufgeklärt werden, wie ihre Eingaben für zukünftige Anfragen verwendet werden, werden sie zweimal darüber nachdenken, urheberrechtlich geschützte Informationen einzufügen. Ingenieure wissen, dass sie Quellcode nicht in einem öffentlichen Forum teilen sollten, und es ist kein großer Sprung für sie, dieselbe Logik auf Generative KI anzuwenden, sobald sie die Gefahr erkannt haben.
2. Implementieren Sie (DLP-) Richtlinien
Sobald Benutzer die Verbindung zwischen generativen KI-Tools und potenziellem Datenverlust hergestellt haben, ist es ein logischer nächster Schritt, die DLP-Richtlinien auf diese Tools auszudehnen. Die Infrastruktur, die bereits in Richtlinien zur Datennutzung verankert ist, ist bereits vorhanden und bietet eine Grundlage, um das Unternehmen vor dem Verlust firmeneigener Daten in generativen KI-Tools zu schützen.
3. Gewinnen Sie Sichtbarkeit und Kontrolle
Es besteht auch die Möglichkeit, die DLP-Richtlinien über die bloße Suche nach Schlüsselwörtern hinaus zu erweitern. Sie benötigen einen mehrschichtigen Ansatz, der Ihnen einen Überblick darüber gibt, wie Benutzer mit diesen generativen KI-Tools interagieren, und die Möglichkeit bietet, sie davon abzuhalten, etwas Unachtsames zu tun. Dazu gehören bessere Erkennungsfunktionen und die Möglichkeit, Benutzer daran zu hindern, große Textblöcke in Webformulare einzufügen.
Ein Weg nach vorne
Generative KI-Tools machen Benutzer effizienter, produktiver und innovativer — aber sie stellen auch ein erhebliches Risiko für das Unternehmen dar. Das bloße Blockieren dieser Tools führt zu einem Wettbewerbsnachteil. Daher benötigen Cybersicherheitsteams eine differenzierte Strategie zum Schutz von Benutzern, Daten und Systemen. Die Schulung der Benutzer, die Ausweitung der DLP-Richtlinien auf die neue Technologie und die anschließende Verbesserung der Transparenz und Kontrolle über die Interaktionen der Benutzer mit generativen KI-Tools können Cybersicherheitsteams dabei helfen, das Unternehmen besser zu schützen, ohne die Produktivität einzuschränken.