Der Einsatz generativer KI-Plattformen hat zwar zu mehr Produktivität und Innovation geführt, aber auch zu echten Bedenken geführt, insbesondere in Bezug auf Cybersicherheit und Datenschutz. Sicherheits- und IT-Teams müssen Wege finden, um ihr Unternehmen vor Datenverlust und ausweichenden Phishing-Angriffen zu schützen und gleichzeitig den Einsatz generativer KI zu ermöglichen.
In der ersten OpenAI ChatGPT-Version wurden sie zur am schnellsten wachsenden Plattform der Geschichte und zählten in nur zwei Monaten über 100 Millionen Benutzer an. Im November 2023 gab OpenAI bekannt, dass sie wöchentlich 100 Millionen aktive Benutzer haben. ChatGPT erregt weiterhin globale Aufmerksamkeit und ist nur eine von vielen generativen KI-Plattformen, die täglich genutzt werden.
Generative KI-Plattformen verändern die Art und Weise, wie Menschen arbeiten, verbessern Inhalte, erleichtern Brainstorming, Outsourcing alltäglicher Aufgaben und vieles mehr. Diese Funktionen bieten Unternehmen die Möglichkeit, die Produktivität und die Arbeitsqualität zu steigern.
Der Einsatz generativer KI-Plattformen und Chatbots wie ChatGPT hat jedoch auch erhebliche Auswirkungen auf die Cybersicherheit und wirft Fragen sowohl zum Datenschutz und zur Sicherheit von Daten als auch zur Gefahr von Phishing-Angriffen auf. Generative KI-Sicherheitsrisiken nehmen zu.
Viele Menschen sind verständlicherweise nervös gegenüber generativen KI-Tools, da sie Bedrohungsakteuren helfen können, ausweichende Bedrohungen in größerem Umfang und Geschwindigkeit zu entwickeln. Darüber hinaus haben Plattformen wie ChatGPT die Barrieren für Hacker gesenkt, um ausgefeiltere und effektivere Phishing-Angriffe zu starten. Cybersicherheitsexperten warnen die Welt zwar zu Recht vor den Risiken, die ChatGPT für Unternehmen und Einzelpersonen darstellt, aber sie übersehen möglicherweise ein unmittelbareres Problem im Zusammenhang mit diesen generativen KI-Plattformen und Chatbots: den potenziellen Verlust von firmeneigenen Daten oder anderem geistigen Eigentum (IP).
Wenn Mitarbeiter bei der Arbeit generative KI-Tools verwenden, können sie unbeabsichtigt sensible Unternehmensdaten teilen und preisgeben. Zu diesen Daten können Kundendaten, Geschäftsgeheimnisse, Verschlusssachen und geistiges Eigentum gehören.
In einem aktueller Bericht, Menlo Security analysierte, wie oft Mitarbeiter versuchten, sensible und vertrauliche Informationen in generative KI-Plattformen einzugeben. In einem Zeitraum von 30 Tagen enthielten 55% der DLP-Ereignisse personenbezogene Daten. Diese Organisationen haben Menlo Security eingerichtet, das diese Instances blockiert hat.
Mit generativer KI sind Sicherheits- und private Daten potenziell viel stärker gefährdet als bei anderen Datenverlust-Szenarien, wie z. B. einer Sicherheitsverletzung oder einer unangemessenen Weitergabe. Das liegt daran, dass Plattformen für generative KI Chatverläufe und andere Daten verwenden, um ihre Modelle zu trainieren und zu verbessern. Das bedeutet, dass alle eingegebenen Daten später anderen Benutzern zugänglich gemacht werden könnten.
Beispiel aus der realen Welt:
Kürzlich wurde berichtet, dass eine Gruppe von Ingenieuren der Halbleitergruppe von Samsung Quellcode in ChatGPT eingegeben hat, um zu prüfen, ob der Code für eine neue Funktion effizienter gestaltet werden könnte. ChatGPT und andere generative KI-Tools speichern Eingabedaten, um sich selbst weiterzubilden. Der eingegebene Samsung-Quellcode kann nun von der Plattform verwendet werden, um eine Antwort auf Anfragen anderer Benutzer zu formulieren. Dazu könnte ein Bedrohungsakteur gehören, der nach Sicherheitslücken sucht, oder ein Konkurrent, der nach urheberrechtlich geschützten Informationen sucht.
Um ihre Organisationen zu schützen, haben einige Unternehmen Websites mit generativer KI aufgrund von Sicherheitsrisiken für generative KI vollständig verboten. Italien hat ChatGPT verboten für das ganze Land wegen Bedenken hinsichtlich des Datenschutzes, obwohl der Dienst nach etwa einem Monat wieder hergestellt wurde. Die Verhinderung des Zugangs zu generativen KI-Diensten mag zwar wie eine Lösung für die potenziellen Sicherheitsrisiken erscheinen, aber es handelt sich nur um eine schnelle Lösung und nicht um eine langfristige Lösung. ChatGPT und die unzähligen anderen generativen KI-Plattformen sind leistungsstarke Geschäftstools, mit denen Menschen Geschäftsprozesse optimieren, mühsame Aufgaben automatisieren oder sich einen Vorsprung bei einem Schreib-, Design- oder Programmierprojekt verschaffen können. Das Blockieren dieser Websites beeinträchtigt auch die Produktivität und die geschäftliche Agilität.
Sichere generative KI wird in Anwendungen wie Inhaltsgenerierung, Bildsynthese und Datenerweiterung eingesetzt und gewährleistet gleichzeitig den Schutz vor gegnerischen Angriffen und Datenmanipulationen.
Leider sind Data Loss Prevention (DLP), Cloud Access Security Broker (CASB) und andere Lösungen für Insider-Bedrohungen nicht in der Lage, mit den Nuancen neuer KI-Technologien umzugehen. Organisationen benötigen eine mehrschichtiger Ansatz anstatt sich auf eine Einheitslösung zu konzentrieren.
In Kombination mit DLP können Unternehmen einschränken, was in Eingabefelder eingefügt werden kann, indem sie beispielsweise entweder die Anzahl der Zeichen einschränken oder bekannten Code blockieren. Niemand wird Tausende von Zeilen Quellcode manuell eingeben, sodass die Einschränkung der Einfügefunktionen diese Art von Datenverlust effektiv verhindert. Dies kann dazu führen, dass Benutzer zweimal über die Informationen nachdenken, die sie eingeben wollten.
Unternehmen sollten außerdem Sicherheitsrichtlinien anwenden, die zusätzliche generative KI-Sicherheitskontrollen auslösen — wie z. B. die Protokollierung von Ereignissen oder das Initiieren einer Browseraufzeichnung —, um die Problemlösung und die Analyse nach einem Ereignis zu unterstützen. Es ist wichtig, sich daran zu erinnern, dass bei Untersuchungen von Sicherheitsverletzungen, die von Insidern verursacht wurden, der Nachweis der Absicht erbracht werden muss. Das Aufzeichnen von Ereignissen und Browsersitzungen könnte Aufschluss darüber geben, ob Benutzer böswillig oder einfach fahrlässig gehandelt haben.
Menlo Security Datenschutz auf der letzten Meile bietet eine zuverlässige Überprüfung der Uploads von Webdateien und Benutzereingaben für jede Browsersitzung. Dieser Schutz verhindert, dass Mitarbeiter vertrauliche Dateien hochladen oder Geschäftsgeheimnisse und andere sensible Informationen in generative KI-Lösungen eingeben.
Copy-and-Paste-Kontrollen und Zeichenbeschränkungen können als zusätzliche Sicherheitsmaßnahmen integriert werden, um große Datenlecks zu verhindern. Diese Kontrollen verhindern, dass vertrauliche Daten an eine externe Website gelangen, wo sie missbraucht werden können.
Darüber hinaus Menlo Browsing Forensik ermöglicht es Ermittlungsteams, aufgezeichnete Wiedergaben von Internetsitzungen wie Mausklicks und Dateneingaben so anzusehen, wie sie stattgefunden haben, um die Absicht und die Auswirkungen der Aktionen der Endbenutzer zu verstehen. Jede aufgezeichnete Sitzung enthält einen Menlo Forensics Log-Eintrag, der unterstützende Daten zum Ereignis und den Zugriff auf die Aufzeichnung mit einem Klick enthält. Die aufgezeichneten Sitzungen werden zur sicheren, zugriffskontrollierten Speicherung an den vom Kunden definierten Ort übertragen.