ニュース:
メンロセキュリティがGoogleとの戦略的パートナーシップを発表
Icon Rounded Closed - BRIX Templates

安全第一:ChatGPTやその他のジェネレーティブAIツールを有効にする3つのステップ

ネギン・アミニアン
|
October 31, 2023
linkedin logotwitter/x logofacebook logoSocial share icon via eMail
__wf_リザーブド_デコラティブ

によると デロイト、42% の企業が現在ジェネレーティブAIを実験しており、15% が積極的にビジネス戦略に組み込んでいます。人工知能 (AI) が私たちの働き方を変革していることは周知の事実です。わずか数年で、新しいチャットボット、ジェネレーティブAI、その他のツールが、ユーザーがワークフローを合理化し、ビジネスプロセスを最適化し、パーソナライズされたコンテンツを大規模に作成し、コードをより効率的にするのに役立っています。

しかし、AIツールの急速な進化と採用はサイバーセキュリティの状況も変化させており、組織はユーザー、データ、システムを悪意のある攻撃から安全に保護する方法を再考する必要があります。実際、デロイトの調査では、ジェネレーティブAIのリスクと内部統制が新しいツールを採用する際の一番の懸念事項であり、 バイデン政権は最近ガイドラインを発表しました ジェネレーティブAIツールを安全に有効にする方法について

ジェネレーティブAIリスクはサイバーセキュリティ環境を変えています

ユーザーがこれらの新しいツールを急いで利用する中、ジェネレーティブAIがどのように組織を大きなリスクにさらすかをじっくり考えている人はほとんどいません。AI はユーザーが入力したデータを通じて学習することを考慮することが重要です。これには、ソースコード、顧客情報、エンジニアリング仕様、ブランディング、メッセージとポジショニング、その他の専有情報などの生データが含まれます。AI ツールはこの情報を使用して、悪意のあるユーザーを含む他のユーザーにアウトプットを伝えます。

たとえば、次のことが報告されました サムスンのエンジニア エラーを特定するために、内部ソースコードをChatGPTに貼り付けました。エンジニアがコードをより効率的にしたとしても、その情報をモデルのさらなるトレーニングに使用したり、他のユーザーに提供したりできるようになったため、機密のエンジニアリングデータが競合他社に公開される可能性があります。そして、インターネットが永遠に続く中、ChatGPTの所有者が積極的に支援してくれたとしても、Samsungがこれらのモデルからデータを消去できる可能性はほとんどありません。

会社のロゴ、メッセージとポジショニング、ビジネス戦略など、一見無害に見える情報でさえ、悪意のある攻撃者がより説得力を高めるのに役立ちます。 フィッシング 電子メール、偽のログインフォーム、またはアドウェア。適切なソース資料にアクセスできれば、ChatGPTはかなり説得力のある偽物を作成し、ユーザーを騙してメール内のリンクをクリックさせたり、偽のフォームに認証情報を入力させたりすることができます。

ジェネレーティブAIセキュリティのベストプラクティス

組織は、常に新しいものに対応するように、ジェネレーティブAIのリスクに対応してきました。つまり、それらをブロックしているのです。Samsungに加えて、最近の調査ではSamsungが行いました。 ブラックベリー によると、75% の組織が現在、職場でChatGPTやその他のジェネレーティブAIアプリケーションを実装しているか、禁止を検討しているということです。さらに 国全体 公共の安全問題として禁止措置を制定しています。これはすべて良いことであり、おそらくこれらの組織のジェネレーティブAIセキュリティ態勢は改善されるでしょうが、これらのツールの使用を禁止すると、イノベーション、生産性、競争力が妨げられます。

幸いなことに、妥協点があります。ここでは、組織をリスクにさらすことなく、ChatGPTやその他のジェネレーティブAIツールを利用できるようにするための3つのステップをご紹介します。

1。ユーザーを教育する

どんな新しいテクノロジーでも、ほとんどのユーザーはジェネレーティブAIツールがどのように機能するのか、なぜツールに入力するコンテンツに注意する必要があるのかを理解していません。自分の入力が将来のリクエストにどのように使われるかを教えることで、ユーザーは専有情報を貼り付けることについてよく考えるようになります。エンジニアは、公開フォーラムでソースコードを共有してはいけないことを知っています。危険性を理解したら、ジェネレーティブAIに同じロジックを適用しても大きな飛躍にはなりません。

2。(DLP) ポリシーの実装

ジェネレーティブAIツールと潜在的なデータ損失との関係をユーザーが理解したら、DLPポリシーをこれらのツールにも適用するのが論理的な次のステップです。すでにデータ利用ポリシーに体系化されたインフラストラクチャはすでに整っており、ジェネレーティブAIツール内の専有データを失うことから組織を守るための基盤となっています。

3。可視性と制御を実現

また、単にキーワードをチェックするだけにとどまらず、DLP ポリシーを拡張する機会もあります。こうしたジェネレーティブAIツールをユーザーがどのように利用しているかを可視化し、ユーザーが不注意な行動をとらないように制御できる階層型アプローチが必要です。これには、検出機能の向上や、ユーザーが大量のテキストブロックを Web フォームに貼り付けないようにする機能などが含まれます。

進むべき道

ジェネレーティブAIツールは、ユーザーの効率性、生産性、革新性を高めていますが、組織にとって重大なリスクももたらします。これらのツールをブロックするだけでは、人々は競争上の不利な立場に置かれるため、サイバーセキュリティチームはユーザー、データ、システムを保護するための微妙な戦略を必要としています。ユーザーを教育し、DLP ポリシーを新しいテクノロジーにも適用し、ジェネレーティブ AI ツールを使用してユーザーのインタラクションを可視化して制御できるようにすることで、サイバーセキュリティチームは生産性を制限することなく組織をより適切に保護できるようになります。

Download report: how employee usage of generative AI is impacting security posture
ブログカテゴリー