뉴스:
멘로 시큐리티, 구글과 전략적 파트너십 발표
__wf_예약_상속

안전 우선: ChatGPT 및 기타 제너레이티브 AI 도구를 활성화하기 위한 3단계

Negin Aminian
|
October 31, 2023
__wf_예약_상속
__wf_예약_상속__wf_예약_상속__wf_예약_상속__wf_예약_상속
__wf_예약_데코레이션

에 따르면 딜로이트, 42% 의 기업이 현재 제너레이티브 AI를 실험하고 있으며, 15% 는 이를 비즈니스 전략에 적극적으로 접목하고 있습니다.인공 지능 (AI) 이 우리가 일하는 방식을 바꾸고 있다는 사실은 누구나 아는 사실입니다.불과 몇 년 만에 새로운 챗봇, 제너레이티브 AI 및 기타 도구를 통해 사용자는 워크플로를 간소화하고, 비즈니스 프로세스를 최적화하고, 대규모로 개인화된 콘텐츠를 만들고, 코드를 더 효율적으로 만들 수 있습니다.

그러나 AI 도구의 급속한 발전과 채택은 사이버 보안 환경도 변화시키고 있습니다. 따라서 조직은 악의적인 공격으로부터 사용자, 데이터 및 시스템을 안전하게 보호할 수 있는 방법을 재고해야 합니다.실제로 딜로이트 설문 조사에 따르면 제너레이티브 AI 위험과 내부 통제가 새로운 도구 채택의 가장 큰 관심사였으며 바이든 행정부는 최근 가이드라인을 발표했습니다. 제너레이티브 AI 도구를 안전하게 활성화하는 방법에 대해 알아보십시오.

제너레이티브 AI 리스크가 사이버 보안 환경을 변화시키고 있습니다

사용자들이 이러한 새로운 도구를 서둘러 활용함에 따라 제너레이티브 AI가 어떻게 조직을 큰 위험에 빠뜨리는지 시간을 내어 고려하는 사람은 거의 없습니다.AI는 사용자가 입력한 데이터를 통해 학습한다는 점을 고려하는 것이 중요합니다.여기에는 소스 코드, 고객 정보, 엔지니어링 사양, 브랜딩, 메시지 및 포지셔닝, 기타 독점 정보와 같은 원시 데이터가 포함됩니다.AI 도구는 이 정보를 사용하여 악의적인 행위자를 포함한 다른 사용자에게 결과를 알립니다.

예를 들어, 다음과 같이 보고되었습니다. 삼성 엔지니어 오류를 식별하기 위해 내부 소스 코드를 ChatGPT에 붙여넣었습니다.엔지니어가 코드를 더 효율적으로 만들었을 수도 있지만 이제 이 정보를 사용하여 모델을 추가로 학습하고 다른 사용자에게 제공할 수 있습니다. 이로 인해 민감한 엔지니어링 데이터가 경쟁업체에 노출될 수 있습니다.그리고 인터넷이 영원히 존재하기 때문에 삼성이 이러한 모델의 데이터를 말소할 가능성은 거의 없습니다. ChatGPT 소유자들이 자발적으로 도움을 주었더라도 말입니다.

회사 로고, 메시지, 포지셔닝, 비즈니스 전략과 같이 겉보기에 순진해 보이는 정보조차도 악의적인 공격자가 더 설득력 있는 정보를 구축하는 데 도움이 될 수 있습니다. 피싱 이메일, 허위 로그인 양식 또는 애드웨어ChatGPT는 올바른 소스 자료에 액세스할 수 있기 때문에 사용자가 이메일에 있는 링크를 클릭하거나 가짜 양식으로 자격 증명을 입력하도록 속이는 데 사용할 수 있는 꽤 설득력 있는 가짜 도구를 만들 수 있습니다.

제너레이티브 AI 보안 모범 사례

조직은 항상 새로운 것에 대응하듯이 제너레이티브 AI 위험에 대응해 왔습니다. 그들은 이를 차단합니다.삼성 외에도 최근 설문조사에서는 블랙베리 조직의 75% 가 현재 직장 내에서 ChatGPT 및 기타 제너레이티브 AI 애플리케이션을 구현하거나 금지를 고려하고 있는 것으로 나타났습니다.심지어 전체 국가 공공 안전 문제로 금지령을 제정하고 있습니다.이는 모두 좋은 일이며, 아마도 이러한 조직의 제너레이티브 AI 보안 태세를 개선할 수 있습니다. 하지만 이러한 도구의 사용을 금지하는 것은 혁신, 생산성 및 경쟁력을 저해합니다.

다행히도 중간 지점이 있습니다.조직을 위험에 빠뜨리지 않으면서 ChatGPT 및 기타 제너레이티브 AI 도구를 사용할 수 있도록 하기 위해 취할 수 있는 세 단계는 다음과 같습니다.

1.사용자 교육

새로운 기술이 나오더라도 대부분의 사용자는 제너레이티브 AI 툴의 작동 방식과 툴에 입력하는 콘텐츠에 주의를 기울여야 하는 이유를 이해하지 못합니다.입력 내용이 향후 요청에 어떻게 사용되는지 교육하면 독점 정보를 붙여넣는 것에 대해 다시 한 번 생각하게 될 것입니다.엔지니어들은 공개 포럼에서 소스 코드를 공유하지 말아야 한다는 것을 알고 있으며, 위험을 이해한 후에는 제너레이티브 AI에 동일한 로직을 적용하는 것이 그리 큰 도약이 아닙니다.

2.구현 (DLP) 정책

사용자가 제너레이티브 AI 도구와 잠재적 데이터 손실을 연결했다면 DLP 정책을 이러한 도구로 확장하는 것이 논리적인 다음 단계입니다.이미 데이터 사용 정책으로 체계화된 이 인프라는 이미 마련되어 있으며, 이는 제너레이티브 AI 툴의 독점 데이터가 손실되지 않도록 조직을 보호하기 위한 기반을 제공합니다.

3.가시성 및 통제력 확보

또한 단순히 키워드를 확인하는 것 이상으로 DLP 정책을 확장할 수 있는 기회도 있습니다.사용자가 이러한 제너레이티브 AI 툴과 상호 작용하는 방식을 파악하고 사용자가 부주의한 작업을 하지 못하도록 제어할 수 있는 계층화된 접근 방식이 필요합니다.여기에는 향상된 탐지 기능과 사용자가 웹 양식에 대량의 텍스트를 붙여넣는 것을 방지하는 기능이 포함됩니다.

앞으로 나아갈 길

제너레이티브 AI 도구는 사용자의 효율성, 생산성, 혁신을 향상시키지만 조직에 심각한 위험을 초래하기도 합니다.이러한 도구를 차단하는 것만으로도 사용자의 경쟁에서 불리해지므로 사이버 보안 팀에는 사용자, 데이터 및 시스템을 보호하기 위한 미묘한 전략이 필요합니다.사용자를 교육하고 DLP 정책을 신기술로 확장한 다음 제너레이티브 AI 도구를 통한 사용자 상호 작용에 대한 가시성과 제어력을 확보하면 사이버 보안 팀이 생산성을 제한하지 않고도 조직을 더 잘 보호할 수 있습니다.

Download report: how employee usage of generative AI is impacting security posture
블로그 카테고리
태그가 지정되었습니다