제너레이티브 AI 플랫폼의 사용은 생산성과 혁신의 향상으로 이어졌지만, 특히 사이버 보안 및 데이터 보호와 관련하여 실질적인 우려로 이어졌습니다.보안 및 IT 팀은 제너레이티브 AI를 계속 사용할 수 있도록 하면서 데이터 손실과 피싱 공격으로부터 조직을 보호할 방법을 찾아야 합니다.
OpenAI ChatGPT 최초 릴리스에서는 역사상 가장 빠르게 성장하는 플랫폼이 되었으며 단 두 달 만에 1억 명 이상의 사용자를 확보했습니다.2023년 11월로 거슬러 올라가 OpenAI는 매주 1억 명의 활성 사용자를 보유하고 있다고 발표했습니다.ChatGPT는 계속해서 전 세계의 관심을 끌고 있으며, 이는 매일 사용되고 있는 수많은 제너레이티브 AI 플랫폼 중 하나에 불과합니다.
제너레이티브 AI 플랫폼은 사람들이 일하는 방식을 바꾸고, 콘텐츠를 개선하고, 브레인스토밍을 촉진하고, 일상적인 작업을 아웃소싱하는 등 많은 것을 가능하게 합니다.이러한 기능은 조직이 생산성과 업무 품질을 높일 수 있는 기회를 제공합니다.
그러나 ChatGPT와 같은 제너레이티브 AI 플랫폼과 챗봇의 사용은 사이버 보안에도 상당한 영향을 미치므로 데이터의 프라이버시와 보안, 피싱 공격의 위협에 대한 의문이 제기됩니다.
위협 행위자가 더 큰 규모와 속도로 회피형 위협을 개발하도록 돕는 기능 때문에 생성 AI 도구에 대해 불안해하는 사람은 많습니다.또한 ChatGPT와 같은 플랫폼은 해커가 보다 정교하고 효과적인 피싱 공격을 감행할 수 있는 장벽을 낮췄습니다.그러나 사이버 보안 전문가들이 ChatGPT가 조직과 개인에게 미치는 위험에 대해 전 세계에 경고한 것은 옳지만, 이러한 생성적 AI 플랫폼 및 챗봇에 대한 보다 즉각적인 우려, 즉 독점 데이터 또는 기타 지적 재산권 (IP) 의 잠재적 손실에 대한 우려는 놓칠 수 있습니다.
직원이 직장에서 제너레이티브 AI 도구를 사용할 때 의도치 않게 민감한 회사 데이터를 공유하고 노출할 수 있습니다.이 데이터에는 고객 데이터, 영업 비밀, 기밀 정보 및 지적 재산이 포함될 수 있습니다.
에서 최근 보고서, Menlo Security는 직원들이 민감한 기밀 정보를 생성형 AI 플랫폼에 입력하려고 시도하는 빈도를 분석했습니다.30일 동안 DLP 이벤트의 55% 에는 개인 식별 정보가 포함되었습니다.이러한 조직에서는 이러한 인스턴스를 차단하는 Menlo Security를 운영하고 있습니다.
제너레이티브 AI를 사용하면 보안 및 개인 데이터가 침해나 부적절한 공유와 같은 다른 데이터 손실 시나리오보다 훨씬 더 많이 노출될 수 있습니다.이는 제너레이티브 AI 플랫폼이 채팅 기록과 기타 데이터를 사용하여 모델을 학습하고 개선하기 때문입니다. 즉, 입력된 모든 데이터가 나중에 다른 사용자에게 노출될 수 있습니다.
실제 사례:
최근에 삼성 반도체 그룹의 엔지니어 그룹이 ChatGPT에 소스 코드를 입력하여 새로운 기능에 대한 코드를 더 효율적으로 만들 수 있는지 알아보았다는 보고가 있었습니다.ChatGPT 및 기타 제너레이티브 AI 도구는 입력 데이터를 보존하여 자체 학습을 진행하며, 이제 플랫폼에서 입력된 삼성 소스 코드를 사용하여 다른 사용자의 쿼리에 대한 응답을 작성할 수 있습니다.여기에는 취약점을 찾는 위협 행위자나 독점 정보를 찾는 경쟁자가 포함될 수 있습니다.
조직을 보호하기 위해 일부 회사는 제너레이티브 AI 보안 위험으로 인해 제너레이티브 AI 사이트를 전면 금지했습니다. 이탈리아, ChatGPT 금지 데이터 프라이버시에 대한 우려로 전국적으로 서비스가 복원되었지만 약 한 달 후에 서비스가 복원되었습니다.제너레이티브 AI 서비스에 대한 액세스를 차단하는 것이 잠재적 보안 위험에 대한 해결책처럼 보일 수 있지만, 이는 장기적인 해결책이 아닌 빠른 해결책에 불과합니다.ChatGPT를 비롯한 수많은 제너레이티브 AI 플랫폼은 사람들이 비즈니스 프로세스를 간소화하고, 지루한 작업을 자동화하거나, 글쓰기, 디자인 또는 코딩 프로젝트를 유리하게 시작하는 데 사용할 수 있는 강력한 비즈니스 도구입니다.이러한 사이트를 차단하면 생산성과 비즈니스 민첩성도 차단됩니다.
안전한 제너레이티브 AI는 콘텐츠 생성, 이미지 합성, 데이터 증강과 같은 애플리케이션에서 활용되는 동시에 적대적 공격 및 데이터 조작으로부터 보호합니다.
안타깝게도 데이터 손실 방지 (DLP), 클라우드 액세스 보안 브로커 (CASB) 및 기타 내부자 위협 솔루션은 새로운 AI 기술의 미묘한 차이를 처리할 수 없습니다.조직에는 다음이 필요합니다. 계층화된 접근 방식 천편일률적인 솔루션에 초점을 맞추는 대신 말이죠.
DLP와 함께 사용하면 조직에서 입력 필드에 붙여넣을 수 있는 내용을 제한할 수 있습니다. 예를 들어 글자 수를 제한하거나 알려진 코드를 차단할 수 있습니다.아무도 수천 줄의 소스 코드를 수동으로 입력할 필요가 없으므로 붙여넣기 기능을 제한하면 이러한 유형의 데이터 노출을 효과적으로 방지할 수 있습니다.이로 인해 사용자는 입력하려는 정보에 대해 다시 한 번 생각하게 될 수 있습니다.
또한 조직은 문제 해결 및 사후 이벤트 분석을 지원하기 위해 추가 생성적 AI 보안 제어 (예: 이벤트 로깅 또는 브라우저 기록 시작) 를 트리거하는 보안 정책을 적용해야 합니다.내부자에 의한 침해에 대한 조사는 의도를 입증할 수 있어야 한다는 점을 기억하는 것이 중요합니다.이벤트와 브라우저 세션을 기록하면 사용자가 악의적인지 아니면 단순한 과실인지에 대한 가시성과 통찰력을 얻을 수 있습니다.
멘로 시큐리티 라스트 마일 데이터 보호 모든 브라우징 세션에 대한 웹 파일 업로드 및 사용자 입력에 대한 신뢰할 수 있는 검사를 제공합니다.이러한 보호 기능은 직원이 민감한 파일을 업로드하거나 영업 비밀 및 기타 민감한 정보를 제너레이티브 AI 솔루션에 입력하는 것을 방지합니다.
복사 및 붙여넣기 제어 및 문자 제한을 추가 보안 조치로 통합하여 대량의 데이터 유출을 방지할 수 있습니다.이러한 제어는 민감한 데이터가 외부 사이트에 노출되어 오용될 수 있는 것을 방지합니다.
또한, 멘로 브라우징 포렌식 조사팀이 마우스 클릭 및 데이터 입력과 같은 기록된 웹 세션 재생을 확인하여 최종 사용자 작업의 의도와 영향을 파악할 수 있습니다.녹화된 각 세션에는 이벤트의 지원 데이터와 한 번의 클릭으로 기록에 액세스할 수 있는 Menlo Forensics Log 항목이 있습니다.녹화된 세션은 고객이 정의한 위치로 전송되어 액세스가 제어되는 안전한 보관이 가능합니다.