웨비나:
차세대 엔터프라이즈 브라우저 보안
__wf_예약_상속

ChatGPT: 제너레이티브 AI에 대한 액세스 보안

제너레이티브 AI 플랫폼의 사용은 생산성과 혁신의 향상으로 이어졌지만, 특히 사이버 보안 및 데이터 보호와 관련하여 실질적인 우려로 이어졌습니다.보안 및 IT 팀은 제너레이티브 AI를 계속 사용할 수 있도록 하면서 데이터 손실과 피싱 공격으로부터 조직을 보호할 방법을 찾아야 합니다.

__wf_예약_데코레이션

제너레이티브 AI의 기회와 위험

OpenAI ChatGPT 최초 릴리스에서는 역사상 가장 빠르게 성장하는 플랫폼이 되었으며 단 두 달 만에 1억 명 이상의 사용자를 확보했습니다.2023년 11월로 거슬러 올라가 OpenAI는 매주 1억 명의 활성 사용자를 보유하고 있다고 발표했습니다.ChatGPT는 계속해서 전 세계의 관심을 끌고 있으며, 이는 매일 사용되고 있는 수많은 제너레이티브 AI 플랫폼 중 하나에 불과합니다.

제너레이티브 AI 플랫폼은 사람들이 일하는 방식을 바꾸고, 콘텐츠를 개선하고, 브레인스토밍을 촉진하고, 일상적인 작업을 아웃소싱하는 등 많은 것을 가능하게 합니다.이러한 기능은 조직이 생산성과 업무 품질을 높일 수 있는 기회를 제공합니다.

__wf_예약_상속

그러나 ChatGPT와 같은 제너레이티브 AI 플랫폼과 챗봇의 사용은 사이버 보안에도 상당한 영향을 미치므로 데이터의 프라이버시와 보안, 피싱 공격의 위협에 대한 의문이 제기됩니다.

피싱 공격의 위협

위협 행위자가 더 큰 규모와 속도로 회피형 위협을 개발하도록 돕는 능력 때문에 많은 사람들이 AI 도구에 대해 불안해하는 것은 당연합니다.또한 ChatGPT와 같은 플랫폼은 해커가 보다 정교하고 효과적인 피싱 공격을 감행할 수 있는 장벽을 낮췄습니다.그러나 사이버 보안 전문가들이 ChatGPT가 조직과 개인에게 미치는 위험에 대해 전 세계에 경고한 것은 옳지만, 이러한 생성적 AI 플랫폼 및 챗봇에 대한 보다 즉각적인 우려, 즉 독점 데이터 또는 기타 지적 재산권 (IP) 의 잠재적 손실에 대한 우려는 놓칠 수 있습니다.

데이터 손실 위험

직원들이 직장에서 제너레이티브 AI 도구를 사용할 때는 반드시 민감한 회사 데이터를 공유하고 노출합니다.이 데이터에는 고객 데이터, 영업 비밀, 기밀 정보 및 지적 재산이 포함될 수 있습니다.제너레이티브 AI를 사용하면 개인 데이터가 침해나 부적절한 공유와 같은 다른 데이터 손실 시나리오보다 훨씬 더 많이 노출될 수 있습니다.이는 제너레이티브 AI 플랫폼이 채팅 기록과 기타 데이터를 사용하여 모델을 학습하고 개선하기 때문입니다. 즉, 입력된 모든 데이터가 나중에 다른 사용자에게 노출될 수 있습니다.

실제 사례:
최근에 삼성 반도체 그룹의 엔지니어 그룹이 ChatGPT에 소스 코드를 입력하여 새로운 기능에 대한 코드를 더 효율적으로 만들 수 있는지 알아보았다는 보고가 있었습니다.ChatGPT 및 기타 제너레이티브 AI 도구는 입력 데이터를 보존하여 자체 학습을 진행하며, 이제 플랫폼에서 입력된 삼성 소스 코드를 사용하여 다른 사용자의 쿼리에 대한 응답을 작성할 수 있습니다.여기에는 취약점을 찾는 위협 행위자나 독점 정보를 찾는 경쟁자가 포함될 수 있습니다.

조직을 보호하기 위해 일부 회사는 제너레이티브 AI 사이트를 전면 금지했습니다. 이탈리아, ChatGPT 금지 데이터 프라이버시에 대한 우려로 전국적으로 서비스가 복원되었지만 약 한 달 후에 서비스가 복원되었습니다.제너레이티브 AI 서비스에 대한 액세스를 차단하는 것이 잠재적 보안 위험에 대한 해결책처럼 보일 수 있지만, 이는 장기적인 해결책이 아닌 빠른 해결책에 불과합니다.ChatGPT를 비롯한 수많은 제너레이티브 AI 플랫폼은 사람들이 비즈니스 프로세스를 간소화하고, 지루한 작업을 자동화하거나, 글쓰기, 디자인 또는 코딩 프로젝트를 유리하게 시작하는 데 사용할 수 있는 강력한 비즈니스 도구입니다.이러한 사이트를 차단하면 생산성과 비즈니스 민첩성도 차단됩니다.

제너레이티브 AI를 안전하게 지원

안타깝게도 데이터 손실 방지 (DLP), 클라우드 액세스 보안 브로커 (CASB) 및 기타 내부자 위협 솔루션은 새로운 AI 기술의 미묘한 차이를 처리할 수 없습니다.조직은 모든 상황에 맞는 단일 솔루션에 초점을 맞추는 대신 계층화된 접근 방식이 필요합니다.

DLP와 함께 사용하면 조직에서 입력 필드에 붙여넣을 수 있는 내용을 제한할 수 있습니다. 예를 들어 글자 수를 제한하거나 알려진 코드를 차단할 수 있습니다.아무도 수천 줄의 소스 코드를 수동으로 입력할 필요가 없으므로 붙여넣기 기능을 제한하면 이러한 유형의 데이터 노출을 효과적으로 방지할 수 있습니다.이로 인해 사용자는 입력하려는 정보에 대해 다시 한 번 생각하게 될 수 있습니다.

또한 조직은 문제 해결 및 사후 분석을 지원하기 위해 이벤트 로깅 또는 브라우저 기록 시작과 같은 추가 보안 제어를 트리거하는 보안 정책을 적용해야 합니다.내부자에 의한 보안 침해에 대한 조사는 의도를 입증할 수 있어야 한다는 점을 기억하는 것이 중요합니다.이벤트와 브라우저 세션을 기록하면 사용자가 악의적인지 아니면 단순한 부주의인지를 파악하고 파악할 수 있습니다.

왜 멘로인가?

멘로 시큐리티 라스트 마일 데이터 보호 모든 브라우징 세션에 대한 웹 파일 업로드 및 사용자 입력에 대한 신뢰할 수 있는 검사를 제공합니다.이러한 보호 기능은 직원이 민감한 파일을 업로드하거나 영업 비밀 및 기타 민감한 정보를 제너레이티브 AI 솔루션에 입력하는 것을 방지합니다.복사 및 붙여넣기 제어 및 문자 제한을 추가 보안 조치로 통합하여 대량의 데이터 유출을 막을 수 있습니다.이러한 제어는 민감한 데이터가 외부 사이트에 노출되어 오용될 수 있는 것을 방지합니다.또한 Menlo Browser Forensics를 통해 조사팀은 마우스 클릭 및 데이터 입력과 같은 웹 세션 재생을 실시간으로 확인하여 최종 사용자 작업의 의도와 영향을 파악할 수 있습니다.