Upcoming Webinar
Navigating Your Zero Trust Journey: Key Consideration and Best Practice for 2025
Icon Rounded Closed - BRIX Templates

ChatGPT: 제너레이티브 AI에 대한 액세스 보안

제너레이티브 AI 플랫폼의 사용은 생산성과 혁신의 향상으로 이어졌지만, 특히 사이버 보안 및 데이터 보호와 관련하여 실질적인 우려로 이어졌습니다.보안 및 IT 팀은 제너레이티브 AI를 계속 사용할 수 있도록 하면서 데이터 손실과 피싱 공격으로부터 조직을 보호할 방법을 찾아야 합니다.

__wf_예약_데코레이션

제너레이티브 AI의 보안 위험

OpenAI ChatGPT 최초 릴리스에서는 역사상 가장 빠르게 성장하는 플랫폼이 되었으며 단 두 달 만에 1억 명 이상의 사용자를 확보했습니다.2023년 11월로 거슬러 올라가 OpenAI는 매주 1억 명의 활성 사용자를 보유하고 있다고 발표했습니다.ChatGPT는 계속해서 전 세계의 관심을 끌고 있으며, 이는 매일 사용되고 있는 수많은 제너레이티브 AI 플랫폼 중 하나에 불과합니다.

제너레이티브 AI 플랫폼은 사람들이 일하는 방식을 바꾸고, 콘텐츠를 개선하고, 브레인스토밍을 촉진하고, 일상적인 작업을 아웃소싱하는 등 많은 것을 가능하게 합니다.이러한 기능은 조직이 생산성과 업무 품질을 높일 수 있는 기회를 제공합니다.

__wf_예약_상속

그러나 ChatGPT와 같은 제너레이티브 AI 플랫폼과 챗봇의 사용은 사이버 보안에도 상당한 영향을 미치므로 데이터의 프라이버시와 보안, 피싱 공격의 위협에 대한 의문이 제기됩니다.

피싱 공격의 위협

위협 행위자가 더 큰 규모와 속도로 회피형 위협을 개발하도록 돕는 기능 때문에 생성 AI 도구에 대해 불안해하는 사람은 많습니다.또한 ChatGPT와 같은 플랫폼은 해커가 보다 정교하고 효과적인 피싱 공격을 감행할 수 있는 장벽을 낮췄습니다.그러나 사이버 보안 전문가들이 ChatGPT가 조직과 개인에게 미치는 위험에 대해 전 세계에 경고한 것은 옳지만, 이러한 생성적 AI 플랫폼 및 챗봇에 대한 보다 즉각적인 우려, 즉 독점 데이터 또는 기타 지적 재산권 (IP) 의 잠재적 손실에 대한 우려는 놓칠 수 있습니다.

데이터 손실 위험

직원이 직장에서 제너레이티브 AI 도구를 사용할 때 의도치 않게 민감한 회사 데이터를 공유하고 노출할 수 있습니다.이 데이터에는 고객 데이터, 영업 비밀, 기밀 정보 및 지적 재산이 포함될 수 있습니다.

에서 최근 보고서, Menlo Security는 직원들이 민감한 기밀 정보를 생성형 AI 플랫폼에 입력하려고 시도하는 빈도를 분석했습니다.30일 동안 DLP 이벤트의 55% 에는 개인 식별 정보가 포함되었습니다.이러한 조직에서는 이러한 인스턴스를 차단하는 Menlo Security를 운영하고 있습니다.

제너레이티브 AI를 사용하면 보안 및 개인 데이터가 침해나 부적절한 공유와 같은 다른 데이터 손실 시나리오보다 훨씬 더 많이 노출될 수 있습니다.이는 제너레이티브 AI 플랫폼이 채팅 기록과 기타 데이터를 사용하여 모델을 학습하고 개선하기 때문입니다. 즉, 입력된 모든 데이터가 나중에 다른 사용자에게 노출될 수 있습니다.

실제 사례:
최근에 삼성 반도체 그룹의 엔지니어 그룹이 ChatGPT에 소스 코드를 입력하여 새로운 기능에 대한 코드를 더 효율적으로 만들 수 있는지 알아보았다는 보고가 있었습니다.ChatGPT 및 기타 제너레이티브 AI 도구는 입력 데이터를 보존하여 자체 학습을 진행하며, 이제 플랫폼에서 입력된 삼성 소스 코드를 사용하여 다른 사용자의 쿼리에 대한 응답을 작성할 수 있습니다.여기에는 취약점을 찾는 위협 행위자나 독점 정보를 찾는 경쟁자가 포함될 수 있습니다.

제너레이티브 AI를 보호하려면 어떻게 해야 할까요?

조직을 보호하기 위해 일부 회사는 제너레이티브 AI 보안 위험으로 인해 제너레이티브 AI 사이트를 전면 금지했습니다. 이탈리아, ChatGPT 금지 데이터 프라이버시에 대한 우려로 전국적으로 서비스가 복원되었지만 약 한 달 후에 서비스가 복원되었습니다.제너레이티브 AI 서비스에 대한 액세스를 차단하는 것이 잠재적 보안 위험에 대한 해결책처럼 보일 수 있지만, 이는 장기적인 해결책이 아닌 빠른 해결책에 불과합니다.ChatGPT를 비롯한 수많은 제너레이티브 AI 플랫폼은 사람들이 비즈니스 프로세스를 간소화하고, 지루한 작업을 자동화하거나, 글쓰기, 디자인 또는 코딩 프로젝트를 유리하게 시작하는 데 사용할 수 있는 강력한 비즈니스 도구입니다.이러한 사이트를 차단하면 생산성과 비즈니스 민첩성도 차단됩니다.

안전한 제너레이티브 AI의 사용 사례는 무엇인가요?

안전한 제너레이티브 AI는 콘텐츠 생성, 이미지 합성, 데이터 증강과 같은 애플리케이션에서 활용되는 동시에 적대적 공격 및 데이터 조작으로부터 보호합니다.

제너레이티브 AI를 안전하게 지원

안타깝게도 데이터 손실 방지 (DLP), 클라우드 액세스 보안 브로커 (CASB) 및 기타 내부자 위협 솔루션은 새로운 AI 기술의 미묘한 차이를 처리할 수 없습니다.조직에는 다음이 필요합니다. 계층화된 접근 방식 천편일률적인 솔루션에 초점을 맞추는 대신 말이죠.

DLP와 함께 사용하면 조직에서 입력 필드에 붙여넣을 수 있는 내용을 제한할 수 있습니다. 예를 들어 글자 수를 제한하거나 알려진 코드를 차단할 수 있습니다.아무도 수천 줄의 소스 코드를 수동으로 입력할 필요가 없으므로 붙여넣기 기능을 제한하면 이러한 유형의 데이터 노출을 효과적으로 방지할 수 있습니다.이로 인해 사용자는 입력하려는 정보에 대해 다시 한 번 생각하게 될 수 있습니다.

또한 조직은 문제 해결 및 사후 이벤트 분석을 지원하기 위해 추가 생성적 AI 보안 제어 (예: 이벤트 로깅 또는 브라우저 기록 시작) 를 트리거하는 보안 정책을 적용해야 합니다.내부자에 의한 침해에 대한 조사는 의도를 입증할 수 있어야 한다는 점을 기억하는 것이 중요합니다.이벤트와 브라우저 세션을 기록하면 사용자가 악의적인지 아니면 단순한 과실인지에 대한 가시성과 통찰력을 얻을 수 있습니다.

Menlo를 사용하여 제너레이티브 AI를 보호하는 이유는 무엇일까요?

멘로 시큐리티 라스트 마일 데이터 보호 모든 브라우징 세션에 대한 웹 파일 업로드 및 사용자 입력에 대한 신뢰할 수 있는 검사를 제공합니다.이러한 보호 기능은 직원이 민감한 파일을 업로드하거나 영업 비밀 및 기타 민감한 정보를 제너레이티브 AI 솔루션에 입력하는 것을 방지합니다.

복사 및 붙여넣기 제어 및 문자 제한을 추가 보안 조치로 통합하여 대량의 데이터 유출을 방지할 수 있습니다.이러한 제어는 민감한 데이터가 외부 사이트에 노출되어 오용될 수 있는 것을 방지합니다.

또한, 멘로 브라우징 포렌식 조사팀이 마우스 클릭 및 데이터 입력과 같은 기록된 웹 세션 재생을 확인하여 최종 사용자 작업의 의도와 영향을 파악할 수 있습니다.녹화된 각 세션에는 이벤트의 지원 데이터와 한 번의 클릭으로 기록에 액세스할 수 있는 Menlo Forensics Log 항목이 있습니다.녹화된 세션은 고객이 정의한 위치로 전송되어 액세스가 제어되는 안전한 보관이 가능합니다.

제너레이티브 AI를 안전하게 사용할 수 있습니다.