IT/바이오

AI 데이터 지킨다…파수, AI R DLP 고도화로 공공 보안 공략

김서준 기자
입력

생성형 인공지능 활용이 기업과 공공기관 전반으로 확산하면서, 대화형 서비스에 입력되는 민감정보를 어떻게 통제할지가 보안 업계 핵심 화두로 떠오르고 있다. 보안 소프트웨어 기업 파수가 서비스형 AI 환경에 특화된 데이터 유출 방지 솔루션을 고도화해 출시하며 이런 수요 대응에 나섰다. 특히 국가 망 보안체계로 불리는 N2SF 정책 요구사항을 제품에 반영해, 공공 부문 생성형 AI 도입 논의에도 영향을 줄 수 있는 흐름으로 해석된다.

 

파수는 17일 서비스형 AI 사용을 위한 민감정보 관리 솔루션 AI R DLP 신규 버전을 공개했다. 이번 버전은 대화형 생성형 AI 서비스 사용 과정에서 노출될 수 있는 개인정보와 조직 고유의 기밀 데이터를 사전에 검출하고, 보안 정책에 따라 차단·경고·로깅 등 통제를 수행하는 기능을 강화했다. 특히 공공기관과 국방 분야에서 요구되는 N2SF 보안 정책을 반영해, 공공 망 환경에서도 생성형 AI 연계 사용을 전제로 한 데이터 보호 체계를 구현하도록 설계했다.

기술적으로는 AI 기반 자연어 처리와 파수의 딥러닝 모델을 결합해 기존 정규식 중심 탐지 방식의 한계를 보완한 점이 특징으로 꼽힌다. 주민등록번호나 계좌번호처럼 형식이 고정된 정보뿐 아니라, 자유로운 문장 속에 섞여 있는 이름, 주소, 직함 등 다양한 개인정보를 문맥 수준에서 식별할 수 있도록 했다. 단순 키워드 매칭이 아닌 문장 의미를 해석해 민감성 여부를 판별하는 구조로, 비정형 텍스트 데이터에 대한 탐지 정확도를 끌어올렸다는 설명이다.

 

조직의 제품 로드맵, 설계 문서, 미공개 영업 전략처럼 정형화하기 어려운 기밀 정보도 별도 정책으로 정의해 검출할 수 있도록 한 점도 차별화 요소다. 파수는 자사 대규모 언어 모델 기술을 활용해, 고객사가 지정한 도메인별 기밀 정보 특징을 학습시키고, 실제 사용자가 챗봇에 입력하는 자연어 문맥 속에서 이러한 정보를 광범위하게 찾아내도록 구현했다. 사용자는 부서별·업무별로 민감도 기준을 세분화해 정책을 구성할 수 있어, 과도한 차단으로 인한 업무 저해를 줄이면서도 핵심 정보만 선별적으로 통제하는 운영이 가능해진다.

 

시장 측면에서 보면, 이번 AI R DLP 고도화는 생성형 AI를 내부 업무에 도입하려는 기업과 공공기관이 가장 우려하는 정보 유출 리스크를 정면 겨냥한 것으로 해석된다. 최근 국내외에서는 챗봇 서비스에 소스코드, 계약서, 미공개 자료를 그대로 입력했다가 외부로 재사용될 수 있다는 우려가 제기돼 왔다. AI R DLP는 사용자가 브라우저나 전용 클라이언트를 통해 챗봇에 메시지를 입력하는 단계에서 해당 내용을 분석하고, 유출 위험이 높다고 판단되면 전송을 차단하거나 마스킹 처리하도록 설계돼 있다. 실제 도입 시 개발, 재무, 인사 등 각 부문에서 생성형 AI를 활용하더라도 핵심 자산이 외부 서비스로 넘어갈 확률을 낮출 수 있다는 점에서, AI 도입의 심리적·보안적 장벽을 낮추는 역할을 할 것으로 보인다.

 

글로벌 시장에서는 이미 생성형 AI 보안, 이른바 AIGS AI Generated Security 영역을 겨냥한 솔루션 경쟁이 본격화된 상황이다. 미국과 유럽에서는 클라우드 기반 DLP, 브라우저 보안, 프록시형 접근제어 솔루션에 생성형 AI 트래픽 분석 기능을 붙이는 방식으로 시장을 넓히고 있다. 파수는 국내 환경에 특화된 N2SF 반영, 한국어 문맥에 최적화된 LLM 기반 분석 능력을 내세워 차별화를 시도하고 있다. 특히 공공 조달 시장과 규제가 엄격한 금융·제조 분야에서는, 국내 규제와 표준을 선제적으로 반영한 제품이 선택받을 가능성이 크다는 평가도 나온다.

 

규제·정책 측면에서 N2SF는 공공기관의 인터넷 분리, 외부 서비스 접근 통제, 데이터 이동 규칙 등을 포괄하는 보안 체계로, 생성형 AI 활용 논의에서 가장 높은 장벽으로 거론돼 왔다. 공공 영역에서 외부 AI 서비스 활용을 검토하려면, N2SF 정책에 부합하는 데이터 검출·통제·감사 체계가 필수라는 인식이 확산되고 있다. 파수가 N2SF 정책을 AI R DLP에 반영했다고 밝힌 것은, 향후 공공기관이 제한적 범위에서라도 생성형 AI를 활용할 수 있는 기술적 기반을 우선 제시하겠다는 전략으로 볼 수 있다. 다만 실제 제도화와 가이드라인 수립은 관계 부처 협의와 추가 검증이 필요한 만큼, 단계적 도입 시나리오가 거론될 전망이다.

 

파수는 AI R DLP 외에도 구축형 LLM 플랫폼 Ellm, AI 기반 개인정보보호 솔루션 AI R Privacy 등으로 AI 보안 포트폴리오를 넓히는 중이다. 기업 내부에 전용 LLM을 구축해 폐쇄망에서만 운영하거나, 사내 데이터를 학습한 전용 챗봇을 사용하는 시나리오가 빠르게 늘어나는 만큼, 데이터 거버넌스와 보안 통제를 묶은 플랫폼형 제안이 가능해진다. 특히 개인정보 비식별화, 접근 통제, 로그 감사 등 기존 컴플라이언스 요소를 AI 활용 환경에 맞게 재정비하려는 수요도 커지고 있어, AI R DLP와 다른 솔루션 간 연동을 강화하는 전략이 병행될 것으로 보인다.

 

고동현 파수 상무는 AI R DLP가 AI 활용 과정에서 걸림돌로 지적된 민감정보 유출 우려를 줄여, 기업과 공공기관이 보다 공격적으로 AI 혁신에 나설 수 있도록 돕겠다고 강조했다. 업계에서는 생성형 AI를 둘러싼 기술 도입 속도가 제도와 보안 체계 정비 속도보다 빠른 상황에서, 이번과 같은 맥락 기반 데이터 보호 기술이 실제 시장 안착 여부를 가르는 변수가 될 수 있다고 본다. 산업계는 새로운 AI 보안 기술이 공공과 민간 현장에 얼마나 빠르게 스며들지, 그리고 보안 규제와 AI 혁신 사이에서 어떤 균형점을 찾게 될지 주시하고 있다.

김서준 기자
share-band
밴드
URL복사
#파수#air_dlp#n2sf