“AI가 만든 딥페이크 군무원증”…北 김수키, 첨단 해킹 위협에 경보
생성형 인공지능(AI)이 보안 위협의 새로운 도구로 부상하고 있다. 북한 연계 해커조직 김수키(Kimsuky)가 오픈AI 챗GPT 등 생성AI로 만든 가짜 군무원증 이미지를 활용해 우리 군 관련 기관을 해킹하려 한 정황이 최근 확인됐다. 지니언스 시큐리티센터는 본보에 7월 포착된 김수키의 최신 공격 사례를 공개하며, 유사 공격의 확산 가능성을 경고했다. 업계는 이번 공격을 “AI 활용 사회공학 기반 해킹”의 분기점으로 본다.
김수키는 최근 군 기관을 사칭한 피싱 이메일을 통해 공격을 시도했다. 이메일에는 ‘신분증 발급 검토 요청’이란 제목과 함께 위조 군무원증 이미지, 그리고 악성 실행파일이 포함된 압축파일이 첨부됐다. 이 압축파일에는 사용자가 실행할 경우 해커의 서버와 은밀하게 연결되는 명령어가 포함된 바로가기(LNK) 파일이 숨겨져 있었다. 지니언스 조사에 따르면 이번에 활용된 군무원증 이미지는 챗GPT 등 생성형 AI가 제작에 사용된 흔적이 메타데이터에서 확인됐고, 딥페이크 판별 서비스로 분석한 결과 합성 이미지일 확률이 98% 이상으로 나타났다.

특히 AI 모델을 이용한 위조 신분증 제작은 전통적인 이미지 조작을 뛰어넘어, 실제 눈으로 구분하기 어려운 수준에 이르렀다. 기존에는 포토샵 등의 수작업이 필요했으나, 생성형 AI의 도입으로 합성 이미지 생성이 빠르고 정교해졌다. 이번 공격 사례처럼 AI 기반 딥페이크가 사회공학(Social Engineering) 기법과 결합할 경우 사용자의 경계심을 무력화할 위험이 커지는 셈이다.
피싱 이메일에 동봉된 LNK 파일은 사용자가 실수로 실행하면 악성 프로그램을 추가로 내려받는 기능을 갖춘 전형적 ‘지능형지속위협(APT)’ 방식이 적용됐다. 해커는 명령어를 복잡하게 구성(난독화)해 탐지를 어렵게 했으며, 정식 소프트웨어로 위장해 공격의 흔적을 숨겼다. 전문가들은 이러한 방식이 한국군 등 국가 기반시설을 겨냥한 새로운 시도가 될 수 있다고 우려한다.
글로벌 보안 업계에서는 생성AI 및 딥페이크 활용 사이버 공격이 기술 격차 없는 무차별 위협 형태로 확산되고 있다고 본다. 미국, 유럽 등에서는 합성신분증, 위조문서 등 AI 기반 공격에 대응하기 위한 별도의 인증 기술과 제도 논의가 활발하다. 국내에서는 아직 AI 활용 범죄에 대한 명확한 규제 장치가 부족한 상황으로 지적된다.
지니언스에 따르면 챗GPT 등 AI 모델은 법적으로 보호받는 신분증 제작 요청에는 통상 거부 답변을 내놓지만, 프롬프트(지시어) 설계 방식이나 역할 설정(페르소나)에 따라 응답이 달라질 수도 있다. 즉, 직접 복제 대신 시안(Mock-up) 제작 등으로 우회 가능성이 있다는 설명이다. 국내법상 군무원증 등 공적 신분증 제작은 엄격히 금지돼 있으며, 이에 기반한 위조는 처벌 대상이다.
보안 전문가는 “AI를 활용한 신분증 위조는 기술적 난이도가 낮고 대량 생산이 용이하다”며 “향후 정부기관, 기업, 금융권 등에서도 유사 위협이 확산될 가능성을 경계해야 한다”고 말했다. 산업계는 이번 사례가 실제 시장과 공공망에 추가 침투 경로를 마련할지 예의주시하는 분위기다. 기술 진화와 사이버 보안, 제도적 대응의 조화가 산업계 전반의 새로운 과제로 부상하고 있다.