IT/바이오

“AI합성 사진이 증거라고”…미국, 허위 성범죄 신고에 경종

강예은 기자
입력

생성형 인공지능 기술이 형사 사건 증거 조작의 도구로 활용된 첫 사례 중 하나가 미국에서 나왔다. 장난과 밈 문화에서 확산되던 합성 이미지가 실제 성폭행 사건의 증거로 제출되면서, 수사기관과 사법 체계가 AI 위변조 기술에 어떻게 대응해야 하는지에 대한 논의가 본격화되는 분위기다. 업계와 법조계에서는 이번 판결이 향후 디지털 증거의 신뢰성 검증과 AI 규제 논의의 분기점이 될 수 있다는 관측이 조심스럽게 제기된다.

 

영국 데일리스타 등 외신 보도에 따르면 미국 플로리다주 세인트피터즈버그에 거주하는 브룩 시놀트는 지난 10월 경찰에 전화를 걸어 한 남성이 집에 침입해 자신을 넘어뜨린 뒤 성폭행했다고 신고했다. 당시 그녀는 범행 직후 범인이 소파에 앉아 있는 모습을 찍었다며 사진 한 장을 증거로 제출했다. 사진 속 남성은 후드티를 입은 30대 정도의 백인 남성이었고, 집 거실로 보이는 공간의 소파에 앉아 있는 모습으로 연출돼 있었다.

현장 수사를 맡은 경찰은 사진에서 부자연스러운 부분을 감지했다. 수사 담당 다그니 클로저 형사는 소셜미디어에서 본 이미지와 유사하다는 직감을 갖고 역추적에 나섰다. 조사 과정에서 사진 속 인물이 틱톡 등에서 유행하는 AI 노숙자 챌린지에 반복 등장하던 인물과 동일하다는 점이 드러났고, 결국 허위 신고 정황이 확인됐다. AI 노숙자 챌린지는 전용 애플리케이션을 이용해 사용자의 집 내부 사진에 특정 노숙자 이미지를 자동 합성하는 방식으로, 이용자들이 소파나 거실 한가운데에 낯선 남성이 있는 장면을 장난삼아 공유하는 콘텐츠다.

 

클로저 형사는 “다양한 SNS와 최신 트렌드에 익숙한 편인데, 제출된 사진이 틱톡 챌린지에서 반복적으로 본 이미지와 같다는 사실을 알아챘다”며 “실제 틱톡 영상 여러 건에서 동일한 남성이 동일한 자세로 소파에 합성돼 있었다”고 설명했다. 경찰은 사진의 메타데이터와 온라인 유통 이력을 검토해 이미지가 카메라 촬영이 아니라 AI 기반 합성으로 생성됐다는 점을 추가로 확인했다.

 

시놀트는 처음에는 흐릿하게 찍힌 실제 용의자 사진을 AI로 보정해 선명하게 만든 것이라고 진술했지만, 수사 당국이 AI 챌린지 출처와 동일 이미지를 제시하자 진술을 번복했다. 그녀는 우울증과 불면증을 겪어왔으며 주변의 관심을 받고 싶었다고 동기를 털어놨다. 조사에서는 구글 검색과 챗지피티 등 AI 서비스를 활용해 합성 이미지를 확보하거나 수정한 정황도 드러난 것으로 전해졌다. 수사 과정에서 챗지피티가 직접 이미지를 생성했는지, 외부 이미지 생성 앱과의 연동을 통해 편집이 이뤄졌는지는 구체적으로 공개되지 않았다.

 

법원은 시놀트에게 허위 신고 혐의를 적용해 유죄를 선고하고 벌금과 보호관찰 처분을 내렸다. 플로리다주 형법에서 허위 범죄 신고 행위는 1급 경범죄에 해당하며, 최대 1년 징역 또는 12개월 보호관찰, 최대 1000달러 수준의 벌금형이 가능하다. 수사기관 입장에서는 성범죄 신고가 통상 높은 우선순위로 처리되는 만큼, 자원이 허위 사건에 소모된 데 따른 부담이 적지 않다.

 

이번 사건은 생성형 AI 기술의 특성이 형사사법 시스템에 던지는 구조적 부담을 상징적으로 보여주는 사례로 받아들여진다. 텍스트 명령만으로 사진과 거의 구분되지 않는 이미지를 만들어내는 생성형 AI는 합성 여부를 육안으로 판별하기 점점 어려워지는 단계에 들어섰다. 단일 프레임 사진만 제출되는 경우, 촬영 기기 정보나 원본 파일 없이도 온라인에서 떠도는 AI 밈 이미지가 실제 범행 사진인 것처럼 포장될 수 있다는 점도 드러났다.

 

미국과 유럽에서는 최근 몇 년간 딥페이크 기술을 활용한 성범죄 합성물 제작, 유명인 이미지 도용 사례가 늘면서 입법과 규제 논의가 속도를 내고 있다. 다만 대부분이 초상권과 성적 수치심 침해를 겨냥한 입법에 집중돼 있어, 이번 사례처럼 형사 사건의 증거 조작 수단으로 AI가 쓰이는 경우를 직접 겨냥한 법제는 아직 초기 단계에 머물러 있다. 한국 역시 디지털 위변조 방지 기술과 전자증거법 개정 논의가 진행 중이지만, 생성형 AI의 고도화를 전제로 한 정교한 가이드라인 마련은 과제로 남아 있다.

 

전문가들은 수사기관과 사법부가 AI 활용 디지털 증거 관리 체계를 조정해야 할 시점에 접어들었다고 지적한다. 촬영 시점과 기기 정보가 연계된 원본 파일 제출, 수사 단계에서 메타데이터 검증 의무 강화, 이미지 위변조 탐지 알고리즘 도입 등이 거론된다. 동시에 경찰과 검사, 판사를 대상으로 한 AI 포렌식 교육도 필수 과제로 꼽힌다. 미국, 유럽 주요국에서는 딥페이크 탐지 스타트업과 수사기관 간 협력 사례가 늘고 있으며, 클라우드 기반 포렌식 도구를 활용해 증거 이미지와 영상을 자동 분석하려는 시도도 진행 중이다.

 

업계에서는 생성형 AI 기술을 전면적으로 통제하기보다 악용을 줄이는 방향의 기술적·제도적 안전장치를 병행해야 한다는 목소리가 나온다. 워터마크 삽입, 생성 이미지 메타데이터 표준화, 플랫폼 차원의 합성물 표시 기능 같은 기술적 수단과 함께, 허위 신고와 증거 조작에 대한 처벌 기준을 명확히 하는 방향의 법제 개선이 필요하다는 지적이다. AI를 둘러싼 표현의 자유, 프라이버시, 공적 자원 배분 문제까지 얽혀 있어 단일 해법은 나오기 어렵지만, 실제 사건에서 피해와 혼란이 현실화된 만큼 논의 속도가 빨라질 것으로 보인다.

 

사건 자체는 개인의 일탈로 끝날 수 있지만, 디지털 환경에서 AI와 사법 시스템이 만나는 접점의 취약성을 드러냈다는 점에서 파장이 적지 않다. 산업계와 수사기관, 입법기관이 어떻게 협력하느냐에 따라 향후 생성형 AI 시대의 신뢰 가능한 증거 체계가 구축될지 여부가 결정될 수 있다. 결국 기술과 윤리, 산업과 제도 간 균형을 맞추는 작업이 디지털 정의 구현의 새로운 조건이 되고 있다.

강예은 기자
share-band
밴드
URL복사
#브룩시놀트#ai노숙자챌린지#챗지피티