IT/바이오

“국감장서 딥페이크 논란”…과기부, AI 가짜뉴스 대응체계 촉구

배주영 기자
입력

딥페이크 영상 기술이 정보통신 정책 현장에서도 실제 혼란을 불러왔다. 13일 열린 과학기술정보통신부 국정감사에서 배경훈 부총리 겸 장관을 대상으로 한 딥페이크 동영상이 자막 없는 상태로 시연되며, 국민 혼동과 오해 소지가 도마 위에 올랐다. 국정감사 현장의 영상 활용은 관련 문제의 경각심을 부각하기 위한 의도였으나, 명확한 딥페이크 표시 없이 재생돼 논란을 자초했다. 업계와 정책 당국 모두 ‘AI 가짜뉴스’ 확산 대응이 실전 이슈임을 체감한 계기가 됐다.

 

딥페이크 기술은 인공지능 기반의 음성·이미지 합성 정확도가 크게 향상되며, 사실과 허위 정보를 획별하기 어려운 수준까지 발전하고 있다. 실제 이날 시연된 영상에는 배경훈 부총리와 이춘석 의원이 만났다는 조작된 대화 내용, 변조된 음성 등이 현실성 있게 삽입됐다. 영상 속 인물의 얼굴과 목소리가 실제와 구별하기 어려울 정도로 재현되었고, 이는 기존 단순 편집 조작과 달리 고도화된 AI 합성 엔진의 결과라는 지적이 나온다.

딥페이크 영상이 문제시되는 결정적 이유는 객관적 진위 판단이 쉽지 않아, 대중이 사실로 오인할 위험이 높다는 점이다. 배 부총리는 “국감중 영상이 사실로 오해될 수 있다”며 정보 왜곡 가능성을 직접 지적했다. 전문가들은 영상 위·변조 여부 구분이 일반 사용자의 눈으로는 불가능한 단계에 이르렀다고 분석한다.

 

딥페이크 기반 가짜뉴스 확산은 내년 지방선거 등 정치 이슈와 맞물려 위협을 키울 가능성도 있다. 김장겸 의원은 “AI로 만든 가짜뉴스가 선거 국면에 훨씬 위협적 도구로 활용될 우려가 있다”고 강조했으며, 이미 미국·유럽 등에서도 관련 이슈가 제도권 논의로 옮겨지는 중이다.

 

AI로 생성되는 허위 정보 확산에 대응하기 위한 협업 시스템 부재, 미비한 대응 조직도 현장에서 도마에 올랐다. 이에 배경훈 부총리는 “AI 안전신뢰정책과, AI 안전신뢰지원과 등 2개 전문 조직이 올해 신설됐다”며 “AI 산업 진흥 못잖게 신뢰와 안전 확립이 우선”이라고 말했다. 실제 국내외에선 AI 합성 콘텐츠 표기 의무, 인증 마크 도입, 기술적 워터마크 부착 등 다양한 대책이 논의 중이며, 법적·제도적 정비와 교육 등 다층적 대응이 필요하다는 진단이다.

 

딥페이크 이슈는 AI 플랫폼 시장 주도권 문제와도 연결돼 있다. GPU(그래픽처리장치) 등 핵심 인프라에 대한 해외 의존이 높다는 점, 국내 팹리스 반도체(NPU) 기술 개발의 필요성 등도 이날 지적됐다. 전문가들은 “AI 산업 진흥과 안전·신뢰 확보, 가짜뉴스 차단 등 다층적 균형이 시장 성장의 필수 조건”이라면서 “기술 대응·인프라 자립·윤리 규범 등이 병행돼야 한다”고 조언한다.

 

산업계는 딥페이크 및 AI 가짜뉴스 대응체계 정립이 정책·시장 양면에서 산업의 신뢰도를 좌우할 핵심 변수로 보고 있다. AI 기술 고도화와 더불어 법·제도, 사회 인식 구조 개편이 병행돼야 한다는 지적도 있다. 전문가들은 “기술과 윤리, 산업과 제도 간 균형이 새로운 성장의 조건이 되고 있다”고 평가했다.

배주영 기자
share-band
밴드
URL복사
#배경훈#딥페이크#ai안전신뢰정책과