IT/바이오

“AI 딥페이크 규제 강화”…정부, 신뢰제도 마련 시동 걸다

오승현 기자
입력

AI 딥페이크 기술 확산이 과학기술 정책의 새 전환점이 되고 있다. 국회 국정감사장에서 심각한 조작 위험성이 실시간 시연되며, 정부는 산업 육성과 윤리 규제를 동시에 강화하는 방향 전환에 나설 예정이다. 최근 과학기술정보방송통신위원회 국감에서는 모달 AI(영상합성형 AI)로 실존 인물의 음성과 영상을 조작하는 과정을 직접 보여주며 AI 악용 리스크가 부각됐다. 배경훈 과기정통부 부총리 역시 AI 기술의 급속 성장과 함께 사회적 신뢰와 통제 기반 마련의 필요성을 역설했다.

 

AI 딥페이크 기술은 인공지능이 대규모 데이터 학습을 통해 실제 인물의 음성, 표정, 움직임 등을 모방해 가짜 영상을 합성하는 알고리즘이다. 고해상도 이미지·음성 합성, 신경망(딥러닝) 기반 생성모델 등 첨단 기술을 접목해 진위 식별이 점점 어려워지고 있다. 특히 선거와 정보전, 사회적 여론 조작 등에 악용될 경우 민주주의 기반 자체를 흔들 수 있다는 우려가 재확인됐다. 기존 영상 편집 방식과 비교해 제작 속도와 접근성이 압도적으로 높아지는 것이 차별점이다.

AI 딥페이크는 일반 사용자가 접근 가능한 웹 기반 플랫폼부터 국가, 기업 대상을 노리는 고도화된 가짜뉴스까지 적용 폭이 넓다. 이에 따라 정부·의회는 산업 진흥 정책 뿐 아니라 부정 정보 유통 차단, 예방적 방어 투자의 확대가 필수라는 입장이다. 업계 관계자들 역시 AI 콘텐츠 생성이 일상화된 만큼, 신뢰 기반 기술과 법제 개선이 양립해야 한다고 본다.

 

글로벌 시장에서도 미국, 유럽을 중심으로 ‘AI 윤리·투명성 법제’ 경쟁이 본격화됐다. EU AI Act 등 국제규범은 생성형 AI의 투명성, 책임·표시 의무를 구체적으로 요구하는 흐름이다. 주요 IT 기업들은 합성영상 탐지 솔루션, 생성 AI의 악용 방지 알고리즘 내재화 등 자율 대응책 개발에 주력하고 있다.

 

국내에서는 과기정통부가 2026년까지 AI 기술 투자 예산을 5조원 이상으로 늘리지만, 실제 신뢰 확보와 악용 방지 분야에 대한 투입 자금 비중이 낮다는 지적도 같이 나왔다. 이에 대해 배경훈 부총리는 “AI 기본법에 안전성과 신뢰성 조항을 강화하고, 딥페이크 방지 기술 R&D도 AI안전연구소 중심으로 확대하겠다”고 밝혔다. 동시에 AI 윤리 확립, 부정 콘텐츠 탐지 및 신속 삭제 등 제도적 대책도 병행할 예정임을 시사했다.

 

전문가들은 “AI 진흥과 규제, 기술과 제도 사이 균형점이 한국 산업 경쟁력의 핵심 변수가 될 것”이라며, 실효적 규제 체계와 윤리적 책임이 동시에 마련돼야 한다고 강조하고 있다. 산업계는 앞으로 AI 딥페이크 규제와 신뢰 기술이 실제 시장과 법제 현장에 어떻게 안착할지 예의주시하고 있다.

오승현 기자
share-band
밴드
URL복사
#배경훈#ai딥페이크#윤리규제