“AI 위험 막는다”…정부, 연내 AI 안전 생태계 종합계획 추진
인공지능(AI) 안전 확보 기술이 IT·바이오 산업의 핵심 쟁점으로 부상하고 있다. 국내 정부 차원에서 AI안전연구소를 설립, 딥페이크 등 AI 악용 피해 차단을 목표로 연구와 정책 협력을 본격화하는 가운데, 글로벌 산업 규제 경쟁에도 가속도가 붙고 있다. 업계는 이번 논의를 ‘AI 신뢰성 경쟁의 분수령’으로 해석한다.
과학기술정보통신부는 23일 배경훈 부총리 겸 장관이 AI안전연구소에서 산·학·연 전문가들과 간담회를 개최했다고 밝혔다. 이번 행사는 딥페이크 악용 증가, 범용인공지능(AGI)과 차세대 AI 에이전트 등장에 따른 새로운 안전 위협 대응이 목표다. AI안전연구소는 2024년 설립 이후 ▲딥페이크 탐지 ▲미래형 AI 위험 연구 ▲AI 안전성 평가 및 정책 개발 ▲글로벌 협업 등 `AI 위험 선제 차단`에 집중해왔다.

딥페이크 방지 및 AI 에이전트 신뢰성 확보는 기술적 핵심이다. 연구소는 실제 목소리·영상을 합성해 만들어낸 데이터를 AI가 탐지·구분하는 알고리즘을 강화하고 있다. 또 AI가 실시간 판단·행동하는 ‘에이전트’ 특유의 불확실성 문제도, 일관된 검증체계로 단계별 위험을 평가하는 데 주력한다. 예를 들어 기존 탐지기법 대비 조작 이미지 판별 성공률을 15%p 이상 끌어올린 시도 등이 논의됐다.
활용 맥락 역시 확대된다. 딥페이크 탐지 기술은 미디어, 사기방지, 헬스케어 등 국민 안전과 직접 연결된다. 에이전트 신뢰도 진단은 IT서비스, 제조, 공공행정 등 전 산업에 파급될 전망이다. 네이버, LG AI연구원, SK텔레콤, 카카오 등 주요 기업도 시연과 실증 사업에 동참하며, 실효성 검증에 힘을 실었다.
글로벌 비교도 활발하다. 영국, 미국, 일본 등은 2023년부터 AI안전연구소 설립 등 제도·기술 대응을 병행 중이다. 한국 역시 2024년 국내 연구소를 기반으로 정책·기술 조기 내재화에 속도를 내고 있다. 전문가들은 “글로벌 AI 규제와 윤리 프레임이 산업 경쟁력의 주요 변수”라고 강조한다.
정책·제도 측면에선 국가 차원의 ‘AI 안전 생태계 조성 종합계획’ 마련 논의가 촉진되고 있다. 식약처·과기정통부 등 유관기관 협력을 기반으로 현재 딥페이크·에이전트 관련 안전기준, 데이터 보호지침, 긴급 대응 매뉴얼 등도 다각도로 검토 중이다.
배 부총리는 “국민이 안심하고 사용할 수 있는 AI는 AI 공존 사회의 첫 걸음”이라며 “관계부처, 산업, 연구계 협업으로 올해 내 종합계획을 내놓겠다”고 밝혔다. 업계는 이번 기술 및 정책적 논의에 따라 시장 내 신뢰도 회복과 글로벌 기준 선점 여부가 판가름날 것으로 보고 있다.
산업계는 이번 기술이 실제 시장에 안착할 수 있을지 주시하고 있다.
