IT/바이오

“AI 인증 체계로 신뢰 확보”…정부, 안전기준 강화 본격화

전민준 기자
입력

AI 신뢰성과 안전이 전 산업의 뉴노멀로 부상하고 있다. 인공지능(AI) 해킹 등 사이버 리스크가 본격화될 수 있다는 우려가 커지면서, 인증 기반의 신뢰체계와 딥페이크 탐지 기술 등이 규제 환경의 핵심 쟁점으로 부각된다. 과학기술정보통신부는 23일 서울 AI안전연구소에서 산·학·연 전문가 간담회를 열고, 인증 중심 AI 안전 생태계 구축을 공식화했다. 업계는 내년 AI 기본법 시행을 기점으로 ‘AI 신뢰 경쟁’이 본격화된다고 본다.

 

이번 간담회에서는 AI 해킹 리스크와 기술 발전의 괴리가 안전 거버넌스의 주요 이슈로 제기됐다. 배경훈 과학기술정보통신부 장관은 “AI 발전 속도가 너무 빠르다. 단순 가이드라인만으론 대응이 어렵다”며 “AI 안전연구소가 인증 신뢰체계의 중심이 돼야 한다”고 언급했다. 실제 AI안전연구소는 현재 이미지, 영상, 음성에 적용 가능한 멀티모달 딥페이크 탐지 기술을 개발 중이다. 김명주 AI안전연구소장은 “AI 기본법 아래 민간 주도의 인증과 평가를 TTA 협력 하에 컨소시엄화하고 있다”고 설명했다.

특히 앞으로의 핵심은 ‘AI 인증’과 ‘비가시적(인비저블) 워터마크’ 등 기술적 대응 역량이다. 이상호 AI 세이프티·퀄리티 성과리더는 “AI가 만든 이미지·영상에 워터마크만 주입해선 효과가 한계적”이라며 “법이 실효성을 갖기 위해선 감지 기술의 고도화가 필수”라고 밝혔다. 빠른 기술 혁신에 맞춘 유연한 법제도 역시 요구된다. KT 배순민 책임있는AI센터장은 “오늘의 기준이 내일 바뀔 정도로 기술 변화가 빠르다. 실시간 업데이트가 국가적 과제”라고 진단했다.

 

안전 취약점 검증을 위한 AI 레드팀 구축이나 공격적 실험-공개 방식도 논의됐다. 최대선 숭실대 센터장은 “플레이그라운드 도입을 통해 취약점을 실전 검증하고 빠르게 보완하는 체계가 인증보다 실효적일 수 있다”고 제언했다.

 

국내외적으로 AI 규제 및 신뢰인증 논의는 속도를 내고 있다. 미국·유럽·일본도 AI 안전 기준 강화를 정책 우선순위로 삼는다. 우리 정부도 ‘국가 AI 안전 생태계 조성 종합계획’을 올해 내 수립해, 인증 및 감지 기술을 제도와 연계할 계획이다.

 

배 장관은 “산업 경쟁력 확보도 중요하지만 안전한 AI야말로 지속가능 성장의 열쇠”라며 “대한민국이 국제적으로 신뢰받는 AI 기술력을 구축할 때”라고 강조했다. 산업계는 이같은 신뢰체계가 실제 시장 안착 단계로 이어질지 예의주시하고 있다. 기술과 윤리, 산업과 제도의 균형이 IT·바이오 융합 산업의 지속성장 조건이 되고 있다.

전민준 기자
share-band
밴드
URL복사
#배경훈#ai안전연구소#ai기본법