logo
“AI 프라이버시 진단 프레임워크 본격화”…개인정보위, 정책기준 마련 속도
IT/바이오

“AI 프라이버시 진단 프레임워크 본격화”…개인정보위, 정책기준 마련 속도

한지성 기자
입력

AI 시대의 개인정보 보호 체계가 새로운 전환기에 들어서고 있다. 개인정보보호위원회는 8일 서울 서초구 ‘서울 인공지능 허브’에서 ‘AI 프라이버시 민관 정책협의회’ 제4차 전체회의를 개최하고, 민간 전문가와 정부 부처, 시민단체 등 30여 명이 참여한 가운데 AI 프라이버시 리스크 진단과 인증 방안, 생성형 AI 개인정보 처리 가이드라인을 집중 논의했다. 업계는 이번 논의를 ‘신기술 기반 개인정보 보호 체계 선진화’와 ‘산업 생태계 신뢰 제고’의 분수령으로 본다.

 

이번 회의에서 김병필 카이스트 교수 등 전문가들은 AI 프라이버시 리스크 평가의 구체적 진단과 인증 방법론을 제안했다. 개인정보위는 지난해 12월 공개한 ‘AI 프라이버시 리스크 관리 모델’에 내재한 리스크 절차와 경감 조치를 예시한 바 있지만, 실제로 사전·예방적으로 위협을 진단할 수 있는 평가 프레임워크 등은 후속 과제로 남아 있었다. 이날 논의에서는 산업계와 학계가 실제 적용 중인 최신 진단 기술, 해외 선진 사례가 다각적으로 비교됐다. 이를 토대로 국내 AI 환경에 적합한 단계별 리스크 관리 시스템과 인증 기준 필요성이 부각됐다.

특히 생성형 AI(Generative AI) 분야에서는 맞춤형 개인정보 보호와 내부통제 장치 마련이 화두로 떠올랐다. 개인정보위는 생성형 AI의 기획부터 개발, 운영 전 주기에 걸쳐 개인정보의 적법성·안전성 확보 기준을 안내서 초안에 반영했고, 현장에서는 이 기준이 적용될 때 개발과 활용 과정의 법적 불확실성이 줄어들 것으로 평가된다. 실제로, 이 안내서는 산업계가 AI 시스템 개발시 준수해야 할 절차와 관리체계를 명문화함으로써 기술 혁신과 사회적 신뢰의 균형을 꾀하는 역할을 할 전망이다.

 

해외에서는 유럽연합의 AI 규제안(EU AI Act) 및 미국의 AI 백서 등이 체계적 리스크 평가와 인증, 윤리 가이드라인 마련에 박차를 가하고 있다. 전문가들은 “국내 프레임워크도 글로벌 기준과 호환성을 높여야 한다”고 입을 모았다. 산업계는 가이드라인의 확립이 예측 가능한 환경을 조성, 개인정보 리스크로 인한 혁신 저해 우려를 덜어줄 것으로 기대한다.

 

한편 개인정보위는 관계 부처와 산업 현장, 시민사회 제안을 추가적으로 수렴해 ‘생성형 AI 개인정보 처리 안내서’를 이달 말까지 마련, AI 시스템 개발자와 운영자, 사용자가 쉽게 적용할 수 있는 실무 지침 제공에 나선다. 제도 설계 및 인증체계 확보가 신속히 추진됨으로써, 성장하는 AI 산업 내 개인정보 위험 요소를 사전에 점검·차단하는데 기여할 것으로 보인다.

 

고학수 개인정보위원장은 “안전한 가드레일 구축이 신뢰할 수 있는 AI 혁신의 전제이며, 프라이버시와 AI 혁신이 상호 발전적인 구조를 형성해야 한다”고 강조했다. 업계 관계자들은 “AI 프라이버시 평가와 인증 인프라가 실제 상용화 단계에 보편화될 수 있을지에 관심을 두고 관찰하고 있다.” 기술과 윤리, 산업과 제도 간 균형이 새로운 성장의 조건이 되고 있다는 평가가 나온다.

한지성 기자
share-band
밴드
URL복사
#개인정보보호위원회#ai프라이버시#생성형ai