“AI 영향평가 기준 신설”…공공기관, 개인정보 리스크 진단 강화
개인정보를 활용한 인공지능(AI) 사업이 공공 영역에서 확산됨에 따라 개인정보 보호 수준도 새로운 전환점을 맞고 있다. 최근 개인정보보호위원회는 AI 도입을 추진하는 공공기관이 책임 있는 데이터 활용을 위해 반드시 따라야 할 평가 기준을 신설하면서 산업계와 정책 현장의 주목을 받고 있다. 이로써 공공기관의 AI 사업 전반에 걸쳐 개인정보 침해 위험을 사전에 탐지하고, 체계적으로 관리·개선할 수 있는 가이드라인이 마련됐다. 업계에서는 이번 기준 도입을 ‘AI 및 개인정보 보호 경쟁의 본격적 분기점’으로 본다.
3일 개최된 개인정보보호위원회 전체회의에서 통과된 ‘개인정보 영향평가 고시’ 개정안 주요 내용은 5일부터 시행된다. 핵심은 AI 학습·운영 전 과정에 걸쳐 개인정보 위험을 체계적으로 진단할 수 있도록 평가분야와 항목을 구체화한 것이다. 기존에는 AI 관련 세부 평가기준이 없어, 각 기관이 자의적으로 평가항목을 설정해야 했다. 새로운 고시에서는 AI 시스템 학습 및 개발, 운영 및 관리 등 두 개 분야를 신설해 데이터 처리의 법적 근거, 민감·아동정보 포함 여부, 학습용 데이터 보유·파기 방식 등의 적합성 여부를 검토하도록 했다.

기술 구현 측면에서는 AI 서비스 개발 단계뿐 아니라 운영·관리 과정까지 평가 범위를 확장한 점이 주목된다. 예컨대, 생성형 AI를 도입한 기관은 부적절한 답변 및 개인정보 노출 가능성, 정보주체의 권리 보장 체계(신고 기능 및 이용 방침 등) 등까지 진단 항목에 포함된다. 특히 이번 조치는 데이터 거버넌스, AI 책임성, 투명성 확보를 중시하는 글로벌 정책 흐름과도 맞닿아 있다는 평가다.
다양한 AI 응용이 점차 공공 서비스로 활로를 넓히면서, AI 학습 및 운영에 사용되는 데이터가 개인정보 관련 규제 대상에 오를 수밖에 없다. 미국·유럽연합(EU) 등도 AI 학습데이터 선정·관리, 개인정보 비식별화 등 데이터 윤리에 대한 별도 규범을 신설하거나 강화하는 추세다. 국내에서는 AI 활용 공공사업이 의료, 복지, 교육 등 핵심 분야로 확대 중이어서, 표준화된 영향평가 기준 적용이 정책 신뢰성과 기술 발전의 관건으로 떠오른다.
향후 각 기관은 ‘개인정보 영향평가 수행안내서’에 공개된 세부 평가항목과 우수 사례를 참고해, 기관별 사업에 맞는 개인정보 보호체계를 구축하게 된다. 향후 평가항목은 현장 적용성과 산업계 의견을 반영해 지속적으로 보완된다. 전문가들은 “AI 시대에는 데이터 활용 혁신과 정보주체 보호, 제도적 투명성을 균형 있게 높이는 것이 산업 발전의 핵심 요건이 될 것”이라고 분석했다. 산업계는 이번 조치가 실제 현장에 어떻게 뿌리내릴지 단계별 효과를 주시하고 있다.