IT/바이오

안전한 AI 서비스 논의 본격화…방미통위, 최소한의 이용자 보호 강조

김서준 기자
입력

인공지능 서비스 확산 속에서 이용자 보호 체계를 어디까지, 어떻게 설계할지에 대한 논의가 속도를 내고 있다. 정부는 규제와 혁신의 이분법을 넘어 신뢰를 기반으로 한 인공지능 거버넌스를 구축해야 한다는 문제의식을 공유하며, 사업자와 이용자, 정책 당국의 역할을 재정의하기 위한 사회적 논의에 시동을 걸었다. 업계와 학계에서는 적어도 최소한의 보호 원칙과 책임 범위를 명확히 해야 AI 산업 성장과 이용자 권익 보호가 함께 갈 수 있다는 데 공감대가 형성되는 분위기다.  

 

방송미디어통신위원회는 19일 서울에서 2025 AI서비스 이용자 보호 콘퍼런스를 열고 안전하고 지속가능한 AI 서비스 환경을 위한 정책 방향을 논의했다. 이번 행사는 인공지능 기술이 방송과 미디어, 통신 전반으로 빠르게 확산되면서 새롭게 등장하는 이용자 보호 이슈에 대응하기 위해 마련됐다. 각 생태계 주체가 AI 서비스에서 지는 책임을 재점검하고, 향후 제도 설계의 방향성을 모색하려는 목적이다.  

콘퍼런스는 인공지능, 신뢰를 만나다: 이용자 보호와 지속가능한 성장이라는 주제로 기조발제와 정책 발제, 기업 사례 발표, 전문가 토론 순으로 진행됐다. 방미통위는 특히 현행 통신 관련 법령이 AI 서비스 특성을 충분히 반영하지 못하면서 사업자가 어떤 규제를 적용받는지 명확히 알기 어려운 상황에 주목했다. 제도적 불확실성이 크면 투자와 서비스 혁신이 위축될 수 있어, 규제 예측 가능성을 높이는 작업이 선행돼야 한다는 판단이다.  

 

기조발제를 맡은 이상욱 한양대 교수는 규제를 넘어 신뢰로: AI 시대의 새로운 경쟁력, 이용자 보호를 주제로 발표했다. 이상욱 교수는 AI 시대에는 규제 강화와 혁신 촉진을 선택의 문제로 볼 것이 아니라, 신뢰를 높여주는 이용자 보호 장치가 오히려 혁신 경쟁력을 뒷받침하는 구조를 만들어야 한다고 강조했다. 기술 위험을 외면한 채 혁신만 추구하는 접근은 장기적으로 시장 신뢰를 잃게 되고, 과도한 사후 규제와 사회적 갈등을 불러올 수 있다는 지적도 나왔다.  

 

이어 조성은 정보통신정책연구원 박사는 방미통위와 정보통신정책연구원이 공동으로 마련한 AI서비스 사업자를 위한 법령 안내서 초안을 공개했다. 이 안내서는 인공지능 서비스가 실제로 적용되는 통신·플랫폼 환경을 기준으로 개인정보 보호, 이용자 피해 구제, 콘텐츠 책임 등 기존 법제와의 관계를 체계적으로 정리한 것이 특징이다. 방미통위와 연구진은 AI 서비스 특성 때문에 기존 통신 관계 법령의 적용 범위가 불명확하다는 업계 우려를 반영해, 어떤 유형의 서비스에 어떤 규정이 적용될 수 있는지 사례 중심으로 정리했다. 이를 통해 사업자가 사전에 준수 의무를 파악하고, 법적 리스크를 예측할 수 있도록 지원하겠다는 구상이다.  

 

마지막 발제자로 나선 허상우 네이버 연구위원은 자사에서 구축한 AI 위험관리체계를 소개했다. 네이버는 대규모 언어모델과 추천 알고리즘 등 다양한 AI 기술을 검색, 쇼핑, 콘텐츠, 클라우드 서비스에 적용하면서, 데이터 편향과 오남용, 안전성 문제를 관리하기 위한 내부 시스템을 고도화해 왔다고 설명했다. 허상우 연구위원은 AI 시스템이 복잡해질수록 입력 데이터 검증, 모델 성능 모니터링, 이상 출력 탐지 등 기술적 안전장치가 필수적이라며, 사업자 내부의 위험관리 역량이 이용자 보호 정책의 전제 조건이라고 강조했다.  

 

발제 이후에는 AI 서비스 생태계의 지속 가능성을 위한 이용자 보호 방안을 주제로 전문가 토론이 이어졌다. 좌장은 이원우 서울대 교수가 맡았고, 유지연 상명대 교수, 윤혜선 한양대 교수, 정원준 법제연구원 팀장, 정지연 한국소비자연맹 사무총장, 이영복 제네시스랩 대표, 문정욱 정보통신정책연구원 실장이 토론자로 참여했다.  

 

토론 참가자들은 방송과 미디어, 통신 서비스 전반에 인공지능이 깊숙이 들어오면서, 알고리즘 투명성, 허위정보 확산, 차별적 추천, 과금 구조의 불공정성 등 다양한 위험이 동시에 커지고 있다고 진단했다. 특히 방통 영역에서 AI가 편성, 추천, 광고 매칭 등 핵심 기능을 담당하게 되면, 기존 규제 틀로는 책임 주체와 피해 구제 범위를 명확히 설정하기 어렵다는 문제도 제기됐다.  

 

이에 따라 사업자와 이용자, 정책 당국 간 역할 분담에 대한 다양한 시나리오가 논의됐다. 기업 측에서는 최소한의 공통 규칙 아래 자율 규제와 기술적 안전장치를 강화하는 방향을 선호하고, 소비자 단체와 학계에서는 설명 가능성 확대, 피해 신고와 조정 절차의 실효성 강화 등 권리보장 장치가 더 필요하다는 의견을 내놨다. 일부 전문가들은 글로벌 빅테크가 이미 자체적인 AI 윤리 기준과 위험관리 체계를 고도화하고 있는 만큼, 국내에서도 공공 가이드라인과 민간 자율 규제가 결합된 이중 안전망을 설계할 필요가 있다고 제안했다.  

 

방미통위는 건강한 AI 산업 발전을 위해 필요 최소한의 이용자 보호 체계 확립이 우선이라고 강조했다. 방미통위는 이날 콘퍼런스에서 제기된 의견을 향후 정책 설계와 법령 정비 과정에 적극 반영하겠다고 밝혔다. AI 서비스 법령 안내서도 업계 의견 수렴을 거쳐 보완한 뒤, 사업자들이 실제로 활용할 수 있는 실무 지침으로 발전시킬 계획이다.    

 

정책 당국은 신뢰할 수 있는 AI 이용 환경이 자리 잡을 때, 기업의 혁신 투자와 글로벌 경쟁력 확보도 뒷받침될 수 있다고 보고 있다. 산업계는 이번 논의가 앞으로 마련될 인공지능 이용자 보호 가이드라인과 법제도의 방향을 가늠할 분기점이 될 수 있는 만큼, 제도화 과정과 민관 협의 구조의 구체화를 예의주시하는 분위기다.

김서준 기자
share-band
밴드
URL복사
#방미통위#ai서비스이용자보호콘퍼런스#네이버