AI 서비스 투명성 논의 본격화…방미통위, 최소 기준 찾는다
인공지능 기술이 방송과 미디어, 통신 서비스 전반에 빠르게 스며들면서 이용자 보호 패러다임이 전환기를 맞고 있다. 콘텐츠 추천과 광고, 검색, 통신망 운용까지 AI 의존도가 커지는 상황에서 알고리즘이 어떻게 작동하는지, 어떤 데이터를 활용하는지에 대한 최소한의 투명성을 제도화해야 한다는 목소리가 커지고 있다. 업계는 혁신 속도를 떨어뜨리는 과도한 규제를 우려하는 반면, 시민단체와 학계는 설명 가능성과 책임성을 뒷받침할 새 규율 체계를 요구하는 분위기다. 규제와 자율 사이에서 현실적인 기준을 찾는 작업이 방송·통신 산업 구조 변화의 분기점이 될 수 있다는 관측도 나온다.
방송·미디어·통신위원회와 정보통신정책연구원은 15일 서울 엘타워에서 AI 서비스 이용자 보호 민관협의회 제4차 회의를 열고, 방송·미디어·통신 분야에서 활용되는 AI 서비스의 투명성 확보 방안을 논의했다. 지난해 7월 출범한 이 협의체는 AI 기술 발전이 불러온 새로운 유형의 피해와 위험을 기존 전기통신사업법, 방송법 중심의 보호 체계로 다루기 어렵다는 문제 인식에서 출발했다. 올해 5월 열린 3차 회의에서는 추천 알고리즘 고도화, 생성형 AI 도입 등으로 등장한 새로운 이용자 피해 사례와 대응 방향이 다뤄졌고, 이번 4차 회의에서 논의 초점이 본격적으로 투명성 기준 설정 쪽으로 옮겨간 셈이다.

현재 방송과 미디어, 통신 사업자들은 뉴스·영상 콘텐츠 노출 순서를 정하는 추천 시스템, 개인 맞춤형 광고, 시청률·이용 패턴 분석, 네트워크 자원 자동 최적화 등 광범위한 영역에 AI를 적용하고 있다. 이 과정에서 AI 모델이 어떤 데이터를 학습했는지, 차별적 결과가 발생하지는 않는지, 자동 의사결정에 사람이 개입할 수 있는지 등에 대한 정보는 대부분 이용자에게 제공되지 않는다. 특히 이번 회의에서 논의된 투명성은 알고리즘을 전부 공개하는 수준이 아니라, 서비스 성격과 위험도에 따라 이용자에게 최소한 어느 정도까지 정보를 알리고 통제 수단을 부여할 것인지에 초점이 맞춰졌다.
기조발표를 맡은 황용석 건국대 교수는 AI 시대 투명성과 기술 기반 자율규제 방안을 주제로, 규제 비용과 혁신 부담을 최소화하면서 서비스 제공 투명성을 확보할 수 있는 정책 기준 마련을 주문했다. 황 교수는 기술적 세부 구조나 소스코드를 공개하는 방식은 현실성이 낮고 영업비밀 침해 우려도 크다며, 알고리즘의 목적, 주요 입력 변수 범주, 결과가 이용자에게 미치는 영향과 이의 제기 절차를 단계적으로 설명하는 방식이 대안이 될 수 있다고 제안한 것으로 알려졌다. 특히 추천이나 자동 분류와 같이 이용자 경험에 직접적인 영향을 주는 AI 기능과, 백엔드에서 내부 효율화를 위한 AI 기능은 투명성 요구 수준을 달리해야 한다는 점도 강조됐다.
투명성 확보는 이용자 보호 측면에서는 핵심 요소로 꼽힌다. 예를 들어 AI가 뉴스 노출 순서를 결정하는 경우 특정 정치적 성향이나 상업적 이해관계에 치우친 추천이 이뤄질 수 있고, 통신망 관리용 AI가 데이터 트래픽을 분산하는 과정에서 특정 서비스 품질이 일방적으로 저하될 소지도 있다. 이때 이용자에게 적어도 AI가 자동으로 의사결정을 내리고 있다는 사실, 이용 목적, 선택을 조정할 수 있는 옵션 유무 정도는 제공돼야 한다는 의견이 적지 않다. 이번 회의는 이러한 요구를 제도화 가능한 ‘최소 기준’ 수준으로 구체화하는 첫 단계 성격을 띠었다.
종합 토론에서는 산업계, 법조계, 학계, 시민단체 등 민관협의회 위원들이 AI 서비스 투명성에 대한 사회적 기대 수준이 크게 높아진 상황을 공유했다. 기업 측은 과도한 정보 공개 요구가 기술 유출과 과잉 규제로 이어질 수 있다는 점을 강조하면서, 산업별·위험도별 차등 규제와 가이드라인 중심 접근을 요청한 것으로 전해졌다. 반면 시민단체와 일부 학계 인사는 허위 정보 생성, 차별적 광고 타기팅, 어린이·고령층 대상 콘텐츠 자동 추천 등 고위험 영역은 보다 엄격한 설명 의무와 외부 감시 장치가 필요하다고 지적했다. 법조계에서는 자율규제에만 맡길 경우 실효성이 떨어질 수 있어 일정 수준의 법적 근거와 책임 범위 설정이 불가피하다는 의견도 나왔다.
민관협의회 위원장인 이원우 서울대 교수는 AI 확산으로 방송·미디어·통신 분야의 서비스 구조 자체가 바뀌고 있는 만큼, 기존의 이용자 보호 규율 체계와 정책 접근 방식에도 근본적인 재검토가 필요하다고 진단했다. 그는 이번 발표와 토론에서 제시된 정책 환경 변화와 규율 방안을 바탕으로, 앞으로도 지속적인 논의를 거쳐 실효성 있는 정책 결과물을 도출하겠다고 밝혔다. 이는 일회성 권고가 아니라, 향후 표준 가이드라인 마련과 법제화 논의로 이어질 수 있는 출발점이라는 의미로 해석된다.
글로벌 차원에서도 AI 투명성 요구는 갈수록 강화되는 추세다. 유럽연합은 EU AI 법을 통해 고위험 AI 시스템에 대해 데이터 거버넌스, 기록 유지, 설명 가능성과 같은 의무를 부과하는 방향으로 논의를 진전시키고 있고, 미국과 일본 역시 알고리즘 책임성, 설명 가능성을 강조하는 정책 권고를 내놓고 있다. 국내 방송·통신 분야의 AI 서비스 규율 방향도 이러한 국제 흐름과 괴리를 줄이면서, 국내 산업 경쟁력과 이용자 신뢰를 동시에 고려하는 절충안을 찾는 방향으로 가닥이 잡힐 것으로 보인다. 특히 국내 기업 중에서는 처음으로 자율규제 코드와 투명성 보고서를 도입하는 사례가 나온다면, 글로벌 신뢰도 확보에도 도움이 될 수 있다는 평가가 뒤따른다.
방미통위는 혁신을 저해하는 불필요한 부담을 줄이면서도 이용자 보호를 위한 최소한의 투명성 기준을 마련하는 데 방점을 찍고 있다. 향후에는 서비스 유형별 위험 평가 체계와 자율규제 모델, 알고리즘 설명 관행 등을 정리한 가이드라인을 마련하고, 필요 시 법적 근거를 보완하는 방안도 검토할 것으로 예상된다. 산업계와 시민사회, 전문 연구기관이 참여하는 민관 협의 구조를 바탕으로 AI 서비스에 대한 사회적 신뢰를 높일 수 있을지, 방송·미디어·통신 업계가 촉각을 곤두세우고 있다. 산업계는 이번 논의가 실제 시장에서 작동 가능한 규율로 정착할지, 그리고 그 균형점이 어디에 놓일지를 지켜보고 있다.
