“생성형 AI 역기능 제보 플랫폼 출범”…방미통위, 이용자 위험 신고 본격화
생성형 인공지능(AI)가 일으키는 부적절 콘텐츠 제공, 명예훼손, 저작권 침해 등 각종 위험 사례에 대한 실태 파악과 신속 대응을 위한 이용자 제보 창구가 공식적으로 마련됐다. 방송미디어통신위원회와 한국정보통신진흥협회는 31일부터 '생성형 인공지능 이용자 참여 플랫폼'을 개설·운영한다고 밝혔다. 해당 플랫폼을 통해 챗GPT, 클로드, 제타 등 주요 생성형 AI 서비스를 이용 중 접한 폭력적, 성범죄적, 인권 침해, 저작권 훼손 사례를 누구나 손쉽게 제보할 수 있다.
이 플랫폼은 사업자가 자율적으로 서비스 위험성을 개선하도록 유도하기 위해 도입됐다. 최근 생성형 AI의 산업 내 활용이 확산하는 가운데 예기치 못한 사회적 위험이 빈번하게 보고되고 있어, 정책 당국은 실효적인 대응 수단 마련의 필요성을 강조해왔다. 방미통위는 플랫폼에서 접수된 이용자 제보를 기반으로 실제 피해 유형을 통계화하고, 유형별 가이드와 분석자료를 정기적으로 공개할 계획이다.

특히 이번 기술은 AI 서비스 운영사의 자율규제와 사회적 책임 강화 측면에서 기존 '사후 제재' 방식의 한계를 극복하려는 시도로 해석된다. 이용자는 방송통신이용자정보포털을 포함한 다양한 경로로 제보할 수 있으며, 각 사례는 사업자와 즉시 공유돼 서비스 개선에 활용될 예정이다.
세계적으로 생성형 AI 확산과 함께 유럽연합의 AI 규제법(EU AI Act), 미국 연방통신위원회(FCC)의 가이드라인 등 각국에서 부적절 콘텐츠 관리와 플랫폼 책임 강화 움직임이 속도를 내고 있다. 이번 방미통위 조치는 자율규제 중심 모델을 도입함으로써, 현장 정보 반영 및 국내외 규제 트렌드와의 간극을 좁히려는 것으로 보인다.
방미통위는 지난 2월부터 전문가 연구반을 중심으로 위험 유형 분류, 신고 방식 설계 등을 논의했다. 7월과 8월에는 주요 사업자 간담회를 열어 제보가 실질적으로 서비스 개편에 연결될 수 있는 방안을 조율했다. 향후 정부는 플랫폼의 데이터를 토대로 인공지능 역기능 규제 및 이용자 보호 정책을 구체화할 계획이다.
전문가들은 “AI 역기능이 실시간 신고, 통계화되는 구조는 산업 자율규제의 실제 효과를 파악하는 출발점이 될 수 있다”며 “추가적 법제화와 데이터 공공 공유 체계 마련 여부가 관건”이라 분석했다. 업계는 이번 플랫폼 구축을 계기로, 생성형 AI 서비스의 안전성과 신뢰성 확보에 대한 사회적 요구가 본격화될 것으로 주시하고 있다.
