“추천 알고리즘, 정치편향 키운다”…유튜브 책임 논쟁 본격화
유튜브의 추천 알고리즘이 정치적 양극화를 심화시키는 핵심 동인으로 지목되고 있다. 점차 소셜미디어가 사회 내 갈등과 이념 대립을 키우는 매개체가 되면서, 이용자 맞춤형 정보 노출을 유발하는 기술적 요소의 제도적 규제가 필요하다는 목소리가 커지고 있다. 이번 논의는 플랫폼 사업자 책임 논쟁의 새 전기를 마련한다는 점에서 업계와 정책당국, 시민사회 모두의 관심이 집중된다.
23일 국회입법조사처가 발표한 ‘정치적 양극화와 소셜미디어의 책임: 추천 알고리즘 규제를 위한 입법과제’ 분석 결과, 유튜브를 비롯한 주요 플랫폼의 알고리즘은 사용자의 확증편향을 강화해 정치적 분열을 구조화시키고 있는 것으로 나타났다. 보고서는 알고리즘이 다양한 뉴스·시사정보를 편향되게 필터링해 보여주는 상황과 그로 인한 사회적 파급력을 지적했다.

유튜브가 ‘개인화 추천’ 위주로 콘텐츠 노출을 강화하는 만큼, 사용자가 취하는 정보의 범위는 필터버블(동일 관점 정보만 노출되는 현상)과 에코챔버(동일 의견만 반복적으로 접하며 신념이 강화되는 구조)에 점점 갇히는 현상이 부각되고 있다. 예를 들어 보수 성향 채널을 구독한 계정에는 유사 콘텐츠가 반복 추천되고, 진보 계정에도 마찬가지의 편향이 심화되는 구조다. 특히 정치 관련 정보의 경우에는 자극적이거나 선정적인 비정책적 이슈 위주로 노출 빈도가 높아, 정파 간 정서적 대립이 극심해지는 현상을 가져온다는 분석도 제기됐다.
한국언론진흥재단 ‘2024 소셜미디어 이용자 조사’에서 뉴스·시사정보 획득 1순위 플랫폼으로 유튜브(60.1%)가 꼽힌 사실도, 국내 정보유통 환경의 편향 노출 심각성을 보여준다. 검색이나 구독에 더해 실제로는 전체 이용자의 63.6%가 첫 화면 추천, 61%가 영상 시청 중 추천 서비스를 적극 활용하고 있었다.
알고리즘 추천에 대한 이용자 체감은 전반적으로 긍정적이다. 64.8%는 유용성을, 63.1%는 ‘지속 이용 의사’를 표하면서, 본인 선택이 아닌 알고리즘 결정에 점차 익숙해지는 양상을 보이고 있다.
문제는 이처럼 필연적으로 축적되는 정보 편향·분할 구조에도 불구하고, 현재 국내에는 관련 법제도가 지극히 미비하다는 점이다. 실제 국내 규제는 방송통신위원회의 ‘AI기반 미디어 추천 서비스 기본원칙’과 같은 권고적 가이드라인에 머물러 있다. 온라인플랫폼의 알고리즘 운영은 법적 책임이 아니라 사업자 자율 영역에 위임돼 필터링 구조의 불투명성이 심각하다는 평가다.
해외 주요국은 이 논의에서 한 발 앞서가고 있다. 유럽연합(EU)은 ‘디지털서비스법’을 통해 온라인플랫폼의 추천 알고리즘이 시민담론 등 공론장에 미치는 위험성을 법적으로 규정하고, 사업자에게 책임성과 투명성 강화를 의무화하는 체계를 도입했다. 중국 정부의 경우에도 ‘인터넷추천알고리즘규정’ 아래, 알고리즘 사전 신고 및 평가를 통한 정부 개입을 제도화했다.
이런 가운데 입법조사처는 소셜미디어 등 알고리즘 서비스 제공자에게 일정 수준 이상의 법적 책임을 부과하는 방향으로 ‘정보통신망 이용촉진 및 정보보호법’ ‘전기통신사업법’ 등 관련 법률 개정을 제안했다. △주요 알고리즘 변수 공개 및 설명 의무 △이용자 선택권(알고리즘 중지·수정 권한) 보장 △위험성 평가와 투명성 보고서 제출 의무화 등이 논의 테이블에 올랐다.
전문가들은 알고리즘 기반 정보 유통체계가 사회적 담론과 집단 가치관 형성을 좌우하는 현실을 고려할 때, 단순한 산업적 자율이나 속도경쟁이 아니라 투명성과 책임 원칙이 강화돼야 기술·사회 신뢰가 뒷받침될 수 있다고 진단한다. 산업계는 이러한 규제 논의가 실질적으로 시장 질서를 혁신하는 계기가 될 수 있을지, 향후 법제화 논의에 주목하고 있다.