“가짜뉴스도 AI가 판별”…정당 SNS 발언, 플랫폼 감시 강화된다
정치권의 거친 언어와 사실관계가 모호한 주장에 인공지능 기반 검증 기술을 접목하려는 흐름이 거세지고 있다. 소셜미디어를 통해 실시간으로 확산되는 정치 발언은 여론 형성에 직접적 영향을 미치지만, 허위정보 여부를 사람이 일일이 확인하기는 어렵다. 국내외 플랫폼과 스타트업은 자연어처리 기반 ‘가짜뉴스 탐지’ 솔루션을 정치 분야에 적용하면서, 표현의 자유와 정보 신뢰성 사이의 새로운 긴장 관계를 드러내고 있다. 업계는 정치 콘텐츠 검증 기술을 ‘차세대 플랫폼 거버넌스’의 분기점으로 바라보는 분위기다.
정치인의 SNS 글, 정당 대변인의 논평, 유권자 커뮤니티 게시물 등은 하루에도 수만 건 이상 생산된다. 최근 한 정당 내부에서조차 특정 인물의 발언을 두고 ‘가짜뉴스’ 공방이 이어지면서, 정치 영역에서의 팩트체킹 자동화 필요성이 다시 부각됐다. 플랫폼 사업자 입장에서는 허위정보 유통이 방치될 경우 이용자 이탈과 규제 리스크로 직결되기 때문에, 발언의 신뢰도를 사전에 점검하는 기술을 도입하려는 움직임이 빨라지고 있다.

가짜뉴스 판별 기술의 핵심은 자연어처리와 통계적 패턴 분석이다. AI 모델은 먼저 문장에서 주장·사실·의견을 분리한 뒤, 주장의 구조를 추출한다. 예를 들어 “어떤 사건의 원인이 특정 인물이다”라는 서술이 나오면, 사건과 인물을 각각 엔터티로 인식하고 인과관계 주장으로 분류한다. 이후 공공 데이터베이스, 판결문, 공식 보고서 등 신뢰도 높은 데이터와 대조해 일치 여부를 점검한다. 구조화된 지식 그래프를 활용하면 특정 주장과 공적 기록 간 충돌 정도를 확률값으로 제시할 수 있다.
특히 정치 분야에서는 법원·헌법재판소 결정문, 국회 회의록, 정부 공식 브리핑 등이 중요한 기준점이 된다. AI는 해당 문서에서 핵심 문장을 추출해 요약하고, 정치인의 발언과 비교해 ‘맥락 왜곡’ 여부를 분석한다. 같은 판결문을 두고도 ‘핵심 원인을 특정 세력으로 규정했다’는 식의 주장이 등장할 수 있는데, 이때 AI는 원문 전체 맥락에서 원인·책임·정치적 평가를 구분해 어느 부분이 과도한 일반화인지 평가한다. 기존 키워드 비교 수준의 필터링보다 한 단계 고도화된 정합성 검증 방식이다.
시장성도 커지고 있다. 글로벌 팩트체크 플랫폼 다수는 이미 정치 토론, 대선 유세, 의회 연설 등에서 발언을 자동 채록해 실시간 검증하는 시스템을 실험 중이다. 의원 이름·정당·발언 시점·핵심 주장과 검증 결과를 카드 형태로 제공해, 유권자가 사실·의견을 구분해 소비하도록 돕는 서비스도 등장했다. 국내에서는 포털·종합편성채널·뉴미디어 플랫폼을 대상으로 하는 B2B 팩트체킹 API 수요가 늘고 있다는 분석이 나온다. 선거 국면에서 가짜뉴스 대응 인력과 비용이 급증하기 때문에, AI 보조 도구로 이를 줄이려는 시도가 계속될 것으로 보인다.
글로벌 비교에서는 미국과 유럽이 앞서 있다. 미국에서는 대형 플랫폼과 비영리 팩트체크 기관이 협약을 맺고, AI가 필터링한 의심 콘텐츠를 전문 팩트체커가 2차 검증하는 하이브리드 모델을 운영한다. 유럽연합은 디지털서비스법을 통해 대형 플랫폼에 ‘위험도 기반’ 허위정보 관리 의무를 부과하면서, AI 기반 평가·리포팅 시스템을 요구하고 있다. 정치 광고, 선거 관련 정보에는 특히 엄격한 투명성 기준을 적용해 알고리즘 추천·노출 기준을 공개하도록 압박하는 추세다.
반면 규제와 윤리 논쟁도 만만치 않다. AI가 특정 정치 성향이나 집단의 의견을 ‘허위’로 오판할 경우, 표현의 자유 침해 논란이 불거질 수 있다. 학습 데이터가 편향됐거나, 판결문·공식 기록 자체가 정치적 논쟁의 대상일 때는 ‘누가 진실을 결정하느냐’는 근본적 질문이 제기된다. 이에 따라 일부 국가와 플랫폼은 정치 콘텐츠에서 AI의 역할을 ‘정답 판정’이 아닌 ‘정보 출처 제시·맥락 보완’에 한정하는 방식을 검토 중이다. 사용자가 스스로 판단할 수 있도록 관련 판결문, 통계, 과거 발언 기록을 함께 노출하는 식이다.
국내에서도 개인정보보호법·정보통신망법·공직선거법 등이 정치 가짜뉴스 규율의 틀을 제공하고 있지만, AI 활용에 대한 구체적 가이드라인은 초기 단계다. 선거 기간 온라인 허위사실 유포에 대한 제재는 존재해도, AI가 자동으로 발언 신뢰도를 점수화하고 노출 순위를 조정하는 행위가 어디까지 허용될지에 대한 사회적 합의는 부족하다. 전문가들은 투명한 알고리즘 설명, 이의제기 절차, 인권 영향평가를 동시에 요구하는 흐름이 강해질 것으로 보고 있다.
업계에서는 정치권의 거친 언어 공방이 반복될수록, 정당과 후보 측이 오히려 AI 기반 팩트체킹 도구를 자발적으로 도입할 가능성도 있다고 본다. 사전에 캠프 내부 발언을 점검해 명백한 허위나 왜곡 표현을 걸러내면, 사후 논란과 이미지 리스크를 줄일 수 있어서다. 한 미디어 AI 스타트업 관계자는 “차기 선거부터는 후보별 ‘팩트 점수’와 발언 이력 분석이 실시간으로 공개되는 시대가 올 수 있다”며 “다만 기술보다 중요한 것은 결과를 받아들이는 정치문화”라고 말했다.
정치 커뮤니케이션의 디지털 전환이 가속화되면서, 가짜뉴스 탐지 AI는 더 이상 언론만의 도구가 아니라 정치 플랫폼의 필수 인프라로 떠오르고 있다. 산업계는 기술이 실제로 공정한 공론장을 만드는 방향으로 안착할 수 있을지 주시하고 있다.
