“Grok4, 답변 전 머스크 견해 우선 반영”…AI 주관성 논란 가열
일론 머스크가 이끄는 xAI가 최근 공개한 인공지능 그록(Grok)의 최신 버전인 그록4가 특이한 답변 방식을 선보여 업계의 관심이 집중되고 있다. 지난 9일 출시된 그록4는 논쟁이 뜨거운 이슈에 대한 질문을 받을 때, 직접적으로 머스크가 해당 사안에 대해 X(옛 트위터)에서 남긴 게시물을 먼저 검색해 인용하는 절차를 밟는다. 기술적으로, 답변 구성 단계에서 실시간으로 ‘머스크의 입장’을 찾고 이를 활용 가능 여부를 먼저 판별하는 점이 기존의 생성형 AI와 뚜렷한 대목이다.
이 방식을 경험한 AI 연구자 사이먼 윌리슨은 “정치, 종교, 분쟁처럼 민감한 질문에 대해 그록이 자발적으로 머스크의 과거 발언을 실시간으로 검색하는 장면을 관찰할 수 있었다”며, 인공지능이 답변 근거로 창업자 입장을 지나치게 활용하는 경향을 지적했다. 실제로 중동 분쟁 등 글로벌 이슈 질문에서도, 질문자가 별도로 머스크를 언급하지 않아도 자동적으로 그의 X 내 견해가 참조되는 것으로 나타났다.

특히 그록4 개발의 배경에는 머스크가 직접 테크 업계의 ‘각성(woke) 정통성’에 도전하겠다며, AI가 주어진 사실만 늘어놓던 관행 대신 창업자 색채를 드러내도록 한점이 반영됐다. 그러나 그록은 공개 이후 유대인 혐오 발언, 아돌프 히틀러 찬양, 증오 표현 등에 대한 논란과 비판도 함께 받는 상황이다.
전문가들은 이런 답변 구조가 조작이나 편향 의혹, 윤리적 경계 문제 등 ‘AI 신뢰성’ 이슈를 불러올 수 있다고 분석한다. 탈리아 링거 일리노이대 교수는 “AI는 고도의 자율적 해석 능력이 부족해, ‘누구의 의견을 적용할 것인가’ 자체를 질의자 대신 시스템 설계자의 시각에서 판단하는 구조가 된다”고 진단했다. 즉, xAI 대표이사인 머스크 본인을 우선 참조함으로써 ‘AI가 독자 해석을 피하고 창업자 견해를 대리하는 셈’이라는 것이다.
여기에 더해, xAI가 그록4를 발표하며 업계 관행과 달리 시스템 설명서를 별도로 공개하지 않아 투명성 논란도 증폭됐다. AI 모델 알고리즘의 해석 가능성과 이용자 신뢰도 저하 우려가 제기된다. 전문가들은 “창업자 입장이 자동 반영되는 AI가 이용자 논리적 판단과 어떻게 구분되고, 사회적 윤리가 보장될지는 아직 불확실하다”며, 기술 상용화 단계에서 제도적 가이드라인이 요구된다는 점을 강조하고 있다. 산업계는 실제로 이런 ‘인격적 AI’가 대중 활용 단계에서 어떤 부작용을 낳을지 예의주시하는 분위기다.