“중국, 자체 AI로 미국에 도전장”…딥시크 차세대 모델 공개, 효율성 강화 논란 촉발
현지시각 9월 30일, 중국(China) 인공지능 스타트업 딥시크(DeepSeek)가 베이징(Beijing)에서 차세대 대형언어모델 ‘V3.2-Exp’를 공개했다. 딥시크는 이번 모델이 속도와 비용 효율성, 대규모 데이터 처리 능력을 한층 강화했다고 밝혔다. ‘DeepSeek Sparse Attention(DSA)’ 기술을 적용해 불필요한 데이터를 건너뛰고 핵심 정보 추출에 집중함으로써, 운영비용을 최대 절반까지 절감할 수 있다고 강조했다.
딥시크는 지난해 소수의 칩과 제한된 연산 자원만으로 대형 언어모델을 훈련한 사례로 주목받은 바 있으며, 이번 신형 모델도 적은 하드웨어로 높은 성능을 구현한다는 노선을 이어갔다. 특히 중국산 반도체인 어센드(Ascend), 캄브리콘(Cambricon) 기반에서도 별도 설정 없이 구동되도록 해 미국(USA) 반도체 의존을 줄이려는 중국 정부 전략과도 궤를 같이한다. 딥시크는 모델 전체 코드를 공개해 누구나 응용할 수 있도록 하는 오픈소스 정책도 강화했다.

하지만 모델 효율성 개선과 맞물려 신뢰성 저하 우려도 제기된다. 업계 전문가들은 DSA 방식이 중요 데이터까지 누락할 가능성을 지적했다. 에카테리나 알마스크(Ekaterina Almasque)는 “결국 중요하지 않다고 판단한 것을 잘라내는 방식인데, 그것이 정말 불필요한 정보인지 보장할 수 없다”며 “이로 인해 모델이 세밀한 뉘앙스를 잃고 결과의 타당성이 훼손될 가능성이 있다”고 경고했다.
해외 시장과 업계에선 이번 발표를 중국이 미국의 오픈AI(OpenAI) GPT-5 등과의 인공지능 주도권 경쟁에서 기술 독립과 생태계 확장을 동시에 노린 포석으로 분석한다. 오픈소스 정책은 특허·저작권 방어에는 불리할 수 있지만, 글로벌 커뮤니티 확산을 촉진하는 효과도 있다. 주요 글로벌 IT매체들은 “중국이 대규모 AI 기술의 독립 생태계를 구축할지에 주목해야 한다”고 평가했다.
전문가들은 “AI 경쟁의 핵심은 단순 연산 자원보다 비용, 속도, 그리고 안정성을 두루 갖춘 시스템 확보”라며 “딥시크가 차세대 아키텍처 진입을 선언한 만큼 실제 성능 향상과 신뢰성 보강 방안이 관건이 될 것”이라고 지적한다. 이번 모델이 글로벌 AI 패권구도의 변곡점이 될지 국제사회가 예의주시하고 있다.