logo
“추론형 LLM 시대 연다”…LG CNS, 에이전틱 AI·소버린 AI 앞세워 시장 공략
IT/바이오

“추론형 LLM 시대 연다”…LG CNS, 에이전틱 AI·소버린 AI 앞세워 시장 공략

배진호 기자
입력

추론형 거대언어모델(LLM)이 AI 업계의 경쟁 구도를 바꾸고 있다. LG CNS가 글로벌 AI 유니콘 코히어와 협력해 1110억개 파라미터 규모의 추론형 LLM을 공동 개발, 에이전틱 AI·소버린 AI 구현에 속도를 높이고 있다. 업계에서는 이번 LLM이 글로벌 상위 모델을 넘어서는 핵심 성능과 고객 데이터 안전성 확보 측면 모두에서 시장 판도를 흔들 수 있는 기술 도약이라는 평가를 내놓고 있다.

 

LG CNS는 추론형 LLM을 통해 금융·공공 등 민감 데이터가 많은 산업군의 고도화된 업무 자동화 수요를 선점하는 데 집중한다. 코히어와의 협업 하에, 한국어 특화 경량형(70억 파라미터)부터 초대형 모델까지 LLM 라인업을 완성했다. 이번 LLM은 23개 언어를 지원하고, 특히 온프레미스·클라우드 방식으로 안전하게 배포 가능한 점이 차별화 포인트다.

기술의 핵심은 AI가 스스로 논리적 판단과 복잡한 작업을 실행하는 ‘에이전틱 AI’ 구현에 있다. 추론형 LLM은 기존 생성형 AI와 달리 다양한 변수와 상황을 고려해, 사용자의 목적에 맞춘 로직적 해답을 제공한다. 이를 위해 LG CNS는 코히어의 검증된 커맨드 모델 아키텍처에 자체 산업별 IT·AI 노하우를 접목, 기업 맞춤형 AI 서비스 제공 역량을 강화했다.

 

성능 면에서 LG CNS·코히어 LLM은 대표적 추론력 벤치마크인 Math500, AIME 2024에서 GPT-4o, 클로드 3.7 소넷 등과 비교해도 한국어·영어 모두 높은 점수를 기록했다. 특히, KMMLU·KO-IFEval 같은 한국어 지능지표에서는 Qwen3 등 글로벌 동급을 넘어 현존 최고 수준으로 평가됐다. 복잡한 비즈니스 질문에도 정교하게 답변을 내놓을 수 있어, 기관·기업의 의사결정 품질 개선 효과도 크게 기대된다.

 

아울러 이 LLM은 효율성도 돋보인다. 고속 모델 압축 기술로 GPU 2장만으로 1000억개 이상 파라미터 구동이 가능하다. 통상 유사 규모엔 4장 이상의 GPU가 필요하다. 자체 인프라에서 AI를 완전하게 운영하려는 ‘소버린 AI’ 트렌드에 맞춰 민감 데이터 보안과 비용 경쟁력을 모두 강화했다.

 

글로벌 LLM 시장에서는 대개 영어 중심·클라우드 기반이 일반적이다. 이에 비해 LG CNS는 한국 및 다국어 현업에 특화된 온프레미스 LLM을 강조하며, 독립적 AI 운영 요구가 높은 금융·공공·대기업 표적 시장을 공략한다. 이미 코히어의 커맨드 기반 LLM은 캐나다 최대 은행 RBC 등 글로벌 기관에서 실전 검증을 마쳤다.

 

업계에서는 소버린 AI의 출현이 데이터 주권·AI 규제 강화 흐름과 맞물려 핵심 변수로 부상했다고 본다. 국내외 대형 기관들은 자국 환경에 맞게 특화된 AI를 내부 시스템으로 도입하려는 움직임을 보이고 있다. 당분간 정부·산업계의 AI 윤리 기준, 데이터 보호 규제, 활용 적합성 인증 등 다양한 제도 논의도 한층 활발해질 전망이다.

 

전문가들은 “추론형 LLM 중심의 에이전틱 AI가 실제 업무 자동화·의사결정 고도화 패러다임을 이끌 것”으로 내다보고 있다. 산업계는 이번 AI 기술이 실제 시장에 안착할 수 있을지 주시하고 있다.

배진호 기자
share-band
밴드
URL복사
#lgcns#코히어#에이전틱ai