logo
“경량 멀티모달 AI 공개”…카카오, GPT-4o급 기술력 → 글로벌 도전 신호탄
IT/바이오

“경량 멀티모달 AI 공개”…카카오, GPT-4o급 기술력 → 글로벌 도전 신호탄

이소민 기자
입력

카카오가 글로벌 최고 수준의 경량 멀티모달 인공지능(AI) 언어모델과 전문가 혼합(MoE) 구조의 신규 모델을 국내 최초로 오픈소스로 공개하며 자체 AI 기술 경쟁력을 한 단계 끌어올렸다. 해당 모델은 이미지와 텍스트를 동시에 이해하는 멀티모달 처리 능력과, 추론 단계에서 일부 전문가만 활성화하는 효율적 구조로 주목받고 있다. 업계는 이번 공개를 ‘한국형 파운데이션 AI 경쟁’의 중요한 변곡점으로 평가한다.

 

카카오는 24일 글로벌 AI 허브 허깅페이스를 통해 경량 멀티모달 언어모델 ‘Kanana-1.5-v-3b’와 전문가 혼합(MoE) 언어모델 ‘Kanana-1.5-15.7b-a3b’를 동시 오픈소스화했다. 지난 5월 공개한 Kanana-1.5 시리즈 이후 2개월 만의 추가 공개로, 카카오는 ‘프롬 스크래치’ 방식의 독자 모델 설계 역량을 재차 증명했다. 정부의 독자 AI 파운데이션 모델 프로젝트 참여 경험과 대규모 서비스 운영 노하우도 토대로, 전 국민의 AI 접근성 제고와 국가 기술 자립에 기여한다는 방침이다.

‘Kanana-1.5-v-3b’는 경량이면서도 텍스트와 이미지 모두를 처리, 한국어·영어 문서의 이해 능력에서 글로벌 멀티모달 모델 GPT-4o에 버금가는 성능을 기록했다. 국내외 동일 규모 공개 모델 대비 한국어 벤치마크에서 최고 점수를 받았고, 지시 이행 능력은 국내 동급 모델 대비 128% 수준에 달한다. 특히 인간 선호 반영 학습(Human Preference Learning), 지식 증류(Knowledge Distillation) 기반 고도화 전략으로, 소형 모델임에도 대형 모델에 근접한 일반화 능력과 정확도를 구현했다. 지식 증류란, 뛰어난 대형 AI가 제시한 확률 분포까지 학습해 작은 모델의 정밀도와 추론 성능을 끌어올리는 최신 AI 트레이닝 기법이다.

 

실제 Kanana-1.5-v-3b는 이미지·글자 인식, 시·동화 창작, 문화유산 판별, 도표 해석, 수학 풀이 등 다양한 분야에서 활용성이 높다. 예를 들어, 장소 사진과 함께 지역 설명을 요청하면 청계천 등 특정 장소를 정확히 인식, 국내 사용자 환경에 최적화된 답변을 즉시 제공한다. 카카오는 “AI가 사람처럼 동적 사고와 지시 이행, 추론능력을 갖출 수 있도록 모델의 멀티모달·에이전트화 기술을 강화하고 올해 하반기에는 추론 중심 신모델도 선보일 예정”이라고 밝혔다.

 

함께 공개된 MoE 모델 ‘Kanana-1.5-15.7b-a3b’는 입력된 데이터에 대해 전체 15.7B 파라미터 중 약 3B만 활성화, 계산 효율과 비용 절감에 최적화된 구조가 특징이다. 기존 3B 모델을 신경망 업사이클링 기법으로 여러 전문가 레이어로 확장, 새로운 학습 없이도 강력한 성능을 확보했다. 실제로 3B 파라미터만 사용해도 기존 8B 모델급 성능을 보여, 고성능 AI 인프라를 저비용으로 구축하려는 연구자와 기업·공공기관 모두에 실질적 도움이 될 전망이다. MoE 구조는 최근 글로벌 AI 트렌드로 부상 중이며, 특정 업무에 특화 전문가만 동원해 에너지·자원 소모 없이 고효율 추론이 가능한 원리다.

 

카카오는 Kanana 모델 전 라인업을 모두 독자 기술 기반으로 설계, 지속적 스케일업을 추진하며 초거대 플래그십 AI 개발에도 박차를 가하고 있다. 이같은 움직임이 GPT-4o 등 글로벌 AI 빅테크 중심 시장에 대항할 수 있는 토대가 될지 주목된다.

 

산업계 일각에서는 “카카오가 공개한 AI 모델은 비용 효율성과 실시간 반응성 등 국내 서비스형 AI(GenAI) 시장에 확실한 기술 옵션을 제공할 수 있다”는 평가다. 한편 데이터 보안·알고리즘 투명성 등 AI 확산에 필수적인 정책·윤리 체계 강화도 병행돼야 한다는 목소리가 꾸준하다. 전문가들은 “기술 고도화와 제도 정비가 동시에 추진돼야 AI 산업의 지속 성장이 가능해질 것”으로 내다보고 있다.

이소민 기자
share-band
밴드
URL복사
#카카오#kanana#moe