IT/바이오

"뉴립스서 10편 채택"...팀네이버, 초거대 AI 풀스택 전략 입증

강태호 기자
입력

인공지능 학계 최고 권위로 꼽히는 뉴립스에서 한국 기업의 초거대 AI 전략이 구체적 성과로 평가를 받으면서, 연구 중심이던 국내 AI 생태계가 실제 서비스와 산업 현장으로 무게 중심을 옮기고 있다. 팀네이버가 하이퍼클로바X를 필두로 한 풀스택 AI 전략을 논문 10편 채택이라는 결과로 제시하면서, 초거대 언어모델의 효율과 안전성, 물리 세계로의 확장 전략이 글로벌 비교무대에 오른 셈이다. 업계에서는 이번 채택이 연구 성과를 넘어, 한국 빅테크의 AI 플랫폼 경쟁에서 구조적인 전환점이 될 수 있다는 평가도 나온다.

 

팀네이버는 9일 미국 샌디에이고에서 열린 뉴립스 2025에서 논문 10편이 채택됐다고 밝혔다. 뉴립스는 1987년부터 열리고 있는 인공지능 및 기계학습 분야 최고 수준의 국제 학회로, 올해 논문 채택률은 약 25퍼센트에 그쳤다. 이런 환경에서 두 자릿수 논문이 채택된 것은 팀네이버의 연구 역량과 산업 적용 능력이 글로벌 수준에 도달했음을 상징적으로 보여주는 수치로 받아들여진다.

팀네이버는 이번 학회에서 리서치에서부터 자체 초거대 AI 모델 하이퍼클로바X, 네이버 서비스 전반의 온서비스 AI, 산업 특화 버티컬 서비스까지 이어지는 풀스택 전략을 From Research to Reality라는 주제로 소개했다. 연구 단계에서 나온 알고리즘을 곧바로 초거대 모델과 실사용 서비스에 연결하는 구조를 내세우며, 단순 논문 발표를 넘어 상용화까지 염두에 둔 기술 포트폴리오를 부각했다.

 

채택된 논문 10편은 크게 세 갈래의 기술 축을 이룬다. 초거대 AI의 효율적 운용, 생성형 AI의 제어와 안전성 강화, 그리고 로봇과 비디오 등 물리 세계로의 확장을 아우르는 Physical AI 분야다. 모두 하이퍼클로바X와 네이버의 검색, 커머스, 클라우드, 로봇 등 실제 서비스에 곧바로 연결할 수 있는 실용적 주제들로 구성됐다.

 

효율성 측면에서는 거대언어모델의 긴 문맥 처리 구조를 근본적으로 손보는 연구가 주목을 받았다. 팀네이버는 LLM이 대화 기록이나 긴 문서를 다룰 때 필요한 중간 계산 결과를 캐시 형태로 저장하되, 중요도가 낮은 정보를 선별적으로 압축하는 캐시 압축 기술을 제안했다. 이를 통해 성능 저하 없이 메모리 사용량을 최대 4배 줄이고 응답 속도를 2배 높였다고 설명했다. 초거대 모델을 대규모 트래픽 환경에서 서비스할 때 서버 비용과 전력 소모를 동시에 줄일 수 있는 구조다.

 

또 다른 효율화 연구는 LLM의 사고과정으로 불리는 체인 오브 소트, 즉 단계별 추론 과정을 정밀 분석했다. 복잡한 수리 문제나 논리 문제를 풀 때 모델이 생성하는 중간 단계 가운데 실제 정답 도출에 기여하지 않는 부분을 제거해도 정답률 변화가 크지 않다는 점을 수학적으로 입증했다. 이 결과를 바탕으로 불필요한 추론 단계를 줄이는 디코딩 전략을 설계해 연산량을 줄이고 응답 시간을 단축할 수 있음을 보였다. 초거대 모델의 추론 비용을 줄이는 것이 산업 적용의 병목이라는 점에서, 상용화에 직결되는 연구라는 평가가 나온다.

 

생성형 AI의 안전성과 제어 가능성을 높이는 연구도 비중 있게 다뤄졌다. 팀네이버는 대화형 검색 환경에서 생성되는 콘텐츠의 품질을 정교하게 평가하기 위한 새로운 벤치마크를 제안했다. 단순 정답 여부뿐 아니라 정보의 정확성, 출처 신뢰도, 맥락 적절성, 유해성 여부까지 다단계로 평가할 수 있는 구조를 도입해, 실제 검색 서비스 품질과 더 밀접하게 연결된 평가 지표를 만들었다는 설명이다.

 

이미지 생성 분야에서는 사용자의 자연어 프롬프트를 더 정밀하게 반영하기 위한 텍스트 임베딩 기법을 제시했다. 기존에는 문장을 벡터로 바꾸는 과정에서 의미가 단순 평균처럼 희석되는 문제가 있었는데, 팀네이버는 프롬프트 내 핵심 표현에 가중치를 조정하는 구조를 도입해 사용자의 의도와 이미지 결과물 사이의 괴리를 줄였다. 창작 도구로서의 이미지 생성 AI를 상업 서비스로 안정적으로 운영하기 위해 필수적인 기술로 꼽힌다.

 

유해 콘텐츠 억제와 관련해서는 별도 재학습 없이도 기존 모델의 출력 단계에서 위험한 콘텐츠를 걸러내는 안전 제어 기법을 선보였다. 모델 파라미터 자체를 다시 학습하는 대신, 생성 과정 상단에 제어 모듈을 얹어 혐오, 폭력, 성적 표현 등 정책 위반 가능성이 있는 출력을 실시간 차단하거나 수위 조절하는 방식이다. 이 접근법은 서비스 운영 중에도 정책 기준 변경이나 국가별 규제 차이를 유연하게 반영할 수 있다는 점에서, 규제 대응 관점에서도 실용성이 크다는 평가를 받았다.

 

AI를 물리 세계로 확장하는 Physical AI 분야에서는 로봇과 비디오 처리에서 공통적인 난제인 시간 연속성 처리를 다뤘다. 팀네이버는 영상 프레임을 시간 순서대로 모두 처리하는 대신, 장면의 핵심 정보를 병목 토큰 형태로 압축해 학습하는 구조를 제안했다. 이런 병목 토큰 기반 학습은 장기 시퀀스에서 중요한 패턴만 추려내 메모리와 계산 자원을 줄이면서도, 장면 이해 성능을 유지하거나 향상시키는 효과를 보여줬다는 설명이다.

 

또 다른 논문은 로봇이 실제 환경에서 스스로 경로를 찾고, 변화하는 공간 정보를 기억하도록 돕는 모델 구조를 제시했다. 로봇이 공간 지도를 한 번에 완성하는 대신, 이동 과정에서 관측한 정보를 단계적으로 축적하고 업데이트하는 메모리 구조를 도입했다. 이를 통해 좁은 실내 공간부터 복잡한 실외 환경까지, 사전에 완벽한 지도 없이도 자율 주행과 경로 계획을 수행할 수 있는 기반을 마련했다는 평가를 받았다. 물류 로봇, 실내 안내 로봇 등 네이버의 실제 사업 영역과 맞닿아 있는 기술이다.

 

팀네이버는 학회 기간 동안 2만9천 명이 넘는 전 세계 AI 연구자들이 모인 현장에서 통합 부스를 운영하면서, 이번 논문 성과와 함께 하이퍼클로바X 기반 서비스와 네이버클라우드의 AI 인프라를 함께 소개했다. Meet the NAVER AI Team이라는 이름으로 국내외 연구진 80여 명을 초청한 밋업 행사를 열어 기술 비전과 연구 철학을 공유하며 채용과 공동 연구 기회를 모색하기도 했다. 글로벌 AI 인재 확보 경쟁이 심화되는 상황에서, 연구 성과를 전면에 내세운 적극적인 네트워킹 전략으로 풀이된다.

 

네이버클라우드 관계자는 뉴립스에서 논문 10편이 채택된 것을 두고 팀네이버의 연구 역량과 기술력이 세계적으로 인정받은 사례라고 평가했다. 이어 글로벌 AI 생태계 확장과 실제 서비스, 산업 적용을 위한 연구 역량 강화를 이어가겠다는 계획을 밝혔다. 업계에서는 네이버가 초거대 AI를 단순 API 제공에 그치지 않고 검색, 쇼핑, 콘텐츠, 로봇, 클라우드 등 자사 플랫폼 전반에 심층적으로 접목할 수 있는 구조를 갖춘 만큼, 이번 연구 결과가 향후 서비스 고도화로 직결될 가능성이 크다고 보고 있다.

 

한편 뉴립스는 올해로 39회를 맞았으며, 12월 2일부터 7일까지 미국 캘리포니아 샌디에이고에서 개최됐다. 글로벌 빅테크와 주요 대학, 스타트업이 한자리에 모이는 만큼, 연구 성과뿐 아니라 인력 수급과 사업 협력, 규제 대응 전략까지 포괄하는 AI 산업의 방향을 가늠하는 무대로 통한다. 산업계는 팀네이버가 이번에 제시한 풀스택 AI 전략이 실제 시장과 규제 환경 속에서 어느 수준까지 안착할지 예의주시하고 있다.

강태호 기자
share-band
밴드
URL복사
#팀네이버#하이퍼클로바x#neurips2025