“AI 모델 2.5배 빠르게 컴파일”…UNIST, 오토튜닝 기술로 글로벌 학회 진출
딥러닝 AI 모델을 실제로 실행 가능한 프로그램 형태로 바꿔주는 컴파일(Compile) 시간 단축 기술이 국내 연구진에 의해 개발되며, AI 시스템 분야의 글로벌 경쟁 구도가 새롭게 조명되고 있다. 울산과학기술원(UNIST) 이슬기 교수팀은 오토튜닝(Auto-Tuning) 과정을 최대 2.5배 빠르게 만드는 프레임워크를 개발해, 세계적 권위의 컴퓨터 시스템 학회인 OSDI에서 채택되는 성과를 올렸다. 학회 20여년 간 국내 연구진 이름이 오른 사례는 12건에 불과해 파급력이 주목된다. 업계는 이번 발표를 ‘AI 기반 시스템 소프트웨어 분야 경쟁력의 분기점’으로 해석한다.
오토튜닝은 AI 모델 코드를 하드웨어 연산 장치(GPU, CPU)에 최적화하는 알고리즘 실험 단계로, 기존에는 수십만 개 코드 조합을 하나하나 시험하는 과정이 병목으로 꼽혀왔다. 이 과정은 실제 코드 생성에 수십 분에서 수 시간, 경우에 따라 그 이상이 소요돼, 대규모 AI 개발 및 실험의 효율을 크게 저해해왔다. 이번에 개발된 기법은 딥러닝 모델 내부의 반복되는 구조(오퍼레이터)를 식별해, 유사 연산에 대한 최적화 정보를 공유함으로써 탐색(서치) 범위를 대폭 축소했다. 이를 통해 오토튜닝 시 기존 결과를 재활용, 코드 조합의 중복 탐색을 최소화했다.

실제 성능 평가에서는 기존 오토튜닝 프레임워크(Ansor) 대비, CPU 기반 실행에서 평균 2.5배, GPU에서는 2배 이상의 컴파일 속도 단축이 입증됐다. 이슬기 교수는 “컴파일 단계를 빠르게 줄이면서, 실제 하드웨어 실험을 위한 연산 자원 및 전력 소모도 동시에 절감할 수 있다”고 설명했다. 대용량 AI 학습으로 자원 부담과 비용 부담이 커지는 현실에서, 연산 효율화 기술의 효과가 산업 현장 전반에 파급되고 있다.
글로벌 시장에서는 구글, 엔비디아 등 선도 기업들이 클라우드 기반 대규모 AI 컴파일러 최적화를 경쟁적으로 추진 중이다. 유럽, 미국 주요 대학들도 반복 연산 최적화·자동화에 초점을 둔 연구를 강화하고 있다. OSDI는 구글의 AI 플랫폼 ‘텐서플로(TensorFlow)’ 등이 공개된 권위 있는 학회로, 이번 한국 연구진의 진출은 기술력 위상 제고로도 의미가 깊다.
한편, AI 컴파일 과정 최적화 기술은 소프트웨어 및 하드웨어 특성에 따라 표준화 및 데이터 활용 규제, 특허 확보가 중요한 관건으로 부상하고 있다. 데이터셋 다양성·AI 모델 확장성에 따라 글로벌 소프트웨어 IP 경쟁도 달아지는 모양새다.
전문가들은 이번 연구 성과가 AI 개발의 생산성을 크게 높이고, 실전 투입까지의 시간을 획기적으로 앞당길 전환점이 될 것으로 내다보고 있다. 산업계는 이번 기술이 실제 시장에 안착할 수 있을지 주시하고 있다.