“B200도 액침 냉각한다”…KT클라우드, AI센터로 DC혁신 속도
인공지능 데이터센터가 초고성능 GPU 경쟁에서 냉각·전력·네트워크 효율 전쟁으로 확장되고 있다. KT클라우드가 공개한 AI 이노베이션 센터는 엔비디아 B200 기반 서버, 차세대 수냉·액침 냉각, 고밀도 전력, RoCEv2 네트워크를 한곳에 모은 실증 허브다. 고가 GPU를 안정적으로 운용하면서 전력 비용과 탄소 배출을 줄이려는 전 세계 클라우드 사업자의 과제가 집약된 공간으로, 업계에서는 국내 AI 데이터센터 기술 경쟁의 분기점으로 보는 시각도 나온다.
KT클라우드는 11일 인공지능 데이터센터 인프라와 쇼룸을 결합한 AI 이노베이션 센터를 공식 공개했다. 센터에는 엔비디아의 최신 B200 GPU를 탑재한 AI 서버 랙과 D2C 액체 냉각 장치, AI 전용 네트워크 등 실제 AI 데이터센터와 동일한 환경이 구축됐다. KT클라우드는 이 공간을 통해 고효율·고신뢰 AI 인프라를 선행 실증하고 상용 데이터센터에 순차 적용한다는 전략이다.

핵심은 차세대 냉각 기술이다. AI 서버당 전력 소모가 수 킬로와트를 넘어서는 상황에서 공랭 방식만으로는 집적도와 안정성을 동시에 확보하기 어렵기 때문이다. KT클라우드는 글로벌 AI 서버의 사실상 표준으로 부상한 D2C 수냉식 방식에 맞춰 기술 내재화를 진행해 왔다. 센터에는 1킬로와트급 모듈 8개, 총 8킬로와트 부하를 거는 서버형 D2C 수냉식 시스템이 구현됐다. 앞서 KT클라우드는 서울 가산 AI 데이터센터에 이 기술을 국내 최초로 상용화했으며, 서버형과 랙형 부하기를 자체 개발하고 B200, NVL72 등 최신 GPU 규격에 맞춰 냉각수 유량, 압력, 온도 조건을 지속적으로 검증해 왔다.
공기를 식히는 간접 냉각과 달리 D2C 수냉은 냉각수가 칩 가까이까지 직접 흐르며 열을 흡수해 냉각 효율을 크게 끌어올린다. 같은 용량의 서버를 운용할 때 필요한 공조 설비를 줄일 수 있어 공간 활용도와 PUE 전력사용효율 지표 개선에도 유리하다는 평가다. 특히 이번 센터에서는 D2C 방식의 실제 배관, 펌프, 분배기 구성과 함께 장애 시 대응 시나리오까지 시뮬레이션하도록 설계했다.
한 단계 더 진화한 액침 냉각 모형도 눈길을 끈다. 액침 냉각은 서버 전체를 특수 절연 액체에 담가 열을 제거하는 방식으로, 팬이 필요 없고 열전달 효율이 높아 고집적 AI 클러스터에 적합하다. KT클라우드는 센터 내 실증을 통해 실제 부하 테스트를 수행한 결과, 최대 60퍼센트 수준의 전력 절감 효과를 확인했다고 설명한다. 기존 공랭 대비 냉동기, 공조팬 등 간접 설비 소비전력이 크게 줄어드는 구조이기 때문이다.
네트워크 측면에서는 글로벌 AI 네트워크 장비 기업 아리스타와 협력해 RoCEv2 기반 AI 전용 네트워크를 구축했다. RoCEv2는 일반 이더넷 위에서 원격 직접 메모리 접근을 구현하는 RDMA 기술로, AI 학습 과정에서 필수적인 대규모 파라미터 동기화와 모델 샤딩 통신의 지연을 줄여준다. 센터에 구축된 네트워크는 기존 인피니밴드 기반 AI 클러스터 대비 비용 효율성과 확장성을 높인 차세대 이더넷 RDMA 구조라는 점에서 의미가 있다. 대규모 상용 데이터센터에서 이더넷 표준을 유지하면서도 인피니밴드에 근접한 성능을 확보하려는 글로벌 흐름과 궤를 같이한다.
전력 인프라도 AI 서버에 맞춰 재설계됐다. KT클라우드는 자체 개발한 표준 랙 기반 고밀도 전력 인프라를 선보였다. 이 표준 랙은 20킬로와트 이상의 AI 서버 부하를 안정적으로 수용할 수 있는 전력 공급 구조를 갖추고, 직류 48볼트 전원 방식을 도입해 AC 변환 손실을 줄이고 안정성을 강화했다. 모듈형 설계로 랙 단위 전력 용량 확장과 교체가 용이하며, 글로벌 오픈 컴퓨트 프로젝트 표준을 준수해 다양한 서버 벤더와의 호환성을 확보했다.
센터에서는 데이터센터 운영 자동화를 위한 AI 솔루션도 함께 시연된다. KT클라우드가 자체 개발해 특허를 등록한 패스파인더는 디지털트윈 기반 시뮬레이션으로 전력 계통을 가상 복제한 뒤, 부하, 안정성, 중복성을 고려해 최적 전력 경로를 자동으로 선택하는 자율형 전력 제어 기술이다. 실제 전원을 차단하거나 증설하지 않고도 장애 상황을 가상 실험하면서 운영 정책을 도출할 수 있어, 대규모 AI 전력 인프라의 신뢰성을 높이는 도구로 평가된다.
데이터센터 통합 관리 영역에서는 DIMS 인사이트가 소개됐다. 이 솔루션은 FMS 설비관리 시스템에서 나오는 온도, 전력, 진동 등 각종 운영 데이터를 AI로 분석해 설비 이상 징후를 사전에 감지하고 예지 정비를 지원한다. 인력 의존도가 높았던 점검과 유지보수 업무에 AI를 도입해 운영 효율을 끌어올리겠다는 구상이다.
AI 인프라 환경 이해도를 높이기 위한 체험 요소도 배치됐다. 자율주행 로봇이 서버룸을 순찰하며 상태를 점검하는 시연이 진행되고, B200 GPU 기반 AI 학습 및 MLOps 환경을 쉽게 체험할 수 있는 공간이 마련됐다. AI 개발자와 기업 고객이 실제와 유사한 환경에서 성능을 확인하고 PoC를 수행하는 용도로도 활용될 전망이다.
글로벌 시장에서는 초거대 AI 모델 학습 수요가 폭발하는 가운데, 전력 규제와 탄소 중립 요구로 데이터센터 효율 경쟁이 심화되고 있다. 북미와 유럽에서는 수냉과 액침 냉각, 고밀도 랙 전력, 이더넷 기반 AI 패브릭을 결합한 차세대 데이터센터 설계가 주요 화두다. KT클라우드의 AI 이노베이션 센터는 국내 사업자가 이러한 글로벌 기술 트렌드를 선행 실증하고 자체 솔루션으로 묶어내려는 시도로 해석된다.
규제 측면에서는 아직 데이터센터 효율이나 냉각 방식에 대한 직접 규제는 없지만, 탄소 배출 감축과 재생에너지 사용 확대 요구가 강화되는 추세다. 업계에서는 고효율 냉각과 전력 인프라를 선행 도입한 데이터센터가 향후 환경 규제와 전력 공급 제약에 대응하는 데 유리한 위치를 점할 수 있다는 관측이 나온다.
최지웅 KT클라우드 대표는 AI 이노베이션 센터를 차세대 데이터센터 기술 실증과 고객 가치 중심 AI 인프라 구현을 위한 핵심 플랫폼으로 규정했다. 산업계에서는 KT클라우드가 축적한 냉각, 전력, 네트워크, 운영 자동화 기술이 실제 상용 센터에 얼마나 빠르게 확산될지에 주목하고 있으며, 국내 AI 인프라 경쟁 구도의 변곡점이 될 수 있다는 평가도 제기된다. 궁극적으로는 AI 성능 경쟁과 더불어 에너지 효율, 인프라 지능화 수준이 클라우드 산업의 새로운 승부처가 되고 있다.
