“3나노 AI칩으로 전력 40퍼센트↓”…아마존, 엔비디아 독점 흔든다
아마존이 차세대 인공지능 전용 반도체 트레이니움3 상용화에 나서며 AI 인프라 경쟁의 축이 재편되는 분위기다. 트레이니움3가 아마존웹서비스의 대규모 AI 데이터센터 서버에 본격 적용되면, 초대형언어모델 학습과 추론 비용 구조가 크게 바뀔 수 있다는 관측이 제기된다. 구글에 이어 아마존까지 독자 칩 비중을 높이면서 AI 반도체 시장에서 엔비디아 GPU 중심 체제가 완화되는 흐름도 감지된다. 업계에서는 이번 발표를 향후 AI 학습 비용과 전력 인프라 경쟁의 분기점으로 해석하는 기류가 형성되고 있다.
AWS는 2일 미국 라스베이거스에서 열린 리인벤트 행사에서 자체 설계한 신규 AI 칩 트레이니움3 기반 울트라 서버를 클라우드 고객에게 제공하기 시작했다고 공식화했다. 트레이니움3는 AWS가 처음으로 3나노미터 공정을 적용한 AI 칩으로, 초대형언어모델 학습과 다수 사용자 동시 추론에 초점을 맞춘 전용 반도체다. 서버 한 대에는 최대 144개의 트레이니움3 칩이 탑재되며, 전 세대인 트레이니움2 기반 울트라 서버 대비 연산 성능은 최대 4.4배 높아지고 전력 소비는 40퍼센트 줄어든 것으로 소개됐다.

아마존은 트레이니움3 기반 서버가 4배 낮은 지연 시간을 구현해 모델 훈련 기간을 기존 몇 개월에서 몇 주 수준으로 줄이고, 동시에 더 많은 추론 요청을 처리할 수 있다고 설명했다. 이를 통해 고객사는 서비스 출시 기간과 운영 비용을 함께 낮출 수 있다는 주장이다. AWS는 같은 수준의 AI 모델을 GPU 기반 인프라에서 학습·운영하는 경우와 비교할 때 트레이니움3 서버를 활용하면 최대 50퍼센트 수준의 비용 절감 효과를 기대할 수 있다고 강조했다. 학습량 폭증과 자본 부담이 커진 상황에서 스타트업을 포함한 고객사들이 엔비디아 GPU 의존도를 낮추고 선택지를 넓히게 되는 셈이다.
트레이니움3의 기술적 차별점은 고성능과 전력 효율을 동시에 겨냥한 점에 있다. 3나노미터 공정을 도입해 트랜지스터 밀도를 높이고, 특정 행렬 연산과 텐서 연산을 최적화해 AI 특화 처리 성능을 끌어올렸다는 설명이다. 특히 아마존은 같은 사용자 지연 시간을 유지하면서도 전력 1메가와트당 처리할 수 있는 출력 토큰 수를 전 세대 대비 5배 이상 늘렸다고 공개했다. 초거대 모델이 토큰 단위로 텍스트를 생성하는 구조를 감안하면, 전력 인프라당 처리량을 극대화한 셈이다.
맷 가먼 AWS 최고경영자는 리인벤트 기조연설에서 트레이니움3의 성능 수치를 직접 언급하며 전력 효율과 처리량 개선을 핵심 성과로 꼽았다. 동시에 후속 칩인 트레이니움4 개발에 이미 착수했다고 밝혔다. 트레이니움4는 연산 성능 6배 증대, FP8 연산 성능 3배 향상, 메모리 대역폭 4배 확대를 목표로 하고 있어, 초거대 모델 학습과 멀티모달 AI 서비스에 최적화된 차세대 칩으로 개발되고 있는 것으로 풀이된다.
아마존의 이번 행보는 기술 성능을 넘어 AI 반도체 공급망 구조에도 영향을 줄 전망이다. 지금까지는 전 세계 AI 데이터센터 투자가 확대되면서 엔비디아 GPU 확보력이 곧 AI 경쟁력의 핵심 지표로 작용해왔다. 한편으로는 AI 모델 학습과 서비스 사용량이 폭발적으로 증가하면서 국가별 전력 인프라와 데이터센터 전력 허용량이 성장의 병목으로 떠올랐다. 고성능이면서도 전력 효율을 극대화한 전용 칩 수요가 커지는 배경이다.
구글은 앞서 자체 설계한 텐서처리장치 TPU를 통해 같은 흐름을 선점해왔다. 최근 공개된 제미나이 3.0 서비스 역시 TPU 기반 인프라에서 돌아가는 것으로 알려져 있으며, 고성능 언어 모델과 멀티모달 모델을 TPU 위에서 최적화해 GPU 대비 높은 비용 효율을 확보했다는 평가가 나온다. 대규모 AI 투자에 나선 메타가 구글 TPU 도입 방안을 검토 중이라는 보도가 이어지면서, 빅테크 간 AI 칩 수직 계열화 트렌드는 이미 가속 구간에 진입한 분위기다.
여기에 엔비디아 GPU의 주요 고객 중 하나였던 아마존이 자체 AI 칩을 본격 확대하면, GPU 위주의 단일 공급 구조는 점진적으로 약화될 가능성이 제기된다. 대형 클라우드 기업이 자체 칩과 GPU를 혼합해 포트폴리오를 구성하는 구도가 굳어질 수 있기 때문이다. 다만 엔비디아도 AWS와의 관계를 강조하며 시장 안정을 시도하고 있다. 리인벤트 무대에 선 엔비디아 측은 AWS가 엔비디아 GPU를 구동하기에 최적의 환경을 제공하며, 15년 이상 축적한 대규모 GPU 운영 경험을 기반으로 공동 혁신을 이어가고 있다고 언급했다.
시장 측면에서는 특정 칩 구조가 절대 우위를 점하는 구도보다는, 클라우드 사업자별로 자체 칩과 GPU, 기타 가속기를 조합해 워크로드별 최적 구성을 찾는 다원화 국면이 이어질 것으로 관측된다. LLM 학습, 추론, 검색 강화형 모델, 영상 생성 등 작업마다 요구되는 연산 특성이 다른 만큼, 칩 선택 기준도 성능뿐 아니라 전력당 처리량, 총소유비용, 소프트웨어 생태계 지원 여부로 세분화될 전망이다. 아마존이 트레이니움3를 전력 효율과 비용 절감 플랫폼으로 포지셔닝한 것도 이런 흐름과 맞물린다.
정책과 규제 측면에서는 국가별 전력 인프라와 데이터센터 인허가 정책이 AI 칩 경쟁의 또 다른 전장이 되고 있다. 유럽과 아시아 일부 국가에서는 대규모 데이터센터 신증설에 환경 규제와 전력 수급 문제가 얽히며 허가 기준이 강화되는 흐름이 나타나고 있다. 같은 전력으로 더 많은 토큰과 모델 파라미터를 처리할 수 있는 칩은 규제 환경에서도 비교 우위를 확보할 수 있다. 전력 효율을 전면에 내세운 트레이니움3와 차세대 칩 개발 전략은 이런 제도적 제약을 염두에 둔 행보로도 해석된다.
전문가들은 구글과 아마존의 독자 AI 칩이 단기간에 엔비디아의 영향력을 대체하기보다는, 특정 워크로드와 고객층을 중심으로 점유율을 분산시키는 방향으로 작용할 것으로 본다. 반면 AI 인프라를 둘러싼 전력, 규제, 공급망 리스크는 더욱 복잡해질 여지도 있다. 산업계는 트레이니움3를 비롯한 전용 AI 칩들이 실제 클라우드 시장에서 어느 수준의 점유율과 비용 경쟁력을 입증할지, 그리고 이 변화가 GPU 중심 생태계와 반도체 공급망을 어떻게 재구성할지 예의주시하고 있다.
