장비·운용 비용 줄이면서 성능 강화
엔비디아 독주 흔들까
이 기사는 1월 30일 오전 11시26분 '해외 주식 투자의 도우미' GAM(Global Asset Management)에 출고된 프리미엄 기사입니다. GAM에서 회원 가입을 하면 9000여 해외 종목의 프리미엄 기사를 보실 수 있습니다.
[서울=뉴스핌] 황숙혜 기자 = 월가에서 마이아 200을 평가할 때 가장 많이 언급되는 비교 대상은 엔비디아(NVDA)의 블랙웰 아키텍처 기반 B200 GPU다. 블랙웰 B200은 듀얼 다이 구조와 2000억 개 이상의 트랜지스터, 192GB HBM3e 메모리, 최대 8TB/s 수준의 메모리 대역폭을 갖춘 범용 AI GPU로, 학습과 추론을 모두 겨냥한 플래그십 제품이다.
FP4·FP8 등 저정밀 연산에서도 블랙웰은 호퍼(Hopper) 대비 최대 2배 수준의 성능을 제공한다고 알려져 있고, H100 대비 추론 최대 30배, 학습 4배 수준의 개선을 목표로 한다.
성능 수치만 놓고 보면, B200 기반 시스템은 8개의 GPU로 구성된 DGX 플랫폼에서 FP4 기준 144페타플롭스, FP8 기준 72페타플롭스 수준의 연산 성능을 달성하는 것으로 제시된다. 단일 칩 기준으로 환산할 경우 마이아 200의 FP4 10페타플롭스·FP8 5페타플롭스와 비교해 블랙웰 B200이 여전히 더 높은 절대 성능을 제공하는 것으로 보인다.
블랙웰은 또 5세대 NV링크(NVLink, GPU 간 고속 인터커넥트)를 통해 GPU당 1.8TB/s 수준의 대역폭을 제공하며, 대규모 학습 클러스터에서 고효율 확장을 지향한다.
마이아 200의 목표 지점은 다르다. 마이크로소프트(MSFT)는 이 칩을 '최신 세대 하드웨어 대비 3배 FP4 성능(아마존 3세대 트레이니엄(Trainium) 대비)과 구글 7세대 TPU보다 높은 FP8 성능을 갖춘 하이퍼스케일러(초대형 클라우드 사업자) 가운데 가장 강력한 자체 실리콘'으로 규정한다. 즉, 범용 학습 및 추론 GPU가 아니라 추론용 AI 가속기 카테고리 안에서 경쟁사 자체 칩 대비 우월한 성능과 효율성을 내세운다는 얘기다.
마이아 200의 강점은 크게 세 가지로 정리할 수 있다. 하나는 추론에 특화된 저정밀 연산·메모리 구조다. FP4·FP8 같은 낮은 정밀도는 모델 품질을 유지하면서도 메모리 사용량과 전력 소비를 줄일 수 있어 대규모 상용 서비스 환경에서 토큰당 비용을 크게 낮출 수 있다.
둘째는 표준 이더넷 기반의 확장 구조로, 전용 패브릭에 비해 장비와 운영 비용을 줄이면서도 최대 6144개 가속기까지 규모를 키울 수 있는 설계라는 점이다. 셋째는 애저와의 깊은 통합으로, 마이크로소프트의 상위 서비스부터 파이토치 같은 개발 툴 체계까지 수직적으로 최적화가 이뤄진다.

약점도 없지 않다. 우선 생태계 측면에서 엔비디아는 CUDA(쿠다, GPU 컴퓨팅 플랫폼)와 텐서RT(TensorRT, 추론 최적화 소프트웨어) 등 방대한 소프트웨어 및 라이브러리 생태계를 이미 구축해 놓았고, 수많은 AI 연구자와 기업들이 이를 중심으로 워크플로우를 쌓아 올린 상태다.
마이아 200은 애저 클라우드 내부에서 주로 쓰이는 폐쇄적 플랫폼의 성격이 강해 범용 생태계 측면에서는 엔비디아와 같은 영향력을 확보하기 어렵다는 지적이다. 또 학습까지 포괄하는 범용 GPU가 아니라 추론에 맞춰 설계된 만큼 엔비디아 블랙웰처럼 '학습+추론+HPC(고성능 컴퓨팅)'를 모두 노리는 범용 칩 대비 활용 범위가 제한적이다.
블랙웰은 여전히 최고 성능과 범용성을 가진 GPU이자 업계 표준이고, 마이아 200은 그 위에서 돌아가는 AI 워크로드 중 추론과 특정 마이크로소프트 서비스를 저비용으로 처리하는 데 최적화된 전용 가속기인 셈이다. 두 개 제품은 직접 대체 관계라기보다 마이크로소프트 인프라 안에서 역할을 분담하는 상보적 관계에 가까운 구도를 형성하게 될 가능성이 커 보인다.

마이아 200이 엔비디아의 AI 반도체 시장 독주를 흔들 수 있을 것인가에 대해서는 전문가들의 시각이 엇갈린다. AI 가속기 시장에서 엔비디아가 차지하는 비중은 여전히 절대적이고 블랙웰 세대까지 포함한 제품 로드맵과 CUDA 생태계는 단기간 내 대체가 거의 불가능하다는 평가가 지배적이다.
다만, 클라우드 하이퍼스케일러들이 자체 칩 개발에 나서는 추세는 엔비디아의 가격 결정력과 공급 교섭력에 구조적인 압력을 가하고 있다. 아마존은 트레이니엄과 인퍼렌시아(Inf1/Inf2, 추론 전용 칩) 시리즈로 학습과 추론 양쪽을 자체 실리콘으로 보완하고 있고, 구글은 TPU(텐서 프로세싱 유닛) 시리즈를 통해 내부 서비스와 구글 클라우드 고객에게 대안을 제공하고 있다.
마이크로소프트의 마이아 200은 이런 구도 속에서 '마이크로소프트판 TPU·인퍼렌시아'에 해당하는 카드로, 최소한 자사 데이터센터 안에서는 엔비디아 GPU의 유일한 선택지 지위를 약화시키는 효과를 낸다.
단기적으로는 마이아 200이 엔비디아의 전체 매출과 점유율에 직접 큰 타격을 주기보다 마이크로소프트의 평균 AI 인프라 단가를 낮추고, 엔비디아와의 장기 공급 계약에서 협상력을 높이는 정도의 영향이 현실적인 범위로 보인다. 중장기로 보면, 마이크로소프트와 아마존, 구글 등 소수의 초대형 고객이 자체 칩 비중을 단계적으로 늘리면서 엔비디아의 성장률과 마진에 부담으로 작용할 수 있다는 점에서 구조적인 리스크로 지목된다.
투자 관점에서는, 마이크로소프트가 자체 칩 도입을 통해 엔비디아 의존도를 줄이면, 엔비디아의 '슈퍼사이클'에 동승하면서도 독자적인 원가 경쟁력을 확보하는 '양손잡이 전략'이 강화되는 셈이다. 즉, 단기적으로는 엔비디아 생태계를 활용해 AI 수요를 흡수하면서 장기적으로는 자체 인프라를 늘려 이익률을 개선하는 구조다. 마이아 200은 이 전략의 추론 파트에서 핵심적인 역할을 맡게 될 가능성이 크다.
마이크로소프트는 2025년 4분기 월가의 예상치를 웃도는 실적을 냈지만 발표 직후 시간외 거래에서 주가 급락을 연출했다. 투자자들이 지금 당장의 숫자보다 AI 인프라 투자 강도와 그에 따른 중기 수익성에 더 민감하게 반응한다는 의미로 풀이된다. 업체는 최근 분기 자본 지출(capex, 설비 투자)이 전년 대비 66% 증가한 375억 달러 수준으로 뛰었다고 밝힌 바 있고, 일부 분석은 AI 및 데이터센터 관련 연간 투자 규모를 800억 달러 안팎으로 추정하고 있다.
여기에 더해, 회사가 보유한 6250억 달러 규모의 잔여 수행의무(RPO·remaining performance obligations) 중 약 45%가 오픈AI와 직접 연계되어 있다는 새로운 공시 내용은 소위 '오픈AI 리스크'에 대한 시장의 경계심을 자극했다. 오픈AI의 상업적 성과와 규제 리스크, 지배구조 이슈 등이 마이크로소프트의 장기 수익성과 직결될 수 있다는 우려가 반영된 것.
투자자들의 관심은 마이아 200이 돌파구가 될 것인지 여부에 집중됐다. 칩이 AI 인프라 투자를 더 높은 수익성으로 연결해 줄 수 있을 것인가의 문제다. 마이아 200이 달러당 성능을 30% 개선하고 기존 칩 대비 3배 이상의 FP4 성능과 더 높은 FP8 성능을 제공한다는 점을 감안하면 같은 수준의 AI 서비스를 제공할 때 필요한 서버와 전력, 쿨링 비용을 상당 폭 줄일 수 있다는 계산이 나온다.
마이아 200이 보다 구체적인 경제성 개선 스토리를 제시한다는 얘기다. AI 인프라의 단위 비용이 내려가면 코파일럿과 애저 AI 같은 상위 서비스의 가격 정책에서도 더 공격적인 전략이 가능해지고, 이는 다시 사용량 증가와 잠재적 매출 확대로 이어질 수 있다.
다만, 시장이 이 효과를 실제로 확인하기까지는 시간이 필요하다고 업계 전문가들은 지적한다. 마이아 200은 현재 아이오와주를 중심으로 미국 중부와 애리조나주를 중심으로 미 서부 등 일부 애저 데이터센터에 초기 배치가 시작된 단계다.
전세계 주요 지역으로 확대와 상위 서비스의 마이아 최적화, 고객 워크로드의 이전이 본격화되려면 수 분기 이상의 시간이 걸릴 가능성이 크다. 때문에 단기 주가 모멘텀에 베팅하기보다 2026~2027년 사이 AI 인프라 투자 대비 영업이익률 추이와 코파일럿 및 애저 AI 매출 성장률, 여기에 마이아 200의 기여도를 확인하는 과정이 필요하다고 월가는 조언한다.
shhwang@newspim.com













