AI 핵심 요약
beta- ARM홀딩스가 12일 AI 에이전트 확산으로 서버 CPU 수요 급증의 최대 수혜자로 거론됐다.
- AI 에이전트가 CPU 투입 규모를 키워 전력 효율과 저지연 성능을 핵심 기준으로 재편했다.
- ARM 아키텍처가 x86 대비 30% 전력 우위와 응답 속도 강점으로 하이퍼스케일러 채택 확대된다.
!AI가 자동 생성한 요약으로 정확하지 않을 수 있어요.
"ARM, x86보다 전력 효율성 우위"
"응답 속도 우위, 소형 코어 등의 장점"
하이퍼스케일러, ARM 기반 채택 확대
이 기사는 5월 12일 오전 10시39분 '해외 주식 투자의 도우미' GAM(Global Asset Management)에 출고된 프리미엄 기사입니다. GAM에서 회원 가입을 하면 9000여 해외 종목의 프리미엄 기사를 보실 수 있습니다.
[서울=뉴스핌] 이홍규 기자 = 반도체 아키텍처 설계 회사 ARM홀딩스(ARM)가 인공지능(AI) 에이전트 확산에 따른 서버용 CPU(중앙처리장치) 수요 급증의 최대 수혜자로 거론되고 있다. 서버용 CPU 대량 배치의 핵심 기준인 전력 효율과 응답 속도 성능에서 ARM의 우위가 돋보인다는 판단에서다.
◆AI 에이전트가 바꾼 기준
CPU 선정에서 전력 효율이 부각되는 배경에는 복잡한 작업을 수행하는 AI 에이전트가 데이터센터 내 CPU 투입 규모를 급격히 키우는 데 있다. 에이전트 AI는 작업 편성, 도구 호출, 하위 에이전트 생성·관리 등 순차적인 작업 지시와 조율을 CPU에서 처리한다.
![]() |
이때 CPU에 걸리는 부하의 증가폭은 상당한 것으로 추산된다. UBS가 인용한 업계 전문가에 따르면 기존 AI에서 연산의 70~80%가 GPU에 집중되던 구도가 AI 에이전트에서는 역전돼 70~80%가 CPU로 이동한다. GPU당 CPU 코어 수도 기존 훈련 환경의 8~12개에서 80~120개로 크게 늘어난다.
CPU 투입 규모가 이처럼 확대되면 데이터센터 전력 예산에서 CPU가 차지하는 비중이 급격히 커진다. UBS에 따르면 하이퍼스케일러의 CPU 구매 의사결정에서 핵심 지표는 최대 성능이 아닌 와트당 트랜잭션(개별 작업 처리 건수) 수다. 에이전트 AI 확산이 서버용 CPU 선정 기준 자체를 전력 효율 중심으로 재편하고 있는 셈이다.
전력 효율과 함께 저지연 성능도 핵심 기준이 되고 있다. 에이전트 AI 인프라에는 GPU 서버 랙에 연결돼 작업 편성과 GPU 활용률 관리를 맡는 서버인 '헤드노드'가 있다. 헤드노드가 작업을 조율하는 과정에서의 지연은 에이전트 전체 응답 시간에 그대로 반영된다. 하위 에이전트가 10~100개씩 생성되는 구조에서는 지연이 누적되므로 헤드노드 CPU의 저지연 성능이 결정적이다.
◆"2가지 기준서 우위"
ARM의 아키텍처는 2가지 기준에서 우위에 있다는 평가가 나온다. UBS가 인용한 업계 전문가 평가에 따르면 ARM은 인텔·AMD의 기존 아키텍처인 x86 대비 전력 효율에서 약 30% 우위를 보인다고 한다. ARM은 명령어 구조가 비교적 단순하게 설계돼 동일한 연산을 x86보다 적은 전력으로 처리한다. 또 코어가 작게 설계돼 같은 실리콘 면적에서 더 많은 코어를 확보할 수 있고 대량 배치 시 코어당 제조 비용에서도 유리하다는 설명이 따른다.
![]() |
![]() |
응답 속도에서 유리하다는 평가도 같은 소형 코어 구조에서 비롯된다. 코어 내부 신호 경로가 짧아 명령 처리 지연이 줄어들고 코어 하나가 단일 작업에 전체 자원을 할당하므로 작업 간 자원 경합으로 인한 지연 변동도 낮다. 하나의 코어에서 여러 작업을 동시에 처리하면서 자원 경합이 발생하는 x86과 차이가 있다.
◆하이퍼스케일러 채택 확대
주요 하이퍼스케일러의 ARM 기반 CPU 채택은 확대되는 추세다. AWS는 자사 서버 프로세서의 절반을 ARM 기반 그래비튼(Graviton)으로 운영하고 있고 엔비디아·마이크로소프트·구글도 데이터센터용 CPU를 ARM 기반으로 설계·배치하고 있다. UBS는 2030년 헤드노드 CPU 시장에서 ARM 점유율이 75%를 넘을 것으로 전망했다.
ARM은 로열티 수취를 넘어 자체 칩 직접 공급으로 수혜 규모를 키우려 한다. 올해 3월 자체 설계한 첫 양산형 제품인 AGI(Arm General Infrastructure) CPU를 공개하고 에이전트형 AI 인프라를 겨냥한 데이터센터용 CPU 시장에 진출을 선언했다. 메타가 선도 고객이자 공동 개발 파트너로 참여했고 오픈AI·세레브라스·SK텔레콤 등도 출시 파트너로 명시됐다.
▶②편에서 계속됨
bernard0202@newspim.com
















