퀄컴, 데이터 센터 진출: AI200 및 AI250 칩 출시로 엔비디아 주도적 위치에 도전
요약
퀄컴은 미국 동부 시간 2025년 10월 27일 월요일, 두 가지 새로운 인공지능 칩인 AI200과 AI250을 출시하며 데이터 센터 시장에 공식적으로 진출하여 엔비디아 및 AMD와 경쟁할 것이라고 발표했다. 이 두 칩은 각각 2026년과 2027년에 상용화될 예정이며, 가속 카드 및 랙 수준 시스템으로 판매될 것이다. 이 소식이 발표된 후, 퀄컴의 주가는 당일 한때 20% 이상 급등했으며, 11% 상승 마감했다.
퀄컴 테크놀로지스는 미국 동부 시간 2025년 10월 27일 월요일, 퀄컴 AI200 및 AI250 칩 기반의 가속 카드와 랙 시스템을 포함하는 데이터 센터용 차세대 인공지능 추론 최적화 솔루션을 공식 발표했다. 이는 스마트폰 칩으로 유명한 이 회사가 빠르게 성장하는 데이터 센터 AI 시장에 공식적으로 진입했음을 의미한다.
제품 사양 및 기술 특징
AI200은 랙 수준 AI 추론을 위해 특별히 설계된 솔루션으로, 대규모 언어 모델 및 다중 모달 모델 추론에 낮은 총 소유 비용과 최적화된 성능을 제공하는 것을 목표로 한다. 이 칩은 카드당 768GB LPDDR 메모리를 지원하여 더 높은 메모리 용량과 더 낮은 비용을 제공한다.
더욱 발전된 AI250은 니어 메모리 컴퓨팅 기반의 혁신적인 메모리 아키텍처를 채택하여, AI200 대비 10배 이상의 유효 메모리 대역폭을 제공하며 동시에 전력 소비를 크게 줄인다. 두 칩 모두 퀄컴의 헥사곤 아키텍처를 기반으로 하며, 이 아키텍처는 퀄컴의 소비자용 시스템 온 칩(SoC)에 탑재된 신경 처리 장치(NPU)의 핵심 기술이다.
두 가지 랙 솔루션 모두 열 효율을 높이기 위한 직접 액체 냉각 시스템을 갖추고 있으며, PCIe 수평 확장 및 이더넷 수직 확장을 지원한다. 또한 AI 워크로드 보안을 보장하는 기밀 컴퓨팅 기능을 포함하며, 랙 수준 전력 소비는 160킬로와트이다.
시장 포지셔닝 및 경쟁 구도
퀄컴의 데이터 센터 칩은 스마트폰 칩에 사용되는 AI 구성 요소인 헥사곤 신경 처리 장치를 기반으로 한다. 퀄컴 데이터 센터 및 엣지 사업부 총괄 매니저인 두르가 말라디(Durga Malladi)는 "우리는 먼저 다른 분야에서 우리의 역량을 증명하고 싶었고, 일단 그곳에서 입지를 다지면 데이터 센터 계층으로 진입하는 것이 상당히 쉬워진다"고 말했다.
퀄컴은 자사의 AI 칩이 전력 소비, 소유 비용 및 새로운 메모리 아키텍처 접근 방식 측면에서 다른 가속기보다 우위를 가진다고 밝혔다. 이 회사의 AI 가속기 경쟁사로는 엔비디아의 H100 및 H200 칩, AMD의 인스팅트 MI300X 가속기, 그리고 인텔의 가우디 가속기가 있다.
퀄컴은 AI 칩과 다른 부품들을 동시에 판매할 예정이며, 특히 자체적으로 랙을 설계하려는 하이퍼스케일 고객을 대상으로 한다. 말라디는 엔비디아나 AMD와 같은 다른 AI 칩 회사들이 퀄컴의 특정 데이터 센터 부품(예: 중앙 처리 장치)의 고객이 될 수도 있다고 언급했다.
첫 고객 및 상용화 계획
사우디아라비아 AI 기업 휴메인(Humain)이 이 새로운 칩의 첫 고객이 될 것이며, 2026년부터 200메가와트의 컴퓨팅 능력을 배포할 계획이다. 퀄컴은 2026년부터 AI200을, 2027년부터 AI250을 각각 출하할 계획이며, 향후 매년 데이터 센터 AI 프로세서 제품 라인을 업데이트할 것이라고 밝혔다.
시장 반응
이 소식이 발표된 후, 퀄컴의 주가는 월요일 한때 20% 이상 급등했으며, 11% 상승 마감했다. 투자자들은 이 소식을 환영하며, 장중 한때 회사 주가를 15%까지 끌어올렸다.
산업 배경
퀄컴의 데이터 센터 시장 진출은 기술 산업에서 가장 빠르게 성장하는 시장, 즉 새로운 AI 서버 클러스터용 장비 시장에서의 새로운 경쟁을 의미한다. 맥킨지의 추정에 따르면, 2030년까지 데이터 센터에 약 6조 7천억 달러의 자본 지출이 이루어질 것이며, 이 중 대부분은 AI 칩 기반 시스템에 사용될 것이다.
이 산업은 엔비디아가 지배해 왔으며, 엔비디아의 GPU는 현재까지 90% 이상의 시장 점유율을 차지하고, 매출은 이 회사의 시가총액을 4조 5천억 달러 이상으로 끌어올렸다. 엔비디아 칩은 오픈AI의 GPT 대규모 언어 모델 훈련에 사용되었으며, 이 모델들은 ChatGPT에 적용되었다.
주목할 점은 이것이 퀄컴의 첫 데이터 센터 시장 진출 시도가 아니라는 것이다. 2017년, 퀄컴은 마이크로소프트와 협력하여 퀄컴 센트리크 2400(Qualcomm Centriq 2400) 플랫폼을 개발한다고 발표했지만, 인텔과 AMD의 치열한 경쟁 및 일련의 소송을 포함한 회사 내부 문제로 인해 이 프로젝트는 곧 실패했다.
이번 데이터 센터 시장 재진입에서 퀄컴은 범용 컴퓨팅이 아닌 AI 추론에 집중하는 다른 전략을 채택했으며, 모바일 저전력 프로세서 분야에서 수십 년간 쌓아온 전문성을 바탕으로 이 빠르게 확장하는 시장에서 입지를 확보하고자 노력하고 있다.