Qualcomm entra en el centro de datos: lanza los chips AI200 y AI250 para desafiar el dominio de Nvidia
Resumen
Qualcomm anunció el lunes 27 de octubre de 2025, hora del este de EE. UU., el lanzamiento de dos nuevos chips de inteligencia artificial, AI200 y AI250, ingresando oficialmente al mercado de centros de datos para competir con Nvidia y AMD. Estos dos chips, con planes de comercialización en 2026 y 2027 respectivamente, se venderán como tarjetas aceleradoras y sistemas a nivel de rack. Tras el anuncio, las acciones de Qualcomm se dispararon más del 20% en un momento dado ese día, cerrando con un alza del 11%.
Qualcomm Technologies lanzó oficialmente el lunes 27 de octubre de 2025, hora del este de EE. UU., sus soluciones de optimización de inferencia de inteligencia artificial de próxima generación para centros de datos, incluyendo tarjetas aceleradoras y sistemas de rack basados en los chips Qualcomm AI200 y AI250. Esto marca la entrada oficial de la compañía, conocida por sus chips para teléfonos inteligentes, en el mercado de IA para centros de datos de rápido crecimiento.
Especificaciones del Producto y Características Técnicas
El AI200 es una solución diseñada específicamente para la inferencia de IA a nivel de rack, con el objetivo de ofrecer un bajo costo total de propiedad (TCO) y un rendimiento optimizado para la inferencia de modelos de lenguaje grandes (LLM) y multimodales. Cada tarjeta soporta 768 GB de memoria LPDDR, ofreciendo mayor capacidad de memoria y menor costo.
El más avanzado AI250 adoptará una arquitectura de memoria innovadora basada en la computación cercana a la memoria (near-memory computing), ofreciendo más de 10 veces el ancho de banda de memoria efectivo en comparación con el AI200, al tiempo que reduce significativamente el consumo de energía. Ambos chips se basan en la arquitectura Hexagon de Qualcomm, la tecnología subyacente de las unidades de procesamiento neuronal (NPU) en los sistemas en chip (SoC) de consumo de Qualcomm.
Ambas soluciones de rack están equipadas con sistemas de refrigeración líquida directa para mejorar la eficiencia térmica, soportan escalabilidad horizontal PCIe y escalabilidad vertical Ethernet, cuentan con capacidades de computación confidencial para asegurar las cargas de trabajo de IA, y tienen un consumo de energía a nivel de rack de 160 kilovatios.
Posicionamiento en el Mercado y Panorama Competitivo
Los chips para centros de datos de Qualcomm se basan en la unidad de procesamiento neuronal (NPU) Hexagon, un componente de IA presente en sus chips para teléfonos inteligentes. Durga Malladi, gerente general de centros de datos y negocios de edge de Qualcomm, declaró: "Primero queríamos probarnos en otras áreas, y una vez que establecimos nuestra fuerza allí, entrar en el nivel de centro de datos se volvió bastante fácil."
Qualcomm afirma que sus chips de IA ofrecen ventajas sobre otros aceleradores en términos de consumo de energía, costo de propiedad y un nuevo enfoque de arquitectura de memoria. Los competidores de aceleradores de IA de la compañía incluyen los chips H100 y H200 de Nvidia, el acelerador Instinct MI300X de AMD y el acelerador Gaudi de Intel.
Qualcomm venderá tanto los chips de IA como otros componentes, especialmente dirigidos a clientes a hiperescala que prefieren diseñar sus propios racks. Malladi indicó que otras compañías de chips de IA como Nvidia o AMD podrían incluso convertirse en clientes de Qualcomm para ciertos componentes de centros de datos, como las unidades centrales de procesamiento (CPU).
Primer Cliente y Planes de Comercialización
La empresa saudí de inteligencia artificial Humain será el primer cliente de estos nuevos chips, con planes de desplegar 200 megavatios de capacidad de cómputo a partir de 2026. Qualcomm planea comenzar a enviar el AI200 y el AI250 en 2026 y 2027, respectivamente, y afirmó que actualizará su línea de procesadores de IA para centros de datos anualmente en el futuro.
Reacción del Mercado
Tras el anuncio, las acciones de Qualcomm se dispararon más del 20% en un momento dado el lunes, cerrando con un alza del 11%. Los inversores acogieron con satisfacción la noticia, impulsando las acciones de la compañía hasta un 15% durante la jornada.
Contexto de la Industria
La entrada de Qualcomm en el sector de los centros de datos marca una nueva competencia en el mercado de más rápido crecimiento de la industria tecnológica: el de equipos para los nuevos clústeres de servidores de IA. Según estimaciones de McKinsey, para 2030, se invertirán casi 6.7 billones de dólares en gastos de capital en centros de datos, la mayor parte de los cuales se destinará a sistemas basados en chips de IA.
Esta industria ha estado dominada por Nvidia, cuyas GPU han acaparado hasta ahora más del 90% de la cuota de mercado y cuyas ventas han impulsado la capitalización de mercado de la compañía a más de 4.5 billones de dólares. Los chips de Nvidia se utilizan para entrenar los grandes modelos de lenguaje (LLM) GPT de OpenAI, que se aplican en ChatGPT.
Cabe destacar que esta no es la primera vez que Qualcomm intenta entrar en el mercado de centros de datos. En 2017, la compañía anunció una colaboración con Microsoft para desarrollar la plataforma Qualcomm Centriq 2400, pero el proyecto fracasó rápidamente debido a la intensa competencia de Intel y AMD, así como a problemas internos de la compañía (incluyendo una serie de demandas).
En este regreso al mercado de centros de datos, Qualcomm ha adoptado una estrategia diferente, centrándose en la inferencia de IA en lugar de la computación de propósito general, y aprovechando sus décadas de experiencia en procesadores móviles de bajo consumo, busca asegurar una posición en este mercado en rápida expansión.