Qualcomm entra en el mercado de los chips de inteligencia artificial para desafiar el dominio de Nvidia
La compañía estadounidense lanzará sus primeros aceleradores de IA para centros de datos en 2026 y 2027, con tecnología de refrigeración líquida y enfoque en eficiencia energética
Galaxy XR: Así es el primer dispositivo de realidad mixta de Samsung con inteligencia artificial integrada
El fabricante de semiconductores Qualcomm entra en el mercado de chips aceleradores de inteligencia artificial para centros de datos, un movimiento estratégico que la sitúa en competencia directa con gigantes del sector como Nvidia y AMD.
Los nuevos productos, llamados AI200 y AI250, estarán disponibles comercialmente en 2026 y 2027 respectivamente, marcando la diversificación de una empresa hasta ahora centrada en semiconductores para dispositivos móviles y tecnología inalámbrica que se adentra así en el segmento de mayor crecimiento de la industria tecnológica: la infraestructura de inteligencia artificial a gran escala.
Tecnología diseñada para centros de datos
Los chips AI200 y AI250 han sido específicamente diseñados para ejecutar modelos de inteligencia artificial ya entrenados en centros de datos, donde deben manejar grandes volúmenes de información y realizar cálculos complejos de manera eficiente.
A diferencia de los procesadores convencionales, estos aceleradores están optimizados para las operaciones matemáticas repetitivas que requieren los modelos de IA generativa, como los grandes modelos de lenguaje (LLM) y modelos multimodales (LMM).
La compañía que dirige Cristiano R. Amon presenta el Qualcomm AI200 como una solución de inferencia de IA a nivel de rack -estructura de servidores donde múltiples chips trabajan de manera coordinada- diseñada para ofrecer un bajo coste total de propiedad (TCO).
Este modelo soporta 768 GB de memoria LPDDR por tarjeta, lo que permite una mayor capacidad de memoria a menor coste, facilitando la escalabilidad y flexibilidad necesarias para las cargas de trabajo de IA.
Por su parte, el AI250 introduce una arquitectura de memoria innovadora basada en computación cercana a la memoria (near-memory computing), que según la firma proporciona un ancho de banda efectivo de memoria más de 10 veces mayor y un consumo energético mucho menor.
Esta tecnología permite la inferencia de IA desagregada, optimizando el uso del hardware mientras cumple con los requisitos de rendimiento y coste de los clientes.
Refrigeración líquida y consumo energético
Ambas soluciones de rack incorporan refrigeración líquida directa para mejorar la eficiencia térmica, un aspecto crítico dado el elevado calor que generan estos procesadores al funcionar a plena capacidad.
Los sistemas cuentan con conectividad PCIe para escalamiento vertical, Ethernet para escalamiento horizontal, computación confidencial para garantizar la seguridad en las cargas de trabajo de IA, y un consumo de energía a nivel de rack de 160 kilovatios.
"Con Qualcomm AI200 y AI250, redefinimos las posibilidades de la inferencia de IA a escala de rack. Estas innovadoras soluciones de infraestructura de IA permiten a los clientes implementar IA generativa con un coste total de propiedad sin precedentes, manteniendo al mismo tiempo la flexibilidad y seguridad que demandan los centros de datos modernos", explicó en un comunicado Durga Malladi, vicepresidente sénior y director general de Planificación Tecnológica, Soluciones Edge y Centro de Datos de Qualcomm Technologies.
Ecosistema de software y compatibilidad
Más allá del hardware, Qualcomm ha desarrollado lo que denomina una "pila de software de grado hiperscalador", optimizada específicamente para inferencia de IA.
Este ecosistema abarca desde la capa de aplicación hasta la capa de software del sistema, y es compatible con los principales marcos de aprendizaje automático, motores de inferencia y frameworks de IA generativa.
"Nuestra sólida pila de software y el soporte de ecosistema abierto hacen que sea más fácil que nunca para desarrolladores y empresas integrar, gestionar y escalar modelos de IA ya entrenados en nuestras soluciones optimizadas de inferencia de IA. Con una compatibilidad perfecta con los principales marcos de IA y una implementación de modelos con un solo clic, Qualcomm AI200 y AI250 están diseñados para una adopción fluida y una rápida innovación", añadió Malladi.
Los desarrolladores podrán beneficiarse de una incorporación de modelos sin fricciones y del despliegue con un solo clic de modelos de Hugging Face mediante la Biblioteca de Transformers Eficientes de Qualcomm Technologies y el Qualcomm AI Inference Suite.
El software proporciona aplicaciones y agentes de IA listos para usar, así como herramientas, bibliotecas, APIs y servicios completos para operacionalizar la inteligencia artificial.
Primer cliente: Arabia Saudí
Qualcomm ha anunciado simultáneamente un acuerdo con la compañía saudí Humain para implementar infraestructura avanzada de IA en Arabia Saudí.
El proyecto incluye 200 megavatios a partir de 2026 utilizando las soluciones de rack Qualcomm AI200 y AI250 para ofrecer servicios de inferencia de IA de alto rendimiento, lo que supone una validación comercial inmediata de la nueva tecnología.
El contexto: una batalla por el futuro de la IA
El anuncio de Qualcomm se produce en un momento de intensa competencia en el mercado de semiconductores para inteligencia artificial.
Actualmente, Nvidia domina este segmento con una posición prácticamente hegemónica, siendo además la empresa con mayor capitalización bursátil del mundo, valorada en 4,62 billones de dólares.
Sin embargo, otros gigantes tecnológicos como Google, Amazon y Microsoft también están desarrollando sus propios chips aceleradores de IA para implementarlos en sus plataformas en la nube, buscando reducir su dependencia de proveedores externos y optimizar costes.
La tecnológica se ha comprometido a mantener una hoja de ruta de productos para centros de datos con una cadencia anual, centrada en ofrecer un rendimiento de inferencia de IA, eficiencia energética y coste total de propiedad líderes en la industria.
Esta estrategia de largo plazo subraya la apuesta de la compañía por convertirse en un actor relevante en el ecosistema de la inteligencia artificial empresarial.
También te puede interesar
Lo último