NVIDIA anunció que estima que sus chips para inteligencia artificial podrían generar una demanda de al menos US$ 1 billón hasta 2027. Jensen Huang, CEO de la compañía, anunció la proyección durante la GTC 2026, la conferencia anual de la empresa en San José. Allí, además, presentó nuevos productos orientados a la próxima etapa del mercado. Entre ellos apareció Groq 3 LPX, pensado para tareas de inferencia, momento en que un modelo ya entrenado responde preguntas, genera texto o ejecuta acciones.

Según NVIDIA, la fiebre por la IA ya no pasa por entrenar modelos cada vez más potentes, sino por hacerlos funcionar de manera rápida, eficiente y rentable una vez que están en uso. Por eso la empresa vinculó su proyección económica con la creciente demanda de sus plataformas Blackwell y Rubin, dos familias de sistemas diseñadas para sostener centros de datos cada vez más grandes. En ese marco, Huang también mostró que NVIDIA quiere expandirse más allá de su negocio histórico de GPUs, con una oferta que ahora incluye procesadores, redes, almacenamiento y nuevos chips especializados.
El nuevo Groq 3 LPX
Uno de los anuncios más relevantes fue Groq 3 LPX, integrado a la nueva plataforma Vera Rubin. Según NVIDIA, este sistema está diseñado para responder a la necesidad de baja latencia y grandes volúmenes de contexto en aplicaciones de IA agéntica. Esto es, herramientas capaces de razonar, encadenar pasos y ejecutar tareas complejas. La empresa aseguró que esta combinación puede ofrecer hasta 35 veces más rendimiento de inferencia por megavatio. Así, la idea es que la IA sea más rápida, pero también más barata y escalable para las empresas que la usan a diario.

La apuesta tiene además una lógica competitiva. NVIDIA mantiene una posición dominante en el entrenamiento de modelos de IA, pero en inferencia enfrenta más rivales, porque esa etapa abrió la puerta a diseños más específicos y a nuevas arquitecturas. Reuters señaló que la compañía incluso prepara variantes de estos chips para mercados como China, donde la competencia en inferencia es más intensa y varias firmas locales ya desarrollan sus propias soluciones.
Tal vez te interese: El CEO de Nvidia asegura que la próxima generación de chips ya está en producción y que mejorará los chatbots de IA












