El CEO de Nvidia, Jensen Huang, anunció durante el Consumer Electronics Show (CES) en Las Vegas que la próxima generación de chips de la compañía ya está en producción total. Además, aseguró que puede ofrecer hasta cinco veces más capacidad de cómputo para inteligencia artificial (IA) que su generación anterior, sobre todo en chatbots.
Huang dio nuevos detalles de la plataforma Vera Rubin, compuesta por seis chips distintos de Nvidia, que se lanzará este año. Se trata de un paquete de hardware para centros de datos que corre IA a gran escala. Incluye 72 GPU, que son las que hacen la mayor parte del cálculo pesado de IA. Y 36 CPU, que coordinan el sistema, manejan tareas generales y alimentan de datos a las GPU.
El ejecutivo mostró también cómo estos sistemas pueden conectarse en pods, bloques de servidores interconectados que trabajan como una sola fábrica de cómputo. Con más de 1.000 chips Rubin trabajando juntos, Nvidia afirma que se puede mejorar diez veces la eficiencia.
Además, Nvidia presentó una nueva capa de almacenamiento para los chatbots llamada context memory storage, para que manejen mejor conversaciones largas. La idea es que el sistema pueda guardar y recuperar contexto de forma más rápida. El resultado sería que puedan responder sin perder el hilo y sin gastar tanto cómputo volver a cargar información.
La empresa también promocionó una nueva generación de switches de red con una conexión de óptica integrada. Los switches son el centro de conexiones que une miles de chips dentro de un data center. Y la óptica integrada apunta a gestionar datos más rápido y con mejor eficiencia energética, cuando todo se escala a miles de máquinas.

Autos autónomos
Por otro lado, Huang anunció un nuevo software orientado a vehículos autónomos, que busca mejorar cómo deciden qué maniobra realizar. Además, este programa dejaría un registro auditable para que los ingenieros puedan reconstruir por qué el auto tomó alguna decisión.
Según relató, Nvidia ampliará el acceso a un software llamado Alpamayo y publicará también los datos usados para entrenarlo, con la idea de que las automotrices puedan evaluar el desempeño con mayor transparencia. “No solo hacemos open source de los modelos, también de los datos con los que los entrenamos”, afirmó.

China y el H200
Huang también habló de la demanda china por el chip H200, un modelo previo a la actual familia Blackwell. Recientemente, Donald Trump, el presidente de Estados Unidos, permitió que el H200 vuelva a venderse en el mercado chino. Sin embargo, Nvidia debe gestionar licencias y aprobaciones para concretar envíos.
Al respecto, Huang dijo que la demanda china por el H200 es muy grande. En paralelo, la directora financiera Colette Kress señaló que Nvidia solicitó licencias para vender el chip al país, pero seguía esperando la aprobación de Estados Unidos y otros gobiernos.
Tal vez te interese: Alemania inaugura supercomputadora Nvidia para investigación






