CES Hardware Inteligencia Artificial Reuters 

El CEO de Nvidia, Huang, afirma que la próxima generación de chips está en plena producción

La plataforma Vera Rubin de Nvidia debutará con 72 unidades de procesamiento gráfico y 36 procesadores centrales

Nvidia se enfrenta a la competencia de AMD y Google en el mercado de chips de IA

Los nuevos chips de Nvidia utilizan datos propietarios para mejorar el rendimiento

Las Vegas, 6 de enero (Reuters) – Nvidia (NVDA.O), El director ejecutivo Jensen Huang dijo el lunes que la próxima generación de chips de la compañía está en «plena producción» y afirmó que pueden ofrecer cinco veces más capacidad de procesamiento de inteligencia artificial que los chips anteriores de la compañía al utilizar chatbots y otras aplicaciones de inteligencia artificial.

En un discurso en el Consumer Electronics Show de Las Vegas , el líder de la compañía más valiosa del mundo reveló nuevos detalles sobre sus chips, que llegarán a finales de este año y que ejecutivos de Nvidia dijeron a Reuters que ya están en los laboratorios de la compañía siendo probados por firmas de inteligencia artificial, mientras Nvidia enfrenta una creciente competencia de sus rivales y de sus propios clientes.

Se espera que la plataforma Vera Rubin, compuesta por seis chips independientes de Nvidia, debute a finales de este año. El servidor insignia contendrá 72 unidades gráficas de la compañía y 36 de sus nuevos procesadores centrales. Huang mostró cómo se pueden conectar en «módulos» con más de 1000 chips Rubin y afirmó que podrían multiplicar por diez la eficiencia de la generación de los llamados «tokens», la unidad fundamental de los sistemas de IA.

Sin embargo, para obtener los nuevos resultados de rendimiento, Huang dijo que los chips Rubin utilizan un tipo de datos patentado que la compañía espera que la industria en general adopte.

«Así es como pudimos ofrecer un avance tan gigantesco en el rendimiento, a pesar de que solo tenemos 1,6 veces la cantidad de transistores», dijo Huang.

Si bien Nvidia aún domina el mercado del entrenamiento de modelos de IA, enfrenta mucha más competencia de rivales tradicionales como Advanced Micro Devices (AMD.O)., así como clientes como Alphabet (GOOGL.O), Google – al entregar los frutos de esos modelos a cientos de millones de usuarios de chatbots y otras tecnologías.

Gran parte del discurso de Huang se centró en lo bien que funcionarían los nuevos chips para esa tarea, incluida la adición de una nueva capa de tecnología de almacenamiento llamada «almacenamiento de memoria de contexto» destinada a ayudar a los chatbots a proporcionar respuestas más rápidas a preguntas y conversaciones largas.

Nvidia también anunció una nueva generación de conmutadores de red con un nuevo tipo de conexión llamado óptica integrada. Esta tecnología, clave para conectar miles de máquinas en una sola, compite con las ofertas de Broadcom (AVGO.O)., y Cisco Systems (CSCO.O),.Nvidia dijo que CoreWeave (CRWV.O), será de los primeros en tener los nuevos sistemas Vera Rubin y eso espera Microsoft (MSFT.O), Oráculo (ORCL.N), Amazon (AMZN.O), y Alfabeto (GOOGL.O), para adoptarlos también.

En otros anuncios, Huang destacó un nuevo software que puede ayudar a los vehículos autónomos a tomar decisiones sobre la ruta a seguir y dejar un registro documental para que los ingenieros lo utilicen posteriormente. Nvidia presentó una investigación sobre el software, llamado Alpamayo, a finales del año pasado , y Huang anunció el lunes que se difundiría más ampliamente, junto con los datos utilizados para entrenarlo, de modo que los fabricantes de automóviles puedan realizar evaluaciones.

«No solo hacemos públicos los modelos, sino también los datos que usamos para entrenarlos, porque solo de esa manera podemos confiar verdaderamente en cómo surgieron los modelos», dijo Huang desde un escenario en Las Vegas.

El mes pasado, Nvidia fichó a la startup Groq, con talento y tecnología de chips, incluyendo ejecutivos que fueron fundamentales para ayudar a Google (de Alphabet) a diseñar sus propios chips de IA. Si bien Google es un cliente importante de Nvidia, sus propios chips se han convertido en una de las mayores amenazas para Nvidia, ya que Google colabora estrechamente con Meta Platforms y otras empresas para socavar la fortaleza de Nvidia en IA.

Durante una sesión de preguntas y respuestas con analistas financieros después de su discurso, Huang dijo que el acuerdo con Groq «no afectará nuestro negocio principal», pero podría resultar en nuevos productos que amplíen su línea.

Al mismo tiempo, Nvidia está ansiosa por demostrar que sus productos más recientes pueden superar a chips más antiguos como el H200, cuyo flujo de entrada al mercado chino ha sido autorizado por el presidente estadounidense Donald Trump. Reuters ha informado que el chip, predecesor del actual chip «Blackwell» de Nvidia, tiene una gran demanda en China , lo que ha alarmado a los halcones antichinos de todo el espectro político estadounidense.

Huang dijo a los analistas financieros después de su discurso que la demanda de chips H200 en China es fuerte, y la directora financiera Colette Kress dijo que Nvidia ha solicitado licencias para enviar los chips a China, pero estaba esperando las aprobaciones de los EE. UU. y otros gobiernos para enviarlos.

Relacionados

Dejar un comentario