Cómo Nvidia creó el chip que impulsa el auge de la IA generativa

En 2022, el fabricante de chips estadounidense Nvidia lanzó el procesador H100, uno de los procesadores más potentes que jamás haya fabricado, y uno de los más caros, con un costo de alrededor de $ 40,000 cada uno. La fecha de lanzamiento se veía mal, justo cuando las empresas buscaban recortar gastos en medio de una inflación desenfrenada.

Luego, en noviembre, se lanzó ChatGPT.

“Pasamos de un año muy difícil el año pasado a un cambio de la noche a la mañana”, dijo Jensen Huang, CEO de Nvidia. Dijo que el exitoso chatbot de OpenAI fue un “momento ajá”. “Él creó una demanda inmediata”.

La repentina popularidad de ChatGPT ha llevado a una carrera armamentista entre las empresas de tecnología líderes en el mundo y las nuevas empresas que se apresuran a adquirir el H100, que Huang describe como “la primera computadora del mundo”. [chip] Diseñado para IA generativa”: sistemas de IA que pueden generar rápidamente texto, imágenes y contenido similares a los humanos.

El valor de tener el producto correcto en el momento correcto se hizo evidente esta semana. Nvidia anunció el miércoles que sus ventas durante los tres meses hasta julio serán de $ 11 mil millones, más del 50 por ciento más que una estimación anterior de Wall Street, impulsada por una reactivación del gasto de Big Tech en centros de datos y la demanda de sus chips de inteligencia artificial.

La respuesta de los inversionistas a las expectativas agregó $ 184 mil millones a la capitalización de mercado de Nvidia en un solo día el jueves, acercando a la que ya era la compañía de chips más valiosa del mundo a una valoración de $ 1 billón.

Un gráfico de barras del precio de las acciones, que muestra que Nvidia está aumentando debido a mayores ingresos por IA

Nvidia se encuentra entre los primeros ganadores del ascenso astronómico de la IA generativa, una tecnología que amenaza con remodelar las industrias, generar enormes ganancias de productividad y desplazar millones de puestos de trabajo.

Este salto tecnológico se verá acelerado por el H100, que se basa en la nueva arquitectura de chip de Nvidia denominada “Hopper”, llamada así por la pionera del software estadounidense Grace Hopper, y que de repente se ha convertido en el producto más popular de Silicon Valley.

“Realmente despegó cuando comenzamos la producción en Hopper”, dijo Huang, y agregó que la fabricación a gran escala comenzó unas semanas antes del debut de ChatGPT.

La confianza de Huang en las ganancias continuas se debe en parte a su capacidad para trabajar con el fabricante de chips TSMC para aumentar la producción del H100 y satisfacer la creciente demanda de proveedores de servicios en la nube como Microsoft, Amazon y Google, grupos de Internet como Meta y clientes empresariales.

“Este es uno de los recursos de ingeniería más escasos del planeta”, dijo Brannen McBee, director de estrategia y fundador de CoreWeave, una startup de infraestructura en la nube centrada en IA que estuvo entre las primeras en recibir envíos del H100 a principios de este año.

Algunos clientes han esperado hasta seis meses para obtener miles de chips H100 que quieren entrenar en sus modelos de big data. Las nuevas empresas de IA han expresado su preocupación de que el H100 escaseará en el momento en que la demanda despegue.

Está viendo una captura de pantalla de un gráfico interactivo. Es muy probable que esto se deba a que no está conectado a Internet o JavaScript está deshabilitado en su navegador.


Elon Musk, quien compró miles de chips Nvidia para su nueva compañía de inteligencia artificial X.ai, dijo en un evento del Wall Street Journal esta semana que las GPU en este momento son “mucho más difíciles de conseguir que las drogas”, bromeando que no lo era. punto realmente alto en San Francisco”.

“El costo de la computación se ha vuelto enorme”, agregó Musk. La apuesta inicial mínima debe ser de $ 250 millones en hardware de servidor [to build generative AI systems]. “

El H100 ha demostrado ser particularmente popular entre las grandes empresas de tecnología como Microsoft y Amazon, que están construyendo centros de datos completos enfocados en cargas de trabajo de IA, y empresas de IA generativa como OpenAI, Anthropic, Stability AI e Inflection AI porque prometen un mayor rendimiento que puede acelerar lanzamientos de productos o Reducir los costos de capacitación con el tiempo.

“En términos de acceso, sí, así es como se ve un nuevo impulso de GPU”, dijo Ian Buck, presidente del negocio de computación de ultra alto y ultra alto rendimiento de Nvidia, quien tiene la enorme tarea de aumentar el suministro del H100. para satisfacer la demanda. “Está sucediendo a gran escala”, agregó, con algunos clientes importantes que buscan decenas de miles de GPU.

El chip inusualmente grande, un “acelerador” diseñado para funcionar en centros de datos, tiene 80 mil millones de transistores, cinco veces la cantidad de procesadores que alimentan los últimos iPhones. Si bien cuesta el doble que su predecesor, el A100 lanzado en 2020, los primeros usuarios dicen que el H100 tiene un rendimiento al menos tres veces mejor.

El H100 resuelve la cuestión de escalabilidad que lo ha estado atormentando [AI] dijo Emad Mustak, cofundador y director ejecutivo de Stability AI, una de las empresas detrás del servicio de creación de imágenes Stable Diffusion. “Esto es importante porque nos permite a todos entrenar modelos más grandes más rápido a medida que pasa de la investigación a un problema de ingeniería”.

Si bien el momento del lanzamiento del H100 fue perfecto, el avance de Nvidia en IA se remonta a casi dos décadas atrás a la innovación en software en lugar de silicio.

Su software Cuda, creado en 2006, permite que las GPU se reutilicen como aceleradores para otros tipos de cargas de trabajo además de gráficos. Luego, alrededor de 2012, Buck explicó: “Encontramos IA”.

Investigadores en Canadá se dieron cuenta de que las GPU son ideales para crear redes neuronales, una forma de inteligencia artificial inspirada en la forma en que las neuronas interactúan en el cerebro humano, que luego se convirtió en un nuevo enfoque para el desarrollo de la inteligencia artificial. “Tomó casi 20 años llegar a donde estamos hoy”, dijo Buck.

Nvidia ahora tiene más ingenieros de software que ingenieros de hardware para permitirle admitir los muchos tipos diferentes de marcos de trabajo de IA que surgieron en los años posteriores y hacer que sus chips sean más eficientes en el cálculo estadístico necesario para entrenar modelos de IA.

Hopper fue la primera arquitectura optimizada de “Transformers”, el enfoque de IA que sustenta el chatbot “Transformers pregenerado” de OpenAI. El trabajo cercano de Nvidia con los investigadores de IA le ha permitido identificar la apariencia del Switch en 2017 y comenzar a ajustar su software en consecuencia.

“Podría decirse que Nvidia vio el futuro antes que nadie con su giro hacia la fabricación de GPU programables”, dijo Nathan Benaisch, socio general de Air Street Capital, un inversionista en nuevas empresas de IA. “Ha visto una gran oportunidad y ha superado consistentemente a sus competidores”.

Benaich estima que Nvidia tiene una ventaja de dos años sobre sus competidores, pero agrega: “Su posición está lejos de ser impenetrable tanto en hardware como en software”.

Mostaque de Ai acepta establecerse. Los chips de próxima generación de Google, Intel y otros se están poniendo al día [and] Incluso Cuda deja de ser un foso a medida que se estandariza el software. “

Para algunos en la industria de la IA, el entusiasmo de Wall Street esta semana parece demasiado optimista. Sin embargo, Jay Goldberg, fundador de la firma de asesoría de chips D2D, dijo: “Por ahora, parece que el mercado de semifinales de IA seguirá siendo un mercado en el que el ganador se lo lleva todo para Nvidia”.

Información adicional de Madhumita Murgia