banner
Hogar / Blog / Cómo Nvidia construyó un foso competitivo en torno a los chips de IA
Blog

Cómo Nvidia construyó un foso competitivo en torno a los chips de IA

Jun 20, 2023Jun 20, 2023

Anuncio

Apoyado por

El ganador más visible del auge de la inteligencia artificial logró su dominio al convertirse en una ventanilla única para el desarrollo de la IA, desde chips hasta software y otros servicios.

Por Don Clark

Reportando desde San Francisco

Naveen Rao, un neurocientífico convertido en empresario tecnológico, intentó una vez competir con Nvidia, el principal fabricante mundial de chips diseñados para inteligencia artificial.

Para obtener más periodismo en audio y narraciones, descargue New York Times Audio, una nueva aplicación para iOS disponible para suscriptores de noticias.

En una empresa emergente que luego compró el gigante de los semiconductores Intel, Rao trabajó en chips destinados a reemplazar las unidades de procesamiento de gráficos de Nvidia, que son componentes adaptados para tareas de inteligencia artificial como el aprendizaje automático. Pero mientras Intel se movía lentamente, Nvidia actualizó rápidamente sus productos con nuevas funciones de inteligencia artificial que contrarrestaban lo que él estaba desarrollando, dijo Rao.

Después de dejar Intel y liderar una nueva empresa de software, MosaicML, Rao usó los chips de Nvidia y los evaluó frente a los de sus rivales. Descubrió que Nvidia se había diferenciado más allá de los chips al crear una gran comunidad de programadores de IA que inventaban constantemente utilizando la tecnología de la empresa.

“Todos construyen primero sobre Nvidia”, dijo Rao. "Si lanzas una nueva pieza de hardware, estás corriendo para ponerte al día".

Durante más de 10 años, Nvidia ha construido un liderazgo casi inexpugnable en la producción de chips que pueden realizar tareas complejas de inteligencia artificial como reconocimiento de imágenes, facial y de voz, así como generar texto para chatbots como ChatGPT. El otrora advenedizo de la industria logró ese dominio al reconocer tempranamente la tendencia de la IA, adaptando sus chips a esas tareas y luego desarrollando piezas clave de software que ayudan en el desarrollo de la IA.

Desde entonces, Jensen Huang, cofundador y director ejecutivo de Nvidia, ha seguido elevando el listón. Para mantener su posición de liderazgo, su empresa también ha ofrecido a sus clientes acceso a ordenadores especializados, servicios informáticos y otras herramientas de su comercio emergente. Eso ha convertido a Nvidia, para todos los efectos, en una ventanilla única para el desarrollo de IA.

Si bien Google, Amazon, Meta, IBM y otros también han producido chips de IA, Nvidia hoy representa más del 70 por ciento de las ventas de chips de IA y ocupa una posición aún mayor en el entrenamiento de modelos generativos de IA, según la firma de investigación Omdia.

En mayo, el estatus de la compañía como el ganador más visible de la revolución de la IA quedó claro cuando proyectó un salto del 64 por ciento en los ingresos trimestrales, mucho más de lo que Wall Street había esperado. Se espera que el miércoles, Nvidia, que ha superado el billón de dólares en capitalización de mercado para convertirse en el fabricante de chips más valioso del mundo, confirme esos resultados récord y proporcione más señales sobre la creciente demanda de IA.

"Los clientes esperarán 18 meses para comprar un sistema Nvidia en lugar de comprar un chip disponible en el mercado, ya sea de una nueva empresa o de otro competidor", dijo Daniel Newman, analista de Futurum Group. "Es increíble."

Huang, de 60 años, conocido por su característica chaqueta de cuero negra, habló de AI durante años antes de convertirse en una de las caras más conocidas del movimiento. Ha dicho públicamente que la informática está atravesando su mayor cambio desde que IBM definió cómo funcionan la mayoría de los sistemas y software hace 60 años. Ahora, dijo, las GPU y otros chips de propósito especial están reemplazando a los microprocesadores estándar, y los chatbots de IA están reemplazando la compleja codificación de software.

"Lo que entendimos es que se trata de una reinvención de cómo se hace la informática", dijo Huang en una entrevista. "Y construimos todo desde cero, desde el procesador hasta el final".

Huang ayudó a fundar Nvidia en 1993 para fabricar chips que renderizaran imágenes en videojuegos. Mientras que los microprocesadores estándar destacan por realizar cálculos complejos de forma secuencial, las GPU de la empresa realizan muchas tareas sencillas a la vez.

En 2006, el Sr. Huang fue más allá. Anunció una tecnología de software llamada CUDA, que ayudó a programar las GPU para nuevas tareas, convirtiéndolas de chips de propósito único en chips de propósito más general que podrían asumir otros trabajos en campos como la física y las simulaciones químicas.

En 2012 se produjo un gran avance cuando los investigadores utilizaron GPU para lograr una precisión similar a la humana en tareas como reconocer un gato en una imagen, un precursor de desarrollos recientes como la generación de imágenes a partir de indicaciones de texto.

Nvidia respondió orientando “todos los aspectos de nuestra empresa para avanzar en este nuevo campo”, dijo recientemente Huang en un discurso de graduación en la Universidad Nacional de Taiwán.

El esfuerzo, que la compañía estimó que ha costado más de 30 mil millones de dólares en una década, convirtió a Nvidia en algo más que un proveedor de componentes. Además de colaborar con científicos destacados y empresas emergentes, la empresa creó un equipo que participa directamente en actividades de IA, como la creación y el entrenamiento de modelos lingüísticos.

La advertencia anticipada sobre lo que necesitan los profesionales de la IA llevó a Nvidia a desarrollar muchas capas de software clave más allá de CUDA. Entre ellos se incluyen cientos de fragmentos de código prediseñados, llamados bibliotecas, que ahorran trabajo a los programadores.

En hardware, Nvidia se ganó la reputación de ofrecer constantemente chips más rápidos cada dos años. En 2017, comenzó a modificar las GPU para manejar cálculos de IA específicos.

Ese mismo año, Nvidia, que normalmente vendía chips o placas de circuitos para sistemas de otras empresas, también comenzó a vender computadoras completas para realizar tareas de IA de manera más eficiente. Algunos de sus sistemas ahora tienen el tamaño de supercomputadoras, que ensambla y opera utilizando tecnología de red patentada y miles de GPU. Dicho hardware puede tardar semanas en entrenar los últimos modelos de IA.

"Este tipo de computación no permite simplemente construir un chip y que los clientes lo utilicen", dijo Huang en la entrevista. "Hay que construir todo el centro de datos".

En septiembre pasado, Nvidia anunció la producción de nuevos chips denominados H100, que mejoró para manejar las llamadas operaciones de transformador. Estos cálculos resultaron ser la base de servicios como ChatGPT, que han provocado lo que Huang llama el “momento iPhone” de la IA generativa.

Para ampliar aún más su influencia, Nvidia también ha forjado recientemente asociaciones con grandes empresas de tecnología e invertido en empresas emergentes de inteligencia artificial de alto perfil que utilizan sus chips. Uno fue Inflection AI, que en junio anunció una financiación de 1.300 millones de dólares de Nvidia y otros. El dinero se utilizó para ayudar a financiar la compra de 22.000 chips H100.

Mustafa Suleyman, director ejecutivo de Inflection, dijo que no había obligación de utilizar los productos de Nvidia pero que los competidores no ofrecían ninguna alternativa viable. "Ninguno de ellos se acerca", dijo.

Nvidia también ha destinado últimamente dinero en efectivo y los escasos H100 a nuevos servicios en la nube, como CoreWeave, que permiten a las empresas alquilar tiempo en computadoras en lugar de comprar las suyas propias. CoreWeave, que operará el hardware de Inflection y posee más de 45.000 chips Nvidia, recaudó 2.300 millones de dólares en deuda este mes para ayudar a comprar más.

Dada la demanda de sus chips, Nvidia debe decidir quién se queda con cuántos de ellos. Ese poder inquieta a algunos ejecutivos de tecnología.

"Es realmente importante que el hardware no se convierta en un cuello de botella para la IA o en un guardián de la IA", dijo Clément Delangue, director ejecutivo de Hugging Face, un depósito en línea de modelos de lenguaje que colabora con Nvidia y sus competidores.

Algunos rivales dijeron que era difícil competir con una empresa que vendía computadoras, software, servicios en la nube y modelos de inteligencia artificial entrenados, así como procesadores.

"A diferencia de cualquier otra empresa de chips, han estado dispuestos a competir abiertamente con sus clientes", dijo Andrew Feldman, director ejecutivo de Cerebras, una nueva empresa que desarrolla chips de IA.

Pero pocos clientes se quejan, al menos públicamente. Incluso Google, que comenzó a crear chips de IA competidores hace más de una década, confía en las GPU de Nvidia para parte de su trabajo.

La demanda de los propios chips de Google es "tremenda", dijo Amin Vahdat, vicepresidente y director general de infraestructura informática de Google. Pero, añadió, "trabajamos muy de cerca con Nvidia".

Nvidia no discute precios ni políticas de asignación de chips, pero ejecutivos y analistas de la industria dijeron que cada H100 cuesta entre 15.000 y más de 40.000 dólares, dependiendo del embalaje y otros factores, aproximadamente dos o tres veces más que el chip predecesor A100.

El precio "es un aspecto en el que Nvidia ha dejado mucho espacio para que otras personas compitan", dijo David Brown, vicepresidente de la unidad de nube de Amazon, argumentando que sus propios chips de IA son una ganga en comparación con los chips de Nvidia que también utiliza.

El Sr. Huang dijo que el mayor rendimiento de sus chips ahorró dinero a los clientes. "Si se puede reducir el tiempo de capacitación a la mitad en un centro de datos de 5 mil millones de dólares, el ahorro será mayor que el costo de todos los chips", afirmó. "Somos la solución de menor costo del mundo".

También comenzó a promocionar un nuevo producto, Grace Hopper, que combina GPU con microprocesadores desarrollados internamente, contrarrestando chips que, según sus rivales, usan mucha menos energía para ejecutar servicios de inteligencia artificial.

Aún así, parece inevitable una mayor competencia. Uno de los participantes más prometedores en la carrera es una GPU vendida por Advanced Micro Devices, dijo Rao, cuya nueva empresa fue comprada recientemente por la empresa de datos e inteligencia artificial DataBricks.

"No importa cómo alguien quiera decir que todo está hecho, no está todo hecho", dijo Lisa Su, directora ejecutiva de AMD.

Cade Metz contribuyó con el reportaje.

Audio producido por Tally Abecassis.

Anuncio