Nvidia recibió su nombre de la palabra latina para envidia, “invidia”. Y hay mucho que envidiar al gigante de los semiconductores. Las empresas lo han engullido furiosamente sus chips AI muy caros en su carrera por desarrollar nuevas tecnologías de inteligencia artificial generativa. Las acciones de Nvidia se dispararon un 220% durante el último año a medida que los ingresos se dispararon, haciéndolo la tercera empresa más valiosa del mundo. Es prácticamente “imprimir dinero”, dijo un analista.
Ahora, otros gigantes tecnológicos están presentando sus propios chips de IA: MTIA de Meta, Maia de Microsoft, Trainium de Amazon y Los TPU de Google. Sin mencionar Intel y Microdispositivos avanzados, fabricantes de chips semiconductores que son competidores directos de Nvidia. En el lapso de dos días de esta semana, Google Alphabet, Meta, matriz de Facebook e Intel, mostraron nuevo hardware de IA, parte de un desafío creciente para el dominio de Nvidia.
Pero Nvidia no caerá fácilmente.
La creciente competencia de Nvidia
Dos tercios de los ingresos de Nvidia provienen de sus cinco principales clientes, según Gil Luria, analista de DA Davidson. Entre ellos se incluyen Meta, Microsoft, Google, y Amazon. Los cuatro han comenzado a fabricar hardware de IA internamente, lo que podría amenazar seriamente los ingresos de Nvidia en el futuro.
Google presenta su TPU v5p el martes, seguido de Meta lanzamiento de la próxima iteración de su MTIA El miércoles, fueron las últimas señales de que los compradores de chips de IA de Nvidia se están volviendo más autosuficientes. Empresas emergentes de IA de alto perfil ya están utilizando Los servicios de Google funcionan con su nuevo hardware en lugar de los chips de inteligencia artificial de Nvidia, conocidos como GPU o unidades de procesamiento de gráficos. Anthropic es usando la tecnología de Google para potenciar su chatbot de IA Claude, mientras que Hugging Face y AssemblyAI la usan para mejorar sus capacidades de generación de imágenes y reconocimiento de voz .
“Nvidia ha podido obtener una enorme cantidad de ganancias inesperadas durante los últimos dos años, basándose en el hecho de que tenían el producto correcto en el momento correcto”, dijo Luria en una entrevista. “Pero ahora que el mercado tiene el tamaño que tiene, [Existen]varias empresas que están en condiciones de reemplazar a Nvidia con otros productos, y lo más importante, los propios clientes de Nvidia”.
Los rivales de semiconductores de Nvidia, Intel y AMD, también están mejorando su juego de chips de IA. Intel presentó su acelerador Gaudi 3 AI En su conferencia Intel Vision 2024 el martes, dijo que tiene mejor rendimiento y eficiencia para entrenar modelos de IA que las alternativas de la industria, incluidas El muy buscado chip H100 de Nvidia. Intel dijo que su nuevo chip tiene más potencia de computación de IA, ancho de banda de red y memoria que su predecesor. el Gaudí 2.
Intel también dijo que su acelerador Gaudí 3 puede entrenar los modelos de aprendizaje de idiomas (LLM) que impulsan los chatbots de IA un 50% más rápido que El popular chip H100 de 40.000 dólares de Nvidiay proporcionar una “inferencia” un 30 % más rápida (o usar datos para hacer predicciones) para los mejores LLM en comparación con El chip H200 de Nvidia. La empresa está esperando que Nvidia publique los resultados de rendimiento para su chip Blackwell recientemente presentado antes de que se pueda comparar con Gaudí 3.
El director ejecutivo de Intel, Pat Gelsinger, dijo a los periodistas el martes que la compañía tiene su propia “hoja de ruta de innovación” que incluye aumentar su acelerador Gaudí 3. con clientes y socios comerciales mientras compite con los lanzamientos de productos de Nvidia.
“Claramente, Gaudí 3 supera con creces al H100 en la actualidad”, dijo Gelsinger, y agregó que el TCO, o costo total de propiedad, “es un gran diferenciador”. entre los dos fabricantes de chips.
Si bien se negó a compartir detalles sobre el precio de Gaudí 3, Gelsinger dijo que Intel se siente “muy cómoda” de que estará “muy por debajo del puntos de precio que se han cotizado para H100 y Blackwell”.
Pero la cuestión de la competencia de Intel con Nvidia no se trata sólo de rendimiento, sino también de costo, disponibilidad y acceso a los datos, afirmó. Christoph Schell, director comercial de Intel.
“Marcamos la casilla en cada uno de ellos”, dijo Schell, “muy por delante de Nvidia”.
Después de un gran repunte para comenzar 2024, Las acciones de Nvidia cayeron al territorio de corrección el martes, una baja del 10% desde su máximo reciente cuando Google e Intel apuntaron a su hacedor de lluvias de IA.
Pero Nvidia no perderá su brillo en IA en el corto plazo
La corrección no duró mucho: las acciones de Nvidia cerraron con una subida del 2 % el miércoles, incluso en un solo día. el mercado más amplio vio una liquidación.
Nvidia tiene una participación del 75% en el mercado de aceleradores de IA, según analistas del Bank of America. La mayoría de las empresas ahora entienden cómo hacer IA hardware de chip, dijo Benjamin Lee, profesor de ingeniería y ciencias de la computación en la Universidad de Pensilvania. El principal beneficio de los chips de Nvidia, afirmó. dijo, son sus bibliotecas de software, que facilitan a los desarrolladores crear aplicaciones de IA sin tener que escribir código desde cero.
Por ahora, Intel y AMD simplemente están tratando de ponerse al día, dijo Lee.
“Nvidia ha estado trabajando en esto durante al menos los últimos 10 años”, dijo Lee, lo que “refleja la madurez de su conjunto de herramientas”. ”en comparación con Intel, que sólo lanzó su primer chip de IA en 2019.
Mientras tanto, Lee dijo, los clientes de Nvidia en su mayoría están fabricando aceleradores de IA para reducir sus propios costos, no para competir directamente con Nvidia.
Por otro lado, Luria señaló que Google ya está vendiendo servicios ejecutados en sus TPU o unidades de procesamiento tensorial. Amazon invierte 4.000 millones de dólares en Anthropic Estipula que sus futuros modelos de IA sólo se ejecutarán en chips de Amazon. Y la superioridad del software de Nvidia no se mantendrá para siempre, Luria dijo, porque sus clientes están altamente motivados para encontrar formas de reducir su gasto en chips mediante el desarrollo de sus propios productos de IA y apuntalando a los competidores de Nvidia.
Luria usó Microsoft como ejemplo.
“Cuando Microsoft gastaba menos de 2 mil millones de dólares al año en GPU Nvidia, tal vez no necesitaban necesariamente gastar tanto esfuerzo en sus propios chips”, dijo. “Pero el año pasado gastaron 11.500 millones de dólares en GPU. Eso crea una sensación de urgencia”.
Luria dijo que es similar para Amazon, Google y Meta.
“Ahora que el gasto es tan grande”, dijo, “están trabajando mucho más duro para reemplazar a Nvidia con sus propios chips personalizados que están hechos a medida para [sus] aplicaciones de IA ”.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.