Meta Platforms, la compañía detrás de Facebook e Instagram, no espera recibir envíos del nuevo chip AI “Blackwell” de Nvidia este año, dijo un portavoz de la empresa a Reuters el martes.
La noticia llega justo un día después de que Nvidia presentara un sucesor de próxima generación más potente y más rápido de su chip H100 AI: el B200. en su conferencia anual de desarrolladores. El nuevo chip es lo que se conoce como unidad de procesamiento de gráficos (GPU) y es lo que impulsa los modelos de lenguaje utilizados en los chatbots de IA. como ChatGPT de OpenAI.
“Esperamos con ansias usando Blackwell de Nvidia para ayudar a entrenar nuestros modelos de Llama de código abierto y construimos la próxima generación de Meta IA y productos de consumo», dijo el fundador y CEO de Meta,Mark Zuckerberg en una declaración el lunes.
Facebook no respondió inmediatamente a una solicitud de comentarios.
Meta es uno de los mayores clientes de Nvidia
A principios de este año, el gigante de las redes sociales anunció planes para aumentar su reserva de chips Nvidia más antiguos.
En enero, Zuckerberg dijo en una publicación sobre el competidor X de la compañía, Threads, que Meta planea tener alrededor de 350.000 chips H100 para finales de este año. La cifra es sorprendente si se considera que cada chip tiene un precio de 40.000 dólares.
La semana pasada, Meta anunció que está entrenando sus modelos de IA en dos clústeres de GPU que constan de aproximadamente 24.000 chips H100 cada uno.
Blackwell marcará el comienzo de la próxima generación de IA
Las acciones de Nvidia subieron un 2% el martes después de que la directora financiera de Nvidia, Colette Kress, dijera a los inversores que sus nuevos chips B200 llegará al mercado a finales de este año.
Además, el director ejecutivo de Nvidia, Jensen Huang, le dijo a CNBC que el chip Blackwell sería con un precio entre $30,000 y $40,000.
El Blackwell Está compuesto por 208 mil millones de transistores y será 2,5 veces más rápido en el entrenamiento de IA que su predecesor y cinco veces más rápido en inferencia, el proceso que los modelos de IA utilizan para sacar conclusiones.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.