Nvidia quiere reducir los costes de la IA a medida que aumentan los modelos de “razonamiento”

El CEO de Nvidia dijo que el fabricante de chips de inteligencia artificial está construyendo nuevos chips en un ciclo de un año

Es posible que se gane una comisión por los enlaces en esta página.
Jensen Huang sentado en una silla, hablando, con las manos en alto, frente a un fondo violeta.
Jensen Huang, director ejecutivo de Nvidia, en el Bipartisan Policy Center el 27 de septiembre de 2024 en Washington, DC
Foto: Chip Somodevilla (Getty Images)

de Nvidia (NVDA-5.05%) Los chips han sido un motor del auge actual de la inteligencia artificial, y el fabricante de chips solo quiere acelerar el proceso, afirmó el director ejecutivo Jensen Huang.

Publicidad

Durante una aparición en el Podcast de Tech UnheardEl presentador Rene Haas, director ejecutivo de la empresa británica de semiconductores Arm, le preguntó a Huang:BRAZO), si el ritmo de la innovación en IA está avanzando “más rápido de lo imaginado”.

Huang respondió: “No” y dijo que Nvidia está “tratando de hacerlo más rápido”.

“Hemos pasado a un ciclo de un año”, dijo Huang sobre la producción de nuevos chips de la empresa. “Y la razón de eso es que la tecnología tiene la oportunidad de avanzar rápidamente”.

Publicidad

Nvidia está diseñando “seis o siete nuevos chips por sistema”, dijo Huang, y luego utiliza el “codiseño para reinventar todo el sistema” e inventar otras tecnologías que le permiten mejorar el rendimiento dos o tres veces mientras utiliza la misma cantidad de energía y costo cada año.

“Es otra forma de, básicamente, reducir el costo de la IA dos o tres veces al año”, dijo Huang. “Es mucho más rápido que la Ley de Moore”.

Publicidad

En los próximos años, dijo Huang, Nvidia quiere reducir el costo de la IA en medio del aumento de modelos aún más complejos. Esta evolución ya está en marcha. En septiembre, OpenAI lanzó un Nueva serie de modelos de IA de «razonamiento» llamados o1, que están “diseñados para pasar más tiempo pensando antes de responder”, como lo hacemos los humanos.

Publicidad

En el futuro, los servicios de IA como ChatGPT de OpenAI, que Huang dijo que usa todos los días, “razonarán iterativamente sobre la respuesta” y podrían realizar cientos o miles de inferencias antes de producir un resultado.

Publicidad

Este nivel de procesamiento complejo requeriría significativamente más poder computacional que los modelos actuales. A pesar de las mayores demandas, Huang cree que el sacrificio vale la pena.

“La calidad de la respuesta es mucho mejor”, afirmó Huang. “Queremos reducir el costo para poder ofrecer este nuevo tipo de inferencia de razonamiento con el mismo nivel de costo y capacidad de respuesta que en el pasado”.

Publicidad

El miércoles, las acciones de Nvidia volvían a subir hacia su máximo histórico de 135 dólares al cierre de junio. Las acciones del fabricante de chips bajaron un 0,27 % durante las operaciones del mediodía, pero abrieron con un alza de casi un 1 % a alrededor de 134 dólares por acción.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad