Microsoft está entrenando su modelo de IA para competir con Google y OpenAI, según un informe

Microsoft tiene una asociación multimillonaria con openAI

Es posible que se gane una comisión por los enlaces en esta página.
primer plano, ángulo inferior del logotipo de Microsoft en el frente del edificio
Microsoft Experience Center en La Fifth Avenue el 3 de abril de 2024 en la Ciudad de Nueva York.
Foto: Michael M. Santiago (Getty Images)

Se informa que Microsoft entrenando su propio modelo de inteligencia artificial para competir con modelos de Google y OpenAI, que tiene una asociación plurianual y multimillonaria con.

Publicidad

El nuevo modelo interno del gigante tecnológico, denominado internamente MAI-1, está siendo dirigido por el ex jefe de IA de Google, Mustafa Suleyman. The Information informó , citando personas familiarizadas con el asunto. Microsoft contratado Suleyman, quien cofundó las startups de inteligencia artificial DeepMind (adquirida por Google en 2014) e Inflection, que dirigió como director ejecutivo, para liderar su división de IA en marzo, junto con la mayoría del personal de Inflection. La empresa también pagó 650 millones de dólares por los derechos de propiedad intelectual de Inflection. El nuevo modelo está separado de los modelos lanzados anteriormente de Inflection, le dijeron a The Information. Sin embargo, el nuevo modelo de Microsoft puede construirse a partir de Los datos de entrenamiento de Inflection y otras tecnologías, informó The Information.

Microsoft se negó a comentar sobre el informe.

Kevin Scott, director de tecnología de Microsoft, escribió una publicación en LinkedIn La empresa construye “grandes supercomputadoras para entrenar modelos de IA” y OpenAI “utiliza estas supercomputadoras para entrenar modelos que definen fronteras”.

Publicidad

“Cada supercomputadora que construimos para la IA abierta es mucho más grande que la que la precedió, y cada modelo de frontera que entrenan es mucho más potente que sus predecesores”, escribió Scott. “Continuaremos en este camino: construyendo supercomputadoras cada vez más potentes para Abra la IA para entrenar los modelos que marcarán el ritmo para todo el campo, hasta bien entrado el futuro”. Scott agregó que Microsoft ha construyó modelos de IA durante años, y algunos de los “modelos tienen nombres como Turing y MAI”.

MAI-1 será costoso debido a que requerirá grandes cantidades de potencia informática y datos de entrenamiento, ya que será “mucho más grande” que el Los modelos más pequeños y de código abierto que Microsoft ha entrenado, le dijeron a The Information. En comparación con los modelos de código abierto de Meta y Mistral, que tienen 70 mil millones de parámetros, o las variables que los modelos aprenden durante el entrenamiento hacer predicciones — MAI-1 al parecer tendrá alrededor de 500 mil millones de parámetros. El modelo más poderoso de OpenAI, GPT-4, al parecer tiene más de un billón de parámetros.

Publicidad

Microsoft podría obtener una vista previa del modelo en su conferencia anual de desarrolladores, Build, a finales de este mes, informó The Information. La compañía ha mantenido una gran grupo de servidores que incluyen las GPU de Nvidia o unidades de procesamiento de gráficos, así como grandes cantidades de datos para entrenar el modelo, agregó .

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad