meta es gastando miles de millones en chips para construir sus ambiciones de IA , y uno de sus esfuerzos se centra en su plataforma de vídeo, dijo un ejecutivo.
Como parte de la “hoja de ruta tecnológica” de Meta por ahora hasta 2026, el La empresa está desarrollando un modelo de IA para potenciar las recomendaciones. para sus videos y feeds de usuarios, dijo Tom Alison, director de Facebook, en una conferencia tecnológica de Morgan Stanley el miércoles.
Ahora, en su tercera fase, Alison dijo que Meta está trabajando para continuar validando el uso de modelos en lenguaje extenso (LLM, por sus siglas en inglés) y la IA generativa para potenciar más productos y escalarlos.
“En lugar de simplemente impulsar Reels, estamos trabajando en un proyecto para impulsar todo nuestro ecosistema de video con este único modelo, y luego podemos Agregamos nuestro producto de recomendación de Feeds para que también sea servido por este modelo», dijo Alison. ¿Las recomendaciones serán más atractivas y más relevantes, pero creemos que su capacidad de respuesta también puede mejorar?
Históricamente, Meta ha tenido un modelo de IA diferente que impulsa recomendaciones para cada producto, como carretes, grupos y feeds, dijo Alison. La primera fase de la “hoja de ruta tecnológica” de Meta fue cambiar los sistemas de recomendaciones actuales de chips de computadora a GPU, o unidades de procesamiento de gráficos, “para Desempeñarse mejor”, dijo Alison. Pero el año pasado, dijo Alison, la compañía comenzó a considerar el uso de LLM y recomendaciones de IA generativa para potenciar.
“¿Qué pasaría si en realidad tuviéramos, en lugar de estos modelos de recomendación por producto, y si tuviéramos una sola arquitectura de recomendaciones que pudiera impulsar todo? de nuestros productos recomendados, y eso podría aprovechar muchos datos”, dijo Alison.
Alison dijo que la empresa probó la nueva arquitectura de recomendaciones con Reels y utilizó los mismos datos que el modelo anterior. Facebook Reels se trata de un tercio del tiempo de video de Facebook, dijo Alison, mientras que el tiempo de video en la plataforma vale más del 50% del tiempo total dedicado a la sitio. Meta terminó con un 8-10% gane tiempo de visualización de Reels en la nueva arquitectura.
“Lo que esto nos dijo fue que este nuevo modelo de arquitectura está aprendiendo de los datos de manera mucho más eficiente que la generación anterior”, dijo Alison. También dijo que la empresa está centrada en invertir más para ampliar sus modelos con el hardware adecuado.
Además del video, Alison dijo que Meta está trabajando en otros esfuerzos de IA generativa, incluidos asistentes digitales y mejorando sus herramientas de chat en Feed. y Grupos.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.