cuando Google lanzó su nuevo modelo de IA generativa Gemini En una demostración en vídeo pregrabada la semana pasada, se resaltaron los elementos diferenciadores del rival de ChatGPT, como su capacidad para conversar en voz alta. . Pero parecía haber una brecha entre lo que se mostraba y las verdaderas capacidades del modelo en lenguaje grande.
Efectivamente, Google admitió que el video fue editado. En YouTube descripción de la demostración, dice que “la latencia se ha reducido y las salidas de Gemini se han acortado para mayor brevedad”, lo que hace que parezca que el sistema de IA está respondiendo más rápido de lo que es. Los aspectos preparados de la demostración me llamaron por sitios como Bloomberg y TechCrunch.
Es posible que Google haya tomado nota.
Esta semana, el gigante tecnológico regresó con dos “demostraciones en vivo” que demuestran sus nuevas herramientas Gemini Pro, AI Studio y Vertex AI, que permite a los desarrolladores crear aplicaciones de IA generativa. AI Studio es una herramienta web gratuita que le permite crear rápidamente indicaciones que se deben utilizar al crear aplicaciones. Vertex AI permite la personalización de Gemini, como ajustarlo con los datos de una empresa y incluye características de seguridad adicionales. Ambas herramientas, que se presentaron en vista previa para los medios de comunicación el 11 y 12 de diciembre, están disponibles hoy.
Katie Camacho, portavoz de Google, le dijo a Quartz que las demostraciones de AI Studio y Vertex AI “estuvieron en vivo durante las conferencias de prensa virtuales en 11 y 12 de diciembre”.
El cambio de enfoque subraya la necesidad de que Google genere confianza en sus capacidades generativas de IA, como lo hacen OpenAI, Anthropic y otros rivales. olas en un mercado en rápido movimiento.
Google proporciona una descripción general de cómo funcionan AI Studio y Vertex AI
Al inicio de la conferencia de prensa, Thomas Kurian, director ejecutivo de Google Cloud, dijo que habría “demostraciones en vivo” antes de recapitular Anuncios de Gemini Pro de la semana pasada.
Josh Woodward, vicepresidente de Google Labs, presentó diferentes capacidades de AI Studio, como el uso de la plataforma para impulsar la escritura de propiedades inmobiliarias descripciones después de insertar fotos desde Google Drive. Una vez que Woodward hizo clic en el botón Ejecutar, la herramienta tomó tanto el texto como las imágenes y los envió. pasó a Gemini, que generó una descripción detallada de la propiedad, al estilo de un listado de bienes ra.
Posteriormente, Nenshad Bardoliwalla, director de gestión de productos de Vertex AI, hizo un recorrido por cómo era Vertex AI y mostró las diferentes características. de la plataforma. Destacó, por ejemplo, las capacidades lingüísticas del estudio al traducir una descripción de propiedad al español. Otra característica fue la capacidad de utilizar datos web en tiempo real, como precios de alquiler de vacaciones. Estas funciones se utilizaron para ajustar el aviso relacionado con bienes raíces.
Las empresas tecnológicas necesitan que los desarrolladores participen
Con OpenAI todavía a la cabeza, hay mucha presión sobre Google para superar a la startup de IA. Google dice que Gemini es el más El modelo avanzado supera al GPT-4 de OpenAI. que salió en marzo, en siete de ocho principales puntos de referencia de la industria.
Ahora, Google necesitará convencer a los desarrolladores, que ya han tenido acceso al GPT-4 de OpenAI desde hace algún tiempo, para que utilicen su nuevo Gemini. Pro tool. Los desarrolladores tienen acceso gratuito a Gemini Pro a través de AI Studio y Vertex AI, dentro de límites, hasta la disponibilidad general a principios del próximo año. Google dijo. Después, la empresa cobrará por 1.000 caracteres o por imagen en ambas plataformas.
“[N]uestro objetivo es atraer desarrolladores con precios atractivos”, dijo Kurian durante la conferencia de prensa.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.