Los asistentes de IA están captando más sentidos. El lunes, OpenAI mostró un nuevo modelo ChatGPT que promete ver, oír y hablar a través de teléfonos inteligentes, entre otras nuevas capacidades. Ahora Google anuncia un asistente rival con capacidades similares.
En la conferencia de desarrolladores I/O de la compañía el martes, el CEO de DeepMind, Demis Hassabis, presentó un prototipo del nuevo asistente experto en inteligencia artificial de Google que puede ver a través de El teléfono de un usuario y otros objetos, como gafas inteligentes. El asistente “construye” Gemini, el chatbot existente de Google, dice la compañía. y algunas de sus capacidades llegarán a la aplicación y a la experiencia web de Gemini a finales de este año.
El desarrollo es parte del Proyecto Astra de Google DeepMind, cuyo objetivo es crear “un agente de IA universal” para la vida cotidiana de los usuarios. Es fácil imaginar un futuro en el que puedas tener un asistente experto a tu lado, a través de tu teléfono o nuevos y emocionantes factores de forma como gafas”, dijo Hassabis a una multitud de unos pocos miles de desarrolladores en Mountain View, California.
Un vídeo de demostración muestra a una persona hablando con un agente de IA a través de su teléfono mientras camina por una oficina. A través de su cámara, muestran al asistente de IA un contenedor de crayones como si estuvieran hablando a través de FaceTime y le pidieran que hiciera una “aliteración creativa”.
“Los crayones creativos colorean alegremente”, decía. “Ciertamente elaboran creaciones coloridas”. La persona continúa interactuando con el robot AI en su caminata. , luego se dan cuenta de que olvidaron sus vasos y piden ayuda para encontrarlos. “Están en el escritorio cerca de una manzana roja”, bot responde.
Cuando el usuario se pone esas gafas, el asistente de IA también puede mirar a través de ellas e identifica una ilustración que representa el gato de Shrodinger una pizarra.
No está claro si esas gafas son un nuevo producto que Google planea lanzar. Las gafas de realidad aumentada que se muestran en la demostración no parecían Como Google Glass, las gafas inteligentes existentes de la empresa, tampoco se parecían a los típicos auriculares más voluminosos.
“Un agente como este tiene que comprender y responder a nuestro mundo complejo y dinámico tal como lo hacemos nosotros”, dijo Hassabis en la conferencia. . “Necesitaría asimilar y recordar lo que ve para poder comprender el contexto y tomar medidas. Y tendría ser proactivo, enseñable y personal. Para que puedas hablar con él de forma natural, sin retrasos ni demoras”.
Eso es lo que el Proyecto Astra pretende hacer, dijo, y está logrando “grandes avances”.
Mientras que Google El prototipo del asistente de IA está disponible para su demostración para los asistentes a su conferencia Google I/O; probablemente pasará un tiempo antes de que la tecnología lo haga. su camino a las manos de los consumidores cotidianos.
Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.