Copia de Google I/O: Práctica con Proyecto Astra, el Asistente de IA del futuro

¿Por qué molestarse en tocar su dispositivo cuando puede simplemente hablarle y mostrarle cosas?

Por
Es posible que se gane una comisión por los enlaces en esta página.
Una foto de un Proyecto Astra signo
El Proyecto Astra inicia el sandbox de Google I/O AI.
Foto: Florence Ion / Gizmodo

Como de costumbre, Google I/O 2024 es un torbellino absoluto de noticias y anuncios. Este año, en lugar de centrarse en el hardware, Android o Chrome, Google dedicó la mayor parte la conferencia de desarrolladores de este año nos convence de que es Funciones de IA Vale la pena priorizar. Uno de esos proyectos es el Proyecto Astra, un asistente de IA multimodal con el que puedes semiconversar y que puede usar simultáneamente el cámara para identificar objetos y personas.

Publicidad

Digo “semi” porque es evidente después de la demostración que esta parte de Gemini está en su infancia. Pasé unos breves minutos con Proyecto Astra en la Píxel 8 Pro para ver cómo funciona en tiempo real. No tuve suficiente tiempo para probarlo en toda su extensión o intentarlo engañarlo, pero tengo una idea de cómo se sentirá el futuro como usuario de Android.

Pregúntale casi cualquier cosa

El objetivo del Proyecto Astra es ser como un asistente que también te guía en el mundo real. Puede responder preguntas sobre el entorno que te alrededor identificando objetos, rostros, estados de ánimo y textiles. Incluso puede ayudarte a recordar dónde colocaste algo por última vez.

Publicidad
Una foto que muestra el modo Pictionary en Project Astra
Una vista previa del modo Pictionary del Proyecto Astra, otra oferta dentro de la sala de demostración.
Foto: Florence Ion / Gizmodo

Hubo cuatro demostraciones diferentes para elegir para el Proyecto Astra. Incluían el modo Narrador, que le pide a Géminis que invente una historia basada en varias entradas y Pictionary, esencialmente un juego de adivinar garabatos con la computadora. También había un modo de aliteración, donde la IA mostró su destreza para encontrar palabras con la misma letra inicial y Free-Form le permitió conversar de un lado a otro.

Publicidad

La demostración que obtuve fue una versión de Free-Form en el Pixel 8 Pro. Otro periodista de mi grupo la había solicitado directamente, por lo que la mayor parte de nuestra demostración se centró en usar el dispositivo y este modo de asistente juntos.

Publicidad
Una foto de una persona sosteniendo el pixel 8 pro y project astra identificando que una persona tiene un teléfono en la mano
Géminis identificó correctamente el teléfono en la mano de la persona.
Foto: Florence Ion / Gizmodo
Publicidad

Con la cámara apuntando a otro periodista, el Pixel 8 Pro, y Gemini pudieron identificar que el sujeto era una persona, le dijimos explícitamente es que la persona se identificó como un hombre. Luego, identificó correctamente que llevaba su teléfono. En una pregunta de seguimiento, nuestro grupo preguntó sobre su ropa. Dio una respuesta generalizada de que “parece estar usando ropa informal”. Luego, preguntamos qué estaba haciendo, a lo que Proyecto Astra respondió que parecía que se estaba poniendo un par de gafas de sol (estaba) y golpeando una pose informal.

Tomé el Pixel 8 Pro por un rápido minuto. Conseguí que Gemini identificara una maceta de flores faldas correctamente. eran tulipanes. Géminis notó que también eran coloridos. A partir de ahí, no estaba seguro de qué más sugerirlo, y luego mi tiempo. estaba levantado. Me fui con más preguntas de las que tenía al entrar.

Publicidad
Una foto de una persona sosteniendo un Pixel 8 Pro
Géminis identificó correctamente que las flores falsas eran tulipanes.
Foto: Florence Ion / Gizmodo

Con la IA de Google, parece un acto de fe. Puedo ver cómo identificar a una persona y sus acciones podría ser una accesibilidad herramienta para ayudar a alguien que es ciego o tiene baja visión mientras navega por el mundo que lo rodea. Pero eso no es lo que fue esta demostración sobre. Fue para mostrar las capacidades del Proyecto Astra y cómo interactuaremos con él.

Publicidad

Mi mayor pregunta es: ¿Algo como el Proyecto Astra reemplazará al Asistente de Google en dispositivos Android? Después de todo, esta IA puede recordar dónde colocas sus cosas y captar los matices, al menos eso es lo que transmitió la demostración. No pude obtener una respuesta de los pocos Google Amigos, les pregunté. Pero tengo un fuerte presentimiento de que el futuro de Android se tratará menos de tocar para interactuar con el teléfono y más dependiente de hablar con él.

A version of this article originally appeared on Gizmodo.

Este contenido ha sido traducido automáticamente del material original. Debido a los matices de la traducción automática, pueden existir ligeras diferencias. Para la versión original, haga clic aquí.

Publicidad