Además de presentar cambios en las búsquedas clásicas, que ahora funcionarán más como un diálogo con un chatbot de inteligencia artificial (el llamado AI Mode, disponible por ahora solo en Estados Unidos), y mostrar herramientas nuevas, como un probador ropa virtual que tiene en cuenta nuestro talle real, Google mostró algo más en el Google I/O 2025, el encuentro anual para desarrolladores que la compañía hace todos los años en su sede central de California.
Project Astra, el futuro
Google mostró una segunda versión de Project Astra, una plataforma donde imagina cómo será la interacción con una inteligencia artificial (idealmente, Gemini) en los próximos años.
Con un video relató cómo sueña esa interacción con un asistente universal: una persona tiene que arreglar una bicicleta, y usa a la inteligencia artificial de Google para múltiples tareas, todo el tiempo dialogando con ella en voz alta.
Por ejemplo, buscar videos en YouTube para aprender a cambiar una pieza; usar la cámara del teléfono para identificar qué herramienta debe usar; delegar en la IA la compra de un repuesto (clave para que una IA sea realmente universal, y parte de anuncios que toda la industria hizo este año), y mucho más; Google muestra, incluso, cómo la IA es capaz de detectar una interrupción (la llegada de un tercero al lugar), pausar su alocución y volver a hablar cuando los humanos terminan de conversar.
El video de Project Astra de 2024
Una IA en tus anteojos
Gemini no es capaz, todavía, de hacer todo eso, pero va en camino: Gemini Live, la herramienta de interacción oral con la IA de Google, ya puede comprender qué cosas le muestra un usuario con la cámara del teléfono para responder a una consulta; y la compañía ya avisó que integrará su inteligencia artificial en otros dispositivos, como relojes inteligentes o el tablero del auto; también llegará a los anteojos de realidad aumentada con Android XR que prepara para más adelante, y que son los verdaderos sucesores de los Google Glass que desarrolló hace más de una década.
Como mostró la compañía en el escenario, son anteojos de aspecto tradicional, que tienen micrófono, parlantes en las patillas y una cámara en la montura; en eso son parecidos a los Ray-ban Meta, pero los de Google integran una pantalla en el cristal para recibir información visual con cierto disimulo.
De hecho, Google tomó la idea de Meta (asociarse con una marca de anteojos tradicionales para asegurar un aspecto convencional) y confirmó que sus anteojos serán diseñados por las firmas Gentle Monster y Warby Parker; de hecho invertirá 75 millones de dólares para asegurarse de que la fabricación en masa de un dispositivo de este estilo sea posible.
Los anteojos permiten dialogar con Gemini, mostrarle cosas con la cámara de las gafas, hablarle y que nos responda susurrándonos una respuesta al oído. Y, más importante, ver información flotando frente a nuestros ojos: indicaciones de Google Maps, un mensaje de texto, una cita de calendario o una respuesta de Gemini que es mejor leer que escuchar. Todo, sin abstraernos del entorno, ya que los anteojos tienen cristales convencionales: la información digital es traslúcida.
Son, todavía, un prototipo: Google promete los primeros dispositivos con Android XR para este año, pero probablemente serán los anteojos de diseño tradicional (es decir, más aparatoso) de Samsung, conocidos hasta ahora como Project Moohan.
En cualquier caso, su desarrollo tiene dos referencias adicionales: por un lado, el trabajo en el mismo sentido que está haciendo Meta con Orion, un prototipo de anteojos que mostró a fines de 2024, que no tienen fecha de arribo al mercado y que también apuntan a ser anteojos normales con inteligencia artificial integrada.
Por otro, el anuncio, ayer, de la asociación de Jonathan Ive, mítico diseñador del iPhone, con OpenAI, para crear un dispositivo nuevo y diferente, que se integre plenamente con ChatGPT, y que no esté atado a las convenciones del smartphone, cuya versión actual (el rectángulo negro) responde a un paradigma nacido hace casi 20 años, con mucho foco en el texto y las imágenes en pantalla.
Google no parece tener tan claro que la IA no pueda vivir en el celular, y por eso hace un trabajo a dos puntas: aprovechar la universalidad del smartphone, y explorar otros dispositivos, como los anteojos, donde también puede morar su inteligencia artificial, a la espera de que una persona requiera de sus servicios.