MOUNTAIN VIEW. La vicepresidenta de Google para Lens y realidad aumentada, Aparna Chennapragada, anunció la novedad en la apertura de la conferencia de desarrolladores I/O que la compañía celebra estos días en Mountain View (California) y llevó a cabo varios ejemplos de búsqueda ante los asistentes.

En uno de ellos, buscó un modelo específico de zapatillas deportivas y al aparecer la lista de resultados en el buscador, junto a los enlaces y las imágenes 2D se mostró ese calzado en 3D, que a continuación Chennapragada trasladó mediante realidad aumentada a una habitación para ver cómo quedarían allí.

Otro ejemplo fue la búsqueda de un "gran tiburón blanco" que, de nuevo, ofreció como resultado una imagen tridimensional de este escualo. En este caso, la ejecutiva de Google lo trasladó mediante realidad aumentada al escenario donde se estaba produciendo la presentación.

Otra de las novedades destacadas que la compañía californiana anunció hoy fue la integración de Google Lens (el sistema de reconocimiento de imágenes del mundo real) con Google Maps y otras herramientas de la firma.

"Con Lens, estamos indexando el mundo físico del mismo modo que el motor de búsqueda indexa miles de millones de páginas web", apuntó Chennapragada.

A partir de ahora, un usuario podrá dirigir la cámara de su teléfono móvil al menú de un restaurante y, si activa Lens, el propio aparato destacará sobre la pantalla los platos más populares de ese local en base a las reseñas online que hayan dejado otros clientes.

Además, al clicar sobre platos concretos, aparecerán en el móvil fotografías y comentarios sobre los mismos.

Una vez se haya terminado de comer, el usuario podrá dirigir la cámara del teléfono a la cuenta y Lens tomará los datos para calcular propinas y, si así se desea, dividir automáticamente la cuantía a pagar entre los distintos comensales.