Google Lens te permite ‘googlear’ el mundo que te rodea
Google

Por Carlos Fernández De Lara

Mountain View, California – Google dio a conocer este 17 de mayo el lanzamiento de Google Lens, una nueva función para smartphones que permitirá a los usuarios ‘googlear’ objetos, lugares o información a través de la cámara del dispositivo.

El anuncio se dio en el marco de su conferencia de desarrolladores I/O, durante la cual la firma californiana también confirmó la salida de su asistente digital en dispositivos iPhone y “cualquier otro producto”, así como el desarrollo de nuevas funciones para Google Home.

“Google Lens es una función que que entiende lo que miras y aprovecha el poder de nuestras herramientas para darte información de valor”, explicó Sundar Pichai, CEO de Google. “Si, por ejemplo, te encuentras con una flor o un alimento que no conoces, puedes apuntarlo con la cámara y Lens te puede decir de qué se trata”.

Anuncio

“Lo mismo sucede al ver un restaurante”, agregó. “Como sabemos dónde estas y tenemos toda la información de Google Maps, podemos darte la información referente al lugar”.

Además de entender el contexto del objeto, Google Lens es capaz de obtener información documental de las imágenes. Si el usuario captura imágenes con números, nombres, contraseñas o direcciones el software puede ofrecerle la posibilidad de marcar el teléfono, guardar el contacto o abrir directamente Google Maps para obtener direcciones.

La función es similar a lo que la firma de comercio electrónico, Amazon, presentó hace unos años con su poco exitoso teléfono móvil Fire Phone, el cual era capaz de comprar productos existentes en la plataforma mediante la captura de fotos.

Google promete que Lens transforma aplicaciones como Assistant, Fotos y Translate.

Google Lens te permite ‘googlear’ el mundo que te rodea
Carlos Fernández de Lara

Además de la nueva función de cómputo visual, Google anunció que su asistente de voz estará disponible para iPhone de Apple, Android TV y “cualquier dispositivo, desde juguetes, electrónicos o lo que se le ocurra a los desarrolladores”, gracias a la liberación de su kit de desarrollo.

Por ahora éste únicamente funciona en inglés pero los ejecutivos de Google confirmaron que este año idiomas como el japonés, el portugués de Brasil y el español estarán disponibles.

Las mejoras a las herramientas de Google forman parte de la iniciativa de la firma por construir la red de inteligencia artificial más grande del mundo. Esto, gracias a la cantidad masiva de usuarios que varias de sus aplicaciones alcanzan.

Durante su conferencia de apertura, Pichai presumió que su sistema operativo, Android, ya rebasó los 2,000 millones de dispositivos activos, que Google tiene cerca de 500 millones, YouTube más de 1,000 millones y su concentrador de archivos en la nube, Drive, ya tiene cerca de 800 millones de internautas activos por mes.

Así, Google no solo quiere hacer toda la información del mundo accesible a los usuarios de internet, el gigante tecnológico también creó la bases para construir los chips que darán vida al cerebro de la inteligencia artificial. En el marco de I/O, Sundar Pichai anunció el desarrollo de un nuevo chip para machine mearning conocido como Tenser Unit Processor (TPU).

Estos chips, que ya operan en los centros de datos de Google, ofrecen un desemla firma no entró en detalle sobre cómo los nuevos chipsets están construidos, Sundar afirmó que todo su poder de cómputo estará disponible para desarrolladores a través de su plataforma Google Cloud Engine.

“Con machine learning podemos mejorar tareas como la detección de patologías como el cáncer de mama a través de imágenes mucho mejor que los humanos, acelerar el análisis de la secuencia de ADN humano y, también, otras cosas divertidas como ayudar a que la gente dibuje mejor”, dijo el CEO de la compañía.