Google lanza la app Lookout que identifica objetos para personas con discapacidades visuales
El año 2018 Google anunció una nueva aplicación para ayudar a las personas con discapacidad visual llamada Lookout
La aplicación utiliza AI para identificar objetos a través de la cámara de su teléfono. También puede leer texto en carteles y etiquetas, escanear códigos de barras e identificar monedas. Esta semana, Google anunció que Lookout finalmente estará disponible para descargar , aunque solo para dispositivos Pixel en los Estados Unidos.
Desde que anunció la aplicación el año pasado, Google dice que ha estado "probando y mejorando la calidad" de sus resultados. La compañía advierte que, al igual que con toda la nueva tecnología, los resultados de Lookout no siempre serán "100 por ciento perfectos", pero está solicitando la opinión de los primeros usuarios.
Para usar Lookout, Google recomienda que los usuarios usen su dispositivo Pixel en un cordón alrededor de su cuello o que se coloquen en el bolsillo delantero de una camisa o abrigo. De esa manera, la cámara del teléfono obtiene una vista sin obstrucciones del mundo y puede identificar objetos y texto "en situaciones en las que las personas normalmente tienen que pedir ayuda".
No está claro cuándo estará disponible Lookout en otro hardware que no sea el de Google, pero la compañía dice que espera llevar la aplicación "a más dispositivos, países y plataformas pronto".
Afortunadamente, esta no es la primera vez que vemos a una gran empresa de tecnología que aplica AI a la tarea de ayudar a los discapacitados visuales. Microsoft lanzó una aplicación con una funcionalidad muy similar llamada Seeing AI en 2017 . Y esta semana, la compañía de Redmond anunció una actualización para Seeing AI que les permite a los usuarios sentir la forma de los objetos en las pantallas de sus teléfonos usando retroalimentación táctil.
¿Te es util este articulo?. ¿Tienes una opinion relacionada con este articulo?. ¿Te has entretenido con nosotros?.
Si la respuesta es afirmativa, dejanos un comentario :) y como no Gracias por vernos