Presentada la versión en español del reconocedor de imágenes ‘Seeing AI’, de Microsoft
Millones de personas ciegas o con discapacidad visual grave pueden descargarse ya la nueva versión en español (también se han presentado las correspondientes a alemán, francés, japonés y holandés) de la app de Microsoft que describe en voz alta escenas y fotos aprovechando la cámara del móvil y que en nuestro país ha contado con la colaboración del Grupo Social ONCE. Tras dos años y medio de rodaje en inglés, este singular avance tecnológico se lanza ya a conquistar todo el mundo con el objetivo de “hacer un poco más fáciles” las vidas de las personas con discapacidad visual, en palabras del ingeniero jefe del proyecto, Saqib Shaikh.
Su lanzamiento coincidió (el 3 de diciembre) con el Día Internacional de las Personas con Discapacidad, en un guiño con el que la multinacional estadounidense quería convocar a los 285 millones de personas ciegas que se calculan en el mundo.
Shaikh, que es también ciego, reconocía -en declaraciones a la agencia Servimedia del Grupo Social ONCE- que el proyecto “empezó como un hobby”. Pero que, desde el inicio, su objetivo era “utilizar la inteligencia artificial para ayudar a las personas con discapacidad visual”.
Un universo de posibilidades
La app Seeing AI dispone de distintos canales o modos de funcionamiento que permiten la lectura de textos breves y de etiquetas (ajustando la cámara del teléfono); el reconocimiento de códigos de barras; el escaneado y posterior lectura de documentos de mayor longitud (incluso aquellos escritos a mano); la identificación de colores y objetos; la determinación de monedas y billetes (dólares, euros, libras..., y su valor); el reconocimiento facial; el calibrado de la luminosidad mediante pitidos o la propia descripción de escenas, ya sean entornos naturales, fotografías tomadas con el teléfono o imágenes de otras app, como WhatsApp o Hotmail.
En las imágenes de personas es capaz de trasladarnos detalles como gestos, expresiones marcadas e interpretando incluso los aparentes sentimientos del personaje reflejado.
“Todo esto lo verbaliza en voz alta, por eso era tan importante el lanzamiento de las versiones en otros idiomas”, apunta su creador, que reconoce que “los usuarios nos lo pedían desde el principio”. Lo han hecho junto al resto de sus quejas y sugerencias de mejora al equipo de desarrolladores, que -asegura Shaikh- “siempre hemos estado abiertos a mejorar la app y adaptarnos mejor a las demandas”.
En su opinión, lo que da idea de la dimensión del proyecto es el seguimiento de su utilización y aprovechamiento por los usuarios (“el impacto de la tecnología en la vida de la gente”). Y destaca que, pese a estar disponible sólo en inglés, desde la salida de Seing AI, en julio de 2017, “se han realizado 20 millones de tareas con esta app”.
A nivel personal, confiesa la emoción que sintió la primera vez que Seing AI le describió una escena, siguiendo las instrucciones de la aplicación, que guía al usuario para enfocar bien y obtener una buena foto o un escaneado correcto. A partir de ahí, es capaz de reconocer lo que se ve y describirlo, con la ventaja de que se puede personalizar. “No sólo te cuenta que en una habitación hay dos sillas, una mesa, tres personas de entre 40 y 50 años y un niño de unos 10, sino que puede ir más allá y narrar que en la habitación están tu padre, tu hijo y otras dos personas desconocidas, vestidas de tal o cual manera”, si previamente se le ha añadido esa información personalizada al móvil.
Así, reconoce personas y lugares conocidos, de modo que si ha de describir un ‘meme’, es capaz de afinar y señalar que la imagen muestra -en su caso- a determinados personajes públicos o simplemente personas conocidas del usuario que hayan sido ya reconocidas y archivadas. “Y sirve para cuestiones tan elementales como distinguir el bote de gel del de champú en un hotel”, reflexiona el experto de Microsoft.
Implicación de la ONCE
Microsoft ha contado con la colaboración de ONCE y Fundación ONCE para el desarrollo de la versión en español de Seen AI. Cristian Sáinz, responsable de las unidades de puesto de trabajo digital y de accesibilidad de la ONCE, fue una de las personas más implicadas en el proyecto desde su inicio.
“Llevábamos tiempo demandando a Microsoft este paso hace ya tiempo, así que nos pusimos a ello en cuanto nos lo propusieron”, señala Sáinz, que resume esta colaboración en la revisión del vocabulario, aportaciones para mejorar la claridad de los textos y para adaptar las descripciones. Sugerencias que fueron remitidas a los desarrolladores de Microsoft, quienes se encargaron de incluirlas en esta nueva versión.
Como usuario hace ya un tiempo de la aplicación en inglés, Sáinz considera que resulta “muy útil”, aunque admite que “hubo un parón tras su aparición, porque, si no hablas bien inglés, hay bastantes cosas que te puedes perder”. Por eso, está convencido de que su lanzamiento en nuestra lengua abrirá numerosos nichos de mercado nuevos, alcanzando a millones de usuarios.