Estás en:

Startups españolas y grandes tecnológicas, junto a otras entidades privadas, se suman a la lucha contra la discapacidad visual

Logo del proyecto TrakAIGrandes compañías y emergentes staptups tecnológicas españolas están aunandos fuerzas para luchar contra la discapacidad visual.

Dos de ellas, el gigante HuaweiAbre Web externa en ventana nueva y Dive MedicalAbre Web externa en ventana nueva han renovado su alianza mediante un acuerdo de colaboración para luchar contra la discapacidad visual con inteligencia artificial (IA). Su acuerdo tiene como objetivo demostrar con estudios clínicos el potencial del diagnóstico temprano, mediante la aplicación de inteligencia artificial, de los signos de deficiencia visual en niños desde los seis meses de edad. 

La colaboración entre las dos empresas comenzó en 2019 cuando el proyecto de cribado visual con IA de Dive Medical vio la necesidad de buscar alianzas. Se trata del  proyecto TrackAI, que ya en 2019 comenzó con un estudio multicéntrico en el que se examinaron más de 2.000 menores de distintas edades, etnias y con diferentes patologías visuales en varios hospitales y clínicas colaboradoras de diferentes países.

 “Contamos ya con un cribado muy completo de la función visual que puede ser utilizado también en pacientes que no se pueden comunicar”, ha explicado Victoria Pueyo, medical advisor de Dive Medical, a la agencia EFE. Por su parte, el presidente de la unidad de software de Huawei, Wang Chenglu, ha indicado que “el objetivo con TrackAI es brindar una forma más rápida, fácil y asequible para detectar y diagnosticar los primeros signos de discapacidad visual”.

Un “Google Maps” para personas con discapacidad visual

Collage de imágenes de la app SmartLazarusSmartLazarusAbre Web externa en ventana nueva es otra solución, en este caso  capaz de guiar a personas con discapacidad visual en espacios cerrados, la cual ya está disponible para su descarga gratuita desde cualquier dispositivo móvil. Esta  nueva app, diseñada por el Grupo ESALab de la Universidad de Salamanca, se ha hecho realidad gracias al apoyo de Indra, una de las principales empresas globales de tecnología y consultoría, y a la Fundación UniversiaAbre Web externa en ventana nueva, entidad que cuenta con el apoyo de Banco Santander para el desarrollo de sus actividades e impulsar la accesibilidad y la inclusión de las personas con discapacidad en la sociedad.

El proyecto de la Universidad de Salamanca (USAL) fue seleccionado entre más de 70 presentados por diferentes universidades españolas, como uno de los trabajos ganadores de la II Convocatoria de Ayudas a Proyectos de Investigación de Tecnologías Accesibles que cada año organizan Indra y Fundación Universia con el objetivo de mejorar la integración laboral y social de las personas con discapacidad mediante la tecnología.

Disponible para su descarga en Google Play (dispositivos Android) y Apple Store (iPhone y iPad), la aplicación desarrollada por el equipo de expertos de la USAL consiste en una plataforma unificada de sensorización, geolocalización y guiado en tiempo real. La solución tiene capacidad para obtener información del entorno y de los recursos de manera sencilla. Esto, en la práctica, implica que la persona invidente puede “percibir” el estado real de las personas y objetos que se encuentran en su entorno.

El sistema, que funciona en la nube y ofrece acceso online bajo un modelo de Platform as a Service (PaaS), se alimenta, de manera sencilla, de las tecnologías existentes en centros de trabajo, edificios, aeropuertos, entre otros, como son los puntos wifi y bluetooth y los sensores embebidos en los teléfonos, tales como la brújula magnética, el acelerómetro y el giroscopio, lo que permite a la aplicación calcular la posición de los usuarios en un entorno cerrado, evitando así la duplicidad de infraestructuras y reduciendo el coste que ello conlleva.

La aplicación se inicia de forma automática al entrar a un edificio equipado con la solución. Una vez activada, el usuario establece una comunicación con el sistema por medio de comandos de voz, actualmente disponibles en castellano, chino, inglés y alemán, permitiendo a las personas invidentes una interacción sencilla y efectiva con la interfaz.

Tras indicar el destino al cual se quiere llegar, por ejemplo, el servicio, un consultorio médico, un despacho o una oficina determinada, se inicia una guía de voz detallada capaz de emitir diversas indicaciones y alertas durante todo el recorrido como el tiempo de ruta, la amplitud del espacio por el que se desplaza o la presencia de escaleras, anomalías en el trayecto u otros obstáculos. Además, el usuario también puede indicar si tiene algún requerimiento especial, como, por ejemplo, problemas de movilidad, necesidad de evitar escaleras, etc.

La nueva herramienta puede tener otras aplicaciones ya que, entre otras, incluye una funcionalidad para crear mapas de calor, que podrían ser utilizados en una gran diversidad de escenarios, como por ejemplo, en estudios demográficos, localización de personas dentro de un entorno cerrado o análisis de las tendencias de los individuos registrados en la plataforma, gracias a la tecnología ya desplegada en el edificio y mediante la instalación adicional de un determinado número de balizas bluetooth, de gran autonomía, bajo coste y sencillo mantenimiento.

Diapositiva de la startup Eyesynth creadora de las innovadoras gafasGafas Eyesynth

Así se denominan las gafas creadas por la staptup castellonense EyesynthAbre Web externa en ventana nueva, empresa  que ofrece soluciones tecnológicas para mejorar la vida de las personas con algún tipo de discapacidad visual. Formada por un equipo multidisciplinar, Eyesynth ofrece un sistema de comprensión visual para personas ciegas, basado en unass gafas que registran el espacio que nos rodea en 3 dimensiones. Su funcionamiento se debe a un micro-ordenador que procesa la información y la convierte en audio comprensible para el invidente.

El proceso es simple: Las gafas envían imágenes a un micro–ordenador y las procesa en tiempo real, obteniendo una respuesta instantánea. El entorno del usuario es capturado y procesado en 3D, teniendo también información acerca de la profundidad. Después, el ordenador convierte toda esa información en una serie de sonidos que permiten interpretar espacios abiertos, formas y obstáculos.

Otro aspecto importante de estas gafas es su audio coclear. El sonido que se transmite no se hace a través del canal auditivo, lo que resultaría molesto para poder diferenciarlo de otros sonidos, como conversaciones o el tráfico. El sonido se transmite a través de los huesos de la cabeza, dejando los oídos libres.

Este innovador dispositivo ya ha sido seleccionada por el programa de la Comisión Europea Horizon2020, que dotará con más de 80.000 millones de euros para las diferentes fases de diseño final, industrialización, así como la fase de comercialización.

Acciones para el documento   Startups españolas y grandes tecnológicas, junto a otras entidades privadas, se suman a la lucha contra la discapacidad visual

No valorado Valoración media: 2.0
Con un total de (5 votos)