Técnicos de la Universidad de Washington están desarrollando la primera tecnología móvil capaz de transmitir lenguaje de signos americano a través de redes celulares. El software, llamado MobileASL actualmente funciona con teléfonos importados de Europa durante su período de pruebas, pero podría configurarse para funcionar con cualquier dispositivo en un futuro próximo.
Puede que alguien se pregunte cómo es que estos técnicos afirman ser “los primeros”, cuando las soluciones de videoconferencia, sobre todo el FaceTime de Apple, y las aplicaciones de vídeo para móviles como Fring ya ofrecen servicios de comunicación cara a cara ideales para lenguaje de signos. La diferencia está en la propia tecnología en que se basa MobileASL.
El equipo de la universidad de Washington, liderado por Eve Riskin, profesor de ingeniería eléctrica, afirma que el FaceTime de Apple utiliza 10 veces el ancho de banda de MobileASL. El servicio de FaceTime también se limita actualmente al Wi-Fi, aunque Apple podría llegar a abrirlo para su funcionamiento por 3G, suponiendo que las operadoras de red puedan ocuparse de la sobrecarga. Fring funciona a través de Wi-Fi y 3G, pero se limita a determinados smartphones, como el iPhone, teléfonos creados con el sistema operativo Android de Google y determinados dispositivos Nokia.
MobileASL, por otra parte, se podría integrar en cualquier dispositivo que tenga una cámara de vídeo en el mismo lado que la pantalla.
También aumenta la calidad de vídeo alrededor de la cara y las manos, a la vez que optimiza las señales comprimidas de vídeo específicamente para lenguaje de signos. El software incluso detecta si una persona está haciendo signos o no, para reducir el gasto de batería.
Jessica Tran, una estudiante de doctorado en ingeniería eléctrica que está realizando el estudio de campo, está experimentando con diferentes sistemas de compresión para alargar más la vida de la batería de los teléfonos en los que hay un uso intensivo del vídeo. Otro investigador, el estudiante de doctorado Jaehong Cho, ha hecho MobileASL compatible con H.264, una norma de la industria para compresión de vídeo.
Las pruebas de campo que se están realizando actualmente con alumnos de la academia de verano de la Universidad de Washington para el avance en computación las de personas sordas y con problemas de audición, es el primero de su clase. “Éste es el primer estudio de cómo utilizan los teléfonos móviles con vídeo los sordos en Estados Unidos”, afirmaba Riskin.
La mayoría de los participantes en el estudio afirman que sus métodos preferidos de comunicación actuales son el correo electrónico o los mensajes de texto. Esta tecnología de MobileASL podría llegar a cambiar esto.
Me parece una excelente medida que se incorpore en los telefonos inteligentes aplicaciones para transmitir el lenguaje de señas, ya que permitirá que personas Sordas puedan comunicarse por medio de videollamadas, que en la actualidad solo tienen como medio de comunicacion movil los mensajes de texto y el correo. Debido a que el ASL es un lenguaje visual, video teléfonos móviles tienen el potencial de dar a las personas Sordas acceso a la comunicación móvil en tiempo real en su idioma preferido. Tiempo real es un sistema informático que interacciona con su entorno físico y responde a los estímulos del entorno dentro de un plazo de tiempo determinado.