Lo primero que hay que tomar en cuenta es que se necesita un cable especial para conectar el usb a la computadora, lo cual se va a adquirir en ésta semana, además se planteó que partes de los sensores utilizaremos y cómo es que se obtiene la posición de la persona que se encuentra enfrente del dispositivo.
Primero que todo según nuestra investigación nos dimos cuenta que el Kinect SDK, facilita mucho la realización del proyecto, ya que éste recibe los datos ubicando al "esqueleto" de la persona que está realizando el lenguaje de señas para ser traducido por la máquina.
En el siguiente video vemos cómo se realiza la entrada de datos, tomando como base un esqueleto amarillo.
Cabe destacar que antes de utilizar el sdk de kinect es importante instalar pygame. Ya sea en su versión 1.9.1 ó 1.9.2, dependiendo de la versión de Python instalada y es indispensable que Python se haya instalado en su versión de 32 bits, para que la instalación no consuma más tiempo del debido.
Se trabajará en su mayoría en la recepción de imágenes, buscando patrones similares a los que se espera según determinado umbral, ya que en todo momento se evaluará la posición del esqueleto, para encontrar un 90% de similitudes a los patrones obtenidos en una imagen cada una de las señas, hechas por alguno del equipo.
Después de ésto sólo es cuestión de en base a las entradas aplicar la Red Neuronal que de como salida, alguna de las señas de nuestro lenguaje.
Esperaremos no tener problemas una vez que se realicen las primeras pruebas con el dispositivo.
Esperaremos no tener problemas una vez que se realicen las primeras pruebas con el dispositivo.
Se está considerando el uso de una salida de voz, para la traducción en tiempo real con la herramienta
Microsoft Speech Platform descargable desde éste enlace: Speech Platform.
Fuentes: