Mostrar el registro sencillo del ítem

dc.contributor.authorFerrín-Bolaños, Carlos
dc.contributor.authorMosquera-DeLaCruz, José
dc.contributor.authorPino-Murcia, John
dc.contributor.authorMoctezuma-Ruiz, Luis
dc.contributor.authorBurgos-Martínez, Jonathan
dc.contributor.authorAragón-Valencia, Luis
dc.contributor.authorLoaiza-Correa, Humberto
dc.date.accessioned2021-04-21T16:55:20Z
dc.date.available2021-04-21T16:55:20Z
dc.date.issued2021-01-30
dc.identifierhttps://revistas.itm.edu.co/index.php/tecnologicas/article/view/1722
dc.identifier10.22430/22565337.1722
dc.identifier.urihttp://hdl.handle.net/20.500.12622/4653
dc.description.abstractEn el caso de personas con limitación motriz de miembros superiores, los gestos faciales son la principal forma de comunicarse con el mundo. Sin embargo, las interfaces actuales basadas en gestos no tienen en cuenta la reducción de movilidad que la mayoría de las personas con limitación motriz experimentan durante sus periodos de recuperación. Como alternativa para superar esta limitación, se presenta una interfaz humana-computador basada en técnicas de visión por computador sobre dos tipos de imagen: la imagen del rostro capturada mediante webcam y la captura de pantalla de una aplicación de escritorio en primer plano. La primera imagen es utilizada para detectar, seguir y estimar la pose del rostro con el fin de desplazar y ejecutar comandos con el cursor; la segunda imagen es utilizada para lograr que los desplazamientos del cursor sean realizados a zonas específicas de interacción de la aplicación de escritorio. La interfaz es programada totalmente en Python 3.6 utilizando bibliotecas de código abierto y se ejecuta en segundo plano dentro del sistema operativo Windows. El desempeño de la interfaz se evalúa con videos de personas utilizando cuatro comandos de interacción con la aplicación WhatsApp versión de escritorio. Se encontró que la interfaz puede operar con varios tipos de iluminación, fondos, distancias a la cámara, posturas y velocidades de movimiento; la ubicación y el tamaño de la ventana de WhatsApp no afecta la efectividad de la interfaz. La interfaz opera a una velocidad de 1 Hz y utiliza el 35 % de la capacidad de un procesador Intel Core i5 y 1,5 GB de RAM para su ejecución lo que permite concebir esta solución en equipos de cómputo personales.spa
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.publisherInstituto Tecnológico Metropolitano - ITMspa
dc.relationhttps://revistas.itm.edu.co/index.php/tecnologicas/article/view/1722
dc.relation10.22430/22565337.1722
dc.rightsCopyright (c) 2020 TecnoLógicasspa
dc.rightshttp://creativecommons.org/licenses/by-nc-sa/4.0spa
dc.source2256-5337
dc.source0123-7799
dc.sourceTecnoLógicas; Vol. 24 No. 50 (2021); e1722eng
dc.sourceTecnoLógicas; Vol. 24 Núm. 50 (2021); e1722spa
dc.subjectInterfaz humano-computadorspa
dc.subjectdetección de rostrosspa
dc.subjectvisión por computadorspa
dc.subjecttecnología de asistenciaspa
dc.titleHuman-Computer Interface Based on Facial Gestures Oriented to WhatsApp for Persons with Upper-Limb Motor Impairmentsspa
dc.title.alternativeInterfaz humano-computador basada en gestos faciales y orientada a la aplicación WhatsApp para personas con limitación motriz de miembros superioreseng
dc.type.spaArtículosspa
dc.subject.keywordsHuman-computer interfaceeng
dc.subject.keywordsface detectioneng
dc.subject.keywordscomputer visioneng
dc.subject.keywordsassistive technologyeng
dc.typeinfo:eu-repo/semantics/article
dc.typeinfo:eu-repo/semantics/publishedVersion
dc.typeArticleseng
dc.relation.ispartofjournalTecnoLógicas
dc.description.abstractenglishPeople with reduced upper-limb mobility depend mainly on facial gestures to communicate with the world; nonetheless, current facial gesture-based interfaces do not take into account the reduction in mobility that most people with motor limitations experience during recovery periods. This study presents an alternative to overcome this limitation, a human-computer interface based on computer vision techniques over two types of images: images of the user’s face captured by a webcam and screenshots of a desktop application running on the foreground. The first type is used to detect, track, and estimate gestures, facial patterns in order to move and execute commands with the cursor, while the second one is used to ensure that the cursor moves to specific interaction areas of the desktop application. The interface was fully programmed in Python 3.6 using open source libraries and runs in the background in Windows operating systems. The performance of the interface was evaluated with videos of people using four interaction commands in WhatsApp Desktop. We conclude that the interface can operate with various types of lighting, backgrounds, camera distances, body postures, and movement speeds; and the location and size of the WhatsApp window does not affect its effectiveness. The interface operates at a speed of 1 Hz and uses 35 % of the capacity a desktop computer with an Intel Core i5 processor and 1.5 GB of RAM for its execution; therefore, this solution can be implemented in ordinary, low-end personal computers.eng
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.type.coarhttp://purl.org/coar/resource_type/c_6501


Ficheros en el ítem

FicherosTamañoFormatoVer

No hay archivos asociados a este ítem.

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem