Mostrar el registro sencillo del ítem

dc.contributor.authorEcheverry-Correa, Julián D.
dc.contributor.authorMorales-Pérez, Mauricio
dc.date.accessioned2019-07-18T14:11:14Z
dc.date.accessioned2019-08-16T16:20:57Z
dc.date.available2019-07-18T14:11:14Z
dc.date.available2019-08-16T16:20:57Z
dc.date.issued2008-12-07
dc.identifierhttps://revistas.itm.edu.co/index.php/tecnologicas/article/view/256
dc.identifier10.22430/22565337.256
dc.identifier.urihttp://hdl.handle.net/20.500.12622/809
dc.description.abstractSe presenta en este trabajo una metodología para la caracterización de la señal de voz aplicada al reconocimiento de estados emocionales. Son estudiadas cuatro emociones primarias (alegría, enojo, sorpresa y tristeza) y un estado neutral. Se realizó un análisis en el dominio temporal y un análisis acústico empleando los MFCC (Mel Frequency Cepstral Coefficients). Las pruebas comprueban la efectividad de la metodología en el reconocimiento de las emociones superando el reconocimiento realizado por un grupo de personas. Se obtiene un porcentaje de 94.00% de acierto en el reconocimiento de emociones trabajando sobre la base de SES (Spanish emotional speech).spa
dc.format.mimetypeapplication/pdf
dc.language.isospa
dc.publisherInstituto Tecnológico Metropolitano (ITM)spa
dc.relationhttps://revistas.itm.edu.co/index.php/tecnologicas/article/view/256/262
dc.rightsCopyright (c) 2017 Tecno Lógicasspa
dc.source2256-5337
dc.source0123-7799
dc.sourceTecnoLógicas; Num. 21 (2008); 113-130eng
dc.sourceTecnoLógicas; Num. 21 (2008); 113-130spa
dc.subjectReconocimiento de emocionesspa
dc.subjectprocesamiento señal de vozspa
dc.subjectMFCC.spa
dc.titleReconocimiento de emociones en el hablaspa
dc.title.alternativeReconocimiento de emociones en el habla
dc.subject.keywordsEmotion recognitioneng
dc.subject.keywordssignal speech processingeng
dc.subject.keywordsMFCC.eng
dc.typeinfo:eu-repo/semantics/article
dc.typeinfo:eu-repo/semantics/publishedVersion
dc.typeArticleseng
dc.typeArtículosspa
dc.relation.ispartofjournalTecnoLógicas
dc.description.abstractenglishA methodology of feature extraction in emotional speech for emotion recognition is proposed. Four primary human emotions, including happiness, anger, surprise and sadness are investigated. In order to recognize emotional states, acoustic MFCC (Mel frequencycepstral coefficients) and time representation features are extracted from voice recordings. Experiments indicate that emotion recognition effectiveness comparable to human listeners can be achieved. Recognition accuracy of 94.00% for emotion detection was obtained from database SES (Spanish emotional speech).eng
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.type.coarhttp://purl.org/coar/resource_type/c_6501


Ficheros en el ítem

Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem