<?xml version="1.0" encoding="UTF-8"?><?xml-model type="application/xml-dtd" href="http://jats.nlm.nih.gov/publishing/1.1d3/JATS-journalpublishing1.dtd"?>
<!DOCTYPE article PUBLIC "-//NLM//DTD JATS (Z39.96) Journal Publishing DTD v1.1d3 20150301//EN" "http://jats.nlm.nih.gov/publishing/1.1d3/JATS-journalpublishing1.dtd">
<article xmlns:ali="http://www.niso.org/schemas/ali/1.0" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:mml="http://www.w3.org/1998/Math/MathML" dtd-version="1.1d3" specific-use="Marcalyc 1.2" article-type="research-article" xml:lang="es">
<front>
<journal-meta>
<journal-id journal-id-type="redalyc">3442</journal-id>
<journal-title-group>
<journal-title specific-use="original" xml:lang="es">TecnoLógicas</journal-title>
</journal-title-group>
<issn pub-type="ppub">0123-7799</issn>
<issn pub-type="epub">2256-5337</issn>
<publisher>
<publisher-name>Instituto Tecnológico Metropolitano</publisher-name>
<publisher-loc>
<country>Colombia</country>
<email>tecnologicas@itm.edu.co</email>
</publisher-loc>
</publisher>
</journal-meta>
<article-meta>
<article-id pub-id-type="art-access-id" specific-use="redalyc">344270031006</article-id>
<article-id pub-id-type="doi">https://doi.org/10.22430/22565337.2220</article-id>
<article-categories>
<subj-group subj-group-type="heading">
<subject>Artículos de investigación</subject>
</subj-group>
</article-categories>
<title-group>
<article-title xml:lang="es">Correlación entre espacios de características acústicas del habla y trastornos clínicos de la voz en pacientes con disfagia</article-title>
<trans-title-group>
<trans-title xml:lang="en">Correlation Between Speech-Related Feature Spaces and Clinical Voice Disorders in Patients with Dysphagia</trans-title>
</trans-title-group>
</title-group>
<contrib-group>
<contrib contrib-type="author" corresp="no">
<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-6628-6457</contrib-id>
<name name-style="western">
<surname>Flórez-Gómez</surname>
<given-names>Andrés Felipe</given-names>
</name>
<xref ref-type="aff" rid="aff1"/>
<email>andresflorez223360@correo.itm.edu.co</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-8507-0782</contrib-id>
<name name-style="western">
<surname>Orozco-Arroyave</surname>
<given-names>Juan Rafael</given-names>
</name>
<xref ref-type="aff" rid="aff2"/>
<email>rafael.orozco@udea.edu.co</email>
</contrib>
<contrib contrib-type="author" corresp="no">
<contrib-id contrib-id-type="orcid">https://orcid.org/0000-0002-3894-1688</contrib-id>
<name name-style="western">
<surname>Roldán-Vasco</surname>
<given-names>Sebastián</given-names>
</name>
<xref ref-type="aff" rid="aff3"/>
<email>sebastianroldan@itm.edu.co</email>
</contrib>
</contrib-group>
<aff id="aff1">
<institution content-type="original">Instituto Tecnológico Metropolitano, Medellín-Colombia, andresflorez223360@correo.itm.edu.co</institution>
<institution content-type="orgname">Instituto Tecnológico Metropolitano</institution>
<country country="CO">Colombia</country>
</aff>
<aff id="aff2">
<institution content-type="original">Universidad de Antioquia, Medellín-Colombia, Friedrich-Alexander-Universität, Erlangen Nürnberg-Alemania, rafael.orozco@udea.edu.co</institution>
<institution content-type="orgname">Universidad de Antioquia</institution>
<country country="CO">Colombia</country>
</aff>
<aff id="aff3">
<institution content-type="original">Instituto Tecnológico Metropolitano, Universidad de Antioquia, Medellín-Colombia, sebastianroldan@itm.edu.co</institution>
<institution content-type="orgname">Instituto Tecnológico Metropolitano</institution>
<country country="CO">Colombia</country>
</aff>
<pub-date pub-type="epub-ppub">
<season>Enero-Mayo</season>
<year>2022</year>
</pub-date>
<volume>25</volume>
<issue>53</issue>
<elocation-id>e2220</elocation-id>
<history>
<date date-type="received" publication-format="dd mes yyyy">
<day>28</day>
<month>10</month>
<year>2021</year>
</date>
<date date-type="accepted" publication-format="dd mes yyyy">
<day>30</day>
<month>03</month>
<year>2022</year>
</date>
<date date-type="pub" publication-format="dd mes yyyy">
<day>05</day>
<month>04</month>
<year>2022</year>
</date>
</history>
<permissions>
<copyright-year>2019</copyright-year>
<copyright-holder>Instituto Tecnológico Metropolitano</copyright-holder>
<ali:free_to_read/>
<license xlink:href="https://creativecommons.org/licenses/by-nc-sa/4.0/">
<ali:license_ref>https://creativecommons.org/licenses/by-nc-sa/4.0/</ali:license_ref>
<license-p>Esta obra está bajo una Licencia Creative Commons Atribución-NoComercial-CompartirIgual 4.0 Internacional.</license-p>
</license>
</permissions>
<abstract xml:lang="es">
<title>Resumen</title>
<p>La disfagia se define como la dificultad para transportar un bolo alimenticio de forma segura y efectiva desde la cavidad oral hasta el estómago. En la actualidad, los métodos para el diagnóstico de la disfagia son invasivos y altamente dependientes de la experiencia del personal asistencial cualificado. El estudio de las bioseñales, como lo son los registros de voz y habla, ha sido propuesto con el fin de desarrollar herramientas complementarias al diagnóstico. De esta manera, el presente trabajo tuvo como objetivo explorar, en características extraídas en señales de voz y habla, la capacidad de discriminación entre personas sanas y pacientes con trastornos deglutorios. Para ello se registraron señales en un grupo de 30 personas sanas y 45 pacientes diagnosticados con disfagia. Los participantes realizaron diferentes tareas de voz (vocales sostenidas) y de habla (texto leído, monólogo y ejercicios diadococinéticos). Los registros de los pacientes fueron etiquetados en tres condiciones clínicas: voz húmeda, voz disfónica y voz con alteración no determinada. Se evaluaron espacios de características clásicas asociadas al análisis de voz y habla a través de pruebas estadísticas hallándose que las características relacionadas a la fonación, prosodia y diadococinesia tienen potencial como biomarcadores para la discriminación de diferentes alteraciones en pacientes con disfagia. Este trabajo constituye una aproximación preliminar basada en el estudio de señales de voz y habla para un diagnóstico no invasivo y objetivo de la disfagia.</p>
</abstract>
<trans-abstract xml:lang="en">
<title>Abstract</title>
<p>Dysphagia is defined as the difficulty to transport an alimentary bolus from the oral cavity to the stomach in a safe and effective way. Currently, dysphagia-related diagnosis methods are invasive and highly dependent on the examiner’s experience. Biosignal-based studies, such as those on voice and speech records, have been proposed to develop complementary diagnostic tools. Likewise, this study explores, in features extracted from voice and speech signals, the capacity to discriminate between healthy subjects and patients with swallowing disorders. For this purpose, the signals were recorded in a group of 30 healthy individuals and 45 dysphagic patients. The participants performed different voice tasks (sustained vowels) and speech tasks (text reading, monologue, and diadochokinetic exercises). The patient records were assigned labels of three clinical conditions: wet voice, dysphonic voice, and voice with undetermined alteration. Classical voice- and speech-related feature spaces were assessed using statistical tests, and it was found that features related to phonation, prosody, and diadochokinesia have potential as biomarkers for the discrimination of different alterations in patients with dysphagia. This is a preliminary study based on voice and speech signals for a non-invasive and objective diagnosis of dysphagia.</p>
</trans-abstract>
<kwd-group xml:lang="es">
<title>Palabras clave</title>
<kwd>Disfagia</kwd>
<kwd>análisis de voz</kwd>
<kwd>análisis del habla</kwd>
<kwd>procesamiento de bioseñales</kwd>
<kwd>extracción de características</kwd>
<kwd>análisis estadístico</kwd>
</kwd-group>
<kwd-group xml:lang="en">
<title>Keywords</title>
<kwd>Dysphagia</kwd>
<kwd>Speech analysis</kwd>
<kwd>Voice analysis</kwd>
<kwd>Biosignal processing</kwd>
<kwd>Feature extraction</kwd>
<kwd>Statistical analysis</kwd>
</kwd-group>
<counts>
<fig-count count="9"/>
<table-count count="6"/>
<equation-count count="9"/>
<ref-count count="46"/>
</counts>
<custom-meta-group>
<custom-meta>
<meta-name>Cómo citar / How to cite</meta-name>
<meta-value>A. F. Flórez-Gómez; J. R. Orozco-Arroyave; S. Roldán-Vasco, “Correlación entre espacios de características acústicas del habla y trastornos clínicos de la voz en pacientes con disfagia”, <italic>TecnoLógicas</italic>, vol. 25, nro. 53, e2220, 2022. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.22430/22565337.2220">https://doi.org/10.22430/22565337.2220</ext-link>
</meta-value>
</custom-meta>
</custom-meta-group>
</article-meta>
</front>
<body>
<sec>
<title>
<bold>Highlights</bold>
</title>
<p>
<list list-type="simple">
<list-item>
<p> -Potenciales biomarcadores en el estudio de alteraciones de la voz asociadas a disfagia.</p>
</list-item>
<list-item>
<p>- Diferenciación entre personas sanas y pacientes disfágicos con alteraciones de voz.</p>
</list-item>
<list-item>
<p>- Construcción de base de datos propia para futuros trabajos de mayor profundidad.</p>
</list-item>
</list>
</p>
</sec>
<sec>
<title>
<bold>1.     INTRODUCCIÓN</bold>
</title>
<sec>
<title>
<bold>1.1   Disfagia y diagnóstico</bold>
</title>
<p>La disfagia es la alteración del proceso deglutorio, lo que puede generar desnutrición, deshidratación, neumonía e incluso la muerte [<xref ref-type="bibr" rid="redalyc_344270031006_ref1">1</xref>]. Sus causas se dividen en dos grupos: trastornos neuromotores y lesiones obstructivas [<xref ref-type="bibr" rid="redalyc_344270031006_ref2">2</xref>]. Las personas con esta afección han tenido que adoptar distintas medidas en sus hábitos alimenticios, de sueño y del habla para poder contrarrestar los efectos de la disfagia, algo que no solo afecta al paciente, sino también a su círculo familiar y social inmediato [<xref ref-type="bibr" rid="redalyc_344270031006_ref3">3</xref>]. Está asociada a diversas enfermedades neurológicas de base y tiene incidencia, principalmente, en la población de edad avanzada [<xref ref-type="bibr" rid="redalyc_344270031006_ref4">4</xref>].</p>
<p>En Colombia, la población mayor a 59 años pasó de dos millones en el año 1985, a seis millones en 2018, con un crecimiento anual del 3,5 %, superior al 1,7 % de la población total, y se proyecta un aumento de esta población debido a la disminución de la mortalidad y al aumento de la expectativa de vida [<xref ref-type="bibr" rid="redalyc_344270031006_ref5">5</xref>]. Esta población es vulnerable a distintas enfermedades o afecciones como lo son la enfermedad de Parkinson (EP), Alzheimer, esclerosis lateral amiotrófica (ELA), entre otras, las cuales aumentan la incidencia y prevalencia de la disfagia [<xref ref-type="bibr" rid="redalyc_344270031006_ref4">4</xref>].</p>
<p>Los métodos validados clínicamente para la evaluación instrumental de la disfagia son la videofluoroscopia y la endoscopia de fibra óptica (VFSS y FEES, por sus siglas en inglés, respectivamente) [<xref ref-type="bibr" rid="redalyc_344270031006_ref6">6</xref>]. Sin embargo, la VFSS es la prueba de referencia aceptada clínicamente [<xref ref-type="bibr" rid="redalyc_344270031006_ref4">4</xref>]. Ambas técnicas son invasivas y dependientes de la experticia y capacitación del personal que las utiliza [<xref ref-type="bibr" rid="redalyc_344270031006_ref7">7</xref>]. La VFSS, además de ser invasiva, es costosa –con un valor aproximado de medio millón de pesos colombianos–, lo que tiene un impacto sobre el sistema de salud.</p>
<p>Debido a las limitaciones presentadas arriba, distintas investigaciones han propuesto aproximaciones basadas en señales no invasivas (ej. electromiografía de superficie [<xref ref-type="bibr" rid="redalyc_344270031006_ref8">8</xref>] o auscultación cervical con acelerometría [<xref ref-type="bibr" rid="redalyc_344270031006_ref9">9</xref>]), aunque aún no han sido implementadas en el consultorio para tratamiento, diagnóstico o seguimiento de la disfagia. Una de las aproximaciones que podrían complementar el diagnóstico es el estudio de las señales de voz y habla, debido a que estas guardan estrecha relación, tanto a nivel estructural como neurológico, con el proceso deglutorio [<xref ref-type="bibr" rid="redalyc_344270031006_ref10">10</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref11">11</xref>].</p>
<p>Debido a esta relación, algunos pacientes con disfagia presentan trastornos de la voz y del habla, tales como disfonía y la voz húmeda. La disfonía ocurre cuando los músculos alrededor de la laringe se encuentran muy tensos durante el habla y se manifiesta como voz ronca, débil, tensa, entrecortada y/o áspera. Algunos pacientes manifiestan además opresión e incluso dolores musculares en la garganta [<xref ref-type="bibr" rid="redalyc_344270031006_ref12">12</xref>]. Por otra parte, la voz húmeda es la presencia de material extraño en el área de la laringe, normalmente restos de alimentos sólidos o líquidos, y se caracteriza por ser una voz gorgoja o con sonidos guturales anormales [<xref ref-type="bibr" rid="redalyc_344270031006_ref13">13</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref14">14</xref>].</p>
</sec>
<sec>
<title>
<bold>1.2   Análisis de la voz y del habla en pacientes con disfagia</bold>
</title>
<p>El análisis de voz se refiere al estudio de las características acústico-fonatorias en vocales sostenidas. Por otro lado, el análisis del habla hace referencia al estudio de las características asociadas al habla continua.</p>
<p>Estos análisis se han abordado preliminarmente en estudios de pacientes con disfagia y otras comorbilidades [<xref ref-type="bibr" rid="redalyc_344270031006_ref15">15</xref>]. Lo anterior debido a que este tipo de análisis presenta baja intrusión y fácil implementación en la práctica clínica. Una correlación significativa entre las características de voz contrastada con el análisis de VFSS podría llegar a avances importantes en un diagnóstico más simple y menos estresante para los pacientes, además de un menor costo e impacto en el sistema de salud [<xref ref-type="bibr" rid="redalyc_344270031006_ref16">16</xref>]. Además, cuando se logra una automatización lo suficientemente robusta, la evaluación basada en el habla se podría llevar a cabo de manera remota, reduciendo el costo para los pacientes y ampliando el espectro de atención hacia personas que viven en áreas rurales.</p>
<p>En 2004, se realizó un estudio en 93 pacientes para determinar el valor diagnóstico del análisis de voz para la detección de aspiraciones laríngeas en pacientes con alto riesgo [<xref ref-type="bibr" rid="redalyc_344270031006_ref17">17</xref>]. Se midieron cinco variables acústicas pre y pos VFSS: el valor medio de la frecuencia fundamental de vibración de los pliegues vocales (<italic>F<sub>0</sub>
</italic>), la perturbación promedio relativa (RAP, por sus siglas en inglés), el porcentaje de Shimmer, la relación ruido-armónico y el índice de turbulencia de voz. Se observó que el RAP, el Shimmer, la relación ruido-armónico y el índice de turbulencia permiten detectar pacientes con alto riesgo de aspiración, en especial el RAP.</p>
<p>En una investigación posterior [<xref ref-type="bibr" rid="redalyc_344270031006_ref15">15</xref>], se analizaron señales de voz obtenidas de pacientes con desórdenes neurológicos de diferentes etiologías -EP, accidente cerebrovascular y ELA-, bajo tres condiciones de evaluación: actividades predeglutorias, después de tragar una solución líquida y después de tragar una solución pastosa. Adicionalmente, utilizaron tres enfoques: análisis acústico, basado en <italic>F<sub>0</sub>
</italic>, Jitter y Shimmer; un método basado en dinámica no lineal en vocales; y un análisis de entropía relativa entre los grupos de señales. Los autores encontraron que únicamente el análisis de dinámica no lineal arrojó diferencias estadísticamente significativas en los grupos.</p>
<p>Otro estudio evaluó un grupo de pacientes con disfagia y un grupo de control en el que se analizó la producción vocal a partir del registro de la vocal sostenida \a\ antes y después de la ingesta de sustancias pastosas mediante la escala GRBAS –siglas en inglés para grado, aspereza, respiración, astenia y tensión– y el parámetro de voz húmeda. Los autores observaron una disminución significativa en el grado y la astenia y un aumento importante de la tensión en las personas con disfagia, mientras que los controles no presentaron variación en estos parámetros después de la deglución. Por otra parte, la voz húmeda no mostró variaciones entre los grupos [<xref ref-type="bibr" rid="redalyc_344270031006_ref18">18</xref>].</p>
<p>En el 2016 se realizó un estudio en el que extrajeron características lineales y no lineales en señales de habla continua, que pueden ser interpretados como indicadores o predictores confiables en la determinación de alteraciones de deglución en pacientes con EP, los cuales también presentaron un alto riesgo de aspiración relacionado a la disfagia. Los autores extrajeron múltiples características como la clasificación sonora-insonora, la relación ruido-armónico, la frecuencia fundamental y sus variaciones, Jitter, Shimmer, coeficientes cepstrales de frecuencia en la escala Mel (MFCC, por sus siglas en inglés), y la entropía de permutación. Se halló que, además de la frecuencia fundamental, se presentaron fuertes variaciones en la relación ruido-armónico y en la entropía de permutación en pacientes después de la deglución de una solución pastosa [<xref ref-type="bibr" rid="redalyc_344270031006_ref16">16</xref>].</p>
</sec>
<sec>
<title>
<bold>1.3   Contribuciones del trabajo</bold>
</title>
<p>En este trabajo se buscó establecer una correlación entre las características del habla y condiciones de voz húmeda y disfonía, en pacientes diagnosticados con disfagia. Para ello, se realizó un análisis de las dimensiones del habla con el fin de contribuir a un diagnóstico de la disfagia oportuno, no invasivo, con menor sesgo del evaluador y costo-efectivo.</p>
</sec>
</sec>
<sec>
<title>
<bold>2.     MATERIALES Y MÉTODOS</bold>
</title>
<sec>
<title>
<bold>2.1   Base de datos</bold>
</title>
<p>Se construyó una base de datos con registros de voz de 45 pacientes con disfagia (23 hombres y 22 mujeres, edad promedio de 59,7 ± 12,3 y 30 personas de control (13 hombres y 17 mujeres, edad promedio de 63,2 ± 9,9 años). Los voluntarios firmaron consentimiento informado aprobado por el Comité de Ética de la Universidad Pontificia Bolivariana, el cual está definido siguiendo los lineamientos del acuerdo de Helsinki.</p>
<p>La muestra de pacientes se dividió en tres subgrupos diferenciados por condición clínica de la voz: voz húmeda (VH), voz disfónica (VDf) y voz normal o no determinada (ND). Dicha condición es etiquetada por una fonoaudióloga con experiencia certificada en pacientes con disfagia. La <xref ref-type="table" rid="gt1">Tabla 1</xref> muestra la distribución demográfica de la base de datos, en donde la edad está dada en años y presentada en media y desviación estándar.</p>
<p>
<table-wrap id="gt1">
<label>Tabla 1</label>
<caption>
<title>Distribución demográfica de la base de datos </title>
</caption>
<alt-text>Tabla 1 Distribución demográfica de la base de datos </alt-text>
<alternatives>
<graphic xlink:href="344270031006_gt2.png" position="anchor" orientation="portrait"/>
<table style="width:355.75pt;border-collapse:collapse;border:none;      " id="gt2-526564616c7963">
<tbody>
<tr style="   height:17.0pt">
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Grupo</td>
<td style="width:87.8pt;border-top:solid black 1.0pt;border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Condición de Voz</td>
<td style="width:55.6pt;border-top:solid black 1.0pt;border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Sexo [M / F]</td>
<td style="width:144.2pt;border-top:solid black 1.0pt;border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Edad [M / F] (años)</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" rowspan="3">Pacientes</td>
<td style="width:87.8pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">VH</td>
<td style="width:55.6pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">3 / 4</td>
<td style="width:144.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">67,33 ± 5,51 / 53,75 ± 9,53</td>
</tr>
<tr style="height:17.0pt">
<td style="width:87.8pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">VDf</td>
<td style="width:55.6pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">13 / 10</td>
<td style="width:144.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">60,85 ± 12,93 / 65,10 ± 8,10</td>
</tr>
<tr style="height:17.0pt">
<td style="width:87.8pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">ND</td>
<td style="width:55.6pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">7 / 8</td>
<td style="width:144.2pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">54,57 ± 10,55 / 55,63 ± 17,25</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Controles</td>
<td style="width:87.8pt;border:none;border-bottom:solid black 1.0pt;      padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="width:55.6pt;border:none;border-bottom:solid black 1.0pt;      padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">16 / 14</td>
<td style="width:144.2pt;border:none;border-bottom:solid black 1.0pt;      padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">63,88 ± 10,46 / 62,36 ± 9,45</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Fuente: elaboración propia.</attrib>
<table-wrap-foot>
<fn-group>
<fn id="fn1" fn-type="other">
<label>Nota:</label>
<p>VH: voz húmeda; VDf: voz disfónica; ND: condición no determinada</p>
</fn>
</fn-group>
</table-wrap-foot>
</table-wrap>
</p>
<p>Con el fin de evitar sesgos, el grupo de control se dividió en otros dos, uno con siete voluntarios para comparaciones con el grupo de VH y otro con 23 voluntarios para comparaciones con el grupo de VDf. La selección de ambos subgrupos fue realizada teniendo en cuenta un emparejamiento en términos de edad y género (prueba t con p = 0,82, prueba ꭕ^2 con p = 1,00 para comparaciones con VH; prueba t con p = 0,7, prueba, ꭕ^2 con p = 1,00 para comparaciones con VDf).</p>
</sec>
<sec>
<title>
<bold>2.2   Protocolo de grabación</bold>
</title>
<p>En este trabajo se pretende cubrir el análisis de voz y habla en pacientes con disfagia. Para el análisis de voz se consideró la producción de vocales sostenidas, y, para el análisis del habla, se consideraron tareas de habla continua y diadococinesia. Para la adquisición de las señales se utilizó la diadema Logitech H390. El micrófono se posicionó a una distancia aproximada de 5 cm de la boca, como se observa en la <xref ref-type="fig" rid="gf1">Figura 1</xref>.</p>
<p>
<fig id="gf1">
<label>Figura 1 .</label>
<caption>
<title>Posicionamiento de la diadema</title>
</caption>
<alt-text>Figura 1 . Posicionamiento de la diadema</alt-text>
<graphic xlink:href="344270031006_gf2.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
<p>Las grabaciones fueron adquiridas con el <italic>software</italic> Audacity con una frecuencia de muestreo de 44,1 kHz y exportadas en formato .wav de 16 bits con signo.</p>
<p>Se solicitó a cada voluntario realizar las siguientes tareas de voz orientadas a la evaluación de tres dimensiones del habla: fonación, articulación y prosodia [<xref ref-type="bibr" rid="redalyc_344270031006_ref19">19</xref>]:</p>
<p>
<bold>Vocales sostenidas:</bold> consistió en pedirle al participante que pronunciara las vocales de forma sostenida durante al menos tres segundos o hasta que se le agote el aire:</p>
<p>\a\, \e\, \i\, \o\, \u\. Repitiendo el ejercicio tres (3) veces.</p>
<p>
<bold>Tareas diadococinéticas (DDK):</bold> se le solicitó al participante que repitiera rápidamente las siguientes palabras y sílabas:</p>
<p>
<bold>a)</bold> \pa-ta-ka\      <bold>d)</bold> \pa\</p>
<p>
<bold>b)</bold> \pa-ka-ta\      <bold>e)</bold> \ta\</p>
<p>
<bold>c)</bold> \pe-ta-ka\      <bold>f)</bold> \ka\</p>
<p>
<bold>Lectura:</bold> se le requirió al participante que leyera el siguiente párrafo, haciendo las respectivas pausas y entonaciones donde indiquen los signos de puntuación, interrogación y exclamación:</p>
<p>“Ayer fui al médico. ¿Qué le pasa? Me preguntó. Yo le dije: ¡Ay, doctor! Donde pongo el dedo me duele. ¿Tiene la uña rota? Sí. Pues ya sabemos qué es. Deje su cheque a la salida”.</p>
<p>Esta lectura es fonéticamente balanceada y contiene todos los fonemas del español hablado en Colombia [<xref ref-type="bibr" rid="redalyc_344270031006_ref20">20</xref>].</p>
<p>
<bold>Monólogo:</bold> consistió en que el participante hablara acerca de las actividades que realiza en un día común.</p>
<p>Las señales de los pacientes fueron etiquetadas por el experto en fonoaudiología de acuerdo con sospecha de voz húmeda, disfonía o voz con alteración no determinada.</p>
</sec>
<sec>
<title>
<bold>2.3   Preprocesamiento</bold>
</title>
<p>Con el fin de eliminar sesgo a causa del ambiente acústico, se aplicó una normalización de canal basada en la compresión GSM full-rate, utilizando el <italic>software</italic> Sound eXchange (SoX). Su tasa de bits se redujo a 13 bps, submuestreó a 8 kHz, y se filtró entre 0,2 kHz y 3,4 kHz.</p>
</sec>
<sec>
<title>
<bold>2.4   Extracción de características</bold>
</title>
<p>Se extrajeron distintas características de los registros de habla asociados a las dimensiones del habla mediante Python y la librería Parselmouth [<xref ref-type="bibr" rid="redalyc_344270031006_ref21">21</xref>], la cual permite acceder de manera indirecta a la interfaz de Praat [<xref ref-type="bibr" rid="redalyc_344270031006_ref22">22</xref>]. A continuación, se describen las características asociadas a cada dimensión del habla.</p>
<p>
<bold>Fonación:</bold> estudiada principalmente en las vocales sostenidas, se entiende como el análisis que se realiza al primer momento de la producción vocal [<xref ref-type="bibr" rid="redalyc_344270031006_ref23">23</xref>]. En ocasiones referido como el análisis acústico de la voz, los descriptores que se evaluaron en este estudio son: <italic>F.</italic>, Jitter, Shimmer, los cocientes de perturbación temporal o de amplitud (PPQ y APQ, respectivamente) y la intensidad de la señal o energía en forma logarítmica, estudiados en [<xref ref-type="bibr" rid="redalyc_344270031006_ref19">19</xref>].</p>
<p>
<italic>F<sub>0 </sub>
</italic>es la frecuencia fundamental de vibración de los pliegues vocales [<xref ref-type="bibr" rid="redalyc_344270031006_ref24">24</xref>]. Para hallarla, se utilizó el método desarrollado por Paul Boersma [<xref ref-type="bibr" rid="redalyc_344270031006_ref25">25</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref26">26</xref>]. Adicionalmente, se hallaron la primera y segunda derivadas de <italic>F.</italic>, es decir, ∆<italic>F<sub>0</sub>
</italic>  y ∆<sup>2</sup>
<italic>F<sub>0</sub>
</italic>, respectivamente, donde ∆<italic>F<sub>0</sub>
</italic>   representa el cambio entre ventanas, mientras que ∆<sup>2</sup>
<italic>F<sub>0</sub>
</italic> representa el cambio entre ventanas de la primera derivada, que se interpretan como la velocidad y la aceleración de la característica, respectivamente [<xref ref-type="bibr" rid="redalyc_344270031006_ref27">27</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref28">28</xref>].</p>
<p>La intensidad o energía de la señal es extraída de forma logarítmica, tal como se describe en (<xref ref-type="disp-formula" rid="e1">1</xref>). Representa la intensidad de la señal y está expresada en decibelios (dB).</p>
<p>
<disp-formula id="e1">
<label>(1)</label>
<graphic xlink:href="344270031006_ee2.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>Donde <italic>N</italic>  es el número de muestras en la i-ésima ventana y    es el valor de la señal en el <italic>k-</italic>ésimo punto.</p>
<p>El Jitter permite medir las perturbaciones temporales que se presentan en las señales de voz. La ecuación (<xref ref-type="disp-formula" rid="e2">2</xref>) describe la forma de calcular Jitter.</p>
<p>
<disp-formula id="e2">
<label>(2)</label>
<graphic xlink:href="344270031006_ee3.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>Donde <italic>N</italic> corresponde al número de ventanas, <italic>M<sub>f</sub>
</italic>es el valor máximo del <italic>pitch</italic> de la señal y <italic>F<sub>0</sub>(k)</italic> es el valor del <italic>pitch </italic>en la <italic>k -</italic>ésima ventana.</p>
<p>Por otro lado, el Shimmer permite estimar las perturbaciones en la amplitud y se calcula con (<xref ref-type="disp-formula" rid="e3">3</xref>).</p>
<p>
<disp-formula id="e3">
<label>(3)</label>
<graphic xlink:href="344270031006_ee4.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>Donde <italic>N</italic> corresponde al número de ventanas, <italic>M<sub>a</sub>
</italic>  es el valor máximo de la amplitud de la señal y <italic>A(k)</italic> es el valor de la amplitud en la <italic>k-</italic>ésima ventana.</p>
<p>Los cocientes de perturbación, ya sea de amplitud o de <italic>F<sub>0</sub>
</italic> (APQ o PPQ), son medidas empleadas para estimar la variabilidad de la amplitud pico a pico o <italic>F<sub>0</sub>
</italic> de la señal, y se calcula con (<xref ref-type="disp-formula" rid="e4">4</xref>),</p>
<p>
<disp-formula id="e4">
<label>(4)</label>
<graphic xlink:href="344270031006_ee5.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>donde <italic>L=M -(K -1), D(i)</italic> corresponde a la secuencia del período de <italic>F<sub>0</sub>  o</italic> amplitud según corresponda (PPS, cuando se calcula PPQ, y PAS, cuando se calcula APQ), <italic>M</italic> es la longitud de la PPS o PAS, 𝐾 es la longitud de la media móvil (normalmente 11 para APQ y 5 para PPQ), y <italic>m=(K -1)/2</italic>.</p>
<p>Para estos descriptores se empleó el método de ventana deslizante con un tamaño de ventana de 40 ms y una superposición del 50 %, a excepción del APQ y PPQ, en donde se utilizó un tamaño de ventana de 150 ms.</p>
<p>
<bold>Articulación:</bold> esta dimensión hace referencia al movimiento muscular de los articuladores del tracto vocal, en el que los cambios de posición de estos producen diferentes sonidos y resonancias [<xref ref-type="bibr" rid="redalyc_344270031006_ref29">29</xref>]. En el estudio de la articulación se emplearon tanto acercamientos espectrales como cepstrales y se realizó sobre vocales sostenidas y en habla continua:</p>
<p>
<bold>a) Articulación en vocales sostenidas:</bold> en el dominio espectral se determinaron los formantes <italic>F1</italic> y <italic>F2</italic> que permiten rastrear la apertura mandibular y posición lingual, respectivamente [<xref ref-type="bibr" rid="redalyc_344270031006_ref30">30</xref>]. En términos de estas características, las vocales \a\, \i\ y \u\ representan los movimientos articulatorios extremos, por lo que reciben el nombre de “vocales de las esquinas del triángulo vocal”, estudiadas en [<xref ref-type="bibr" rid="redalyc_344270031006_ref31">31</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref32">32</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref33">33</xref>]. En cuanto al dominio cepstral en el análisis de las vocales sostenidas, se calcularon los coeficientes cepstrales de frecuencia de Mel (MFCC, por sus siglas en inglés), que se pueden entender como la representación del habla que se basa en la percepción auditiva humana [<xref ref-type="bibr" rid="redalyc_344270031006_ref34">34</xref>].</p>
<p>El proceso comúnmente empleado para determinar los MFCC se ilustra en la <xref ref-type="fig" rid="gf2">Figura 2</xref>, en donde se aplica un método de ventana deslizante a la señal, posteriormente se calcula el espectro de potencia con la transformada rápida de Fourier (FFT) sobre cada uno de las ventanas, luego se le aplica un banco de filtros a los espectro de potencia y se suma la energía de cada uno, se lleva esta energía a forma logarítmica, después se realiza una transformada discreta coseno (DCT) sobre las energías, para finalmente obtener los coeficientes de frecuencia deseados [<xref ref-type="bibr" rid="redalyc_344270031006_ref35">35</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref36">36</xref>].</p>
<p>
<fig id="gf2">
<label>Figura 2 .</label>
<caption>
<title>Esquema de detección de los MFCC</title>
</caption>
<alt-text>Figura 2 . Esquema de detección de los MFCC</alt-text>
<graphic xlink:href="344270031006_gf3.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
<p>Para el caso del presente estudio solamente se analizaron los primeros 12 MFCC, que son los que se encuentran dentro del rango de frecuencias del habla humana [<xref ref-type="bibr" rid="redalyc_344270031006_ref37">37</xref>]. Para hallar los valores de frecuencia <italic>f</italic>en Hertz a escala Mel <italic>M</italic> y viceversa se emplea (<xref ref-type="disp-formula" rid="e5">5</xref>):</p>
<p>
<disp-formula id="e5">
<label>(5)</label>
<graphic xlink:href="344270031006_ee6.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>
<bold>b) Articulación en habla continua: </bold>contrario al análisis en vocales sostenidas, para el habla continua se calcularon las primeras 22 bandas de energía de Bark (BBE, por sus siglas en inglés) descritas en [<xref ref-type="bibr" rid="redalyc_344270031006_ref38">38</xref>], una escala basada en las transiciones sonoro-insonoro e insonoro-sonoro –<italic>offset</italic> y <italic>onset</italic>, respectivamente– [<xref ref-type="bibr" rid="redalyc_344270031006_ref39">39</xref>]. Se plantea el análisis de estas transiciones debido a la producción de sonidos anormales o a la dificultad para iniciar/detener la vibración de las cuerdas vocales que presentan algunos pacientes con otras enfermedades neurológicas de base, como en el caso del párkinson [<xref ref-type="bibr" rid="redalyc_344270031006_ref19">19</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref40">40</xref>].</p>
<p>Las BBE se diferencian de los MFCC en la escala y en las frecuencias utilizadas: mientras que los MFCC emplean la frecuencia de Mel y su comportamiento es netamente logarítmico, las BBE emplean la frecuencia de Bark y su comportamiento es logarítmico en sus primeras bandas y posteriormente lineal, de acuerdo con la ecuación (<xref ref-type="disp-formula" rid="e6">6</xref>):</p>
<p>
<disp-formula id="e6">
<label>(6)</label>
<graphic xlink:href="344270031006_ee7.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>Finalmente, se determinó el contorno del operador de energía de Teager-Kaiser (TKEO, por sus siglas en inglés), tanto para las vocales sostenidas, como para el habla continua. El TKEO es muy sensible a los cambios en la energía de la señal y resulta muy útil al momento de determinar los instantes de activación en una señal [<xref ref-type="bibr" rid="redalyc_344270031006_ref41">41</xref>], [<xref ref-type="bibr" rid="redalyc_344270031006_ref42">42</xref>]. La ecuación (<xref ref-type="disp-formula" rid="e7">7</xref>) se emplea para calcular este descriptor.</p>
<p>
<disp-formula id="e7">
<label>(7)</label>
<graphic xlink:href="344270031006_ee9.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>donde <italic>s(n)</italic> es el valor de la amplitud de la señal en el <italic>n-</italic>ésimo punto de la señal.</p>
<p>
<bold>Prosodia:</bold> hace referencia a la entonación y sincronización en la producción del habla natural [<xref ref-type="bibr" rid="redalyc_344270031006_ref43">43</xref>]. Los descriptores que se decidieron extraer para esta dimensión son la media, desviación estándar y el máximo de <italic>F<sub>0</sub>
</italic> y la intensidad de la señal. También se compararon segmentos sonoros e insonoros, en donde se evaluó la tasa sonora y la tasa de silencios, (<xref ref-type="disp-formula" rid="e8">8</xref>) y (<xref ref-type="disp-formula" rid="e9">9</xref>) respectivamente, así como la media y la desviación estándar de la duración de los segmentos sonoros e insonoros.</p>
<p>
<disp-formula id="e8">
<label>(8)</label>
<graphic xlink:href="344270031006_ee10.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>
<disp-formula id="e9">
<label>(9)</label>
<graphic xlink:href="344270031006_ee11.png" position="anchor" orientation="portrait"/>
</disp-formula>
</p>
<p>
<bold>Diadococinesia - DDK:</bold> se emplea para estudiar movimientos repetitivos de los órganos articuladores involucrados en el habla [<xref ref-type="bibr" rid="redalyc_344270031006_ref40">40</xref>]. Los descriptores que se calcularon son similares a los de la dimensión de la prosodia, excepto que en lugar de determinar las tasas sonoras se determinaron las tasas DDK.</p>
</sec>
<sec>
<title>
<bold>2.5   Pruebas estadísticas</bold>
</title>
<p>Se aplicó la prueba estadística no paramétrica Mann-Whitney U con un nivel de significancia del 5 % <italic>(α = 0,05)</italic> sobre los grupos de comparación establecidos en tres escenarios propuestos (Ver <xref ref-type="fig" rid="gf3">Figura 3</xref>).</p>
<p>
<fig id="gf3">
<label>Figura 3 .</label>
<caption>
<title>Esquema de los escenarios propuestos</title>
</caption>
<alt-text>Figura 3 . Esquema de los escenarios propuestos</alt-text>
<graphic xlink:href="344270031006_gf4.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
<p>
<bold>Escenario 1:</bold> comparación entre pacientes con una determinada condición clínica vs. los demás pacientes con cualquier otra condición, ej., pacientes con voz húmeda vs. los demás pacientes (voz disfónica y condición de voz no determinada). Lo anterior se ilustra en la <xref ref-type="fig" rid="gf3">Figura 3a</xref>).</p>
<p>
<bold>Escenario 2:</bold> comparación entre pacientes con alguna de las condiciones clínicas conocidas (VH o VDf) vs. los pacientes con condición no determinada. El proceso se ilustra en la <xref ref-type="fig" rid="gf3">Figura 3b</xref>).</p>
<p>
<bold>Escenario 3:</bold> comparación entre pacientes de alguna de las condiciones clínicas conocidas vs. los sujetos control. La <xref ref-type="fig" rid="gf3">Figura 3c</xref>) ilustra el esquema de este escenario.</p>
</sec>
</sec>
<sec>
<title>
<bold>3.     RESULTADOS Y DISCUSIÓN</bold>
</title>
<p>Con el fin de hacer más sencilla la lectura e interpretación de los resultados, en la <xref ref-type="table" rid="gt10">Tabla 2</xref> se observa un listado de sufijos empleados en el reporte de características y su respectivo significado.</p>
<p>
<table-wrap id="gt10">
<label>Tabla 2</label>
<caption>
<title>Sufijos empleados en las características </title>
</caption>
<alt-text>Tabla 2 Sufijos empleados en las características </alt-text>
<alternatives>
<graphic xlink:href="344270031006_gt3.png" position="anchor" orientation="portrait"/>
<table style="width:292.5pt;border-collapse:collapse;border:none;      " id="gt3-526564616c7963">
<tbody>
<tr style="   height:17.0pt">
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Sufijo</td>
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Significado</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Media</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_sd</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Desviación Estándar</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_sk</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Asimetría</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_kt</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Curtosis</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_on</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Onset</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_off</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Offset</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_máx</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Máximo</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Fuente: elaboración propia.</attrib>
</table-wrap>
</p>
<sec>
<title>
<bold>3.1   Fonación en vocales sostenidas</bold>
</title>
<p>Para el reporte de las características en la dimensión de la fonación se seleccionaron aquellas con diferencias estadísticamente significativas (DES) en dos o más vocales en cualquiera de los escenarios y con <italic>p-valor &lt; α</italic>.</p>
<p>En la <xref ref-type="table" rid="gt11">Tabla 3</xref> se muestran las características con el criterio de reporte establecido, en donde cada uno de los grupos evaluados presentaron características estadísticamente diferentes entre sí, es decir, el grupo VDf reporta DES en la media de ∆<italic>F<sub>0</sub>
</italic> y el Shimmer y la asimetría de la ∆<italic>F<sub>0</sub>
</italic>, mientras que el grupo VH las exhibe en la media del Jitter y en la asimetría y curtosis de la energía.</p>
<p>
<table-wrap id="gt11">
<label>Tabla 3</label>
<caption>
<title>Características de la fonación con DES en los escenarios evaluados </title>
</caption>
<alt-text>Tabla 3 Características de la fonación con DES en los escenarios evaluados </alt-text>
<alternatives>
<graphic xlink:href="344270031006_gt4.png" position="anchor" orientation="portrait"/>
<table style="width:411.8pt;border-collapse:collapse;border:none;      " id="gt4-526564616c7963">
<tbody>
<tr style="   height:17.0pt">
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Grupo</td>
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Característica</td>
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Esc. 1</td>
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Esc. 2</td>
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Esc. 3</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" rowspan="3">VDf</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \u\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \u\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \u\</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_sk</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \u\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \u\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Shimmer_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\e\, \o\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\e\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \e\, \i\,  \o\, \u\</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" rowspan="3">VH</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Jitter_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \o\, \u\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \u\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Energía_sk</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \e\, \i\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \e\, \i\</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Energía_kt</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \e\, \o\</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\a\, \e\</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">\i\</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Fuente: elaboración propia.</attrib>
</table-wrap>
</p>
<p>La <xref ref-type="fig" rid="gf4">Figura 4</xref> ilustra la distribución de la media de ∆<italic>F<sub>0 </sub>
</italic>de la vocal \a\ del grupo VDf a lo largo de los tres escenarios, en el que se puede apreciar que la mediana de este grupo se encuentra por debajo de la de los datos de los otros grupos de comparación, y que la distribución del grupo VDf en el escenario 2 se encuentra por debajo de la mediana del grupo ND, además de presentar un p-valor inferior al de los otros dos escenarios, lo que sugiere un posible biomarcador. Se plantea que la variación de <italic>F<sub>0</sub>
</italic> en el grupo VDf es menor debido a que la disfonía se relaciona con una disminución en el control de la vibración de las cuerdas vocales [<xref ref-type="bibr" rid="redalyc_344270031006_ref12">12</xref>].</p>
<p>
<fig id="gf4">
<label>Figura 4 .</label>
<caption>
<title>Distribución de <italic>∆F<sub>0</sub>_m</italic> para la vocal \a\ del grupo de pacientes con VDf en los escenarios evaluados</title>
</caption>
<alt-text>Figura 4 . Distribución de ∆F0_m para la vocal \a\ del grupo de pacientes con VDf en los escenarios evaluados</alt-text>
<graphic xlink:href="344270031006_gf5.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
<p>En contraste con lo hallado en [<xref ref-type="bibr" rid="redalyc_344270031006_ref15">15</xref>], se determinó que hay características acústicas o fonatorias con potencial capacidad de diferenciar entre pacientes y controles, hallazgo similar a lo reportado en [<xref ref-type="bibr" rid="redalyc_344270031006_ref44">44</xref>], además de una posible diferenciación entre pacientes con distintos trastornos de voz. En un análisis preliminar también se emplearon las características que se usaron en este estudio de fonación y en el que presentaron que las combinaciones entre estas características muestran gran potencial en su uso como factores de diferenciación en pacientes con disfagia [<xref ref-type="bibr" rid="redalyc_344270031006_ref45">45</xref>].</p>
</sec>
<sec>
<title>
<bold>3.2   Articulación en vocales sostenidas</bold>
</title>
<p>En vista del volumen de información a raíz del espacio de características (176 por vocal), se aplicó como criterio de reporte mostrar aquellas características con DES en al menos dos de las vocales de las esquinas del triángulo vocal.</p>
<p>Siguiendo este criterio de inclusión, no se encontraron características del grupo VDf en los escenarios 1 y 2, lo que sugiere que esta dimensión no suministra información para diferenciar entre pacientes con VDf y pacientes con otras condiciones. Sin embargo, se encontraron múltiples características en el escenario 3, como la media y la desviación estándar de los formantes y sus respectivas derivadas, la desviación estándar del TKEO, la media del segundo al séptimo MFCC, entre otros. Esto indica que esta dimensión, más que diferenciar entre condiciones específicas de voz en pacientes, tiene capacidad de discriminación entre pacientes con disfagia y personas sanas.</p>
<p>Para el caso del grupo VH, se encontró que solamente la desviación estándar de Δ<sup>2</sup>MFCC1 cumplió con el criterio de reporte y está presente en todas las vocales de las esquinas del triángulo vocal en los escenarios 1 y 2, mientras que sólo está presente en la vocal \a\ en el escenario 3. Esta característica tiene una DES en todas las vocales de los escenarios 1 y 2 con excepción de la vocal \o\.No se aceptan tablas incrustadas como imagen.</p>
<p>En la <xref ref-type="fig" rid="gf5">Figura 5</xref> se ilustra la distribución de esta característica en la vocal \a\ en los tres escenarios de este grupo, en donde se observa que el comportamiento de las distribuciones es muy similar puesto que las de los datos del grupo VH se encuentran por debajo de la mediana de la distribución de los grupos de comparación en todos los escenarios.</p>
<p>
<fig id="gf5">
<label>Figura 5 .</label>
<caption>
<title>Distribución de ∆<sup>2</sup>MFCC1_sd de la vocal \a\ en el grupo VH en escenarios evaluados</title>
</caption>
<alt-text>Figura 5 .  Distribución de ∆2MFCC1_sd de la vocal \a\ en el grupo VH en escenarios evaluados</alt-text>
<graphic xlink:href="344270031006_gf6.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
<p>Si bien cada una de las vocales también revelaron múltiples características en el grupo VH, muchas de ellas están presente en una o dos vocales a lo largo de los tres escenarios propuestos, por lo que no cumplieron los criterios de reporte establecidos.</p>
</sec>
<sec>
<title>
<bold>3.3   Articulación en habla continua</bold>
</title>
<p>La <xref ref-type="table" rid="gt12">Tabla 4</xref> muestra las características relacionadas al habla continua con una DES. Como criterio de reporte se estableció que la característica presentara DES significativa en al menos dos escenarios, en cualquier tarea de voz, sea monólogo o lectura.</p>
<p>
<table-wrap id="gt12">
<label>Tabla 4</label>
<caption>
<title>Características de la articulación del habla continua con DES en los escenarios evaluados</title>
</caption>
<alt-text>Tabla 4 Características de la articulación del habla continua con DES en los escenarios evaluados</alt-text>
<alternatives>
<graphic xlink:href="344270031006_gt5.png" position="anchor" orientation="portrait"/>
<table style="width:317.95pt;border-collapse:  collapse;border:none;" id="gt5-526564616c7963">
<tbody>
<tr style="   height:17.0pt">
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Grupo</td>
<td style="width:84.55pt;border-top:solid black 1.0pt;border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Característica</td>
<td style="width:45.55pt;border-top:solid black 1.0pt;border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Esc. 1</td>
<td style="width:42.55pt;border-top:solid black 1.0pt;border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Esc. 2</td>
<td style="border-top:solid black 1.0pt;   border-left:none;border-bottom:solid black 1.0pt;border-right:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Esc. 3</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" rowspan="4">VDf</td>
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE1_on_m</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
</tr>
<tr style="height:17.0pt">
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE1_off_m</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
</tr>
<tr style="height:17.0pt">
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE14_off_m</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">L</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
</tr>
<tr style="height:17.0pt">
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE2_on_sd</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">L</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" rowspan="5">VH</td>
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE5_on_sd</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
</tr>
<tr style="height:17.0pt">
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE1_off_m</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
</tr>
<tr style="height:17.0pt">
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE5_off_m</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
</tr>
<tr style="height:17.0pt">
<td style="width:84.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">BBE12_off_sd</td>
<td style="width:45.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M</td>
<td style="width:42.55pt;border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M</td>
</tr>
<tr style="height:17.0pt">
<td style="width:84.55pt;border:none;border-bottom:solid black 1.0pt;      padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">BBE13_off_sd</td>
<td style="width:45.55pt;border:none;border-bottom:solid black 1.0pt;      padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M</td>
<td style="width:42.55pt;border:none;border-bottom:solid black 1.0pt;      padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Fuente: elaboración propia.</attrib>
<table-wrap-foot>
<fn-group>
<fn id="fn12" fn-type="other">
<label>Nota:</label>
<p>M: Monólogo; L: Lectura.</p>
</fn>
</fn-group>
</table-wrap-foot>
</table-wrap>
</p>
<p>Se puede apreciar que los grupos VDf y VH solo tienen como característica común la media de la energía de la primera banda de Bark en <italic>offset</italic> (BBE1_off_m). Mientras que en VDf se presenta en las dos tareas en todos los escenarios, el grupo VH solo reportó diferencia en la lectura del escenario 2 y en ambas tareas del escenario 3. Adicionalmente, el monólogo muestra ser la tarea más robusta y consistente, lo cual puede dar lugar a evaluaciones no intrusivas.</p>
<p>La <xref ref-type="fig" rid="gf6">Figura 6</xref> y la <xref ref-type="fig" rid="gf7">Figura 7</xref> ilustran el comportamiento estadístico, esta característica en común en la lectura de texto realizada por los grupos VDf y VH, respectivamente. Se observa que para ambos grupos la mediana de la distribución se encuentra por encima de sus respectivos grupos de comparación, especialmente en el escenario 3, donde la distribución de los grupos VDf y VH se encuentran sobre la mediana de sus grupos de control. Para el caso del grupo VH en el escenario 1, si bien la mediana se encuentra por encima de la del grupo de comparación, la diferencia presentada no es estadísticamente significativa. Estos resultados son similares a las comparaciones en pacientes con EP en [<xref ref-type="bibr" rid="redalyc_344270031006_ref46">46</xref>], indicando una posible extensión de dichos hallazgos en pacientes con disfagia caracterizados por VH y VDf.</p>
<p>
<fig id="gf6">
<label>Figura 6 .</label>
<caption>
<title>Distribución de BBE1_off_m de la lectura del grupo VDf en los escenarios evaluados</title>
</caption>
<alt-text>Figura 6 .  Distribución de BBE1_off_m de la lectura del grupo VDf en los escenarios evaluados</alt-text>
<graphic xlink:href="344270031006_gf7.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
<p>
<fig id="gf7">
<label>Figura 7 .</label>
<caption>
<title>Distribución de BBE1_off_m de la lectura del grupo VH en los escenarios evaluados</title>
</caption>
<alt-text>Figura 7 .  Distribución de BBE1_off_m de la lectura del grupo VH en los escenarios evaluados</alt-text>
<graphic xlink:href="344270031006_gf8.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
</sec>
<sec>
<title>
<bold>3.4   Prosodia</bold>
</title>
<p>Igual que en experimentos anteriores, solo se incluyeron características de prosodia con DES en por lo menos dos de los escenarios evaluados en alguna de las tareas de voz.</p>
<p>La <xref ref-type="table" rid="gt13">Tabla 5</xref> muestra las características que cumplieron con el criterio de reporte, en el que se puede apreciar que las tres características de la energía presentan DES en alguna de las tareas o escenarios evaluados. La característica con menor incidencia de las tres es la desviación estándar de la energía, pues solo se presenta en el escenario 3 del grupo VH, en ambas tareas. También se puede apreciar que se presenta DES en la energía media del grupo VDf, en ambas tareas en todos los escenarios.</p>
<p>
<table-wrap id="gt13">
<label>Tabla 5</label>
<caption>
<title>Características de la prosodia con DES en los escenarios evaluados </title>
</caption>
<alt-text>Tabla 5 Características de la prosodia con DES en los escenarios evaluados </alt-text>
<alternatives>
<graphic xlink:href="344270031006_gt6.png" position="anchor" orientation="portrait"/>
<table style="width:363.6pt;border-collapse:collapse;border:none;      " id="gt6-526564616c7963">
<tbody>
<tr style="height:17.0pt">
<td style="border-top:solid black 1.0pt;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:   none;   padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt" rowspan="2">Característica</td>
<td style="border:none;border-top:solid black 1.0pt;   padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" colspan="2">Esc. 1</td>
<td style="border:none;border-top:solid black 1.0pt;   padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" colspan="2">Esc. 2</td>
<td style="border:none;border-top:solid black 1.0pt;   padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" colspan="2">Esc. 3</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VDf</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VH</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VDf</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VH</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VDf</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VH</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">Energía_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">M, L</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Energía_sd</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Energía_máx</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">L</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">L</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">M, L</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Fuente: elaboración propia.</attrib>
<table-wrap-foot>
<fn-group>
<fn id="fn13" fn-type="other">
<label>Nota:</label>
<p>M: Monólogo; L: Lectura.</p>
</fn>
</fn-group>
</table-wrap-foot>
</table-wrap>
</p>
<p>La distribución de la energía media de la lectura del grupo VDf se ilustra en la <xref ref-type="fig" rid="gf8">Figura 8</xref>, donde se ve que la mediana de la distribución de este grupo se encuentra por encima de la mediana de los otros grupos de comparación en todos los escenarios, en especial en el escenario 3, donde la mediana del grupo VDf se encuentra por encima de la distribución del grupo de controles y tiene una fuerte DES. Esto puede estar relacionado con el hecho de que los pacientes con VDf deben de hacer un esfuerzo mayor que los demás individuos para realizar la lectura debido a los cambios de entonaciones y fonemas que esta tarea presenta.</p>
<p>
<fig id="gf8">
<label>Figura 8 .</label>
<caption>
<title>Distribución Energía_m de la lectura del grupo VDf en los escenarios evaluados</title>
</caption>
<alt-text>Figura 8 .  Distribución Energía_m de la lectura del grupo VDf en los escenarios evaluados</alt-text>
<graphic xlink:href="344270031006_gf9.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
</sec>
<sec>
<title>
<bold>3.5   DDK</bold>
</title>
<p>En el caso del análisis DDK, el criterio de reporte se estableció en las características con DES en al menos tres de las tareas DDK en cualquiera de los grupos o escenarios evaluados.</p>
<p>En la <xref ref-type="table" rid="gt14">Tabla 6 </xref>se muestran las características que cumplieron con el criterio de selección establecido. Muy similar al análisis de la prosodia, se observa que las tres características de la energía están nuevamente presentes en este análisis, siendo la desviación estándar de la energía la que menos veces presenta DES para alguna de las tareas. También se observó una DES en la media y desviación estándar DDK de las tareas \pe-ta-ka\ y \pa\, pero solamente en los escenarios 1 y 3. Adicionalmente, la energía máxima es la característica que más relevancia presenta en este análisis, teniendo una DES en por lo menos una tarea de los dos grupos en todos los escenarios, exceptuando el escenario 3 del grupo VH.</p>
<p>
<table-wrap id="gt14">
<label>Tabla 6</label>
<caption>
<title>Características DDK con DES en los escenarios evaluados </title>
</caption>
<alt-text>Tabla 6 Características DDK con DES en los escenarios evaluados </alt-text>
<alternatives>
<graphic xlink:href="344270031006_gt7.png" position="anchor" orientation="portrait"/>
<table style="width:419.55pt;border-collapse:collapse;border:none;      " id="gt7-526564616c7963">
<tbody>
<tr style="height:17.0pt">
<td style="border-top:solid black 1.0pt;border-left:none;border-bottom:solid windowtext 1.0pt;border-right:   none;   padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt" rowspan="2">Característica</td>
<td style="border:none;border-top:solid black 1.0pt;   padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" colspan="2">Esc. 1</td>
<td style="border:none;border-top:solid black 1.0pt;   padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" colspan="2">Esc. 2</td>
<td style="border:none;border-top:solid black 1.0pt;   padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt" colspan="2">Esc. 3</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VDf</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VH</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VDf</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VH</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VDf</td>
<td style="border:none;border-bottom:solid windowtext 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">VH</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">1 – 3</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;   height:17.0pt">-</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">_máx</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1 – 3</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Energía_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">2, 3</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1 – 6</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1 – 6</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Energía_sd</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1 – 4</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">Energía_máx</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">2 – 4</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1 – 3, 5</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">3, 4</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1, 5</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1, 3 – 6</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">DDK_m</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">4</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">4</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1 – 3</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">3, 4</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">DDK_sd</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">4</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">4</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">1 – 3</td>
<td style="border:none;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">4</td>
</tr>
<tr style="height:17.0pt">
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">S_sd</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">4 – 6</td>
<td style="border:none;border-bottom:solid black 1.0pt;padding:0cm 5.4pt 0cm 5.4pt;height:17.0pt">-</td>
</tr>
</tbody>
</table>
</alternatives>
<attrib>Fuente: elaboración propia.</attrib>
<table-wrap-foot>
<fn-group>
<fn id="fn14" fn-type="other">
<label>Nota:</label>
<p>pa-ta-ka: 1; pa-ka-ta: 2; pe-ta-ka: 3; pa: 4; ka: 5; ta: 6.</p>
</fn>
</fn-group>
</table-wrap-foot>
</table-wrap>
</p>
<p>La <xref ref-type="fig" rid="gf9">Figura 9</xref> ilustra la distribución de la energía máxima de la tarea \pa\ del grupo VDf en los escenarios evaluados, en la que se observa que la mediana de la distribución de los datos para este grupo es inferior a la mediana de las de los grupos de comparación, en especial en el escenario 3 donde la distribución del grupo VDf se encuentra cercanamente por debajo de la mediana de la distribución del grupo de control, además de presentar una fuerte DES.</p>
<p>
<fig id="gf9">
<label>Figura 9 .</label>
<caption>
<title>Distribución de Energía_máx de la tarea DDK \pa\ del grupo VDf en los escenarios propuestos</title>
</caption>
<alt-text>Figura 9 . Distribución de Energía_máx de la tarea DDK \pa\ del grupo VDf en los escenarios propuestos</alt-text>
<graphic xlink:href="344270031006_gf10.png" position="anchor" orientation="portrait"/>
<attrib>Fuente: elaboración propia.</attrib>
</fig>
</p>
<p>Se observa que los pacientes tienen una energía menor a la de los grupos de comparación, en especial a la del grupo de control. Esto se relaciona con el hecho de que en los pacientes con VDf se observó que la intensidad de la señal se reduce rápidamente en las tareas DDK.</p>
</sec>
</sec>
<sec>
<title>
<bold>4.     CONCLUSIONES</bold>
</title>
<p>Se encontraron múltiples características asociadas a las dimensiones del habla con potencial uso, como biomarcadores para la discriminación de diferentes alteraciones de la voz y del habla en pacientes con disfagia. Adicionalmente, se encontró que las características asociadas a la fonación, la prosodia y al análisis DDK son las que mejor permiten diferenciar entre los grupos estudiados, lo que sugiere que un análisis multidimensional logra detectar las variaciones de las cualidades acústicas del habla bajo condiciones de disfagia. Lo anterior es promisorio para realizar abordajes no invasivos y objetivos que mejoren y complementen los métodos disponibles de evaluación de trastornos deglutorios.</p>
</sec>
<sec>
<title>
<bold>5.     TRABAJOS FUTUROS</bold>
</title>
<p>Se plantea ampliar la base de datos construida para reducir sesgos por la diferencia en el número de muestras de los diferentes grupos de comparación establecidos. También se deberá caracterizar el comportamiento bajo condiciones de disartria, condición que se asocia a varias patologías de base que desencadenan disfagia. Adicionalmente, se plantea realizar una evaluación más robusta en la capacidad discriminatoria de las características con DES, modelos basados en reconocimiento de patrones. Finalmente, se podrán establecer escenarios de comparación pre y posdeglutoria, y el seguimiento de las alteraciones de las cualidades para fines de complementación diagnóstica.</p>
</sec>
</body>
<back>
<ack>
<title>Agradecimientos</title>
<p>Este trabajo ha sido financiado parcialmente en el marco de la convocatoria “Jóvenes Investigadores e Innovadores ITM 2020”, así como por Minciencias - República de Colombia, proyecto No. 825-2017. Los autores agradecen, además, a OFA IPS por su aporte material e intelectual en el desarrollo de este trabajo.</p>
</ack>
<ref-list>
<title>REFERENCIAS</title>
<ref id="redalyc_344270031006_ref1">
<mixed-citation>[1] L. Sura; A. Madhavan; G. Carnaby; M. Crary, “Dysphagia in the elderly: management and nutritional considerations”, <italic>Clin. Interv. Aging</italic>, vol. 2012, no. 7, pp. 287-298, Jul. 2012. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.2147/CIA.S23404">https://doi.org/10.2147/CIA.S23404</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Sura</surname>
<given-names>L.</given-names>
</name>
<name>
<surname>Madhavan</surname>
<given-names>A.</given-names>
</name>
<name>
<surname>Carnaby</surname>
<given-names>G.</given-names>
</name>
<name>
<surname>Crary</surname>
<given-names>M.</given-names>
</name>
</person-group>
<article-title>Dysphagia in the elderly: management and nutritional considerations</article-title>
<source>Clin. Interv. Aging</source>
<year>2012</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref2">
<mixed-citation>[2] D. C. Wolf, “Dysphagia”, en Clinical Methods: The History, Physical, and Laboratory Examinations, 3a ed., Eds. Boston: Butterworths, 1990. <ext-link ext-link-type="uri" xlink:href="https://www.ncbi.nlm.nih.gov/books/NBK408/">https://www.ncbi.nlm.nih.gov/books/NBK408/</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Wolf</surname>
<given-names>D. C.</given-names>
</name>
</person-group>
<source>Clinical Methods: The History, Physical, and Laboratory Examinations</source>
<year>1990</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref3">
<mixed-citation>[3] A. Farri; A. Accornero; C. Burdese, “Social importance of dysphagia: its impact on diagnosis and therapy”, <italic>Acta Otorhinolaryngol Ital</italic>, vol. 27, no. 2, pp. 83–6, Abr. 2007. <ext-link ext-link-type="uri" xlink:href="http://www.ncbi.nlm.nih.gov/pubmed/17608136">http://www.ncbi.nlm.nih.gov/pubmed/17608136</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Farri</surname>
<given-names>A.</given-names>
</name>
<name>
<surname>Accornero</surname>
<given-names>A.</given-names>
</name>
<name>
<surname>Burdese</surname>
<given-names>C.</given-names>
</name>
</person-group>
<article-title>Social importance of dysphagia: its impact on diagnosis and therapy</article-title>
<source>Acta Otorhinolaryngol Ital</source>
<year>2007</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref4">
<mixed-citation>[4] O. Ortega; A. Martín; P. Clavé, “Diagnosis and Management of Oropharyngeal Dysphagia Among Older Persons, State of the Art”, <italic>J. Am. Med. Dir. Assoc.</italic>, vol. 18, no. 7, pp. 576–582, Jul. 2017. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.jamda.2017.02.015">https://doi.org/10.1016/j.jamda.2017.02.015</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Ortega</surname>
<given-names>O.</given-names>
</name>
<name>
<surname>Martín</surname>
<given-names>A.</given-names>
</name>
<name>
<surname>Clavé</surname>
<given-names>P.</given-names>
</name>
</person-group>
<article-title>Diagnosis and Management of Oropharyngeal Dysphagia Among Older Persons, State of the Art</article-title>
<source>J. Am. Med. Dir. Assoc.</source>
<year>2017</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref5">
<mixed-citation>[5] Ministerio de Salud y Protección Social Oficina de Promoción Social, “Sala situacional de la Población Adulta Mayor”, Minist. Salud y Protección Soc., pp. 1-8, 2018. <ext-link ext-link-type="uri" xlink:href="https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/sala-situacion-envejecimiento-2018.pdf">https://www.minsalud.gov.co/sites/rid/Lists/BibliotecaDigital/RIDE/DE/PS/sala-situacion-envejecimiento-2018.pdf</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<collab>Ministerio de Salud y Protección Social Oficina de Promoción Social</collab>
</person-group>
<source>Sala situacional de la Población Adulta Mayor</source>
<year>2018</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref6">
<mixed-citation>[6] S. E. Langmore, “Evaluation of oropharyngeal dysphagia: which diagnostic tool is superior?”, <italic>Curr. Opin. Otolaryngol. Head Neck Surg</italic>., vol. 11, no.6, pp. 485–489, Dic. 2003. <ext-link ext-link-type="uri" xlink:href="http://journals.lww.com/00020840-200312000-00014">http://journals.lww.com/00020840-200312000-00014</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Langmore</surname>
<given-names>S. E.</given-names>
</name>
</person-group>
<article-title>Evaluation of oropharyngeal dysphagia: which diagnostic tool is superior?</article-title>
<source>Curr. Opin. Otolaryngol. Head Neck Surg</source>
<year>2003</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref7">
<mixed-citation>[7] T. Warnecke et al., “The Safety of Fiberoptic Endoscopic Evaluation of Swallowing in Acute Stroke Patients”, <italic>Stroke</italic>, vol. 40, no. 2, pp. 482–486, Feb. 2009. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1161/STROKEAHA.108.520775">https://doi.org/10.1161/STROKEAHA.108.520775</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Warnecke</surname>
<given-names>T.</given-names>
</name>
</person-group>
<article-title>The Safety of Fiberoptic Endoscopic Evaluation of Swallowing in Acute Stroke Patients</article-title>
<source>Stroke</source>
<year>2009</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref8">
<mixed-citation>[8] S. Restrepo-Agudelo; S. Roldan-Vasco; L. Ramirez-Arbelaez; S. Cadavid-Arboleda; E. Perez-Giraldo; A. Orozco-Duque, “Improving surface EMG burst detection in infrahyoid muscles during swallowing using digital filters and discrete wavelet analysis”,<italic> J. Electromyogr. Kinesiol.</italic>, vol. 35, pp. 1–8, Aug. 2017. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.jelekin.2017.05.001">https://doi.org/10.1016/j.jelekin.2017.05.001</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Restrepo-Agudelo</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Roldan-Vasco</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Ramirez-Arbelaez</surname>
<given-names>L.</given-names>
</name>
<name>
<surname>Cadavid-Arboleda</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Perez-Giraldo</surname>
<given-names>E.</given-names>
</name>
<name>
<surname>Orozco-Duque</surname>
<given-names>A.</given-names>
</name>
</person-group>
<article-title>Improving surface EMG burst detection in infrahyoid muscles during swallowing using digital filters and discrete wavelet analysis</article-title>
<source>J. Electromyogr. Kinesiol.</source>
<year>2017</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref9">
<mixed-citation>[9] C. M. Steele et al., “Development of a Non-invasive Device for Swallow Screening in Patients at Risk of Oropharyngeal Dysphagia: Results from a Prospective Exploratory Study”, <italic>Dysphagia</italic>, vol. 34, no. 5, pp. 698–707, Oct. 2019. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s00455-018-09974-5">https://doi.org/10.1007/s00455-018-09974-5</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Steele</surname>
<given-names>C. M.</given-names>
</name>
</person-group>
<article-title>Development of a Non-invasive Device for Swallow Screening in Patients at Risk of Oropharyngeal Dysphagia: Results from a Prospective Exploratory Study</article-title>
<source>Dysphagia</source>
<year>2019</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref10">
<mixed-citation>[10] D. H. McFarland; P. Tremblay, “Clinical implications of cross-system interactions”, <italic>Semin. Speech Lang</italic>., vol. 27, no. 4, pp. 300–310, 2006. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1055/s-2006-955119">https://doi.org/10.1055/s-2006-955119</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>McFarland</surname>
<given-names>D. H.</given-names>
</name>
<name>
<surname>Tremblay,</surname>
<given-names>P.</given-names>
</name>
</person-group>
<article-title>Clinical implications of cross-system interactions</article-title>
<source>Semin. Speech Lang</source>
<year>2006</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref11">
<mixed-citation>[11] D. Farneti, “Voice and Dysphagia”, en Dysphagia: Diagnosis and Treatment, O. Ekberg, Ed. Cham: Springer International Publishing, 2017, pp. 257–274. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/174_2017_110">https://doi.org/10.1007/174_2017_110</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Farneti,</surname>
<given-names>D.</given-names>
</name>
</person-group>
<source>Dysphagia: Diagnosis and Treatment,</source>
<year>2017</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref12">
<mixed-citation>[12] A. E. Aronson, Clinical voice disorders. Thieme Inc., 1990.</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Aronson</surname>
<given-names>A. E.</given-names>
</name>
</person-group>
<source>Clinical voice disorders</source>
<year>1990</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref13">
<mixed-citation>[13] T. Warms; J. Richards, “``Wet Voice’’ as a Predictor of Penetration and Aspiration in Oropharyngeal Dysphagia”, <italic>Dysphagia</italic>, vol. 15, no. 2, pp. 84–88, Mar. 2000. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/s004550010005">https://doi.org/10.1007/s004550010005</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Warms</surname>
<given-names>T.</given-names>
</name>
<name>
<surname>Richards</surname>
<given-names>J.</given-names>
</name>
</person-group>
<article-title>Wet Voice’’ as a Predictor of Penetration and Aspiration in Oropharyngeal Dysphagia</article-title>
<source>Dysphagia,</source>
<year>2000</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref14">
<mixed-citation>[14] S. Murugappan; S. Boyce; S. Khosla; L. Kelchner; E. Gutmark, “Acoustic characteristics of phonation in ‘wet voice’ conditions”, <italic>J. Acoust. Soc. Am.</italic>, vol. 127, no. 4, pp. 2578–2589, Abr. 2010. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1121/1.3308478">https://doi.org/10.1121/1.3308478</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Murugappan</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Boyce</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Khosla</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Kelchner</surname>
<given-names>L.</given-names>
</name>
<name>
<surname>Gutmark</surname>
<given-names>E.</given-names>
</name>
</person-group>
<article-title>Acoustic characteristics of phonation in ‘wet voice’ conditions</article-title>
<source>J. Acoust. Soc. Am.</source>
<year>2010</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref15">
<mixed-citation>[15] M. E. Dajer; P. R. Scalassara; J. L. Marrara; J. C. Pereira, “Voice analysis of patients with neurological disorders using acoustical and nonlinear tools”,<italic> IEEE Int. Work. Mach. Learn. Signal Process. MLSP</italic>, 2012. <ext-link ext-link-type="uri" xlink:href="http://dx.doi.org/10.1109/mlsp.2012.6349803">http://dx.doi.org/10.1109/mlsp.2012.6349803</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Dajer</surname>
<given-names>M. E.</given-names>
</name>
<name>
<surname>Scalassara</surname>
<given-names>P. R.</given-names>
</name>
<name>
<surname>Marrara</surname>
<given-names>J. L.</given-names>
</name>
<name>
<surname>Pereira</surname>
<given-names>J. C.</given-names>
</name>
</person-group>
<article-title>Voice analysis of patients with neurological disorders using acoustical and nonlinear tools</article-title>
<source>EEE Int. Work. Mach. Learn. Signal Process. MLSP</source>
<year>2012</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref16">
<mixed-citation>[16] K. López-De-Ipiña et al., “Advances in a multimodal approach for dysphagia analysis based on automatic voice analysis”, en Smart Innovation, Systems and Technologies, 2016, vol. 54, pp. 201–211. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/978-3-319-33747-0_20">https://doi.org/10.1007/978-3-319-33747-0_20</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>López-De-Ipiña</surname>
<given-names>K.</given-names>
</name>
</person-group>
<source>Smart Innovation, Systems and Technologies</source>
<year>2016</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref17">
<mixed-citation>[17] J. S. Ryu; S. R. Park; K. H. Choi, “Prediction of laryngeal aspiration using voice analysis”, <italic>Am. J. Phys. Med. Rehabil.</italic>, vol. 83, no. 10, pp. 753–757, Oct. 2004. <ext-link ext-link-type="uri" xlink:href="http://dx.doi.org/10.1097/01.PHM.0000140798.97706.A5">http://dx.doi.org/10.1097/01.PHM.0000140798.97706.A5</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Ryu</surname>
<given-names>J. S.</given-names>
</name>
<name>
<surname>Park</surname>
<given-names>S. R.</given-names>
</name>
<name>
<surname>Choi</surname>
<given-names>K. H.</given-names>
</name>
</person-group>
<article-title>Prediction of laryngeal aspiration using voice analysis</article-title>
<source>Am. J. Phys. Med. Rehabil.</source>
<year>2004</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref18">
<mixed-citation>[18] K. W. Dos Santos; B. Scheeren; A. C. Maciel; M. Cassol, “Vocal variability post swallowing in individuals with and without oropharyngeal dysphagia”, <italic>Int. Arch. Otorhinolaryngol</italic>., vol. 19, no. 1, pp. 61–66, 2015. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1055/s-0034-1394129">https://doi.org/10.1055/s-0034-1394129</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Dos Santos</surname>
<given-names>K. W.</given-names>
</name>
<name>
<surname>Scheeren</surname>
<given-names>B.</given-names>
</name>
<name>
<surname>Maciel</surname>
<given-names>A. C.</given-names>
</name>
<name>
<surname>Cassol</surname>
<given-names>M.</given-names>
</name>
</person-group>
<article-title>Vocal variability post swallowing in individuals with and without oropharyngeal dysphagia</article-title>
<source>Int. Arch. Otorhinolaryngol</source>
<year>2015</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref19">
<mixed-citation>[19] J. R. Orozco-Arroyave et al., “NeuroSpeech: An open-source software for Parkinson’s speech analysis”, <italic>Digit. Signal Process. A Rev. J.</italic>, vol. 77, pp. 207–221, Jun. 2018. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.dsp.2017.07.004">https://doi.org/10.1016/j.dsp.2017.07.004</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Orozco-Arroyave</surname>
<given-names>J. R.</given-names>
</name>
</person-group>
<article-title>NeuroSpeech: An open-source software for Parkinson’s speech analysis</article-title>
<source>Digit. Signal Process. A Rev. J.</source>
<year>2018</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref20">
<mixed-citation>[20] J. R. Orozco-Arroyave; J. D. Arias-Londoño; J. F. Vargas-Bonilla; M. C. González-Rátiva; E. Nöth, “New Spanish speech corpus database for the analysis of people suffering from Parkinson’s disease”, <italic>Proc. 9th Int. Conf. Lang. Resour. Eval. Lr. 2014</italic>, pp. 342–347, 2014. <ext-link ext-link-type="uri" xlink:href="http://www.lrec-conf.org/proceedings/lrec2014/pdf/7_Paper.pdf">http://www.lrec-conf.org/proceedings/lrec2014/pdf/7_Paper.pdf</ext-link>
</mixed-citation>
<element-citation publication-type="confproc">
<person-group person-group-type="author">
<name>
<surname>Orozco-Arroyave</surname>
<given-names>J. R.</given-names>
</name>
<name>
<surname>Arias-Londoño</surname>
<given-names>J. D.</given-names>
</name>
<name>
<surname>Vargas-Bonilla</surname>
<given-names>J. F.</given-names>
</name>
<name>
<surname>González-Rátiva</surname>
<given-names>M. C.</given-names>
</name>
<name>
<surname>Nöth</surname>
<given-names>E.</given-names>
</name>
</person-group>
<source>New Spanish speech corpus database for the analysis of people suffering from Parkinson’s disease</source>
<year>2014</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref21">
<mixed-citation>[21] Y. Jadoul; B. Thompson; B. de Boer, “Introducing Parselmouth: A Python interface to Praat”, <italic>J. Phon.</italic>, vol. 71, pp. 1–15, Nov. 2018. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.wocn.2018.07.001">https://doi.org/10.1016/j.wocn.2018.07.001</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Jadoul</surname>
<given-names>Y.</given-names>
</name>
<name>
<surname>Thompson</surname>
<given-names>B.</given-names>
</name>
<name>
<surname>de Boer</surname>
<given-names>B.</given-names>
</name>
</person-group>
<article-title>Introducing Parselmouth: A Python interface to Praat</article-title>
<source>J. Phon</source>
<year>2018</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref22">
<mixed-citation>[22] P. Boersma; D. Weenink, “Praat: doing phonetics by computer [Computer program]”. 2001, [En línea]. Disponible en: <ext-link ext-link-type="uri" xlink:href="http://www.praat.org/">http://www.praat.org/</ext-link>
</mixed-citation>
<element-citation publication-type="webpage">
<person-group person-group-type="author">
<name>
<surname>Boersma</surname>
<given-names>P.</given-names>
</name>
<name>
<surname>Weenink</surname>
<given-names>D.</given-names>
</name>
</person-group>
<source>Praat: doing phonetics by computer [Computer program]</source>
<year>2001</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref23">
<mixed-citation>[23] J. C. Catford; J. H. Esling, “Phonetics, Articulatory”, en Encyclopedia of Language &amp; Linguistics, Elsevier, 2006, pp. 425–442. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/B0-08-044854-2/00002-X">https://doi.org/10.1016/B0-08-044854-2/00002-X</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Catford</surname>
<given-names>J. C.</given-names>
</name>
<name>
<surname>Esling</surname>
<given-names>J. H.</given-names>
</name>
</person-group>
<source>Encyclopedia of Language &amp; Linguistics,</source>
<year>2006</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref24">
<mixed-citation>[24] F. R. Bach; M. I. Jordan, “Discriminative Training of Hidden Markov Models for Multiple Pitch Tracking [speech processing examples]”, en Proceedings. (ICASSP ’05). <italic>IEEE International Conference on Acoustics, Speech, and Signal Processing (ICASSP), </italic>Philadelphia, 2005, vol. 5, pp. 489–492. <ext-link ext-link-type="uri" xlink:href="http://doi.org/10.1109/ICASSP.2005.1416347">http://doi.org/10.1109/ICASSP.2005.1416347</ext-link>
</mixed-citation>
<element-citation publication-type="confproc">
<person-group person-group-type="author">
<name>
<surname>Bach</surname>
<given-names>F. R.</given-names>
</name>
<name>
<surname>Jordan</surname>
<given-names>M. I.</given-names>
</name>
</person-group>
<source>Discriminative Training of Hidden Markov Models for Multiple Pitch Tracking [speech processing examples]</source>
<year>2005</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref25">
<mixed-citation>[25] P. Boersma, “Acurate short-term analysis of the fundamental frequency and the harmonics-to-noise ratio of a sampled sound”, <italic>IFA Proc</italic>. 17, pp. 97–110, 1993. <ext-link ext-link-type="uri" xlink:href="https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.218.4956&amp;rep=rep1&amp;type=pdf">https://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.218.4956&amp;rep=rep1&amp;type=pdf</ext-link>
</mixed-citation>
<element-citation publication-type="confproc">
<person-group person-group-type="author">
<name>
<surname>Boersma</surname>
<given-names>P.</given-names>
</name>
</person-group>
<source>Acurate short-term analysis of the fundamental frequency and the harmonics-to-noise ratio of a sampled sound</source>
<year>1993</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref26">
<mixed-citation>[26] S. Strömbergsson, “Today’s most frequently used F0 estimation methods, and their accuracy in estimating male and female pitch in clean speech”,<italic> Proc. Annu. Conf. Int. Speech Commun. Assoc</italic>. <italic>INTERSPEECH</italic>, pp. 525–529, Sep. 2016. <ext-link ext-link-type="uri" xlink:href="http://dx.doi.org/10.21437/Interspeech.2016-240">http://dx.doi.org/10.21437/Interspeech.2016-240</ext-link>
</mixed-citation>
<element-citation publication-type="confproc">
<person-group person-group-type="author">
<name>
<surname>Strömbergsson</surname>
<given-names>S.</given-names>
</name>
</person-group>
<source>Today’s most frequently used F0 estimation methods, and their accuracy in estimating male and female pitch in clean speech</source>
<year>2016</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref27">
<mixed-citation>[27] S. Basu; J. Chakraborty; M. Aftabuddin, “Emotion Recognition from Speech using Convolutional Neural Network with Recurrent Neural Network Architecture”, en <italic>2nd International Conference on Communication and Electronics Systems (ICCES)</italic>, Coimbatore 2017, pp. 333–336. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/CESYS.2017.8321292">https://doi.org/10.1109/CESYS.2017.8321292</ext-link>
</mixed-citation>
<element-citation publication-type="confproc">
<person-group person-group-type="author">
<name>
<surname>Basu</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Chakraborty</surname>
<given-names>J.</given-names>
</name>
<name>
<surname>Aftabuddin</surname>
<given-names>M.</given-names>
</name>
</person-group>
<source>Emotion Recognition from Speech using Convolutional Neural Network with Recurrent Neural Network Architecture</source>
<year>2017</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref28">
<mixed-citation>[28] A. Shukla; R. Tiwari; R. Kala, “Speech Signal Analysis”, en <italic>Studies in Computational Intelligence</italic>, vol. 307, Springer, Berlin, Heidelberg, 2010, pp. 111–128. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1007/978-3-642-14344-1_5">https://doi.org/10.1007/978-3-642-14344-1_5</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Shukla</surname>
<given-names>A.</given-names>
</name>
<name>
<surname>Tiwari;</surname>
<given-names>R.</given-names>
</name>
<name>
<surname>Kala</surname>
<given-names>R.</given-names>
</name>
</person-group>
<source>Studies in Computational Intelligence</source>
<year>2010</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref29">
<mixed-citation>[29] S. Skodda; W. Visser; U. Schlegel, “Vowel articulation in parkinson’s disease”, <italic>J. Voice</italic>, vol. 25, no. 4, pp. 467–472, Jul. 2011. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.jvoice.2010.01.009">https://doi.org/10.1016/j.jvoice.2010.01.009</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Skodda</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Visser</surname>
<given-names>W.</given-names>
</name>
<name>
<surname>Schlegel</surname>
<given-names>U.</given-names>
</name>
</person-group>
<article-title>Vowel articulation in parkinson’s disease</article-title>
<source>J. Voice,</source>
<year>2011</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref30">
<mixed-citation>[30] G. Fant, <italic>Acoustic theory of speech production</italic>. The Hague: Mouton, 1960.</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Fant</surname>
<given-names>G.</given-names>
</name>
</person-group>
<source>Acoustic theory of speech production</source>
<year>1960</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref31">
<mixed-citation>[31] K. N. Stevens;  A. S. House, “Development of a Quantitative Description of Vowel Articulation”, <italic>J. Acoust. Soc. Am.</italic>, vol. 27, no. 3, pp. 484–493, May. 1955. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1121/1.1907943">https://doi.org/10.1121/1.1907943</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Stevens</surname>
<given-names>K. N.</given-names>
</name>
<name>
<surname>House</surname>
<given-names>A. S.</given-names>
</name>
</person-group>
<article-title>Development of a Quantitative Description of Vowel Articulation</article-title>
<source>J. Acoust. Soc. Am.</source>
<year>1955</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref32">
<mixed-citation>[32] M. Blomgren; M. Robb; Y. Chen, “A note on vowel centralization in stuttering and nonstuttering individuals”, <italic>J. Speech, Lang. Hear. Res.</italic>, vol. 41, no. 5, pp. 1042–1051, Oct. 1998. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1044/jslhr.4105.1042">https://doi.org/10.1044/jslhr.4105.1042</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Blomgren</surname>
<given-names>M.</given-names>
</name>
<name>
<surname>Robb</surname>
<given-names>M.</given-names>
</name>
<name>
<surname>Chen</surname>
<given-names>Y.</given-names>
</name>
</person-group>
<article-title>A note on vowel centralization in stuttering and nonstuttering individuals</article-title>
<source>J. Speech, Lang. Hear. Res.</source>
<year>2010</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref33">
<mixed-citation>[33] M. Guzmán, “Acústica Del Tracto Vocal”, 2010. <ext-link ext-link-type="uri" xlink:href="https://www.logopediapsicologia.com/wp-content/uploads/acustica-del-tracto-vocal.pdf">https://www.logopediapsicologia.com/wp-content/uploads/acustica-del-tracto-vocal.pdf</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Guzmán</surname>
<given-names>M.</given-names>
</name>
</person-group>
<source>Acústica Del Tracto Vocal</source>
<year>2010</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref34">
<mixed-citation>[34] S. Davis; P. Mermelstein, “Comparison of parametric representations for monosyllabic word recognition in continuously spoken sentences”, <italic>IEEE Trans. Acoust.</italic>, vol. 28, no. 4, pp. 357–366, Ago. 1980. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/TASSP.1980.1163420">https://doi.org/10.1109/TASSP.1980.1163420</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Davis</surname>
<given-names>S.</given-names>
</name>
<name>
<surname>Mermelstein</surname>
<given-names>P.</given-names>
</name>
</person-group>
<article-title>Comparison of parametric representations for monosyllabic word recognition in continuously spoken sentences</article-title>
<source>IEEE Trans. Acoust.</source>
<year>1980</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref35">
<mixed-citation>[35] L. Moro-Velázquez; J. A. Gómez-García; J. I. Godino-Llorente; J. Villalba; J. R. Orozco-Arroyave; N. Dehak, “Analysis of speaker recognition methodologies and the influence of kinetic changes to automatically detect Parkinson’s Disease”, <italic>Appl. Soft Comput.</italic>, vol. 62, pp. 649–666, Jan. 2018. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.asoc.2017.11.001">https://doi.org/10.1016/j.asoc.2017.11.001</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Moro-Velázquez</surname>
<given-names>L.</given-names>
</name>
<name>
<surname>Gómez-García</surname>
<given-names>J. A.</given-names>
</name>
<name>
<surname>Godino-Llorente</surname>
<given-names>J. I.</given-names>
</name>
<name>
<surname>Villalba</surname>
<given-names>J.</given-names>
</name>
<name>
<surname>Orozco-Arroyave</surname>
<given-names>J. R.</given-names>
</name>
<name>
<surname>Dehak</surname>
<given-names>N.</given-names>
</name>
</person-group>
<article-title>Analysis of speaker recognition methodologies and the influence of kinetic changes to automatically detect Parkinson’s Disease</article-title>
<source>Appl. Soft Comput.</source>
<year>2018</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref36">
<mixed-citation>36] F. O. López-pabón; T. Arias-vergara; J. R. Orozco-Arroyave, “Cepstral Analysis and Hilbert- Huang Transform for Automatic Detection of Parkinson ’ s Disease”, <italic>TecnoLógicas</italic>, vol. 23, no. 47, pp. 93–108, Jan. 2020. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.22430/22565337.1401">https://doi.org/10.22430/22565337.1401</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>López-pabón</surname>
<given-names>F. O.</given-names>
</name>
<name>
<surname>Arias-vergara</surname>
<given-names>T.</given-names>
</name>
<name>
<surname>Orozco-Arroyave</surname>
<given-names>J. R.</given-names>
</name>
</person-group>
<article-title>Cepstral Analysis and Hilbert- Huang Transform for Automatic Detection of Parkinson ’ s Disease</article-title>
<source>TecnoLógicas</source>
<year>2020</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref37">
<mixed-citation>[37] B. B. Monson; E. J. Hunter; A. J. Lotto; B. H. Story, “The perceptual significance of high-frequency energy in the human voice”,<italic> Front. Psychol.</italic>, vol. 5, no. 587, pp. 1–11, Jun. 2014. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.3389/fpsyg.2014.00587">https://doi.org/10.3389/fpsyg.2014.00587</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Monson</surname>
<given-names>B. B.</given-names>
</name>
<name>
<surname>Hunter</surname>
<given-names>E. J.</given-names>
</name>
<name>
<surname>Lotto</surname>
<given-names>A. J.</given-names>
</name>
<name>
<surname>Story</surname>
<given-names>B. H.</given-names>
</name>
</person-group>
<article-title>The perceptual significance of high-frequency energy in the human voice</article-title>
<source>Front. Psychol.</source>
<year>2014</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref38">
<mixed-citation>[38] E. Zwicker, “Subdivision of the Audible Frequency Range into Critical Bands (Frequenzgruppen)”, <italic>J. Acoust. Soc. Am.</italic>, vol. 33, no. 2, pp. 248, feb. 1961. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1121/1.1908630">https://doi.org/10.1121/1.1908630</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Zwicker</surname>
<given-names>E.</given-names>
</name>
</person-group>
<article-title>Subdivision of the Audible Frequency Range into Critical Bands (Frequenzgruppen)</article-title>
<source>J. Acoust. Soc. Am.</source>
<year>2014</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref39">
<mixed-citation>[39] E. Zwicker; E. Terhardt, “Analytical expressions for critical‐band rate and critical bandwidth as a function of frequency”, <italic>J. Acoust. Soc. Am.,</italic> vol. 68, no. 5, pp. 1523–1525, Aug. 1998. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1121/1.385079">https://doi.org/10.1121/1.385079</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Zwicker</surname>
<given-names>E.</given-names>
</name>
<name>
<surname>Terhardt</surname>
<given-names>E.</given-names>
</name>
</person-group>
<article-title>Analytical expressions for critical‐band rate and critical bandwidth as a function of frequency</article-title>
<source>J. Acoust. Soc. Am.</source>
<year>1998</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref40">
<mixed-citation>[40] J. R. Orozco-Arroyave et al., “Automatic detection of Parkinson’s disease in running speech spoken in three different languages”,<italic> J. Acoust. Soc. Am.</italic>, vol. 139, no. 1, pp. 481-500, Jan. 2016. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1121/1.4939739">https://doi.org/10.1121/1.4939739</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>Orozco-Arroyave</surname>
<given-names>J. R.</given-names>
</name>
</person-group>
<article-title>Automatic detection of Parkinson’s disease in running speech spoken in three different languages</article-title>
<source>J. Acoust. Soc. Am.</source>
<year>2016</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref41">
<mixed-citation>[41] P. Maragos; T. F. Quatieri; J. F. Kaiser, “Speech nonlinearities, modulations, and energy operators”, in <italic>[Proceedings] ICASSP 91: 1991 International Conference on Acoustics, Speech, and Signal Processing</italic>, Toronto, 1991. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1109/ICASSP.1991.150366">https://doi.org/10.1109/ICASSP.1991.150366</ext-link>
</mixed-citation>
<element-citation publication-type="confproc">
<person-group person-group-type="author">
<name>
<surname>Maragos</surname>
<given-names>P.</given-names>
</name>
<name>
<surname>Quatieri</surname>
<given-names>T. F.</given-names>
</name>
<name>
<surname>Kaiser</surname>
<given-names>J. F.</given-names>
</name>
</person-group>
<source>Speech nonlinearities, modulations, and energy operators</source>
<year>1991</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref42">
<mixed-citation>[42] R. B. Randall; W. A. Smith, “Application of the Teager Kaiser Energy Operator to Machine Diagnostics”, en <italic>Conference: Tenth DST Group International Conference on Health and Usage Monitoring Systems (HUMS),</italic> Melbourne, 2017, pp. 26–28. <ext-link ext-link-type="uri" xlink:href="https://www.researchgate.net/publication/316284738">https://www.researchgate.net/publication/316284738</ext-link>
</mixed-citation>
<element-citation publication-type="confproc">
<person-group person-group-type="author">
<name>
<surname>Randall</surname>
<given-names>R. B.</given-names>
</name>
<name>
<surname>Smith</surname>
<given-names>W. A.</given-names>
</name>
</person-group>
<source>Application of the Teager Kaiser Energy Operator to Machine Diagnostics</source>
<year>2017</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref43">
<mixed-citation>[43] M. Tatham; K. Morton, “Speech Production: Prosody”, en <italic>Speech Production and Perception</italic>, London: Palgrave Macmillan UK, 2006, pp. 121–163. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1057/9780230513969_5">https://doi.org/10.1057/9780230513969_5</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Tatham</surname>
<given-names>M.</given-names>
</name>
<name>
<surname>Morton</surname>
<given-names>K.</given-names>
</name>
</person-group>
<source>Speech Production and Perception</source>
<year>2006</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref44">
<mixed-citation>[44] S. Roldan-Vasco; A. Orozco-Duque; J. C. Suarez-Escudero; J. R. Orozco-Arroyave , “Machine learning based analysis of speech dimensions in functional oropharyngeal dysphagia”, <italic>Comput. Methods Programs Biomed</italic>., vol. 208, p. 106248, Sep. 2021. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1016/j.cmpb.2021.106248">https://doi.org/10.1016/j.cmpb.2021.106248</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<article-title>Machine learning based analysis of speech dimensions in functional oropharyngeal dysphagia</article-title>
<source>Comput. Methods Programs Biomed</source>
<year>2021</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref45">
<mixed-citation>[45] K. López-de-Ipiña et al., “Automatic voice analysis for dysphagia detection”, <italic>Speech, Lang. Hear.</italic>, vol. 21, no. 2, pp. 86–89, 2018. <ext-link ext-link-type="uri" xlink:href="https://doi.org/10.1080/2050571X.2017.1369017">https://doi.org/10.1080/2050571X.2017.1369017</ext-link>
</mixed-citation>
<element-citation publication-type="journal">
<person-group person-group-type="author">
<name>
<surname>López-de-Ipiña</surname>
<given-names>K.</given-names>
</name>
</person-group>
<article-title>Automatic voice analysis for dysphagia detection</article-title>
<source>Speech, Lang. Hear.,</source>
<year>2018</year>
</element-citation>
</ref>
<ref id="redalyc_344270031006_ref46">
<mixed-citation>[46] J. R. Orozco-Arroyave; N. García; J. F. Vargas-Bonilla; E. Nöth, “Automatic Detection of Parkinson’s Disease from Compressed Speech Recordings”, en T<italic>ext, Speech, and Dialogue. TSD 2015. Lecture Notes in Computer Science</italic>, Springer, Cham, 2015, pp. 88–95. <ext-link ext-link-type="uri" xlink:href="http://dx.doi.org/10.1007/978-3-319-24033-6_10">http://dx.doi.org/10.1007/978-3-319-24033-6_10</ext-link>
</mixed-citation>
<element-citation publication-type="book">
<person-group person-group-type="author">
<name>
<surname>Orozco-Arroyave</surname>
<given-names>J. R.</given-names>
</name>
<name>
<surname>García</surname>
<given-names>N.</given-names>
</name>
<name>
<surname>Vargas-Bonilla</surname>
<given-names>J. F.</given-names>
</name>
<name>
<surname>Nöth</surname>
<given-names>E.</given-names>
</name>
</person-group>
<source>Text, Speech, and Dialogue. TSD 2015. Lecture Notes in Computer Science</source>
<year>2015</year>
</element-citation>
</ref>
</ref-list>
<fn-group>
<title>Notas</title>
<fn id="fn15" fn-type="other">
<label>-</label>
<p>
<bold> CONFLICTOS DE INTERÉS DE LOS AUTORES </bold>
</p>
<p>Los autores declaran no tener conflictos de interés.</p>
</fn>
<fn id="fn16" fn-type="other">
<label>-</label>
<p>
<bold>CONTRIBUCIÓN DE LOS AUTORES</bold>
</p>
<p>
<list list-type="simple">
<list-item>
<p>Andrés Felipe Flórez-Gómez: contribuyó principalmente en la escritura del artículo, la conceptualización, metodología, además del desarrollo de los algoritmos para la extracción de características y de las pruebas estadísticas, y en la obtención de los resultados.</p>
</list-item>
<list-item>
<p>Juan Rafael Orozco-Arroyave: contribuyó en la conceptualización, metodología, revisión y análisis de los resultados.</p>
</list-item>
<list-item>
<p>Sebastián Roldán-Vasco: contribuyó al desarrollo de los algoritmos para la extracción de características, conceptualización, metodología, además de la revisión, análisis y validación de los resultados.</p>
</list-item>
</list>
</p>
</fn>
</fn-group>
</back>
</article>