Mostrar el registro sencillo del ítem

dc.contributor.advisorCastro Ospina, Andrés Eduardo
dc.contributor.advisorVega Escobar, Laura Stella
dc.contributor.authorCarmona Aguiar, Sebastián
dc.date.accessioned2023-12-12T20:11:15Z
dc.date.available2023-12-12T20:11:15Z
dc.date.issued2023
dc.identifier.urihttp://hdl.handle.net/20.500.12622/6288
dc.description.abstractLos datos acústicos se encuentran en muchas áreas de la vida y contienen un sinnúmero de información de alto valor para diferentes aplicaciones en la ciencia. Una vez los datos acústicos se digitalizan con dispositivos capaces de registrar la gama audible humana y ultrasónica, este potencial puede ser explorado y aprovechado, más aún con el poder que nos ofrece la inteligencia artificial para el análisis de datos e identificación de patrones. A pesar de todo ello, la grabación o recopilación de estos datos acústicos esconde muchos desafíos, ya sean por el esfuerzo logístico, limitaciones técnicas o de medios, que en su mayoría dejan brechas temporales sin información, incluso se dan fallos del dispositivo o por la misma técnica de grabación, que muchas veces se da por fracciones tiempo. Considerando estas situaciones, exploramos en este trabajo la posibilidad de generar información acústica sintética que se encuentre dentro del dominio de estudio para cubrir estos espacios de información, a partir de la implementación de redes neuronales autoencoder variacional (VAE) y autoencoder variacional condicional (CVAE), junto con las técnicas de generación por interpolación o basadas en etiquetas de clase. Para alcanzar nuestro objetivo se realizan pruebas sobre un conjunto de datos experimental de imágenes (MNIST) para posteriormente trabajar, con un conjunto de datos reales basado en información acústica de sonidos ambientales (UrbanSound8K). Durante este proceso se ejecutan tareas de caracterización embebida con el modelo pre-entrenado VGGish, optimización de hiperparámetros con el apoyo de la API Optuna, visualización y comprobación de resultados sobre espacios latentes mediante técnicas de visualización en baja dimensionalidad t-SNE. Medios que permitieron alcanzar el propósito de este trabajo e identificando cómo las arquitecturas VAE y CVAE, basadas en redes neuronales autoencoder, son modelos efectivos para esta aplicación en la generación sintética de información acústica dentro del dominio de estudiospa
dc.format.mimetypeapplication/pdf
dc.language.isospaspa
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectAutoencodersspa
dc.subjectGeneración de información sintéticaspa
dc.subjectIncrustación de vecinos estocásticos distribuidos en t (t-SNE)spa
dc.subjectOptimización de hiperparámetros (Optuna)spa
dc.subjectRed pre-entrenada VGGishspa
dc.subjectSonidos ambientalesspa
dc.titleGeneración de información acústica sintética usando redes neuronales: variational autoencoder y conditional variational autoencoderspa
dc.publisher.facultyFacultad de Ingenieríasspa
dc.publisher.programIngeniería de Sistemasspa
dc.subject.keywordsAutoencodersspa
dc.subject.keywordsEnvironmental soundsspa
dc.subject.keywordsHyperparameter optimization (Optuna)spa
dc.subject.keywordsSynthetic information generationspa
dc.subject.keywordst-Distributed stochastic neighbor embedding (t-SNE)spa
dc.subject.keywordsVGGish pre-trained networkspa
dc.description.abstractenglishAcoustic data is found in many areas of life and contains a wealth of information of high value for different applications in science. Once acoustic data is digitized with devices capable of recording the human and ultrasonic audible range, and this potential can be explored and harnessed, even more so with the power of artificial intelligence for data analysis and pattern identification. Despite all this, the recording or collecting these acoustic data hides many challenges, either by the logistical effort, technical or media limitations, which mostly leave temporary gaps without information, even device failures, or by the same recording technique, which often occurs for fractions of time. Considering these situations, we explore in this work the possibility of generating synthetic acoustic information that is within the domain of study to cover these information gaps from the implementation of neural networks variational autoencoder (VAE) and conditional variational autoencoder (CVAE), along with generation techniques by interpolation or based on class labels. To achieve our goal, tests are performed on an experimental image dataset (MNIST) to later work with a real dataset based on acoustic information of environmental sounds (UrbanSound8K). During this process, embedded characterization tasks are executed with the pre-trained VGGish model, hyperparameter optimization with the support of the Optuna API, and visualization and verification of results on latent spaces using low dimensional t-SNE visualization techniques. Tools that allowed achieving the purpose of this work and identifying how VAE and CVAE architectures, based on autoencoder neural networks, are effective models for this application in the synthetic generation of acoustic information within the domain of studyspa
dc.description.degreenameIngeniero de Sistemasspa
dc.identifier.instnameinstname:Instituto Tecnológico Metropolitanospa
dc.identifier.reponamereponame:Repositorio Institucional Instituto Tecnológico Metropolitanospa
dc.identifier.repourlrepourl:https://repositorio.itm.edu.co/
dc.rights.localAcceso abiertospa
dc.rights.accessrightsinfo:eu-repo/semantics/openAccess
dc.rights.creativecommonsAttribution-NonCommercial-NoDerivatives 4.0 International*
dc.title.translatedSynthetic Acoustic Information Generation Using Neural Networks Variational Autoencoder And Conditional Variational Autoencoderspa
dc.type.localTrabajo de grado de pregradospa
dc.type.coarhttp://purl.org/coar/resource_type/c_7a1fspa
dc.type.driverinfo:eu-repo/semantics/bachelorThesisspa
dc.publisher.grantorInstituto Tecnológico Metropolitanospa
dc.description.degreelevelpregradospa


Ficheros en el ítem

Thumbnail
Thumbnail

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

http://creativecommons.org/licenses/by-nc-nd/4.0/
Excepto si se señala otra cosa, la licencia del ítem se describe como http://creativecommons.org/licenses/by-nc-nd/4.0/