Please use this identifier to cite or link to this item: http://repositorio.ugto.mx/handle/20.500.12059/14110
Full metadata record
DC FieldValueLanguage
dc.rights.licensehttp://creativecommons.org/licenses/by-nc-nd/4.0es_MX
dc.creatorVázquez Robledo, Alan Salomónes_MX
dc.creatorLizárraga Morales, Rocío Alfonsinaes_MX
dc.creatorLópez Ramírez, Misaeles_MX
dc.date.accessioned2026-05-05T21:31:43Z-
dc.date.available2026-05-05T21:31:43Z-
dc.date.issued2024-12-13-
dc.identifier.issn2395-9797-
dc.identifier.urihttp://repositorio.ugto.mx/handle/20.500.12059/14110-
dc.description.abstractLa música juega un papel crucial en el desarrollo de la identidad cultural de cada persona, ayuda a expresar emociones, narrando historias y creando conexiones entre individuos y comunidades. El desarrollo digital de la música en la actualidad nos presenta un nuevo campo con nueva información, características distintivas y con ello nuevas problemáticas a resolver. Los Sistemas de Recuperación de Información Musical (MIR, por sus siglas en inglés, Music Information Retrieval) son un campo emergente basado en sistemas de software diseñados para extraer, analizar y recuperar información de archivos de audio musical. Estos sistemas combinan varias técnicas del procesamiento de señales, aprendizaje automático, inteligencia artificial y análisis de datos para trabajar con información musical. han surgido como solución innovadora para diferentes problemáticas sobre la organización de características e información de la música digital. Estos sistemas, que emplean técnicas de procesamiento de señales y aprendizaje automático, permiten analizar automáticamente la estructura de las señales de audio y extraer información relevante, como la identificación de instrumentos musicales. En este artículo, se propone un sistema de clasificación de instrumentos musicales basado en redes neuronales artificiales, utilizando archivos de audios de una base de datos con el nombre AAM. A través del análisis espectral de las señales de audio y la extracción de características como los Coeficientes Cepstrales de Frecuencia Mel (MFCC por sus siglas en inglés, Mel Frequency Cepstral Coefficients) y el Perceptrón Multicapa (MLP por sus siglas en inglés, Multilayer Perceptron), se logró desarrollar un modelo capaz de identificar con alta precisión (98.66%) tres instrumentos musicales: guitarra, bajo y batería.es_MX
dc.formatapplication/pdfes_MX
dc.language.isospaes_MX
dc.publisherUniversidad de Guanajuato. Dirección de Apoyo a la Investigación y al Posgradoes_MX
dc.relationhttps://www.jovenesenlaciencia.ugto.mx/index.php/jovenesenlaciencia/es/article/view/4701-
dc.rightsinfo:eu-repo/semantics/openAccesses_MX
dc.sourceJóvenes en la Ciencia: Congreso internacional de electrónica y computo aplicado 2024. Vol. 33 (2024)es_MX
dc.titleClasificación de instrumentos musicales en audios utilizando coeficientes cepstrales y redes neuronales artificialeses_MX
dc.title.alternativeClassification of musical instruments in audios using cepstral coefficients and artificial neural networksen
dc.typeinfo:eu-repo/semantics/articlees_MX
dc.subject.ctiinfo:eu-repo/classification/cti/7es_MX
dc.subject.keywordsIdentificación de instrumentos musicaleses_MX
dc.subject.keywordsMFCCsen
dc.subject.keywordsMel Frequency Cepstral Coefficientsen
dc.subject.keywordsCoeficientes Cepstrales de Frecuencia Meles_MX
dc.subject.keywordsMachine learningen
dc.subject.keywordsPerceptrón multicapaes_MX
dc.subject.keywordsClasificación de audioes_MX
dc.type.versioninfo:eu-repo/semantics/publishedVersiones_MX
Appears in Collections:Revista Jóvenes en la Ciencia

Files in This Item:
File Description SizeFormat 
205001205914110.pdf479.74 kBAdobe PDFView/Open


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.