Por favor, use este identificador para citar o enlazar este ítem:
http://repositorio.ugto.mx/handle/20.500.12059/6921
Registro completo de metadatos
Campo DC | Valor | Lengua/Idioma |
---|---|---|
dc.rights.license | http://creativecommons.org/licenses/by-nc-nd/4.0 | es_MX |
dc.contributor | Horacio Rostro González | es_MX |
dc.creator | ALVARO JAVIER PATIÑO SAUCEDO | es_MX |
dc.date.accessioned | 2022-10-11T19:07:35Z | - |
dc.date.available | 2022-10-11T19:07:35Z | - |
dc.date.issued | 2022-05 | - |
dc.identifier.uri | http://repositorio.ugto.mx/handle/20.500.12059/6921 | - |
dc.description.abstract | En este trabajo se implementa una estrategia de aprendizaje por refuerzo (RL, por sus siglas en inglés) para la navegación de un robot móvil en un ambiente estructurado. Este trabajo fue implementado en un hardware integrado por una tarjeta de procesamiento Raspberry Pi y un robot móvil construido con el kit Lego Mindstorms EV3. La estrategia de aprendizaje se conoce como Spike-Timing-Dependent-Plasticity modulado por recompensa (R-STDP) y es aplicada para el entrenamiento de una red neuronal pulsante (SNN por sus siglas en inglés) la cual controla la navegación del robot móvil en el entorno estructurado. La implementación del método fue llevada a cabo en el lenguaje de programación Python con ayuda de la librería VREP. El programa desarrollado se carga y se ejecuta en la Raspberry Pi, la comunicación entre ésta y el Brick EV3 se da a través del entorno de desarrollo integrado Matlab. La validación de la implementación se hizo efectiva utilizando un sistema retroalimentado, compuesto principalmente por Raspberry Pi, el Brick EV3 y los sensores ultrasónicos. El experimento de validación consiste en que el agente (robot móvil) obtiene información del ambiente de desarrollo a través de sus sensores, estos datos son recibidos por la red neuronal pulsante el cual se hace cargo de analizar, procesar y tomar una decisión sobre qué acción ejecutar (derecha, izquierda, adelante) de acuerdo a la experiencia obtenida en el entrenamiento. El criterio que maneja la red para la toma de decisiones es el de desplazarse en dirección hacia donde los sensores no detecten obstáculos o estén más lejanos, obteniendo así una mayor recompensa por sus acciones. | es_MX |
dc.language.iso | spa | es_MX |
dc.publisher | Universidad de Guanajuato | es_MX |
dc.rights | info:eu-repo/semantics/openAccess | es_MX |
dc.subject.classification | CIS- Maestría en Ingeniería Eléctrica (Instrumentación y Sistemas Digitales) | es_MX |
dc.title | Navegación de un robot móvil mediante una red pulsante con aprendizaje por refuerzo | es_MX |
dc.type | info:eu-repo/semantics/masterThesis | es_MX |
dc.creator.id | info:eu-repo/dai/mx/cvu/1046013 | es_MX |
dc.subject.cti | info:eu-repo/classification/cti/7 | es_MX |
dc.subject.cti | info:eu-repo/classification/cti/33 | es_MX |
dc.subject.cti | info:eu-repo/classification/cti/3311 | es_MX |
dc.subject.keywords | Robot móvil – Navegación | es_MX |
dc.subject.keywords | Aprendizaje por refuerzo (RL) | es_MX |
dc.subject.keywords | Spike-Timing-Dependent-Plasticity modulado por Recompensa (R-STDP) | es_MX |
dc.subject.keywords | Redes Neuronales Pulsantes (SNN) | es_MX |
dc.subject.keywords | Raspberry Pi | es_MX |
dc.subject.keywords | Lego Mindstorms EV3 (Kit) | es_MX |
dc.subject.keywords | Robótica | es_MX |
dc.contributor.id | info:eu-repo/dai/mx/cvu/162024 | es_MX |
dc.contributor.role | director | es_MX |
dc.type.version | info:eu-repo/semantics/publishedVersion | es_MX |
dc.contributor.two | ERICK ISRAEL GUERRA HERNANDEZ | es_MX |
dc.contributor.idtwo | info:eu-repo/dai/mx/cvu/169807 | es_MX |
dc.contributor.roletwo | director | es_MX |
Aparece en las colecciones: | Maestría en Ingeniería Eléctrica (Instrumentación y Sistemas Digitales) |
Archivos en este ítem:
Archivo | Descripción | Tamaño | Formato | |
---|---|---|---|---|
ALVARO JAVIER PATIÑO SAUCEDO_Tesis24.pdf | 4.05 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.