Por favor, use este identificador para citar o enlazar este ítem: http://repositorio.uan.edu.co/handle/123456789/7242
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.contributor.advisorErazo Ordoñez, Christian-
dc.coverage.spatialColombia(Bogotá,Dc)es_ES
dc.creatorCarreño Puentes, Sergio Manuel-
dc.date.accessioned2022-11-15T15:11:21Z-
dc.date.available2022-11-15T15:11:21Z-
dc.date.created2022-06-07-
dc.identifier.urihttp://repositorio.uan.edu.co/handle/123456789/7242-
dc.description.abstractTrajectory planning in autonomous mobile robots is an open problem because, when working in dynamic environments, it is very expensive to program the entire navigation system for a particular application or, failing that, it would be very difficult for the programmer to correctly predict the changes in the environment. In order to contribute to this field, this document shows the process of designing an intelligent controller based on reinforced learning and more specifically using the Q-learning algorithm to drive two mobile robots through a simulated environment, and that autonomously manage to learn the trajectory that will take them to a target position without having prior knowledge about the work environmentes_ES
dc.description.tableofcontentsLa planeación de trayectorias en los robots móviles autónomos es un problema abierto debido a que, al trabajar en ambientes dinámicos, resulta muy costoso programar todo el sistema de navegación para una aplicación particular o en su defecto resultaría muy complicado, para el programador, lograr predecir de manera acertada los cambios en el entorno. A fin de contribuir a este campo, en el presente documento se muestra el proceso de diseño de un controlador inteligente basado en aprendizaje reforzado y más concretamente utilizando el algoritmo Q-learning para lograr conducir dos robots móviles a través de un entorno simulado, y que de manera autónoma logren aprender la trayectoria que los llevará a una posición objetivo sin poseer conocimiento previo sobre el ambiente de trabajo.es_ES
dc.language.isospaes_ES
dc.publisherUniversidad Antonio Nariñoes_ES
dc.rightsAtribución-NoComercial-SinDerivadas 3.0 Estados Unidos de América*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
dc.sourceinstname:Universidad Antonio Nariñoes_ES
dc.sourcereponame:Repositorio Institucional UANes_ES
dc.sourceinstname:Universidad Antonio Nariñoes_ES
dc.sourcereponame:Repositorio Institucional UANes_ES
dc.subjectAprendizaje por refuerzo,es_ES
dc.subjectaprendizaje automático,es_ES
dc.subjectaprendizaje profundo,es_ES
dc.subjectneurona artificial,es_ES
dc.subjectredes neuronales,es_ES
dc.subjectrobots autónomoses_ES
dc.titleDiseño y simulación de un controlador inteligente utilizando aprendizaje por refuerzo Q-learning para la navegación autónoma de dos robots móviles.es_ES
dc.typeTesis - Trabajo de grado - Monografia - Pregradoes_ES
dc.publisher.programIngeniería Electrónicaes_ES
dc.rights.accesRightsopenAccesses_ES
dc.subject.keywordReinforcement learning,es_ES
dc.subject.keywordmachine learning,es_ES
dc.subject.keyworddeep learning,es_ES
dc.subject.keywordartificial neuron,es_ES
dc.subject.keywordneural networks,es_ES
dc.subject.keywordautonomous robots.es_ES
dc.type.spaTrabajo de grado (Pregrado y/o Especialización)es_ES
dc.type.hasVersioninfo:eu-repo/semantics/acceptedVersiones_ES
dc.source.bibliographicCitationAmbhore, S. (2020). A Comprehensive Study on Robot Learning from Demonstration. 2nd International Conference on Innovative Mechanisms for Industry Applications, ICIMIA 2020 - Conference Proceedings, Icimia, 291–299. https://doi.org/10.1109/ICIMIA48430.2020.9074946es_ES
dc.source.bibliographicCitationArias Rivera, M. (2018). Autonomous Navigation by Reinforcement Learninges_ES
dc.source.bibliographicCitationArtola Moreno, Á. (2019). Clasificación de imágenes usando redes neuronales convolucionales en Python. Universidad de Sevilla.es_ES
dc.source.bibliographicCitationBaker, B., Kanitscheider, I., Mrkov, T., Wu, Y., Powell, G., McGrew, B., & Mordatch, I. (2019). Emergent Tool Use From Multi-Agent Autocurricula.es_ES
dc.source.bibliographicCitationBañó, A. (2003). Análisis y diseño del control de posición de un robot móvil con tracción diferencial. http://deeea.urv.cat/public/PROPOSTES/pub/pdf/333pub.pdfes_ES
dc.source.bibliographicCitationBellemare, M., Candido, S., Castro, P. S., Gong, J., Machado, M., Subhodeep, M., Ponda, S., & Eang, Z. (2020). Autonomous navigation of stratospheric balloons using reinforcement learning. Nature 588, 77–82.es_ES
dc.source.bibliographicCitationCalvo, D. (2017a). Clasificación de redes neuronales artificiales. https://www.diegocalvo.es/clasificacion-de-redes-neuronales-artificiales/es_ES
dc.source.bibliographicCitationCalvo, D. (2017b). Red Neuronal Convolucional CNN. https://www.diegocalvo.es/red-neuronalconvolucional/es_ES
dc.source.bibliographicCitationClinic, M. (2021). Célula nerviosa (neurona). https://www.mayoclinic.org/es-es/nerve-cellneuron/img-20007830es_ES
dc.source.bibliographicCitationContreras, L. (2003). Estudio e Implementación de algunos comportamientos básicos de un animal en un robot de tipo genérico [Tesis profesional, Universidad de las Américas Puebla]. http://catarina.udlap.mx/u_dl_a/tales/documentos/lis/contreras_o_les_ES
dc.description.degreenameIngeniero(a) Electrónico(a)es_ES
dc.description.degreelevelPregradoes_ES
dc.publisher.facultyFacultad de Ingeniería Mecánica, Electrónica y Biomédicaes_ES
dc.audienceGenerales_ES
dc.description.notesPresenciales_ES
dc.creator.cedula10441711897es_ES
dc.publisher.campusBogotá - Sures_ES
dc.description.degreetypeInvestigaciónes_ES
Aparece en las colecciones: Ingeniería electrónica

Ficheros en este ítem:
Fichero Tamaño  
2022_T.G-SergioManuelCarreñoPuentes.pdf5.27 MBVisualizar/Abrir
2022_Autorización.SergioManuelCarreñoPuentes_.pdf
  Restricted Access
934.35 kBVisualizar/Abrir  Request a copy
2022_ Actadegrabajode_grado Sergio Carreño.docx.pdf
  Restricted Access
228.17 kBVisualizar/Abrir  Request a copy


Este ítem está sujeto a una licencia Creative Commons Licencia Creative Commons Creative Commons