Compositionality for hierarchical reinforcement learning

dc.contributor.authorInfante Molina, Guillermo
dc.contributor.directorJohnson, Anders
dc.contributor.directorGómez, Vicenç
dc.date.accessioned2025-12-10T11:20:20Z
dc.date.available2025-12-10T11:20:20Z
dc.date.issued2025-02-21
dc.description.abstractRecent breakthroughs in AI have proven that reinforcement learning can be used successfully to solve complex sequential decision problems to achieve near-optimal solutions. However, despite the successful applications that use function approximation techniques, RL algorithms face open challenges that involve data efficiency and generalization. In this line, hierarchical methods have been historically applied to simplify learning as much as possible. In this thesis we study how algorithms can exploit compositionality properties to obtain the optimal solution along with a hierarchical decomposition of a large problem. To do this, we devise algorithms in which the agent works at different levels of abstraction to learn a series of base behaviors. These can be combined to optimally solve a higher level task specification. Such base behavior can be reused in different ways to bring computational efficiency by reducing the number of learning samples used to solve each problem.
dc.description.abstractLos avances recientes en IA han demostrado que el aprendizaje por refuerzo puede utilizarse con éxito para resolver problemas complejos de decisión secuencial y lograr soluciones casi óptimas. Sin embargo, a pesar de las aplicaciones exitosas que emplean técnicas de aproximación de funciones, los algoritmos de aprendizaje por refuerzo enfrentan desafíos abiertos que incluyen la eficiencia y la generalización. Para eso, los métodos jerárquicos se han aplicado históricamente para simplificar el aprendizaje lo más posible. En esta tesis, estudiamos cómo los algoritmos pueden explotar las propiedades de composicionalidad para obtener la solución óptima junto con una descomposición jerárquica de un problema grande. Para ello, diseñamos algoritmos en los que el agente trabaja en diferentes niveles de abstracción para aprender una serie de comportamientos base. Estos pueden combinarse para resolver de manera óptima una especificación de tarea de nivel superior y pueden reutilizarse de diversas maneras para mejorar la eficiencia computacional.
dc.description.degreePrograma de Doctorat en Tecnologies de la Informació i les Comunicacions
dc.embargo.termscap
dc.format.extent109 p.
dc.identifierhttp://hdl.handle.net/10803/694345
dc.identifier.urihttps://hdl.handle.net/10803/694345
dc.language.isoeng
dc.publisherUniversitat Pompeu Fabra
dc.rights.accessRightsinfo:eu-repo/semantics/openAccess
dc.rights.licenseL'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-sa/4.0/
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/
dc.sourceTDX (Tesis Doctorals en Xarxa)
dc.subjectMarkov decision process
dc.subjectReinforcement learning
dc.subjectHierarchical reinforcement learning
dc.subjectCompositionality
dc.subjectOptimal solutions
dc.subjectTemporal abstraction
dc.subjectState abstraction
dc.subjectGeneralization
dc.subjectDynamic-programming
dc.subjectTemporal difference
dc.subjectArtificial intelligence
dc.subjectMachine learning
dc.subjectMachine intelligence
dc.subject.udc62
dc.titleCompositionality for hierarchical reinforcement learning
dc.typeinfo:eu-repo/semantics/doctoralThesis
dc.typeinfo:eu-repo/semantics/publishedVersion

Files

Collections

License

Rights