Infante Molina, GuillermoJohnson, AndersGómez, VicençUniversitat Pompeu Fabra. Departament de Tecnologies de la Informació i les Comunicacions2025-05-052025-05-052025-05-022025-05-022025-02-21http://hdl.handle.net/10230/70260Recent breakthroughs in AI have proven that reinforcement learning can be used successfully to solve complex sequential decision problems to achieve near-optimal solutions. However, despite the successful applications that use function approximation techniques, RL algorithms face open challenges that involve data efficiency and generalization. In this line, hierarchical methods have been historically applied to simplify learning as much as possible. In this thesis we study how algorithms can exploit compositionality properties to obtain the optimal solution along with a hierarchical decomposition of a large problem. To do this, we devise algorithms in which the agent works at different levels of abstraction to learn a series of base behaviors. These can be combined to optimally solve a higher level task specification. Such base behavior can be reused in different ways to bring computational efficiency by reducing the number of learning samples used to solve each problem.Los avances recientes en IA han demostrado que el aprendizaje por refuerzo puede utilizarse con éxito para resolver problemas complejos de decisión secuencial y lograr soluciones casi óptimas. Sin embargo, a pesar de las aplicaciones exitosas que emplean técnicas de aproximación de funciones, los algoritmos de aprendizaje por refuerzo enfrentan desafíos abiertos que incluyen la eficiencia y la generalización. Para eso, los métodos jerárquicos se han aplicado históricamente para simplificar el aprendizaje lo más posible. En esta tesis, estudiamos cómo los algoritmos pueden explotar las propiedades de composicionalidad para obtener la solución óptima junto con una descomposición jerárquica de un problema grande. Para ello, diseñamos algoritmos en los que el agente trabaja en diferentes niveles de abstracción para aprender una serie de comportamientos base. Estos pueden combinarse para resolver de manera óptima una especificación de tarea de nivel superior y pueden reutilizarse de diversas maneras para mejorar la eficiencia computacional.Programa de Doctorat en Tecnologies de la Informació i les Comunicacions109 p.application/pdfengL'accés als continguts d'aquesta tesi queda condicionat a l'acceptació de les condicions d'ús establertes per la següent llicència Creative Commons: http://creativecommons.org/licenses/by-nc-sa/4.0/http://creativecommons.org/licenses/by-nc-sa/4.0/info:eu-repo/semantics/openAccessCompositionality for hierarchical reinforcement learninginfo:eu-repo/semantics/doctoralThesisMarkov decision processReinforcement learningHierarchical reinforcement learningCompositionalityOptimal solutionsTemporal abstractionState abstractionGeneralizationDynamic-programmingTemporal differenceArtificial intelligenceMachine learningMachine intelligence62