La toma secuencial de decisiones con incertidumbre cubre una amplia clase de problemas. Las aplicaciones reales requieren que los algoritmos sean computacionalmente eficientes y escalables. Nosotros estudiamos un rango de problemas de toma secuencial de decisiones donde el agente obtiene información parcial de las recompensas, y desarrollamos algoritmos que son robustos y computacionalmente eficientes en problemas de grandes dimensiones.
El primer problema que consideramos es un problema de maximización ...
La toma secuencial de decisiones con incertidumbre cubre una amplia clase de problemas. Las aplicaciones reales requieren que los algoritmos sean computacionalmente eficientes y escalables. Nosotros estudiamos un rango de problemas de toma secuencial de decisiones donde el agente obtiene información parcial de las recompensas, y desarrollamos algoritmos que son robustos y computacionalmente eficientes en problemas de grandes dimensiones.
El primer problema que consideramos es un problema de maximización de la influencia en línea en el que el agente selecciona secuencialmente los nodos del grafo con el objetivo de esparcir la información a través de éste poniéndola en los nodos elegidos. El feedback disponible es solo alguna información sobre los vecinos más cercanos del vértice seleccionado. Nuestros resultados muestran que esas observaciones locales y parciales pueden ser suficientes para maximizar la influencia global. Proponemos algoritmos de aprendizaje secuencial que intentan maximizar la influencia y presentamos un análisis teórico tanto en los regímenes subcrítico y supercrítico de modelos gráficos. Estos son los primeros algoritmos de maximización secuencial de influencia que son eficientes en grafos con gran cantidad de nodos.
En otra línea de trabajo, estudiamos el problema de bandidos multibrazos contextuales, donde la función recompensa puede cambiar de modo adverso y el agente solo puede observar las recompensas asociadas a sus acciones. Asumimos que el número de brazos es finito y que la dimensión del espacio de contextos puede ser infinita. Desarrollamos un algoritmo computacionalmente eficiente bajo la asunción que los contextos d-dimensionales son generados aleatoriamente de una distribución conocida, de forma idéntica e independiente. También proponemos un algoritmo robusto frente a errores de especificación en el caso en el que la función recompensa real es lineal con un error aditivo no lineal. Hasta nuestro conocimiento, nuestras garantías de performance constituyen los primeros resultados en este problema. También mostramos una extensión para cuando el contexto es un elemento de un espacio de hilbert con kernel reproducible.
Finalmente, consideramos una extensión del problema de las máquinas tragamonedas contextuales descrito previamente. Estudiamos el caso en el que el agente interactúa con un proceso de decisión de Markov en una secuencia de episodios, donde un adversario escoge la función recompensa y solo observamos las observaciones de las recompensas de la acción elegida. Consideramos un espacio de estados arbitrariamente grande, pero asumimos que todas las funciones de acción-valor pueden ser representadas como funciones lineales en términos de un mapa de características de baja dimensión conocido, y que el agente tiene acceso a un simulador de trayectorias en el MDP. Nuestra principal contribución es el desarrollo de los primeros algoritmos que se han probado robustos y eficientes en este problema.
+
Sequential decision making under uncertainty covers a broad class of problems.
Real-world applications require the algorithms to be computationally efficient
and scalable. We study a range of sequential learning problems, where the learner
observe only partial information about the rewards we develop the algorithms that
are robust and computationally efficient in large-scale settings.
First problem that we consider is an online influence maximization problem
in which a decision maker sequentiaonally ...
Sequential decision making under uncertainty covers a broad class of problems.
Real-world applications require the algorithms to be computationally efficient
and scalable. We study a range of sequential learning problems, where the learner
observe only partial information about the rewards we develop the algorithms that
are robust and computationally efficient in large-scale settings.
First problem that we consider is an online influence maximization problem
in which a decision maker sequentiaonally selects a node in the graph in order
to spread the information throughout the graph by placing the information in the chosen node. The available feedback is only some information about a small neighbourhood of the selected vertex. Our results show that such partial local observations can be sufficient for maximizing global influence. We propose sequential learning algorithms that aim at maximizing influence, and provide their theoretical analysis in both the subcritical and supercritical regimes of broadly
studied graph models. Thus this is the first algorithms in the sequential influence maximization setting, that perform efficiently in the graph with a huge number of nodes.
In another line of work, we study the contextual bandit problem, where the reward function is allowed to change in an adversarial manner and the learner only gets to observe the rewards associated with its actions. We assume that the number of arms is finite and the context space can be infinite. We develop a computationally efficient algorithm under the assumption that the d-dimensional
contexts are generated i.i.d. at random from a known distribution. We also propose
an algorithm that is shown to be robust to misspecification in the setting where the
true reward function is linear up to an additive nonlinear error. To our knowledge,
our performance guarantees constitute the very first results on this problem setting.
We also provide an extension when the context is an element of a reproducing kernel Hilbert space.
Finally, we consider an extension of the contextual bandit problem described
above. We study a setting where the learner interacts with a Markov decision
process in a sequence of episodes, where an adversary chooses the reward function
and the reward observations are available only for the selected action. We allow
the state space to be arbitrarily large, but we assume that all action-value functions
can be represented as linear functions in terms of a known low-dimensional feature
map, and that the learner at least has access to the simulator of the trajectories
in the MDP. Our main contributions are the first algorithms that are shown to be
robust and efficient in this problem setting.
+
Programa de doctorat en Tecnologies de la Informació i les Comunicacions