Control adaptado de sistemas estocásticos bajo el enfoque de normas ponderadas

Autor: María Elena Martínez Manzanares
La Teoría de Control Óptimo es un área de las matemáticas aplicadas que estudia problemas de decisiones secuenciales con el objetivo de encontrar las mejores ''decisiones'' para su funcionamiento óptimo. Es decir, se tiene un sistema dinámico cuya evolución en el tiempo puede ser influenciada mediante decisiones que toma un controlador, teniendo como objetivo encontrar su comportamiento óptimo. La evolución del sistema puede ser continuo o discreto y si están inmersos factores aleatorios diremos que tenemos un sistema de control estocástico. Definiremos la política de control e índice de funcionamiento y diremos a más profundidad lo que es un Modelo de Control Markoviano. Nos centraremos en el estudio de una clase de sistemas de controles estocásticos discretos cuya evolución se describe mediante una ecuación en diferencias estocásticas que dependen de una sucesión de v.a.i.i.d. \xi con distribución común \rho. Supondremos el caso que la función de distribución \rho es desconocida y que la sucesión \xi es observable. Presentaremos un método de aproximación para \rho y definiremos optimalidad en el sentido asintótico, todo bajo un esquema de normas ponderadas