INSTITUTO TECNOLÓGICO DE PIEDRAS NEGRAS INGENIERÍA MECATRÓNICA CONTROL TEMA NO. 5 SISTEMAS DE CONTROL EN ESPACIO DE ESTADO. EFRÉN ALAMILLO MATA 14430088 LUIS ALBERTO CAMACHO AYALA 14430061 ERIK OSVALDO CASTILLÓN RODRÍGUEZ 14430011 MARCO ANTONIO CÁZARES HERNÁNDEZ 14430067 RAMIRO ZAMARRIPA RIVAS 12430099 CRISTIAN ALEXIS ZAVALA CASTRO 14430102 PROFESOR : ING. HÉCTOR JAVIER NORATO RAMOS FECHA: 05 DICIEMBRE 2016 ÍNDICE 5.1 INTRODUCCIÓN ................................................................................................................................. 3 5.2 CONVERSIÓN ENTRE FUNCIÓN DE TRANSFERENCIA Y ESPACIO DE ESTADO .................................................. 3 Representa Representaciones ciones en el espacio de estados estados de s istemas definidos por su funci ón de transferencia transferencia ...................................................................................................... 3 Transform Transform ación entre la ecuación ecuación de estado estado y una función de transferencia transferencia ...... 5 5.3 ESTABILIDAD STABILIDAD EN EL ESPACIO DE ESTADO: PUNTO DE EQUILIBRIO O PUNTO CRÍTICO ..................................... 7 5.4 CONTROLABILIDAD Y ESTABILIDAD ..................................................................................................... 10 Condición para controlabilidad compl eta del del estado en el el pl ano s ....................... 13 Controlabilidad de la salida ............................................................................................... 13 Sistema no controlable ....................................................................................................... 14 Estabilizabilidad.................................................................................................................... 14 5.5 CONTROL POR REALIMENTACIÓN DE ESTADOS ..................................................................................... 15 5.5.1 DISEÑO POR UBICACIÓN DE POLOS ............................................................................................... 18 Diseño mediante asignación asignación de polos. .......................................................................... 19 5.5.2 FÓRMULA DE ACKERMANN ......................................................................................................... 21 5.6 OBSERVABILIDAD Y DETECTABILIDAD .................................................................................................. 22 Observabilidad. ..................................................................................................................... 22 Detectibilidad. ....................................................................................................................... 23 5.7 DISEÑO DE OBSERVADORES OBSERVADORES ............................................................................................................... 25 Diseño de sistemas de control con observadores. observadores. ..................................................... 30 5.8 CONTROL INTEGRAL (CONTROL POR MODELO INTERNO)........................................................................ 36 Esquema de Control por Modelo Interno ....................................................................... 36 Control en tiempo real ........................................................................................................ 39 5.9 REGULADOR CUADRÁTICO UADRÁTICO LINEAL (LQR, LINEAR QUADRATIC REGULATOR) ............................................. 40 LQR de horizonte infinit o y tiempo contin uo ................................................................ 42 LQR de tiempo discreto y finito ................................................................................................ 43 LQR de tiempo discreto y de horizonte infinito ............................................................................ 44 2 5.1 INTRODUCCIÓN Este tema analiza los métodos de diseño en el espacio de estados basados en los métodos de asignación de polos y el regulador óptimo cuadrático. El método de asignación de polos es algo análogo al método del lugar de las raíces ya que se colocan los polos en lazo cerrado en posiciones deseadas. La diferencia básica es que el diseño en el lugar de las raíces se sitúan sólo los polos en lazo cerrado dominantes, mientras que en el diseño por asignación de polos se colocan todos los polos en lazo cerrado en las posiciones que se deseen. 5.2 CONVERSIÓN ENTRE FUNCIÓN DE TRANSFERENCIA Y ESPACIO DE ESTADO Representaciones en el espacio de estados de sistemas definidos por su función de transferencia transferencia Existen muchas técnicas para obtener representaciones en el espacio de estados de sistemas definidos por su función de transferencia. Representación en el espacio de estados en formas canónicas. Considerese un sistema definido mediante: Donde u es la entrada, y es la salida. Esta ecuación puede escribirse como: 3 A continuación continuación se presentan presentan las representaciones representaciones en el espacio de estados del sistema definido en su forma canónica controlable, contro lable, en su forma canónica observable y en su forma canónica diagonal (o de Jordan). Forma canónica controlable. La siguiente representación en el espacio de estados se denomina forma canónica controlable: La forma canónica controlable es importante cuando se analiza el método de asignación de polos para el diseño de sistemas de control. Forma canónica observable. La siguiente representación en el espacio de estados se denomina forma canónica observable: Forma canónica diagonal. La forma canónica diagonal de la represntación en el espacio de estados de este sistema viene dada por: 4 Transformación entre la ecuación d e estado y una fun ción de transferencia Consideremos la forma general de la representación de espacio de estados, la cual es también equivalente a tener una función de transferencia G(s). ̇() =() +() (1) () =() +() (2) Primero tenemos que cambiar dicha representación del dominio del tiempo al dominio de Laplace. Es posible realizar la transformación de este sistema expresado como ecuaciones de estado a una representación de función de transferencia por medio de un procedimiento simple. Consideremos el sistema dado por las ecuaciones (1) y (2) y expresemos las variables en el dominio de Laplace Y ℒ{̇()=()+()} (3) ()(0)=()+() (4) ℒ{() =() +()} (5) () =() +() (6) ()()=()+(0) (7) ()=()−()+()−(0) (8) () = ()−+() +()−(0) (9) De esto obtenemos Además, 5 De esta ecuación, vemos que el primero término representa la función de transferencia. ()= ()() =()−+ (10) El segundo término C(sI-A) -1x(0) es la respuesta de la condición inicial. Es parte de la respuesta, pero no de la función de transferencia. Además, si tomamos en cuenta que la condición inicial es x(0)=0, la ecuación anterior se reduce y se puede expresar solamente como una función de transferencia. La función de transferencia tendrá dimensión ()∈ℝ de acuerdo al número de entradas y salidas que tenga el sistema original expresado por las ecuaciones (1) y (2) Ejemplo. Representación en el espacio de estados a función de transferencia Sea [̇̇ ]=[ 00 10 01 ][]+[100] (11) ̇ 1 2 3 0 =1 0 0[] (12) {,,,} Puesto que sabemos las matrices del sistema , debemos aplicar el método para realizar la transformación de la representación en el espacio de estados a una función de transferencia. Obtengamos primero la ecuación característica (sI-A) 1 0 0 0 1 0 1 0 ()=[00 10 01][10 20 31 ]=[01 2 +13] (13) 6 ()− = () det() (14) det() = (+3) +1+2 (15) = +3 +2+1 (15) +3 1 [ (+3+3) +2 (+3 1 ) (2+1 )] +3+2 ( ) 1 +3 2 (2+1) ()− = 1 +3 2+2+1 = +3+2+1 +3+2 +3 1 1 0 0 1 (2+1) (+3) 2 () = +3 +2+1 (17) Simplificando obtenemos 10( () = +3+3+2) +2+1 (18) 5.3 ESTABILIDAD EN EL ESPACIO DE ESTADO : PUNTO DE EQUILIBRIO O PUNTO CRÍTICO Un punto de equilibrio de un sistema dinámico es estable en el sentido de Lyapunov si todas las soluciones que nacen en las cercanías del punto de equilibrio permanecen en dichas cercanías; de otra forma resulta inestable. El punto de equilibrio además es asintóticamente estable si las soluciones además de permanecer en las cercanías del mismo, tienden hacia el punto de equilibrio a medida que transcurre el tiempo. A continuación se formalizan estos conceptos. ̇ = () Donde las componentes del vector n-dimensional f(x) son continuas y además son funciones Lipschitzianas en forma local de x, definidas para todo x en el dominio en 7 Obteniendo: Se define: Entonces la ecuación (4) se convierte en: Si el sistema es de estado completamente controlable, entonces, dado cualquier estado inicial x (0), la ecuación (5) debe satisfacerse. Esto requiere que el rango de la matriz n*n sea n. De este análisis, se puede concluir la condición para controlabilidad completa del estado de la forma siguiente. El sistema obtenido mediante la ecuación (1) es de estado completamente controlable si y sólo si los vectores B, AB,..., A n-1 B son linealmente independientes, o la matriz n * n es de rango n. 12 El resultado recién obtenido se extiende al caso en el que el vector de control u es de dimensión r . Si el sistema se describe por ̇ = + Donde u es un vector de dimensión r , se demuestra que la condición para controlabilidad completa del estado es que la matriz n*nr Sea de un rango n , o que contenga n vectores columna linealmente independientes. La matriz se conoce comúnmente como matriz de controlabilidad . Condición p ara controlabilidad completa del estado en el plano s La condición para controlabilidad completa del estado se puede plantear en términos de funciones de transferencia o matrices de transferencia. Se puede demostrar que una condición necesaria y suficiente para controlabilidad completa del estado es que no ocurra una cancelación en la función de transferencia o en la matriz de transferencia. Si ocurre una cancelación, el sistema no puede controlarse en la dirección del modo cancelado. Controlabilidad de la salida En el diseño práctico de un sistema de control, se puede necesitar controlar la salida en lugar del estado del sistema. Una controlabilidad completa del estado no es condición necesaria ni suficiente para controlar la salida del sistema. Por esta razón, es conveniente definir de forma independiente la controlabilidad completa de la salida. Sea el sistema descrito mediante: ̇ = + =+ 13 Donde: X= vector de estados (vector de dimensión n). U= señal de control (escalar). A= matriz de n x n B= matriz de n x 1 C= matriz de m x n D= matriz m x r Se dice que el sistema descrito mediante las ecuaciones (6 y 7) es de salida completamente controlable si es posible construir un vector de control sin restricciones u (t) que transfiera cualquier salida inicial y (t0) a cualquier salida final y (t1) en un intervalo finito de t0 < t < t 1. Sistema no contro lable Un sistema no controlable tiene un subsistema que esta desconectado físicamente de la entrada. Estabilizabilidad Para un sistema parcialmente controlable, si los modos no controlables son estables y los modos inestables son controlables, el sistema se dice entonces que es estabilizable. Por ejemplo, el sistema definido por: No es de estado controlable. El modo estable que se corresponde con el valor propio -1 no es controlable. El modo inestable que corresponde al valor propio 1 es controlable. Este sistema se puede estabilizar mediante una realimentación adecuada. Así que este sistema es estabilizable. 14 D= constante (escalar) Se selecciona la señal de control como = Esto significa que la señal de control u se determina mediante un estado instantáneo. Tal esquema se denomina realimentación del estado. La matriz K de 1 x n se denomina matriz de ganancia de realimentación de estado. Se supone que todas las variables de estado están disponibles para su realimentación. Este sistema en lazo cerrado no tiene entradas. Su objetivo es mantener la salida a cero. Como pueden existir perturbaciones, la salida se desviará de cero. Esta salida retornará a la entrada de referencia cero debido al esquema de realimentación del estado del sistema. Un sistema de esta naturaleza en que la entrada de referencia es siempre cero se conoce como un sistema regulador. Al sustituir la ecuación anterior en la ecuación del sistema se obtiene La solución está dada por (̇ )=()() ()=(−)(0) Donde x (0) es el estado inicial provocado por perturbaciones externas. La estabilidad y las características de respuesta transistoria se determinan mediante los valor carácterísticas de la matriz A-B K . Si se elige la matriz K de forma adecuada, la matriz A-BK se convierte en una matriz asintóticamente estable y para todos los x (0) ≠0 es posible hacer que x (t) tienda a 0 conforme t tiene a infinito. Los valores propios de la matriz A-BK se denominan polos del regulador. Si estos se colocan en el semiplano iz quierdo del plano s, entonces x (t) tiende a 0 cuando t tiene a infinito. El problema de situar los polos en lazo cerrado en las posiciones deseadas se denomina problema de asignación de polos. 20 Una condición necesaria y suficiente para la colocación arbitraria de los polos es que el sistema sea de estado completamente controlable. 5.5.2 FÓRMULA DE ACKERMANN Esta fórmula permite evaluar directamente la matriz de ganancia del observador a partir de la ecuación: Siendo ,, ….. los coeficientes de la ecuación característica deseada para el observador: El diseño de la matriz de ganancia de realimentación ganancia del observador y el diseño de la matriz de , son dos problemas independientes entre si que se combinan para obtener el sistema de control con realimentación del estado observado. 21 5.6 OBSERVABILIDAD Y DETECTABILIDAD Observabilidad. Analizaremos la observabilidad de los sistemas lineales. Sea el sistema no forzado descrito mediante las ecuaciones siguientes: Donde: X = vector de estado (vector de dimensión n) Y= vector de salida (vector de dimensión m) A = matriz n × × C = matriz m m n Se dice que el sistema es completamente observable si el estado x(t o ) se determina a partir de la observación de y(t) durante un intervalo de tiempo finito, ≤ ≤ Por tanto, el sistema es completamente observable si todas las transiciones del estado afectan eventualmente a todos los elementos del vector de salida. El concepto de observabilidad es útil al resolver el problema de reconstruir variables de estado no medibles a partir de variables que sí lo son en el tiempo mínimo posible. En esta sección, se tratan sólo sistemas lineales e invariantes en el tiempo. Por tanto, sin pérdida de generalidad, se supone que =0 . El concepto de observabilidad es muy importante porque, en la práctica, la dificultad que se encuentra con el control mediante realimentación del estado es que algunas de las variables de estado no son accesibles para una medición directa, por lo que se hace necesario estimar las variables de estado no medibles para construir las señales de control. 22 La síntesis atiende a la pregunta de qué combinación de modelos del proceso, y del controlador, produce respuestas más rápidas para el control, sin dejar de cumplir con la especificación de sobrepaso máximo. La búsqueda se realiza con base en ensayos, tomados a partir de ciertos valores de los parámetros de la planta dentro del rango de incertidumbre, o en ajustar el orden del modelo del proceso para la inversión. Control en tiempo real Un sistema de tiempo real procesa la información en respuesta a estímulos de la entrada, dentro de un lapso de tiempo finito y específico. Por lo tanto, el correcto funcionamiento de un sistema de tiempo real no solamente depende de la obtención de los resultados esperados del sistema, sino también de que estos resultados se presenten en el tiempo en que deben de ser producidos. Algunos procesos requieren que la ejecución del ciclo de control se realice dentro de un límite máximo de tiempo, ya que de lo contrario podría ponerse en peligro la estabilidad y operación segura del mismo, es decir, el tiempo juega un papel crítico en una aplicación altamente determinística. En la actualidad, los sistemas de control en 39 tiempo real basados en computadora han ganado aceptación dentro del control de procesos industriales. Dichos sistemas funcionan sobre una computadora que cuente con un sistema operativo de tiempo real, donde el programador es capaz de asignar distintas prioridades a distintas tareas que corran en paralelo, y de especificar los tiempos de ejecución de cada una de estas tareas. 5.9 REGULADOR CUADRÁTICO LINEAL (LQR, LINEAR QUADRATIC REGULATOR) Hasta ahora hemos presentado métodos que construyen la ley de control como una de realimentación de estados en la que, si el sistema es controlable, los polos del sistema de lazo cerrado pueden ubicarse en cualquier locación del plano “s”. De igual forma, hemos presentado posibles ubicaciones de los polos del sistema que aseguran una respuesta temporal predeterminada. En este capıtulo presentaremos un enfoque diferente a la construcción de la ley de control, que se basa en encontrar una ley de control que minimice la suma de los esfuerzos de control y las desviaciones de la señal de salida de su valor deseado. Este problema se conoce como el de Control Optimo. La teoría del control óptimo se refiere a la operación de un sistema dinámico a un costo mínimo. El caso en el que la dinámica del sistema se describe por un conjunto de ecuaciones diferenciales lineales y el coste se describe por una función cuadrática se llama el problema LQ. Uno de los principales resultados en la teoría es que la solución es proporcionada por el regulador lineal-cuadrático (LQR), un controlador de realimentación cuyas ecuaciones se dan a continuación. El LQR es una parte importante de la solución al problema LQG (linear-quadratic-gaussian). Al igual que el problema LQR en sí, el problema LQG es uno de los problemas más fundamentales en la teoría de control. Los ajustes de un controlador (regulador) que gobierna una máquina o un proceso (como un avión o un reactor químico) se encuentran usando un algoritmo matemático que minimiza una función de coste con factores de ponderación suministrados por un humano (ingeniero). La función de coste se define a menudo como una suma de las desviaciones de las mediciones clave, la altitud deseada o 40 la temperatura del proceso, de los valores deseados. Por lo tanto, el algoritmo encuentra los ajustes del controlador que minimizan las desviaciones no deseadas. La magnitud de la acción de control en sí misma también se puede incluir en la función de coste. El algoritmo LQR reduce la cantidad de trabajo realizado por el ingeniero de sistemas de control para optimizar el controlador. Sin embargo, el ingeniero todavía necesita especificar los parámetros de la función de coste y comparar los resultados con los objetivos de diseño especificados. A menudo esto significa que la construcción del controlador será un proceso iterativo en el que el ingeniero juzga los controladores "óptimos" producidos mediante la simulación y luego ajusta los parámetros para producir un controlador más consistente con los objetivos de diseño. El algoritmo LQR es esencialmente una forma automatizada de encontrar un controlador de realimentación de estado apropiado. Como tal, no es raro que los ingenieros de control prefieran métodos alternativos, como la retroalimentación de estado completo, también conocida como colocación de polos, en la que existe una relación más clara entre los parámetros del controlador y el comportamiento del controlador. La dificultad para encontrar los factores de ponderación adecuados limita la aplicación de la síntesis de control basada en LQR. Para un sistema lineal de tiempo continuo, definido en, descrito por Con una función de coste cuadrático definida como La ley de control de retroalimentación que minimiza el valor del costo es Donde está dado por 41 La ley de control de retroalimentación que minimiza el valor del costo es Donde está dado por Y se encuentra resolviendo la ecuación algébrica de Riccati del tiempo continuo Esto también puede escribirse como Con LQR de tiempo discreto y finito Para un sistema lineal de tiempo discreto descrito por [1] Con un índice de desempeño definido como La secuencia de control óptima que minimiza el índice de rendimiento está dada por dónde Y se encuentra iterativamente hacia atrás en el tiempo por la dinámica ecuación de Riccati 43 Desde la condición terminal . Tenga en cuenta que no está definido, ya que es conducido a su estado final por. LQR de tiempo discreto y de horizonte infinito Para un sistema lineal de tiempo discreto descrito por Con un índice de desempeño definido como La secuencia de control óptima que minimiza el índice de rendimiento está dada por dónde Y es la única solución definitiva positiva a la ecuación algébrica de Riccati del tiempo discreto (DARE). Esto también puede escribirse como Con Obsérvese que una forma de resolver la ecuación algebraica de Riccati consiste en iterar la ecuación dinámica de Riccati del caso del horizonte finito hasta que converge. 44 B IBLIOGRAFÍA Ingeniería de Control Moderna- Ogata 5ª Edición. http://gama.fime.uanl.mx/~salinas/APUNTES3_CM.pdf http://uhu.es/antonio.barragan/content/23-funcion-transferencia-ecuacion-estado 45