Subido por Ezequiel Jimenez

dlscrib.com sistemas-de-control-en-espacio-de-estado

Anuncio
INSTITUTO TECNOLÓGICO DE PIEDRAS NEGRAS
INGENIERÍA MECATRÓNICA
CONTROL
TEMA NO. 5
SISTEMAS DE CONTROL EN ESPACIO DE ESTADO.
EFRÉN ALAMILLO MATA 14430088
LUIS ALBERTO CAMACHO AYALA 14430061
ERIK OSVALDO CASTILLÓN RODRÍGUEZ 14430011
MARCO ANTONIO CÁZARES HERNÁNDEZ 14430067
RAMIRO ZAMARRIPA RIVAS 12430099
CRISTIAN ALEXIS ZAVALA CASTRO 14430102
PROFESOR : ING. HÉCTOR JAVIER NORATO RAMOS
FECHA: 05 DICIEMBRE 2016
ÍNDICE
5.1 INTRODUCCIÓN ................................................................................................................................. 3
5.2 CONVERSIÓN ENTRE FUNCIÓN DE TRANSFERENCIA Y ESPACIO DE ESTADO .................................................. 3
Representa
Representaciones
ciones en el espacio de estados
estados de s istemas definidos por su
funci ón de transferencia
transferencia ...................................................................................................... 3
Transform
Transform ación entre la ecuación
ecuación de estado
estado y una función de transferencia
transferencia ...... 5
5.3 ESTABILIDAD
STABILIDAD EN EL ESPACIO DE ESTADO: PUNTO DE EQUILIBRIO O PUNTO CRÍTICO ..................................... 7
5.4 CONTROLABILIDAD Y ESTABILIDAD ..................................................................................................... 10
Condición para controlabilidad compl eta del
del estado en el
el pl ano s ....................... 13
Controlabilidad de la salida ............................................................................................... 13
Sistema no controlable ....................................................................................................... 14
Estabilizabilidad.................................................................................................................... 14
5.5 CONTROL POR REALIMENTACIÓN DE ESTADOS ..................................................................................... 15
5.5.1 DISEÑO POR UBICACIÓN DE POLOS ............................................................................................... 18
Diseño mediante asignación
asignación de polos. .......................................................................... 19
5.5.2 FÓRMULA DE ACKERMANN ......................................................................................................... 21
5.6 OBSERVABILIDAD Y DETECTABILIDAD .................................................................................................. 22
Observabilidad. ..................................................................................................................... 22
Detectibilidad. ....................................................................................................................... 23
5.7 DISEÑO DE OBSERVADORES
OBSERVADORES ............................................................................................................... 25
Diseño de sistemas de control con observadores.
observadores. ..................................................... 30
5.8 CONTROL INTEGRAL (CONTROL POR MODELO INTERNO)........................................................................ 36
Esquema de Control por Modelo Interno ....................................................................... 36
Control en tiempo real ........................................................................................................ 39
5.9 REGULADOR CUADRÁTICO
UADRÁTICO LINEAL (LQR, LINEAR QUADRATIC REGULATOR) ............................................. 40
LQR de horizonte infinit o y tiempo contin uo ................................................................ 42
LQR de tiempo discreto y finito ................................................................................................ 43
LQR de tiempo discreto y de horizonte infinito ............................................................................ 44
2
5.1 INTRODUCCIÓN
Este tema analiza los métodos de diseño en el espacio de estados basados en los
métodos de asignación de polos y el regulador óptimo cuadrático. El método de
asignación de polos es algo análogo al método del lugar de las raíces ya que se
colocan los polos en lazo cerrado en posiciones deseadas. La diferencia básica es
que el diseño en el lugar de las raíces se sitúan sólo los polos en lazo cerrado
dominantes, mientras que en el diseño por asignación de polos se colocan todos los
polos en lazo cerrado en las posiciones que se deseen.
5.2 CONVERSIÓN ENTRE FUNCIÓN DE TRANSFERENCIA Y ESPACIO DE ESTADO
Representaciones en el espacio de estados de sistemas definidos por su
función de transferencia
transferencia
Existen muchas técnicas para obtener representaciones en el espacio de estados
de sistemas definidos por su función de transferencia.
Representación en el espacio de estados en formas canónicas.
Considerese un sistema definido mediante:
Donde u es la entrada, y es la salida. Esta ecuación puede escribirse como:
3
A continuación
continuación se presentan
presentan las representaciones
representaciones en el espacio de estados del
sistema definido en su forma canónica controlable,
contro lable, en su forma canónica observable
y en su forma canónica diagonal (o de Jordan).
Forma canónica controlable. La siguiente representación en el espacio de estados
se denomina forma canónica controlable:
La forma canónica controlable es importante cuando se analiza el método de
asignación de polos para el diseño de sistemas de control.
Forma canónica observable. La siguiente representación en el espacio de estados
se denomina forma canónica observable:
Forma canónica diagonal. La forma canónica diagonal de la represntación en el
espacio de estados de este sistema viene dada por:
4
Transformación entre la ecuación d e estado y una fun ción de transferencia
Consideremos la forma general de la representación de espacio de estados, la cual
es también equivalente a tener una función de transferencia G(s).
̇() =() +() (1)
() =() +() (2)
Primero tenemos que cambiar dicha representación del dominio del tiempo al
dominio de Laplace.
Es posible realizar la transformación de este sistema expresado como ecuaciones
de estado a una representación de función de transferencia por medio de un
procedimiento simple.
Consideremos el sistema dado por las ecuaciones (1) y (2) y expresemos las
variables en el dominio de Laplace
Y
ℒ{̇()=()+()} (3)
()(0)=()+() (4)
ℒ{() =() +()} (5)
() =() +() (6)
()()=()+(0) (7)
()=()−()+()−(0) (8)
() = ()−+() +()−(0) (9)
De esto obtenemos
Además,
5
De esta ecuación, vemos que el primero término representa la función de
transferencia.
()= ()() =()−+ (10)
El segundo término C(sI-A) -1x(0) es la respuesta de la condición inicial. Es parte de
la respuesta, pero no de la función de transferencia.
Además, si tomamos en cuenta que la condición inicial es x(0)=0, la ecuación
anterior se reduce y se puede expresar solamente como una función de
transferencia.
La función de transferencia tendrá dimensión
()∈ℝ
de acuerdo al número de
entradas y salidas que tenga el sistema original expresado por las ecuaciones (1) y
(2)
Ejemplo.
Representación en el espacio de estados a función de transferencia
Sea
[̇̇ ]=[ 00 10 01 ][]+[100] (11)
̇ 1 2 3  0


=1 0 0[] (12)
{,,,}
Puesto que sabemos las matrices del sistema
, debemos aplicar el
método para realizar la transformación de la representación en el espacio de
estados a una función de transferencia.
Obtengamos primero la ecuación característica (sI-A)
1
0
0
0
1
0

1
0
()=[00 10 01][10 20 31 ]=[01 2  +13] (13)
6
()− = ()
det() (14)
det() = (+3) +1+2 (15)
= +3 +2+1 (15)
+3
1
[ (+3+3) +2 (+3
1 ) (2+1
 )]  +3+2
(
)
1

+3
2


(2+1) 
()− = 1  +3 2+2+1  =  +3+2+1
 +3+2 +3 1

1 0 0  1 (2+1)
(+3) 2
() =  +3 +2+1
(17)
Simplificando obtenemos

10(
() =  +3+3+2)
 +2+1 (18)
5.3 ESTABILIDAD EN EL ESPACIO DE ESTADO : PUNTO DE EQUILIBRIO O PUNTO
CRÍTICO
Un punto de equilibrio de un sistema dinámico es estable en el sentido de Lyapunov
si todas las soluciones que nacen en las cercanías del punto de equilibrio
permanecen en dichas cercanías; de otra forma resulta inestable. El punto de
equilibrio además es asintóticamente estable si las soluciones además de
permanecer en las cercanías del mismo, tienden hacia el punto de equilibrio a
medida que transcurre el tiempo. A continuación se formalizan estos conceptos.
̇ = ()
Donde las componentes del vector n-dimensional f(x) son continuas y además son
funciones Lipschitzianas en forma local de x, definidas para todo x en el dominio en
7
Obteniendo:
Se define:
Entonces la ecuación (4) se convierte en:
Si el sistema es de estado completamente controlable, entonces, dado cualquier
estado inicial x (0), la ecuación (5) debe satisfacerse. Esto requiere que el rango de
la matriz n*n sea n.
De este análisis, se puede concluir la condición para controlabilidad completa del
estado de la forma siguiente. El sistema obtenido mediante la ecuación (1) es de
estado completamente controlable si y sólo si los vectores B, AB,..., A n-1 B son
linealmente independientes, o la matriz n * n es de rango n.
12
El resultado recién obtenido se extiende al caso en el que el vector de control u es
de dimensión r . Si el sistema se describe por
̇ = +
Donde u es un vector de dimensión r , se demuestra que la condición para
controlabilidad completa del estado es que la matriz n*nr
Sea de un rango n , o que contenga n vectores columna linealmente independientes.
La matriz se conoce comúnmente como matriz de controlabilidad .
Condición p ara controlabilidad completa del estado en el plano s
La condición para controlabilidad completa del estado se puede plantear en
términos de funciones de transferencia o matrices de transferencia.
Se puede demostrar que una condición necesaria y suficiente para controlabilidad
completa del estado es que no ocurra una cancelación en la función de transferencia
o en la matriz de transferencia. Si ocurre una cancelación, el sistema no puede
controlarse en la dirección del modo cancelado.
Controlabilidad de la salida
En el diseño práctico de un sistema de control, se puede necesitar controlar la salida
en lugar del estado del sistema. Una controlabilidad completa del estado no es
condición necesaria ni suficiente para controlar la salida del sistema. Por esta razón,
es conveniente definir de forma independiente la controlabilidad completa de la
salida. Sea el sistema descrito mediante:
̇ = +
=+
13
Donde:
X= vector de estados (vector de dimensión n).
U= señal de control (escalar).
A= matriz de n x n
B= matriz de n x 1
C= matriz de m x n
D= matriz m x r
Se dice que el sistema descrito mediante las ecuaciones (6 y 7) es de salida
completamente controlable si es posible construir un vector de control sin
restricciones u (t) que transfiera cualquier salida inicial y (t0) a cualquier salida final
y (t1) en un intervalo finito de t0 < t < t 1.
Sistema no contro lable
Un sistema no controlable tiene un subsistema que esta desconectado físicamente
de la entrada.
Estabilizabilidad
Para un sistema parcialmente controlable, si los modos no controlables son estables
y los modos inestables son controlables, el sistema se dice entonces que es
estabilizable. Por ejemplo, el sistema definido por:
No es de estado controlable. El modo estable que se corresponde con el valor propio
-1 no es controlable. El modo inestable que corresponde al valor propio 1 es
controlable. Este sistema se puede estabilizar mediante una realimentación
adecuada. Así que este sistema es estabilizable.
14
D= constante (escalar)
Se selecciona la señal de control como
=
Esto significa que la señal de control u se determina mediante un estado
instantáneo. Tal esquema se denomina realimentación del estado. La matriz K de 1
x n se denomina matriz de ganancia de realimentación de estado. Se supone que
todas las variables de estado están disponibles para su realimentación.
Este sistema en lazo cerrado no tiene entradas. Su objetivo es mantener la salida a
cero. Como pueden existir perturbaciones, la salida se desviará de cero. Esta salida
retornará a la entrada de referencia cero debido al esquema de realimentación del
estado del sistema. Un sistema de esta naturaleza en que la entrada de referencia
es siempre cero se conoce como un sistema regulador.
Al sustituir la ecuación anterior en la ecuación del sistema se obtiene
La solución está dada por
(̇ )=()()
()=(−)(0)
Donde x (0) es el estado inicial provocado por perturbaciones externas. La
estabilidad y las características de respuesta transistoria se determinan mediante
los valor carácterísticas de la matriz A-B K . Si se elige la matriz K de forma
adecuada, la matriz A-BK se convierte en una matriz asintóticamente estable y para
todos los x (0) ≠0 es posible hacer que x (t) tienda a 0 conforme t tiene a infinito. Los
valores propios de la matriz A-BK se denominan polos del regulador. Si estos se
colocan en el semiplano iz quierdo del plano s, entonces x (t) tiende a 0 cuando t
tiene a infinito. El problema de situar los polos en lazo cerrado en las posiciones
deseadas se denomina problema de asignación de polos.
20
Una condición necesaria y suficiente para la colocación arbitraria de los polos es
que el sistema sea de estado completamente controlable.
5.5.2 FÓRMULA DE ACKERMANN
Esta fórmula permite evaluar directamente la matriz de ganancia del observador
a partir de la ecuación:
Siendo
,, …..

los coeficientes de la ecuación característica deseada para el
observador:
El diseño de la matriz de ganancia de realimentación
ganancia del observador


y el diseño de la matriz de
, son dos problemas independientes entre si que se
combinan para obtener el sistema de control con realimentación del estado
observado.
21
5.6 OBSERVABILIDAD Y DETECTABILIDAD
Observabilidad.
Analizaremos la observabilidad de los sistemas lineales. Sea el sistema no forzado
descrito mediante las ecuaciones siguientes:
Donde:
X = vector de estado (vector de dimensión n)
Y= vector de salida (vector de dimensión m)
A = matriz n
×
×
C = matriz m
m
n
Se dice que el sistema es completamente observable si el estado x(t o ) se determina
a partir de la observación de y(t) durante un intervalo de tiempo finito,
 ≤ ≤ 
Por tanto, el sistema es completamente observable si todas las transiciones del
estado afectan eventualmente a todos los elementos del vector de salida. El
concepto de observabilidad es útil al resolver el problema de reconstruir variables
de estado no medibles a partir de variables que sí lo son en el tiempo mínimo
posible. En esta sección, se tratan sólo sistemas lineales e invariantes en el tiempo.
Por tanto, sin pérdida de generalidad, se supone que
 =0
.
El concepto de observabilidad es muy importante porque, en la práctica, la dificultad
que se encuentra con el control mediante realimentación del estado es que algunas
de las variables de estado no son accesibles para una medición directa, por lo que
se hace necesario estimar las variables de estado no medibles para construir las
señales de control.
22
La síntesis atiende a la pregunta de qué combinación de modelos del proceso, y del
controlador, produce respuestas más rápidas para el control, sin dejar de cumplir
con la especificación de sobrepaso máximo. La búsqueda se realiza con base en
ensayos, tomados a partir de ciertos valores de los parámetros de la planta dentro
del rango de incertidumbre, o en ajustar el orden del modelo del proceso para la
inversión.
Control en tiempo real
Un sistema de tiempo real procesa la información en respuesta a estímulos de la
entrada, dentro de un lapso de tiempo finito y específico. Por lo tanto, el correcto
funcionamiento de un sistema de tiempo real no solamente depende de la obtención
de los resultados esperados del sistema, sino también de que estos resultados se
presenten en el tiempo en que deben de ser producidos. Algunos procesos
requieren que la ejecución del ciclo de control se realice dentro de un límite máximo
de tiempo, ya que de lo contrario podría ponerse en peligro la estabilidad y
operación segura del mismo, es decir, el tiempo juega un papel crítico en una
aplicación altamente determinística. En la actualidad, los sistemas de control en
39
tiempo real basados en computadora han ganado aceptación dentro del control de
procesos industriales. Dichos sistemas funcionan sobre una computadora que
cuente con un sistema operativo de tiempo real, donde el programador es capaz de
asignar distintas prioridades a distintas tareas que corran en paralelo, y de
especificar los tiempos de ejecución de cada una de estas tareas.
5.9 REGULADOR CUADRÁTICO LINEAL (LQR, LINEAR QUADRATIC REGULATOR)
Hasta ahora hemos presentado métodos que construyen la ley de control como una
de realimentación de estados en la que, si el sistema es controlable, los polos del
sistema de lazo cerrado pueden ubicarse en cualquier locación del plano “s”. De
igual forma, hemos presentado posibles ubicaciones de los polos del sistema que
aseguran una respuesta temporal predeterminada. En este capıtulo presentaremos
un enfoque diferente a la construcción de la ley de control, que se basa en encontrar
una ley de control que minimice la suma de los esfuerzos de control y las
desviaciones de la señal de salida de su valor deseado. Este problema se conoce
como el de Control Optimo.
La teoría del control óptimo se refiere a la operación de un sistema dinámico a un
costo mínimo. El caso en el que la dinámica del sistema se describe por un conjunto
de ecuaciones diferenciales lineales y el coste se describe por una función
cuadrática se llama el problema LQ. Uno de los principales resultados en la teoría
es que la solución es proporcionada por el regulador lineal-cuadrático (LQR), un
controlador de realimentación cuyas ecuaciones se dan a continuación. El LQR es
una parte importante de la solución al problema LQG (linear-quadratic-gaussian). Al
igual que el problema LQR en sí, el problema LQG es uno de los problemas más
fundamentales en la teoría de control.
Los ajustes de un controlador (regulador) que gobierna una máquina o un proceso
(como un avión o un reactor químico) se encuentran usando un algoritmo
matemático que minimiza una función de coste con factores de ponderación
suministrados por un humano (ingeniero). La función de coste se define a menudo
como una suma de las desviaciones de las mediciones clave, la altitud deseada o
40
la temperatura del proceso, de los valores deseados. Por lo tanto, el algoritmo
encuentra los ajustes del controlador que minimizan las desviaciones no deseadas.
La magnitud de la acción de control en sí misma también se puede incluir en la
función de coste.
El algoritmo LQR reduce la cantidad de trabajo realizado por el ingeniero de
sistemas de control para optimizar el controlador. Sin embargo, el ingeniero todavía
necesita especificar los parámetros de la función de coste y comparar los resultados
con los objetivos de diseño especificados. A menudo esto significa que la
construcción del controlador será un proceso iterativo en el que el ingeniero juzga
los controladores "óptimos" producidos mediante la simulación y luego ajusta los
parámetros para producir un controlador más consistente con los objetivos de
diseño.
El algoritmo LQR es esencialmente una forma automatizada de encontrar un
controlador de realimentación de estado apropiado. Como tal, no es raro que los
ingenieros de control prefieran métodos alternativos, como la retroalimentación de
estado completo, también conocida como colocación de polos, en la que existe una
relación más clara entre los parámetros del controlador y el comportamiento del
controlador. La dificultad para encontrar los factores de ponderación adecuados
limita la aplicación de la síntesis de control basada en LQR.
Para un sistema lineal de tiempo continuo, definido en, descrito por
Con una función de coste cuadrático definida como
La ley de control de retroalimentación que minimiza el valor del costo es
Donde está dado por
41
La ley de control de retroalimentación que minimiza el valor del costo es
Donde está dado por
Y se encuentra resolviendo la ecuación algébrica de Riccati del tiempo continuo
Esto también puede escribirse como
Con
LQR de tiempo discreto y finito
Para un sistema lineal de tiempo discreto descrito por [1]
Con un índice de desempeño definido como
La secuencia de control óptima que minimiza el índice de rendimiento está dada
por
dónde
Y se encuentra iterativamente hacia atrás en el tiempo por la dinámica ecuación
de Riccati
43
Desde la condición terminal
. Tenga en cuenta que no está definido, ya
que es conducido a su estado final por.
LQR de tiempo discreto y de horizonte infinito
Para un sistema lineal de tiempo discreto descrito por
Con un índice de desempeño definido como
La secuencia de control óptima que minimiza el índice de rendimiento está dada por
dónde
Y es la única solución definitiva positiva a la ecuación algébrica de Riccati del tiempo
discreto (DARE).
Esto también puede escribirse como
Con
Obsérvese que una forma de resolver la ecuación algebraica de Riccati consiste en
iterar la ecuación dinámica de Riccati del caso del horizonte finito hasta que
converge.
44
B IBLIOGRAFÍA
Ingeniería de Control Moderna- Ogata 5ª Edición.
http://gama.fime.uanl.mx/~salinas/APUNTES3_CM.pdf
http://uhu.es/antonio.barragan/content/23-funcion-transferencia-ecuacion-estado
45
Descargar