Análisis numérico de sistemas no lineales

Anuncio
Análisis numérico
de sistemas no lineales
Índice
1. Introducción.
2. El 2o método de Lyapunov.
3. El 1er método de Lyapunov.
4. Teorı́a de catástrofes.
5. Teorı́a de singularidades.
6. Métodos de continuación.
7. Bifurcaciones locales de puntos de equilibrio.
8. Ciclos lı́mite.
9. Perturbación, promediado y perturbación singular.
10. Bifurcaciones locales de sistemas en tiempo discreto.
11. Caos determinista.
12. Sistemas hamiltonianos.
Introducción
Una gran parte de la actividad ingenieril consiste en observar la evolución de las cosas a lo
largo del tiempo. Matemáticamente, se estudian sistemas dinámicos.
3
Introducción
Por ejemplo, sea el circuito
descrito por la ecuación diferencial:
RC
dV
+V = E
dt
V (0) = V0
4
Introducción
Alternativamente, el comportamiento del circuito se puede describir mediante la solución
de la ecuación diferencial:
t
− RC
V (t) = E + (V0 − E)e
5
Introducción
O sea una cuenta bancaria
ptas(k + 1) = (1 + r)ptas(k)
ptas(0) = ptas0
6
Introducción
Una forma alternativa de expresar este sistema
es por su solución:
ptas(k) = (1 + r)k ptas0
7
Introducción
La solución es lo importante Se deine un
sistema dinámico como una aplicación Φ
Φ
X ×I →X
con
• X algún conjunto.
• I un conjunto dotado de un orden completo
(normalmente < o Z): el tiempo.
8
Introducción
Por ejemplo:
• En el circuito, X = < e I = <. Φ(x, t) =
t ).
E + (x − E) exp(− RC
• En el banco, X = < e I = Z +. Φ(x, t) =
(1 + r)tx.
9
Introducción
Diferentes selecciones de X e I conducen a
diferentes tipos de sistemas dinámicos:
• X = <n e I ∈ <: sistemas diferenciales.
• X = <n e I ∈ Z: sistemas en diferencias.
• X una variedad algebraica de <n e I ∈ <:
sistemas algebraicos-diferenciales.
• X ∈ N e I ∈ Z: autómatas celulares.
• X ∈ C k e I ∈ <: algunas ecuaciones en
derivadas parciales.
• ...
10
Introducción
Dos términos muy usados:
• Φ se llama el flujo.
• Una función particular de I a X definida
por Φ(x0, t), para un x0 concreto, se llama
la trayectoria u órbita de x0.
11
Introducción
La definición que hemos dado supone que los
sistemas estudiados son independientes del tiempo. En el caso más general se tiene un flujo
Φ(x, t, t0). El caso independiente del tiempo
corresponde a
Φ(x, t, t0) = Φ(x, t − t0)
12
Introducción
La anterior restricción no es seria, en el sentido de que se puede suspender un sistema
dependiente del tiempo en uno independiente
añadiendo la ecuación de estado
dt
=1
dt
13
Introducción
Supongamos que existe un x∗ que verifica:
Φ(x∗, t) = x∗ ∀t ∈ I
es un punto de equilibrio del sistema.
14
Introducción
Es posible dar otras caracterizaciones de los
puntos de equilibrio para tipos de sistemas dinámicos
particulares. Por ejemplo:
• Sistemas diferenciales ẋ = f (x, t): f (x∗, t) =
0.
• Sistemas en diferencias xk+1 = f (xk , k):
f (x∗, k) = x∗
15
Introducción
Una trayectoria que una dos puntos de equilibrio se llama una órbita heteroclı́nica. Una
órbita que una un punto de equilibrio consigo
mismo se llama una órbita homoclı́nica.
16
Introducción
Por ejemplo, consideremos el modelo de crecimiento de algas en un pantano:
ut = uxx + ζu(1 − u)
Esta ecuación tiene dos soluciones estacionarias
u = 0, 1
17
Introducción
Supongamos que buscamos una solución en
forma de onda:
u(x, t) = U (x − ct)
Substituyendo en la EDP
Ü + cU̇ + ζU (1 − U ) = 0
18
Introducción
La ecuación anterior es una ecuación diferencial con dos puntos de equilibrio
(U, U̇ ) = (0, 0), (1, 0)
El retrato de fases es
Las órbitas heteroclı́nicas representan ondas
que transforman un estado en otro.
19
Introducción
Desde un punto de vista más general, se llaman
conjuntos invariantes a aquellos conjuntos S ∈
X que verifican:
Φ(S, t) = S
20
Introducción
Si S es una trayectoria periódica que no es un
punto de equilibrio, es un ciclo lı́mite.
21
Introducción
Por ejemplo, consideremos el oscilador de van
der Pol
dvc
= −20il
dt
dil
1 3
= 0.05(vc − ( il − il ))
dt
3
22
Introducción
El retrato de fase es
23
Introducción
Si se dota a X de una noción de proximidad, es
decir, de una topologı́a, se pueden hacer cosas
interesantes.
24
Introducción
Se supone que se tiene una distancia (una métrica)
sobre X. Se recuerdan las siguientes definiciones:
• Una -bola de un punto x0 ∈ X es el conjunto de puntos x que verifican d(x, x0) < .
• Un conjunto abierto es un conjunto que no
contiene su frontera (más o menos).
• Un entorno de x0 es un abierto que contiene una bola de x0.
• Un entorno de un conjunto es un abierto
que contiene a una bola de cada uno de los
puntos que lo forman.
25
Introducción
Decimos que un conjunto invariante S es un
atractor cuando
• Existe algun entorno V de S tal que todas
las trayectorias Φ(x, t) que comienzan en V
permanecen en V ∀t > t0.
• Dado un punto x0 ∈ S con una -bola B,
cualquiera de las trayectorias anteriores pasa
infinitas veces por B.
26
Introducción
El dominio de atracción es el conjunto de
puntos x ∈ X que tienden al atractor.
27
Introducción
Sea S un conjunto invariante.
(manifold) estable local de S es
La variedad
s (S) = {x ∈ V | Φ(x, t) → S si t → ∞,
Wloc
Φ(x, t) ∈ V ∀t > 0}
siendo V un entorno de S.
El inestable es
u (S) = {x ∈ V | Φ(x, t) → S si t → −∞,
Wloc
Φ(x, t) ∈ V ∀t < 0}
28
Introducción
Las veriedades estables e inestables globales se
obtienen como
s (S), t)
W s(S) = ∪t≤0Φ(Wloc
u (S), t)
W u(S) = ∪t≥0Φ(Wloc
29
Introducción
En el caso de un sistema diferencial lineal ẋ =
Ax las variedades W s y W u del origen son los
subespacios E s y E u generados por los autovalores con parte real negativa y positiva respectivamente.
30
Introducción
En el caso de un sistema en diferencias lineal
xk+1 = Axk las variedades W s y W u del origen
son los subespacios E s y E u generados por los
autovalores con módulo mayor y menor que 1
respectivamente.
31
Introducción
Consideremos un sistema diferencial no lineal
ẋ = f (x). Sea x∗ un punto de equilibrio. Sea
∆x = x − x∗. El sistema linealizado es
∆ẋ = fx∆x
32
Introducción
Se demuestra que los subespacios E s y E u del
sistema linealizado son tangentes en el punto
de equilibrio a las variedades W s y W u del sistema sin linealizar.
33
Introducción
Si el sistema linealizado tiene autovalores de
parte real nula y su subespacio asociado E c,
nada puede decirse de la dinámica de la estabilidad de la dinámica en variedades tangentes
a este subespacio. Por ejemplo,
ẋ = ±x2
ẏ = −1
34
Introducción
Los mismos resultados son válidos para sistemas en diferencias en vez de diferenciales.
35
Introducción
Consideremos ahora dos flujos Φ1 y Φ2 sobre el mismo espacio X. Nos gustarı́a saber
cuando los dos flujos son cualitativamente iguales: conjugados.
36
Introducción
Dos flujos son conjugados cuando existe una
biyección continua (un homeomorfismo) y una
función estrictamente creciente t2 = T (t1) que
hacen conmutativo el diagrama:
X
↓h
X
Φ1 (.,t1 )
→
Φ2 (.,t2 )
→
X
↓h
X
37
Introducción
Dos sistemas lineales ẋ = A1x y ẋ = A2x son
conjugados si A1 y A2 tienen el mismo número
de autovalores con la parte real negativa y el
mismo de autovalores con la parte real positiva.
38
Introducción
Considérese el sistema en <2
ẋ = Ax
donde A tiene dos valores reales distintos λ1
y λ2. Es sabido entonces que A admite una
factorización:
A = V −1
"
λ1 0
0 λ2
#
V = V −1ΛV
39
Introducción
El sistema ẋ1 = Ax1 es conjugado con ẋ2 =
Λx2 sin más que considerar como función T la
identidad ( t1 = t2 ) y como homeomorfismo
h la aplicación lineal x2 = V x1
40
Introducción
Ahora, si se supone que λ1,2 < 0 el sistema 2
es conjugado con
"
ẋ3 =
1
−λ
λ2
0
0
−1
#
x3
sin más que considerar como homeomorfismo
la identidad y como función T la función monótona creciente t2 = − λ1 t1.
2
41
Introducción
1
Defı́nase α = λ
λ2 . El flujo del sistema 3 es una
función lineal dada por la matriz de transición
"
x3(t) = Φ3(t)x3(0) =
exp(−αt)
0
0
exp(−t)
42
#
x3(0)
Introducción
Considerese ahora el sistema 4 dado por ẋ4 =
−I x4, donde I es la matriz identidad. Su flujo
viene dado por
x4(t) = Φ4(t)x4(0) = exp(−t)x4(0)
Entonces, los sistemas 3 y 4 son conjugados
si se consideran como función T la identidad y
como homeomorfismo h:
"
h(x) =
signo(x(1)) | x(1) |α
#
x(2)
43
Introducción
En efecto, es fácil comprobar que
(Φ3 ◦ h)(x) = (h ◦ Φ4)(x)
donde ◦ indica la composición de funciones.
Nótese que h es continúa en el origen si y solo
si α > 0, por lo que si α < 0 no es ni siquiera
un homemorfismo.
44
Introducción
Considérese ahora un quinto sistema definido
por
"
ẋ5 =
−1 1
−1 −1
#
x5
Su flujo viene ahora dado por:
x5(t) = Φ5(t)x5(0)
"
#
cos(t) sin(t)
= exp(−t)
x5(0)
− sin(t) cos(t)
45
Introducción
Es fácil ahora comprobar que el homeomorfismo dado por:
"
h(x) =
cos(ln || x ||) sin(ln || x ||)
− sin(ln || x ||) cos(ln || x ||)
#"
x(1)
x(2)
#
verifica
(Φ4 ◦ h)(x) = (h ◦ Φ5)(x)
Nótese que h tiene una discontinuidad evitable
en el origen, y no es allı́ diferenciable.
46
Introducción
Puede procederse de manera análoga para comprobar que Φ5 es conjugado a todos los sistemas lineales oscilatorios con autovalores de
parte real negativa.
47
Introducción
Consideremos ahora un conjunto de objetos Oλ
dependientes de forma continua de parámetros
λ, que viven en algún espacio topológico. Supongamos que existe también una relación de
equivalencia R entre los objetos O. Si para un
valor λ0 existe un vecindad V, tal que todos los
Oλ para λ ∈ V tienen la relación R con Oλ0 , se
dice que Oλ0 no es una bifurcación.
48
Introducción
Dos casos importantes
• O son flujos dependientes de parámetros
Φλ(x, t) y R es la relación de conjugación.
• O son sistemas de ecuaciones no lineales
fλ(x) = 0 y R es el tener el mismo número
de soluciones.
49
Introducción
Consideremos un determinado diagrama de difurcación. Si el diagrama permanece cualitativamente igual para pequeñas variaciones en
el modelo (es decir, substituir, p. ej., Φλ(x, t)
por Φλ(x, t) + δΦλ(x, t)) se dice que el modelo
es estructuralmente estable.
50
Introducción
Por ejemplo, consideremos el modelo de este
sistema fı́sico
51
Introducción
El hamiltoniano del sistema es:
1
1 2
K(l − l0)2 +
pθ
2
2I
h
1
=
K (L2 + (L + l0 − d)2−
2
H =
2L(L + l0 −
1
d) cos θ) 2
− l0
2
1 2
pθ
2I
= Hd(θ, pθ )
+
Y las ecuaciones del movimiento
dθ
∂H
=
dt
∂pθ
dpθ
∂H
= −
dt
∂θ
52
Introducción
Centrémonos en los puntos de equilibrio
∂H
∂pθ
∂H
0 = −
∂θ
0 =
De la primera ecuación se sigue
p∗θ = 0
Substituyendo en la segunda
1 K(l − l )2
d2
dU
0
=
=0
dθ
dθ
53
Introducción
Haciendo la derivada
dl
dθ
dl dl2
= K(l − l0) 2
dl dθ
1
= K(l − l0) 2L(L + l0 − d) sin θ
2l
0 = K(l − l0)
Hay dos soluciones
θ = 0
l(θ) = l0
54
Introducción
De la segunda solución se obtiene
2 = L2 + (L + l − d)2 − 2L(L + l − d) cos θ
l0
0
0
Luego
2
(L + l0 − d)2 + L2 − l0
cos θ =
2L(L + l0 − d)
Por supuesto, | cos θ |≤ 1. Es fácil comprobar
que para d = 0 , cos θ = 1. Si d > 0, cos θ < 1,
y si d < 0, cos θ > 1.
55
Introducción
En resumen:
• Si d > 0 existen tres soluciones: θ = 0 y
las dos dadas por cos θ = . . ..
• Si d < 0 sólo hay una solución: θ = 0.
56
Introducción
Toda esta información la podemos resumir en
el diagrama de bifurcación:
57
Introducción
Supongamos que consideramos el peso de la
barra M g. El hamiltoniano será ahora:
1
1 2
1
2
p
H = (l − l0) + M gL sin θ +
2
2
2I θ
y procedamos como antes.
58
Introducción
El diagrama de bifurcación es ahora
Ası́ pues, el problema original no tenı́a estabilidad estructural.
59
El 2o método de Lyapunov
Sea un sistema diferencial
ẋ = f (x)
Supongamos que existe una función escalar
V (x) que verifica
• V está inferiormente acotada: V > V0.
• Si x0 no es un punto de equilibrio, dV
dt (x0 ) <
0.
Entonces V es una función de Lyapunov.
60
El 2o método de Lyapunov
Si un sistema tiene una función de Lyapunov,
entonces no tiene más atractores que puntos
de equilibrio.
En efecto, la variación de V se puede escribir
dV
dt
=
X ∂V dxi
i ∂ xi dt
= ∇V.f
Por tanto, es un punto de equilibrio dV
dt = 0,
y en un punto de no equilibrio dV
dt < 0. No
puede haber ciclos lı́mites, porque si x1 y x2
son dos puntos del ciclo, se tendrı́a V (x1) >
V (x2) > V (x1). Tampoco puede haber toros
invariantes o otros atractores por parecidas razones.
61
El 2o método de Lyapunov
Por ejemplo, consideremos el sistema
ẋ1 = −2x1 − x2
2
ẋ2 = −x2 − x1x2
Y escojamos
2
V = x2
1 + x2 ≥ 0
62
El 2o método de Lyapunov
Es fácil comprobar que
2
V̇ = −4x2
1 − 2x2 ≤ 0
V̇ = 0 si y solo si x1 = x2 = 0. Ası́ pues el
único atractor del sistema es el origen.
Por otra parte, V tiende a ∞ cuando | x |→
∞. Por tanto, todas la órbitas permanecen
acotadas, y el origen es un atractor global.
63
El 2o método de Lyapunov
Por esto a veces se exige además que V → ∞
cuando | x |→ ∞, para asegurar convergencia
a algún punto de equilibrio.
64
El 2o método de Lyapunov
Aunque los sistemas que tienen funciones de
Lyapunov son limitados, existen unos cuantos
en que han de existir por razones fı́sicas. Por
ejemplo . . .
65
El 2o método de Lyapunov
Sistemas de gradiente
ẋ = −∇V (x)
Se tiene
dV
dt
= ẋT ∇V (x)
= −(∇V )2
< 0
66
El 2o método de Lyapunov
Sistemas hamiltonianos con rozamiento
∂H
∂pi
∂F
∂H
−
p˙i = −
∂qi
∂pi
q˙i =
siendo F la función de disipación. Es fácil comprobar que
X ∂F ∂H
dH
=−
dt
i ∂pi ∂pi
Se puede comprobar que el segundo término
es negativo, pues F se opone al movimiento,
luego H es una función de Lyapunov.
67
El 2o método de Lyapunov
Consideremos un péndulo no lineal
1 2
H(θ, pθ ) =
pθ − mgl cos θ
2I
1 2
Dp
F =
2 θ
Luego
dH
D
= − p2
θ <0
dt
I
68
El 2o método de Lyapunov
Estas mismas ideas se pueden aplicar a sistemas en diferencias xk+1 = f (xk ). Entonces
V (x) es función de Lyapunov si
• V está inferiormente acotada.
• V (xk+1) < V (xk ) si xk no es punto de equilibrio.
69
El 2o método de Lyapunov
Por ejemplo, f puede ser un algoritmo de optimización, xk el valor de las variables en cada
iteración, y V la función objetivo.
70
El 2o método de Lyapunov
En general, la teorı́a de Lyapunov se aplica relajando alguna de las condiciones; o añadiendo
condiciones nuevas (como todas las cosas relevantes, es una idea, no una receta). Por ejemplo, supongamos que encontramos un punto
de equilibrio x∗, una función V , y un dominio
D que verifican:
• V , inferiormente acotada, tiene un mı́nimo
en D para x = x∗.
• Dentro de D \ x∗, se cumple dV
dt < 0.
• La frontera de lal dominio ∂D coincide con
alguna curva de nivel de V .
Entonces D ∈ el dominio de atracción de x∗
71
El 2o método de Lyapunov
Consideremos de nuevo el oscilador de van der
Pol
dvc
= −20il
dt
1
dil
= 0.05(vc − ( i3
l − il ))
dt
3
Sabemos que este sistema tiene en el origen
un foco inestable y un ciclo lı́mite estable.
72
El 2o método de Lyapunov
Si cambio t por −t el foco inestable se convierte en estable. Su dominio de atracción es
ahora un ciclo lı́mite inestable. Consideremos
ese sistema:
dvc
= 20il
dt
dil
1 3
= −0.05(vc − ( il − il ))
dt
3
73
El 2o método de Lyapunov
Consideremos la función de Lyapunov
V = vc2 + 400i2
l
Se comprueba que
dV
1 2
2
= 800il ( il − 1)
dt
3
Ası́ pues
dV
< 0 si i2
l <3
dt
74
El 2o método de Lyapunov
Si se escoge
V = vc2 + 400i2
l < 1200
se cumple la desigualdad del dominio anterior. Por lo tanto, el dominio D dado por esta
curva de nivel debe pertenecer al dominio de
atracción del origen. Como el dominio real esta
definido por el ciclo lı́mite, este debe estar por
fuera de esa elipse.
75
El 2o método de Lyapunov
De hecho . . .
76
El 2o método de Lyapunov
El punto importante es que la utilización de
funciones de Lyapunov permite estimar, aunque
de forma conservativa, dominios de atracción.
Este hecho se ha empleado en, entre otras
cosas, el estudio de la estabilidad trasitoria de
sistemas eléctricos.
77
El 2o método de Lyapunov
Tenemos un sistema eléctrico que sufre una
perturbación (un corto, p. ej.). Después del
mismo se encuentra en un punto que no es
el punto de equilibrio deseado, que suponemos
estable. La pregunta es: ’ ? Podrá o no alcanzar este punto?.
78
El 2o método de Lyapunov
Modelamos el sistema eléctrico por las ecuaciones:
X
d2δi
dδi
Mi 2 + Di
= Pi −
Cij sin(δi − δj )
dt
dt
j6=i
i = 1, n Cij simetrica
Introducimos la variable pi = Miδ˙i y las funciones
"
H =
X
i
1 2
p −
2Mi i
Piδi −
F =
X1
X Di
i 2Mi
j 2

Cij cos(δi − δj )
p2
i
79
El 2o método de Lyapunov
Las ecuaciones del movimiento quedan en forma
cuasi-hamiltoniana:
∂H
∂pi
∂H
∂F
p˙i = −
−
∂δi
∂pi
δ˙i =
Por tanto
X ∂H ∂F
dH
=−
<0
dt
i ∂pi ∂pi
Por tanto, H es una función de Lyapunov.
80
El 2o método de Lyapunov
Supongamos que se desea saber el dominio de
atracción de un punto de equilibrio (δi, pi) =
(δi∗, 0). Para determinar la frontera del dominio
buscamos donde Ḣ = 0. Pero
X ∂H ∂F
dH
0=
= −
dt
i ∂pi ∂pi
⇒ pi = 0
⇒ δ˙i = 0
Ası́, Ḣ = 0 sólo en alguno de los restantes
puntos de equilibrio.
81
El 2o método de Lyapunov
Llamemos al resto de puntos de equilibrio (δis1, 0),
sj
. . ., (δi , 0), . . .. Sea H ∗ y H j el valor del hamiltoniano en cada punto. Nos interesa la curva
de nivel H = H j tal que
• El dominio encerrado por H = H j y que
pase por el punto de equilibrio j contenga
al punto de equilibrio ∗.
• De entre todas las curvas H = H j que verifiquen el punto anterior, la que tenga el
valor más pequeño.
82
El 2o método de Lyapunov
La figura aclara porqué.
83
El 2o método de Lyapunov
Sea (δiu, 0) el punto que se escoge con el criterio antes expuesto, y H u el valor que alcanza
en él el hamiltoniano. El gran problema es determinarlo, ya que en una red eléctrica con n
generadores existen del orden de 2n puntos de
equilibrio.
Aquı́ entra un poco de heurı́stica basada en la
fı́sica del sistema.
84
El 2o método de Lyapunov
La observación clave es que los puntos de equilibrio están próximos a los puntos
(δ1, δ2, . . . , δn) ≈ (0 ó π, 0 óπ , . . . , 0 ó π)
Por otra parte, en el punto inicial, que no suele
estar muy lejos del (0, 0, . . . , 0) hay uno o unos
generadores que se mueven rápido (grandes
δi), y que llamaremos el conjunto S r ; y el resto
que se mueven despacio: el conjunto S l .
85
El 2o método de Lyapunov
Se supone entonces que el punto u es aquel
que está cerca del punto que tiene ángulo 0
para los δi ∈ S l y ángulo π para los δi ∈ S r .
86
El 2o método de Lyapunov
Por lo tanto, se plantea el algoritmo:
1. Determinar los conjuntos S l y S r a partir de las condiciones en el punto incial
(δi(0), pi(0)).
2. Calcular el punto u resolviendo las ecuaciones para los puntos de equilibrio con
un método iterativo (Newton-Ralphson, p.
ej.) partiendo del punto (0 ó π, 0 ó π, . . . , 0 ó π)
definido por S l y S r .
3. Cacular H u y H(0).
4. Si H(0) < H u el sistema no pierde estabilidad.
87
El 2o método de Lyapunov
Ejemplo, la red de New England.
88
El 2o método de Lyapunov
Las curvas de oscilación.
89
El 2o método de Lyapunov
Los resultados
90
El 2o método de Lyapunov
Queda el problema de determinar una función
de Lyapunov para un sistema concreto. No hay
método general para ello.
91
El 2o método de Lyapunov
En ocasiones, se pueden encontrar funciones
de Lyapunov por razones fı́sicas: energı́a, potenciales termodinámicos, etc.
92
El 2o método de Lyapunov
Para sistemas lineales estables se pueden calcular funciones cuadráticas de Lyapunov.
En efecto, sea P definida positiva.
función V = xT P x del sistema
Sea la
ẋ = Ax
Entonces
V̇
= ẋT P x + xT P ẋ
= x(AT P + P A)x
93
El 2o método de Lyapunov
Entonces V es función de Lyapunov si la matriz
Q definida por
−Q = AT P + P A
es positiva. Recı́procamente, podemos escoger
una matriz definida positiva Q y resolver la matriz P de la ecuación lineal anterior (ecuación
de Lyapunov).
94
El 2o método de Lyapunov
Se demuestra entonces que:
Si A es una matriz estable y Q una matriz
(semi-)definida positiva, entonces la solución
P de la ecuación
AT P + P A = −Q
es (semi-)definida positiva.
95
El 2o método de Lyapunov
Prueba
La matriz
P (t) =
Z ∞
t
T
eA (τ −t)QeA(τ −t)dτ
Verifica
Ṗ = −Q − AT P − P A
96
El 2o método de Lyapunov
Por otra parte, la integral sólo converge si A
es estable. Haciendo el cambio de variables
τ´= τ − t se comprueba que P (t) no depende
de t, luego Ṗ = 0. Ası́ pues,
P =
Z ∞
0
T
eA tQeAtdt
es solución de la ecuación de Lyapunov.
97
El 2o método de Lyapunov
Por otra parte, si Q es definida positiva, M T QM
T
lo es también para cualquier M , por tanto eA tQeAt
lo es para cualquier A, y por lo tanto lo es la
integral, si converge.
98
El 2o método de Lyapunov
Esto sugiere el siguiente procedimiento para
obtener una estimación del dominio de atracción de un punto de equilibrio x∗
99
El 2o método de Lyapunov
1. Linealizar el sistema dinámico alrededor de
x∗: ∆˙ x = fx∆x.
2. Escoger una serie de matrices definidas positivas Qi.
3. Resolver las ecuaciones fxT Pi + Pifx = −Qi.
4. Calcular la curva de nivel más baja para la
cual V̇i = 0 (ejemplo del osc. de van der
Pol).
5. Llamar Ei a las elipses limitadas por esas
curvas de nivel.
6. El dominio de atracción D ⊃ ∪Ei
100
El 2o método de Lyapunov
Existen algunos métodos sistemáticos para encontrar funciones de Lyapunov (gradiente variable, Zubov, etc. ), pero requieren mucho
cálculo, incluso para sistemas de orden moderado.
101
El 1er método de Lyapunov
Sea un sistema diferencial
ẋ = f (x)
Y supongamos que xs es un punto de equilibrio.
0 = f (xs)
102
El 1er método de Lyapunov
Para analizar su estabilidad se puede linealizar
en torno al mismo:
∆ẋ = fx∆x
Lo cual permite estudiar la evolución del sistema en primera aproximación.
103
El 1er método de Lyapunov
El propósito del primer método de Lyapunov
es obtener una solución más exacta por medio
de una serie de aproximaciones.
Primero, un poco de notación.
104
El 1er método de Lyapunov
La serie de Taylor de f (x) en torno a 0 es:
f (x) = fxx +
1
fxx(x ◦ x) +
2
1
fxxx(x ◦ x ◦ x) + . . .
6
105
El 1er método de Lyapunov
Con, el producto de Kronecker


∆x ◦ ∆x


=

∆x1
∆x2
...
∆xn


 
 
◦
 







∆x1



∆x2 

=


... 



∆xn





∆x1∆x1
∆x1∆x2
...
∆x1∆xn
∆x2∆x1
∆x2∆x2
...
∆x2∆xn
...
∆xn∆xn
106



















Y





∂ 2 fn
∂x1 ∂x2
...
∂ 2 fn
∂x1 ∂x1
...
∂ 2 f1
∂x1 ∂x2
∂ 2 f2
∂x1 ∂x2
∂ 2 f1
∂x1 ∂x1
∂ 2 f2
∂x1 ∂x1
...
...
...
...
∂ 2 fn
∂x1 ∂xn
...
∂ 2 f1
∂x1 ∂xn
∂ 2 f2
∂x1 ∂xn
∂ 2 fn
∂x2 ∂x1
...
∂ 2 f1
∂x2 ∂x1
∂ 2 f2
∂x2 ∂x1
...
∂ 2 fn
∂x2 ∂x2
∂ 2 f1
∂x2 ∂x2
∂ 2 f2
∂x2 ∂x2
fxx =
...
...
...
...
∂ 2 fn
∂x2 ∂xn
...
∂ 2 f1
∂x2 ∂xn
∂ 2 f2
∂x2 ∂xn
...
...
...
...
∂ 2 fn
∂xn ∂xn
...
∂ 2 f1
∂xn ∂xn
∂ 2 f2
∂xn ∂xn





El 1er método de Lyapunov
107
El 1er método de Lyapunov
Supongamos, sin pérdida de generalidad, que
el punto de equilibrio es el origen. O sea,
ẋ = f (x)
0 = f (0 )
108
...
1
2
3
1
2
3
2 fxx (x + x + x + . . .) ◦ (x + x + x + . . .) +
1
ẋ1 + ẋ2 + ẋ3 + . . . =
f (x1 + x2 + x3 + . . .)
fx(x1 + x2 + x3 + . . .)+
Substituyendo en la ecuación diferencial:
x = x1 + x2 + x3 + . . .
Escribamos la solución como una serie:
El 1er método de Lyapunov
109
1
1
ẋ3 = fxx3 + 2 2 fxx(x1 ◦ x2)+ 6 fxxx(x1 ◦ x1 ◦ x1)
... = ...
1
ẋ2 = fxx2+ 2 fxx(x1 ◦ x1)
ẋ1 = fxx1
Escribiendo los términos del mismo orden
El 1er método de Lyapunov
110
El 1er método de Lyapunov
Estas ecuaciones pueden resolverse por orden:
primero x1, después se inserta la solución en
la segunda ecuación y se resuelve x2, después
x3, etc.
111
El 1er método de Lyapunov
Por ejemplo, consideremos el sistema no lineal:
dx
= −x + x2
dt
Y busquemos una solución
x = x 1 + x 2 + x3 + . . .
112
El 1er método de Lyapunov
Substiuyendo, se tiene
dx2
dx3
dx1
+
+
+ ... =
dt
dt
dt
−x1 − x2 − x3 + . . . + (x1 + x2 + x3 + . . .)2
113
El 1er método de Lyapunov
Igualando términos del mismo orden
dx1
dt
dx2
dt
dx3
dt
...
dxr
dt
= −x1
= −x2 + x2
1
= −x3 + 2x1x2
= ...
= −xr +
r−1
X
xj xr−j
j=1
114
El 1er método de Lyapunov
La solución de la primera ecuación es:
x1 = ae−t
Substituyendo en la segunda y resolviendo
x2 = −a2e−2t
Y en general
xr = −(−a)r e−rt
115
El 1er método de Lyapunov
Por tanto
x = ae−t − a2e−2t + a3e−3t + . . .
Sea q = ae−t. Entonces:
x = q − q2 + q3 + . . .
116
El 1er método de Lyapunov
La suma converge si −1 < q < 1. En este caso:
x = q(1 + q)−1 = a(1 + et)−1
117
El 1er método de Lyapunov
Analizemos con más cuidado la solución obtenida.
El primer término es:
ẋ1 = fxx1
Luego x1 es una función suma de exponenciales exp(λit), donde λi son los autovalores
de la matriz fx.
118
El 1er método de Lyapunov
El segundo término es:
1
ẋ2 = fxx2 + fxx(x1 ◦ x1)
2
que es un sistema lineal forzado con exponenciales exp(λit). Es bien sabido que sus soluciones son exponenciales suma de estas más
las exponeciales que resultan de fx, es decir,
hay exponenciales de la forma exp[(λi + λj ]t).
119
El 1er método de Lyapunov
Por si no es bien sabido
ẋ = fxx + g(t)
Una solución particular
x = exp(fxt)A +
Z t
−∞
exp[fx(τ − t)]g(τ )dτ
120
El 1er método de Lyapunov
Análogamente, se puede ver fácilmente que en
el paso r la solución incluye exponenciales de
la forma
exp(
X
λi1 + . . . + λir )
r terminos
121
El 1er método de Lyapunov
Por ejemplo, consideremos el problema del movimiento de los asteriodes troyanos:
122
El 1er método de Lyapunov
Las ecuaciones del movimiento son:
dr
= pr
dt
pφ
dφ
= 2 −ω
dt
r
p2
dpr
γm1
φ
= 3 − 3 (r − r1 cos(φ − φ1))
dt
r
s1
γm
− 32 (r − r2 cos(φ − φ2))
s2
dpφ
γm
= − 31 rr1 sin(φ − φ1))
dt
s1
γm
− 32 rr2 sin(φ − φ2))
s2
123
El 1er método de Lyapunov
Con
m2
R
m1 + m2
m1
r2 =
R
m1 + m2
φ2 = 0
r1 =
φ1 = π
s1 =
s2 =
q
r12 + r 2 + 2r1r cos(φ − φ1)
q
r22 + r 2 + 2r2r cos(φ − φ1)
124
El 1er método de Lyapunov
Los puntos de equilibrio estables de estas ecuaciones tienen dos autovalores imaginarios, pues
no se disipa energı́a.
125
El 1er método de Lyapunov
Una trayectoria en el plano r − φ:
126
El 1er método de Lyapunov
La función r(t):
127
El 1er método de Lyapunov
La transformada de Fourier de la función r(t):
128
El 1er método de Lyapunov
Moraleja: En estructuras, hay que tener cuidado
no sólo de que las frecuencias naturales no
puedan excitarse, sino tampoco sus diferencias
y sumas.
129
Teorı́a de catástrofes
Consideremos un sistema que tiene una función
de Lyapunov (un potencial) dependiente de
parámetros
U (x, p)
130
Teorı́a de catástrofes
En los puntos de equilibrio x∗ el potencial es
estacionario:
∂U
|x=x∗,p=p∗ = 0
∂xi
De ahora en adelante supondremos, sin pérdida
de generalidad, que x∗ = 0 y que p∗ = 0.
131
Teorı́a de catástrofes
Por lo tanto el desarrollo de Taylor de V es:
U (x, p) = U0 +
X ∂U
l
∂pl
pl +
1 X ∂ 2U
xi x j +
2 i,j ∂xi∂xj
1 X ∂ 2U
xk pm +
2 k,m ∂xk ∂pm
1 X ∂ 2U
pnps + t.m.o.
2 n,s ∂pn∂ps
132
Teorı́a de catástrofes
Los puntos de equilibrio xe(p) son función del
valor de los parámetros. Resultan de igualar el
gradiente de U a 0. Luego:
X ∂ 2U
i,j ∂xi∂xj
xej +
∂ 2U
pm + t.m.o. = 0
i,m ∂xi∂pm
X
133
Teorı́a de catástrofes
De la expresión anterior:


−1 
X ∂ 2U
X ∂ 2U
e


x =
pm + t.m.o.
i,j ∂xi∂xj
i,m ∂xi∂pm
134
Teorı́a de catástrofes
Lo importante es que si


X ∂ 2U

i,j ∂xi∂xj

es regular, la solución cambia un poco cuando
cambian un poco los parámetros. No aparecen
nuevas soluciones, no desaparece ninguna. Un
punto ası́ no es un punto de bifurcación.
135
Teorı́a de catástrofes
Ası́ pues, los puntos entretenidos son aquellos
dode esa matriz es singular. Eso implica que
tiene al menos un autovalor nulo.
136
Teorı́a de catástrofes
Recordando:
AV
= VΛ
W A = ΛW
WV
= I


Λ = 

λ1 0 . . . 0
0 λ2 . . . 0
· · · · · · ... · · ·
0 0 . . . λn





Luego
A = V ΛW
Luego, si A es simétrica, V T = W .
137
Teorı́a de catástrofes
Sean entonces V y W los autovectores derechos e izquierdos de

X

∂ 2U
i,j ∂xi∂xj


Y consideremos el cambio de variables
y =Vx
Este cambio es una biyección que no puede
introducir ni eliminar soluciones.
138
Teorı́a de catástrofes
Sea Ũ (y, p) = U (W y, p) el potencial trás el
cambio de variables. Ahora bien, como:
X ∂ 2Ũ
i,j ∂yi∂yj
yi yj =
X ∂ 2U
∂xk ∂xl
k,l
xk xl
Se sigue que
∂ 2Ũ
∂ 2U
xk xl W = Λ
yi yj = V
∂yi∂yj
∂xk ∂xl
139
Teorı́a de catástrofes
Ası́ pues. se tiene:
Ũ (y, p) = U0 +
X ∂ Ũ
∂pl
l
pl +
1X
λiyi2 +
2 i
1 X ∂ 2Ũ
yk pm +
2 k,m ∂yk ∂pm
1 X ∂ 2Ũ
pnps + t.m.o.
2 n,s ∂pn∂ps
El caso interesante es cuando hay uno o más
autovalores nulos. Sean estos los r primeros
(λ1 = . . . = λr = 0).
140
Teorı́a de catástrofes
Se puede demostrar el llamado lema de descomposición, que esencialmente afirma que el
tipo de singularidad que se tiene puede estudiarse exclusivamente en término a las variables
x1, . . . , xr , ignorándose todas las demás.
Más que demostrarlo en el caso general, lo veremos en los casos particulares de 1 o 2 autovalores nulos.
141
Teorı́a de catástrofes
En el caso de un autovalor nulo, se tiene que
U = U0 +
n
X
λiyi2 + yiOi(y, p) +
i=2
ay1k + P1(y1, p) + Q(p)
donde las funciones Oi son polinomios en y y
p de grado al menos 2 en y si p = 0, y P1 es
un polinomio en y1. Q es un polinomio en p.
142
Teorı́a de catástrofes
Consideremos ahora el cambio de variables:
z1 = y1
zi2 = yi2 + yiOi(y, p)
con sign(zi) = sign(yi) i = 2 . . . n
Considerado como una función de y a z es
claramente continuo y derivable infinitas veces. Para que sea un ”buen” cambio de coordenadas alrededor del origen, tendrı́a que ser
también biyectivo: un difeomorfismo.
143
Teorı́a de catástrofes
Alrededor del origen el cambio de variables se
aproxima a una transformación lineal. Será
biyectivo si la matriz de la transformación, que
es su jacobiano, es regular. Entonces, si es regular (biyectiva) en el origen, por continuidad lo
es en un entorno del mismo.
144
Teorı́a de catástrofes
Evaluemos entonces la matriz ddyz en torno al
origen.
Es evidente que
dz1
= 1
dy1
dz1
= 0 j = 2...n
dyj
145
Teorı́a de catástrofes
dzi
. Se tiene que:
Consideremos ahora dy
i
∂Oi(y, p)
2zidzi = 2yidyi + Oi(y, p)dyi + yi
dyi
∂yi
Pero Oi es un polinomio de grado al menos 2 en
monomios que no contengan p, luego al particularizar para p = 0, los dos últimos términos
son despreciables frente al primero. Luego
dzi
y
= i
dyi
zi
146
Teorı́a de catástrofes
Pero
zi2
Oi(y, p)
=1+
2
yi
yi
Al particularizar para p = 0 se tiene que el
cociente es un polinomio en al menos yi2. Por
lo tanto, en un entorno del origen
dzi
= 1 + t.m.o.
dyi
147
Teorı́a de catástrofes
dzi
. Se tiene que
Calculemos ahora dy
j
∂Oi(y, p)
2zidzi = yi
dyj
∂yj
Se tiene que
dzi
1 yi ∂Oi(y, p)
=
dyj
2 zi
∂yj
i (y,p) → 0, se tiene que
Y como yzi → 1 y ∂O∂y
i
j
dzi
= 0 + t.m.o.
dyj
148
Teorı́a de catástrofes
En conclusión
dz
= I + t.m.o. alrededor z = 0, p = 0
dy
149
Teorı́a de catástrofes
Ası́ pues, se tiene que
U = U0 +
n
X
λizi2 + az1k +
i=2
P1(z1, p) + Q(p
Ahora bien, es claro que en cualquier punto
estacionario z2 = . . . = zn = 0. Por lo tanto,
podemos olvidarnos de estas variables y considerar:
U = U0 + az1k + P1(z1, p) + Q(p)
= U0 + ay1k + P1(y1, p) + Q(p)
150
Teorı́a de catástrofes
En esta expresión se puede desarrollar en P1
en series de potencias de y1. Ası́:
U = U0 +
k−1
X
y1i ai(p) +
i=1
ay1k (1 + ak (p)) + Q(p) + t.m.o.
donde ai(0) = 0.
151
Teorı́a de catástrofes
En el último término ak es despreciable frente
a 1 para un entorno del origen. Ası́
U = U0 +
k−1
X
y1i ai(p) + ay1k + Q(p) + t.m.o.
i=1
152
Teorı́a de catástrofes
Ahora, desarrollando en serie cada ai se tiene
que:
ai(p) = aT
i p + t.m.o.
Luego
U = U0 +
k−1
X
k + Q(p) + t.m.o.
y1i aT
p
+
ay
1
i
i=1
Nótese que
∂ i+1U
ai(j) = i
∂ y1∂pj
153
Teorı́a de catástrofes
Por último, el término en y1k−1 siempre se puede
eliminar mediante un cambio de coordenadas.
En efecto, si se define
x = y1 − y0
Y se substituye, se obtiene:
U = U0 +
k−1
X
i
k
(aT
i p)(x + y0) + a(x + y0) + Q(p)
i=1
154
Teorı́a de catástrofes
Los términos de grado k − 1 son:
aTk−1pxk−1 + kxk−1y0
Luego con
y0 = −
aTk−1p
k
desaparecen los términos k − 1
155
Teorı́a de catástrofes
Substituyendo lo anterior, y despreciando términos de orden mayor al lineal en p, se obtiene
U = U0 +
k−2
X
i + axk + Q̃(p)
(bT
p
)x
i
i=1
Si se consideran caambios adicionales de coordenadas, es fácil de comprobar substituyendo
la serie de Taylor que no es posible eliminar
más términos.
156
Teorı́a de catástrofes
Por otra parte, si se trata de optimizar U , los
términos U0 y Q̃(p) no juegan ningún papel,
luego pueden omitirse. Además, igual da calcular el extremo de U o el de Ua . Dividiendo
todo por a se encuentra finalmente que el potencial es equivalente a:
W =
k−2
X
i + xk
( cT
p
)x
i
i=1
157
x3 + ux
x4 + ux2 + vx
x5 + ux3 + vx2 + wx
x6 + tx4 + ux3 + vx2 + wx
pliegue
cúspide
cola de milano
mariposa
Cada cT
i p puede considerarse como un nuevo parámetro.
Las primeras singularidades tienen nombre propio:
Teorı́a de catástrofes
158
Teorı́a de catástrofes
Un poco de nomenclatura:
• x3, x4, etc son los gérmenes de las catástrofes.
• x3 +ux, etc, son los despliegues universales.
• El número de parámetros del despliegue
universal es la codimensión de la catástrofe.
159
Teorı́a de catástrofes
Por ejemplo, consideremos un pliegue W =
x3 + ux. Recordemos que x es lo que varı́a la
solución a lo largo del autovector derecho correspondiente al autovalor nulo, y u es una determinada combinación lineal de los paránetros
p.
Derivando W respecto a x, se tiene
dW
= 3x2 + u
dx
160
Teorı́a de catástrofes
Los puntos de equilibrio verifican dW
dx = 0, de
donde
s
−u
xe = ±
3
Hay dos soluciones para u < 0 (un máximo y
un mı́nimo) y ninguna si u > 0. El autovalor
nulo se da en u = 0.
161
Teorı́a de catástrofes
El diagrama de catástrofe es:
162
Teorı́a de catástrofes
O consideremos la cúspide W = x4 + ux2 + vx.
Se tiene que, en los puntos de equilibrio se
verifica:
dW
= 4x3 + 2ux + v = 0
dx
Esta ecuación define una superficie en el espacio x, u, v.
163
Teorı́a de catástrofes
Por otra parte, el autovalor 0 implica
d2W
2 + 2u = 0
=
12x
dx2
Junto con la ecuación anterior nos da una curva,
que se proyectará como una curva en el plano
u, v.
164
Teorı́a de catástrofes
En efecto, tenemos que
u
2
x =−
6
Y que
x(4x2 + 2u) = −v
Luego
x
4u
= −v
3
165
Teorı́a de catástrofes
Elevando al cuadrado
x216u2 = 9v 2
De donde, substituyendo x2
8 3
− u = 9v 2
3
o
8u3 + 27v 2 = 0
166
Teorı́a de catástrofes
El diagrama de catástrofe es:
167
Teorı́a de catástrofes
Consideremos el problema de una viga articulada en sus extremos sujeta a una fuerza horizontal:
168
Teorı́a de catástrofes
La energı́a acumulada en la barra es proporcional a:
U (Φ, λ) =
Z l( 1 dΦ 2
0
2
ds
)
+ λ cos Φ
Y las condiciones en los extremos son:
dΦ
dΦ
(0) =
(l) = 0
ds
ds
169
Teorı́a de catástrofes
La solución del problema será la función Φ(s)
que minimice U y que esté sujeta a las condiciones de contorno.
Este es un problema en infinitas dimensiones.
Podemos pensar que Φ es el vector que antes
llamábamos x, y que sus componentes son sus
valores en cada punto.
170
Teorı́a de catástrofes
La solución será cuando la primera variación
de U respecto a Φ se anule. Como
U (Φ + δΦ) =
Z l( 1 dΦ + δΦ 2
+
2
ds
0
λ cos(Φ + δΦ)}
)
2
Z l( 1 dΦ
+ λ cos(Φ + δΦ)
=
0 2 ds
Z l
dΦ dδΦ
+
− λ sin(Φ)δΦ +
ds ds
0
t.m.o.
= U (Φ) −
)
Z l( 2
d Φ
δΦ + λ sin(Φ)δΦ
ds2
0
Z l
d dΦ
+
δΦ
0 ds ds
= U (Φ) −
)
Z l( 2
d Φ
δΦ + λ sin(Φ)δΦ
ds2
0
171
El último término se anula por las condiciones
de contorno.
Teorı́a de catástrofes
En conclusión, hemos encontrado que:
)
Z l( 2
d Φ
U (Φ + δΦ) − U (Φ) =
+ λ sin(Φ) δΦ
2
ds
0
Esta fórmula no es nada más que:
U (x + δ x) − U (x) = ∇U.x
172
Teorı́a de catástrofes
Ası́ pues, ∇U = 0 no es más que:
d2Φ
+ λ sin(Φ) = 0
2
ds
con
dΦ
dΦ
(0) =
(l) = 0
ds
ds
Una solución obvia es Φ = 0.
173
Teorı́a de catástrofes
Para buscar posibles puntos de catástrofe tenemos que mirar la segunda variación (derivadas
segundas) alrededor de Φ = 0.
Ası́, se tiene:
Z l 1 dΦ + δΦ 2
0 2
ds
=
Z l( 1 dΦ 2
2 ds
2 )
1 dδΦ
2
ds
0
+
dΦ dδΦ
+
ds ds
Y que
Z l
0
λ cos(Φ + δΦ) =
Z l
0
{λ cos Φ − λ sin(Φ)δΦ
1
− λ cos(Φ) (δΦ)2
2
174
Teorı́a de catástrofes
Luego, en conclusión,
δ 2U =
Z l( 1 dδΦ 2
0
2
ds
1
− λ cos Φ (δΦ)2
2
)
Esta fórmula se puede transformar mediante
integración por partes. En efecto
d
δΦ
ds
d2
!
d
d δΦ
δΦ =
δΦ −
δΦ δΦ
2
ds
ds ds
ds
Al integrar, el primer término se anula por las
condiciones de contorno.
175
Teorı́a de catástrofes
En conclusión:
δ 2U = −
Z l( 2
d
1
2 0
ds2
)
δΦ + λ cos(Φ)δΦ δΦ
Esta expresión es análoga a:
(
δ 2U = xT
∂ 2U
∂xixj
)
x
La existencia de un autovalor nulo implica la
anulación del término entre llaves. El vector
distinto de cero que lo anule es el autovector
correspondiente.
176
Teorı́a de catástrofes
Ası́, hay que resolver
d2
0 =
δΦ + λ cos(Φ)δΦ
2
ds
d2
=
δΦ + λδΦ
2
ds
dδΦ
dδΦ
(0) =
(l) = 0
con
ds
ds
Sólo hay soluciones no triviales cuando
√
m2π 2
λ=
, δΦ = k cos( λs)
2
l
Vamos a analizar la primera bifurcación m = 1.
177
Teorı́a de catástrofes
Por el lema de descomposición, hemos
√ de desarrollar U en la dirección de cos( λs). Entonces
δ 3U =
Z l
1
0 6
λ sin Φ(δΦ)3 = 0
Y
δ 4U
=
=
=
=
=
=
Z l
1
λ cos(Φ)(δΦ)4
0 24
Z l
1
λ
(δΦ)4
24 0
Z
√
λk4 l
4
cos ( λs)
24 0
Z
λk4 l
π
4
cos ( s)
24 0
l
λk4 3
l
24 8
π 2k4
64l
178
Teorı́a de catástrofes
En esencia, tenemos una cúspide
π2 4
k + t.m.o.
U = U0 +
64l
Sabemos que el despliegue universal de una
cúspide tiene dos parámetros, mientras que en
nuestro problema solamente hay uno.
Introduzco un parámetro adicional para seguir
un análisis ”normal”.
179
Teorı́a de catástrofes
Supongamos que el problema es ligeramente
más complicado. Sea pues, una viga con un
imán en el punto medio, que puede ser atraido
por un electroimán recorrido por una corriente
i.
180
Teorı́a de catástrofes
Habrá una contribución adicional a la energı́a
de la forma
1
Um = Ai 3
r
donde r es la distancia del punto medio de la
viga al electroimán.
l
r = r0 − y( )
2
Como
l
dy
l
2
= sin Φ → y( ) =
sin Φ
ds
2
0
Z
181
Teorı́a de catástrofes
Luego
Ai
Um =
R
!3
l
2
r0 − 0 sin Φ
Y
U =
(
Z l
dΦ 2
1
0 2
ds
)
Ai
+ λ cos Φ +
R
!3
l
2
r0 − 0 sin Φ
2
Estamos analizando en torno a i = 0 y λ = πl2 .
Por conveniencia introducimos el incremento
2
λ̃ = λ − πl2 .
182
Teorı́a de catástrofes
El despliegue de la cúspide es de la forma:
π2 4
U = U0 +
k +
64l
a1(λ̃, i)k + a2(λ̃, i)k2 +
a3(λ̃, i)k3 + a0(λ̃, i)
Lo que interesa calcular para caractrizar la cúspide
son los términos lineales de las funciones a1,a2
y a3 .
183
Teorı́a de catástrofes
La variación de U respecto a λ̃ es:
δU =
Z l
0
cos(Φ)λ̃
Substituyendo Φ = 0 + k cos( πl s)
Z l"
1
k2
#
π
2
cos ( ) + O(k4) λ̃
1−
2 0
2
l
l
k2l
=
λ̃ −
λ̃ + t.m.o.
2
8
δU =
184
Teorı́a de catástrofes
La variación de U respecto a i es:
A
δU =
R
l
2
!3 i
r0 − 0 sin Φ
Haganos
=
=
Z
l
2
0
Z l
2
0
Z l
sin Φ
sin(0 + δΦ)
π
2
=
sin k cos( s)
l
0
!
Z l
3
π
k
π
2
=
k cos( s) −
cos3( s) + t.m.o
l
6
l
0
kl k3l
=
−
+ t.m.o.
π
9π
185
Teorı́a de catástrofes
Por otra parte
A
i
δU =
(r0 − )3
A(r0 + )3
=
i + t.m.o.
r06
r03 + 3r02 + 3r02 + 3
=
Ai + t.m.o.
6
r0
Interesan los términos hasta k3, luego
k3l
"
!
Ai 3
2 kl −
+
r
+
3r
0
0
6
π
9π
r0
#
2
2
3
3
k l
k l
3r0 2 + 3
π
π
"
3r02l
Ai 3
3r0l2 2
= 6 r0 +
k+
k
2
π
π
r0
δU =
"
+
l3
π3
#
#
2
3r l
− 0 k3
9π
186
Teorı́a de catástrofes
En conclusión, el despliegue queda, tras omitir
los términos que no dependen de k
3lA
3l2A 2
l
π2 4
k + 4 ki + 2 5 k i − k2λ̃ +
W ∼
64l
8
r0
π r0
"
l3 A
#
3lA
3i
−
k
r06π 3 9r04π
192l3A 2
8l2 2
192l2A
4
∼ k + 4 2 ki + 5 4 k i − 2 k λ̃ +
π
r0 π
r0 π
"
#
4
2
64l A 64l A 3
− 4 3 k i
6
5
r0 π
3r0 π
∼ k4 + ak3 + bk2 + ck
187
Teorı́a de catástrofes
Haciendo k → x−k0 se puede eliminar el término
en k3. En efecto, tras la transformación los
términos cúbicos son
a
3
3
−4x k0 + ax → k0 =
4
Con esto, se tiene:
W ∼ (x − k0)4 + a(x − k0)3 +
b(x − k0)2 + c(x − k0)
∼ x4 + 6x2k02 − 4xk03
−3ax2k0 + 3axk02 + bx2 − 2bk0x + cx
4
2
∼ x + 6k0 − 3ak0 + b x2 +
2
3ak0 − 2bk0 + c x
188
Teorı́a de catástrofes
#
2
4
a
1 64l A 64l A
− 4 3 i
k0 = =
6
5
4
4 r0 π
3r0 π
"
Ası́ pues, es lineal en i. a, b, c son lineales
también. Si solo queremos conservar los términos lineales en los parámetros, se puede escribir
W ∼ x4 + bx2 + cx
189
Teorı́a de catástrofes
De otra manera
W ∼ x4 + ux2 + vx
con
#
4
2
1 64l A 64l A
− 4 3 i
x = k−
6
5
4 r0 π
3r0 π
8l2
192l3A
"
i − 2 λ̃
π
r05π 4
192l2A
v =
i
4
2
r0 π
u =
190
Teorı́a de catástrofes
En el diagrama de bifurcación
191
Teorı́a de catástrofes
Nótese que si i = 0 nos movemos a lo largo
de u. Sin embargo, la más mı́nimo i cambia
cualitativamente la solución.
En cambio, si hubiera más parámetros, la cúspide serı́a cualitativamente la misma. u y v
serian también función lineal de los nuevos parámetros.
192
Teorı́a de catástrofes
En conclusión, una catástrofe con un número de parámetros igual o mayor que su codimensión es estructuralmente estable. Si no,
no.
193
Teorı́a de catástrofes
En análisis por elementos finitos, se transforma
primero una ecuación diferencial en un funcional de la solución U (Φ) que hay que minimizar. Despues se busca una base de funciones
P
φi, se aproxima Φ ≈ i αiφi, y se transforma la
minimización del funcional en la minimización
de una función U (αi).
Por tanto, las únicas singularidades que aparecen son catástrofes.
194
Teorı́a de catástrofes
Se puede proceder de forma análoga para el
caso de dos autovalores nulos (corrango dos).
Entonces, se tiene que
U = U0+
n
X
λiyi2+yiOi(y, p)+P (y1, y2, p)+Q(p)
i=3
donde P es un polinomio de grado 3 al menos
en y1 e y2.
195
Teorı́a de catástrofes
Sea el cambio de variables
z1 = y1
z2 = y2
zi2 = yi2 + yiOi(y, p)
con sign(zi) = sign(yi) i = 3 . . . n
Como antes, es fácil comprobar que esta transformación es un difeomorfismo.
196
Teorı́a de catástrofes
Con este cambio se tiene:
U = U0 +
n
X
λizi2 + P (z1, z2, p) + Q(p)
i=3
donde P es un polinomio de z1 y z2 de grado
al menos tres.
197
Teorı́a de catástrofes
Como antes, es claro que en los extremos de
U , zi = 0 si i > 2. Por lo tanto, el estudio
queda reducido al de
U = U0 + P (z1, z2, p) + Q(p)
= U0 + P (y1, y2, p) + Q(p)
= U0 + P (x, y, p) + Q(p)
Se usa el cambio de notación y1 = x e y2 = y.
198
Teorı́a de catástrofes
Consideremos ahora el polinomio de tercer grado
P . Se puede escribir como
P (x, y, p) = (a1x + b1y)(a2x + b2y)(a3x + b3y)
+R(x, y, p)
= j 3 + t.m.o.
199
Teorı́a de catástrofes
Hay varias posibilidades respecto a los coeficientes ai y bi. La primera es que sean todos
reales y que todas las razones ab i sean distintas.
i
Entonces, se pueden hacer varios cambios de
variables (difeomorfismos):
j 3 ∼ (ax + by)xy
usando x → a2x + b2y, y → a3x + b3y
∼ (x + y)xy
∼ x(x2 − y 2) usando x → x + y, y → x − y
200
Teorı́a de catástrofes
Tenemos, por lo tanto, un germen
x3 − xy 2
Es la catástrofe umbı́lica elı́ptica.
201
Teorı́a de catástrofes
Consideremos ahora el caso en que a1 y b1 son
reales y a2 y b2 y a3 y b3 complejos conjugados.
j 3 = (a1x + b1y)(a2x + b2y)(a¯2x + b¯2y)
202
Teorı́a de catástrofes
Es inmediato que
j 3 = (a1x + b1y)
(<(a2)x + <(b2)y )2 (=(a2)x + =(b2)y )2
Mediante el difeomorfismo
x → <(a2)x + <(b2)y
y → =(a2)x + =(b2)y
Se obtiene:
j 3 ∼ (ax + by)(x2 + y 2)
203
Teorı́a de catástrofes
Entonces
j 3 ∼ (ax + by)(x2 + y 2)
∼ x(x2 + y 2) usando x → ax + by, y → bx − ay
∼ x3 + xy 2
∼ x3 + y 3 usando x → x + y, y → x − y
204
Teorı́a de catástrofes
Tenemos, por lo tanto, un germen
x3 + y 3
Es la catástrofe umbı́lica hiperbólica.
205
Teorı́a de catástrofes
Hasta ahora hemos supuesto que todas las razones ab i eran distintas. Consideremos ahora
a1 i a2
que b = b . Entonces:
1
2
j 3 ∼ (a1x + b1y)2(a3x + b3y)
∼ x2 y
206
Teorı́a de catástrofes
Intuitivamente, parece claro que no es posible describir el comportamiento en dos dimensiones con un monomio. Más adelante demostraremos
esto. Por el momento, baste decir que el último
germen requiere que desarrollemos hasta cuarto
grado.
207
Teorı́a de catástrofes
Sea entonces
j 4 ∼ x2y + ay 4 + by 3x +
cy 2x2 + dyx3 + ex4
Mediante el difeomorfismo
x → x − (cy 2 + dxy + ex2)
1
y → y − y2
2
Se transforma en
j 4 ∼ x2 y + y 4
Es la catástrofe umbı́lica parabólica.
208
Teorı́a de catástrofes
En conclusión, tenemos tres nuevos gérmenes:

3
2

 x − xy
η(x, y) = x3 + y 3

 2
x y + y4
Entonces, se tiene que
W ∼ η(x, y) +
X
ai,j (p)xiy j
209
Teorı́a de catástrofes
Consideremos difeomorfismos de la forma
x → x + φ(x, y)
y → y + ψ(x, y)
Con φ y ψ polinomios con coeficientes pequeños.
El efecto sobre η(x, y) es
η(x, y) → η(x, y) + φ(x, y)
∂η
∂η
+ ψ(x, y)
∂x
∂y
210
Teorı́a de catástrofes
Luego, con un difeomorfismo adecuado, podemos
∂η
y
eliminar todos los monomios múltiplos de ∂x
∂η
∂y .
211
Teorı́a de catástrofes
Una manera de determinar los despliegues universales es mediante el truco de Siersma:
x
x2
x3
x4
...
...
y
x2 y
x3 y
...
y2
xy
...
xy 2
x2y 2
...
...
y3
xy 3
...
...
y4
...
212
Teorı́a de catástrofes
Por ejemplo, para el despliegue universal de la
umbı́lica hipérbolica x3 + y 3:
∂x3 + y 3
= 3x2
∂x
∂x3 + y 3
= 3y 2
∂y
x
x2
x3
x4
...
...
y
x2 y
x3 y
...
y2
xy
...
xy 2
x2y 2
...
...
y3
xy 3
...
...
y4
...
El despliegue universal es:
W = x3 + y 3 + wxy + ux + vy
213
Teorı́a de catástrofes
Para deternminar el despliegue universal de la
umbı́lica elı́ptica x3 − xy 2
∂x3 − xy 2
= 2xy
∂y
∂x3 − xy 2
= 3x2 − y 2
∂x
x
x2
x3
x4
...
...
y
x2 y
x3 y
...
y2
xy
...
xy 2
x2y 2
...
...
y3
xy 3
...
...
y4
...
214
Teorı́a de catástrofes
Además, si consideremo un término de despliegue
x2 + y 2
3x3 = x(3x2 − y 2) − y(xy)
y 3 = −y(3x2 − y 2) + 3x(xy)
4x2 = (3x2 − y 2) + (x2 + y 2)
−4y 2 = (3x2 − y 2) − 3(x2 + y 2)
Luego, un despliegue universal es:
W = x3 − xy 2 + w(x2 + y 2) + ux + vy
215
Teorı́a de catástrofes
Por último, la umbı́lica parabólica y 4 + x2y
∂y 4 + x2y
= 2xy
∂x
∂y 4 + x2y
= 4y 3 + x2
∂y
x
x2
x3
x4
...
...
y
x2 y
x3 y
...
y2
xy
...
xy 2
x2y 2
...
...
y3
xy 3
...
...
y4
...
216
Teorı́a de catástrofes
Se tiene en cuenta:
x3 = (4y 3 + x2)x − 4y 2(xy)
4y 4 = y(4y 3 + x2) − x(xy)
4y 3 = (4y 3 + x2) − x2
Luego, el dsdoblamiento universal es:
W = y 4 + x2y + wx2 + ty 2 + ux + vy
217
x3 + ux
x4 + ux2 + vx
x5 + ux3 + vx2 + wx
x6 + tx4 + ux3 + vx2 + wx
x3 − xy 2 + w(x2 + y 2) + ux + vy
x3 + y 3 + wxy + ux + vy
y 4 + x2y + wx2 + ty 2 + ux + vy
pliegue
cúspide
cola de milano
mariposa
umbı́lica elı́ptica
umbı́lica hipérbolica
umbı́lica parabólica
En resumen, tenemos las catástrofes:
Teorı́a de catástrofes
218
Teorı́a de catástrofes
Claramente, existen más catástrofes si las derivadas terceras se anulan, o hay condiciones
adicionales de degeneración (las tres razones
ai
bi iguales). Pero estas catátrofes tienen codimensión mayor que 4.
Las catástrofes de la lista son las 7 catástrofes
elementales (codimensión no mayor que 4).
219
Teorı́a de catástrofes
La superficie de equilibrio viene dada por la
solución de la ecuación
∂W
=0
∂x
o
∂W
∂W
=
=0
∂x
∂y
220
Teorı́a de catástrofes
El conjunto de bifurcación requiere la condición
adicional
∂ 2W
=0
2
∂x
o
det
∂ 2W
∂x∂y
!
=0
221
Teorı́a de catástrofes
El pliegue:
222
Teorı́a de catástrofes
La cúspide:
223
Teorı́a de catástrofes
La cola de milano:
224
Teorı́a de catástrofes
La umbı́lica elı́ptica:
225
Teorı́a de catástrofes
La umbı́lica hiperbólica:
226
Teorı́a de catástrofes
La mariposa (i):
227
Teorı́a de catástrofes
La mariposa (ii):
228
Teorı́a de catástrofes
La umbı́lica parabólica:
229
Teorı́a de singularidades
Consideremos un sistema de ecuaciones dependiente de parámetros:
F(x, p) = 0
cuya linealización es:
Fx∆x + Fp∆p = 0
230
Teorı́a de singularidades
De ahora en adelante se supondrá, sin pérdida
de generalidad, que se lineliza en torno al origen x = 0, p = 0. Ası́
Fx x + Fp p = 0
231
Teorı́a de singularidades
Si Fx no es singular
x = −Fx−1Fpp
Es decir, la solución se continua suavemente.
Ası́ pues, los sitios en que suceden cosas interesates (soluciones que se crean o se destruyen)
son aquellos donde Fx es singular: las singularidades.
232
Teorı́a de singularidades
Se supone ası́ que Fx es singular. Una forma
sistemática de determinar la forma de las soluciones es mediante la reducción de LyapunovSchmidt.
233
Teorı́a de singularidades
Dado que Fx es una aplicación singular de <n
en <n, se podrá escribir:
<n = ker Fx ⊕ M
<n = N ⊕ rangoFx
Sea E la proyección de <n en el rangoFx. Entonces F(x, p) es equivalente al par de ecuaciones:
E F((x, p) = 0
(I − E)F(x, p) = 0
234
Teorı́a de singularidades
Por otra parte, se puede escribir x = v + u, con
v ∈ ker Fx y u ∈ M . Luego
E F(v + u, p) = 0
Esta última expresión la podemos considerar
como una función de (v, u, p). En torno a la
singularidad, todos estos vectores serán pequeños. Luego:
E Fxv + E Fxu + E Fpp + t.m.o. = 0
235
Teorı́a de singularidades
Pero v ∈ ker Fx, luego Fxv = 0. Se tiene entonces que, hasta términos de segundo orden
E Fxu = Fxu = −E Fpp
Si se considera esto como un sistema lineal a
resolver en u, el término independiente está en
el rango de Fx, luego el sistema tiene solución. La solución no serı́a única, sino que se
la podrı́a sumar cualquier vector en el kernel
de Fx. Pero como u es perpendicular a todos
estos vectores, es único.
236
Teorı́a de singularidades
Se ha probado que la ecuación
E F(v + u, p) = 0
tiene una única solución hasta términos cuadráticos. Esto quiere decir que tiene, localmente, una única solución. Por lo tanto, se
puede invertir para escribir:
u = U(v, p)
237
Teorı́a de singularidades
Substituyendo esta solución, se obtiene:
(I − E)F(v + U(v, p), p) = 0
Esta es una función de v ∈ ker Fx en el corrango de Fx. Ahora bien, el kernel está generado por los autovectores derechos vi correspondientes al autovalor nulo, y el corrango está
generado por los autovectores izquierdos wj .
238
Teorı́a de singularidades
Ası́, la ecuación previa es equivalente a:
wjT (I − E)F(
X
yivi + U(
i
X
yivi, p), p) = 0
i
i, j = 1 . . . rangoFx
O
wjT F(
X
i
yivi + U(
X
yivi, p), p) = 0
i
i, j = 1 . . . rangoFx
239
Teorı́a de singularidades
Dicho de otra forma, tenemos las ecuaciones
reducidas:
gj (yi, p) = 0
240
Teorı́a de singularidades
Las ecuaciones gj son difı́ciles de obtener en
forma analı́tica, debido a la dificultad existente
en obtener la función U. No obstante, es bastante fácil obtener su serie de Taylor, lo que
suele ser suficiente en muchas aplicaciones.
241
Teorı́a de singularidades
En efecto, se tiene:
"
#
∂gj
∂U
T
= wj Fx(vi +
) =0
∂yi
∂yi
∂gj
= wjT Fp + FxUp
∂p
"
!
2
∂ gj
∂U
∂U
T F
=
w
(
v
+
)
◦
(
v
+
) +
xx
i
i
j
2
∂yi
∂yi
∂yi
#
∂ 2U
Fx 2
∂yi
"
!
2
∂ gj
∂U
∂U
T
= wj Fxx (vi +
) ◦ (vk +
) +
∂yiyk
∂yi
∂yk
#
∂ 2U
Fx
∂yiyk
... = ...
242
Teorı́a de singularidades
La única dificultad para aplicar estas fórmulas
es conocer las derivadas de U. Pero esta función
viene de invertir
E F(
X
yivi + u, p) = 0
i
Se recuerda que desarrollando hasta el primer
orden se obtiene:
E Fx u + E Fp p = 0
Ası́ pues, u no depende en primer orden de yi
y por lo tanto
∂U
=0
∂yi
243
Teorı́a de singularidades
Por otra parte, derivando dos veces
E F(
X
yivi + U(yi, u, p)) = 0
Se obtiene:
"
∂ 2U
∂U
∂U
E Fx 2 + Fxx (vi +
) ◦ (vi +
)
∂yi
∂yi
∂yi
!#
=0
De donde
∂ 2U
−1 E F (v ◦ v )
=
−
F
x
xx i
i
∂yi2
244
Teorı́a de singularidades
Análogamente se demuestra que:
Up = −Fx−1E Fp
245
Teorı́a de singularidades
Una vez obtenidos los desarrollos en serie de
las gi, se pueden aplicar cambios de variables
(difeomorfismos) adicionales para eliminar los
términos de orden mayor que el primero que
aparece con coeficiente no nulo (exactamente
igual que en teorı́a de catástrofes).
246
Teorı́a de singularidades
En el caso de un autovalor nulo, tenemos tan
solo una gi: g(y, p). Desarrollando en serie:
g(y, p) = ay k +
k−1
X
b(p)y i + t.m.o.
i=0
con
b(0) = 0
247
Teorı́a de singularidades
Haciendo la transformación y → y−y0 podemos
eliminar el término en k − 1: obtenemos las
catástrofes con una variable de estado.
248
Teorı́a de singularidades
Por ejemplo, consideremos que k = 2. Sea v
el autovector derecho correspondiente al autovalor nulo, y w el izquierdo. Entonces
I − E = vT v
249
Teorı́a de singularidades
Aplicando las fórmulas anteriores:
∂g
=
∂y
=
∂g
=
∂p
=
"
w T F x (v +
∂U
)
∂y
0
wT Fp + FxUp
w T Fp − E F p
= w T Fp
∂ 2g
∂y 2
#
"
!
∂U
∂U
) ◦ (v +
) +
Fxx (v +
∂y
∂y
#
2
∂ U
Fx 2
∂y
= wT
= wT [Fxx (v ◦ v) − E Fxx(v ◦ v)]
= wT [Fxx (v ◦ v)]
250
Teorı́a de singularidades
En suma, se tiene que
1 T
w Fxx(v ◦ v)y 2 + wT Fpp + t.m.o. = 0
2
Esta es la expresión de la forma normal de la
bifurcación pliegue.
251
Teorı́a de singularidades
Una lista de singularidades:
252
Métodos de continuación
Sea la ecuación
f (x, λ) = 0
donde λ es un parámetro que varı́a en un determinado intervalo. El problema es calcular el
comportamiento de la solución en dicho intervalo.
253
Métodos de continuación
Se parte de una solución conocida x0, λ0. Se
pretende entonces obtener una serie de soluciones
{(xk , λk )}
254
Métodos de continuación
Para pasar de la soluciók k a la k + 1 se realiza
un proceso en dos pasos:
1. Predicción: A partir de la solución conocida (xk , λk ) se estima una solución (x̃k+1, λ̃k+1).
2. Corrección: La solución estimada (x̃k+1, λ̃k+1).
se corrige a una nueva solución (xk+1, λk+1).
255
Métodos de continuación
Es preciso dar también algún control sobre la
distancia de (xk , λk ) a (xk+1, λk+1): el control
de longitud de paso. También es preciso, en
el caso de que haya ramas de soluciones que se
unan o desparezcan, dar algún procedimiento
para escoger rama: la estrategia de parametrización.
256
Métodos de continuación
Un método de continiación queda definido cuando
se especifica:
1. El predictor.
2. La estrategia de parametrización.
3. El corrector.
4. El control de la longitud del paso.
257
Métodos de continuación
Los predictores pueden ser divididos en dos
clases:
• Predictores EDO, basados en f (x, λ) y sus
derivadas.
• Extrapolación polinomial, que sólo usa soluciones de la ecuación f (x, λ) = 0.
258
Métodos de continuación
Métodos EDO
Tomando el diferencial de la ecuación a resolver:
0 = df = fxdx + fλdλ
de donde
dx
−1 f
=
−
f
x
λ
d
λ
Ası́, si integro esta EDO (Euler, Runge-Kuta,
etc) obtengo la rama de soluciones.
259
Métodos de continuación
Si nos acercamos a un punto donde det(fx) =
0, vamos a tener dificultades con esta ecuación.
Una solución es cambiar el parámetro de λ a
la longitud de arco s:
Sea x = x(s), y λ = λ(s).
260
Métodos de continuación
0 = fx
dλ
dx
+ fλ
ds
ds
Y además:
2
dx1 2
dxn 2
dλ
+ ... +
+
=1
ds
ds
ds
Esta es una ED implı́cita en las incógnitas
x1, x2, . . . , λ. Más adelante veremos como se
integra.
261
Métodos de continuación
Un predictor EDO importante es el predictor
de la tangente. De:
fxdx + fλdλ = 0
Se sigue
[fx, fλ] z = 0
con
zi = dxi 1 ≤ i ≤ n zn+1 = dλ
262
Métodos de continuación
La tangente z no tiene un módulo definido.
Una manera de dárselo es hacer, por ejemplo:
eTk z = zk = 1
De donde
"
fx, fλ
eTk
#
z = en+1
263
Métodos de continuación
La ecuación anterior tiene solución simpre que
rango [fx, fλ] = n
Lo cual es posible (o no) incluso si det fx = 0.
264
Métodos de continuación
Una vez calculado z se construye el predictor
(x̃k+1, λ̃k+1) = (xk , λk ) + σ z
siendo σ el paso apropiado.
El método ası́ descrito (de la tangente) se
puede considerar análogo al método de Euler
para EDO.
265
Métodos de continuación
Volviendo al método de la longitud de arco.
Consideremos las ecuaciones
dxn+1
dx
0 = fx + fλ
ds
ds
!2
2
2
dxn+1
dx1
dxn
1 =
+ ... +
+
ds
ds
ds
Con λ = xn+1.
266
Métodos de continuación
Supongamos ahora que se hace temporalmente,
m = 1. Entonces la primera
para algún m, dx
ds
ecuación (lineal) puede resolverse en el resto
de las incógnitas para obtener:
dxi
= ci
ds
267
Métodos de continuación
Debido a la linealidad, la solución real verificará:
dxi
dxm
= ci
ds
ds
Substituyendo en la segunda ecuación (no lineal):
2
dx
m
2
2
2
=1
(c2
+.
.
.+c
+1+c
+.
.
.+c
)
1
m−1
m+1
n+1
ds
m , y después el resto.
De donde se despeje dx
ds
268
Métodos de continuación
Extrapolación polinomial
Se puede hacer pasar un polinomio de grado ν
a través de los ν + 1 puntos
(xj , λj ), (xj−1, λj−1), . . . , (xj−ν , λj−ν
269
Métodos de continuación
Por ejemplo,
• El predictor de orden 0:
(xj+1, λj+1) = (xj , λj )
• El prdictor de orden 1:
(xj+1, λj+1) = (xj , λj )+σj (xj −xj−1, λj −λj−1)
270
Métodos de continuación
Parametrización
Una parametrización es algo que nos permite
identificar de manera no ambigua cada solución
a lo largo de una rama de soluciones.
Por ejemplo, λ no es un buen parámetro, mientras que [y ] lo es.
271
Métodos de continuación
Una manera sistemática de tratar las parametrizaciones es introduciendo el parámetro γ a
través de la ecuación:
p(x, λ, γ) = 0
El sistema original de ecuaciones se agranda:
F(X, γ) =
f (x, λ)
p(x, λ, γ)
!
con X = (x, λ).
272
Métodos de continuación
Distintas parametrizaciones corresponden a diferentes funciones p. Por ejemplo, si se toma el
propio λ como parámetro de continuación, se
tiene γ = λ, y:
p(x, λ) = λ − λj+1
273
Métodos de continuación
Otra solución más interesante, que evita problemas en los pliegues, es hacer que γ sea algo
similar a la longitud del arco:
p(x, λ, γ) =
n
X
(xi−xi(sj ))2+(λ−λ(sj ))2−(s−sj )2
i=1
274
Métodos de continuación
A veces conviene pesar distinto variables y parámetros:
p(x, λ, γ) = ζ
n
X
(xi − xi(sj ))2 +
i=1
(1 − ζ)(λ − λ(sj ))2 − (s − sj )2
275
Métodos de continuación
También puede escogerse cualquier componente
de x como parámetro γ. Esto conduce a ecuaciones:
p(x, λ, γ) = xk − γ
276
Métodos de continuación
Esta selección se llama parametración local. Si
se utiliza en conjunción con el predictor de la
tangente, es habitual escoger el ı́ndice k tal
que
n
kzk k = max kz1k, . . . , kznk, kzn+1k
o
277
Métodos de continuación
Correctores
Un corrector es un procedimiento para encontrar una solución de la ecuación f (xj+1, λj+1) a
˜ ).
partir de una solución aproximada (xj+1
˜ , λj+1
278
Métodos de continuación
El sistema de ecuaciones f (x, λ) = 0 tiene n
ecuaciones y n + 1 incógnitas. Se necesita una
ecuación adicional. Por ejemplo:
1. λ = λ̃j .
2. xk = x̃k .
279
Métodos de continuación
Si se utiliza el predictor de la tangente se puede
dat como ecuación adicional
T
∆x , ∆λ z = 0
280
Métodos de continuación
Una vez escogida la ecuación adicional, se resuelve por algún método tradicional, como NewtonRaphson.
281
Métodos de continuación
Control de longitud de paso
Depende mucho del predictor y corrector usados. Dos simples estrategias son:
• Paso constante.
• Decidir el número de iteraciones que queremos en el corrector Nopt y actualizar el
N
paso multiplicando el paso previo por Nopt ,
j
donde Nj son las iteraciones que de hecho
se tuvieron con el corrector.
282
Métodos de continuación
En ocasiones, la longitud del paso depende de
lo que estemos interesados en calcular. Por
ejemplo, en estudios de estabilidad iremos más
lentos al acercarnos al punto donde la estabilidad se pierde.
283
Bifurcaciones locales de puntos de equilibrio
Sea un sistema diferencial:
ẋ = f (x, p)
Supongamos que existe un punto de equilibrio
xs:
0 = f (xe, pe)
284
Bifurcaciones locales de puntos de equilibrio
El primer paso para analizar la estabilidad de
este sistema alrededor de xe es analizar el jacobiano fx.
285
Bifurcaciones locales de puntos de equilibrio
Teorema de Hartman-Grobman
Sea Φt el flujo asocido al sistema no linear
previo.
Si fx no tiene autovalores de parte real nula,
existe un homeomorfismo h en un entorno de
xs tal que
Φ ◦ h = h ◦ exp(fxt)
286
Bifurcaciones locales de puntos de equilibrio
Por otra parte, si fx es regular, sabemos que
no pueden aparecer ni desaparecer puntos de
equilbrio.
En conclusión, si todos los autovalores tienen
partes reales no nulas, el sistema es localmente
como un sistema local, y los sistema pròximos
son similares.
287
Bifurcaciones locales de puntos de equilibrio
Ası́, los sitios “interesantes” (bifurcaciones) son
aquellos en los que el jacobiano tiene algún autovalor con parte real nula.
288
Bifurcaciones locales de puntos de equilibrio
Para analizar estos puntos nos gustarı́a generalizar algunos conceptos de sistemas lineales.
Una propiedad importante de los autovectores
derechos es que definen conjuntos invariantes.
289
Bifurcaciones locales de puntos de equilibrio
Si elsistema diferencial verifica el teorema de
Hartman-Grobman la generalización es obvia:
basta aplicar el homeomorfismo h al subespacio definido porlos autovectores derechos.
290
Bifurcaciones locales de puntos de equilibrio
Teorema del espacio central
Sea fx el jacobiano de un sistema diferencial
en un punto de equilibrio. Sean E s, E u y E c
los subespacios generados por los autovectores
de partes reales negativas, positivas y nulas respectivamente. Entonces existen espacios invariantes W s, W uy W c del sistema no lineal
que son tangentes en el punto de equilibrio a
los subesoacios lineales. W s y W u son localmente únicos. W c no tinene porqué.
291
Bifurcaciones locales de puntos de equilibrio
ẋ = x2
ẏ = −y
292
Bifurcaciones locales de puntos de equilibrio
De todas formas, hay dos hechos:
• Todos los W c tienen las mismas propiedades
de estabilidad.
• Solo hay un W c analı́tico.
293
Bifurcaciones locales de puntos de equilibrio
Nota: Esto no implica que para analizar las
propiedades de estabilidad de un sistema no lineal baste con analizar el sistema en la dirección
del autovector cuyo autovalor tenga parte realnula.
294
Bifurcaciones locales de puntos de equilibrio
El teorema del subespacio central muestra que
el sistema no lineal es conjugado a:
x̃˙ = f˜(x̃)
ỹ˙ = −ỹ
z̃˙ = z̃
(x̃, ỹ, z̃) ∈ W c × W s × W u
295
Bifurcaciones locales de puntos de equilibrio
Calculemos ahora f˜. Supongamos que no hay
autovalores inestables. Entones, el sistema no
lineal se puede escribir:
ẋ = Bx + f (x, y)
ẏ = Cy + g(x, y)
con C estable, B neutra y f y g al menos
cuadráticas.
296
Bifurcaciones locales de puntos de equilibrio
El subespacio cenral se puede escribir como:
W c = {(x, y)ky = h(x)}
El sistema proyectado en W c es:
ẋ = Bx + f (x, h(x))
que debe ser f˜.
297
Bifurcaciones locales de puntos de equilibrio
En el subespacio central se tiene que:
ẏ = hxẋ
= hx (Bx + f (x, h(x)))
= Ch(x) + g(x, h(x))
= 0
298
Bifurcaciones locales de puntos de equilibrio
Ası́ pues, para encontrar h hay que resolver la
EDP:
hx (Bx + f (x, h(x))) − Ch(x) − g(x, h(x)) = 0
con condiciones iniciales:
0 = h(0) = hx(0)
299
Bifurcaciones locales de puntos de equilibrio
En general, resolver esta ecuación es tan difı́cil
como resolver la ecuación diferencial original.
Pero es posible substituir una serie polinómica
e identificar coeficientes hasta cualquier grado
deseado.
300
Bifurcaciones locales de puntos de equilibrio
Pretendemos ahora encontrar un cambio de
variables que transforme el sistema
ẋ = f (x)
en un sistema tan sencillo como sea posible.
301
Bifurcaciones locales de puntos de equilibrio
Supongamos que la matriz fx tiene n autovalores distintos. Entonces, hay un cambio de
coordenadas que transforma el sistema en:
ẋ1 = λ1x1 + g1(x1, x2, . . . , xn)
ẋ2 = λ2x2 + g2(x1, x2, . . . , xn)
... = ...
ẋn = λnxn + gn(x1, x2, . . . , xn)
o
ẋ = Λx + g(x)
302
Bifurcaciones locales de puntos de equilibrio
Supongamos que g solamente tiene términos
a partir del orden k. Consideremos un cambio
de coordenadas casi lineal:
x = y + P (y)
con P un polinomio de orden k.
303
Bifurcaciones locales de puntos de equilibrio
Ası́
ẏ = (I + Py )−1f (y + P (y))
Pretendemos desarrollar esta expresión en serie
polinómica hasta los términos de orden k.
304
Bifurcaciones locales de puntos de equilibrio
Sea g k (x) el término de orden k. Entonces,
hasta orden k:
ẏi = λiyi + λiPi(y) + gik (y) −
n
X
∂Pi
j=1 yj
λj yj
305
Bifurcaciones locales de puntos de equilibrio
Si se desean eliminar los términos de orden k
del desarrollo, habrá que resolver el sistema:
λiPi(y) −
X ∂Pi
yj
λj yj = −gik (y)
El término de la izquierda es un operador lineal
a a
an se tiene
sobre P . Además, si Pi = y11 y22 . . . yn
P
que el lado izquierdo es (λi − aj λj )Pi. O
sea, los monomios son autovectores de este
operador los autovalores dados arriba.
306
Bifurcaciones locales de puntos de equilibrio
En particular, si los autovalores de fx verifican
P
la ecuación diofántica λi − aj λj = 0, entonces
los monomios correspondientes no se pueden
eliminar.
307
Bifurcaciones locales de puntos de equilibrio
De todas formas, si se quiere linealizar el campo
vectorial, lo anterior no enseña que:
1. La resolubilidad depende de la parte lineal.
2. El problema se puede reducir a resolver una
secuencia de ecuaciones lineales.
308
Bifurcaciones locales de puntos de equilibrio
Consideremos una función lineal L (normalmente fxx) y un polinomio P k de grado k. Sea
H k el espacio de los polinomios de grado k.
Entonces L induce una función ad L sobre H k
mediante:
ad L(P k ) = LxP − PxL
En componentes:
ad L(P k )i =
n
X
∂Li
∂Pik
k
Pj −
Lj
x
∂x
j
j=1 j
309
Bifurcaciones locales de puntos de equilibrio
Nota
El parétesis de Lie de dos campos vectoriales
f y g es:
[f, g]i =
n
X
∂gi
j=1 xj
fj −
∂fi
gj
xj
Ası́,
ad L(P k ) = [P k , L]
310
Bifurcaciones locales de puntos de equilibrio
Las cuentas anteriores se pueden formalizar en
el siguiente teorema:
Sea ẋ = f (x) un sistema diferencial tal que
f (0) = 0. Sea L = fxx. Sea Gk el complemento tal que H k = ad L(H k ) + Gk . Entonces
hay un cambio de coordenadas tal que el sistema se transforma en ẏ = g 1(y) + g 2(y) +
. . . + g r (y) + Rr , con g 1 = L y g k ∈ Gk , y
Rr = o(kykr ).
311
Bifurcaciones locales de puntos de equilibrio
La prueba es por inducción. Se van intentando
eliminar los términos desde los cuadráticos en
adelante. Cambios de coordenadas del tipo
x = y + P k (y). elimina todos los monomios
salvo los que esten en Gk .
312
Bifurcaciones locales de puntos de equilibrio
Para ver como funciona esto consideremos un
sistema ẋ = f (x, µ), que para µ = 0 tiene un
autovalor nulo.
ẋ = f (x, µ)
313
Bifurcaciones locales de puntos de equilibrio
El sistema se puede escribir como:
ẋ = f (x, µ)
µ̇ = 0
Este es el sistema suspendido.
314
Bifurcaciones locales de puntos de equilibrio
Podemos aplicar el teorema del espacio central
a este sistema de dos autovalores nulos. Si
proyectamos el sistema en el espacio central
se obtiene:
ẋ = f (x, µ)
µ̇ = 0
315
Bifurcaciones locales de puntos de equilibrio
Este sistema se puede escribir
"
ẋ
µ̇
#
"
=
0 b
0 0
#"
x
µ
#"
g(x, µ)
0
#
316
Bifurcaciones locales de puntos de equilibrio
Por lo tanto, el operador ad L es:
"
0 b
0 0
#"
P1k
P2k
#
∂P1k

−  ∂xk
∂P2
∂x


∂P1k
∂µ 

∂P2k
∂µ
317
Bifurcaciones locales de puntos de equilibrio
Si particularizamos en P 2, se tiene que este
operador resulta en la tabla:
∂
∂x
∂
∂y
x2
∂
2bxµ ∂x
∂ − 2bxµ ∂
bx2 ∂µ
∂x
xµ
∂
bµ2 ∂x
∂ − bµ2 ∂
bxµ ∂µ
∂x
µ2
0
∂
bµ2 ∂µ
318
Bifurcaciones locales de puntos de equilibrio
La matriz asociada es:





b




0
2
0
0
0
0
0
0
1
0
0
0

0 0
0 0

0 −2 0 0 

0 0 −1 0 

0 1
0 0 

0 0
1 0 

0 0
0 1
319
Bifurcaciones locales de puntos de equilibrio
Es fácil comprobar que esta matriz tiene un autovalor nulo de multiplicidad triple y autovector
izquierdo:
[1000000]
Esto significa que G2 = x2. Por lo tanto, el
sistema dinámico original se puede transformar
en:
"
ẋ
µ̇
#
"
=
0 b
0 0
#"
x
µ
#"
ax2
0
#
+ O(3)
320
Bifurcaciones locales de puntos de equilibrio
Claramente
a=
1
fxx
2
Pero x = vT x + O(2), donde v es el autovector
derecho correspondiente al autovalor nulo. Ası́
que
a=
1 T
w f (v ◦ v )
2
(Comparar con la reducción de Lyapunov-Schmidt)
321
Bifurcaciones locales de puntos de equilibrio
Análogamente
b = wT fµ
322
Bifurcaciones locales de puntos de equilibrio
Hemos demostrado que el sistema se puede
transformar en:
ẋ = ax2 + bµ
Esto es una bifurcación silla-nodo.
323
Bifurcaciones locales de puntos de equilibrio
Un vistazo a la bifurcación:
324
Bifurcaciones locales de puntos de equilibrio
La solución de la ecuación dinámica más allá
de la nariz es:
x(t) =
325
Bifurcaciones locales de puntos de equilibrio
El colapso de Bretaña:
326
Bifurcaciones locales de puntos de equilibrio
El caso de dos autovalores puramente imaginarios puede analizarse con las mismas técnicas.
El resultado final es:
ẋ = (dµ + a(x2 + y 2)x − (ω + cµ + b(x2 + y 2))y
ẏ = (ω + cµ + b(x2 + y 2))x + (dµ + a(x2 + y 2))y
Se llamma bifurcación de Hopf.
327
Bifurcaciones locales de puntos de equilibrio
En coordenadas polares, queda:
ṙ = (dµ + ar 2)r
θ̇ = (ω + cµ + br 2)
328
Bifurcaciones locales de puntos de equilibrio
Según el signo de a se tiene:
329
Bifurcaciones locales de puntos de equilibrio
Los coeficiente a, b, c, d dependen de las derivadas
terceras del sistema diferencial. Pretender calcularlos mediante la linearización de Poincaré
es como horrible.
Pero hay otras formas.
330
Ciclos lı́mite
Una órbita periódica del sistema diferencial
ẋ = f (x, p)
es una trayectoria x(t) que verifica el anterior
sistema diferencial y que además
x(0) = x(T )
T se llama el periodo de la órbita.
331
Ciclos lı́mite
Para que haya un órbita periódica el sistema
tiene que tener dimensión al menos 2. En
efecto, si dim(x) = 1
ẋ = f (x)
Z x
d
f (x)dx
= −
−
dx
0
d
= − V (x)
dx
V es función de Lyapunov, y por tanto no hay
más atractores que puntos de equilibrio.
332
Ciclos lı́mite
Se puede demostrar análogamente que en sistemas en <2 no hay más atractores que puntos
de equilibrio y ciclos lı́mite (teorema de Bendixon).
333
Ciclos lı́mite
Se desea calcular una órbita periódica del sistema
dx
= f (x)
dt
Esto es, calcular una trayectoria x(t) tal que
x(0) = x(T ), siendo T desconocido.
334
Ciclos lı́mite
Para hacer esto, primero se normaliza el tiempo
del sistema de forma que:
t = T t́
con lo que el problema queda:
dx
= T f (x)
dt́
x(0) = x(1)
335
Ciclos lı́mite
A continuación discretizamos la trayectoria por
n puntos, y transcribimos el operador ddt́ por
algún esquema de diferencias finitas. Por ejemplo, si se usa la regla trapezoidal:

d
1

→ 
dt́
n
1
0 0 . . . −1
−1 1 0 . . . 0
0 −1 1 . . . 0
...
... ... ... . . .



=∆

336
Ciclos lı́mite
Y la ecuación se discretiza a:



∆

x(1)
x(2)
...
x(n)






 =T


i
f (x(1))
f (x(2))
...
f (x(n))





i
Si la dimensión de x es m, este es un sistema
de n × m ecuaciones y n × m + 1 incógnitas (
las x’s y T ).
337
Ciclos lı́mite
La ecuación que falta es la que da la fase del
ciclo lı́mite, que es arbitraria. Una opción es
hacer x(1)1 = a, siendo a un valor arbitrario
que se sabe que x(1) tomará en algún momento.
338
Ciclos lı́mite
Una vez añadida esta última ecuación se puede
resolver el sistema por algún método más o
menos estándar, como Newton-Ralphson o Jacobi (nótese que el jacobiano es extremadamente ralo).
339
Ciclos lı́mite
En el caso de un sistema que se puede escribir como un sistema dinámico lineal en cascada con una nolinealidad estática, existe un
método aproximado de análisis conocido comoel método de la función caracterı́stica o del
balance armónico.
340
Ciclos lı́mite
La idea es ecribir x(t) mediante su serie de
Fourier:
x(t) =
∞
X
ak exp (jkωt)
k=−∞
siendo ω la pulsación del ciclo lı́mite. Ahora
debemos comparar los efectos del sistema lineal y de la nolinealidad en los coeficientes ak .
341
Ciclos lı́mite
Como la nolinealidad es estática, la señalΨ(x(t))
si x(t) es el ciclo lı́mite, tendrá la misma frecuencia que x. Ası́ pues
ψ(x(t)) =
∞
X
ck exp (jkωt)
k=−∞
donde los ck son funciones de los ak
ci = ci(ak )
342
Ciclos lı́mite
Por otra parte, el efecto de la parte lineal es
transformar el coeficiente ck en G(jkω)ck . Luego,
tenemos el sistema de infinitas ecuaciones:
G(jωk)ck + ak = 0
ci = ci(ak )
Lo que necesitamos es una aproximación de
dimension finita de estas ecuaciones.
343
Ciclos lı́mite
Como x y Ψ son reales sólo los k positivos son
necesarios. Supongamos que G(s) es pasabaja
con frecuencia de corte kω. Dado que todavı́a
no conocemos ω esto es una suposición.
Entonces G(jkω) = 0, si k > q, se sigue que
ak = 0 si k > q.
344
Ciclos lı́mite
Ası́, entonces tenemos el sistema:
G(jωk)ck + ak = 0
ci = ci(ak )
k≤q
345
Ciclos lı́mite
En el caso de que q = 1 se tiene:
G(0)c0(a0, a1) + a0 = 0
G(jω)c1(a0, a1) + a1 = 0
La primera ecuación es real y la segunda compleja. Hay cuatro incógnitas por la dimensión
de x: a0, las componentes real e imaginaria de
a1, y ω.
La variable extra se elimina escogiendo la fase
del ciclo lı́mite. En el caso de que x tenga
dimensión 1, esto se puede hacer imponiendo
a , con a real.
a1 = 2j
346
Ciclos lı́mite
De la primera ecuación G(0)c0(a0, a1) + a0 = 0
se puede despejar a0 en función de a1. Si ψ es
impar se tiene a0 = 0.
La segunda ecuación, se puede escribir:
a
−1
G(jω) = −
=
2jc1(a0, a/2j)
N (a)
347
Ciclos lı́mite
Este sistema se puede resolver gráficamente:
348
Ciclos lı́mite
Estos gráficos permiten también analizarla estabilidad del ciclo lı́mite. Si perturbo el sistema
se obtiene:
G(jω + ∆s) =
−1
N (a + ∆a)
∆s no puede ser imaginario. La parte real indica si el ciclo crece o decrece, y debe tener
distinto signo que a, para que el ciclo sea estable.
349
Ciclos lı́mite
Pasando a diferenciales:
!
∂G
∂G
∂
−1
∆s = −j
∆s =
∆a
s
ω
∂a N (a)
de donde, si se define:
∂
−1
∂G(ω)
η=
ζ=
∂ω
∂a N (a)
!
se obtiene:
Re∆s
η
= −Im
∆a
ζ
!
350
Ciclos lı́mite
La condición de estabilidad se puede escribir
entonces:
0 < faseη − faseζ < π
Gráficamente
351
Ciclos lı́mite
Los anteriores resultados se pueden aplicar a
sistemas de la forma
ẋ = f (x)
sin más que considerar G(s) = 1s .
352
Ciclos lı́mite
En general, el método del balance armónico
solo dar respuestas aproximadas y ni siquiera
garantiza la existencia de la órbita periódica.
Por lo tanto, sus resultados han de comprobarse por otros medios,como simulación. No
obstante, hay alguna excepción . . .
353
Ciclos lı́mite
Consideremos que las cosas dependen de un
parámetro µ: G(s, µ) y ψ(x, µ). Supongamos
que para µ = 0 existe un punto de equilibrio x0
y un par de autovalores conjugados λ = ±jω0.
Por el teorema de la bifurcación de Hopf sabemos que existe un ciclo lı́mite asociado a la
bifurcación de Hopf. Podemos intentar utilizar el balance armónico para determinar los
parámetros de la bifurcación.
354
Ciclos lı́mite
Sabemos que para el cálculo de la bifurcación
es preciso conocer los términos hasta el tercer grado. Por lo tanto, podemos desarrollar
f (x, µ) hasta los términos de tercer grado y
aplicar el balance armónico.
355
Ciclos lı́mite
El resultado es:
Sean v y u los autovectores derecho e izquierdo
del sistema (G(s), fx) asociado a ±jω0. Sea
además
v0 = (I − G(0)fx)−1G(0)fxx(v ◦ v ∗)/4
v2 = (I − G(2jω0)fx)−1G(2jω0)fxx(v ◦ v)/4
z = fxxx(v ◦ v ◦ v)/8 + fxx(v ◦ v0) + fxx(v ∗ ◦ v2)/2
u.G(jω0)z
σ =
u.Ǵ(jω0)fxv
donde Ǵ indica la derivada respecto a ω.
356
Ciclos lı́mite
dλ 6= 0y Re(σ) 6=
Supongamos que en µ = 0, Re dµ
0. Sea χ = ±1 el signo de su razón, ası́ que
2 σ + jτ , con β y τ reales. Entonces,
χ dλ
=
β
µ
para µ = χδ 2, con δ lo bastante pequeño, existe una órbita periódica con:
ω = ω0 + δ 2τ + t.m.o.
x(t) = Re x0 + δ 2β 2v0 + δβv exp(jωt)+
2
2
δ β v2 exp(2jωt) + t.m.o.
357
Perturbación, promediado y perturbación singular
Consideremos un sistema dependiente de un
parámetro pequeño:
ẋ = f (x, t, )
Supongamos además que es conocida una solución
x0(t) para = 0. Se desea calcular x(t, ).
358
Perturbación, promediado y perturbación singular
El proceso clásico de resolución es escribir x(t, )
como una serie formal:
x(t, ) = x0(t) +
NX
−1
k xk (t) + N xR (t, )
k=1
359
Perturbación, promediado y perturbación singular
Supongamos ademas que la condición inicial la
escribimos:
x(0, ) = η() = η(0) +
NX
−1
k ηk + N ηR ()
k=1
360
Perturbación, promediado y perturbación singular
Substituyendo esto en la ecuación diferencial:
NX
−1
ẋk k + N ẋR N = f (t, x(t), )
k=0
= h(, t)
=
NX
−1
hk (t)k + hR (, t)N
k=0
Dado que esto es una identidad, los coeficientes de k en cada término han de ser iguales.
361
Perturbación, promediado y perturbación singular
Identifiquemos los coeficientes hk (t).
El término de orden 0 es:
h0(t) = f (t, x0(t), 0)
con
ẋ0 = f (t, x0, 0) x0(0) = η0
362
Perturbación, promediado y perturbación singular
El término de orden 1 es:
∂
h1(t) =
f (t, x(t, ), )k=0
∂
∂x
∂f
∂f
(t, x(t, ), ) (t, ) +
(t, x(t, ), ) k=0
=
∂x
∂
∂
∂f
∂f
=
(t, x0(t), 0)x1(t) +
(t, x0(t), 0)
∂x
Luego
∂f
∂f
(t, x0(t), 0)x1(t) +
(t, x0(t), 0)
∂x
∂
x1(0) = η1
ẋ1 =
363
Perturbación, promediado y perturbación singular
Esta ecuación es una ecuación lineal.
Dos comentarios:
1. Si este procedimiento se aplica a un sistema alrededor de un punto de equilibrio
llegamos al primer método de Lyapunov.
2. El procedimiento, aunque directo, conlleva
en general un álgebra bastante engorrosa
a partir de x2.
364
Perturbación, promediado y perturbación singular
Por ejemplo, consideremos el siguiente circuito:
365
Perturbación, promediado y perturbación singular
Las ecuaciones dinámicas son:
dv1
1
1
=
(E − v1) − ψ(v1) −
(v1 − v2)
dt
R
Rc
1
1
dv2
=
(E − v2) − ψ(v2) −
(v2 − v1)
C
dt
R
Rc
C
La caracterı́stica de los diodos es:
−3
ψ(v) = 10
17, 76v − 103, 79v 2
+ 229, 62v 3 − 226, 31v 4 + 83.72v 5
366
Perturbación, promediado y perturbación singular
Si Rc = ∞ tenemos dos sistemas desacoplados.
Ası́, si Rc es grande, tenemos un problema que
se puede poner en la forma anterior.
Intentar, en estas condiciones, integrarlo directamente puede ser poco apropiado, pues tenemos un problema mal acondicionado.
367
Perturbación, promediado y perturbación singular
No se debe tomar Rc directamente como ,
pues es un parámetro ”adimensional”, mientras que Rc tiene dimensión.
Escalemos por lo tanto las ecuaciones.
1. Escalamos las variables v1 y v2 para que
sus valores sean del orden de 1. Serán del
orden de E, que es 1,2 V. No hace falta
normalización.
2. Escalamos el tiempo para que las cosas
cambien en tiempo de orden 1. El tiempo
caracterı́stico del sistema será del orden
RC. Introduzco un nuevo tiempo τ = t/RC.
368
Perturbación, promediado y perturbación singular
Con estos cambios, el sistema queda:
R
(v1 − v2)
Rc
R
v̇2 = E − v2 − Rψ(v2) −
(v2 − v1)
Rc
v̇1 = E − v1 − Rψ(v1) −
Esto sugiere = RRc .
A este sistema se puede ya aplicar la teorı́a
previa.
369
Perturbación, promediado y perturbación singular
Los resultados:
370
Perturbación, promediado y perturbación singular
El método anterior, en general, solamente garantiza que la solución exacta x(t, ) y la solución
P −1
k permanecen
aproximada obtenida N
x
(t)
k
k=0
próximas durante un tiempo finito.
Por tanto, este método no permite, si más,
analizar cuestiones asintóticas, como la estabilidad.
371
Perturbación, promediado y perturbación singular
Hay, sin embargo, algunos casos en que podemos
decir algo más. Supongamos un sistema de la
forma
ẋ = f (x) + g(x, t, )
Y supongamos que conocemos una solución
explı́cita al sistema
ẋ = f (x)
Sea x̃(t) esta solución.
372
Perturbación, promediado y perturbación singular
Entonces, la función y(t) = x(t) − x̃(t) verifica:
ẏ(t) = g(x(t), t, )
= g(y(t) + x̃(t), t, )
= h(y, t, )
Esta ecuación es la forma estándar para aplicar
el método de promediación (averaging).
373
Perturbación, promediado y perturbación singular
Es habitual que la función h(y, t, ) sea periódica.
Esto es porque x̃(t) es periódica y g autónoma.
Sea T el periodo del periodo.
374
Perturbación, promediado y perturbación singular
Consideramos, pues, sistemas de la forma:
ẋ = f (x, t, )
y el sistema promediado:
1 T
ẏ = f (y, t, 0)dt = f¯(y)
T 0
Z
375
Perturbación, promediado y perturbación singular
Si x(t) es una órbita periódica estable del sistema sin promediar se tiene que:
kx(t) − y(t)k = O() ∀t ∈ [0, ∞)
En caso de otros atractores, el comportamiento
es también satisfactorio.
376
Perturbación, promediado y perturbación singular
El procedimiento de promediado se puede desarrollar en serie. Escribiremos
x = x0 + x1 + s 2 + . . .
donde x0 = y
377
Perturbación, promediado y perturbación singular
Ahora bien
ẋ = ẏ + ė
= f (x, t, )
h
i
= f¯(y) + f (y + e, t, ) − f¯(y)
De donde el error e verifica:
h
ė = f (y(t) + e, t, ) − f¯(y(t))
i
378
Perturbación, promediado y perturbación singular
Esto sugiere la ecuación promediada:
Z
i
1 Th
f¯(x1)
ẋ1 = f (y + x1, t, ) − f¯(y) dt = ¯
T 0
Como el integrando es de orden , x1 es de
orden 2.
379
Perturbación, promediado y perturbación singular
El ejemplo clásico es perturbación de la órbita
de un planeta debida a perturbaciones de otros
cuerpos. Otro ejemplo (dedicado a los inteligentes):
La Tierra no es exactamente esférica. Por lo
tanto, el potencial gravitatorio es:

∞
X 1
µ
z 
V =−
1−
J
P
(
n n )
n
r
r
n=2 r

donde Pn son polinomios de Legendre.
380
Perturbación, promediado y perturbación singular
En el caso de la Tierra:
J2 = 1.1 × 10−3
J3 = −2.3 × 10−6
J4 = −1.7 × 10−6
381
Perturbación, promediado y perturbación singular
La ecuación del movimiento es:
r̈ = −∇ −

∞
X

µ
z
− ∇
JnPn( )
r
r
n=2
El problema
mu
r̈ = ∇
r
es integrable (orbitas elı́pticas). Sea r0(t) su
solución. Luego, para s = r − r0.
s̈ = −
∞
X
n=2
JnPn(
sz + z0(t)
)
s + r(t)
382
Perturbación, promediado y perturbación singular
El sistema promediado es:
∞
X
T
X
sz + z0(t)
dt =
s̈ = −
JnP̄n
Jn
Pn(
s + r(t)
0
0
n=2
Z T
383
Perturbación, promediado y perturbación singular
Supongamos que se conoce la orbita s por
medición. Entonces el cálculo de los Jn es un
mero problema de estimación lineal.
En la práctica, las cosas se complican un poco.
Hace falta promediado en diversos órdenes y
consideración de otras influencias. Pero esta
es la idea.
384
Perturbación, promediado y perturbación singular
Por ejemplo:
385
Perturbación, promediado y perturbación singular
En muchos problemas existen sistemas en los
que hay varias escalas de tiempos muy separadas. Tales sistemas se pueden analizar mediante el método de perturbación singular.
386
Perturbación, promediado y perturbación singular
La forma estándar de escribir estos sistemas es
como:
ẋ = f (t, x, z, )
ż = g(t, x, z, )
387
Perturbación, promediado y perturbación singular
Una primera aproximación es hacer = 0
ẋ = f (t, x, z, 0)
0 = g(t, x, z, 0)
De la segunda ecuación se obtiene:
z = h(x, t)
De donde
ẋ = f (t, x, h(x, t), 0)
388
Perturbación, promediado y perturbación singular
Denotemos la solución de esta ecuación, con
condición inicial ζ0, por x̄(t). Sea entones:
z̄(t) = h(t, x̄(t))
Claramente, z̄(0) = h(0, ζ0).
389
Perturbación, promediado y perturbación singular
Como la condición inicial de z no tiene porque
verificar esta condición, lo mejor que tenemos
derecho a esperar es que, tras un cierto tiempo
de orden se verifique
x(t, ) − x̄(t) = O()
z(t, ) − z̄(t) = O()
390
Perturbación, promediado y perturbación singular
Analizemos el comportamiento del sistema en
término de x y del “error” y = z − h(x, t)
ẋ = f (t, x, y + h(x, t), )
x(0) = ζ()
ẏ = g(t, x, y + h(x, t), ) − ∂h
−
∂t
∂h
f (t, x, y + h(x, t), )
∂x
y(0) = η() − h(0, ζ())
391
Perturbación, promediado y perturbación singular
Itroduzcamos un nuevo tiempo τ = 1 t. Entonces:
∂y
∂h
= g(t, x, y + h(x, t), ) − −
∂τ
∂t
∂h
f (t, x, y + h(x, t), )
∂x
y(0) = η() − h(0, ζ())
En el lı́mite → 0 se tiene que t → 0 y x(t) →
ζ0.
392
Perturbación, promediado y perturbación singular
Por lo tanto
∂y
= g(t, ζ0, y + h(ζ0, 0), 0)
∂τ
y(0) = η0 − h(0, ζ0)
Por supuesto, esta ecuación tiene un equilibrio
para y = 0.
393
Perturbación, promediado y perturbación singular
Particularicemos ahora al caso de un sistema
autónomo:
ẋ = f (x, z, )
ż = g(x, z, )
Para = 0 se reduce a:
ẋ = f (x, z, 0)
0 = g(x, z, 0)
394
Perturbación, promediado y perturbación singular
Es claro que para este sistema, el espacio definido
por la ecuación z = h(x) es invariante.
Pregunta: ¿Existe un espacio invariante análogo
para > 0?
Respuesta: Sı́, el espacio lento.
395
Perturbación, promediado y perturbación singular
Busquemos un espacio invariante de la forma
z = H(x, )
La condición de invarianza es:
z(0, ) − H(x(0, ), ) = 0 ⇒ z(t, ) − H(x(t, ), )
396
Perturbación, promediado y perturbación singular
Tomando dos puntos infinitamente próximos:
0 = g(x, z, ) − ∂H
f (x, H(x, ))
∂x
Esta ecuación, la condición del espacio, se puede
resolver perturbativamente en .
397
Perturbación, promediado y perturbación singular
En efecto, para = 0 se tiene que
H(x, 0) = h(x) = H0(x)
Escribamos
H(x, ) = H0(x) + H1(x) + 2H2(x) + . . .
Substituyendo esto en la condición del espacio
e identificando coeficientes de n se resuelve el
problema.
398
Perturbación, promediado y perturbación singular
Para n = 1:
∂g
∂H0
(x, H0(x))H1(x) =
f (x, H0(x))
∂z
∂x
Y ası́ sucesivamente
399
Perturbación, promediado y perturbación singular
Examinemos ahora el sistema en escala τ . Tenemos:
dz
= g(x(τ ), z)
dτ
Cuando → 0 se tiene:
dz
= g(x(0), z)
dτ
400
Perturbación, promediado y perturbación singular
Ası́ pues, el espacio x = x0 es un invariante
para = 0. Haciéndonos la misma pregunta
que antes llegamos a buscar un espacio invariante ∀:
x = F (z, ) = F0(z) + F1(z) + 2F2(z) + . . .
Claramente F0(z) = x0.
401
Perturbación, promediado y perturbación singular
Este espacio rápido ha de verificar:
x(0, )−F (z(0), ) = 0 ⇒ x(τ, )−F (z(τ ), ) = 0
Comparando dos puntos infinitamente próximos:
∂F
f (F (z, ), z) −
g(F (z, ), z) = 0
∂z
Y se procede como antes.
402
Perturbación, promediado y perturbación singular
Ejemplo:
Sea el sistema
ẋ = −x + z
ż = tan−1(1 − z − x)
403
Perturbación, promediado y perturbación singular
Espacio de estado para = 0:
404
Perturbación, promediado y perturbación singular
Espacio de estado para = 0, 1:
405
Perturbación, promediado y perturbación singular
Supongamos ahora que existe un punto de equilibrio en estos sistemas singulares, que podemos
tomar en (x, z) = (0, 0).
Escribamos las ecuaciones de la forma:
ẋ = f (x, y + h(x))
∂h
ẏ = g(x, y + h(x)) − f (x, y + h(x))
∂x
406
Perturbación, promediado y perturbación singular
Se demuestra que si:
1. Las derivadas primeras y segundas de f , g
y h están acotadas.
2. Los autovalores de
∂f (x, h(x)) ∂x
x=0
son estrictamente estables.
3. Los autovalores λi de
∂g(x, y + h(x))
∂y
verifican
Real λi ≤ ci < 0 ∀x ∈ [−x0, x0]
El sistema es estable a pequeña señal.
407
Perturbación, promediado y perturbación singular
Por ejemplo, consideremos el sistema:
ẋ = f (x, v)
ż = Az + Bu
v = Cz
u = γ(x)
Esto representa una planta no lineal f y un
control mucho más rápido que la planta oon
estado z.
408
Perturbación, promediado y perturbación singular
Esta ecuación se puede poner como:
ẋ = f (x, Cz)
ż = Az + Bγ(x)
Suponemos que (0, 0) es un equilibrio. Además:
h(x) = −A−1Bγ(x)
409
Perturbación, promediado y perturbación singular
Por el teorema anterior el sistema es estable a
pequeña señal si:
−1 ∂γ es Hurwitz.
1. Si ∂f
−
CA
∂x
∂x
2. Si A es Hurwitz.
En conclusión, si A es Hurwitz se puede uno
olvidar de la dinámica del regulador.
410
Perturbación, promediado y perturbación singular
Consideremos ahora un sistema dependiente
de un parámetro:
ẋ = f (x, z, µ)
ż = g(x, z, µ)
El sistema lento es:
ẋ = f (x, z, µ)
0 = g(x, z, µ)
411
Perturbación, promediado y perturbación singular
Conforme varı́a µ tendremos una sucesión de
puntos de equilibrio:
(x, z)∗ = (x(µ), z(µ))∗
La linealización del sistema lento da el jacobiano:
fx − fz gz−1gx
412
Perturbación, promediado y perturbación singular
Es posible que para algún µ, gz se vuelva singular. Esto implica que aparece un autovalor
infinito en la dinámica lenta.
Cuando se considera toda la dinámica, debe
aparecer una inestabilidad. Como se trata de
una bifurcación de codimensión 1, ha de ser
silla-nodo o Hopf. Como no hay pérdida de
solución estática ha de ser Hopf.
Esto se llama bifurcación causal.
413
Perturbación, promediado y perturbación singular
La situación:
414
Perturbación, promediado y perturbación singular
Los autovectores del autoanálisis generalizado
de:
"
I 0
0 0
# "
,
fx fz
gx gz
#!
proporcionan información sobre la dinámica rápida
implicada.
415
Perturbación, promediado y perturbación singular
En ocasiones, puede ocurrir algo parecido durante la evolución dinámica de un sistema. En
efecto, si consideramos una integración de Euler,
se tiene que:
xk+1 = xk + f (xk , zk )∆t
−1
zk+1 = zk − gz (xk , zk )gx(xk , zk ) xk+1 − xk
Es claro que si gz es singular, esto no sirve.
416
Perturbación, promediado y perturbación singular
Estos puntos se llama puntos de impasse. En
ellos, es preciso considerar la dinámica rápida
(por ejemplo, mediante los espacios rápidos)
para saber que ocurre exactamente.
417
Perturbación, promediado y perturbación singular
Por ejemplo, se el circuito:
418
Perturbación, promediado y perturbación singular
La variabale lenta es v. La rápida podrı́a ser
i. La evolución tiene lugar en el espacio lento
hasta llegar al punto de impasse, en cuyo momento pasa al espacio rápido:
419
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos un sistema discreto:
xk+1 = f (xk , µ)
420
Bifurcaciones locales de sistemas en tiempo discreto
Un punto de equilibrio (x∗, µ∗) verifica:
x∗ = f (x∗, µ∗)
421
Bifurcaciones locales de sistemas en tiempo discreto
La estabilidad de este punto de equilibrio se
puede analizar estudiando la derivada fx. La
condición de estabilidad es:
Todos los autovalores de fx deben estar dentro
del cı́rculo unidad.
422
Bifurcaciones locales de sistemas en tiempo discreto
Al cambiar µ existe la posibilidad de que algún
autovalor se vuelva inestable. Esto puede suceder
de tres formas:
• Un autovalor alcanza 1: silla-nodo.
• Un par de autovalores imaginarios cruzan
el cı́rculo unidad: Hopf.
• Un autovalor alcanza -1: flip, doble periodo o subarmónica
423
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos la bifurcación silla-nodo. El punto
de equilibrio verifica:
f (x∗, µ∗) − x∗ = F (x∗, µ∗) = 0
Linealizando:
(fx − I)∆x = Fx∆x = 0
424
Bifurcaciones locales de sistemas en tiempo discreto
El autoanálisis de fx:
fx = W ΛV W V = I
Luego
Fx = fx − I = W (Λ − I)V
Ası́ pues, un atovalor 1 en fx implica un autovalor nulo en Fx
425
Bifurcaciones locales de sistemas en tiempo discreto
Pero F es un sistema de ecuaciones estáticas.
Un autovalor nulo implica genéricamente que
la solución desaparece al unirse con otro punto
de equilibrio. La situación es análoga a la
del sistema continuo y se analiza de la misma
forma: desarrollo de los términos hasta segundo orden y sustitucion de x por algo en
la dirección del autovector derecho v.
426
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos ahora el caso de que aparecen
dos autovalores conjugados complejos.
La teorı́a se puede desarrollar forma análoga a
la del caso de ecuaciones continuas. En particular los conceptos del espacio central y de
transformaciones de Poincaré tienen todavı́a
sentido.
427
Bifurcaciones locales de sistemas en tiempo discreto
Sin embargo, la aplicación de la reducción de
Poincaré en este caso tiene alguna sorpresa.
Hagamos una derivación heurı́stica de la razón
de estas sorpresas.
Consideremos el sistema discreto
xk+1 = fd(xk )
como la versión muestreada, con tiempo de
muestreo T , de
ẋ = fc(x)
428
Bifurcaciones locales de sistemas en tiempo discreto
Supongamos que 0 es un punto de equilibrio
del sistema discreto. Entonces también lo es
del continuo. Cerca del equilibrio, y suspuesto
hecho el cambio de variables dado por los autovectores, las linealizaciones son:
xk+1 = Λdxk
ẋ = Λcx
429
Bifurcaciones locales de sistemas en tiempo discreto
Si el sistema discreto viene de la linealización
del continuo, se debe tener:
exp(ΛcT ) = Λd
430
Bifurcaciones locales de sistemas en tiempo discreto
Por otra parte, la condición para la eliminación
a
de Poincaré de los términos x11 . . . xann era que:
λi −
X
aj λj 6= 0
T λi −
X
aj T λj 6= 0
O
Si he reducido al espacio central, puedo considerar un sistema de 2 dimensiones.
431
Bifurcaciones locales de sistemas en tiempo discreto
Los autovalores del sistema discreto son de
la forma exp(±2πiθ). Como Λd = exp(Λc) se
tiene que 2πiθ = λc (mod1) y
±θ 6= a1θ − a2θ (mod1)
432
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos el caso en que θ es irracional.
Entonces, la ecuación anterior mo puede verificarse nunca, y todos los términos del cuarto
en adelante pueden eliminarse. El sistema se
puede reducir, por tanto, a:
rk+1 = rk (1 + d(µ − µ0) + ark2)
φk+1 = φk + θ + brk2
Por supuesto, la bifurcación puede ser sub o
supercrı́tica.
433
Bifurcaciones locales de sistemas en tiempo discreto
Si θ es racional la ecuación de eliminación tiene
solución y habrá términos que no pueden ser
eliminados. Sin embargo, en general estos términos
serán de orden elevado y no causarán problemas.
1.
Excepciones son θ = ± 1
o
θ
=
±
3
4
434
Bifurcaciones locales de sistemas en tiempo discreto
En efecto, para el caso θ = 1
3 , la ecuación
tiene solución para a1 = 0 y a1 = 2. Es decir,
no todos los términos cuadráticos pueden ser
eliminados.
Para θ = 1
4 hay solución si a1 = 0 y a2 = 3. Es
decir, hay términos cúbicos que no pueden ser
eliminados.
Como en la expresión de la bifurcación de Hopf
aparecen términos hasta el tercero, estos casos
son especiales.
435
Bifurcaciones locales de sistemas en tiempo discreto
El método del balance armónico es también
aplicable, utilizando transformada z en vez de
transformada de Laplace.
436
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos finalmente la bifurcación en flip,
cuando el autovalor cruza la circunferencia unidad
por −1.
Esta bifurcación no tiene análoga en sistemas
continuos.
437
Bifurcaciones locales de sistemas en tiempo discreto
Utilizando la aproximación del espacio central,
podemos reducir el sistema vectorial
xk+1 = f (xk , µ)
a un sistema escalar
xk+1 = f (xk , µ)
438
Bifurcaciones locales de sistemas en tiempo discreto
Si para µ = 0 hay un autovalor −1 se ha de
tener
f (x, 0) = −x + a1x2 + a2x3 + t.m.o.
La función f (x, 0) − x no tiene autovalores nulos. Ası́, pues, se ha de tener una solución
que pasa de ser de estable a inestable, pero no
aparecen ni desaparecen puntos de equilibrio.
439
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos la composición de f consigo misma.
f ◦ f = f 2(x, 0)
= −(−x + a1x2 + a2x3) +
a1(−x + a1x2)2 + a3(−x)3 + . . .
3
= x − (2a2
2 + 2a3 )x + . . .
f 2(x, 0) − x tiene un autovalor nulo. Por lo
tanto pueden aparecer o desparecer soluciones.
Un momento de examen nos muestra que estamos ante una bifurcación en ”cúspide”.
440
Bifurcaciones locales de sistemas en tiempo discreto
Si f 2 tiene puntos de equilibrio que no lo son
de de f , han de ser órbitas de periodo 2. La
situación es pues:
441
Bifurcaciones locales de sistemas en tiempo discreto
Para calcular los parámetros de la bifurcación,
basta aplicar la reducción de Lyapunov-Schmidt
a la función f ◦f −x. Esto solo requiere derivadas
de este función, que se pueden obtener aplicando la regla de la cadena.
El método tiene un algebra algo pesada, pero
es fácil de aplicar numéricamente.
442
Bifurcaciones locales de sistemas en tiempo discreto
Considérese ahora una órbita periódica de un
sistema continuo x(t). Para analizar las propiedades
de estabilidad de esta órbita se puede introducir la llamada sección de Poincaré.
443
Bifurcaciones locales de sistemas en tiempo discreto
Es claro que la estabilidad de la órbita es la
misma que la de la aplicación de Poicaré. Por
tanto, los autovalores de esta función son los
mismos independientemente de la sección usada.
444
Bifurcaciones locales de sistemas en tiempo discreto
Analizemos la estabilidad de la órbita de otra
forma. Consideremos que la órbita x(t) es perturbada a x(t) + δ x(t). Substituyendo en la
ecuación diferencial se obtiene
d
δ x = fx(x(t))δ x
dt
445
Bifurcaciones locales de sistemas en tiempo discreto
Esta es una ecuación lineal dependiente del
tiempo. La matriz fx(x(t)) tiene periodo T .
Una solución general tiene la forma:
X(t) = Z(t) exp(tR) Z(0) = Z(T )
446
Bifurcaciones locales de sistemas en tiempo discreto
Si se escoge X(0) = Z(0) = I se tiene
X(t) = exp(tR)
Y por lo tanto la estabilidad de la órbita viene
dada por los autovalores de R (multiplicadores
de Flouquet). Hay un autovalor que vale 1,
y el resto son iguales a los autovalores de la
aplicación de Poincaré.
447
Bifurcaciones locales de sistemas en tiempo discreto
La estabilidad del ciclo lı́mite viene dada por
los autovalores de la aplicación de Poincaré.
Siendo un sistema discreto podrı́a, en principio, perder estabilidad mediante una bifurcación silla-nodo, Hopf o flip.
448
Bifurcaciones locales de sistemas en tiempo discreto
Una bifurcación silla-nodo implica una colisión
con otro ciclo lı́mite. Es raro (salvo en sistemas de dimensión 2). Implica que los ciclos
se tocan por todas partes a la vez.
449
Bifurcaciones locales de sistemas en tiempo discreto
La bifuracción de Hopf implica que el ciclo
lı́mite se parte, o se junta con, un toro invariante.
450
Bifurcaciones locales de sistemas en tiempo discreto
La bifurcación en flip esta asociada a una duplicación de periodo.
451
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos ahora un tipo especial de aplicación discreta: la aplicación del cérculo:
θk+1 = f (θk ) θ ∈ S
452
Bifurcaciones locales de sistemas en tiempo discreto
Esta aplicación surge en un amplio campo de
circunstancias. Por ejemplo, cuando un ciclo
lémite se transforma en un toro invariante:
453
Bifurcaciones locales de sistemas en tiempo discreto
También cuando se tienen dos osciladores acoplados. El espacio de estado es S 1 × S 1: un toro.
Si se toma una sección de Poincaré se obtiene
un cérculo.
Por ejemplo, si los dos osciladores evolucionan
según:
φ = φ(t)
θ = θ(t)
puede definirse una sección de Poincaré tomando
los tk en los que φ(tk ) = 0 y
θk = θ(tk )
454
Bifurcaciones locales de sistemas en tiempo discreto
Consideremos primero el caso en el que los dos
osciladores están desacoplados. Se tiene entonces que
φ(t) = Ω1t ⇒ tk =
2π
k
Ω1
y
2πΩ2
θk+1 = Ω2T1 =
+ θk = ω + θk
Ω1
455
Bifurcaciones locales de sistemas en tiempo discreto
Por cierto, esto es lo que ocurre en un toro
invariante justo después de una bifurcación de
Hopf de un ciclo lémite.
456
Bifurcaciones locales de sistemas en tiempo discreto
Cuando los osciladores se acoplen el sistema
cambia a:
θk+1 = θk + ω + g(θk )
g es pequeña si los osciladores estan casi desacolplados. Puedo tomar esta ecuación módulo
1.
457
Bifurcaciones locales de sistemas en tiempo discreto
g es periódica con periodo 1, luego podemos
escribirla en serie de Fourier. Escogiendo adecuadamente el origen de ángulos puede eliminarse el término en cos. Luego:
g(θ) = g0 −
∞
X
k
sin(2πθ) +
2π
(ak sin(2kπθ) + bk cos(2kπθ))
2
458
Bifurcaciones locales de sistemas en tiempo discreto
El término g0 solo implica un cambio de la
frecuencia ω. Más interesante es el efecto de
la parte no lineal. El efecto dominante viene
del término en primer orden. Consideremos el
sistema dinámico:
k
θk+1 = θk + ω −
sin(2πθ)
2π
459
Bifurcaciones locales de sistemas en tiempo discreto
Como consecuencia de este término no lineal, desaparecen las órbitas cuasiperiódicas y
quedan las órbitas periódicas. La situación es:
460
Bifurcaciones locales de sistemas en tiempo discreto
Cada una de las resonancias se llama una lengua
de Arnold. Por ejemplo, consideremos la resonancia 1-1. En los lémte se ha de verificar:
θ∗ = θ∗ + ω −
k
sin(2πθ∗)
2π
df
∗
θ∗ = 1 − k cos(2πθ ) = 0
dθ
La últimna ecuación implica θ∗ = ± 1
4 . Substik .
tuyendo en la primera ω = ± 2π
461
Bifurcaciones locales de sistemas en tiempo discreto
Por ejemplo, consideremos el oscilador original
de van der Pol:
462
Bifurcaciones locales de sistemas en tiempo discreto
Aqué hay dos osciladores: el oscilador de relajación formado por el condensador y la lámpara
de Neón; y la fuente de alterna. El resultado:
463
Caos determinista
Consideremos un sistema discreto que pierde
estabilidad a través de una bifurcación flip:
xk+1 = f (xk , µ) − 1 ∈ ρ(fx)
464
Caos determinista
El caso arquetı́pico es la aplicación logı́stica:
xk+1 = µxk (1 − xk )
Si µ > 1, existe siempre un punto de equilibrio
x∗ = 1 − µ−1. Este punto es estable si mu < 3,
en cuyo momento sufre una bifurcación en flip.
465
Caos determinista
Tras la bifurcación, la aplicación f ◦ f = f 2
tiene un punto de equilibrio inestable y, si es
supercrı́tica, un punto de equilibrio estable.
Este punto de equilibrio estable de f 2 puede
sufrir una nueva bifurcación en flip supercrı́tica,
dando lugar a un ciclo lı́mite estable de priodo
dos de f 2, o de periodo 4 de f .
466
Caos determinista
Analogamente, f 4 puede sufrir un flip supercrı́tico,
dando lugar a un ciclo de periodo 8. En algunos casos esta secuencia continua hasta que
se alcanza un periodo ”infinito”.
467
Caos determinista
En el sistema logı́stico:
468
Caos determinista
El sistema logı́stico este punto se alcanza cuando
µ = 3, 569946 . . .. Analizemos el sistema para
µ = 4, donde parece tener un comportamiento
similar.
469
Caos determinista
El sistema es:
xk+1 = 4xk (1 − xk )
Escribamos x = sin2(θ). Esto es posible porque
x ∈ [0, 1]. Tenemos que
sin2(θk+1) = 4 sin2(θk )cos2(θk )
= sin2(2θk )
470
Caos determinista
Hemos demostrado que el sistema es equivalente a:
θk+1 = 2θk
xk = sin2(θk )
Luego basta con analizar el primer sistema dinámico.
471
Caos determinista
Si escribimos θ en binario
θ =, 0011101001110 . . .
vemos que el sistema dinámico es equivalente
a correr la coma. Por lo tanto, si conocemos θ
con n cifras, el sistema puede hacer cualquier
cosa a partir del la enésima iteración.
472
Caos determinista
Esta extrema sensibilidad a las condiciones iniciales es una carcterı́stica del caos.
Un atractor caótico es un atractor (un conjunto invariante al que tienden las trayectorias)
dentro del cual el sistema presenta sensibilidad
exponencial a las condiciones iniciales.
473
Caos determinista
La manera en que se ha llegado al caos en
este caso no depende, en cierto sentido, de la
forma precisa del sistema dinámico. Da igual
la función logı́stica, que un seno, que . . ..
Para ver esto, estudiemos el mapa logı́stico.
Las primeras bifurcaciones tienen lugar a µ = 3
(nacimiento del 2 ciclo lı́mite), y µ = 3, 44949 . . .
(nacimiento del 4 ciclo lı́mite).
474
Caos determinista
f y f 2 en µ = 2, 90 y µ = 3, 15:
475
Caos determinista
f 2 y f 4 en µ = 3, 42 y µ = 3, 48:
476
Caos determinista
Entre cada dos puntos de bifurcación n y n + 1
n
2
hay uno donde fx tiene de autovalor 0 (un
máximo o mı́nimo). Estos puntos se llaman
superestables. La notación es:
. . . µn < µ∗n < µn+1 . . .
477
Caos determinista
Comparemos f , f 2, f 4, en sus puntos superestables:
478
Caos determinista
Da la impresión que cada cuadrado es como
el anterior girado y reducido. gn es la función
dentro del cuadro en la iteración n, por lo que
tenemos un sistema dinámico. Cerca de la
aparición del caos, los valores µ se hacen esencialmente iguales a µ∞, por lo que gn viene
de la composición de gn−1. En el lı́mite esperamos:
g(x) = (−α)g(g(x/(−α)))
479
Caos determinista
Escribiendo g en serie de Taylor:
g = a 1 x 2 + a 2 x 4 + a 3 x6 + . . .
se puede substituir e identificar los coeficientes.
En particular se encuentra:
α = 2, 502907876 . . .
480
Caos determinista
La g ası́ calculada es un punto fijo del sistema
2 (x/ − α), que localmente coingn+1(x) = −αgn
k
cide con nuesto sistema definido por f 2 en los
puntos superestables (salvo que va al revés).
Por lo tanto, los autovalores de estos sistemas
han de coincidir.
El mayor autovalor de este sistema es:
λ = 4, 669201609 . . .
481
Caos determinista
λ indica a que velocidad cambia la función.
Pero si la función converge como λ−n, y como
es proporcional a µ∗n, mu∗ debe converger de
la misma forma. Luego
lim
µ∗n+1 − µ∗n
n←∞ µ∗
n+2 − νn+1
=λ
482
Caos determinista
En este razonamiento no se ha utilizado el hecho de que f fuera logı́stica, sino solo que se
tenı́a una secueencia de duplicación de periodo hasta el caos. Por lo tanto, el resultado
anterior vale para todas estas secuencias.
483
Caos determinista
Hay otras formas en que un sistema puede volverse caótico. Una de ellas es conocida como
intermitencia.
484
Caos determinista
Consideremos un sistema discreto que sufre
una bifurcación silla-nodo. Poco después de
la bifurcación se tiene la situación:
485
Caos determinista
Supongamos que hay algo que fuerza al sistema a volver por la izquierda una vez que
ha salido por la derecha. Dentro del cuello
la diferencia entre xn+1 y xn es pequeña y se
puede escribir:
dx
= x2 + µ
dn
La solución es:
x(n) =
√
√
µ tan( µ(n − n0))
486
Caos determinista
La situación es:
donde la dirección media de las ráfagas es proporcional a √1µ .
487
Caos determinista
El fenómeno de intermitencia surge porque un
sistema se acerca a las proximidades de un
punto de equilibrio que ya no lo es, pero donde,
no obstante, queda el recuerdo en la forma de
una dinámica lenta.
488
Caos determinista
Según el punto de equilibrio que se ha perdido
se distingue entre:
1. Intermitencia I: silla-nodo.
2. Intermitencia II: Hopf subcrı́tica.
3. Intermitencia III: flip subcrı́tica.
489
Caos determinista
Otra via al caos es cuando tras una bifurcación
de Hopf, un sistema discreto se mueve a la
región donde las lenguas de Arnold se solapan.
Esto se llama rotura del toro.
490
Caos determinista
Por ejemplo, el péndulo de van der Pol:
491
Caos determinista
Un atractor caótico es un conjunto sumamente
complejo cuya caracterización no es fácil. Existen uns serie de medidas para caracterizarlo.
492
Caos determinista
Una primera información la da el espectro del
sistema. Si es caótico esperamos que haya
muchas trayectorias no periódicas, que se ven
como gran energı́a en la parte baja del espectro.
493
Caos determinista
Por ejemplo, una transisción de un sistema de
un ciclo lı́mite a un estado caótico:
494
Caos determinista
Otra caracterı́stica importante son los exponentes de Lyapunov. Ellos nos dicen cómo de
rápido se separan dos trayectorias vecinas.
495
Caos determinista
Este es un número fácil de calcular. En efecto,
se tiene que, para dos puntos x e y
x(t + ∆t) = x(t) + f (x)∆t
y(t + ∆t) = y(t) + f (y)∆t
Luego:
w(t + ∆t) = w(t) + fxw∆t
o
dw
= fxw
dt
496
Caos determinista
Para t = 0 hagamos kw(0)k = 1. Integrando
numéricamente esta ecuación de t0 a t1 se obtiene que w habrá aumentado su modulo. Sea:
α1 = kw(t1)k
497
Caos determinista
Normalizemos ahora w(1) dividiendo por α1
y procedamos como antes. Obtenemos entonces una nieva constante α2. Iterando se
obtiene una serie de vectores unitarios y de
constantes αi. Si no hubierámos normalizado,
el módulo de w(n) serı́a
Y
α 1 α 2 . . . αn
Como w(t) ≈ w(0) exp(λt) se tiene:
n
1 X
λ(x) = lim
ln(αi)/Deltat
n→∞ n
i=1
498
Caos determinista
Si al mismo tiempo que calculo los αi me muevo
en la trayectoria obtengo el exponente de la
trayectoria. Si la trayectoria es densa en el
atractor, se obtiene el exponente del atractor.
499
Caos determinista
Otra medida interesante es la dimensión fractal
del atractor.
Consideremos un cuadrado en un espacio tridimensional. Si puedo cubrirlo con una bola 3D
de diámetro 1, necesitaré 4 de diémetro 0,5, 8
de diámetro 0,25, etc.
500
Caos determinista
Esto sugiere que si un conjunto dado requiere
N () bolas de tamaño , se define la dimensión
fractal como:
d = lim −
n→∞
ln N ()
ln 501
Caos determinista
Queda el tema de identificación de sistemas
caóticos. El caso estándar es cuando se parte
de una serie temporal de una variable escalar:
x = {x(1), x(2), x(3), . . .}
502
Caos determinista
Si esto proviniera de un atractor de dimensión
fractal entre n − 1 y n, las n primeras muestras
serı́an independientes y el resto se deberı́an
poder calcular a partir de ellas.
503
Caos determinista
En la práctica se determina la dimensión de
imersión (embedding), que es la dimensión del
espacio lineal generado por la serie. Esto se
hace con técnicas estándar.
504
Caos determinista
Una vez hecho esto se transforma la serie a las
coordenadas esenciales y se realizan, gráficamente
por ejemplo, proyecciones en 2 y 3 dimensiones.
Si el atractor es de dimensión pequeña, se
puede identificar.
505
Caos determinista
Por ejemplo, la reacción Belusov-Zhabotinski:
506
Sistemas hamiltonianos
Las ecuaciones de Hamilton son:
∂H
ṗ = −
∂q
∂H
q̇ =
∂p
siendo H(p, q) el hamiltoniano (la energı́a).
507
Sistemas hamiltonianos
Por ejemplo, en un péndulo:
p2
H=
− mgl cos q
2ml
y las ecuaciones de Hamilton:
ṗ = −mgl sin(q)
p
q̇ =
ml
que son las ecuaciones que cumplen el ángulo
y el momento cinético.
508
Sistemas hamiltonianos
A partir de las ecuaciones de Hamilton se tiene:
X ∂H dqi
∂H dpi
dH
=
−
=0
dt
∂pi dt
i ∂qi dt
Ası́ pues, la energı́a se conserva a lo largo de
la evolución del sistema. Es un invariante del
movimiento.
509
Sistemas hamiltonianos
Puede haber otros invariantes del movimiento.
Estan asociados a simetrı́as. Por ejemplo, en
tres dimesiones la descripción de un sistema
aislado no cambia si transladamos el sistema
de referenica. Esto implica la conservación del
momento.
510
Sistemas hamiltonianos
Por ejemplo, sea un sistema aislado de N partı́culas.
Se tiene que:
H = H(pi, qi)
Si desplazo todo una cantidad δ q el hamiltoniano no cambia:
N
X
∂H
δq
∂
q
i
i=1
X dpi
δq
= −
dt
= 0
δH =
Luego
N
X
pi = constante
i=1
511
Sistemas hamiltonianos
Se puede demostrar ası́ que cualquier función
conservada deriva de una simetrı́a. En efecto,
si se conserva una cantidad f (qi, pi) se tiene
que:
N
X
df
∂f dpi
∂f dqi
=
+
dt
∂q
dt
∂pi dt
i
i=1
N
X
∂f ∂H
∂f ∂H
=
−
∂q
∂p
∂pi ∂qi
i
i
i=1
512
Sistemas hamiltonianos
Ahora, esto se puede interpretar como el incremento que sufrirı́a el hamiltoniano si pi y qi
se incrementaran como:
∂f
δτ
∂qi
∂f
δqi =
δτ
∂pi
δpi = −
τ es algún parámetro. Integrando las ecuaciones tenemos la simetrı́a.
513
Sistemas hamiltonianos
Por ejemplo, en el caso del momento lineal
total (en 1D, para simplificar):
f =
N
X
pi
i=1
Las ecuaciones son
δpi = 0 × δτ
δqi = δτ
Su solución es:
pi = pi(0) qi = qi(0) + τ
No cambiar los momentos y mover lo mismo
todas las coordenadas.
514
Sistemas hamiltonianos
En sistemas aislados, el espacio presenta 6 simetrı́as:
3 translaciones y 3 rotacionales. Sus cantidades conservadas son los momentos lineales
y cinéticos. En general no hay más.
515
Sistemas hamiltonianos
Pero si solo hay 7 cantidades conservadas, esto
implica que el sistema debe vagabundear por
toda la superficie del espacio de estado definida
por estas 7 constantes.
Como cada partı́cula aporta 6 dimensiones al
espacio de estado, la trayectoria ha de estar
contenida en una superficie de dimensión 6N −
7 como mucho.
516
Sistemas hamiltonianos
Por ejemplo, dos partı́culas que se atraen con
una fuerza central no coulombiana:
517
Sistemas hamiltonianos
Los sistemas hamiltonianos tienen la propiedad
de que, en la evolución, se conserva el volumen
en el espacio de fases.
Consideremos un sistema dinámico
ẋ = f (x)
y un paralelepı́pedo (un cubito torcido) en el
espacio de estado de estado:
518
Sistemas hamiltonianos
Para ver lo que le pasa al cubito consideremos la evolución de 2 esquinas próximas x(0)
y x(0) + l(0), siendo l pequeño:
x(dt) = x(0) + f (x(0))dt
(x + l)(dt)+ = x(0) + l(0) + f (x(0) + l(0))dt
= x(0) + dx(0) +
f (x(0))dt + fx(0)l(0)dt
Dicho de otra forma:
l(t) = l(0) + fxl(0)dt
519
Sistemas hamiltonianos
Supongamos que nuestro cubo tiene los lados,
todos de longitud l, en las direcciones de los n
autovectores de fx. Entonces, para el lado i:
dli = λildt
N se tiene
Como el volumen es V (0) = ΠN
l
=
l
i
i
que
dV =
N X
dliΠj6=ilj
i=1
520
Sistemas hamiltonianos
Ası́ pues:
dV
N
X
dli N
Πj=1lj
i=1 li
N X
λildt
V
=
l
i=1
=
= V
N
X
!
λidt
i=1
= V traza(fx)dt
o
dV
= traza(fx)dt
V
de donde
V (∆T ) ≈ V (0) exp(traza(fx)∆T )
521
Sistemas hamiltonianos
Si un sistema tiene un atractor debe tener la
traza de fx negativa, ya que al converger las
trayectorias al atractor se juntan todas.
Un sistema en el que traza(fx) < 0 en todo el
espacio se llama disipativo. Si fuera igual a 0
es conservativo.
522
Sistemas hamiltonianos
En el caso de un sistema hamiltoniano se tiene
bf f (x

 − ∂H
∂q
=
 ∂H
∂p
Por tanto

∂ 2H

− ∂q∂p 
 0
fx =  ∂ 2H

0
∂q∂p
y traza(fx) = 0.
523
Sistemas hamiltonianos
Ası́ pues, un sistema hamiltoniano es un sistema que no puede tener, en rigor, atractores.
Consideremos cambios de coordenadas:
P = P (p, q)
Q = Q(p, q)
Un cambio ası́ se dice canónico si las ecuaciones dinámicas resultantes son también hamiltonianas:
∂K(P, Q)
Ṗ = −
∂Q
∂K(P, Q)
Q̇ =
∂P
524
Sistemas hamiltonianos
Supongamos que tengo un sistema hamiltoniano con N coordenadas y N momentos y encuentro una transformación canónica tal que
K = K(Pi)
Ṗi = 0
∂K
Q̇i =
∂Pi
La solución de estas ecuaciones es inmediata:
Pi = constante
∂K
Qi =
t + Q0
i
∂Pi
525
Sistemas hamiltonianos
Un sistema de este tipo se llama integrable.
La notación más habitual es:
Pi = Ji
Qi = θi
∂K
= ωi(J)
∂Pi
J se llama la acción y θ el añgulo.
526
Sistemas hamiltonianos
Si un sistema es integrable su trayectoria yace
en un toro de dimensión N , si la órbita está
acotada (hay N constantes Ji del movimiento).
527
Sistemas hamiltonianos
Por ejemplo, consideremos de nuevo el péndulo:
ω02q 2
p2
H(p, q) =
+
2
2
Con el cambio de variables (hay que comprobar
que es canónico):
s
q =
2J
cos θ
ω0
q
p = − 2Jω0 sin θ
se obtiene
H = Jω0
528
Sistemas hamiltonianos
529
Sistemas hamiltonianos
El nombre de integrables viene porque todos
los sistemas que lo son en la práctica (con el
significado normal de la palabra) lo son de este
tipo.
Caso tı́picos en mecánica celeste (o estabilidad
transitoria).
530
Sistemas hamiltonianos
En general, los hamiltonianos no son integrables.
Pero uchas veces no estan lejos de serlo. Sea
entonces un sistema no integrable tal que
∂H0
+ f
∂q
∂H0
q̇ =
+ g
∂p
ṗ = −
donde H0 es integrable.
531
Sistemas hamiltonianos
La manera más eficiente es transformar el sistema a coordenadas acción-ángulo:
J˙ = f (J, θ)
θ̇ = ω(J) + g(J, θ)
Y aplicar promediado:
J = J0 + J1(t)
θ = ω(J0)t + θ1(t)
¯0 )
J˙1 = f (J
¯0)
θ˙1 = g(J
como promediado de primer orden. Naturalmente se puede seguir. Estos métodos dan
aproximaciones numéricas extremadamente rápidas.
532
Sistemas hamiltonianos
Debido al carácter conservativo de las ecuaciones de Hamilton, es relativamente fácil de
encontrar, en sistemas integrables, trayectorias
homoclı́nicas.
Por ejemplo, el diagrama de fases del péndulo
no lineal:
p2
H=
− B cos q
2I
533
Sistemas hamiltonianos
Suongamos que tenemos otros osciladores (otros
grados de libertad del hamiltoniano total, por
ejemplo) que estan desacoplados de la dinámica
anterior. No obstante, podemos usar su fase
para obtener un mapa de Poincaré del sistema
anterior, que tendrá la misma pinta.
534
Sistemas hamiltonianos
Cualquier perturbación (un pequeño acoplamiento
entre grados de libertad, por ejemplo) destroza
la conexión homoclı́nica . . .
535
Sistemas hamiltonianos
. . . obteniendo la ”madeja” homclı́nica. En
efecto, si las dos ramas se intersectan una vez,
han de cortarse infinitas.
536
Sistemas hamiltonianos
Nótese que en el caso de que nos encontremos
con una madeja homoclı́nica, debemos tener
trayectorias que convergen o divergen del punto
estable tras un número arbitrario de oscilaciones.
537
Sistemas hamiltonianos
En el caso de dos dimensiones existe un método,
llamado el método de Melkinov que permite establecer si una perturbación dada nos creará o
no una madeja homoclı́nica.
538
Sistemas hamiltonianos
Sea
ẋ = f0(x)
un sistema con una órbita homoclı́nica x̄(t).
Sea el sistema perturbado
ẋ = f0(x) + f1(x(t), t, )
539
Sistemas hamiltonianos
Se define la integral de Melnikov como:
∆1(t) = −
Z ∞
∞
f0(x̄(τ )) ∧ f1(x̄(τ ), τ − t, 0)
Z τ
∂f
exp −
Tr 0 (x̄(σ))dσ dτ
∂x
0
Si f1 es periódica en su segundo argumento,
también lo es ∆1. ∧ es el producto vectorial.
540
Sistemas hamiltonianos
Entonces, si
1. ∆1(t) 6= 0 ∀t. Entonces, no existe madeja
homoclı́nica.
2. ∃t1∆1(t1) = 0y∆1´(t1) 6= 0. Entonces existe madeja homoclı́nica.
Nótese que la existencia de madeja homoclı́nica
lleva a la existencia de dominios de atracción
fractales.
541
Sistemas hamiltonianos
Consideremos finalmente perturbaciones hamiltonianas de sistemas hamiltonianos. Si el sistema es integrable, podemos obtener transformaciones de Poincaré de la forma:
Jn+1 = Jn
θn+1 = θn + ω(Jn)
El mapa de Poincaré se ha tomado considerando,
por supuesto, la fase de otro grado de libertad
del Hamiltoniano.
542
Sistemas hamiltonianos
Una gráfica de la transformación:
Algunas de estas superficies seran racionales
(giran un ángulo racional) y otras irracionales.
543
Sistemas hamiltonianos
Si se acoplan los dos osciladores, podremos
analizar la dinámica mediante teorı́a de perturbaciones. Ahora bien, si hemos escogida una
superficie racional, acabaremos encontrando problemas cuando avancemos en el orden de perturbación.
Esto es similar a las resonancias que nos encontrábamos en el primer método de Lyapunov.
544
Sistemas hamiltonianos
Se demuestra ası́ que las superficies racionales
no son estables. Otra cosa son las irracionales,
que si son lo bastante irracionales, se preservan (superficies KAM). Esta es la esencia del
teorema KAM.
545
Sistemas hamiltonianos
Esto tiene algunas curiosas consecuencias. Supongamos que tenemos dos superficies KAM entre una superficie racional de periodo p. Trás
perturbación, las superficies KAM permanecen
(más o menos distorsionadas).
546
Sistemas hamiltonianos
Entre las dos curvas KAM debe seguir habiendo puntos de periodo p. Estos ya no estan
en una superficie invariante, sino en la superficie 1. Tras la aplicación de la transformación
de Poincaré pasarán a la curva 2. Como el
sistema es conservativo, el área entre las dos
curvas debe ser igual, luego han de cortarse en
al menos dos puntos invariantes.
547
Descargar