Subido por Andres Lopez

CAPITULO5 Esp Eucli plantilla 3

Anuncio
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
5. ESPACIOS VECTORIALES EUCLÍDEOS.
PROYECCIONES ORTOGONALES. MÍNIMOS
CUADRADOS.
SUMARIO:
INTRODUCCIÓN
OBJETIVOS
INTRODUCCIÓN TEÓRICA
1.- Espacio vectorial euclídeo.
2.- Ortogonalidad. Propiedades.
3.- Norma. Propiedades.
4.- Proyecciones en espacios euclídeos.
5.- Método de los mínimos cuadrados
6.- Ajuste de datos con el método de los mínimos cuadrados.
PROBLEMAS RESUELTOS.
BILIOGRAFÍA
MATEMÁTICAS I
159
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
INTRODUCCION
La estructura de espacio vectorial despliega una gran capacidad
operativa cuando incorpora los conceptos de distancia y ángulo entre sus
elementos. Para integrar estas dos cualidades métricas en un espacio
vectorial es preciso definir en él un producto escalar, el cual otorga a
dicho espacio el calificativo de euclídeo, de modo que a todo espacio
vectorial dotado de un producto escalar se le denominará espacio
vectorial euclídeo.
Si se dota al espacio vectorial de un producto escalar se va a poder
trasladar, al terreno de lo abstracto, las nociones de longitud y ángulo, en
especial el concepto de ortogonalidad, sin que éstas pierdan las
propiedades generales que les son inherentes.
Antes de comenzar con el estudio de los espacios vectoriales euclídeos es
preciso matizar que, en este curso, dicho estudio se limitará únicamente
al caso de productos escalares sobre espacios vectoriales reales.
Basándonos en la idea de ortogonalidad y proyección ortogonal,
estudiaremos el método de los mínimos cuadrados, para resolver de
forma aproximada sistemas de ecuaciones lineales incompatibles.
OBJETIVOS
•
Reconocer en una forma bilineal un producto escalar y manejar
adecuadamente sus propiedades.
•
Definir la norma asociada a cada producto escalar y demostrar sus
propiedades.
•
Obtener para cada vector del espacio su norma, módulo, y para cada
par de vectores el ángulo que forman a partir del producto escalar.
160
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
•
Reconocer diferentes expresiones para un producto escalar al
considerarlo en bases diferentes.
•
Encontrar una base del espacio en la cual un producto escalar dado
adopte la expresión más simple (expresión canónica).
•
Conocer y utilizar con soltura el método de ortonormalización de
Gram-Schmit.
•
Determinar el complemento ortogonal de un subespacio.
•
Entender y calcular la proyección ortogonal de un vector sobre un
subespacio.
•
Comprender y manejar el método de los mínimos cuadrados.
MATEMÁTICAS I
161
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
INTRODUCCION TEORICA
1. Espacio vectorial euclídeo.
Un conjunto E es un espacio vectorial euclídeo n-dimensional si es un
espacio vectorial real de dimensión n en el que se ha definido una
operación:
f : E × E ———— \ , verificando las siguientes propiedades:
1. f ( x , y ) = f ( y , x ) ,
∀x , y ∈ E
2. f ( λ x + µ y , z ) = λ f ( x , z ) + µ f ( y , z ) ,
∀λ , µ ∈\ y ∀x , y , z ∈ E
3. f ( x , λ y + µ z ) = λ f ( x , y ) + µ f ( x , z ) ,
∀λ , µ ∈\ y ∀x , y , z ∈ E
4. f ( x , x ) > 0, ∀x ≠ 0, x ∈ E
Esta operación recibe el nombre de producto escalar y la notación que
vamos a utilizar es : f ( x , y ) = x D y
1.1 Matriz Asociada al Producto Escalar
Si B = {e1 , e2 ,…, en } es una base del espacio vectorial euclídeo E ,
entonces la matriz asociada al producto escalar respecto a dicha base
viene dada por:
⎛ e1 D e1 e2 D e1
⎜
e De e De
A=⎜ 2 1 2 2
⎜ "
"
⎜⎜
⎝ en D e1 en D e2
como
el
producto
ei D e j = e j D ei , ∀i, j
" e1 D en ⎞
⎟
" e2 D en ⎟
≡ MATRIZ DE GRAM
"
" ⎟
⎟
" en D en ⎟⎠
escalar
es
conmutativo,
sucede
que
y de ahí se obtiene que la matriz A es simétrica,
es decir:
162
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
⎛ e1 D e1
⎜
e De
t
A= A =⎜ 1 2
⎜ "
⎜⎜
⎝ e1 D en
e2 D e1 " en D e1 ⎞
⎟
e2 D e2 " en D e2 ⎟
"
"
" ⎟
⎟
e2 D en " en D en ⎟⎠
2. Ortogonalidad
2.1 Vectores ortogonales.
Sea E un espacio vectorial euclídeo.
Dos vectores u
y v son
ortogonales si y sólo si u D v = 0 .
2.2 Proposición
El vector 0 es el único vector ortogonal a todos los vectores del espacio.
2.3 Vector ortogonal a un subespacio.
Un vector u es ortogonal a un subespacio S de E si y sólo si, ∀ x ∈ S ,
u D x = 0.
2.4 Proposición
Un vector u es ortogonal a un subespacio S de E si y sólo si es
ortogonal a todos los vectores de una base de S .
2.5 Subespacios ortogonales.
Dos subespacios V y W de E son ortogonales si
∀ x ∈ V , ∀y ∈ W ⇒ x D y = 0 .
2.6 Proposición
Para que dos subespacios V
y W sean ortogonales es necesario y
suficiente que los vectores de una base de V sean ortogonales con los
vectores de una base de W .
2.7 Propiedades de la relación de ortogonalidad.
MATEMÁTICAS I
163
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
Las principales propiedades de la relación de ortogonalidad son las
siguientes:
1. Si S = {u1 , u2 ," , uk } es un sistema de vectores ortogonales dos a
dos, ui ≠ 0 , ∀i = 1, 2,…, k , entonces S es un sistema libre.
2. Si V1 , V2 son dos subespacios de E ,tal que V1 ⊂ V2 , V1 ≠ V2 entonces
existe un vector no nulo de V2 ortogonal a todo el subespacio V1 .
3. Si V es un subespacio vectorial de E de dimensión k < n , todo
sistema libre formado con vectores de V tiene como máximo k
vectores ortogonales dos a dos.
4. Si V es un subespacio de E , de dimensión k < n , el conjunto de
todos los vectores ortogonales a V es un subespacio de dimensión
n − k . Dicho subespacio se denomina suplementario ortogonal o
complemento ortogonal de V y se representa por V ⊥ .
5. Si V es un subespacio de E entonces V ∩ V ⊥ = {0}.
6. Si V es un subespacio de E entonces V ⊕ V ⊥ = E.
3. Longitud, norma o módulo de un vector.
Se llama longitud, norma o módulo de un vector u , y se representa por
u ó u a la raíz cuadrada positivo del producto escalar u D u , es decir,
u = + u Du
⋅ : E ------------ \ +
u ------------ u = + u D u
NOTA: Si u = 1 , se dice entonces que el vector u es unitario.
164
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
3.1 Propiedades de la norma.
1.
u > 0, ∀u ≠ 0
2.
u = 0 ⇐⇒ u = 0
3.
λ u = λ u , ∀u ∈ E, ∀λ ∈ \ .
4. ∀u ∈ E, u ≠ 0, u , es un vector unitario en la dirección de u.
u
5. Desigualdad de Schwarz, ∀u , v ∈ E : − u v ≤ u D v ≤ u v
6. Desigualdades triangulares, ∀u , v ∈ E :
a.
u +v ≤ u + v
b.
u −v ≥ u − v
3.2 Angulo que forman dos vectores.
Sean
u , v ∈ \n , u D v
el
producto
escalar
usual,
es
decir,
n
u D v = u t v = ∑ ui vi
i =1
El ángulo α que forman dos vectores u y v se define por medio de la
expresión:
cos (α ) = u D v
u v
3.3 Proposición.
Sean u , v ∈ \ n ; u , v ≠ 0
a) u y v son ortogonales ( u ⊥ v ) ⇐⇒ cos (α ) = 0 ⇐⇒ u t v = 0.
b) u y v son paralelos ( u // v ) ⇐⇒ cos (α ) = 0 ⇐⇒ u t v = ± u v .
3.4 Bases ortogonales y ortonormales.
Una base de un espacio vectorial euclídeo es ortogonal si sus vectores
MATEMÁTICAS I
165
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
son ortogonales dos a dos.
Una base ortonormal es una base ortogonal de vectores unitarios.
3.5 Método de ortogonalización de Gram-Schmidt.
Este método nos permite construir una base ortonormal a partir de una
base cualquiera del espacio.
Si B = {e1 , e2 ,…, en } es una base de E , los vectores que se obtienen de la
forma:
c1 = e1
c De
c2 = e2 − c1 D c2 c1
1
c3 = e3 −
1
c1 D e3
c1 D c1
c De
c1 − c2 D c3 c2
2
2
""""""""""""""""""
c De
c De
c De
cn = en − c1 D cn c1 − c2 D cn c2 − .... − − c n−1D c n cn −1
1
1
2
2
n−1
constituyen una base ortogonal. Entonces B∗ =
n−1
{
c
c1 c2
,
,…, n
c1 c2
cn
} es una
base ortonormal.
4. Proyecciones en Espacios Euclídeos.
4.1 Proyección ortogonal de un vector sobre otro.
Sea v ∈ E, v ≠ 0 . Todo vector u ∈ E se descompone como:
u = uv DDvv v + w.
siendo el vector w un vector ortogonal a v .
El vector
u Dv
v Dv
v es la proyección ortogonal de u sobre v .
4.2 Proyección Ortogonal de un vector sobre un subespacio S.
Sea S un subespacio de E. Todo vector u
166
de E se descompone de
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
manera única de la forma u = s + w , siendo s ∈ S y w ortogonal a S .
El vector s es la proyección ortogonal de u sobre S .
4.3 Expresión matricial del vector proyección sobre un subespacio.
Sea u ∈ E . Sea S = L {a1 , a2 ," , ak } ( ai , linealmente independientes ) un
subespacio de E , y sea A la matriz cuyas columnas son las coordenadas
de los vectores ai en una base B de E . El vector proyección, s , del
vector u sobre S viene dado por:
s = A( At A ) At u
−1
NOTAS:
1. La existencia de la matriz
( A A)
t
−1
queda garantizada por ser
linealmente independientes los vectores ai , para i = 1, 2,…, k .
2. Obsérvese que en el caso particular de dim( S ) = 1 , S = L {v } , la
expresión del vector proyección
s
de u
sobre
S
sería:
s = uv DDvv v = v (v t v ) −1 (v t u )
que corresponde a la forma s = A( At A ) At u tomando A la matriz
−1
columna de las coordenadas de v . En este caso v D v = At A
y
u D v = At u .
4.5 Matriz Proyección asociada a un subespacio S.
Sea S un subespacio de E y B = {a1 , a2 ," , ak } una base de dicho
subespacio. Sea A la matriz cuyas columnas son las coordenadas de los
vectores ai en una cierta base de E . La matriz proyección para el
subespacio S es la matriz:
MATEMÁTICAS I
167
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
PS = A( At A) −1 At .
El producto PS u
para cualquier vector
u ∈ E nos proporciona la
proyección ortogonal de u sobre el subespacio S .
4.6 Teorema.
Sea S un subespacio vectorial de E y BS = {a1 , a2 ," , ak } una base del
mismo. Sea B una base de E y A la matriz n × k , cuyas columnas son
las coordenadas de los vectores ai respecto a la base B .
La matriz proyección:
PS = A( At A) −1 At
es la única matriz con la propiedad de que para todo vector u ∈ E , el
vector PS u es la proyección de u sobre S .
NOTA: El teorema anterior nos dice que la matriz proyección es única,
independiente de la base elegida en el subespacio.
4.7 Propiedades de la matriz proyección.
La matriz proyección PS satisface:
7. ( PS ) 2 = PS , es decir, PS es idempotente.
8. ( PS )t = PS , es decir, PS es simétrica.
4.8 Caracterización de las matrices proyección.
La condición necesaria y suficiente para que una matriz n × n sea una
matriz proyección es que sea idempotente y simétrica. En este caso, la
matriz es la matriz proyección para el subespacio generado por sus
columnas.
4.9 Matriz proyección utilizando bases ortonormales.
Si A es una matriz n × k de columnas ortonormales, At A es la matriz
168
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
identidad. En esta propiedad simplifica en gran medida la expresión de
la matriz proyección.
Sea E un subespacio vectorial de dimensión n , S un subespacio y
B = {a1 , a2 ," , ak } una base ortonormal del mismo. Si A es la matriz
cuyas columnas son los vectores ai , entonces la matriz proyección para
el subespacio S , al ser At A = I , es PS = AAt .
5. Método de los Mínimos Cuadrados
5.1 Planteamiento del Problema.
Trataremos de aplicar el estudio realizado sobre las proyecciones a
problemas de análisis de datos, que nos conducen a sistemas con mayor
número de ecuaciones que de incógnitas (sistemas sobredeterminados)
que, normalmente, son incompatibles. A pesar de la no existencia de
solución exacta en dichos sistemas. Los sistemas incompatibles surgen en
situaciones reales y hay que intentar encontrar la ”mejor” solución
posible. El problema será encontrar un vector que minimice el error que
cometemos al suponer que dicho vector es la solución del sistema.
5.2 Método de los Mínimos Cuadrados.
Sea el sistema Ax = b , siendo A una matriz m × n , con m > n , cuyas
columnas son linealmente independientes, es decir, rang ( A) = n . Si b
no es combinación lineal de las columnas de A , el sistema lineal anterior
Ax = b es incompatible. Se trata entonces de encontrar un vector x *
que minimice el vector error Ax − b que para nosotros significará
minimizar su norma euclídea:
MATEMÁTICAS I
169
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
Ax − b = ( d1 , d 2 ,…, d m ) = + d12 + d 22 + …+ d m2 .
Pero minimizar su norma es equivalente a minimizar su norma al
cuadrado, es decir,
Ax − b
2
= d12 + d 22 + …+ d m2 .
Esta es la razón del nombre del método de los mínimos cuadrados.
Para todo vector x , el vector Ax pertenece al subespacio S generado
por las columnas de A ; además, el error Ax − b es la distancia de b a
Ax . Entonces, buscar la mejor solución x * del sistema con el método
de los mínimos cuadrados, equivale a encontrar el vector x * , tal que la
distancia de Ax * a b sea la menor posible.
De todos los vectores Ax de S , el que minimiza Ax − b es el vector
proyección de b sobre S , es decir el vector A( At A) −1 At b , el vector x *
lo obtendremos de resolver:
Ax = A( At A) −1 At b .
Multiplicando la igualdad anterior por At queda:
At Ax = ( At A )( At A ) At b = At b = At b ,
−1
Es decir x * , es la solución del sistema lineal compatible y determinado:
At Ax = At b
(Nota: El sistema anterior es compatible y determinado ya que la matriz
At A es una matriz cuadrada de orden n, regular).
La solución del sistema anterior, al ser A de rango máximo, es
x * = ( At A ) At b , que nos da la ”solución óptima” del sistema Ax = b ,
−1
170
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
en el sentido de mínimos cuadrados.
NOTA: Si A ∈ M m×n tiene columnas ortonormales, la solución del
sistema Ax = b por el método de los mínimos cuadrados es x * = At b , al
ser At A = I
6. Ajuste de datos con el método de mínimos cuadrados
6.1 Recta de ajuste de datos en el plano.
Supongamos que partimos de una colección de datos
( xi , yi ) ,
i = 1, 2,…, m , que nos proporcionan un conjunto de puntos en el plano. El
objetivo es hallar una función lineal y = f ( x) , que represente lo mejor
posible dichos valores. Geométricamente, significa que la gráfica de la
función y = f ( x) debe aproximarse lo más posible a la colección de
puntos.
El problema será determinar los valores de a y b tales que la recta
y = f ( x) = a + bx , denominada recta de ajuste, se adapte lo mejor posible
a nuestros datos. Sustituyendo ( xi , yi ) en la anterior igualdad se obtiene:
yi = a + bxi , ∀i = 1, 2,…, m.
Salvo en el caso de que los datos estén sobre una recta del plano, se
obtiene un sistema sobredeterminado incompatible que se puede expresar
matricialmente:
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
y1 ⎞⎟
⎟
⎟
2 ⎟
⎟
⎟
⎟
⎟
⎟
m⎠
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
1 x1 ⎞⎟
⎟
1 x2 ⎟⎟ ⎛ a ⎞
=
⇔ y = Ax ⇔ Ax = y
⎟
#
# # ⎟⎟ ⎜⎝ b ⎟⎠
⎟
y
1 x4 ⎟⎠
y
MATEMÁTICAS I
171
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
La solución que minimiza el error en términos de mínimos cuadrados es
la solución del sistema At Ax = At y , que es: x * = ( At A) −1 At y
NOTA: ( At A) es invertible siempre que las columnas de A sean
linealmente independientes, que, en este caso, equivale a decir que los
valores xi no sean todos iguales, es decir, que los puntos ( xi , yi ) no estén
todos en una recta vertical.
6.2 Ajuste de datos en \ n +1 por una función lineal.
Cuando los datos tienen más de dos componentes, se obtienen sistemas
con más de dos incógnitas por lo general sobredeterminados.
Supongamos que tenemos los datos:
( xk1 , xk 2 ,…, xkn ; yk ) ,
k = 1, 2,…, m,
m > n +1
y se quieren ajustar por la relación lineal y = s0 + s1 x1 + " + sn xn .
Se obtiene entonces el sistema:
yk = s0 + s1 xk1 + " + sn xkn , k = 1, 2,…, m.
Matricialmente se expresa como:
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
y1 ⎞⎟
⎟
⎟
2 ⎟
⎟
⎟
⎟
⎟
⎟
m⎠
y
#
y
=
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
x1n ⎞⎟ ⎛⎜ s0 ⎞⎟
1
x11 "
1
x21 " x2 n ⎟⎟ ⎜⎜ s1 ⎟⎟
⎟⎜
⎟
⎟⎜
⎟
" " " " ⎟⎟ ⎜⎜ # ⎟⎟
⎟⎜
⎟
1 xm1 " xmn ⎟⎠ ⎜⎝ sn ⎟⎠
de forma abreviada y = As ≡ As = y .
Si rang ( A) = n + 1 , estamos ante un problema que se puede resolver con
el método de los mínimos cuadrados, siendo la solución óptima la
solución del sistema At As = At y , que es s * = ( At A ) At y .
−1
6.3 Otras funciones de ajuste.
172
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
En algunas ocasiones hay que recurrir a otras funciones, como las
polinómicas o las exponenciales, para que la curva y = f ( x) sea la que
mejor se adapte a un conjunto de datos ( xi , yi ) .
Así, por ejemplo, si el ajuste se realiza por una función polinómica
y = f ( x) = c0 + c1 x + c2 x 2 + " + cn x n ,
al sustituir los datos ( xi , yi ) en la igualdad anterior se obtiene el sistema:
yi = c0 + c1 xi + c2 xi2 + " + cn xin ,
k = 1, 2,…, m.
Matricialmente se expresa como:
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
y1 ⎞⎟
⎟
y2 ⎟⎟
⎟
⎟
⎟
⎟
⎟
m⎠
#
y
=
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
1
x1
1
x2
x12 " x1n ⎞⎟ ⎛⎜ c0 ⎞⎟
⎟⎜
⎟
x22 " x2n ⎟⎟ ⎜⎜ c1 ⎟⎟
⎟⎜
⎟
" " "
" ⎟⎟ ⎜⎜ # ⎟⎟
⎟⎜
⎟
1 xm xm2 " xmn ⎟⎠ ⎜⎝ cn ⎟⎠
⇔ y = Ac ⇔ Ac = y
siendo la solución óptima por el método de mínimos cuadrados la
solución del sistema At Ac = At y , que es c = ( At A ) At y .
*
MATEMÁTICAS I
−1
173
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
PROBLEMAS
1. Dado el espacio vectorial V de los polinomios de grado menor o
igual que 1 y el producto escalar:
1
p1 ( x) • p2 ( x) = ∫ p1 ( x) p2 ( x)dx .
Calcular
la
matriz
asociada
al
0
producto escalar respecto de la base B = {1, x}
SOLUCIÓN:
Un producto escalar es un caso particular de forma bilineal simétrica, por
lo tanto existe una matriz simétrica A, asociada al producto escalar,
respecto de cualquier base B = {u , v } de V . Dicha matriz vendrá dada
⎛u Du
por: ⎜
⎝u Dv
u Dv ⎞
⎟.
v Dv ⎠
En este caso particular tenemos que: u = 1 y que v = x .
Tal y como se ha definido el producto escalar, lo que sabemos es que:
1
1
0
0
1 D 1 = ∫ 1.1dx = ∫ dx = 1
1
1
0
0
1 D x = ∫ 1. xdx = ∫ xdx = 1/ 2
1
1
0
0
x D x = ∫ x. xdx = ∫ x 2 dx = 1/ 3
Luego, la matriz asociada al producto escalar en la base {1, x} es:
⎛ 1 1/ 2 ⎞
⎜
⎟
⎝1/ 2 1/ 3 ⎠
2. De un producto escalar definido en \ 2 respecto de la base
174
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
B = {u , v } , se sabe que:
i) u D u = 2
ii ) u D (3u + v ) = 5
iii ) v D v = 5(u D u )
a) Calcular la matriz asociada al producto escalar.
b) Calcular (2, 3) D (1, 4)
SOLUCIÓN:
a)
⎛u Du
A=⎜
⎝u Dv
u Dv ⎞
⎟
v Dv ⎠
Tenemos que:
u Du = 2
u D (3u + v ) = 5 ⇒ 3(u D u ) + u D v = 5 ⇒ 6 + u D v = 5 ⇒ u D v = −1
v D v = 5(u D u ) = 10
⎛ 2 −1⎞
La matriz asociada al producto escalar es: A = ⎜
⎟
⎝ −1 10 ⎠
b)
⎛1⎞
⎛ 2 −1 ⎞ ⎛ 1 ⎞
(2, 3) D (1, 4) = ( 2, 3) A ⎜ ⎟ = ( 2, 3) ⎜
⎟ ⎜ ⎟ = 113
⎝ 4⎠
⎝ −1 10 ⎠ ⎝ 4 ⎠
3. Sea E un espacio vectorial euclídeo de dimensión n y U un
subespacio vectorial de E ,
U ⊥ , el subespacio complemento
ortogonal de U , calcular:
a) dim(U ∩ U ⊥ )
b) dim(U + U ⊥ )
SOLUCIÓN:
MATEMÁTICAS I
175
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
a) Sabemos que la suma de U y U ⊥ es directa, por tanto U ∩ U ⊥ = {0}
con lo cual dim(U ∩ U ⊥ ) = 0.
b) Además de ser suma directa se tiene que, U ⊕ U ⊥ = V , directamente
se obtiene que dim(U + U ⊥ ) = dim(V ) = n.
4.
Sea
F = {( x, y, z ) ∈ \ 3 / 2 x + y − z = 0} , calcular
una
base
ortonormal de F.
SOLUCIÓN:
Primero hallaremos una base de F, si es ortogonal, bastaría con
normalizar y el problema estaría resuelto, sino aplicaremos el método de
Gram-Schmidt para transformarla en otra base de F que sea ortonormal.
F = {( x, y, z ) ∈ \ 3 / 2 x + y − z = 0} = {( x, y, z ) ∈ \ 3 / z = 2 x + y} =
= {( x, y, 2 x + y ) ∈ \ 3 / x, y ∈ \} =< (1, 0, 2), (0,1,1) >
⎛1⎞ ⎛0⎞
Una base para F es B1 = {⎜⎜ 0 ⎟⎟ , ⎜⎜ 1 ⎟⎟} = {u1 , u2 } que sus vectores no son
⎜ 2⎟ ⎜1⎟
⎝ ⎠ ⎝ ⎠
⎛0⎞
ortogonales ya que u ⋅ u2 = (1, 0, 2) ⎜⎜ 1 ⎟⎟ = 2 ≠ 0
⎜1⎟
⎝ ⎠
t
1
Aplicamos el método de Gram-Schmidt
⎛1⎞
⎜ ⎟
v1 = u1 = ⎜ 0 ⎟
⎜ 2⎟
⎝ ⎠
176
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
⎛ 0 ⎞ ⎛ 1 ⎞ ⎛ − 52 ⎞
u ⋅v
⎜ ⎟ ⎜ ⎟ ⎜ ⎟
v2 = u2 − 1 v1 = ⎜ 1 ⎟ − 52 ⎜ 0 ⎟ = ⎜ 1 ⎟
v ⋅v1
⎜1⎟ ⎜ 2⎟ ⎜ 1 ⎟
⎝ ⎠ ⎝ ⎠ ⎝ 5 ⎠
t
1
t
1
⎛ 1 ⎞ ⎛ − 52 ⎞
⎜ ⎟ ⎜ ⎟
B2 = {⎜ 0 ⎟ , ⎜ 1 ⎟} es una base ortogonal de F y normalizando los
⎜ 2⎟ ⎜ 1 ⎟
⎝ ⎠ ⎝ 5 ⎠
vectores de B2 se obtiene B3
⎛
⎜
⎜
= {⎜
⎜
⎜
⎝
⎛
1 ⎞ ⎜
5⎟ ⎜
⎟ ⎜
0 ⎟,⎜
2 ⎟ ⎜
⎟
5 ⎠ ⎜⎜
⎝
−2 ⎞
⎟
30 ⎟
5 ⎟}
30 ⎟
⎟
1 ⎟
⎟
30 ⎠
que es una base ortonormal
de F.
5. Sea F ⊂ \ n , B1 una base ortonormal de F , B2 una base
ortonormal de
F ⊥,
demostrar que
B = B1 ∪ B2 es una base
ortonormal de \ n .
SOLUCIÓN:
Sabemos que F ∩ F ⊥ = {0}, como el vector nulo no pertenece a ninguna
base, los vectores de B1 son linealmente independientes con los de B2 . Si
la dim(V ) = k entonces dim(V ⊥ ) = n − k , luego una base de F unida con
una base de F ⊥ son k + (n − k ) = n vectores linealmente independientes
de \ n , por tanto forman una base de \ n .
Por otra parte los vectores de B1 son ortonormales, es decir, todos tienen
norma igual a 1 y son ortogonales entre si, lo mismo ocurre con los
vectores de B2 y los vectores de B1 respecto de los de B2 también son
ortogonales ya que los de B1 son vectores de F y los de B2 lo son de
MATEMÁTICAS I
177
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
F ⊥.
En definitiva los vectores de B están normalizados y son todos
ortogonales entre si, forman una base ortonormal de \ n .
6. Dados los subespacios de \ 3
x − y − 3z = 0⎫
⎧
F1 = ⎨( x, y, z ) ∈ \ 3 /
⎬y
y − z = 0⎭
⎩
F2 = {( x, y, z ) ∈ \ 3 / x + y + z = 0}
Calcular dim( F1⊥ ∩ F2 )
SOLUCIÓN:
⎛ 1 −1 − 3 ⎞
dim( F1 ) = 3 − rango ⎜
⎟ = 3 − 2 = 1;
⎝ 0 1 −1 ⎠
dim( F2 ) = 3 − rango (1 1 1) = 3 − 1 = 2;
BF1 = {(4,1,1)} = {w1}
BF2 = {(−1,1, 0), (−1, 0,1)} = {v1 , v2 }
F1⊥ = {x ∈ \ 3 / x t ·w1 = 0} = {( x, y, z ) ∈ \ 3 / 4 x + y + z = 0}
BF ⊥ = {(1, 0, −4), (0,1, −1)} = {u1 , u2 }
1
Sabemos que
178
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
⊥
1
dim( F ∩ F2 ) = dim( F1⊥ ) + dim( F2 ) − dim( F1⊥ + F2 )
= 2 + 2 − rango(u1 u2 v1 v2 ) =
⎛1
⎜
= 4 − rango ⎜ 0
⎜ −4
⎝
⎛1
⎜
= 4 − rango ⎜ 0
⎜0
⎝
0 −1 −1⎞
⎟
1 1 0 ⎟=
−1 0 1 ⎟⎠
0 −1 −1 ⎞
⎟
1 1 0 ⎟ = 4−3 =1
0 −3 −3 ⎟⎠
= 4−3 =1
7.
Un
producto
escalar
\3
en
B′ = {(1, 0,1) , ( 2,1, 0 ) , ( −1, 0,1)}
con
tiene
por
respecto
a
matriz
la
base
asociada
⎛ 2 1 2⎞
⎜
⎟
G = ⎜ 1 3 1 ⎟ , calcular la norma del vector v que en la base
⎜ 2 1 4⎟
⎝
⎠
canónica tiene por coordenadas
( 4,1, −1)
SOLUCIÓN:
Lo primero que tenemos que hacer es expresar el vector v respecto a la
base B′ . Sabemos que la relación entre las coordenadas de un vector
respecto de ambas bases es x = Px´
Sabemos que la matriz P cambio de base de B ' a la base canónica es:
⎛ ′⎞
⎛ 4 ⎞ ⎛ 1 2 −1⎞ ⎜ x ⎟
⎛ 1 2 −1 ⎞
⎜ ⎟ ⎜
⎟⎜ ⎟
⎜
⎟
P = ⎜ 0 1 0 ⎟ , por lo tanto, se cumple que: ⎜ 1 ⎟ = ⎜ 0 1 0 ⎟ ⎜⎜ y′ ⎟⎟
⎜ −1⎟ ⎜ 1 0 1 ⎟ ⎜⎜⎜ z′ ⎟⎟⎟
⎜1 0 1 ⎟
⎝ ⎠ ⎝
⎠⎝ ⎠
⎝
⎠
siendo ⎛⎜⎝ x′ , y ′ , z ′ ⎞⎟⎠ las coordenadas de v respecto a la base B ' .
Por lo tanto:
MATEMÁTICAS I
179
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
⎛
⎜
⎜
⎜
⎜
⎜
⎜
⎜
⎝
−1
x′ ⎞⎟ ⎛ 1 2 −1⎞ ⎛ 4 ⎞
⎟
⎜
⎟ ⎜ ⎟
y′ ⎟⎟ = ⎜ 0 1 0 ⎟ ⎜ 1 ⎟ =
⎟
z′ ⎟⎟⎠ ⎜⎝ 1 0 1 ⎟⎠ ⎜⎝ −1⎟⎠
⎛ 12
⎜
⎜ 0
⎜− 1
⎝ 2
−1
1
1
⎞ ⎛ 4 ⎞ ⎛ 12 ⎞
⎟⎜ ⎟ ⎜ ⎟
0⎟⎜ 1 ⎟ = ⎜ 1 ⎟
⎟ ⎜− 3 ⎟
1 ⎟⎜
2 ⎠ ⎝ −1 ⎠
⎝ 2⎠
1
2
Una vez que tenemos expresado el vector v respecto de la base B , su
norma será:
v = v D v = v t Gv =
8. Si V
{
( 12
⎛ 2 1 2 ⎞ ⎛ 12 ⎞
⎜
⎟⎜ ⎟
1 − 32 ) ⎜ 1 3 1 ⎟ ⎜ 1 ⎟ =
⎜
⎟⎜ 3 ⎟
⎝ 2 1 4⎠⎝ − 2 ⎠
⎛ 12 ⎞
( −1 2 −4 ) ⎜⎜ 1 ⎟⎟ =
⎜ 3⎟
⎝− 2 ⎠
es un espacio vectorial de dimensión
}
W = x ∈ V : Ax = 0
n=5
y
es un subespacio vectorial de V . Justificar
cuales de las siguientes afirmaciones son verdaderas y cuales falsas:
a) W
es el núcleo de la aplicación lineal
f : V → V definida por
f ( x ) = Ax .
b) dim(W ⊥ ) coincide con el rango de A .
c) Todas las filas de la matriz A pertenecen a W
⊥
d) Si dim(W ) = 2 , el rango de A es 2.
SOLUCIÓN:
Sabemos que:
i ) Al estar W definido como solución de un sistema de ecuaciones
homogéneo, dim(W ) = dim(V ) − rango( A) = n − rango( A) = 5 − rango( A)
ii ) dim(W ) + dim(W ⊥ ) = dim(V )
a) Verdadera
Para verlo, basta considerar la definición de núcleo de una aplicación
lineal:
180
MATEMÁTICAS I
15
2
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
Si tenemos la aplicación lineal: f : V → V definida por f ( x ) = Ax , por
definición
de
núcleo
{
} {
se
tiene
que:
}
Ker ( f ) = x ∈ V / f ( x ) = 0 = x ∈ V / Ax = 0 = W .
b) Verdadera
Tenemos que:
dim(W ) + dim(W ⊥ ) = dim(V ) ⇒ dim(W ) + dim(W ⊥ ) = n ⇒
⇒ dim(W ⊥ ) = n − dim(W ) = n − (n − rango( A)) = rango( A)
c) Verdadera
Sabemos que para cada w ∈ W , entonces:
Aw = 0 , por lo tanto, al
multiplicar cada fila de la matriz A por w , el resultado es 0 . En realidad
esto es equivalente a decir que cada vector fila de la matriz A
multiplicado por el vector w , usando el producto escalar usual, nos da 0,
es decir que cada vector fila de la matriz A es ortogonal a todos los
vectores de W , por lo tanto cada vector fila de la matriz A pertenece a
W ⊥.
d) Falsa
El subespacio vectorial W se puede ver como el núcleo de la aplicación
f : V → V definida por f ( x ) = Ax . Por la fórmula de las dimensiones
sabemos que:
dim(V ) = dim( Ker ( f )) + dim( Im( f )) .
y también sabemos que
dim( Im( f )) = rango( A).
Luego, como dim(V ) = 5
y
dim(W ) = dim( Ker ( f )) = 2 , entonces
dim( Im( f )) = 5 − 2 = 3 luego rango( A) = 3.
MATEMÁTICAS I
181
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
9. Sea V un espacio vectorial euclídeo y U un subespacio vectorial
de V , U ⊥ el subespacio complemento ortogonal de U . Justificar
cuales de las siguientes afirmaciones son verdaderas y cuales falsas:
a) dim(U ) = dim(U ⊥ )
b) dim(U ∩ U ⊥ ) = 0
c) dim(U ∩ U ⊥ ) = dim(V )
{}
d) (U ⊥ ) ⊥ = 0
SOLUCIÓN:
a) Falso
Veamos el siguiente contraejemplo.
Consideramos V = \3 , espacio vectorial euclídeo con el producto escalar
( x1, x2 , x3 ) ⋅ ( y1 , y2 , y3 ) = x1 y1 + x2 y2 + x3 y3 ,
usual,
y
el
subespacio
U = (1, 0,1) . Veamos cuál es su complemento ortogonal:
U ⊥ = {( x, y, z ) ∈ \ 3 : ( x, y, z ) ⋅ (1, 0,1) = 0, con ⋅ el producto escalar usual} =
= {( x, y, z ) ∈ \ 3 : x + y = 0} = {( x, y, z ) ∈ \ 3 : x = − y} = (1, −1, 0 ) , ( 0, 0,1)
dim(U ) = 1 y sin embargo dim(U ⊥ ) = 2 ≠ 1
b) Verdadera
Una de las propiedades del subespacio complemento ortogonal nos dice
que:
U ⊕U ⊥ = V
de
donde
se
deduce
inmediatamente
que
{}
U ∩ U ⊥ = 0 , o equivalentemente: dim ⎛⎜⎝U ∩ U ⊥ ⎞⎟⎠ = 0
c) Falsa
182
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
{}
Sabemos que U ∩ U ⊥ = 0 , por lo tanto la dimensión de esta
intersección nunca puede ser igual a la dimensión de V porque se parte
de la hipótesis de que el espacio vectorial V es no nulo.
d) Falsa.
(U ⊥ ) ⊥ = U , por lo tanto, siempre que U sea distinto del subespacio
{}
nulo, (U ⊥ ) ⊥ ≠ 0 .
10. El vector v = (1,1, 0 ) ∉ F , siendo F = ( 0,1,1) , (1, 3, −1) . Calcular el
vector de F que mejor se aproxima a v en el sentido de mínimos
cuadrados.
SOLUCIÓN:
El vector que mejor se aproxima a v en el sentido de mínimos cuadrados
es su proyección ortogonal sobre F, dicha proyección ortogonal viene
dada por w = A( At A ) At v siendo A la matriz cuyas columnas son los
−1
vectores de la base que genera al subespacio F .
NOTA : Una condición necesaria para que exista la matriz
( A A)
t
−1
es
que los vectores que definen las columnas de la matriz A sean
linealmente independientes, es decir, no basta con que generen a F , es
necesario que sean base de F .
w = A( At A ) At v
−1
−1
⎛0 1 ⎞⎡
⎛ 0 1 ⎞⎤
⎛1⎞
⎜
⎟ ⎢⎛ 0 1 1 ⎞ ⎜
⎟⎥ ⎛ 0 1 1 ⎞ ⎜ ⎟
= ⎜ 1 3 ⎟ ⎢⎜
⎟ ⎜ 1 3 ⎟⎥ ⎜
⎟⎜1⎟ =
⎜ 1 −1⎟ ⎢⎝ 1 3 −1⎠ ⎜ 1 −1⎟ ⎥ ⎝ 1 3 −1⎠ ⎜ 0 ⎟
⎝
⎠⎣
⎝
⎠⎦
⎝ ⎠
MATEMÁTICAS I
183
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
⎛ 0 1 ⎞ 11
⎜
⎟⎛
= ⎜ 1 3 ⎟ ⎜ 181
⎜ 1 −1⎟ ⎝ − 9
⎝
⎠
⎛0 1 ⎞ 1
⎜
⎟⎛ −
= ⎜ 1 3 ⎟ ⎜ 19
⎜ 1 −1⎟ ⎝ 9
⎝
⎠
⎛1⎞
− 19 ⎞ ⎛ 0 1 1 ⎞ ⎜ ⎟
⎟ 1 =
1 ⎟⎜
3 −1⎠ ⎜⎜ ⎟⎟
9 ⎠⎝1
⎝0⎠
5
18
2
9
⎛1⎞
⎞⎜ ⎟
⎟ 1 =
− 92 ⎠ ⎜⎜ ⎟⎟
⎝0⎠
13
18
⎛ 1 ⎞
⎜ 3 ⎟
⎛0 1 ⎞ 1
⎜
⎟
⎛
⎞
⎜
⎟
= ⎜ 1 3 ⎟ ⎜ 16 ⎟ = ⎜ 7 ⎟
⎜ 1 −1⎟ ⎝ 3 ⎠ ⎜ 6 ⎟
⎝
⎠
⎜⎜ − 1 ⎟⎟
⎝ 6⎠
Otra forma de enfocar y resolver el problema es sabiendo que el vector
v = (1,1, 0 ) ∉ F , siendo F =< ( 0,1,1) , (1, 3, −1) >=< u1 , u2 > , quiere decir
que el sistema:
⎛0⎞
⎛ 1 ⎞ ⎛1⎞ ⎛ 0 1 ⎞ ⎛ ⎞ ⎛1⎞
⎜α ⎟
⎜ ⎟
α1 ⎜ 1 ⎟ + α 2 ⎜⎜ 3 ⎟⎟ = ⎜⎜ 1 ⎟⎟ ⇒ ⎜⎜ 1 3 ⎟⎟ ⎜⎜ 1 ⎟⎟ = ⎜⎜ 1 ⎟⎟
⎜1⎟
⎜ −1⎟ ⎜ 0 ⎟ ⎜ 1 −1⎟ ⎜⎝ α 2 ⎟⎠ ⎜ 0 ⎟
⎝ ⎠
⎝ ⎠ ⎝ ⎠ ⎝
⎠
⎝ ⎠
es un sistema incompatible. Se plantea y resuelve el sistema
At Aα = At v , obteniéndose
⎛
⎜
⎜
⎜⎜
⎝
α1 ⎞⎟ ⎛ 16 ⎞
⎟ = ⎜ ⎟ que son las coordenadas de la
α2 ⎟⎟⎠ ⎝ 13 ⎠
proyección ortogonal de v sobre F, el vector proyección de v sobre F
es por tanto
Aα = ( u1 u2 )
⎛
⎜
⎜
⎜⎜
⎝
1⎞ 1
⎛ 13 ⎞
⎟⎛ ⎞ ⎜ ⎟
3 ⎟ ⎜ 16 ⎟ = ⎜ 76 ⎟ .
⎟⎝ 3 ⎠ ⎜ − 1 ⎟
⎝ 1 −1⎠
⎝ 6⎠
⎛0
α1 ⎞⎟ ⎜
⎟ = 1
α 2 ⎟⎟⎠ ⎜⎜
11. Sea el espacio vectorial \ 3 , y el subespacio W = (1, 0,1) , ( 0,1,1) .
184
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
Si u = ( 4, 3, 0 ) ∈ \ , u ∉ W . Calcular el vector de W que mejor se
3
aproxima a u en el sentido de mínimos cuadrados.
SOLUCIÓN:
El vector de W que mejor se aproxima a u en el sentido de mínimos
cuadrados es su proyección ortogonal sobre W . Dicha proyección
ortogonal viene dada por la siguiente expresión:
x = A( At A ) At u , siendo
−1
A
la matriz cuyas columnas son las
coordenadas de un sistema generador, linealmente independiente de W .
Por lo tanto, se tiene que:
−1
⎛1 0⎞ ⎡
⎛ 1 0 ⎞⎤
⎛ 4⎞
−1 t
⎜
⎟ ⎢⎛ 1 0 1 ⎞ ⎜
⎟ ⎥ ⎛ 1 0 1⎞ ⎜ ⎟
t
x = A( A A ) A u = ⎜ 0 1 ⎟ ⎢⎜
⎟ ⎜ 0 1 ⎟⎥ ⎜
⎟⎜ 3⎟ =
⎜ 1 1 ⎟ ⎢⎝ 0 1 1 ⎠ ⎜ 1 1 ⎟ ⎥ ⎝ 0 1 1 ⎠ ⎜ 0 ⎟
⎝
⎠⎣
⎝
⎠⎦
⎝ ⎠
⎛1 0⎞
⎛ 4⎞
−1
⎜
⎟ ⎛ 2 1 ⎞ ⎛ 1 0 1⎞ ⎜ ⎟
= ⎜0 1⎟ ⎜
⎟ ⎜
⎟⎜ 3⎟ =
⎜ 1 1 ⎟ ⎝ 1 2 ⎠ ⎝ 0 1 1⎠ ⎜ 0 ⎟
⎝ ⎠
⎝
⎠
⎛1 0⎞ 2
⎜
⎟⎛
= ⎜ 0 1 ⎟ ⎜ 31
⎜1 1⎟⎝ − 3
⎝
⎠
⎛5⎞
⎛ 4⎞ ⎜ 3 ⎟
− 13 ⎞⎛ 1 0 1⎞ ⎜ ⎟ ⎜ 2 ⎟
⎟ 3 = ⎜ ⎟
2 ⎟⎜
1 1⎠ ⎜⎜ ⎟⎟ ⎜ 3 ⎟
3 ⎠⎝0
⎝0⎠ ⎜ 7 ⎟
⎜ ⎟
⎝3⎠
x+ y
= 0⎫
⎪
12. Dado el sistema: − x + y = 1 ⎬ , calcular la mejor solución por
2 x + 3 y = 1 ⎭⎪
mínimos cuadrados.
SOLUCIÓN:
MATEMÁTICAS I
185
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
Si llamamos A a la matriz de los coeficientes y b a la matriz de los
términos independientes del sistema anterior, como las columnas de A
son linealmente independientes, sabemos que la mejor solución por
mínimos cuadrados viene dada por:
−1
⎡
⎛ 1 1 ⎞⎤
⎛0⎞
−1 t
⎢ ⎛ 1 −1 2 ⎞ ⎜
⎟ ⎥ ⎛1 −1 2 ⎞ ⎜ ⎟
t
x = ( A A ) A b = ⎢⎜
⎟ −1 1 ⎟ ⎥ ⎜
⎟ 1 =
1 1 3 ⎠ ⎜⎜
1 1 3 ⎠ ⎜⎜ ⎟⎟
⎝
⎝
⎟
⎢⎣
⎝ 2 3 ⎠ ⎥⎦
⎝1⎠
⎛0⎞
−1
⎛ 6 6 ⎞ ⎛1 −1 2 ⎞ ⎜ ⎟ ⎛ 11
30
=⎜
⎟ ⎜
⎟⎜1⎟ = ⎜ − 1
6
11
1
1
3
⎝
⎠ ⎝
⎠⎜ ⎟ ⎝ 5
⎝1⎠
Luego, la mejor
⎛0⎞
− 15 ⎞ ⎛1 −1 2 ⎞ ⎜ ⎟
⎟ 1 =
1 ⎟⎜
1 3 ⎠ ⎜⎜ ⎟⎟
5 ⎠ ⎝1
⎝1⎠
solución por mínimos cuadrados es:
⎛ − 13 ⎞
⎜ 30 ⎟
⎜ 3⎟
⎝ 5⎠
x = − 13
30
e
y= 3.
5
13. Utilizando el método de los mínimos cuadrados, calcular una
⎧2 x + y = 3
⎪
solución aproximada del sistema de ecuaciones ⎨ x − 2 y = 0
⎪
⎩ 3 x − y = −2
SOLUCIÓN:
La matriz de los coeficientes del sistema es
⎛2 1 ⎞
⎜
⎟
A = ⎜ 1 −2 ⎟ ,
⎜ 3 −1 ⎟
⎝
⎠
rango( A) = 2.
⎛ 3⎞
La matriz de los términos independientes es b = ⎜⎜ 0 ⎟⎟ .
⎜ −2 ⎟
⎝ ⎠
186
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
El sistema no tiene solución ya que
3⎞
⎛2 1
⎜
⎟
rango( A∗ ) = rango( A | b) = rango ⎜ 1 −2 0 ⎟ = 3 ≠ 2 = rango( A)
⎜ 3 −1 −2 ⎟
⎝
⎠
⎛ x⎞
Tenemos el sistema: Ax = b , siendo x = ⎜ ⎟ .
⎝ y⎠
La solución óptima del sistema en el sentido de los mínimos cuadrados,
es la solución del sistema At Ax = At b como la matriz A es de rango
máximo, viene dada por: x * = ( At A ) At b
−1
Es decir:
−1
⎛
⎛2 1 ⎞⎞
⎛ 3⎞
⎜⎛ 2 1 3 ⎞⎜
⎟⎟ ⎛ 2 1 3 ⎞⎜ ⎟
*
x = ⎜⎜
⎟ ⎜ 1 −2 ⎟ ⎟ ⎜
⎟⎜ 0 ⎟ =
1
2
1
1
2
1
−
−
−
−
⎝
⎠
⎝
⎠ ⎜ −2 ⎟
⎜ 3 −1 ⎟ ⎟
⎜
⎝
⎠⎠
⎝ ⎠
⎝
⎛2
⎜ 25
⎜1
⎝ 25
1 ⎞
25 ⎟ ⎛ 2
14 ⎟ ⎜ 1
75 ⎠ ⎝
⎛ 3⎞
3 ⎞⎜ ⎟
⎟ 0 =
−2 −1⎠ ⎜⎜ ⎟⎟
⎝ −2 ⎠
1
x1 + x2
14. Dado el sistema −3 x1 + x2
− x1 + x2
⎛1⎞
⎜5⎟
⎜ 14 ⎟
⎜ ⎟
⎝ 15 ⎠
=
0⎫
⎪
= −1⎬ calcular la solución por
= 1 ⎪⎭
mínimos cuadrados.
SOLUCIÓN:
⎛ 1 1⎞
La matriz de coeficientes del sistema es A = ⎜⎜ −3 1⎟⎟ , rango( A) = 2.
⎜ −1 1 ⎟
⎝
⎠
MATEMÁTICAS I
187
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
⎛1 1 0⎞
⎜
⎟
La matriz ampliada es A = ⎜ −3 1 −1⎟ , rango( A∗ ) = 3,
⎜ −1 1 1 ⎟
⎝
⎠
∗
por tanto el sistema es incompatible, luego no tiene solución exacta.
Se plantea el nuevo sistema A Ax = A b, siendo x =
t
t
⎛
⎞
⎜ 1⎟
⎜
⎟
⎜⎜
⎟⎟
⎝ 2⎠
x
x
⎛0⎞
y b = ⎜⎜ -1⎟⎟ ,
⎜1⎟
⎝ ⎠
para encontrar solución aproximada al sistema por el método de mínimos
cuadrados, el nuevo sistema a resolver es:
⎛ 1 1⎞ ⎛ ⎞
⎛0⎞
⎛1 −3 −1⎞ ⎜
⎟ ⎜⎜ x1 ⎟⎟ ⎛1 −3 −1⎞ ⎜ ⎟
⎜
⎟ ⎜ −3 1⎟ ⎜⎜ x ⎟⎟ = ⎜
⎟ ⎜ −1 ⎟
⎝1 1 1 ⎠ ⎜
⎝1 1 1 ⎠ ⎜ ⎟
⎝ 2⎠
⎟
⎝ −1 1⎠
⎝1⎠
11x1 − 3 x2
−3 x1 + 3 x2
= 2⎫
1
1
⎬ cuya solución exacta es x1 = , x2 = .
4
4
= 0⎭
15. Calcular la recta que mejor se ajusta en el sentido de mínimos
cuadrados
al
conjunto
de
puntos
siguiente
{(−2, 2), (−1, 0), (0, −1), (1, 4)}
SOLUCIÓN:
Buscamos la recta, y = mx + n, que mejor se ajuste al conjunto de
puntos, primero se intentará encontrar una recta que contenga a los cuatro
puntos, si no existe, se buscará la que menor error cuadrático cometa.
(−2, 2) → 2
(−1, 0) → 0
(0, −1) → −1
(1, 4) → 4
188
= −2m + n ⎫ −2m + n
= −1m + n ⎪⎪
−m + n
⎬≡
n
= 0m + n ⎪
m+n
1m + n ⎪⎭
=
= 2⎫
= 0 ⎪⎪
⎬;
= −1⎪
= 4 ⎪⎭
MATEMÁTICAS I
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
⎛ −2
⎜
−1
∗
A =⎜
⎜0
⎜⎜ 1
⎝
1 2⎞
⎟
1 0⎟
, si hallamos una forma escalonada equivalente de A∗
1 −1 ⎟
⎟
1 4 ⎟⎠
⎛ −2
⎜
0
obtenemos ⎜
⎜0
⎜⎜
⎝0
1 2 ⎞
⎟
1 −1 ⎟
, directamente se observa que rango( A) = 2 y
0 − 12 ⎟
⎟
0 0 ⎟⎠
rango( A∗ ) = 3 ⇒ Sistema incompatible, no hay una recta que pase por
los cuatro puntos.
Se plantea el nuevo sistema At Ax = At b.
⎛ −2
⎜
−1
Siendo A = ⎜
⎜ 0
⎜⎜ 1
⎝
1⎞
⎛2⎞
⎟
⎜ ⎟
1⎟
0
⎛ m⎞
, x = ⎜ ⎟ y b = ⎜ ⎟ y nos queda:
⎜ −1⎟
1⎟
⎝n⎠
⎟
⎜ ⎟⎟
⎟
⎜
1⎠
⎝4⎠
6m − 2n = 0 ⎫
3
1
⎬ cuya solución exacta es m = 2 , n = 2 .
−2 m + 4 n = 5 ⎭
La recta es por tanto y = 1 x + 3
2
2
MATEMÁTICAS I
189
Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.
Bibliografía
[1] BURGOS, J. ”Álgebra Lineal y Geometría Cartesiana”. McGrawHill. Madrid, 1999.
[2] DE LA VILLA, A. ”Problemas de Álgebra”. Clagsa. Madrid, 1994.
[3] GROSSMANN, S.I. ”Álgebra Lineal con aplicaciones”. McGrawHill. México, 1996.
[4] GUERRA, N.; LÓPEZ, B. ”Problemas resueltos tipo test de Álgebra
Lineal (Con esquemas teóricos)”. El Libro Técnico. Las Palmas de G.C.,
1999.
[5] LAY DAVID C. ”Algebra lineal y sus aplicaciones”. Addison
Wesley Longman. México 1999.
[6] NOBLE, B.; DANIEL, J.W. ”Álgebra Lineal Aplicada”. PrenticeHall, Inc. México, 1989.
190
MATEMÁTICAS I
Descargar