Ecuaciones de Fredholm - Carlos Lizama

Anuncio
ECUACIONES INTEGRALES DE FREDHOLM:
UNA INTRODUCCION
Trabajo de Graduacion presentado a la Facultad de Ciencias, en cumplimiento parcial de los requisitos exigidos para optar al grado de Licenciado
en Educacion Matematicas y Computacion.
UNIVERSIDAD DE SANTIAGO DE CHILE
SANTIAGO-CHILE
2005
ECUACIONES INTEGRALES DE FREDHOLM:
UNA INTRODUCCION
CALZADILLAS NIECHI
DANIELA ARAYA BASTIAS - SEBASTIAN
Este trajo de Graduacion fue elaborado bajo la supervision del profesor
gua Dr. Carlos Lizama del Departamento de Matematica y Ciencias de la
Computacion y ha sido aprobado por los miembros de la Comision Calicadora, de los , candidatos, Sra. Veronica Poblete y Dr. Humberto Prado.
Profesor Informante
Profesor Gua
Profesor Informante
Director
Agradecimientos
Al nalizar esta linda etapa de mi vida, miro hacia atras y veo a todas
las personas que me acompa~naron en este lindo y difcil sendero, personas
que por diferentes motivos no estan a mi lado y personas que siguen a mi
lado, que han tenido paciencia y el amor de ense~narme y soportar mi difcil
caracter, mi familia, mi novio Carlos y mi amigo Sebastian.
Agradezco tambien a todos los profesores que me hicieron clases, ya que cada uno de ellos me ense~no diferentes cosas, en especial al profesor Carlos
Lizama que con su paciencia y consejos nos ayudo a realizar nuestro trabajo.
Tambien agradezco a la familia de Sebastian por los ricos almuerzos y onces
que compartimos juntos. Por ultimo a Dios que me ha dado todo para poder
estar en esta etapa.
Daniela Araya Bastias
Vayan siempre mis innitas gracias y alabanzas a mi Dios Jehova, el cual
me dio apoyo, sustento y cuidado amoroso durante toda mi vida y en especial en mis a~nos de carrera universitaria.
Mis queridos padres se merecen mas que yo el ttulo que obtengo, fueron
participes activos en mi formacion y en mis valores, los amo a ustedes y a
mis hermanos. Gracias Daniela por dejarme ser tu compa~nero de Trabajo, de
Tesis y mi gran amiga, por darme apoyo y consuelo al momento apropiado.
Profesor Lizama a usted le debemos la realizacion de este escrito, gracias por
darnos el tiempo y de su propio esfuerzo junto con increble paciencia para
que hoy cobre vida.
Gracias, eternamente gracias, a todos.
Sebastian Calzadillas Niechi
Indice general
1. Ecuaciones de Fredholm
9
1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9
1.2. Nucleos Separables . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.1. Nucleos Separables . . . . . . . . . . . . . . . . . . . . 11
1.2.2. Nucleo Resolvente . . . . . . . . . . . . . . . . . . . . . 14
1.2.3. Condiciones sobre la Existencia de Soluciones . . . . . 18
1.2.4. Condiciones de Fredholm . . . . . . . . . . . . . . . . . 23
1.3. Nucleos No Separables . . . . . . . . . . . . . . . . . . . . . . 29
1.3.1. Normas . . . . . . . . . . . . . . . . . . . . . . . . . . 29
1.3.2. Metodo de Schmidt . . . . . . . . . . . . . . . . . . . . 32
1.3.3. Metodos de aproximacion por Nucleos Separables . . . 33
1.3.4. Iteracion por medio de Series de Neumann . . . . . . . 35
1.3.5. Convergencia Uniforme de la serie de Neumann . . . . 40
1.3.6. Condiciones para la Existencia y Unicidad de la solucion de la ecuacion con Nucleos Peque~nos . . . . . . . . 44
2. Teora de Fredholm en espacios de Lebesgue
48
2.1. Funciones Absolutamente Integrables . . . . . . . . . . . . . . 49
2.2. Funciones de Cuadrado Integrable . . . . . . . . . . . . . . . . 51
4
5
2.2.1. Descomposicion de Nucleos . . . . . . . . . . . . . . . 54
2.3. Funciones Propias . . . . . . . . . . . . . . . . . . . . . . . . . 58
2.4. Teora en Lp . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6
Introducci
on
La teora de Ecuaciones Integrales fue ampliamente desarrollada por el
matematico sueco Erik Ivar Fredholm quien desde temprana edad tuvo acceso a una de las mejores escuelas de Estocolmo, donde obtuvo con honores
su Bachillerato el 16 de Mayo de 1885. Despues de un a~no de estudiar en el
Royal Technological Institute ingresa a la Universidad de Uppsala donde obtiene el grado de Magister en Ciencias el 28 de Mayo de 1888. Para obtener el
grado de Doctor en Ciencias trabaja bajo la tutela del profesor Mittag-Leer
de la Universidad de Estocolmo, esto lo logra inscribiendo el Doctorado en
Uppsala, pero realizando sus estudios en Estocolmo. Recibe el grado de Doctor el 31 de Mayo de 1898. Su tesis doctoral abordo el estudio de Ecuaciones
Diferenciales Parciales que fue motivado por un problema de equilibrio en
elasticidad dentro del area de la Fsica. Esto dio origen a una de las investigaciones mas trascendentales para la vida de Fredholm y para la matematica
de la primera cuarta parte del siglo 20, a saber, Ecuaciones Integrales y
la Teora Espectral. Esta
fue utilizada por matematicos de renombre como
Schwarz, Neumann y Poincare. Cabe destacar que Hilbert complemento el
trabajo de Fredholm incluyendo la teora de valores propios para la Ecuacion
Integral de Fredholm.
El presente trabajo de titulacion comprende dos captulos, el primero
se titula Ecuaciones de Fredholm el cual presenta las ecuaciones generales
de Fredholm a resolver y analiza en profundidad la existencia de la(s) solucion(es) segun el tipo de nucleo que la compongan,estos son: nucleos separa-
bles o nucleos no separables.
Las secciones del captulo 1 son:
7
Introduccion; en esta se presentan las Ecuaciones Integrales de primer y
segundo tipo, ademas se dene el Operador Integral involucrado en las ecuaciones anteriores, as como tambien se da un peque~no ejemplo particular que
ilustra las funciones que pertenecen al rango de este operador.
Caso Nucleos Separables; en esta seccion se estudia los nucleos separables
y de estos se desprende un caso particular: nucleos resolventes. Ademas, se
analizan las condiciones necesarias para la existencia de la(s) solucion(es) de
la ecuacion matricial analoga de la Ecuacion Integral de segundo tipo, esta
herramienta fundamental se encuentra en el Teorema 1.2.9. La seccion naliza con el estudio del Teorema Ecuacion de Fredholm y su contraparte para
la Ecuacion Integral de segundo tipo.
Caso Nucleos no Separables; en esta seccion se dene la funcion norma que
es una herramienta necesaria para estudiar un nuevo metodo para resolver la
Ecuacion Integral de segundo tipo, cuando esta se compone de un nucleo no
separable. Este metodo recibe el nombre de metodo de Schmidt. Se muestran
tres formas de lograr la descomposicion que propone. El metodo de Schmidt
requiere de la serie de Neumann para encontrar el inverso de un operador
(I
cK0 ), por lo que ademas se estudian condiciones que debe poseer el
operador cK0 para que dicha serie converja. Asimismo, se estudian las condiciones para la existencia y unicidad de las soluciones solo cuando los nucleos
son peque~nos en el sentido de la norma que se considere.
El captulo dos, Teora de Fredholm en espacios de Lebesgue, esta dirigido
al estudio de las condiciones que debe cumplir el nucleo -el cual pertenece
a estos tipos de espacios- que compone la ecuacion Integral de Fredholm de
segundo tipo. Las secciones que componen este captulo son:
8
Funciones absolutamente Integrables; se dene el espacio de Lebesgue L1 y
las funciones que lo comprenden, ademas buscamos una cota adecuada para
kK uk y lograr as que la serie de Neumann converja.
0
Funciones de Cuadrado Integrable; se realiza un estudio analogo a la seccion anterior para el espacio de Lebesgue L2 . Por otra parte se analizan
caractersticas especiales de este espacio que permiten descomponer nucleos,
as como lo propone el metodo de Schmidt. Se presenta el Teorema de Fischer-
Riesz que permite utilizar la Teora de Fredholm en espacios de vectores de
dimension innita.
Funciones Propias; en esta seccion se estudia el Teorema 2.3.2 que permite
obtener una base ortonormal completa, de funciones propias, que es util para
la descomposicion de nucleos que propone la seccion anterior.
Teora en Lp ; aqu se entrega una generalizacion de todos los espacios de
Lebesgue cuando 1
p < 1, y se dan las herramientas generales que per-
miten utilizar Fredholm en estos espacios.
Este trabajo de Titulacion esta escrito de tal manera que no profundiza
en todos los topicos matematicos necesarios para el tema que se presenta,
siguiendo el mismo espritu del libro de Pipkin [5] que fue la base de esta
tesis.
Cap
tulo 1
Ecuaciones de Fredholm
1.1.
Introducci
on
Denimos dos ecuaciones integrales que llamaremos ecuaciones de Fredholm de primer y segundo tipo respectivamente.
Z b
a
k (x; y )u(y ) dy = f (x);
u(x) = f (x) +
Z b
a
k (x; y )u(y ) dy;
x 2 [a; b]
(1.1)
x 2 [a; b]:
(1.2)
A la funcion k la llamamos nucleo y a la funcion f termino no homogeneo,
ambas son funciones dadas. Nuestro objetivo consiste en encontrar una funcion u que satisfaga la correspondiente ecuacion.
Denimos el operador K0 como
(K0 u)(x) =
Z b
a
k (x; y )u(y ) dy:
Entonces (1.1) y (1.2) pueden reescribirse de la siguiente forma
K0 u = f y u = f + K0 u:
9
(1.3)
10
Ejemplo 1.1.1.
Considerar el nucleo k (x; y ) = ex+y y las ecuaciones
Z
1
0
ex+y u(y ) dy = x
Z
u(x) = x +
1
0
(1.4)
ex+y u(y ) dy:
(1.5)
Observamos que
Z
K0 u(x) =
Z
donde C =
0
1
0
1
e
x +y
x
u(y ) dy = e
Z
1
0
ey u(y ) dy = Cex ;
ey u(y )dy . Por lo tanto el rango de K0 consiste en los multiplos
de ex . Concluimos que la funcion f (x) = x en (1.4) no esta en el rango de K0
y por lo tanto la ecuacion (1.4) no tiene solucion. Por otro lado, observamos
que, en contraste, (1.5) tiene solucion. En efecto, si
Z
u(x) = x +
entonces
u0 (x) = 1 + ex
Z
0
1
1
0
ex+y u(y )dy
ey u(y ) dy = 1 + (u(x)
x)
es una ecuacion diferenciable lineal de primer orden, cuya solucion, aplicando
la Formula de Leibnitz, viene dada por
u(x) = x + Cex ;
donde C es una constante arbitraria.
11
1.2.
N
ucleos Separables
Para resolver las ecuaciones propuestas nos dedicaremos al estudio de
ecuaciones con diferentes tipos de nucleo. Revisaremos en primera instancia
ecuaciones donde su operador tiene nucleo separable, posteriormente estudiaremos ecuaciones con operadores peque~nos.
1.2.1. N
ucleos Separables
Denicion 1.2.1. Decimos que un nucleo k(x; y) es separable si este se
puede escribir como
k (x; y ) =
n
X
i=1
Ejemplo 1.2.2. El nucleo k(x; y) =
xn
x
yn
= xn
y
=
n
X
i=1
1
fi (x)gi (y ):
xn
x
yn
es separable. En efecto,
y
+ xn 2 y + xn 3 y 2 + xn 4 y 3 + ::: + xy n
2
+ yn
1
xn i y i 1 :
Supondremos que las funciones fi y gi en la denicion 1.2.1 son linealmente independientes. As el rango del operador K0 es n-dimensional y consiste en la combinacion lineal de funciones fi . Esta armacion se obtiene
como sigue:
(K0 u)(x) =
=
=
Z b
a
Z b
a
n
X
i=1
k (x; y )u(y ) dy
n
X
i=1
fi (x)
!
fi (x)gi (y ) u(y ) dy
Z b
a
gi (y )u(y ) dy:
12
Deniendo los coecientes ui como los productos internos
Z b
ui := hgi ; ui =
a
gi (y )u(y ) dy;
obtenemos la combinacion lineal que buscabamos
(K0 u)(x) =
n
X
i=1
fi (x)ui :
(1.6)
Observacion 1.2.3. De acuerdo a lo anterior en la ecuacion del primer tipo,
K0 u = h;
(1.7)
existe una restriccion para la existencia de su solucion, esto es, h(x) debe
ser combinacion lineal de las funciones fi (x); ademas si esto ocurre, existen
innitas soluciones que satisfacen la ecuacion.
En el caso de la ecuacion de segundo tipo
u(x) = h(x) +
Z b
a
k (x; y )u(y ) dy;
(1.8)
utilizando (1.6), la ecuacion (1.8) tendra solucion
n
X
u(x) = h(x) +
j =1
fj (x)uj ;
(1.9)
donde solo resta encontrar los coecientes uj . Para esto denimos
hi := hgi ; hi =
Z b
a
gi (x)h(x) dx;
(1.10)
y
Kij := hgi ; fj i =
Z b
a
gi (x)fj (x) dx:
Multiplicando (1.9) por gi (x) e integrando en [a; b] obtenemos
Z b
a
gi (x)u(x) dx =
Z b
a
gi (x)h(x) dx +
n Z b
X
j =1
a
gi (x)fj (x) dx uj
(1.11)
13
o usando la notacion (1.10) y (1.11):
ui = h i +
n
X
j =1
Kij uj :
(1.12)
Obtenemos as un sistema de ecuaciones algebraicas para los coecientes ui .
Este sistema lo escribimos como u = h + Ku:
Analogamente, multiplicando (1.7) por gi (x) e integrando en [a; b]; obtenemos
n
X
j =1
Kij uj = hi
(1.13)
que es equivalente a escribir Ku = h.
Lo que hemos hecho muestra que si la ecuacion integral (1.2) tiene solucion el
sistema algebraico (1.12) la tiene. Recprocamente, si (1.12) tiene solucion u
y denimos u(x) por (1.9) entonces se verica que u(x) satisface la ecuacion
integral (1.2).
Ejemplo 1.2.4. Revisemos el siguiente problema
Z
u(x) = 1 +
0
1
(1 + x + y + xy )
1=2
u(y ) dy:
Escribimos k (x; y ) como
k (x; y ) = (1 + x)
1=2
1=2
(1 + y )
;
y denimos
f1 (x) := (1 + x)
1=2
y g1 (y ) := (1 + y )
1=2
:
Luego
Z
h1 =
0
1
p1
1+x
p
dx = 2( 2
Z
1) y K11 =
0
1
1
dx = ln 2:
1+x
14
p
As obtenemos
2( 2 1)
:
u1 = h1 + K11 u1 =
(1 2 ln 2)
As, por (1.9) una solucion es
p
2( 2
u(x) = 1 + p
x + 1(1
1)
:
2 ln 2)
Observacion 1.2.5. El hecho de que las integrales (1.10) y (1.11) existan es
esencial para resolver la ecuacion por nucleos separables. En efecto, veamos
la siguiente ecuacion
Z
u(x) = h(x) +
En este caso la integral
1
0
Z
1=2
(xy )
u(y ) dy:
1
dx;
0 x
diverge y no podemos formar u(x) utilizando (1.12). Ahora bien, esto no
K11 =
1
quiere decir que la ecuacion propuesta no tenga solucion. En efecto, una
solucion de la ecuacion integral es:
u(y ) = y
h(x) = x
para
x
1=2
Z
0
1
py dy:
1.2.2. N
ucleo Resolvente
En esta seccion, reemplazaremos el operador K0 por operadores cK0 ,
donde c
2 K, con K cuerpo. Ahora, tenemos que el problema de hallar la
solucion de la ecuacion u = h + cKu, que se puede reescribir como:
(I
Deniendo M := I
cK )u = h:
cK , donde I es la matriz identidad, obtenemos de
manera equivalente el problema
Mu = h:
(1.14)
15
Denotaremos por D(c) al determinante de M .En lo que sigue supondremos
que D(c) es distinto de cero, as M sera invertible.
Sea C la matriz de los cofactores de M , ver [2], entonces tenemos que
C t M = MC t = ID(c):
Dado que existe M 1 , si denotamos M 1 := R(c) obtenemos que
R(c)
= C t =D(c);
as la solucion para la ecuacion (1.14) sera u = R(c)h.
Si fRij g son los coecientes de R(c), la ecuacion u = R(c)h es equivalente al
siguiente sistema algebraico:
uj =
n
X
i=1
Rji hi :
Podemos entonces reescribir la solucion de la ecuacion integral u = h + cK0 u
como sigue:
u(x) = h(x) +
= h(x) +
Ya que por (1.10) hi =
Z b
a
n
X
cfj (x)uj
j =1
"
n
X
j =1
cfj (x)
n
X
i=1
#
Rji hi :
gi (y )h(y ) dy , se obtiene
u(x) = h(x) +
= h(x) +
= h(x) +
n
X
"
cfj (x)
n
X
j =1
i=1
Z b
n
n
XX
c
a
j =1 i=1
"
Z b
n X
n
X
a
c
j =1 i=1
Rji
Z b
a
#
gi (y )h(y ) dy
Rji fj (x)gi (y )h(y ) dy
#
Rji fj (x)gi (y ) h(y ) dy:
16
Denicion 1.2.6. Al termino algebraico
R(x; y ; c) :=
n X
n
X
j =1 i=1
Rji (c)fj (x)gi (y ):
lo llamaremos nucleo resolvente. Notemos que este es tambien un nucleo
separable.
As, la solucion para nuestra ecuacion integral (1.2) es
u(x) = h(x) +
Z b
a
cR(x; y ; c)h(y ) dy;
(1.15)
que es analoga al sistema lineal algebraico
u = f + cR(c):
(1.16)
Observacion 1.2.7. Siguiendo la analoga en la notacion utilizada en (1.3)
podemos escribir (1.15) como
u = (I + cR0 )h;
as el operador I + cR0 coincide justamente con el operador inverso de I cK0
ya que u = (I
cK0 ) 1 h.
Ejemplo 1.2.8. Para ilustrar como obtener un nucleo resolvente utilizaremos la siguiente ecuacion
Z
u(x) = h(x) + c
con nucleo separable k (x; y ) = e
x2
Identicamos a f1 (x) = e
+
1
1
e
x2 y 2
K11 =
+
1
1
(1.17)
x2 e y 2 .
y a g1 (y ) = e
de la matriz K es
Z
u(y ) dy;
e
2x2
dx =
y2 .
Luego el coeciente, K11
1p p
2 ;
2
17
y as K =
1p p
2 . Luego
2
M = 1
2
=
y entonces
M
para todo c distinto de
p
1
=
2
1p p
2 2 p
p
c 2 ;
2
c
p2 p ;
c 2 2= . Por lo tanto el nucleo resolvente de la ecuacion
(1.17) es
2
pp
c 2 R(x; y ; c) =
x2
e
e
y2
:
2
Ahora bien, si h(x) = x entonces la solucion para la ecuacion (1.17) es de
acuerdo a (1.15) lo siguiente
Z
u(x) = x +
+
1
1
= x+c
= x+c
= x:
Pero >que ocurre si c =
p
c
2
2
2
pp
c 2 2
pp
c 2 2
pp
c 2 2
e
x2
e
x2
x2
e
Z
+
1
1
e
y2
e
y2
y dy
y dy
0
2= ?. La primera respuesta, aunque obvia, es que
M no posee inversa y por tanto el nucleo resolvente R(x; y ; c) no existe. La
segunda es que no podemos resolver la ecuacion por el metodo de nucleos
separables, puesto que K11 = 1 y u1 = h1 + K11 u1 = 0 + u1 = u1 no
obteniendo resultado alguno. Esto no quiere decir que la ecuacion (1.17)
no tenga solucion. En efecto, para resolver la ecuacion podemos hacer lo
siguiente:
18
Derivando (1.17) con respecto a x, y suponiendo que h es una funcion derivable, se tiene que
u0 (x) = h0 (x)
= h0 (x)
Deniendo g (x) := u(x)
x2
2xce
Z
+
1
e
y2
1
h(x)):
2x(u(x)
u(y ) dy
h(x) obtenemos
g 0 (x) = 2xg (x);
cuya solucion viene dada por
Rx
g ( x) = e
= e
0
2t dt+k
x 2 +k
= Ae
x2
; (A = ek ):
Por lo tanto la solucion general de la ecuacion (1.17) es
u(x) = h(x) + Ae
x2
:
Tal como en el caso anterior si h(x) = x, obtendremos la solucion
u(x) = x + Ae
x2
:
1.2.3. Condiciones sobre la Existencia de Soluciones
Hasta el momento hemos estudiado como resolver las ecuaciones integrales (1.1) y (1.2), pero aun no nos hemos detenido en el analisis de la
unicidad de las soluciones para tales ecuaciones. Dada la ecuacion
Ku = f;
19
sin saber si esta tiene alguna solucion o no, especulamos la posibilidad de
que pueda tener dos soluciones distintas u1 y u2 , entonces
Ku1 = f
Ku2 = f:
Restando las ecuaciones se obtiene:
K (u1
Denimos ' := u1
u2 ) = 0:
u2 , obteniendo que la ecuacion K' = 0 tiene solucion
con ' = 0. De manera analoga suponemos dos soluciones distintas para la
ecuacion:
u = f + Ku;
obteniendo as la ecuacion K' = ', lo que equivale a (I K )' = 0. Deniendo A := I
K se obtiene
A' = 0;
que es una ecuacion matricial. Luego
A' = A1 '1 + A2 '2 + A3 '3 + : : : + An 'n = 0;
(1.18)
con An matriz, donde la n-esima columna coincide con la n-esima columna
de la matriz A y el resto de las columnas se componen de 0, y 'n es la
componente n-esima del vector '. Luego obtenemos una combinacion lineal
de matrices An .
20
Teorema 1.2.9 (Existencia de Solucion). Sea K una matriz y f un
vector. Si (I
K )' = 0 solo para ' = 0, entonces existe una solucion de la
ecuacion u = f + Ku:
Demostracion. Por hipotesis Ker(I
siones, ver[2], se tiene que (I
de I
K ) = 0. Por el teorema de las dimen-
K ) es sobreyectiva y luego existe la inversa
K , por tanto existe la solucion del sistema matricial (I
K )u = f
que viene dada por
u = (I
K ) 1 f:
De esta manera si la ecuacion integral K0 ' = ' se satisface solo para
' = 0, entonces existe una solucion para la ecuacion integral u = f + K0 u.
El teorema anterior muestra que para las ecuaciones lineales algebraicas o
para las ecuaciones integrales que consideramos anteriormente, podemos demostrar existencia de solucion de una ecuacion probando previamente unicidad para otra.
Ejemplo 1.2.10. Consideremos la ecuacion integral u = f + K0 u con nucleo
k (x; y ) =
X
i
fi (x)fi (y ):
Entonces la ecuacion
K0 ' = '
es igual a:
Z b
a
esto es:
k (x; y )'(y ) dy = '(x)
Z b
X
a
i
!
fi (x)fi (y ) '(y ) dy = '(x)
(1.19)
21
o
XZ b
a
i
fi (x)fi (y )'(y ) dy = '(x)
que es equivalente a
X
i
fi (x)
Z b
a
fi (y )'(y ) dy = '(x)
de donde obtenemos
X
i
fi (x)
Z b
a
fi (y )'(y ) dy
'(x) = 0
que es lo mismo que
X
i
f i ( x)
Z b
a
fi (y )'(y ) dy + '(x) = 0:
Multiplicando por ' e integrando se obtiene:
Z bX
a
esto es,
i
Z bX
a
o
i
X
i
que es equivalente a
fi (x)hfi ; 'i' dx +
Z b
a
'2 dx = 0
fi (x)'hfi ; 'i dx + h'; 'i = 0
hfi; 'ihfi; 'i + h'; 'i = 0
X
i
hfi; 'i
2
+ h'; 'i = 0:
Como cada termino del lado izquierdo es positivo, se tiene que estos terminos
deben ser iguales a 0, en particular h'; 'i = 0. Si ' es continua, entonces
' = 0 es la unica solucion de la ecuacion K0 ' = ', por tanto la ecuacion
integral u = f + K0 u con nucleo (1.19) tendra una solucion.
22
Observacion 1.2.11. El producto interno entre vectores u y v 2 Rn sera denotado por el smbolo (u; v ); esto es
(u; v ) =
n
X
i=1
ui vi :
Observacion 1.2.12. Si M es una matriz positiva denida, esto es
u 6= 0;
(u; Mu) > 0 si
entonces la ecuacion Mu = f posee solucion. En efecto, si M' = 0 entonces
la identidad ('; M') = 0 implica que ' = 0. Ocupando el teorema anterior
obtenemos el resultado.
Ejemplo 1.2.13. Como un caso concreto de la observacion anterior, veamos
el siguiente problema:
Consideremos una matriz M que tiene las componentes Mii = 2; Mi;i1 = 1
y los demas elementos son cero. Demostraremos que (x; Mx) = 0 solo cuando
x = 0 de lo cual se puede inferir que la ecuacion Mu = f posee solucion. En
efecto, primero escribimos (x; Mx) como suma de cuadrados como sigue:
(x; Mx) = x1 (2x1 + x2 ) + x2 (x1 + 2x2 + x3 ) + x3 (x2 + 2x3 + x4 )
+ x4 (x3 + 2x4 + x5 ) + : : :
+ xn 1 ( xn
2
+ 2 xn
1
+ xn ) + xn (xn
1
+ 2xn ) + 2x21 + 2x1 x2
+ 2x22 + 2x2 x3 + 2x23 +
+ : : : + 2xn 1 xn + 2x2n
1
+ 2x2n
= (2x21 + 2x22 + 2x1 x2 ) + (2x23 + 2x24 + 2x3 x4 ) + : : :
+ (2x2n
1
+ 2x2n + 2xn 1 xn ) +
+ 2 x2 x 3 + 2 x4 x5 + 2 x6 x7 + : : : + 2 xn 2 xn 1 :
23
Veremos ahora que (x; Mx) = 0 solo cuando x = 0. En efecto, si (x; Mx) = 0
entonces
(x; Mx) = (2x21 + 2x22 + 2x1 x2 ) + (2x23 + 2x24 + 2x3 x4 ) + : : :
+ (2x2n
1
+ 2x2n + 2xn 1 xn ) + 2x2 x3 + 2x4 x5
+ 2 x6 x7 + : : : + 2 xn 2 x n
1
=0
= (x21 + 2x1 x2 + x22 ) + (x23 + 2x3 x4 + x24 ) + : : :
+ (x2n
1
+ 2xn 1 xn + x2n ) + x21 + (x22 + 2x2 x3 + x23 )
+ (x24 + 2x4 x5 + x25 ) + (x26 + 2x6 x7 + x27 ) + : : : +
+ (x2n
2
+ 2 xn 2 xn
1
+ x2n 1 ) + x2n = 0
= (x1 + x2 )2 + (x3 + x4 )2 + : : : + (xn
1
+ xn )2
+ (x2 + x3 )2 + (x4 + x5 )2 + (x6 + x7 )2 + : : :
+ ( xn
2
+ xn 1 )2 + x21 + x2n = 0:
Esto implica que xi = 0 para todo i = 1; 2; : : : ; n, es decir, x = 0.
1.2.4. Condiciones de Fredholm
Supongamos que M' = 0 tiene solucion con ' =
6 0. Entonces existe al
menos un vector columna de la matriz M , que es linealmente dependiente.
Por simplicidad, supongamos que solo hay un vector ' excepto sus multiplos m'. Por el teorema de la dimension el rango de M , Rang (M ), tiene
dimension n
1. Esto implica que existe un vector
no nulo tal que
M = 0;
es decir,
( ; Mi ) = 0 para cada i = 1; : : : ; n:
24
Como Mi son las las de la matriz M t , lo anterior se puede reescribir como
M t = 0:
En resumen se tiene:
M' = 0 (' 6= 0) si y solo si M t = 0 ( =
6 0):
(1.20)
El resultado es que si M' = 0 tiene solucion distinta de cero entonces
Mu = f puede tener solucion y esta no es unica. De hecho, si hay alguna
solucion u0 , entonces la solucion general es
u = u0 + m'; donde m es una constante arbitraria;
ya que por el teorema de la dimension, Ker(M ) tiene dimension igual a uno.
Si hay muchas soluciones linealmente independientes 'i (i = 1; 2; :::; k )
de la ecuacion M' = 0 entonces hay muchas soluciones linealmente independientes
i
de la ecuacion M t
= 0. Entonces Mu = f posee solucion si y
solo si f satisface las condiciones de Fredholm:
( i ; f ) = 0:
Si tiene solucion, digamos u0 , entonces la solucion general es:
u = u0 +
k
X
I =1
mi 'i con k < n
donde los coecientes mi son arbitrarios.
25
Teorema 1.2.14 (Condicion de Fredholm). La ecuacion Mu = f tiene
solucion si y solo si ( ; f ) = 0, para cada
2 Ker(M t):
Demostracion. Supongamos que la ecuacion Mu = f tiene solucion u, entonces
( ; f ) = ( ; Mu) = (M t ; u) = (0; u) = 0:
Recprocamente, supongamos que ( ; f ) = 0 para cada 2 Ker(M t ): Entonces f pertenece Ker(M t )? = Ran(M ). As f pertenece al rango de M ,
es decir, existe un u tal que Mu = f:
Observacion 1.2.15. El teorema (1.2.14) tiene una contraparte inmediata
para la ecuacion integral (1.2) donde
h
; fi =
Z b
(x)f (x) dx:
a
Denicion 1.2.16. Denimos el operador integral transpuesto como
t
(K0 u)(x) =
Z b
a
k t (x; y )u(y ) dy:
Observacion 1.2.17. Se tiene que kt (x; y) = k(y; x). En efecto: si hu; K0 vi =
hK t u; vi para cada v, entonces
0
Z b
a
u(x)(K0 v )(x) dx =
Z b
a
(K0t u)(x)v (x) dx:
(1.21)
Ahora bien;
Z b
a
u(x)(K0 v )(x) dx =
Z b
a
u(x)
Z b
a
k (x; y )v (y ) dy dx =
Z bZ b
a
a
u(x)k (x; y )v (y ) dy dx:
Si intercambiamos las variables x por y, y las variables y por x y aplicando
el teorema de Fubini obtenemos
Z b
a
u(x)(K0 v )(x) dx =
Z bZ b
a
a
k (y; x)u(y )v (x) dy dx:
26
As, de (1.21) tenemos
Z bZ b
a
a
k (y; x)u(y )v (x) dy dx =
Z b
a
(K0t u)(x)v (x) dx:
Luego para cada v se tiene que
Z b Z b
a
a
t
k (y; x)u(y ) dy
(K0 u)(x) v (x) dx = 0;
de donde se obtiene que
t
(K0 u)(x) =
Z b
k (y; x)u(y ) dy;
a
es el operador integral K0t con nucleo k t (x; y ) = k (y; x).
Para ilustrar el Teorema (1.2.14) (ver observacion (1.2.15)), consideremos
el siguiente ejemplo.
Ejemplo 1.2.18. Veamos la siguiente ecuacion con nucleo separable:
Z
u(x) = f (x) + 2
1
0
(xy )1=2 u(y ) dy:
(1.22)
Ya que la ecuacion es de la forma M0 u = f con M0 = I K0 debemos analizar,
de acuerdo al Teorema 1.2.14, Ker(I
K0t ). Supongamos que (1.22) tiene
dos soluciones y denotemos su diferencia por ', entonces
Z
'(x) = 2
0
1
(xy )1=2 '(y )dy
(1.23)
= cx1=2
Z
donde c = 2
0
1
y 1=2 '(y ) dy: Esto muestra que existe una solucion distinta de
cero de la ecuacion (I
K0 )u = 0. Notese que lo anterior implica que hay
tambien una solucion distinta a cero para la ecuacion
Z
(x) =
0
1
(y )k (x; y ) dy:
27
En efecto:
Z
( x) =
1
0
Z
=
1
k (x; y ) (y ) dy
0
Z
=
k t (x; y ) (y ) dy
0
Z
=
1
(yx)1=2 (y ) dy
1
0
k (x; y ) (y ) dy:
Como el operador K0 es simetrico, esto es k (x; y ) = k (y; x), entonces (x) =
x1=2 es tambien solucion de (1.22) (ver (1.19)).
Finalmente concluimos del Teorema 1.2.14 (ver observacion 1.2.15) que la
ecuacion tiene solucion si y solo si ( ; f ) = 0, es decir
Z
1
0
Z
f (x) (x) dx = 0 o
1
0
f (x)x1=2 dx = 0:
Observacion 1.2.19. Si resolvemos directamente la ecuacion (1.22), podemos ver como se origina la condicion de Fredholm. En efecto, la ecuacion
(1.22) es equivalente a
u(x) f (x)
p
=
2 x
Z
1
0
y 1=2 u(y ) dy:
Ahora, derivando
1 1
u0 (x) = f 0 (x) + 2 p
2 x
esto es:
o
1
u0 (x) = f 0 (x) + p
x
u0 (x) = f 0 (x) +
Z
1
0
y 1=2 u(y ) dy
u(x) f (x)
p
;
2 x
1
(u(x)
2x
f (x));
28
lo que es equivalente a:
u0 (x)
Sea g (x) = u(x)
1
(u(x)
2x
f 0 (x) =
f (x), entonces se obtiene:
1
g (x)
2x
g 0 ( x) =
de donde
px:
g ( x) =
Luego u(x) =
px + f (x) es candidato a la solucion de (1.21). Ahora, para
que se cumpla la igualdad (1.21) se debe tener
px + f (x) = f (x) + 2 Z
1
0
esto es
px + f (x) = f (x) + 2px Z
p
(xy )1=2 ( y + f (y )) dy
1
0
o
f (x)):
Z
y dy +
0
1
pyf (y) dy ;
px + f (x) = f (x) + 2px 1 + Z pyf (y) dy
1
2
lo que es igual a
0
px = px + 2px Z pyf (y) dy
1
0
o
Z
p
pyf (y) dy:
0=2 x
1
0
Esto implica que
Z
0
1
pyf (y) dy = 0
o equivalentemente
Z
0
1
pyf (y) dy = Z
0
1
(y )f (y ) dy = ( ; f ) = 0;
de donde se obtiene la condicion de Fredholm.
29
1.3.
N
ucleos No Separables
1.3.1. Normas
Denicion 1.3.1. Si en un espacio vectorial E se puede denir una funcion
k k que cumple con las condiciones
1.
kvk > 0 si v 6= 0
2.
kcvk = jcjkvk
3.
ku + vk kuk + kvk,
para todo u; v
funcion
2E
yc
2 K, entonces el espacio E
k k la llamamos norma.
se dice normado y la
Para un vector v 2 Rn denimos la expresion
kvk = miax jvij:
La cual puede vericarse que es una norma, de acuerdo a la denicion anterior.
Para denir la norma de una matriz K , realicemos lo siguiente:
Sea B (K ) un numero cualquiera, calculado sobre las componentes de K , tal
que
kKvk B (K )kvk
para todo v . Llamamos B (K ) un coeciente de acotamiento o simplemente
cota. La mejor eleccion de B (K ) es que sea lo sucientemente peque~no para
que cumpla con la desigualdad. Llamamos a tal B (K ) la norma de K (de
30
hecho, se puede demostrar que lo es cuando se encuentra una representacion
de este numero) y la denotamos por kK k. Entonces:
kKvk kK kkvk;
con la igualdad para algun v 6= 0.
Proposicion 1.3.2. La norma de la matriz K es:
kK k = miax
X
j
jKij j:
Demostracion. Usando la desigualdad triangular obtenemos lo siguiente:
j(Kv)ij =
X
Kij vj j
X
j
jKij jjvj j:
Como kv k es mas grande que cada uno de los valores jvj j, obtenemos
j(Kv)ij Ri(K )kvk;
donde
Ri (K ) =
X
j
jKij j:
Nos referimos a Ri (K ) como suma absoluta de la la. Entonces
kKvk = max j(Kv)ij kvk(max Ri):
X
X
jKij j: Para probar que kK k = max
jKij j
i
i
j
j
necesitamos ver que un vector v cumpla con la igualdad: kKv k = Ri (K )kv k.
Esto prueba que la kK k max
Sea m el numero de la la con la suma absoluta mas grande. Denimos la
funcion signo por
sgn(x) :=
8
>
>
>
<
>
>
>
:
1;
x > 0;
0;
x = 0;
1; x < 0.
31
Tomando vj = sgn(Kmj ) se tiene kv k = 1 y
(Kv )m =
X
j
jKmj j
entonces kKv k = Rm (K ), y podemos concluir que:
kK k = miax
Observacion 1.3.3. Para cada n
X
j
jKij j:
2 N, kK nk kK kn.
En efecto: Para
cualquier coeciente de acotamiento B (K ), se tiene:
kKKvk B (K )kKvk B (K )B (K )kvk:
Por otra parte:
kKKvk B (KK )kvk:
As
kKK k kK kkK k:
De lo anterior obtenemos, por induccion
kK nk kK kn:
Observar que en general kK n k es estrictamente mas peque~na que kK kn
como veremos en el ejemplo (1.3.14).
Proposicion 1.3.4. El conjunto de todas las funciones u tales que
kuk = sup ju(x)j < 1;
x
es un espacio normado, con norma kuk.
32
Demostracion. Es claro que kuk > 0 y que kcv k = jcjkv k. Ademas como
sup ju(x) + v (x)j
sup ju(x)j + sup jv(x)j se obtiene la condicion (3) para
que kuk sea una norma.
Denicion 1.3.5. La norma asociada al operador integral K0 es
kK k = sup
0
Z b
x
a
jk(x; y)j dy
El cual es el analogo al maximo absoluto de la la en caso que K0 fuese una
matriz.
1.3.2. Metodo de Schmidt
Denicion 1.3.6. Diremos que el operador K0 denido en (1.3) es peque~no
si su norma es menor que 1 y, en tal caso al correspondiente nucleo le llamaremos nucleo peque~no.
Supongamos que un nucleo k (x; y ) se puede escribir como
k (x; y ) = s(x; y ) + e(x; y )
(1.24)
donde s es separable y donde e es peque~no, entonces la ecuacion integral de
segundo tipo (1.2) puede ser resuelta como sigue: Siguiendo la analoga en la
notacion (1.3) la ecuacion reescrita es
u = h + S0 u + E0 u
esto es,
(I
E0 )u = h + S0 u:
Asumimos, por el momento, que podemos encontrar el inverso de (I
E0 ) 1 .
Entonces se tiene:
u = h + S0 u
(1.25)
33
donde h = (I
E0 ) 1 h, S0 = (I
E0 ) 1 S0 .
Como s es un nucleo separable, entonces s tiene la siguiente forma:
s(x; y ) =
Luego
n
X
i=1
fi (x)gi (y ):
n
X
s (x; y ) =
fi (x)gi (y );
donde f = (I
i
i=1
E ) fi .
1
Por lo tanto, para resolver la ecuacion integral (1.2) inicial, solo tenemos
que resolver la ecuacion separable (1.25).
Observacion 1.3.7. Si kE0 k < 1, entonces la inversa de (I
E0 ) puede
ser calculada formalmente por medio de series. Estas series son las llamadas
series de Neumann :
(I
E0 )
1
= I + E0 + E02 + E03 + :::
1.3.3. Metodos de aproximaci
on por N
ucleos Separables
Generalmente el nucleo de la ecuacion (1.1) no es un nucleo separable, por
ende esta ecuacion no podra ser resuelta utilizando la Teora de Fredholm.
A continuacion mostraremos, sin ser rigurosos, tres diferentes metodos para
aproximar estos tipos de nucleos por nucleos separables.
Aproximacion por Punto Medio.
Sea [0,1] el intervalo de integracion, y lo dividimos en n partes iguales formando una particion P dada por:
m
1 m
;
n
n
con m = 1; : : : ; n:
34
Denimos
1
2
km (x) = k x; m
Consideremos la funcion
um (y ) =
8
<
:
1; y 2
0; y 2
=
m 1
n ;
m 1
n ;
1
:
n
m ;
n
m .
n
As, el nucleo k (x; y ) lo aproximamos, puntualmente en su segunda variable
y , por
k (x; y ) =
n
X
m=1
km (x)um (y ) + e(x; y )
que es un nucleo separable mas uno peque^no en algun sentido.
De esta manera la ecuacion de segundo tipo la podemos reescribir como
Z
u(x) = h(x) +
= h(x) +
n
X
1
m=1
0
n
X
m=1
km (x)um (y )u(y ) dy
km (x)
Z (m=n)
(m 1)=n
u(y ) dy:
Aproximacion por Coecientes de Fourier.
Supongamos que k (x; y ) esta denido en [ ; ] [ ; ] y denamos la
funcion um (y ) = eimy y los coecientes de Fourier de la funcion y
como
1
km (x) =
2
Z k (x; y )e
imy
dy:
Podemos aproximar k (x; y ) por el nucleo separable
k (x; y ) =
n
X
m= n
km (x)um (y ) + e(x; y )
! k(x; y)
35
Notemos que la aproximacion obtenida es diferenciable en y y se tiene que
la ecuacion de segundo tipo se puede escribir como
Z
u(x) = h(x) +
= h(x) +
1
n
X
kk (x)eimy u(y ) dy
0
n
Z
n
X
1 n
2
k (x; s)e
ims
Z
ds
0
1
eimy u(y ) dy:
Detalles sobre el sentido formal de la aproximacion indicada anteriormente
se estudiara en el capitulo siguiente.
Aproximacion por Polinomios
Sea k (x; y ) un nucleo continuo y [0; 1] el intervalo de integracion, por el teorema de Stone-Weierstrass existe un polinomio p(x; y ; ") tal que para cualquier
0 x; y
1 se tiene que jk(x; y)
p(x; y ; ")j < ": Esto es, p es una aproxi-
macion separable para el nucleo k (x; y ), y p tiene la siguiente forma
p(x; y ; ") =
X
n
kn (x; ")y n ;
donde las funciones kn son polinomios.
Luego, podemos escribir la ecuacion de segundo tipo como
Z
u(x) = h(x) +
= h(x) +
0
1
X
n
p(x; y ; ")u(y ) dy
Z
kn (x; ")
0
1
y n u(y ) dy:
Finalmente, utilizando cualquiera de los metodos u otros, segun sea la
ecuacion integral que se tenga, el problema se reduce a un sistema de ecuaciones algebraicas tal como hemos estudiado anteriormente.
1.3.4. Iteraci
on por medio de Series de Neumann
Sea c
2 C y K una matriz. A n de resolver la ecuacion u = f + cKu
podemos realizar lo siguiente. Se dene una sucesion (un ) de manera recursiva
36
a traves de la formula
un+1 = f + cKun ;
(1.26)
donde u0 es arbitrario. Por la igualdad (1.26) obtenemos
un = f + cKun
1
= f + cK (f + cKun 2 ) = f + cKf + c2 k 2 un
2
= f + cKf + c2 K 2 (f + cKun 3 ) = f + cKf + c2 K 2 f + c3 K 3 un 3 ;
y de forma sucesiva obtenemos:
un = f + cKf + c2 K 2 f + c3 K 3 f + ::: + cn 1 K n 1 f + cn K n u0 :
Lo anterior sugiere que:
u=f+
1
X
n=1
cn K n f:
(1.27)
Observamos que el parametro c puede variar el tama~no de la matriz K .
Nos preguntamos: >Cuan peque~no debe ser c para que la serie anterior sea
convergente?
Proposicion 1.3.8. La serie
1.
Demostracion. Sea SN =
kf k < 1 se tiene
kSM
donde kf k
SN k =
M
X
n=N
1
X
n=0
N
X1
n=0
cn K n f es convergente si kcK k < 1 y kf k <
cn K n f . Como kcK k < 1, con N < M , y
M
X
n n c K f
n =N
M
X
n=N
jcj kK kkf k n
jcjnkK kn ! 0, cuando N
n
M
X
n=N
jcjnkK knkf k;
y M tienden a innito. Ya que
(SN ) es una sucesion de Cauchy en el espacio vectorial de la matrices, el
1
X
cual asumimos completo con la norma dada, se obtiene que
cn K n f es
convergente.
n=0
37
Denicion 1.3.9. Llamamos serie de Neumann a la serie obtenida en la
Proposicion 1.3.8.
En la siguiente proposicion demostraremos que
(I
cK ) 1 .
1
X
n=0
cn K n coincide con
Proposicion 1.3.10. Si kcK k < 1 entonces
(I
cK )
1
X
n=0
cn K n =
Demostracion. En efecto
1
X
(I cK )
cn K n =
n=0
1
X
1
X
n=0
cn K n (I
cn K n (I
n=0
n
c K
n=0
= I+
Analogamente
1
X
1
X
n=1
n
1
X
n=0
cn K n
cK ) = I:
cn+1 K n+1
1
X
n=0
cn+1 K n+1 = I:
cK ) = I:
Observacion 1.3.11. La Matriz R(c) asociada al operador que posee Nucleo
Resolvente (ver Subseccion 1.2.2) correspondiente a la solucion de la ecuacion
1
X
cn K n . En efecto: De (1.27) obtenemos
u = f + cKu coincide con la serie
n=0
u = f+
1
X
n=1
!
cn K n f = I +
1
X
n=1
!
cn K n f
Por otra parte, de (1.16) se tiene que u = (I + cR(c))f , luego cR(c) coincide
1
X
exactamente con la serie
cn K n .
n=1
38
Observacion 1.3.12. La condicion de que jcjkK k < 1 en muchos casos no
se tiene, sin embargo la serie de Neumann aun converge si reemplazamos la
condicion anterior por
jcj kK k < 1:
2
2
En efecto, como kK k kK 2 k obtenemos la siguiente desigualdad
1
X
n=1
jcj kK k kf k n
n
1
X
n=1
jcj nkK knkf k:
2
2
As la serie de la izquierda tambien converge cuando jcj2 kK 2 k < 1:
Lo anterior se resume en la siguiente proposicion.
Proposicion 1.3.13. Para que la serie de Neumann sea convergente es suciente que
jcjnkK nk < 1 para algun n 2 N:
Demostracion. Es claro que si kcn K n k < 1 para algun n 2 N entonces se tiene
que la serie de Neumann es convergente, solo basta tomar la demostracion
en la observacion anterior y cambiar la potencia de kcK k.
Ejemplo 1.3.14. Analicemos el siguiente ejemplo, dadas las matrices
0
K=@
0
2
1
3
1
A;
0
K2 = @
2
3
6 11
1
A
obtenemos kK k = j 2j + j3j = 5 y kK 2 k = j6j + j11j = 17, si jcjkK k < 1
1
1
entonces jcj < = 0; 2 pero si jcj2 kK 2 k < 1 entonces jcj < p 0; 24:::
5
17
De esto concluimos que si jcj2 kK 2 k < 1 y kK 2 k < kK k2 entonces obtenemos
una mejor cota para c, esto pues
jcjkK k =
2 1 2
< 1:
39
Ejemplo 1.3.15. Analizaremos las condiciones para que la matriz
0
1 1
K=@
0 1
1
A
posea serie de Neumann convergente.
Vemos que
0
1 n
Kn = @
0 1
1
A
de esto obtenemos por la Proposicion 1.3.10
0
(I
cK )
1
=
B
B
B
@
1+
1
X
n=1
c
n
0
1
X
n
nc
n=1
1
X
cn
1+
1
C
C
C;
A
n=1
siempre que jcj < 12 , luego
0
(I
cK )
1
B
=@ 1
1
c (1
0
1
c
1
1
c)2
C
A:
c
Esto ultimo lo podemos comparar con la condicion suciente kcn K n k < 1
para que la serie anterior converja. En efecto, usando Proposicion 1.3.2
kcnK nk = jcnjkK nk = jcnj(n + 1) < 1;
entonces
jcj < pn n1+ 1 :
Observar que si n = 1 se tiene jcj < 0; 5 como antes. Ahora, si n = 2 se tiene
jcj < 1=
p
3 0; 58 que es mejor que la anterior y as sucesivamente.
40
Ejemplo 1.3.16. Se dene k k1 de la matriz K como sigue
kK k
1 = max
es facil vericar que
kk
1
j
X
i
jKij j;
es norma.
Ahora comparemos las cotas encontradas a traves de suponer que jcjkK k1 < 1
y jcj2 kK 2 k1 < 1. Dada la matriz
0
K=@
0
2
1
3
1
A;
obtenemos kK k1 = 4 y kK 2 k1 = 14: Entonces se tiene que
jcj < 0; 25 y jcj < 0; 2673 : : : ;
respectivamente. De esto podemos concluir que se obtiene una mejor cota
utilizando la condicion jcj2 kK 2 k1 < 1 ya que el rango de valores de c se
amplia y por ende el radio de convergencia de la serie de Neumann tambien
lo hace.
1.3.5. Convergencia Uniforme de la serie de Neumann
A continuacion estudiaremos la solucion de la ecuacion integral u = f +
cK0 u, donde K0 es el operador denido en (1.1.3) para tal efecto utilizaremos
las normas denidas en Deniciones 1.3.4 y 1.3.5, llamadas tambien normas
de convergencia uniforme.
Anteriormente observamos que, para que la serie de Neumann converja, es
suciente que jcjkK k < 1,(ver Proposicion 1.3.8) en tal caso no se ocuparon
las propiedades particulares de la norma asociada a una matriz.
Proposicion 1.3.17. Si la norma de f es nita y ademas jcjkK0 k < 1,
entonces la solucion u de la ecuacion (1.2) existe.
41
Demostracion. De acuerdo a la sucesion denida en (1.26), con K0 en lugar
de K , tenemos que para cada " > 0; la sucesion un :=
k um
n
X
j =0
cj K j f satisface
un k < ";
para cada m > n: Ya que el espacio vectorial de las funciones con la norma denida es completo (ver[4]), entonces la serie de Cauchy es una serie
convergente, es decir, existe una funcion u tal que
kun
uk ! 0; cuando n ! 1
en particular esto signica que un converge uniformemente a la solucion u.
En particular se tiene el siguiente resultado.
Corolario 1.3.18. Si jcjn kK n k < 1 para algun n
parcial un =
n
X
2 N, entonces la suma
cn K n f converge uniformemente a la solucion lmite u.
k=1
Ejemplo 1.3.19. Para la ecuacion: u(x) = f (x) + c
Z
0
1
k (x; y )u(y ) dy anali-
zamos dos casos en que la norma del operador asociado a K0 es menor que
1 y, as la serie de Neumann converge uniformemente a la solucion u.
1. k (x; y ) = sin(xy ): Como 0 < x < 1 entonces xy < y de donde sin(xy ) <
sin(y ). De esto se tiene que:
kK k = sup
0
x
Z
0
1
j sin(xy)j dy Z
0
1
sin y dy = 1
cos(1) < 1:
Concluimos que la serie de Neumann converge uniformemente a u.
42
2. k (x; y ) = 2jx
y j. En primer lugar calculamos la norma de K0 :
Z
kK k
= sup
0
x
1
0
2jx
Z
sup 2
x
1
0
y j dy
Z
jxj dy +
0
1
jyj dy
= sup 2x + 1 3:
x
Ya que la norma no es directamente menor que 1, calcularemos la norma
de K02 :
kK k
2
0
Z
= sup
x
1
Z
0
Z
= sup 4
x
0
1
0
1
jx
4jx
z jjz
zj
Z z
0
y j dz dy
jz
y j dy +
Z
z
1
jz
y j dy dz;
donde
Z z
0
jz yj dy +
Z
1
z
jz yj dy =
Z z
0
Z
z y dy +
1
z
1
z + y dy = z + + z 2 ;
2
por lo tanto:
kK k
2
0
Z
=
=
=
=
jx zj z + 21 + z2
sup 4
x
0
Z z
Z x
1
1
2
2
z + + z dz
(x z )
z + + z dz + (z x)
2
2
x
0
2
3
4
2
3
4
3x 2x + x
1 2x + 3 x 2x + x
sup 4
+
2
6
x
2
3
4
1 2x + 3 x 2x + x
2
sup 4
= :
6
3
x
1
De lo anterior tenemos que kK02 k < 1 lo que nos asegura la convergencia
uniforme de la serie de Neumann a u.
Ejemplo 1.3.20. Dada la ecuacion
Z
u(x) = f (x) + c
0
1
ex y u(y ) dy
43
encontraremos los valores de c para que la serie de Neumann converja. Para
esto resolvemos la ecuacion directamente.
Derivando con respecto a x obtenemos:
u0 (x) = f 0 (x) + cex
Deniendo g (x) := u(x)
Z
0
1
e y u(y ) dy = f 0 (x) + u(x)
f (x):
f (x) obtenemos la ecuacion:
g 0 (x) = g (x):
As la solucion para la ecuacion inicial es u(x) = ex + f (x).
1
X
Comparando esta con la solucion u = f +
cn K0n f; desprendemos que
1
y
1 = e f (x)
1
X
n=1
cn ;
por tanto para que esta serie converja se debe tener que jcj < 1.
Ahora bien aplicando la denicion de norma sobre el operador integral K0
se tiene que:
kK k = sup
0
x
Z
1
0
je j dy = sup e [
x y
x
x
y
x
e ] = sup e
1
0
x
1
1
e
1
0; 3679.
e
Al comparar las dos formas que hemos utilizado para encontrar el valor de c,
As kK0 k < e. Suponiendo jcjkK0 k < 1 se tiene que jcj <
observamos que no hay una diferencia signicativa para este valor, es decir,
se conserva la condicion de que jcj < 1, para que la ecuacion inicial posea
solucion.
Observacion 1.3.21. .
1. Si f es una funcion continua y K0 u es continua para cualquier u entonces la solucion u es continua.
44
2. Si K0 es un operador continuo y f es un funcion discontinua entonces
u
f = K0 u es continua, es decir, u tiene las mismas discontinuidades
que f .
Teorema 1.3.22. Si la norma de f es nita y la norma de K0 es menor que
1 entonces la ecuacion integral u = f + K0 u tiene solucion cuya norma es
tambien nita.
Demostracion. Ya que kK0 k < 1, la serie de Neumann dene el operador
inverso
(I
K0 )
1
= I + K0 + K02 + K03 + :::
Ahora si la norma de f es nita, la ecuacion u = f + K0 u tiene solucion
u = (I
K0 ) 1 f
donde la norma de u es tambien nita, ya que
kuk k(I
K0 )
1
kkf k < 1:
1.3.6. Condiciones para la Existencia y Unicidad de la
soluci
on de la ecuacion con N
ucleos Peque~
nos
La notacion u = (I
K0 ) 1 f pareciera implicar que existe una unica
solucion para la ecuacion u = f + K0 u, pero no necesariamente es el caso.
Recordemos que la ecuacion K' = ' es equivalente a la ecuacion u = f + Ku
que tiene soluciones u1 y u2 con ' = u1
u2 , (u1 6= u2 ). Con respecto a esta
ultima observacion, tenemos el siguiente teorema
45
Teorema 1.3.23. Si la norma del operador K0 es menor que uno y la norma
de ' es nita, entonces la ecuacion u = f + K0 u tiene unica solucion.
Demostracion. Supongamos que la ecuacion u = f + K0 u tiene dos soluciones
digamos u1 , u2 con u1 6= u2 entonces restando, se obtiene la ecuacion
' 6= 0:
K' = ';
Ahora, aplicando la norma a la ecuacion anterior y usando el hecho que
kK k < 1 obtenemos:
0
k'k = kK 'k kK kk'k < k'k
0
0
donde se tiene una contradiccion que nace del supuesto u1 6= u2 ; as se tiene
que ' = 0, por tanto u1 = u2 . As, la ecuacion u = f + Ku tiene una unica
solucion.
Veamos el siguiente ejemplo que ilustra la importancia de que la norma
de ' sea nita.
Dado el nucleo
k (x; y ) :=
8
<
:
yx y ; 0 y x 1
0x<y1
0;
Calculamos la norma de K0 :
kK k
0
Z
= sup
x
= sup
x
Dado que x
por:
0
1
Z x
0
jk(x; y)j dy = sup
Z x
x
yx
y
0
jk(x; y)j dy +
Z
x
1
jk(x; y)j dy
dy:
y 1 con y 0 entonces podemos acotar la integral anterior
kK k sup
0
x
Z x
0
y dy =
1
< 1:
2
46
As, kK0 k < 1. Sea '(x) = xx
1
entonces su norma es
k'k = sup jxx j = 1:
1
x
Como la norma de ' es divergente la ecuacion u = f + K0 u asociada al
problema posee mas de una solucion, incluso cuando kK0 k < 1.
Anteriormente vimos que si k (x; y ) = s(x; y )+ e(x; y ) donde s(x; y ) es separable y e(x; y ) es peque~no, entonces la ecuacion u = f + K0 u puede ser reducida
a un sistema de ecuaciones lineales algebraicas. De esto se desprende que el
espacio de las funciones con norma nita kuk <
1 son en cierto sentido
`cercanamente'de dimension nita.
A n de precisar como podemos ampliar la clase de nucleos k (x; y ) procederemos como sigue: Escribimos
k (x; y ) = c(x; y ) + e1 (x; y )
donde c(x; y ) es una funcion continua en un conjunto cerrado [a; b] [a; b].
Teorema 1.3.24. Sea k(x; y) = c(x; y) + e1 (x; y) con c funcion continua
y e1 peque~no, entonces el nucleo anterior se puede escribir como k (x; y ) =
s(x; y ) + e(x; y ) donde s es separable y e es peque~no.
Demostracion. .
Sean K0 (u)(x) =
C0 (u)(x) =
Z b
a
Z b
a
k (x; y )u(y ) dy;
c(x; y )u(y ) dy y E1 (u)(x) =
continua en [a; b] [a; b]; se tiene que
kC k = sup
0
x
Z b
a
Z b
a
e1 (x; y )u(y ) dy: Ya que c es
jc(x; y)j dy < 1:
47
Luego:
kK k = kC
0
0
+ E1 k kC0 k + kE1 k < 1:
Por otra parte la continuidad de c implica, por el Teorema de aproximacion
de Stone Weierstrass ver [1], que c(x; y ) puede ser aproximada uniformemente
por un polinomio p(x; y ), esto es:
c(x; y ) = p(x; y ) + e2 (x; y )
donde e2 (x; y ) se elige de manera que kE2 k < 1
kE k.
1
Sea e(x; y ) = e1 (x; y ) + e2 (x; y ) entonces podemos escribir
h(x; y ) = c(x; y ) + e1 (x; y )
= p(x; y ) + e1 (x; y ) + e2 (x; y )
= p(x; y ) + e(x; y );
donde kE k = kE1 + E2 k kE1 k + kE2 k < 1 y p(x; y ) es separable.
El teorema anterior nos sirve para ampliar los nucleos de la forma k =
c + e1 que cumplan con las condiciones de la teora de Fredholm.
Observacion 1.3.25. Existe la posibilidad de que e1 posea innitas discontinuidades en su dominio, pero aun as kE1 k < 1.
Con respecto a la observacion anterior, veamos el siguiente ejemplo
Sean
y
k (x; y ) = jx
c(x; y ) = (jx
entonces e1 (x; y ) = k (x; y )
dominio, pero kE1 k < 1.
yj
1
2
y j + ")
1
2
c(x; y ) tiene innitas discontinuidades en su
Cap
tulo 2
Teor
a de Fredholm en espacios
de Lebesgue
Existen funciones y operadores cuyas normas (dadas en Proposicion 1.3.4
y Denicion 1.3.5, respectivamente) divergen, con lo cual los metodos anteriormente presentados no pueden ser utilizados. Es por esto que el presente captulo tendra como motivacion encontrar nuevas normas tales que la
teora de Fredholm siga siendo valida, ampliando la gama de terminos nohomogeneos y nucleos que puedan ser utilizados para resolver una ecuacion
del segundo tipo.
La denicion de integral que utilizaremos (a menos que se indique lo
contrario) sera la integral de Lebesgue, dada su generalidad y propiedades
que la integral de Riemann no posee.
48
49
2.1.
Funciones Absolutamente Integrables
Denicion 2.1.1. Una funcion u se dice absolutamente integrable en [a; b]
si
kuk
1
=
Z b
a
ju(x)j dx < 1:
(2.1)
Observacion 2.1.2. Se verica que kuk1 = 0 s y solo s u(x) = 0 para cada
x 2 [a; b] que no este en un conjunto de medida nula.
Se denota por L1 [a; b] al espacio vectorial de todas las funciones que
cumplan con la Denicion 2.1.1, donde u = v s y solo s u(x) = v (x) para
cada x que no este en un conjunto de medida nula.
Proposicion 2.1.3. La funcion k k1 es una norma.
Demostracion. Para tal efecto se deben cumplir las condiciones de la Denicion 1.3.1.
(1) se obtiene directamente de la observacion (2.1.2), mientras que (2) y (3)
son facilmente vericables. As, k k1 es una norma.
En lo que sigue, analizaremos las soluciones para la ecuacion integral
u = f + K0 u cuando f esta en L1 [a; b].
Proposicion 2.1.4. Si y ! k(x; y) es continua, entonces
kK k sup
0
y
Z b
a
jk(x; y)j dy:
50
Demostracion. En efecto,
kK uk
0
1
=
Z b
j(Ku)(x)jdx =
a
Z bZ b
a a
Z b
a
= sup
y
jk(x; y)jju(y)j dy dx =
ju(y)j sup
Z b
a
y
ess sup
a
Z b
a
a
ju(y)j
a
jk(x; y)j dx dy
jk(x; y)j dx dy
jk(x; y)j dx kuk :
Observaci
on 2.1.5. Si y
Z
b
Z b Z b
dx
k
(
x;
y
)
u
(
y
)
dy
a
a
Z b
Z b
1
! k(x; y) no es continua, se tiene que kK k 0
jk(x; y)j dx, donde ess sup denota supremo esencial (ver [1]).
A n de resolver la ecuacion u = f + cK0 u, basta tener que kcK0 k < 1:
Esto se ha demostrado en la Proposicion 1.3.8 donde solo se utilizaron las
propiedades generales de norma. De esta manera la solucion u es:
1
X
u=f+
cn K0n f:
n=1
A n de probar que esta solucion pertenece al espacio L1 , formamos la sucesion un de la siguiente forma:
un =
n
X
i=0
ci K0i f:
y observamos que (un ) es una sucesion de Cauchy, por lo estudiado en la
Seccion 1.3.5. Como L1 es completo, ver [4], esta sucesion converge a u, la
cual es la solucion para la ecuacion u = f + cK0 u. As, u pertenece a L1 .
Ejemplo 2.1.6. Para ilustrar como esta nueva norma ampla los tipos de
funciones f y k que podemos ocupar, analicemos la siguiente ecuacion
u(x) = x
1=2
Z
+
0
1
(x
1)
1=3
u(y ) dy:
(2.2)
51
En primer lugar observamos que
kf k =
sup jx
x2[0;1]
1=2
j=
1
sup p ;
x2[0;1] x
de donde vemos que kf k diverge, lo mismo ocurre para
kK k =
0
sup j(1
x2[0;1]
x)
1=3
j=
1
sup p
;
3
x
x2[0;1] 1
as la ecuacion (2.2) no tiene solucion utilizando la norma del supremo. Al
contrario si calculamos kf k1 y kK0 k1 obtenemos
kf k
1
Z
=
kK k 0
1
0
jx
1=2
Z
sup
y2[0;1]
1
0
j dx = 2;
j(1
x)
1=3
j dx = 32 :
Ya que ambas normas son nitas concluimos que la ecuacion (2.2) tiene
solucion y esta pertenece a L1 (0; 1).
2.2.
Funciones de Cuadrado Integrable
Denicion 2.2.1. Una funcion u se dice de cuadrado integrable en [a; b] si
kuk
2
=
Z b
a
u (x) dx < 1:
2
(2.3)
Se denota por L2 [a; b] al espacio vectorial de todas las funciones que
cumplan con la Denicion 2.2.1, donde u = v si y solo si u(x) = v (x) para
cada x que no este en un conjunto de medida nula.
Observacion 2.2.2. Otra manera de denir L2 [a; b] es considerando la clausura
del espacio de las funciones continuas denidas en el intervalo [a; b] con la
norma
kf k =
Z b
a
jf (x)jdx
1=2
:
52
Proposicion 2.2.3. La funcion k k2 es una norma.
Demostracion. Analoga a la proposicion (2.1.3)
Analizaremos las soluciones para la ecuacion integral u = f + K0 u cuando
f esta en L2 [a; b].
Proposicion 2.2.4.
kK k Z b Z b
0
a
a
jk(x; y)j
1=2
2
dydx
:
Demostracion. Si u esta L2 [a; b] entonces
kK uk
0
2
2
=
Z b
a
Z b
a
(K0 u) (x) dx =
2
kk(x; )k kuk
ahora si B (K0 ) =
2
2
2
Z b
a
Z b Z b
a
a
dx = kuk
2
2
kk(x; )k
2
2
2
dx =
k (x; y )u(y ) dy
2
2
Z b
a
kk(x; )k
2
2
Z b
a
hk(x; ); ui dx
dx;
dx entonces
kK uk B (K )kuk :
0
2
0
2
Observacion 2.2.5. Notemos que B (K0 ) < 1 implica kK0 k < 1, as la
ecuacion u = f + K0 u tiene solucion. Esta solucion se encuentra en L2 [a; b],
puesto que este espacio es completo, ver [4].
Los siguientes teoremas complementan la demostracion del Teorema FischerRiesz que es una herramienta util para construir funciones de cuadrado integrable a partir de vectores de dimension innita, el cual nos permite llevar
la teora de Fredholm a este tipo de espacios vectoriales.
53
Teorema 2.2.6 (Beppo Levi). Sea (fn (x)) una sucesion de funciones, tal
que
X
fn (x) es absolutamente convergente, c:t:p:, con lmite f (x), entonces
f (x) es integrable, y
Z
f (x) dx =
XZ
fn (x) dx:
Teorema 2.2.7 (Fatou). Sea (fn (x)) una sucesion de
funciones, tal que
Z
0 para cada n 2 N y fn(x) ! f (x) c:t:p: con fn(x) dx < b, para
Z
algun b 2 R, entonces f (x) es integrable y f (x) dx < b.
fn (x)
Teorema 2.2.8 (Fischer-Riesz). Si f = (f1 ; f2 ; : : : ) es un vector de dimension innita con kf k2 =
L2 tal que
1
X
n=1
fn2 < 1 entonces f dene una funcion g en
g=
1
X
n=1
fn un ;
donde fun g es un sistema ortonormal completo.
Demostracion. Sea Sn (x) la n-esima suma parcial de la serie
1
X
i=0
fi ui (x) y L
la longitud del intervalo sobre el cual se integra. De esta manera
kSm
S n k L1 =
Z X
m
f
u
(
x
)
i i
i=n+1
1=2
= L
= L1=2
donde
n+1
X
i=1
fi2
kSm
m
X
dx S n k L2 = L
Z
1=2
m
X
i=n+1 j =n+1
12 dx
h
m
X
i=n+1
1=2
2
Z X
m
@ fi ui (x)
i=n+1
m
X
fi ui (x);
fi fj hui ; uj i = L1=2
n+1
X
i=1
11=2
0
j =n+1
dxA
fj uj (x)i
fi2 ;
! 0 cuando n; m ! 1. As, Sn es una sucesion de Cauchy.
Dado que L1 es completo, por Teorema de Beppo Levi, Sn es una sucesion
54
convergente con lmite g en L1 . De esto se tiene que Sn es una suma parcial
acotada, con cota k . Ahora, si hacemos
Z
Z
Sn (x) dx =
2
y como Sn2
n
X
i=1
!2
fi ui
Z
k 2 dx < 1
dx <
! g ; n ! 1 completamos las hipotesis del teorema de Fatou.
2
Por tanto g es una funcion de cuadrado integrable.
2.2.1. Descomposicion de N
ucleos
En el metodo de Schmidt se supone que un nucleo k (x; y ) se puede descomponer como
k (x; y ) = s(x; y ) + e(x; y );
x; y 2 [a; b];
donde s es separable y e es peque~no. En esta seccion veremos como lograr
esta descomposicion en el caso del espacio L2 [a; b], con la unica restriccion
que k (x; y ) sea continua.
La idea es escribir:
k (x; y ) =
X
jnj<N
kn (x)einy +
X
jnjN
kn (x)einy ;
Z
1 donde kn (x) =
k (x; y )e iny dy son los coecientes de Fourier de la
2 funcion y ! k (x; y ) con x jo. (ver [1]).
El uso de los coecientes de Fourier tiene una motivacion especial. Si aproximamos una funcion f , primero por medio de una combinacion lineal arbitraria y luego utilizando coecientes de Fourier, obtenemos respectivamente:
f ( x) =
N
X
n=1
cn un (x) + E (x);
f (x) =
N
X
n=1
fn un (x) + e(x);
55
donde un es cualquier sistema ortonormal completo. Si hacemos la diferencia
entre los terminos anteriores, encontramos
E (x) =
N
X
n=1
( fn
cn )un (x) + e(x)
que corresponde al tama~no del error. Ahora, si calculamos kE k22 obtenemos
kE k
2
2
=k
N
X
n=1
(fn cn )un +ek = kek +2he;
2
2
2
2
X
Observemos que e es ortogonal a f
X
=
=
=
N
X
N
X
n=1
n=1
(fn cn )un i+k
(fn cn )un k22 :
fn un ya que
X
X
X
X
hf
fm um ; (fn cn )un i = hf
fm um ;
fn un
c n un i
X
X
X
X
X
X
hf; fnuni hf; cnuni h fmum; fnuni + h fmum; cnuni
XX
X
X
XX
fm cn hum ; un i
fm fn hum ; un i +
fn hf; un i
cn hf; un i
X
fn hf; un i
X
m n
X
fn2
n
cn hf; un i
+
X
m
n
fn cn = 0:
Luego, se tiene que
kE k
2
2
= kek +
2
2
N
X
n=1
(fn
cn )2 :
As, concluimos que el error se minimiza cuando fn = cn . Por lo tanto el utilizar coecientes de Fourier para aproximar una funcion en L2 [a; b] optimiza
el tama~no del error.
Teorema 2.2.9. Sea un un conjunto ortonormal en L2 [a; b]. Si f es una
funcion en L2 [a; b] entonces f =2
L
X
n2Z
Demostracion. Ver [1], pagina 16.
hf; uniun:
56
El smbolo =2 representa una igualdad con la norma del espacio L2 [a; b],
L
es decir,
f
n
X
n
h
f; ui ui ! 0;
i
n ! 1:
(2.4)
2
Proposicion 2.2.10. Para cada f
kf k
2
=
2 L [a; b] se tiene
2
X
n2Z
jfij ;
(2.5)
2
que llamamos relacion de completitud.
Demostracion. De (2.4) se obtiene lo siguiente:
f
n
X
n
h
2
f; ui ui i
= hf
n
X
n
X
n
n
2
hf; uiiui; f
hf; uiiuii
que es equivalente a
hf; f i
o
2hf; f
kf k
n
X
n
X
n
n
2
hf; uiiuii + hf
2
n
X
n
fi +
2
n
X
n
hf; uiiui; f
fi = k f k
2
Haciendo n ! 1 se obtiene la armacion.
2
n
X
n
Proposicion 2.2.11. Para cada f; g 2 L2 [a; b] se tiene
hf; gi =
X
n2Z
fi gi ;
que llamamos identidad de Parseval.
Demostracion. Tenemos que
kf + g k
2
= kf k2 + 2hf; g i + kg k2 :
n
X
n
fi2 :
hf; uj iuj i
57
Por otro lado ocupando la identidad (2.5) se tiene que
kf + gk
2
X
=
n2Z
lo que implica que
Consideremos y
X
(fi + gi )2 =
hf; gi =
fi2 + 2
n2Z
X
n2Z
X
n2Z
fi gi +
X
n2Z
gi2
fi gi :
! k(x; y) en L [a; b] con x jo. Empleando el Teorema
2
2.2.9 tenemos que
k (x; y ) =2
L
X
n2Z
kn (x)un (y );
donde kn (x) son los coecientes de Fourier de k (x; y ). Estos son:
kn (x) = hk (x; ); un i =
Z b
a
k (x; y )un (y ) dy:
De esta manera la funcion k (x; y ) se aproxima por
k (x; y ) =
Deniendo sn (x; y ) =
mos
X
jnj<N
X
jnj<N
kn (x)un (y ) +
X
jnj>N
kn (x)un (y ):
kn (x)un (y ) y en (x; y ) =
X
jnj>N
(2.6)
kn (x)un (y ) obtene-
k (x; y ) = sn (x; y ) + en (x; y ):
Proposicion 2.2.12. Sea (En u)(x) =
Z b
a
en (x; y )u(y ) dy . Entonces existe
N0 2 N tal que kEn k < 1, para cada n N0 .
Demostracion. .
Armacion: en ! 0 cuando n ! 1:
En efecto, como k (x; y ) =
X
n2Z
kn (x)un (y ), entonces
en (x; y ) = k (x; y )
X
jnjN
kn (x)un (y )
58
de donde que
lm ken k = lm kk
n!1
n!1
sn k = 0;
lo que prueba la armacion.
Ahora bien; por Proposicion 2.2.4 se tiene
kEnk Z bZ b
a
a
en (x; y )2 dx dy;
y como en ! 0 cuando n ! 1, se obtiene kEn k ! 0.
2.3.
Funciones Propias
En la seccion anterior se observo que para poder aproximar k (x; y ) por
(2.6) se requiere de un sistema ortonormal completo fun g. Para justicar la
existencia de este realizaremos el siguiente analisis.
A continuacion se entregan Deniciones y Teoremas que complementan la
Demostracion del Teorema 2.3.4
Denicion 2.3.1. Diremos que una sucesion (an )n2N en un espacio E con
producto interno <; > converge debilmente a un lmite a
cribiremos an ! a, si
w
han; yi ! ha; yi;
2 E , lo cual es-
cuando n ! 1:
para cada y en el espacio.
Denicion 2.3.2. Un conjunto X E es debilmente compacto si para toda
sucesion un X existe una subsucesion unk que converge debilmente en X .
Teorema 2.3.3. Sea X
E
un conjunto. Si X es debilmente compacto
entonces X es debilmente cerrado.
59
Demostracion. ver [1] section 13 p.163.
Teorema 2.3.4. Sea K0 el operador integral de la ecuacion (1.2) y supongamos que K0 es simetrico, entonces K0 posee una funcion propia.
Demostracion. Consideremos la funcion Q : L2 [a; b] ! R denida como
hu; K0ui : Esta funcion se conoce como cociente de Rayleigh.
Q(u) =
kuk22
Armacion: La funcion Q tiene un maximo.
En efecto, primero observamos que el conjunto A = fx 2 L2 [a; b] : kxk2 = 1g
es debilmente compacto, lo cual se conoce como Teorema de Alaoglu, ver [1].
Por Teorema 2.3.3 existe k 2 R tal que
jkj = sup jQ(u)j:
u2A
Por denicion de supremo se tiene que existe una sucesion (un ) A tal que
1
n
jkj
jQ(un)j;
para cada n 2 N: Pero jQ(un )j jk j: As, se tiene
jkj
1
n
jQ(un)j jkj:
Luego, se obtiene jQ(un )j ! jk j cuando n ! 1:
Ahora, ya que A es debilmente compacto, tenemos que existe una sub-
sucesion, (unk ), de la sucesion (un ) tal que unk ! ' para algun ' 2 A.
w
Como u ! jQ(u)j es una funcion continua obtenemos
jQ(unk )j !w jQ(')j; n ! 1:
As, por unicidad de lmite se tiene que:
jQ(')j = jkj:
60
Por tanto, jQ(u)j jQ(')j para cada u 2 A.
Dado y
2 L [a; b], denamos u := kyyk
2
anterior concluimos que
Q
pero
Q
y
ky k2
=
h
y
kyk2
y
y
kyk2 ; K0 kyk2
y 2
ky k2 i
2
. Entonces u
2 A y por la parte
jQ(')j
1
=
h
y; K0 y i = jQ(y )j
2
kyk2
De esto se tiene que jQ(y )j jQ(')j para todo y 2 L2 [a; b], y as Q posee un
maximo en ', lo cual prueba la armacion.
2 L [a; b]: Consideremos la funcion q : R ! R denida por q(t) =
Q('+ty ): Dado que jQ(m)j jQ(')j para todo m 2 L [a; b] podemos escoger
Sea y
2
2
m como ' + ty y entonces
q (t) q (0); para cada t 2 R;
puesto que q (0) = Q(').
Luego, q tiene un maximo en 0, y esto implica que q 0 (0) = 0.
Por otra parte, ya que
h' + ty; K (' + ty)i
k' + tyk
h'; K 'i + th'; K yi + thy; K 'i + t hy; K yi :
k'k + 2th'; yi + t kyk
q (t) = Q(' + ty ) =
=
0
2
2
0
0
2
0
2
2
2
2
2
Dado que K0 es un operador simetrico se tiene
q (t) =
h'; K 'i + 2thK '; yi + t hy; K yi
k'k + 2th'; yi + t kyk
0
2
0
2
2
2
0
2
2
0
61
Derivando la funcion q obtenemos
q 0 (t) =
(2hK0 '; y i + 2thy; K0 y i)k' + ty k22 h' + ty; K0 (' + ty )i(2h'; y i + 2tky k22 )
(k'k22 + 2th'; y i + t2 ky k22 )2
Evaluando q 0 en t = 0, y como ' 2 A se tiene que
q 0 (0) = 2hK0 '; y i
2h'; K0 'ih'; y i
= 2hK0 '; y i
2h'h'; K0 'i; y i;
concluimos que
hK '
0
para todo y
2
'h'; K0 'i; y i = 0;
L2 [a; b]. Esto implica que K0 '
'h'; K0 'i = 0 entonces
K0 ' = 'h'; K0 'i donde ' es la funcion propia que buscabamos y h'; K0 'i
es su valor propio.
Observacion 2.3.5. Asumiendo que K0 es simetrico generamos una base
ortonormal por el proceso de ortogonalizacion de Gram-Schmidt a partir de
la funcion propia '. As aseguramos la existencia de una base ortonormal
completa.
2.4.
Teor
a en
Lp
En las secciones anteriores hemos considerado dos espacios de Lebesgue
L1 y L2 . Ahora, si consideramos un numero p
2 R tal que p 1, entonces
podemos denir el espacio general Lp de Lebesgue como sigue
Denicion 2.4.1. Una funcion u se dice p-integrable en [a; b] si
kukp =
Z b
a
ju(x)j
p
dx
1=p
< 1;
p 1:
62
Se denota por Lp [a; b] al espacio vectorial de todas las funciones que
cumplan con la Denicion 2.4.1, donde u = v s y solo s u(x) = v (x) para
cada x que no este en un conjunto de medida nula.
Proposicion 2.4.2 (Desigualdad de Holder). Sea u una funcion en
Lp [a; b] y v una funcion en Lq [a; b] tal que
se tiene que
Z b
a
ju(x)v(x)j dx Z b
a
ju(x)j
p
dx
1 1
+ = 1 con p; q
p q
1, entonces
1=p Z b
1=q
a
jv(x)j
q
dx
:
Observacion 2.4.3. De la desigualdad de Holder se obtiene la generalizacion
de la desigualdad de Schwartz
jhu; vij kukpkvkq :
Proposicion 2.4.4. Sea u en Lm [a; b] entonces u pertenece a Ln [a; b] para
todo n < m.
Demostracion. Tomando p = m=n y aplicando la desigualdad de Holder con
las funciones u(x)n y v (x) 1, se tiene que
Z b
a
n
u(x)
1 dx =
Z b
n=m Z b
m
u(x) dx
a
" Z
b
a
u(x)m dx
2 Lm[a; b] entonces kukm
nito y as u 2 Ln [a; b].
Dado que u
a
1=m #n
<
1
(b
(m
n)=m
dx
a)m=(m
m=(m n)
n)
:
1, luego el producto anterior es
Proposicion 2.4.5 (Desigualdad de Minkowski). Sean u y v funciones
en Lp [a; b] (p 1) entonces se tiene que
Z b
a
ju(x) + v(x)j
p
dx
1=p
Z b
a
ju(x)j
p
1=p Z b
dx
a
jv(x)j
p
dx
1=p
:
63
Las demostraciones de las Proposiciones 2.4.2 y 2.4.5 se encuentran en
[6].
Proposicion 2.4.6. La funcion k kp denida en 2.4.1 es una norma.
Demostracion. Para tal efecto se deben cumplir las condiciones de la Denicion 1.3.1.
(1) se obtiene directamente de la observacion (2.1.2) cambiando el smbolo
kk
1
por
k kp
donde corresponda. (2) es facilmente vericable, mientras
que (3) se obtiene directamente de la Proposicion 2.4.5. As,
norma.
Proposicion 2.4.7.
kK ukp Z b
0
a
kk(x; )k
p
p dx
1=p
:
Demostracion. En efecto,
kK ukp
=
0
=
=
Z b
j(K u)(x)j
p
0
dx
1=p
a
p
Z b Z b
k (x; y )u(y ) dy a
a
Z b Z b
a
Z b
a
a
jk(x; y)u(y)j dy
hk(x; ); ui
p
dx
1=p
!1=p
dx
p
!1=p
dx
:
Luego por la desigualdad de Holder, se tiene que
kK ukp 0
=
Z b
a
kukq
kk(x; )k kuk
p
p
Z b
a
p
q dx
kk(x; )k
1=p
p
p dx
1=p
:
k kp es una
64
Proposicion 2.4.8. Para que el producto de funciones u(x)v(x) pertenezca
a Lp [a; b] para todo u 2 Lp [a; b] se debe tener v 2 Lq [a; b]:
Demostracion. En efecto,
Z b
a
p
(u(x)v (x)) dx
1=p
=
Z b
ocupando la desigualdad de Holder se obtiene:
Z b
a
p
p
u(x) v (x) dx
1=p
a
p
p
1=p
u(x) v (x) dx
kupkpkvpkq :
De la observacion 1.3.3 tenemos que kup k kukp : As,
Z b
a
p
(u(x)v (x)) dx
1=p
kukppkvkpq < 1:
Observacion 2.4.9. .
1. De la proposicion anterior se obtiene que el operador K0 u pertenece a
Lp [a; b] para todo u 2 Lp [a; b] si k (x; y ) pertenece a Lq [a; b]:
2. Como kK0 k es menor que
poder resolver la ecuacion (1.2),
1=p
p
; observamos que para
k (x; ) p dx
a
con f (x) en Lp [a; b] y k (x; y ) en Lq [a; b] solo
Z b
k
k
necesitamos que la cota anterior sea menor que 1.
3.Si u es una funcion continua en Lp [a; b] se tiene que
lm kukp = sup ju(x)j:
x2[a;b]
p!1
Ahora bien, si u no es una funcion continua entonces el lmite anterior sera de
la siguiente forma
lm kukp = ess sup ju(x)j:
x2[a;b]
p!1
Bibliograf
a
[1] J.B. Conway, A Course in Functional Analysis, Graduate texts in
Mathematics 96, Springer-Verlag, New York, Berlin, London, Tokyo,
1990.
[2] S.I. Grossman, Algebra Lineal, McGraw-Hill, Mexico, Buenos Aires,
Madrid, Nueva York, 1996.
[3] E.L. Lima, Curso de Analise Vol.1, Editora Hamburg, Sao Paulo,
1982.
[4] E. Kreizig, Introductory Functional Analysis with Applications, John
Wiley and Sons, New York, Toronto, Singapure, 1978.
[5] A.C. Pipkin,A Course on Integral Equations, Texts in Applied Mathematics 9, Springer Verlag, New York, Berlin, London, Paris, Tokyo,
1991.
[6] W. Rudin, Real and Complex Analysis, McGraw-Hill, New York,
Toronto, London, Sydney, 1966.
65
Descargar