pdf file - Universidad de Buenos Aires

Anuncio
UNIVERSIDAD DE BUENOS AIRES
Facultad de Ciencias Exactas y Naturales
Departamento de Matematicas
Estimaciones de Error para aproximaciones obtenidas
usando cuadrados mnimos con peso variable
Autor
Mara Gabriela Armentano
Director
Dr. Ricardo G. Duran
Tesis presentada para optar por el Ttulo de
Doctor de la Universidad de Buenos Aires
2000
Resumen
El objetivo de esta tesis es obtener estimaciones de error en IRN para aproximaciones obtenidas
usando cuadrados mnimos con peso variable Probaremos que, bajo hipotesis apropiadas sobre
la funcion de peso y la distribuucion de puntos, se tienen estimaciones de error de orden optimo
en L1 y L2 para la aproximacion de la funcion y sus derivadas. Estas estimaciones son importantes en el analisis de aproximaciones de Galerkin basadas en cuadrados mnimos con peso
variable. En particular, los resultados proveen estimaciones de error, optimas en orden y regularidad, para problemas coercivos de segundo orden. Tambien, nuestras estimaciones de error proveen
la consistencia de los esquemas que resultan cuando el metodo es usado para generar formulas de
diferencias nitas o colocacion a partir de un conjunto arbitrario de puntos. Ademas, se introduce
el metodo de cuadrados mnimos continuos y se obtienen tambien estimaciones de error de orden
optimo para este metodo. Finalmente, como ejemplo de aplicacion de estos metodos se considera
la ecuacion de conveccion-diusion y se propone una manera de introducir up-wind mediante el
uso de una funcion de peso no simetrica. Se presentan varios ejemplos numericos que muestran el
buen comportamiento del metodo.
Palabras claves. estimaciones de error, cuadrados mnimos con peso variable, metodos sin malla, aproximaciones de Galerkin.
Abstract
The aim of this thesis is to obtain error estimates for moving least square approximations in
N
IR . We prove that, under appropriate hypotheses on the weight function and the distribution of
points, the method produces optimal order error estimates in L1 and L2 for the approximations
of the function and its derivatives. These estimates are important in the analysis of Galerkin
approximations based on the moving least square method. In particular, the results provides error
estimates, optimal in order and regularity, for second order coercive problems. Also, our estimates
allows to control the consistency error of nite dierence or collocation methods obtained from an
arbitrary set of points by the moving least square method. Moreover, we introduce the continuous
moving least square method and obtain the error estimates for this method too. Finally, as an
application of these methods we consider a convection-diusion equation and propose a way of
introducing up-wind by means of a non-symmetric weight function. We present several numerical
results showing the good behavior of the method.
Key words. error estimates, moving least square, meshless method, Galerkin approximations.
A mi esposo Sergio y a mis hijos
Santiago, Gonzalo y Mercedes
Agradecimientos
Quisiera agradecer a todos aquellos que de una u otra manera han colaborado para que esta
tesis haya sido posible:
Al Dr. Ricardo G. Duran, a quien admiro por sus conocimientos y capacidad, le agradezco por
haber conado en m. Gracias, por las muchas horas de trabajo en comun, por el buen animo que
ha tenido siempre para escucharme, por la dedicacion y empe~no con la que asumio mi direccion,
por lo que he aprendido trabajando con el y por la amistad que me ha brindado a lo largo de estos
a~nos.
A Gabriela Savioli, mi amiga, por haber estado siempre alentandome cuando las fuerzas me
faltaban.
A mis padres, Mara Esther y Ricardo, y a mis suegros, Gerardo (Apo) y Amelia, por haber estado
junto a m brindandome su apoyo y cari~no.
A Gabriel Acosta, con quien he trabajado en multiples ocasiones, por su colaboracion y amistad.
A Noem Wolanski, Javier Etcheverry, Juan Pablo Borgna, y a todos aquellos que me han apoyado.
A Liliana Gysin por su buena predisposicion a mis consultas.
Indice General
0.1 Introduccion : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
0.1.1 Las principales caractersticas del metodo y los resultados existentes : : : :
0.1.2 Descripcion general del contenido de esta tesis : : : : : : : : : : : : : : : :
1 El Metodo de Cuadrados Mnimos con Peso Variable
1.1 Descripcion del metodo : : : : : : : : : : : : : : : : : : : : : : : : : : : : : :
1.2 La aplicacion de MLS para la resolucion numerica de ecuaciones diferenciales
1.2.1 Aproximaciones de Galerkin : : : : : : : : : : : : : : : : : : : : : : : :
1.2.2 Metodo de Colocacion : : : : : : : : : : : : : : : : : : : : : : : : : : :
1.2.3 Formulas de diferencias nitas usando MLS : : : : : : : : : : : : : : :
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
5
5
6
8
8
11
11
13
14
2 Estimaciones de Error en L1 - El caso unidimensional
16
3 Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
26
4 El metodo de cuadrados mnimos continuos con peso variable
45
2.1 Estimaciones de error para la aproximacion de la funcion : : : : : : : : : : : : : : 16
2.2 Estimaciones de error para la aproximacion de las derivadas : : : : : : : : : : : : : 18
3.1 Estimaciones de Error en L1 y W 1;1 : : : : : : : : : : : : : : : : : : : : : : : : : 27
3.2 Estimaciones de Error en L2 y H 1 : : : : : : : : : : : : : : : : : : : : : : : : : : : 33
3.3 Cotas de las bases de Lagrange : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 38
4.1 Descripcion del metodo : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 45
4.2 Estimaciones de error : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : : 46
4.3 La aplicacion de CMLS a la resolucion numerica de ecuaciones diferenciales : : : : 56
3
4
5 Exp erimentos Numericos
5.1 El caso unidimensional : : : : : : : : : :
5.1.1 Aplicaciones del metodo MLS : :
5.1.2 Ejemplo de aplicacion de CMLS
5.2 El caso bidimensional : : : : : : : : : :
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
:
58
58
58
61
71
5
0.1 Introduccion
0.1.1 Las principales caractersticas del metodo y los resultados existentes
Dada una ecuacion diferencial es sabido que no siempre es posible hallar la solucion analtica y
se necesita entonces recurrir a algun metodo para obtener una aproximacion a dicha solucion. El
metodo de elementos nitos as como los metodos de diferencias nitas son algunos de los mas
empleados existiendo para ellos una basta teora. Desde hace algunos a~nos una nueva clase de
metodos, que se han dado en llamar `metodos sin malla', han cobrado interes y existen numerosos
trabajos referentes a la aplicacion de este tipo de metodos a la resolucion numerica de ecuaciones
diferenciales ([4],[5],[6],[11],[13], [16],[24],[27],[28],[29],[33]). Dentro de estos metodos se destaca el
metodo de cuadrados mnimos con peso variable. Este metodo fue introducido por Shepard [32],
como metodo de aproximacion, en el caso de menor orden y luego fue generalizado para mayor
orden por Lancaster y Salkauskas [21]. El objeto principal de estos trabajos era proveer una alternativa a la interpolacion clasica que resultara util para aproximar una funcion a partir de su valor
en ciertos puntos dados, distribuidos irregularmente, usando cuadrados mnimos pesados con la
variante de que los pesos dependan del punto donde se desea realizar la aproximacion. Mas recientemente, el metodo de cuadrados mnimos con peso variable comenzo ha utilizarse como metodo
para la resolucion numerica de ecuaciones diferenciales. Entre las principales caractersticas del
metodo que despertaron este interes se destacan:
- No se requiere la construccion de una \malla" para su aplicacion y por ello este metodo cae
dentro de los llamados \metodos sin malla".
- Es sencillo construir aproximaciones tan regulares como se desee (este aspecto es importante si
se desean resolver ecuaciones de alto orden).
- La posibilidad de incorporar a priori, a traves por ejemplo de la eleccion apropiada de la funcion
de peso, los conocimientos que se tengan sobre el comportamiento de la solucion de la ecuacion
diferencial.
Existen diversos trabajos, especialmente en el ambito ingenieril, referentes a la aplicacion del
metodo a la resolucion numerica de ecuaciones diferenciales ( [5], [6], [11],[13], [16], [27], [28], [29],
[33]) sin embargo, la convergencia del metodo no haba sido demostrada y en particular, no se
contaba con una teora que provea estimaciones del error cometido al aproximar la solucion de la
ecuacion diferencial por la obtenida empleando el metodo de cuadrados mnimos con peso variable.
Para llevar a cabo estas estimaciones era fundamental analizar el orden de la aproximacion no
solo para la funcion sino tambien para sus derivadas.
En un trabajo reciente Levin [22] analiza una variante del metodo de cuadrados mnimos con
peso variable para una funcion de peso en particular (cabe se~nalar que la funcion de peso por
el considerada no es de soporte compacto como es usual en la aplicacion del metodo para la resolucion numerica de ecuaciones diferenciales ( [5], [6], [11], [27], [33])). En este trabajo obtiene
estimaciones de error en norma uniforme para la aproximacion de una funcion regular en N dimensiones. Sin embargo, no obtiene estimaciones de error para las derivadas. Era entonces un
tema no resuelto obtener esta clase de estimaciones. Teniendo en cuenta ademas que en general
las soluciones de ecuaciones diferenciales no suelen ser regulares era importante contar con estimaciones de error en norma L2 con menos requerimientos de regularidad de la funcion que los que se
emplean para obtener estimaciones de error en norma uniforme. La necesidad de obtener este tipo
6
de estimaciones a n de establecer la convergencia del metodo cuando es aplicado a la resolucion
numerica de ecuaciones diferenciales son las que motivaron la presente tesis. Cabe mencionar
que los resultados obtenidos para el caso unidimensional y luego para el caso N -dimensional se
presentan en los trabajos [1] y [2] respectivamente.
Inspirados en este metodo estudiamos ademas un nuevo metodo de aproximacion el cual hemos
dado en llamar Cuadrados mnimos continuos con peso variable. Para este metodo obtenemos estimaciones de error tanto en norma uniforme como en norma L2 de la aproximacion de la funcion
y sus derivadas y explicamos como podra implementarse para la resolucion numerica de ecuaciones diferenciales. Es importante notar que este metodo posee las mismas tres caractersticas que
mencionamos anteriormente para el metodo de cuadrados mnimos con peso variable.
0.1.2 Descripcion general del contenido de esta tesis
Los resultados obtenidos, que han dado lugar a la presente tesis, son presentados de la siguiente
manera:
El Captulo 1 comienza describiendo el metodo de cuadrados mnimos con peso variable como
metodo para la aproximacion de funciones y sus caracteristicas mas sobresalientes. La seccion
1.2 esta dedicada a explorar las distintas alternativas de la aplicacion del metodo a la resolucion
numerica de ecuaciones diferenciales. Una de las posibles aplicaciones es la de generar Aproximaciones de Galerkin, usando funciones base que se construyen por el metodo de cuadrados mnimos
con pesos variable, como se describe en la seccion 1.2.1. Pero existen ademas otras alternativas
interesantes como es la posibilidad de utilizar las aproximaciones obtenidas por el metodo propuesto en el Metodo de Colocacion, como se describe en la seccion 1.2.2, as como, utilizarlo para
generar formulas de diferencias nitas para aproximar la funcion y sus derivadas como se explica
en la seccion 1.2.3.
En el Captulo 2 abordamos el problema de obtener estimaciones de error para la aproximacion
de la funcion y sus derivadas en el caso unidimensional. Este caso es analizado aparte ya que
se cuenta con propiedades de la aproximacion que no se conocen hasta el momento para el caso
general. Ademas esta claro que en este caso el concepto de malla no adquiere especial signicado
lo que conduce a que el analisis sea esencialemte mas simple que para el caso N -dimensional. Comenzamos presentando las estimaciones de error para la aproximacion de la funcion en la seccion
2.1, estas estimaciones se derivan de resultados conocidos en teora de aproximacion. La seccion
2.2 esta dedicada a obtener estimaciones de error para las dos primeras derivadas en norma L1 .
Es importante notar que no se contaba hasta el momento con estimaciones de este tipo siendo
entonces este uno de los aportes originales de esta tesis. Una de las ideas fundamentales que
posibilitaron tales estimaciones es haber explotado la propiedad de ortogonalidad que satisface la
aproximacion que resulta de cuadrados mnimos. Si bien se presentan las estimaciones de error
solo para las dos primeras derivadas las mismas ideas pueden utilizarse para obtener estimaciones
para las derivadas de orden mayor.
En el Captulo 3 estudiamos el caso N -dimensional. Este caso presenta la dicultad de establecer
condiciones sobre la distribucion de los puntos dados de manera de garantizar la existencia del
aproximante y obtener estimaciones del error de aproximacion pero permitiendo que los puntos
esten distribuidos irregularmente, por ende comenzamos presentando las propiedades que supon-
7
dremos sobre la funcion de peso y la distribucion de los puntos. En la seccion 3.1 presentamos
las estimaciones de error para la aproximacion de la funcion y sus derivadas en L1 , estas estimaciones se realizan generalizando las ideas usadas para el caso unidimensional. Uno de nuestros
principales intereses era obtener estimaciones en L2 con menos requerimientos de regularidad de
la funcion que los que se supusieron para obtener estimaciones en L1 . En este aspecto no exista
ningun resultado sobre el error en la aproximacion de la funcion ni de sus derivadas, por ende las
estimaciones de error que obtenemos en la seccion 3.2, optimas en orden y regularidad, conforman otro de los resultados relevantes de esta tesis. En resumen, las estimaciones de error que se
presentan en los Captulos 2 y 3 garantizan la convergencia del metodo cuando es aplicado como
metodo de Galerkin para problemas coercivos de segundo orden , as como la consistencia de los
esquemas resultantes cuando es usado para generar esquemas de diferencias como se explica en el
Captulo 1.
El Captulo 4, el cual constituye otro de los aportes originales de esta tesis, esta dedicado al
analisis de un nuevo metodo de aproximacion, por nosotros llamado cuadrados mnimos continuos
con peso variable, en el cual, a diferencia del metodo de cuadrados mnimos con peso variable
analizado previamente, el aproximante se construye minimizando un promedio de los errores en
lugar de considerar solo el valor en ciertos puntos. En la seccion 4.2 presentamos las estimaciones
de error en L1 y en L2 para la aproximacion de la funcion y sus primeras derivadas y en la seccion
4.3 explicamos como el metodo puede ser empleado para resolver numericamente ecuaciones diferenciales.
El ultimo Captulo de esta tesis esta dedicado a presentar experimentos numericos sobre la aplicacion de los metodos propuestos para la resolucion numerica de ecuaciones diferenciales. Entre
las caractersticas sobresalientes de estos metodos, que mencionamos previamente, se destaca la
posibilidad de incorporar, a priori, el conocimiento que se tenga sobre el comportamiento de la
solucion de la ecuacion y es sobre el aprovechamiento de esta cualidad en la que se concentran
los ejemplos. Los experimentos numericos se reeren entonces a la aplicacion del metodo a la
resolucion numerica de la ecuacion de conveccion-difusion. En la seccion 5.1 consideramos el caso
unidimensional, es sabido que si la conveccion domina es necesario trabajar con mallas muy nas,
si se emplea el metodo de elementos nitos usual o en su defecto emplear elementos nitos no
centrados o bien formulas de diferencias nitas con up-wind a n de evitar la presencia de oscilaciones ([25], [31]). Los metodos propuestos, en esta tesis, se emplean utilizando una funcion
de peso que tenga en cuenta la asimetra del problema y a lo largo de esta seccion se presentan
ejemplos de las distintas alternativas de aplicacion de los metodos y se comparan con las obtenidas
si se emplean los metodos usuales. La seccion 5.2 esta dedicada a la aplicacion del metodo de
cuadrados mnimos con peso variable a la ecuacion de conveccion-difusion en dos dimensiones.
Se plantea como generalizar el concepto unidimensinal de `up-wind' proponiendo una funcion de
peso conveniente y se presentan gracos comparativos de la solucion obtenida por este metodo y
diferencias nitas.
Cap
tulo 1
El Metodo de Cuadrados Mnimos
con Peso Variable
En este captulo describiremos el metodo de cuadrados mnimos con peso variable y las distintas
variantes de su aplicacion para obtener aproximaciones a la solucion de ecuaciones diferenciales.
1.1 Descripcion del metodo
El metodo de cuadrados mnimos usual ([12],[18],[20]) trata el problema de aproximar una funcion
u(x) a partir de su valor en ciertos puntos f1; ; n g pertenecientes a algun conjunto N .
Para llevar a cabo la aproximacion se elige un conjunto de s funciones linealmente independientes
(usualmente polinomios) g1; ; gs con s n y se busca una aproximacion a u(x) de la forma
IR
u^(x) =
s
X
k=1
k gk (x)
donde los coecientes 1 ; ; s son elegidos de manera que mimimicen la expresion
J () =
n
X
i=1
wi(ui ?
s
X
k=1
gk (i)k )2
con wi constantes no negativas dadas (pesos) y ui = u(i ); 1 i n.
En el metodo de cuadrados mnimos con peso variable, a diferencia del metodo de cuadrados
mnimos usual, se consideran pesos que sean funciones de x, i.e, wi = wi (x) 1 i n y por lo
tanto, para cada x, los coecientes 1 (x); ; s (x) son elegidos de manera que minimicen
J () =
n
X
i=1
wi(x)(ui ?
8
s
X
k=1
gk (i)k (x))2
(1.1.1)
El Metodo de Cuadrados Mnimos con Peso Variable
9
y en consecuencia la aproximacion esta dada por
u^(x) =
s
X
k=1
k (x)gk (x)
(1.1.2)
Observacion 1.1.1 Si se utiliza una sola funcion g1(x) 1 se tiene el metodo de Shepard [32],
y el aproximante u^(x) esta dado entonces por:
Pn w (x)u
i
i
u^(x) = Pi=1
n w (x)
j =1 j
En consecuencia, para cada x, u^(x) resulta ser en este caso un promedio pesado de los valores
de u en los puntos f1 ; ; n g. La aproximacion denida en (1.1.2) con s > 1 es entonces una
generalizacion del metodo de Shepard la cual fue introducida por Lancaster y Salkauskas [21].
Es claro que las funciones de peso en (1.1.1) pueden elegirse para producir efectos convenientes.
Si la funcion de peso wi se concentra proxima a i y se aproxima a cero cuando x se aleja de i ,
los puntos lejanos a x tendran poca inuencia al considerar u^(x). Esto se tiene, por ejemplo, si se
toman funciones de peso que sean de la forma wi(x) = (x ? i ) con alguna funcion no negativa
con soporte en un entorno de x. Este es el tipo de funciones de peso que vamos a considerar,
como es usual cuando el metodo de cuadrados mnimos con peso variable se utiliza para construir
aproximaciones a la solucion de ecuaciones diferenciales ([5], [6], [11], [27], [33]).
El metodo de cuadrados mninos con peso variable que consideraremos en esta tesis, el cual
llamaremos en adelante MLS, puede describirse de la siguiente manera:
Dado R > 0 sea 0 R 1 una funcion con soporte en BR (0) = fz=kz k Rg y sea
XR = f1; ; ng un conjunto de n = n(R) puntos en IRN , un conjunto abierto acotado y
con borde Lipschitz. Sean fu1; u2; ; un g los valores de la funcion u en los puntos pertenecientes
a XR , i.e, uj = u(j ), 1 j n. Vamos a denotar por Pm el conjunto de todos los polinomios
de grado menor o igual a m, sea s = dim Pm y fp1; ; ps g una base de Pm .
P
Para cada x 2 consideramos P (x; y ) = sk=1 pk (y )k (x), donde los coecientes k (x),
1 k s, son elegidos tal que
Jx () =
n
X
j =1
s
X
R(x ? j )(uj ?
k=1
pk (j )k (x))2
sea mnimo.
Denimos entonces una aproximacion a u(x) como
u^(x) = P (x; x) =
s
X
k=1
pk (x)k (x)
(1.1.3)
Para que el aproximante este bien denido cualquiera sea x 2 debemos garantizar que el
problema de minimizacion tenga solucion unica. A tal n consideramos la siguiente propiedad
sobre la funcion de peso R y los puntos pertenecientes a XR :
10
Captulo 1
Propiedad L : Para cada x 2 , existe un subconjunto de s puntos i ; ; is pertenecientes
a XR donde la interpolacion de Lagrange es posible (es decir, existe un unico polinomio PI de
grado menor o igual que m tal que PI (ij ) = u(ij ) para 1 j s) y tal que R(x ? ij ) > 0
para aquellos puntos ij ; 1 j s.
Si R satisface la Propiedad L podemos denir para cada x 2 1
< f; g >x =
n
X
j =1
R (x ? j )f (j )g (j )
(1.1.4)
que resulta ser un producto interno sobre Pm y la correspondiente norma asociada es entonces
kf k2x =< f; f >x.
Observemos que si notamos f = (f (1); ; f (n ))t el producto interno (1.1.4) puede escribirse
en forma matricial de la siguiente manera
< f; g >x =
t
f W
(x)g
donde W(x) es la matriz diagonal de n n, W(x) = diag (R(x ? 1); ; R(x ? n )) con elementos
no-negativos. Sabemos que para cada x 2 la mejor aproximacion P (x; ) 2 Pm satisface la
relacion de ortogonalidad
< u ? P (x; ); pl >x = 0 81 l s
dado que P (x; ) es la proyeccion ortogonal de u sobre Pm bajo el producto < ; >x ([12],[18].[20]).
Por lo tanto los coecientes k (x) , 1 k s satisfacen las correspondientes ecuaciones normales
s
X
k=1
k (x) < pk ; pl >x=< u; pl >x 1 l s
Si notamos (x) = (1 (x); ; s (x))t las ecuaciones normales pueden escribirse en la forma
PW
(x)Pt = PW(x)u
(1.1.5)
donde P es una matriz de sn cuya j ?esima la es p = (pj (1 ); ; pj (n )) y u = (u(1); ; u(n ))t.
j
Observacion 1.1.2 Notemos que la independencia de los vectores j , lo cual se sigue inmediatamente de la independencia de fpj g1j s , junto con el hecho de que R satisface la Propiedad L
implican que (x) t es denida positiva. Luego los coecientes k (x); 1 k s son determinados univocamente y P (x; ) esta bien denido.
p
PW
P
De resultados clasicos en teora de aproximacion por cuadrados mnimos (ver por ejemplo [18])
tenemos entonces que:
Teorema 1.1.1 Si la funcion de peso R satisface la Propiedad L. Entonces, para cualquier
x 2 existe un unico P (x; ) 2 Pm para el cual ku ? P (x; :)kx ku ? P kx 8 P 2 Pm .
El Metodo de Cuadrados Mnimos con Peso Variable
11
Observacion 1.1.3 A partir de las ecuaciones normales (1.1.5) P (x; x) puede ser escrito de la
siguiente manera
n
X
P (x; x) =
P
j =1
j (x)uj
(1.1.6)
con j (x) = sk=1 ((PW(x)Pt)?1 cj )k pk (x) = (p1(x) ps (x))(PW(x)Pt)?1 cj donde cj es la j-esima
columna de PW(x) , 1 j s
Observacion 1.1.4 Para ver la regularidad de P basta notar que si R 2 C k (IRN ) luego P 2
C k (
), lo cual se sigue inmediatamente desde la inversibilidad de (x) t y (1.1.3) (ver seccion
2 en [21]). En conclusion las funciones base j denidas en (1.1.6) son funciones con soporte en
BR (j ) y tienen la misma regularidad que la funcion de peso R .
PW
P
Observacion 1.1.5 Es sencillo ver que si u P
2 Pk con k m, luego u^ = u. En particular
fj g1jn son una particion de la unidad, i.e, nj=1 j (x) = 1, 8x 2 .
1.2 La aplicacion de MLS para la resolucion numerica de ecuaciones diferenciales
En esta seccion presentaremos distintas alternativas de la aplicacion de MLS para obtener aproximaciones a la solucion de ecuaciones diferenciales. En la subseccion 1.2.1 explicaremos como
obtener aproximaciones de Galerkin usando MLS. En la subseccion 1.2.2 nos ocuparemos del uso
de MLS como Metodo de Colocacion y por ultimo en la subseccion 1.2.3 describiremos como
generar formulas de diferencias nitas usando MLS.
1.2.1 Aproximaciones de Galerkin
Supongamos que deseamos resolver una ecuacion diferencial la cual puede expresarse en su forma
variacional de la siguiente manera:
Hallar u 2 V H , donde H es un espacio de Hilbert dotado de un producto interno < ; >,
tal que
(1.2.7)
a(u; v ) = L(v ); 8v 2 V
donde a(; ) es una forma bilineal, continua (o sea existe C tal que ja(v; w)j C kv kV kwkV 8v; w 2
V ), y coerciva en V (existe una constante > 0 tal que a(v; v) kvk2V 8 v 2 V ), y L es un
operador lineal y continuo en V (i.e, existe una constante > 0 tal que jL(v )j kv kV 8v 2 V ).
El metodo de Galerkin consiste en obtener una solucion aproximada al problema variacional
(1.2.7) resolviendo un problema en dimension nita de la siguiente manera:
Hallar uh 2 Vh , donde Vh es un subespacio de V de dimension nita, tal que
a(uh ; v) = L(v); 8v 2 Vh
(1.2.8)
12
Captulo 1
Por el Teorema de Lax-Milgram ([7], [10]) sabemos que tanto el problema (1.2.7) como el problema
(1.2.8) tiene solucion unica. Ademas por el Lema de Cea ([7], [10]) sabemos que:
ku ? uh kV C infv2Vh ku ? vkV
(1.2.9)
donde C y son las constantes de continuidad y coercividad de la forma bilineal a.
Observacion 1.2.1 Si la forma bilineal no resulta coerciva, pero satisface la llamada condicion
inf-sup, i.e,
9 > 0 tal que
y
sup ak(vu;k v ) kukV 8u 2 V
(1.2.10)
sup ak(uu;k v ) kv kV 8v 2 V
(1.2.11)
v2V
u2V
V
V
se tienen tambien resultados de existencia y unicidad para el problema (1.2.7) (ver por ejemplo [8])
Para tener aproximaciones de Galerkin bien denidas asumimos que a satisface la cond inf-sup
en Vh , i.e., existe > 0 tal que
sup ak(vu;k v ) kukV 8u 2 Vh
v2Vh
V
(1.2.12)
Bajo estas suposiciones tenemos entonces una generalizacion del Lema de Cea dado por Babuska
[3]:
ku ? uh kV (1 + C )infv2Vh ku ? vkV
(1.2.13)
Observacion 1.2.2 Notemos que la condicion (1.2.10) (y analogamente (1.2.11)) pueden escri-
birse como
a(u; v) > 0
inf
sup
u2V
kuk kvk
v2V
V
V
y de ah su nombre.
En el metodo de elementos nitos usual se consideran cierto tipos de elementos, por ejemplo
triangulos si IR2 , y se toma como Vh el espacio de funciones de V que restringidas a cada
triangulo son polinomios de cierto grado (la eleccion de Vh esta ligada al espacio V en cada caso).
Para este tipo de metodos existe una teora muy completa ([7],[10]) y se tienen estimaciones del
error u ? uh en terminos del tama~no de la malla, en este caso el subindice h se asocia con el mayor
diametro de los elementos de la triangulacion.
El metodo de cuadrados mnimos con peso variable MLS puede ser utilizado para construir
aproximaciones de Galerkin de la siguiente manera:
El Metodo de Cuadrados Mnimos con Peso Variable
13
Sea VR = spanf1; : : :; ng, donde j , 1 j n son las funciones base denidas en (1.1.6), el
problema es entonces hallar uR 2 VR de la forma
uR (x) =
n
X
j =1
j (x)uRj
donde uR1 ; : : :; uRn son solucion del sistema
n
X
j =1
a(j ; k )uRj = L(k ); 1 k n
Observacion 1.2.3 Como las funciones base j tienen la misma regularidad que R ( ver Observacion 1.1.4) es sencillo construir espacios VR adecuados para cada problema.
Para ver como es la aproximacion es fundamental tener entonces estimaciones del error u ? uR
en terminos de R el cual juega el mismo papel que h en el metodo de elementos nitos (aunque
cabe destacar que para la aplicacion de MLS no se necesita tener una malla o triangulacion en el
sentido usual). Notemos que a partir de (1.2.9) o (1.2.13) se tiene que
ku ? uRkV C ku ? vkV 8v 2 VR
Como la estimacion se tiene cualquiera sea v 2 VR podemos considerar v = u^ 2 VR denido en
(1.1.6). Las estimaciones deseadas para u ? uR se tendran entonces a partir de las estimaciones
de error para u ? u^, las cuales seran presentadas en los Captulos 2 y 3.
1.2.2 Metodo de Colocacion
Otra aplicacion de MLS para la resolucion numerica de ecuaciones diferenciales es el Metodo de
Colocacion el cual puede describirse de la siguiente manera:
Dada una ecuacion diferencial
Lu = f en con condiciones de borde
Bu = g en @ con LPy B operadores lineales, nos proponemos encontrar una aproximacion a u de la forma
uR = nj=1 j aj con j como en (1.1.6).
Por lo mencionado en la Observacion 1.1.4 las funciones base j pueden construirse sucientemente regulares si se eligen funciones de peso convenientes. El metodo de colocacion consiste en
imponerle a uR que satisfaga la ecuacion diferencial y las condiciones de borde, en ciertos puntos
fz1; ; zng 2 , i.e,
LuR jx=zi = f (zi ) zi 2 BuRjx=zi = g(zi) zi 2 @ 14
Captulo 1
Arribando de esta manera a un sistema de n ecuaciones con n incognitas a1; ; an .
LR a = FR
donde LR es una matriz de n n tal que (LR )ij = L(j (x))jx=zi si zi 2 y (LR )ij = B (j (x))jx=zi
si zi 2 @ y FR es un vector con componentes f (zi ) o g (zi ) segun zi 2 o zi 2 @ .
La convergencia de este tipo de metodos se establece a partir de la estabilidad y la consistencia
del esquema resultante [31]. A pesar que MLS como metodo de Colocacion fue utilizado en varios
trabajos ([11], [27], [33]) ninguno de estos presenta resultados de este tipo. Si bien la estabilidad
debe analizarse en cada caso en particular, las estimaciones de error que presentaremos en el
Captulo 2 (caso unidimensional) y en el Captulo 3 (caso N-dimensional) pueden emplearse para
establecer la consistencia de los esquemas resultantes al utilizar MLS como metodo de colocacion
para resolver ecuaciones diferenciales de segundo orden.
1.2.3 Formulas de diferencias nitas usando MLS
En [28] Orkisz propone un aprovechamiento de MLS ( distinto al metodo de colocacion) para
generar esquemas de diferencias nitas para resolver ecuaciones diferenciales. Vamos a ejemplicar
esta aplicacion para el caso unidimensional, el mismo razonamiento puede emplearse para generar
formulas de diferencias en mas dimensiones.
m
Fijado x^ en podemos condiderar f1; x ? x^; ; (x?mx^!) g una base de Pm , y
P (^x; x) =
mX
+1
k=1
k ?1
ak (^x) (x(k??x^)1)!
donde los coecientes ak (^x) son determinados minimizando
n
X
j =1
R (^x ? j )(uj ?
mX
+1
k=1
)k?1 )2
ak (^x) ((jk??x^1)!
Notemos que P (^x; x) coincidira con el polinomio de Taylor de grado m, centrado en x^, de la
funcion u si los coecientes ak fuesen las (k ? 1)-esimas derivadas de u evaluadas en x^. Inspirado en
esta idea Orkisz propone considerar, para cada x^ 2 , a ak (^x) como una aproximacion a u(k?1) (^x),
1 k m + 1. De esta manera se pueden generar facilmente formulas de diferencias para las
derivadas las cuales podran utilizarse para resolver ecuaciones diferenciales de hasta orden m.
Si bien u(^x) se aproxima por a1 (^x) = P (^x; x^) = u^(^x), Orkisz propone que la k-esima derivada
de u en x^ se aproxime por ak+1 (^x) en lugar de aproximarla por la k-esima derivada de u^ en x^
como se propuso en los metodos antes mencionados. De esta manera se pueden generar formulas
de diferencias nitas mas facilmente que utilizando colocacion ya que nos evitamos el calculo de
las derivadas de u^.
La convergencia de las aproximaciones obtenidas usando estos esquemas de diferencias nitas
puede establecerse si se tiene la consistencia y la estabilidad de los mismos. Si bien nuestro
proposito es obtener estimaciones del error cometido al aproximar u y sus derivadas por u^ y las
El Metodo de Cuadrados Mnimos con Peso Variable
15
derivadas de u^, es importante notar que los resultados intermedios que se obtienen para arribar a
estas estimaciones de error (ver Captulo 2) proporcionan tambien estimaciones del error cometido
al aproximar la primer y segunda derivada de u por ak para k = 2; 3 respectivamente, y estas
estimaciones proveen entonces la consistencia para esquemas de este tipo cuando se emplean para
resolver ecuaciones diferenciales de segundo orden.
Cap
tulo 2
Estimaciones de Error en L1 - El
caso unidimensional
En este captulo vamos a establecer estimaciones de error en norma innito para el caso unidimensional, en terminos del parametro R, no solo para la aproximacion de la funcion sino tambien
para la aproximacion de sus derivadas dado que, como mencionamos antes, queremos establecer estimaciones de error que provean la convergencia de MLS cuando es aplicado para resolver
ecuaciones diferenciales.
2.1 Estimaciones de error para la aproximacion de la funcion
Recordemos que, dado R > 0, R con soporte en BR (0) y n = n(R) puntos XR = f1 ; ; n g en
un intervalo IR, denotamos por fp1 ; ; pm+1 g una base de Pm y para cada x 2 llamamos
u^(x) = P (x; x) a la aproximacion a u(x) denida en (1.1.3).
Vamos a denotar, para k entero no-negativo, W k;1 (
) al espacio de Sobolev denido por
k;
W 1 (
) = ff 2 L1loc : kf kW k;1 (
) < 1g donde kf kW k;1 (
) = maxjjk kD f kL1 (
) con =
(1; ; N ), i 2 IN0 para 1 i n y D f la derivada debil de f de orden j j = 1 + + N , i.e,
W k;1 (
) es el espacio de las funciones con derivadas distribucionales hasta el orden k en L1 (
).
Para realizar nuestro analisis de error vamos a considerar una serie de propiedades sobre la
funcion de peso R y la distribucion de los puntos pertenecientes a XR . Todas las constantes que
aparecen son independientes de R. En adelante, para simplicar notacion, vamos a descartar el
subndice R en R .
1. Dado x 2 existen al menos m + 1 puntos pertenecientes a XR \ B R (x)
2
2. 9c0 > 0 tal que (z ) c0 8z 2 B R (0).
2
3. 2 C 1(BR (0)) \ W 1;1 (IR) y 9 c1 > 0 tal que k0 kL1 (IR) cR
1
16
Estimaciones de Error en L1 - El caso unidimensional
17
4. 9cp tal que R cp con = minji ? k j donde el mnimo se considera sobre los m +1 puntos
dados por la propiedad 1).
5. 9c# tal que para cualquier x 2 , cardfXR \ B2R (x)g < c# .
6. 2 C 2(BR (0)) \ W 2;1 (IR) y 9 c2 tal que k00kL1 (IR) Rc
2
2
En primer termino deseamos establecer el orden con que u^ aproxima a la funcion u. Esto
puede establecerse a partir de resultados conocidos para la mejor aproximacion por cuadrados
mnimos. El siguiente Teorema puede verse como un caso particular del Teorema 8 en [26] o el
Teorema 1 en [23].
Teorema 2.1.1 Supongamos que satisface la Propiedad L mencionada en el Captulo 1. Sea
x 2 y u 2 C m+1 (BR (x) \ ). Si P (x; y) es el polinomio en y que minimiza Jx (), luego
u(y ) ? P (x; y ) tiene al menos m + 1 ceros en BR (x) \ .
Dem. Dado x 2 supongamos que u(y) ? P (x; y) tiene exactamente k ceros (no necesariamente
distintos) c1 ; ; ck con k m. Entonces
Yk
u(y ) ? P (x; y ) = (y ? cj )g (y)
j =1
por
con g continua y sin ceros en IR = BR (x) \ . Luego g > 0 o g < 0 en IR . Supongamos
Q
ejemplo que g > 0 en IR y sea tal que 0 < < minIR g . Sea Q(y ) = P (x; y ) + kj=1 (y ? cj )
luego
Yk
ju(y) ? Q(y)j = j (y ? cj )jjg(y) ? j
= j
= j
j =1
k
Y
(y ? cj )j(g (y ) ? )
j =1
Yk
Yk
j =1
j =1
(y ? cj )g (y )j ? j
< ju(y ) ? P (x; y)j
para todo y 2 IR ? fc1; ; ck g. Consideramos ahora
ku(y) ? Q(y)kx =
n
X
j =1
(2.1.1)
(x ? j )(u(j ) ? Q(j ))2 =
X
j 2BR(x)
(y ? cj )j
(x ? j )(u(j ) ? Q(j ))2
(2.1.2)
Observemos que ju(cj ) ? P (x; cj )j = ju(cj ) ? Q(cj )j, 1 j k. Como satisface la Propiedad
L hay al menos m + 1 > k puntos donde 6= 0 y en consecuencia usando (2.1.1) en (2.1.2)
ku ? Qkx < ku ? P (x; )kx
18
Captulo 2
Absurdo, pues por Teorema 1.1.1 sabemos que ku ? P (x; )kx ku ? P kx ; 8P 2 Pm . Luego
u ? P (x; ) tiene al menos m + 1 ceros en IR .
Como consecuencia de este resultado y a partir de las estimaciones clasicas para el error de
interpolacion (ver por ejemplo [12] o [18]). podemos concluir que
Corolario 2.1.1 Si satisface la Propiedad L y u 2 C m+1(
) luego para cada x 2 y cualquiera
sea y 2 BR (x) \ tenemos que
ju(y) ? P (x; y)j C kum+1kL1(
)Rm+1
(2.1.3)
en particular tomando y = x, resulta
ku ? u^kL1(
) C kum+1kL1(
)Rm+1
(2.1.4)
2.2 Estimaciones de error para la aproximacion de las derivadas
Nuestro proposito es estimar el error en la aproximacion de u0 por u^0 . Si bien la estimacion
del error cometido al aproximar u por u^ pudo establecerse desde resultados clasicos en teora
de aproximacion por cuadrados mnimos, no se tenan resultados similares para la aproximacion
de las derivadas. Siendo entonces las estimaciones de error que presentaremos ahora uno de los
resultados principales de esta tesis.
Una de las dicultades principales para obtener estas estimaciones surga del hecho de que para
estimar el error en las derivadas deba establecerse como variaban los coecientes k denidos en
(1.1.3).
El siguiente Lema da la herramienta fundamental para llevar a cabo estas estimaciones.
@P (x;y) existe y u 2 C m+1 (
). Si las propiedades 1) a 5) se
@x
tienen entonces, existe una constante C = C (c0; c1; cp; c#; m) tal que 8y 2 BR (x) \ :
(x; y )
j @P @x
j CRmkum+1 kL1(
)
(2.2.5)
Lema 2.2.1 Sea x 2 tal que
Dem. Dado x 2 , en vista de la propiedad 1) existen puntos j ; j ; ; jm 2 XR \ B R (x)
1
2
donde la interpolacion de Lagrange es posible. Para cualquier h > 0 denimos
S (x) =
X
k2fji g
jP (x + h; k ) ? P (x; k)j2
Luego por la propiedad 2) tenemos que
X
S (x) 1
(x ? k )(P (x + h; k ) ? P (x; k ))2
c0 k2fji g
+1
2
(2.2.6)
Estimaciones de Error en L1 - El caso unidimensional
n
X
c1 (x ? k )(P (x + h; k) ? P (x; k))2
0 k=1
n
X
1
(x ? k )(P (x + h; k ) ? P (x; k ))(P (x + h; k ) ? u(k ))
= c
0 k=1
n
X
+ c1 (x ? k )(P (x + h; k ) ? P (x; k ))(u(k ) ? P (x; k ))
0 k=1
19
(2.2.7)
Dado que, para cada x 2 , P (x; ) minimiza ku ? P (x; )kx, cualquiera sea Q polinomio de
grado menor o igual que m se tiene que
< u ? P (x; ); Q >x = 0
(2.2.8)
Sea Q el polinomio de grado m denido por Q(y ) = P (x + h; y ) ? P (x; y ) tenemos entonces
que
< u(y ) ? P (x; y ); Q(y ) >x =
n
X
k=1
(x ? k )Q(k )(u(k ) ? P (x; k )) = 0
(2.2.9)
Luego usando esto en (2.2.7) se sigue que
S (x) c1
n
X
0 k=1
(x ? k )Q(k )(P (x + h; k ) ? u(k ))
(2.2.10)
Como esta en C 1 (BR (0)) \ W 1;1 (IR), para h sucientemente peque~no, 9k 2 (x ? k ; x + h ? k )
tal que (x ? k ) = (x + h ? k ) ? 0(k )h y por lo tanto reemplazando en (2.2.10) obtenemos
n
X
S (x) c1 (x + h ? k )Q(k)(P (x + h; k ) ? u(k ))
0 k=1
n
X
? ch 0(k )Q(k)(P (x + h; k ) ? u(k ))
0 k=1
A partir de que < u(y ) ? P (x + h; y ); Q(y ) >x+h = 0, que 0 tiene soporte contenido en BR (0) y
la propiedad 3) tenemos que
n
X
S (x) ch 0(k )Q(k )(u(k ) ? P (x + h; k ))
0 k=1
n
X
ch j0(k )jjQ(k)jj(P (x + h; k ) ? u(k ))j
0 k=1
X
cc1Rh
jQ(k)jj(P (x + h; k) ? u(k ))j
0 k 2B R(x)
2
Por el mismo argumento usado para arribar al Corolario 2.1.1 cualquiera sea x + h 2 e y 2
B2R (x) \ tenemos que jP (x + h; y ) ? u(y)j C kum+1kL1 (
)Rm+1 y en consecuencia para
k 2 B2R(x)
jP (x + h; k) ? u(k )j C kum+1kL1(
)Rm+1
20
Captulo 2
luego,
S (x) Chkum+1 kL1 (
)Rm
X
k 2B2R (x)
jQ(k )j
(2.2.11)
Como Q es un polinomio de grado m este puede escribirse de la siguiente manera
X
Q(y ) =
Q(k )lk (y )
k2fjig
(2.2.12)
donde lkQ(y ) son los polinomios base de Lagrange asociados a los puntos j ; j ; ; jm , i.e,
lk (y) = l2fji g;l=6 k yk??ll , k 2 fji g 1 i s, y en consecuencia
1
X
k 2B2R(x)
X
jQ(k)j i2fjk g
jQ(i)j(
X
k 2B2R(x)
2
+1
jli(k )j)
Por la propiedad 4) se tiene jli(y )j c( R )m+1 C (cp; m), 8i 2 fjk ; 1 k m + 1g y por lo
tanto haciendo uso de la propiedad 5) y (2.2.11) tenemos que
X
(
k2fjig
X
jQ(k )j)2 (m + 1)
jQ(k )j2 = (m + 1)S (x)
k2fji g
X
Chkum+1kL1(
)Rmc#
jQ(k )j
(2.2.13)
jQ(k)j Chkum+1kL1 (
)Rm
(2.2.14)
k2fji g
y en consecuencia
X
k2fji g
Finalmente usando (2.2.14) y la propiedad 4) en (2.2.12) obtenemos 8y 2 BR (x) \ jQ(y)j = jP (x + h; y) ? P (x; y)j C kum+1k 1 Rm
h
L (
)
h
(2.2.15)
y por lo tanto, si x es un punto para el cual @P @x(x;y) existe, la demostracion concluye tomando
h ! 0.
El siguiente teorema establece el orden con el cual u^0 aproxima a u0 .
Teorema 2.2.1 Si u 2 C m+1(
) y las propiedades 1) a 5) se satisfacen, entonces existe C =
C (c0; c1; cp; c#; m) tal que
ku0 ? u^0kL1 (
) C kum+1kL1(
)Rm
(2.2.16)
Dem. Observemos que, como 2 C 1(BR(0)) \ W 1;1( ) luego, P (x; y) es continuo en todos los
IR
puntos y diferenciable para todo x salvo un conjunto nito de puntos (esto puede ser visto usando
nuevamente el argumento dado
en [21], seccion 2). En consecuencia, P (; y ) 2 W 1;1 (
). Para
(x;y)
@P
cualquier x 2 tal que @x existe, queremos estimar ju0(x) ? u^0(x)j = ju0 (x) ? dxd P (x; x)j.
Notemos que
d P (x; x) = f @P (x; y) + @P (x; y ) gj
(2.2.17)
y=x
dx
@x
@y
Estimaciones de Error en L1 - El caso unidimensional
21
Por lo tanto vamos a estimar ju0(y ) ? @P @x(x;y) ? @P @y(x;y) j, 8y 2 BR (x) \ . Como P (x; y ) es un
polinomio en y de grado m que interpola a u en m + 1 puntos (Teorema 2.1.1) luego, @P @y(x;y)
interpola a u0 en m puntos y en consecuencia,
(x; y )
ju0(y) ? @P @y
j C kum+1kL1(
)Rm 8y 2 BR(x) \ (2.2.18)
Por el Lema 2.2.1 sabemos que j @P @x(x;y) j C kum+1 kL1 (
) Rm , usando esta estimacion junto con
(2.2.18) tenemos que
(x; y ) @P (x; y )
(x; y )
(x; y )
ju0(y) ? @P @x
? @y j ju0(y) ? @P @y
j + j @P @x
j C kum+1kL1(
)Rm
En particular tomando y = x concluimos la demostracion.
Es ahora nuestro interes encontrar estimaciones de error para la aproximacion de la derivada
segunda, i.e, como aproxima u^00 a u00. La idea en la que se basan estas estimaciones es similar a la
usada para la primer derivada. Sin embargo en lugar de usar la relacion de ortogonalidad (2.2.8)
vamos a usar una relacion que resulta de derivar esta. A tal n vamos a suponer de ahora en mas
que 2 C 1 (IR). Luego por los mismos argumentos que utilizamos antes (ver Observacion 1.1.4)
podemos asumir que P (; y ) 2 C 1 (
).
Lema 2.2.2 Para cualquier Q(x; y) polinomio en y de grado m y diferenciable como funcion
de x tenemos que
n
X
j =1
0 (x ? j )Q(x; j )(P (x; j ) ? uj ) +
n
X
j =1
(x; j )
=0
(x ? j )Q(x; j ) @P @x
(2.2.19)
Dem. A partir de que P (x; y) es el mnimo, para cada x 2 y para cualquier Q(x; y) polinomio
en y de grado m tenemos que,
< u(y ) ? P (x; y); Q(x; y) >x = 0
(2.2.20)
Luego como P (; y ) 2 C 1(
) y Q(x; y ) es diferenciable como funcion de x, podemos derivar
respecto de x y obtenemos que
n
X
0 (x ? j )Q(x; j )(P (x; j ) ? uj )
j =1
n
X
+
x; j ) (P (x; ) ? u )
(x ? j ) @Q(@x
j
j
j =1
n
X
+
j =1
(x; j )
(x ? j )Q(x; j ) @P @x
=0
22
Captulo 2
(x;y) esta en P y P satisface (2.2.20) el segundo termino es 0 y se tiene
Como para cada x, @Q@x
m
el resultado deseado.
Procediendo de manera analoga a la estimacion de error para la primer derivada, vamos en
(x;y) para cada x 2 donde existan. Estas estimaciones se
primer lugar a estimar @ P@x(x;y) y @ P@x@y
presentan en los dos lemas siguientes.
2
2
2
@ 2P (x;y) existe, m 1 y u 2 C m+1 (
). Si las propiedades 1) a
@x2
6) se satisfacen, entonces existe C = C (c0; c1; c2; cp; c# ; m) tal que 8y 2 BR (x) \ 2 y)
m?1 kum+1 k 1
(2.2.21)
j @ P@x(x;
L (
)
2 j CR
Lema 2.2.3 Sea x 2 tal que
Dem. Sea x 2 y j ; j ; ; jm como en la demostraci
on del Lema 2.2.1. Tomamos h > 0 y
(x; y )
@P
(
x
+
h;
y
)
@P
Q 2 Pm denido por Q(y ) =
? @x y
@x
X
S (x) =
jQ(j )j2
(2.2.22)
1
2
+1
k2fji g
A partir de la propiedad 2) tenemos que
X
n
X
(x ? k )Q(k )2 1 (x ? k )Q(k )2
S (x) c1
c0 k=1
0 k2fjig
n
n
(x + h; k ) X
X
1
@P
= f (x ? k )Q(k )
?
(x ? k )Q(k ) @P (x; k ) g
c
@x
@x
0 k=1
k=1
(2.2.23)
Consideremos ahora el primer termino en el lado derecho de la ecuacion (2.2.23). Usando que para
h sucientemente peque~no 9k 2 (x ? k ; x + h ? k ) tal que (x ? k ) = (x + h ? k ) ? h0(k )
junto con el Lema 2.2.2 tenemos que
n
X
+ h; k )
(x ? k )Q(k ) @P (x@x
k=1
n
n
+ h; k )
X
X
=
(x + h ? k )Q(k ) @P (x@x
? h 0(k )Q(k) @P (x@x+ h; k)
k=1
n
X
k=1
(2.2.24)
n
+ h; k )
X
0
=
(x + h ? k )Q(k )(uk ? P (x + h; k )) ? h 0 (k )Q(k ) @P (x@x
k=1
k=1
Usando nuevamente el resultado obtenido en el Lemma 2.2.2 en el segundo termino del lado
derecho de (2.2.23) junto con (2.2.24) tenemos que
n
X
S (x) c1 f 0(x + h ? k )Q(k)(uk ? P (x + h; k ))
0 k=1
Estimaciones de Error en L1 - El caso unidimensional
23
n
X
? h 0(k )Q(k) @P (x@x+ h; k )
k=1
n
X
+
0 (x ? k )Q(k )(P (x; k ) ? uk )g
k=1
Como esta en C 2 (BR (0)) \ W 2;1(IR), para h sucientemente peque~no, 9k 2 (x ? k ; x + h ? k )
tal que 0 (x + h ? k ) = 0 (x ? k )+00 (k )h. Luego, reemplazando en el primer termino obtenemos
n
X
1
S (x) c f 0(x ? k )Q(k )(P (x; k ) ? P (x + h; k ))
0
k=1
n
+ h; k )
X
+ h 00(k )Q(k )(uk ? P (x; k ))g
0(k )Q(k ) @P (x@x
k=1
k=1
n
X
c1 f j0(x ? k )jjQ(k)jjP (x; k) ? P (x + h; k )j
? h
n
X
0 k=1
n
X
+ h
n
X
j0(k )jjQ(k)jj @P (x@x+ h; k ) j + h j00(k)jjQ(k)jjuk ? P (x; k)jg
k=1
k=1
Desde la desigualdad (2.2.15), el Lema 2.2.1, el Corolario 2.1.1, el hecho de que 0 y 00 tienen
soporte contenido en BR (0) y las propiedades 3) y 6) concluimos que
X
c1 jQ( )jRm + X c2 jQ( )jRm+1g
k
k
2
k 2B R (x) R
k 2B R (x) R
S (x) Chkum+1 kL1 (
)f
2
y en consecuencia,
2
S (x) Chkum+1kL1 (
)Rm?1
X
k 2B2R(x)
jQ(k)j
Usando el mismo argumento que utilizamos en la demostracion del Lema 2.2.1 tenemos que
jQ(y)j C kum+1k 1 Rm?1
(2.2.25)
L (
)
h
y luego, si x es tal que @ P@x(x;y) existe, tomando h ! 0 nalizamos la demostracion.
2
2
Lema 2.2.4 Sea x 2 , m 1 y u 2 C m+1(
). Si las propiedades 1) a 6) se tienen entonces,
existe C = C (c0; c1; c2; cp; c#; m) tal que 8y 2 BR (x) \ 2 (x; y )
j @ P@x@y
j C kum+1kL1(
)Rm?1
Dem. Sea x 2 y sean j ; ; jm como en la demostracion del Lema 2.2.1. Como P (x; ) 2
Pm podemos escribir
P (x; y ) = Pk2fjig P (x; k)lk (y ) donde lk (y ) (con k 2 fji; 1 i m + 1g ) son las bases de
Lagrange de grado m asociadas con los puntos j ; ; jm . Por la propiedad 6) tenemos que
1
+1
1
+1
24
Captulo 2
P es de clase C 1 en la primer variable. En consecuencia para cualquier x tenemos que
@ 2 P (x; y) = X @P (x; k ) l0 (y )
@x@y
@x k
k2fji g
Notemos que por el Lema 2.2.1 sabemos que 8y 2 BR (x) \ : j @P @x(x;y) j C kum+1 kL1 (
) Rm .
Luego
2 X @P (x; k) 0
X 0
j
jjl (y)j C kum+1k 1 Rm
jl (y)j
(2.2.26)
j @ P (x; y) j @x@y
L (
)
k
@x
k2fji g
k2fji g
k
Las bases de Lagrange lk pueden calcularse facilmente y es sencillo ver que satisfacen jl0k (y )j c
with c = c(cp; m) si la propiedad 4) se tiene. Usando ahora esta estimacion en (2.2.26) y la propiedad 5) obtenemos el resultado deseado .
Con los resultados previos estamos en condiciones de estimar el error cometido al aproximar
u00 por u^00
Teorema 2.2.2 Sea m 1, si u 2 C m+1(
) y las propiedades 1) a 6) se satisfacen entonces,
existe C = C (c0; c1; c2; cp; c#; m) tal que
ku00 ? u^00kL1 (
) C kum+1kL1(
)Rm?1
(2.2.27)
(x;y)
Dem. Notemos que como 2 C 2(BR(0)) \ W 2:1( ) luego, @ P@x@y
existe cualquiera sea x e y
(x;y)
@
P
en y @x existe para todo x salvo un conjunto nito de puntos y por lo tanto P (; y ) 2
2
IR
2
2
W 2;1 (
). (esto se puede ver usando nuevamente el mismo argumento que antes) .
Dado cualquier x 2 , tal que @ P@x(x;y) existe, queremos estimar ju00(x) ? u^00(x)j = ju00(x) ?
d dx P (x; x)j. Notemos que
d2 P (x; x) = f @ 2 P (x; y) + 2 @ 2P (x; y) + @ 2P (x; y) gj
(2.2.28)
y =x
dx2
@x2
@x@y
@y2
Por lo tanto, 8y 2 BR (x) \ 2 2 (x; y ) @ 2P (x; y )
ju00(y) ? @ P@y(2x; y) ? 2 @ P@x@y
? @x2 j
2 y)
@ 2P (x; y ) j + j @ 2P (x; y) j
ju00(y) ? @ P@y(x;
j
+
2
j
(2.2.29)
2
@x@y
@x2
2
2
2
2
Observemos que, @ P@y(x;y) es un polinomio de grado m ? 2 que interpola u00 en m ? 1 puntos
y en consecuencia
2 ju00(y) ? @ P (x; y) j C kum+1k 1 Rm?1 8y 2 B (x) \ (2.2.30)
2
2
@y 2
L (
)
R
Usando esta estimacion en (2.2.29) junto con los resultados obtenidos en los Lemas 2.2.3 y 2.2.4
la demostracion concluye tomando y = x .
Estimaciones de Error en L1 - El caso unidimensional
25
Observacion 2.2.1 Por lo mencionado en el Captulo 1, seccion 1.2.1 las estimaciones obtenidas
en (2.1.4) y (2.2.16) garantizan la convergencia de MLS cuando es aplicado para obtener aproximaciones de Galerkin para resolver problemas coercivos de segundo orden o para problemas de
segundo orden para los cuales la forma bilineal satisfaga la condicion inf-sup. Ademas, como se
menciono en la seccion 1.2.2 las estimaciones obtenidas para las dos primeras derivadas (2.2.16)
y (2.2.27) proporcionan junto con (2.1.4) la consistencia del esquema resultante cuando MLS es
utilizado como metodo de colocacion para resolver problemas de segundo orden.
Como mencionamos en la seccion 1.2.3 del Captulo 1 nuestras estimaciones de error proveen,
en particular, las estimaciones de error necesarias para demostrar la consistencia de los esquemas
resultantes cuando MLS es utilizado para obtener formulas de diferencias nitas como propone
Orkisz [28]. El siguiente resultado establece estas estimaciones.
Teorema 2.2.3 (sobre la aproximacion de Orkisz)
k?
P
Dado x 2 y sea f1; y ? x; (y?2x) g una base de PP2 y P (x; y ) = 3k=1 ak (x) (y(?k?x)1)! donde los
coecientes ak (x) son determinados minimizando nj=1 (x ? j )(uj ? (a1(x) + a2 (x)(j ? x) +
1
2
a3 (x) (j ?2x) ))2 si las hipotesis del teorema 2.2.2 se satisfacen, entonces existe una constante C
2
tal que
ju(k)(x) ? ak+1 (x)j C ku000kL1(
)R3?k k = 0; 1; 2
donde u(k) denota la k-esima derivada de u para k = 1; 2 y u(0) = u
(2.2.31)
Dem. Dado x 2 y P (x; y) = a1(x)+ a2(x)(y ? x)+ a3(x) (y?2x) notemos que u^(x) = P (x; x) =
2
a1 (x) y en consecuencia, la estimacion del error cometido al aproximar u(x) por a1(x) esta dada por
(2.1.4). Orkisz propone considerar a2 (x) y a3(x) para aproximar las dos primeras derivadas de u(x)
en lugar de considerar las derivadas de u^(x). Por (2.2.18) y (2.2.30) sabemos que 8y 2 BR (x) \ (x; y )
ju0(y) ? @P @y
j C ku000 kL1(
)R2
2 y)
000
ju00(y) ? @ P@y(x;
2 j C ku kL1 (
) R
Pero cualquiera sea y , @P @y(x;y) = a2(x)+ a3 (x)(y ? x) y @ P@y(x;y) = a3(x) tomando entonces y = x
se tienen las estimaciones deseadas.
2
2
Observacion 2.2.2 Es importante se~nalar que las ideas desarrolladas para obtener estimaciones
de error al aproximar las dos primeras derivadas pueden generalizarse para obtener estimaciones
de error para derivadas de orden superior.
Cap
tulo 3
Estimaciones de Error en Espacios
de Sobolev - El caso N-dimensional
A lo largo de este captulo vamos a demostrar, para el caso N-dimensional, que bajo hipotesis
apropiadas sobre la funcion de peso y la distribucion de puntos, MLS tiene orden optimo en L1
y en L2 para la aproximacion de la funcion y sus primeras derivadas.
A n de facilitar la lectura del presente Captulo, vamos a recordar que, dado R > 0, R la
funcion nonegativa con soporte en BR (0) y XR = f1; ; ng el conjunto de n = n(R) puntos
dados en IRN un conjunto abierto, acotado y con borde Lipschitz, denotamos, como antes,
fp1; ; psg una base de Pm, s = dim Pm y para cada x 2 , u^(x) = P (x; x) la aproximacion
a u(x) denida en (1.1.3). Para poder llevar a cabo nuestro analisis de error vamos a establecer,
en primer lugar, las propiedades que consideraremos sobre la funcion de peso y la distribucion de
puntos. Si bien las condiciones que estableceremos sobre la funcion de peso R son analogas a
las del caso unidimensional, una de las dicultades que se presentaba en este caso, a diferencia
del caso unidimensional, es que si bien debamos establecer condiciones sobre la distribucion de
los puntos dados (XR = f1; ; n g), estas condiciones fuesen bastantes generales de forma de
no perder una de las caractersticas sobresalientes de MLS que es el hecho de que no se necesita
generar una \malla" cuando es utilizado para la resolucion numerica de ecuaciones diferenciales.
A tal n, vamos a suponer, como se enunciara en la propiedad 1), que la distribucion de puntos
es tal que cualquiera sea x 2 podemos seleccionar un subconjunto de s puntos en un entorno
de x de forma tal que la interpolacion de Lagrange sea posible y tal que las bases de Lagrange
asociadas a dichos puntos satisfagan las acotaciones que enunciaremos en las propiedades 4) y 5).
En las propiedades que enunciaremos a continuacion todas las constantes que aparecen son
independientes de R. Nuevamente, a n de simplicar notacion, descartaremos el subndice R al
referirnos a R .
1. Para cada x 2 existe un subconjunto de s puntos pertenecientes a XR \ B R (x) donde la
interpolacion de Lagrange es posible.
2. 9c0 > 0 tal que (z ) c0 8z 2 B R (0).
2
2
26
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
27
3. 9c# tal que para todo x 2 , cardfj 2 B2R (x); 1 j ng < c# .
4. Cualquiera sea x 2 existe una constant cL tal que las funciones base de Lagrange asociadas
con los puntos de la propiedad 1) estan acotadas por una constante cL en B2R (x).
5. Para cualquier x 2 existe una constante c0L tal que las derivadas de las funciones base0 de
Lagrange asociadas con el conjunto de puntos de la propiedad 1) estan acotadas por cRL en
B2R(x).
6. 2 C 1(BR (0)) \ W 1;1 (IRN ) y 9c1 > 0 tal que kr(z )kL1 (IRN ) cR .
1
3.1 Estimaciones de Error en L1 y W 1 1
;
En esta seccion vamos a obtener estimaciones de error en L1 , en terminos del parametro R, para
la aproximacion de u y sus primeras derivadas.
Es importante notar que en el caso unidimensional cualquiera sea x 2 , P (x; ) es un
polinomio de grado m que interpola a la funcion u como se demostro en el Teorema 2.1.1, hasta
donde sabemos, no se ha establecido si esto es tambien cierto en mas dimensiones. Por lo tanto
vamos a ocuparnos, en primer lugar, de establecer cual es el orden con que u^ aproxima a u.
Teorema 3.1.1 Sea x 2 , si las propiedades 1) a 4) se tienen existe una constante C la cual
depende de c0 ; c# y cL tal que 8y 2 BR (x) \ :
(3.1.1)
ju(y) ? P (x; y)j C ku ? PI (x; )kL1(BR(x)\
)
donde PI (x; ) es el polinomio en Pm que interpola a u en los puntos 2 XR \ B R (x) que satisfacen
la propiedad 1). En particular tomando y = x tenemos que
2
ju(x) ? u^(x)j C ku ? PI (x; )kL1(BR(x)\
)
(3.1.2)
donde u^(x) = P (x; x)
Dem. Dado x 2 , en vista de la propiedad 1) existen puntos j ; j ; ; js 2 XR \ B R (x) tal que
las funciones base de Lagrange lji ( lji 2 Pm tal que lji (jk ) = ik , 1 i s), estan bien denidas.
Llamemos PI (x; ) al polinomio de grado m que interpola a u en los puntos j ; j ; ; js .
Usando ahora la propiedad 2) y el hecho de que P (x; ) realiza el mnimo tenemos que
1
2
2
1
X
k2fji g
X
(u(k ) ? P (x; k ))2 1
(x ? k )(u(k ) ? P (x; k ))2
c0 k2fjig
n
X
c1 (x ? k )(u(k) ? P (x; k))2
0 k=1
2
(3.1.3)
28
Captulo 3
n
X
c1 (x ? k )(u(k) ? PI (x; k))2
0 k=1
X
2
= 1
c0 k 2BR(x) (x ? k )(u(k ) ? PI (x; k ))
C (c0; c#)ku ? PI (x; )k2L1(BR(x)\
)
Observemos que 8y 2 BR (x) \ podemos escribir
X
X
jPI (x; y) ? P (x; y)j2 s
jlk(y)j2jPI (x; k ) ? P (x; k)j2 = s
jlk(y)j2ju(k) ? P (x; k)j2
k2fji g
k2fji g
(3.1.4)
Usando entonces la propiedad 4) y la acotacion obtenida en (3.1.3) tenemos que
jPI (x; y) ? P (x; y)j C (c0; c#; cL)ku ? PI (x; )kL1(BR(x)\
)
(3.1.5)
y en consecuencia
ju(y) ? P (x; y)j C ku ? PI (x; )kL1(BR(x)\
) 8y 2 BR(x) \ En particular tomando y = x concluimos la demostracion
Ahora vamos establecer las estimaciones de error para la aproximacion de las primeras derivadas de u. Estas estimaciones se obtienen como una consecuencia del siguiente Lema, el cual es
una generalizacion del Lema 2.2.1 del Captulo 2.
@P (x;y) existe para j = 1; ; N . Si las propiedades 1) a 6) se
@xj
tienen , existe una constante C = C (c0; c#; c1; cL) tal que 8y 2 BR (x) \ , j = 1; ; N :
j @P@x(x; y) j CR ku ? PI (x; )kL1(B2R(x)\
)
(3.1.6)
j
Lema 3.1.1 Sea x 2 tal que
Dem. Por simplicidad vamos a demostrar el resultado para j = 1 (claramente el mismo argumento
se aplica a cualquier j ). Dado x 2 , en vista de la propiedad 1) existen puntos j ; j ; ; js 2
XR \ B R (x) tal que el polinomio que interpola a u en esos puntos existe. Para simplicar notacion
denotamos fjig al conjunto de indices fj1; ; jsg. Para cualquier h > 0 denimos
X S (x) =
jP ((x1 + h; x2; ; xN ); k) ? P (x; k)j2
(3.1.7)
1
2
2
k2fji g
Luego, por la propiedad 2)
X
S (x) c1
(x ? k )(P ((x1 + h; x2; ; xN ); k ) ? P (x; k ))2
0 k2fji g
n
1X
c (x ? k )(P ((x1 + h; x2; ; xN ); k) ? P (x; k))2
(3.1.8)
0 k=1
n
X
= c1 (x ? k )(P ((x1 + h; x2 ; ; xN ); k ) ? P (x; k ))(P ((x1 + h; x2; ; xN ); k ) ? u(k ))
0 k=1
n
X
+ 1 (x ? k )(P ((x1 + h; x2 ; ; xN ); k ) ? P (x; k ))(u(k ) ? P (x; k ))
c0 k=1
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
29
Sea ahora Q el polinomio de grado m denido por Q(y ) = P ((x1 + h; x2 ; ; xN ); y ) ? P (x; y ),
luego como P es la proyeccion ortogonal bajo el producto <; >x tenemos que
< u(y ) ? P (x; y ); Q(y ) >x =
y se sigue que
n
X
k=1
(x ? k )Q(k )(u(k ) ? P (x; k )) = 0
(3.1.9)
n
X
S (x) c1 (x ? k )Q(k )(P ((x1 + h; x2; ; xN ); k) ? u(k ))
0 k=1
(3.1.10)
Usando la propiedad 6) podemos garantizar que 9k = (k ; x) tal que si h es sucientemente
@ (k )h. Reemplazando en (3.1.10) obtenemos
peque~no (x ? k ) = ((x1 + h; x2; ; xN ) ? k ) ? @x
1
n
X
S (x) c1 ((x1 + h; x2; ; xN ) ? k )Q(k )(P ((x1 + h; x2; ; xN ); k ) ? u(k ))
0 k=1
n @
X
? ch @x
(k )Q(k )(P ((x1 + h; x2; ; xN ); k ) ? u(k ))
0 k=1 1
Usando ahora la relacion de ortogonalidad
< u(y ) ? P ((x1 + h; x2; ; xN ); y ); Q(y) >(x +h;x ;;xN ) = 0
1
2
@ tiene soporte compacto junto con la propiedad 6) resulta que
y el hecho de que @x
1
n @
X
S (x) ch @x
(k )Q(k )(u(k ) ? P ((x1 + h; x2; ; xN ); k ))
0 k=1 1
n @
X
ch j @x
(k )jjQ(k)jj(P ((x1 + h; x2; ; xN ); k ) ? u(k ))j
0 k=1
1
hc1 X jQ( )jj(P ((x + h; x ; ; x ); ) ? u( ))j
Rc
k
1
2
N k
k
0 k 2B R(x)
2
Si ahora aplicamos el resultado del Teorema 3.1.1 pero para (x1 + h; x2; ; xN ) 2 tendramos
que
j(P ((x1 + h; x2; ; xN ); k) ? u(k ))j C ku ? PI ((x1 + h; x2; ; xN ); )kL1(BR(x +h;x ;;xN )\
)
C ku ? PI ((x1 + h; x2; ; xN ); )kL1(B R(x)\
)
donde PI ((x1 + h; x2 ; ; xN ); ) denota al polinomio que interpola a u en s puntos pertenecientes
a la bola BR (x1 + h; x2; ; xN ) los cuales existen gracias a la propiedad 1). Pero notemos que,
para h sucientemente chico, podemos suponer que los puntos fj ; ; js g 2 B R (x) \ XR estan
en B R ((x1 + h; x2; ; xN ), y por lo tanto el PI ((x1 + h; x2 ; ; xN ); ) puede ser elegido como el
polinomio que interpola a u en esos s puntos, i.e, como PI (x; ) y en consecuencia se sigue que
1
2
2
1
2
2
X
S (x) C Rh ku ? PI (x; )kL1(B R(x)\
)
jQ(k)j
2
k 2B2R (x)
(3.1.11)
30
Captulo 3
Como Q es un polinomio de grado m este puede escribirse en termino de las funciones base de
Lagrange asociadas a los puntos fj ; ; js g
X
Q(y) =
Q(r)lr (y)
(3.1.12)
1
r2fji g
Luego
X
k 2B2R (x)
jQ(k )j X
r2fjig
jQ(r)j(
X
jlr(k )j)
k2B2R (x)
acota a lr
Gracias a la propiedad 4), existe una constante cL que
con la propiedad 3) se sigue que
X
X
(
jQ(k)j)2 s
jQ(k )j2 = sS (x)
k2fji g
8r 2 fjig y usando esto junto
(3.1.13)
k2fji g
X
jQ(k )j
C Rh ku ? PI (x; )kL1(B R(x)\
)
k2fji g
2
y en consecuencia,
X
k2fjig
jQ(k)j C Rh ku ? PI (x; )kL1(B R(x)\
)
(3.1.14)
2
Usando esto en (3.1.12) y la propiedad 4) nuevamente obtenemos que 8y 2 BR (x) \ jQ(y)j = jP ((x1 + h; x2; ; xN ); y) ? P (x; y)j C ku ? P (x; )k 1
(3.1.15)
I
L (B R (x)\
)
h
h
R
2
y la demostracion concluye tomando h ! 0.
Ahora estamos en condiciones de enunciar el siguiente Teorema el cual establece el orden de
aproximacion para las derivadas.
Teorema 3.1.2 Si las propiedades 1) a 6) se tienen, existe una constante C = C (c0; c1; c#; cL; c0L)
tal que para cualquier x 2 y 1 j N tenemos
j @x@ (u ? u^)(x)j C f R1 ku ? PI (x; )kL1(B R(x)\
) + k @x@ (u ? PI (x; ))kL1(BR(x)\
)g (3.1.16)
j
j
2
Dem. Queremos estimar j @x@ j fu(x) ? P (x; x)gj para 1 j N . Dado que podemos escribir
@ P (x; x) = f @P (x; y) + @P (x; y ) @yj g
@xj
@xj
@yj @xj y
@P (x;y)
@P (x;y)
(3.1.17)
x
=
es suciente estimar j @u@y(jy) ? @xj ? @yj j, 8y 2 BR (x) \ .
Tomemos nuevamente PI (x; ) como el polinomio que interpola a u en los s puntos que existen
por la propiedad 1) luego
j @u(y) ? @P (x; y) ? @P (x; y) j j @u(y) ? @PI (x; y) j + j @PI (x; y) ? @P (x; y) j + j @P (x; y) j
@yj
@xj
@yj
@yj
@yj
@yj
@yj
@xj
(3.1.18)
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
31
Dado que, para cada x 2 y cualquier y 2 BR (x) \ , PI (x; y ) ? P (x; y ) puede escribirse como
PI (x; y) ? P (x; y ) =
X
k2fji g
lk (y)(PI (x; k ) ? P (x; k ))
derivando respecto de y tenemos que
X @lk(y)
X @lk(y)
j @PI (x; y) ? @P (x; y) j j
jjPI (x; k) ? P (x; k)j =
j
jju(k) ? P (x; k)j
@yj
@yj
k2fji g
@yj
k2fjig
@yj
y usando ahora la propiedad 5) y (3.1.5) tenemos que
j @PI@y(x; y) ? @P @y(x; y) j CR ku ? PI (x; )kL1(BR(x)\
)
j
j
(3.1.19)
(3.1.20)
Usando este resultado en (3.1.18) junto con el Lema 3.1.1 concluimos la demostracion.
Dado que nuestras estimaciones de error, tanto para la aproximacion de la funcion como la de
sus derivadas, estan en funcion del error cometido al interpolar u mediante PI , nuestro problema
se reduce a estimar el error cometido en dicha interpolacion. Si suponemos que las funciones base
de Lagrange, asociadas con los puntos dados por la propiedad 1), satisfacen las propiedades 4) y
5), dichas estimaciones de error se siguen desde las estimaciones de error clasicas en interpolacion.
Llamamos
jj
Dv = @x@ v xN
1
1
N
donde = (1 ; ; N ), con i 2 IN0 para 1 i n y jj = 1 + + N . El siguiente
resultado establece las estimaciones de error deseadas, que se desprenden de las estimaciones de
error clasicas en teora de interpolacion (ver, por ejemplo, [19]).
Teorema 3.1.3 Sea x 2 , u 2 C m+1(
) y supongamos que las propiedades 1), 4) y 5) se tienen,
existe una constante C = C (cL; c0L) tal que 8y 2 B2R (x) \ ,
ju(y) ? PI (x; y)j C maxjj=m+1kDukL1(
)Rm+1
(3.1.21)
m
maxjj=1jD (u(y ) ? PI (x; y ))j C maxjj=m+1 kD ukL1 (
) R
(3.1.22)
donde PI (x; ) es el polinomio que interpola a u en los puntos dados por la propiedad 1).
Dem. Vamos a presentar la demostracion para el caso m = 2 (en [19] se demuestra el resultado
para el caso m = 1), con herramientas similares se puede generalizar la demostracion para cualquier
otro valor de m.
Dado x 2 sean j ; ; js los puntos pertenecientes a B R (x) \ XR en los cuales, gracias a la
propiedad 1), la interpolacion de Lagrange es posible. El polinomio PI (x; ) 2 P2 que interpola a
u en esos puntos puede escribirse, cualquiera sea y 2 B2R (x) \ , como
1
2
PI (x; y) =
s
X
i=1
uji lji (y)
(3.1.23)
32
Captulo 3
donde uji = u(ji ) y lji denota las bases de Lagrange asociadas a j ; ; js .
A partir de que u 2 C 3(
) cualquiera sea z y cualquier y en BR (x) \ podemos escribir
1
N @u
X
N @ 2u
X
1
(y )(zi ? yi )(zj ? yj )
u(z) = u(y ) + @y (y )(zj ? yj ) + 2
i;j =1 @yi @yj
j =1 j
N
X
@ 3u ( )(z ? y )(z ? y )(z ? y )
+ 16
ijk i
i j
j k
k
i;j;k=1 @yi @yj @yk
= u(y ) + p(z; y ) + q (z; y ) + r(z; y )
Si usamos (3.1.24) en los puntos j ; ; js y reemplazamos en (3.1.23) obtenemos
1
PI (x; y ) = u(y )
+
s
X
i=1
s
X
i=1
lji (y ) +
s
X
i=1
q(ji ; y)lji (y ) +
p(ji ; y)lji (y)
s
X
i=1
(3.1.24)
(3.1.25)
r(ji ; y)lji (y)
Mediante simples calculos, basados principalmente en el hecho de que para cualquier v 2 P2 el
polinomio de interpolacion de grado menor o igual a 2, llamesmoslo PI (v ), satisface PI (v ) = v ,
puede verse que
s
X
i=1
s
X
i=1
s
X
i=1
lji (y ) 1
p(ji ; y )lji (y) 0
q (ji ; y )lji (y ) 0
Usando esto en (3.1.25) y quien es r(z; y ) tenemos que para cualquier y 2 BR (x) \ ju(y) ? PI (x; y)j s
X
i=1
jr(ji ; y)jjlji(y)j
s
X
3
c maxjj=3 kD ukL1 (
) R jlji (y )j
i=1
(3.1.26)
y usando ahora la propiedad 4) obtenemos la primer estimacion de error.
Ps
@lji
I
Resta ver la estimacion para las derivadas. Derivando (3.1.23) se tiene @P
@yk (x; y ) = i=1 uji @yk (y )
y usando (3.1.24) en los puntos j ; ; js obtenemos
1
s @l
s
@PI (x; y ) = u(y ) X
ji (y ) + X p( ; y ) @lji (y ) 1 l N
ji @y
@yl
l
i=1 @yk
i=1
s
s
X
ji (y ) + X r( ; y ) @lji (y )
+
q (ji ; y ) @l
ji @y
@yl
l
i=1
i=1
(3.1.27)
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
33
Usando nuevamente el hecho de que para cualquier funcion v 2 P2 el polinomio de grado menor
o igual que 2 que interpola a v en los puntos 1; ; s satisface PI (v ) = v , por simples calculos
puede verse que para 1 l N se tiene que
s @l
X
ji
i=1 @yl
s
X
i=1
s
X
i=1
(y ) 0
ji (y ) = @u (y )
p(ji ; y ) @l
@y
@y
l
ji
q(ji ; y) @l
@y (y) 0
l
l
y en consecuencia reemplazando en (3.1.27) tenemos que
@u (y ) ? @PI (y )j j @y
@y
l
l
s
X
i=1
ji (y )j
jr(ji ; y)jj @l
@y
l
c maxjj=3kDukL1(
)R3
s @l
X
j @yji (y)j
i=1
l
(3.1.28)
Usando ahora la propiedad 5) obtenemos la estimacion para la derivada y la demostracion concluye.
Como una consecuencia inmediata de este Teorema y las estimaciones de error dadas por los
Teoremas 3.1.1 y 3.1.2 tenemos el siguiente resultado el cual establece las estimaciones de error al
aproximar u y sus derivadas de primer orden mediante u^ y sus primeras derivadas.
Corolario 3.1.1 Si las propiedades 1) a 6) se tienen y u 2 C m+1(
) existe una constante C , la
cual depende de c0; c#; c1; cL; c0L, tal que para cada x 2 ju(x) ? u^(x)j C maxjj=m+1kD ukL1(
)Rm+1
(3.1.29)
jr(u ? u^)(x)j C maxjj=m+1kD ukL1(
)Rm
(3.1.30)
3.2 Estimaciones de Error en L2 y H 1
En las estimaciones de error de la seccion previa obtuvimos orden optimo en L1 y W 1;1 bajo
la suposicion de que la funcion u 2 C m+1 (
). Si bien es cierto que estos resultados claramente
implican estimaciones de error con orden optimo en L2 y H 1, en muchos casos en los que se
desea llevar a cabo la aproximacion, la funcion a aproximar es menos regular que lo que hasta
ahora hemos supuesto (como suele suceder cuando la funcion a aproximar es la solucion de alguna
ecuacion diferencial). Era entonces de gran interes probar que los mismos ordenes de convergencia
que se obtuvieron se mantenan si la funcion a estimar era menos regular, digamos u 2 H m+1(
).
Como hemos comentado previamente, no se contaba con esta clase de estimaciones de error ni
para la funcion ni para las derivadas. En consecuencia, las estimaciones de error que presentaremos
a continuacion es otro de los logros importantes de esta tesis.
34
Captulo 3
Sean f1; ; lg puntos en tales que [li=1 BR (i ) y el numero de las bolas que se
superponen esta acotado independientemente de R. Vamos a denotar por jjH m (
) la seminorma
en H m+1(
), i.e,
X
jf jH m (
) = (
kD f k2L (
))
+1
+1
1
2
2
j j=m+1
donde D f denota la derivada dedil de f de orden j j. Nuestro proposito es estimar
ku ? u^kL (BR(j )\
) cualquiera sea j 2 f1; ; lg
2
Teorema 3.2.1 Sea m + 1 > N2 . Si las propiedades 1) a 4) se tienen y u 2 H m+1(
) existe una
constante C que depende de c0; c# ; cL tal que, 8j 2 f1; ; lg
ku ? u^kL (BR(j )\
) CRm+1jujH m (B R(j )\
)
(3.2.1)
2
+1
2
Dem. Cualquiera sea j 2 f1; ; lg queremos estimar
Z
Z
ju(y) ? u^(y)j2dy =
ju(y) ? P (y; y)j2dy
BR(j )\
BR (j )\
(3.2.2)
A partir de la propiedad 1), cualquiera sea y 2 BR (j ) \ existe un subconjunto de s puntos
de XR , llamemoslos j ; ; js , que estan en la bola B R (y ) de manera que la interpolacion de
Lagrange es posible. LLamemos PI (f )(y; ) al polinomio de grado m que interpola a f en esos
puntos. A partir del resultado obtenido en el Teorema 3.1.1 tenemos que
1
Z
BR (j )\
2
ju(y) ? P (y; y)j2dy C
Z
BR (j )\
ku ? PI (u)(y; )k2L1(BR(y)\
)dy
(3.2.3)
Cualquiera sea y 2 tomemos T m u un polinomio de grado menor o igual a m tal que si u 2
H m+1(
) tenemos que
ku ? T mukL1 (BR(y)\
) CRm+1? N jujH m
2
ku ? T mukH j (BR(y)\
)
+1
(BR (y)\
)
CRm+1?j jujH m+1(BR(y)\
)
m + 1 > N2
(3.2.4)
0jm
La existencia de un polinomio con esas caractersticas y el analisis de como dependen las constantes
respecto del dominio donde se realiza la aproximacion, ha sido estudiado en distintos trabajos
([14], [15], [34]). Es importante notar que para contar con estas estimaciones necesitamos que,
para cualquier y 2 BR (j ) \ el conjunto BR (y ) \ sea estrellado respecto de alguna bola,
i.e , existe una bola B tal que para cualquier z 2 BR (y ) \ la capsula convexa de fz g [ B
esta contenida en BR (y ) \ . En vista de que tiene borde Lipschitz esta condicion se tiene si
tomamos R sucientemente chico.
Una posible eleccion de T m , ver por ejemplo [7], es la siguiente:
Llamemos e = BR (y ) \ . Dada u 2 H m+1 (
e ) y sea B una bola contenida en e denimos el
polinomio de Taylor centrado en z de grado m
X 1 Tzm u(x) =
D u(z)(x ? z )
!
j jm
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
35
con 2 INN0 , j j = 1 + + N , ! = 1 ! N !, (x ? z ) = (x1 ? z1 ) (xN ? zN )N y
D f = ( @x@ ) ( @x@N )N , En general, si u esta en H m+1(
), D puede no existir y es claro
que no se podra denir un polinomio de Taylor para tal funcion, esto se soluciona deniendo un
`promedio' de los polinomios Tzm u(x) de la siguiente manera
1
1
1
T m u(x) =
1 Z T m u(x)dz
jBj z
B
el cual satisface (3.2.4) (una demostracion de este hecho puede verse en [7]).
Como T m u es un polinomio de grado m , PI (T m u) = T m u y podemos escribir
ku ? PI (u)(y; )kL1(BR(y)\
) ku ? T mukL1(BR(y)\
) + kPI (T mu ? u)kL1(BR(y)\
) (3.2.5)
P
Dado que, para cualquier funcion v 2 L1 (BR (y ) \ ), PI (v ) = si=1 v (ji )lji , con lji las bases de
Lagrange asociadas a los puntos j ; ; js . Usando la propiedad 4) tenemos que
kPI (v)kL1(BR(y)\
) C kvkL1(BR(y)\
)
donde la constante C depende de cL (cota de las bases de Lagrange).
Luego, usando este resultado, con v = T m u ? u, en (3.2.5) junto con (3.2.4) resulta que
1
ku ? PI (u)(y; )kL1(BR(y)\
) C ku ? T m ukL1(BR(y)\
) CRm+1? N jujH m
2
y en consecuencia
Z
f
BR (j )\
ju(y) ? P (y; y)j2dyg 21
Z
CRm+1? N2 f
m+1? N
ZBR(j )\
juj2H m
CR
f
juj2 m
BR(j )\
H
CRm+1jujH m (B R(j )\
)
2
+1
+1
(BR(y)\
)
(3.2.6)
(BR (y)\
)dy g 2
1
+1
(B2R (j )\
) dy g 2
1
+1
2
arribando as al resultado deseado.
Ahora nos vamos a ocupar de obtener las estimaciones de error para las derivadas. A tal n
vamos a hacer uso de las estimaciones de error en L1 que obtuvimos en las seccion 3.1.
Teorema 3.2.2 Sea m + 1 > N2 . Si las propiedades 1) a 6) se tienen y u 2 H m+1(
). Luego,
existe una constante C la cual depende de c0 ; c#; c1; cL; c0L tal que 8j 2 f1; ; lg
kr(u ? u^)kL (BR(j )\
) CRmkukH m (B R(j)\
)
(3.2.7)
Dem. Consideremos RBR(j )\
j @y@uk (y) ? @y@k P (y; y)j2dy para k = 1; ; N . En virtud de la
propiedad 1), cualquiera sea j , 1 j l podemos construir un polinomio PI (j ; ) que interpole
a u en un subconjunto de s puntos de f1; ; ng que pertenezcan a la bola B R (j ) luego,
Z
Z
@u
@
@u (y ) ? @PI ( ; y)j2dy (3.2.8)
2
j @y (y) ? @y P (y; y)j dy cf
j @y
@yk j
BR (j )\
k
BR (j )\
k
k
Z
I ( ; y ) ? @ P (y; y )j2dy g
+
j @P
@y j
@y
2
+1
3
2
BR (j )\
k
k
36
Captulo 3
Vamos a analizar, en primer lugar, el segundo termino en el lado derecho de (3.2.8). Cualquiera
sea y 2 BR (j ) \ y z 2 BR (y ) \ notemos que
@ P (y; y ) = f @P (y; z ) + @P (y; z )g
@yk
@yk
@zk
z
@P @P y
=
I
En vista de esto vamos a estimar j @P
@zk (j ; z ) ? ( @yk (y; z )+ @zk (y; z ))j para cualquier z 2 BR (y ) \ .
Sea T m u como en el Teorema anterior, i.e, el polinomio de grado menor o igual que m que
satisface (3.2.4). Usando la estimacion obtenida en el Lema 3.1.1 y con el mismo argumento que
usamos para obtener (3.2.6) podemos concluir que para cualquier z 2 BR (y ) \ N
j @P
(y; z )j C ku?PI (y; )kL1(BR(y)\
) C ku?T m ukL1 (BR(y)\
) CRm? jujH m
@y
R
R
2
k
+1
(B2R (j )\
)
@P I
Vamos ahora a estimar j @P
@zk (j ; z ) ? @zk (y; z )j. Como
(3.2.9)
I ( ; z ) ? @P (y; z )j j @PI ( ; z ) ? @P ( ; z )j + j @P ( ; z ) ? @P (y; z )j (3.2.10)
j @P
@z j
@z
@z j
@z j
@z j
@z
k
k
k
k
k
k
Usando la acotacion obtenida en (3.1.20) en el primer termino del lado derecho de (3.2.10), y
por el mismo argumento que utilizamos para obtener (3.2.6) se sigue que
I ( ; z ) ? @P ( ; z )j C ku ? P ( ; )k 1
m? N juj m
j @P
CR
j
j
I
j
L
(
B
(
)
\
)
H
j
R
@z
@z
R
k
2
k
+1
(BR (j )\
)
(3.2.11)
Miremos
ahora el segundo termino del lado derecho de (3.2.10), notemos que, dado y 2 BR (j ) \ ,
@P (j ; z ) y @P (y; z ) son polinomios en z de grado m ? 1. Sean ahora fj ; ; j g 2 B R (y )
s
@zk
@zk
los puntos en los que, en virtud de la propiedad 1), podemos construir las bases de Lagrange las
cuales satisfacen las propiedades 4) y 5), luego se sigue que
1
2
s @l
X
@P
@P
j @z (y; z) ? @z (j ; z)j = j @zji (z)(P (j ; ji ) ? P (y; ji ))j
k
k
i=1 k
s
X
CR jry P (j ; ji ) (j ? y)j
i=1
Usando ahora el Lema 3.1.1 (es facil ver que el resultado (2.2.5) puede extenderse a puntos en la
bola de radio 2R) y por los mismos argumentos utilizados para arribar a (3.2.6) resulta que
@P ( ; z )j C ku ? P ( ; )_k 1
m? N juj m
j @P
(
y;
z
)
?
CR
j
I
j
L
(
B
(
)
\
)
H
j
R
@z
@z
R
k
k
2
2
+1
(B3R (j )\
)
(3.2.12)
Por lo tanto, en vista de (3.2.12),( 3.2.9), (3.2.11), cualquiera sea z 2 BR (y ) \ tenemos que
I ( ; z ) ? ( @P (y; z ) + @P (y; z ))j CRm? N juj m
j @P
H
@z j
@y
@z
k
k
k
2
+1
(B3R (j ))
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
37
en particular tomando z = y tenemos que
Z
f
BR (j )\
I ( ; y ) ? @ (P (y; y ))j2dy g CRm juj m
j @P
H
@y j
@y
k
1
2
k
+1
(3.2.13)
(B3R (j )\
)
Consideremos ahora el primer termino del lado derecho de (3.2.8), usando nuevamente que PI (T m u) =
T mu podemos escribir
@u ? @PI ( ; )k
@u ? @T m u k
@PI
m
k @y
k
j
L
(
B
(
)
\
)
L (BR (j )\
) + k @y (u ? T u)kL (BR (j )\
)
j
R
@y
@y
@y
k
k
k
k
k
2
2
2
(3.2.14)
Para cualquier v 2 L1 (BR (j ) \ ), dado que las bases de Lagrange satisfacen la propiedad 5)
tenemos que,
s @l
X
@P
I
1
k @y (v)kL (BR(j )\
) kvkL (BR(j )\
) k @yji (y)kL (BR(j )\
) C kvkL1(BR(j )\
)R N ?1
k
k
i=1
Si v 2 H 2(BR (j ) \ ) por los Teoremas de inmersion de Sobolev sabemos ademas que
2
2
2
kvkL1(BR(j )\
) cfR? N kvkL (BR(j )\
)+R? N +1kDvkL (BR(j)\
)+R? N +2kD vkL (BR(j)\
)gjj=1;jj=2
2
2
2
2
2
2
En vista de estas estimaciones y (3.2.4) el segundo termino en el lado derecho de (3.2.14) satisface
C ku ? T m uk
I (u ? T m u)k
m
k @P
L
(
B
(
)
\
)
L (BR (j )\
) CR jujH m
j
R
@y
R
k
2
2
+1
(BR (j )\
)
En virtud de (3.2.4) el primer termino en el lado derecho de (3.2.14) satisface
@u ? @T m u k
m
k @y
@yk L (BR(j )\
) CR jujH m
k
2
+1
(BR(j )\
)
la cual junto a las estimaciones anteriores provee el resultado deseado
Observacion 3.2.1 Notemos que, como esta contenido en [1jl BR (j ) \ por el resultado
obtenido en el Teorema
3.2.1 tenemos que
P
l
ku ? u^kL (
) j=1 ku ? u^kL (BR(j)\
) CRm+1 Plj=1 jujH m (B R(j )\
).
Dado que, por hipotesis, el numeroPde bolas que se solapan esta acotado independientemente de
R, existe una constante C tal que lj =1 jujH m (B R(j )\
) C jujH m (
) y por ende, existe una
constante C , independiente de R, tal que
ku ? u^kL (
) CRm+1jujH m (
). Analogamente a partir del resultado obtenido en el 3.2.2
tenemos que kr(u ? u^)kL (
) CRm jujH m (
) .
2
2
+1
+1
2
2
2
+1
+1
2
+1
Observacion 3.2.2 Si bien hemos obtenido estimaciones de error solo para la funcion y sus
primeras derivadas, haciendo uso de los mismos argumentos y generalizando las hipotesis sobre la
funcion de peso y las bases de Lagrange (por ejemplo que las k-esimas derivadas tanto de la funcion
de peso como de las funciones base de Lagrange puedan acotarse por RCk , con C independiente de
R) podran obtenerse estimaciones de error para derivadas de mayor orden.
38
Captulo 3
3.3 Cotas de las bases de Lagrange
En los resultados obtenidos en las secciones 3.1 y 3.2 hemos supuesto que para cada x 2 las
bases de Lagrange asociadas a los s puntos, s = dimPm, pertenecientes a XR \ B R (x), que existen
en virtud de la propiedad 1), satisfacen las propiedades 4) y 5). En esta seccion vamos a demostrar
para N = 2 y m = 1; 2 que, para una distribucion de puntos bastante general, las correspondientes
bases de Lagrange satisfacen dichas propiedades.
Para llevar adelante nuestro analisis introducimos la siguiente denicion:
2
Denicion 3.3.1 Para cualquier x 2 , sea T el triangulo de vertices a1; a2; a3 2 B R (x) y sea
el diametro de la mayor bola contenida en T . Vamos a decir que T satisface la condicion de
regularidad, i.e, T satisface la condicion CR, con constante > 0 (independiente de R y ), si
R 2
El siguiente resultado, (ver por ejemplo [7]), nos proporciona una herramienta fundamental
para llevar a cabo nuestras acotaciones. Para simplicar notacion, nos referiremos al hiperplano
fy : L(y) = 0g, con L funcion lineal, simplemente como hiperplano L.
Lema 3.3.1 Sea P un polinomio en N variables de grado d 1 que se anula en un hiperplano
L. Luego podemos escribir P = LQ, donde Q es un polinomio de grado d ? 1.
Dem. LLamemos y^ = (y1; ; yN ?1), podemos mediante un cambio afn de coordenadas suponer
que L(^y; yN ) = yN y el hiperplano L(^y ; yN ) = 0 es el eje y^. En consecuencia P (^y ; 0) = 0. Como
P tiene grado d podemos escribir
P (^y ; yN ) =
d X
X
j =0 j^ijd?j
c^ij y^^i yNj
P
donde ^i = (^i1; ; ^iN ?1), j^ij = ^i1 + +^iN ?1 , ik 2 IN0 . Como por hipotesis P (^y ; 0) = j^ijd c^ij y^^i 0 resulta c^i0 = 0 para j^ij d y en consecuencia
P (^y; yN ) =
=
d X
X
c^ij y^^i yNj = yN
j =1 j^ijd?j
yN Q = LQ
dX
?1
X
j =1 j^ijd?j
c^ij y^^i yNj?1
donde Q es un polinomio de grado d ? 1.
Vamos a considerar en primer lugar el caso m = 1.
Lema 3.3.2 Sea m = 1. Dado x 2 , si existen puntos a1; a2; a3 en XR \ B R (x) tal que el
2
triangulo T de vertices a1 ; a2; a3 verica la condicion CR entonces, existe una constante C = C ( )
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
39
tal que las bases de Lagrange li , 1 i 3, asociadas con esos puntos satisfacen, 8y 2 B2R (x) \ jli(y)j C
@l
j @yi(y) j CR 1 j 2
j
(3.3.15)
(3.3.16)
Dem. Sea T el triangulo de vertices a1; a2; a3 y sea el diametro de la mayor bola contenida en
T . Las bases de Lagrange pueden construirse facilmente haciendo uso del Lema (3.3.1) , pues,
dado que li (aj ) = ij , para 1 i; j 3 podemos escribir li = i Li donde Li es la recta a la que
pertenecen los aj con j =
6 i, i.e, la recta a la que pertence el lado del triangulo opuesto a ai, y la
constante i se determina usando que li(ai ) = 1. Por un simple calculo y usando que T satisface
la condicion CR puede verse que
2
jli(y)j C R2 C ()
j @l@yi(y) j C R2 CR() 1 j 2 :
j
Consideremos ahora el caso m = 2. Vamos a obtener cotas para las bases de Lagrange y
sus primeras derivadas, como las que proponen las propiedades 4) y 5), para una distribucion de
puntos bastante general como se muestra en la Figura 1.
s
a6
a5
s
s
a4
a3
s
s
a1
s
a2
Figura 1
A n de hacer nuestro analisis mas sencillo vamos a considerar, en primer termino, dos casos
particulares de la situacion mostrada en la Figura 1.
40
Captulo 3
Lema 3.3.3 Sea m = 2. Dado x 2 supongamos que existen puntos aj ; 1 j 6 en XR \ B R (x)
2
de tal forma que alguna de las dos siguientes situaciones se tiene
i) aj ; 1 j 6 distribuidos como se muestra en la Figura 2 y tales que los triangulos de vertices
fa1; a2; a6g, fa2; a3; a4g y fa4; a5; a6g satisfacen la condicion CR
ii) aj ; 1 j 6 se distribuyen como indica la Figura 3 y los triangulos de vertices fa1 ; a2; a6g,
fa2; a3; a4g, fa4; a5; a6g y fa1; a2; a5g satisfacen la condicion CR.
Entonces, existe una constante C = C ( ) tal que 8y 2 B2R (x) \ las bases de Lagrange li
asociadas a los puntos ai , 1 i 6, satisfacen
jli(y)j C
@l
j i (y)j C 1 j 2
@yj
R
Dem. Sea x 2 , consideremos el triangulo T de vertices a1; a3; a5 contenido en la bola B R (x).
Para simplicar notacion, a la recta fy : Lij (y ) = 0g a la cual pertenecen ai y aj la notaremos
2
simplemente Lij .
Supongamos primero que los puntos estan en la situacion mencionada en i). Sean a2 ; a4; a6 los
puntos que, respectivamente, estan en L13; L35; L15 como se muestra en la Figura 2.
a5
s
L15
a6
L35
p
c
c
`
a4
a3
s
pc
a1
s
a2
L13
Figura 2
Vamos a demostrar el resultado solo para la base de Lagrange l1 2 P2 la cual satisface l1 (aj ) =
1j , 1 j 6, ya que, el mismo argumento puede ser usado para obtener las cotas para las otras
bases.
A partir de que l1 2 P2 y se anula en a3 ; a4; a5 2 L35 se sigue que , l1 = 0 en L35 y usando el
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
41
Lema 3.3.1 podemos escribir l1 = L35q1 donde q1 2 P1 . Pero l1 se anula tambien en a2 y a6 los
cuales no pertenecen a L35 , por lo tanto, q1 = 0 en L26 y en consecuencia , usando nuevamente el
Lema (3.3.1), l1 = cL35L26 y como l1(a1 ) = 1 la constante c queda univocamente determinada.
Mediante un simple calculo podemos ver entonces que, 8y 2 B2R (x) \ 4
jl1(y)j c (area de T R)(area de T )
135
126
R3
@l1 (y )j c
j @y
(area de T135) (area de T126) j = 1; 2
j
(3.3.17)
donde Tijk denota el triangulo de vertices fai ; aj ; ak g.
LLamemos ijk al diametro de la mayor bola contenida en Tijk . Notemos que 135 234 y como
el triangulo T234 y el triangulo T126 satisfacen, por hipotesis, la condicion CR, usando esto en
(3.3.17) obtenemos las estimaciones deseadas.
Consideremos ahora la situacion descripta en el caso ii). Notemos que usando el mismo argumento que utilizamos antes para el caso i), podemos construir lj 2 P2 tales que lj (ai ) = ij
para i; j = 1; 2; 4; 5; 6 , i.e, usando el Lema 3.3.1 podemos escribir l1 = c1L35 L26 , l2 = c2L35L16 ,
l4 = c4L13 L56 , l5 = c5 L13L46 y l6 = c6L13 L35 donde las constantes cj son determinadas a partir
de que lj (aj ) = 1. Por lo tanto, por el mismo argumento usado antes, si los triangulos de vertices
fa1; a2; a5g, fa1; a2; a6g, fa4; a5; a6g y fa2; a3; a4g, satisfacen la condicion CR mediante un simple
@lj j C , para k = 1; 2 y j = 1; 2; 4; 5; 6.
calculo se puede ver que jlj j C y j @y
R
k
No obstante el argumento usado hasta ahora falla cuando deseamos construir la base l3 ya
que, no podemos trazar una lnea que incluya a 3 puntos, de los 6 dados, que sean diferentes de
a3 . Sin embargo, podemos facilmente construir b3 2 P1 independiente de fl1; l2; l4; l5; l6g de forma
@b j C ,
tal que b3(a3) = 1 y b3 jL = 0 y mediante un simple calculo concluir que jb3j C y j @y
R
k
para k = 1; 2.
3
15
42
Captulo 3
s
a6
a5
s
s
a4
a3
s
s
a1
s
a2
Figura 3
P
Notemos que, la base de Lagrange l3 esta dada por l3 (y ) = b3 (y ) ? j =1;;6;j 6=3 b3(aj )lj (y ), y
en consecuencia se deduce inmediatamente que l3 tambien satisface las cotas deseadas .
Finalmente, vamos a demostrar que las bases de Lagrange asociadas a la distribucion de puntos
para el caso mas general, como se muestra en la Figura 1, satisfacen las propiedades 4) y 5)
Lema 3.3.4 Sea x 2 , m = 2 y supongamos que existen puntos aj ; 1 j 6 en B R (x) como
se muestra en la Figura 1 tales que los triangulos de vertices fa1 ; a2; a5g, fa4 ; a5; a6g, fa1 ; a2; a6g
fa2; a3; a4g y fa2; a3; a5g satisfacen la condicion CR luego, existe una constante C = C () tal que
8y 2 B2R(x) \ las bases de Lagrange li, 1 i 6 asociadas a los puntos aj ; 1 j 6 satisfacen
2
jli(y)j C
@li (y)j C 1 j 2
j @y
R
j
(3.3.18)
Dem. Por el mismo argumento utilizado en el Lema anterior las bases de Lagrange lj 2 P2,
4 j 6 pueden escribirse como l4 = c4L13 L56, l5 = c5L13 L46, y l6 = c6 L13L45, donde las
constantes cj se determinan usando que lj (aj ) = 1 , 4 j 6.
Usando nuevamente el resultado del Lema 3.3.1 podemos construir b1; b2 2 P1 de la forma
b1 = c1 L35 y b2 = c2 L15 donde las constantes cj se determinan inponiendoles que bj (aj ) = 1 ,
1 j 2. Con esta construccion resulta que fb1; b2; l4; l5; l6g son independientes y satisfacen la
acotaciones deseadas si los triangulos de vertices fa1 ; a2; a5g, fa4; a5; a6g, fa1 ; a2; a6g y fa2 ; a3; a4g
satisfacen la condicion CR.
Necesitamos ahora construir b3 de forma tal que resulte independiente de las otras, i.e, quere-
Estimaciones de Error en Espacios de Sobolev - El caso N-dimensional
43
mos ver que existe b3 2 P2 con b3(a3) = 1 tal que la siguiente matriz resulta nosingular.
0 1
0
2
B
b1 (a ) 1
B
B
0 b2(a3 )
B
B
B
b1(a4 ) b2(a4)
B
@ 0
0
b3(a1 ) 0 0 0 1
b3(a2 ) 0 0 0 C
C
1 0 0 0
b3(a4) 1 0 0
b3(a5) 0 1 0
6
6
b1(a ) b2(a ) b3(a6 ) 0 0 1
Observemos que esta matriz resultara nosingular si la submatriz
0
1
1
0 b3(a1 )
B
@ b1(a2) 1 b3(a2) CA
0 b2 (a3) 1
CC
CC
CA
es nosingular.
Dado T el triangulo de vertices fa1 ; a3; a5g consideramos F la transformacion afn que manda
T^ en T , i.e, F (T^) = T (y1; y2) = F (^y1 ; y^2), donde T^ es el triangulo de referencia que se muestra
en la Figura 4.
a^3 = (0; 1)
c
a^2
c
c
c
a^1 = (0; 0)
a^4
c
a^6
c
a^5 = (1; 0)
Figura 4
A n de facilitar los calculos para obtener b3 trabajaremos en el triangulo de referencia T^. En
este caso las correspondientes bases ^b1 y ^b2 estan dadas por ^b1(^y1 ; y^2) = 1 ? y^1 ? y^2 y ^b2(^y1 ; y^2) = ay^^ ,
con a^2 = (0; ^a22) (observemos que si los triangulos de vertices fa^1 ; a^2; a^5g y fa^2; a^3; a^5g satisfacen la
condicion CR, lo cual se sigue del hecho de que los triangulos de vertices fa1; a2; a5g y fa2 ; a3; a5g
la satisfacen, a^22 es diferente de 0 y 1). Vamos a tomar ^b3 2 P2 tal que ^b3jL = 0, ^b3(^a3 ) = 1
2
2
2
15
44
Captulo 3
independiente de las otras. Un simple calculo muestra que podemos seleccionar ^b3(^y1 ; y^2) = y^22 y
en consecuencia b3 = ^b3 F ?1 , i.e, b3(y1 ; y2) = ^b3(^y1 ; y^2).
A partir de que el triangulo de vertices fa1 ; a2; a5g satisface la condicion de regularidad, el
triangulo de vertices fa1; a3; a5g tambien la cumple y en consecuencia la base b3 esta acotada
independientemente de R.
Finalmente, podemos obtener las bases de Lagrange l1; l2; l3 simplemente como una combinacion lineal de b1 ; b2; b3; l4; l6 donde los coecientes de la combinacion resultan acotados por una
constante que depende de y la demostracion concluye .
Observacion 3.3.1 Es cierto que la hipotesis de tener tres puntos alineados, como supone la
distribucion de puntos que consideramos en la Figura 1, puede parecer bastante restrictiva. Sin
embargo, es importante notar que como las bases de Lagrange son continuas respecto de los puntos de interpolacion las cotas obtenidas deberan mantenerse si tenemos puntos que tengan una
distribucion sucientemente proxima a la que se muestra en la Figura 1.
Cap
tulo 4
El metodo de cuadrados mnimos
continuos con peso variable
En este Captulo presentaremos un metodo de aproximacion, el cual hemos dado en llamar metodo
de cuadrados mnimos continuos con peso variable (el que denotaremos de ahora en mas CMLS),
para el cual obtendremos estimaciones, tanto en L1 como en L2 , del error cometido al aproximar
la funcion y sus derivadas. Explicaremos, ademas como el metodo puede ser aprovechado para
resolver ecuaciones diferenciales.
4.1 Descripcion del metodo
El metodo CMLS puede describirse de la siguiente manera: Sea IRN , un conjunto abierto,
acotado y con borde Lipschitz y sea u la funcion que deseamos aproximar. Denotamos, como
antes, Pm el conjunto de todos los polinomios en N variables de grado menor o igual a m y
fp1; ; psg una base de Pm con s = dim Pm. Dado R > 0, consideramos
P R una funcion con
soporte en BR (0) tal que 0 R 1. Para cada x 2 sea P c (x; y ) = sj=1 cj (x)pj (y ) donde los
coecientes cj , 1 j s son elegidos de forma tal que minimizan
Jxc () =
Z
R (x ? z )(u(z ) ? P c (x; z ))2dz
u^c (x) = P c (x; x) = Psj=1 cj (x)pj (x).
Denimos el aproximante a u como
Vamos a enunciar las propiedades que supondremos sobre la funcion de peso R :
1. 9c0 > 0 tal que R(z ) c0 , 8z 2 B R (0).
2
2. 2 C 1(BR (0)) \ W 1;1 (IRN ), y krRkL1 (IRN ) cR .
1
donde c0 y c1 son constantes independientes de R.
45
(4.1.1)
46
Captulo 4
En primer lugar notemos que, si R satisface la propiedad 1) podemos denir para cada x 2 el producto interno
Z
< f; g >x= R (x ? z)f (z)g(z )dz
(4.1.2)
con la correspondiente norma asociada kf k2x =< f; f >x . Luego, a partir de la teora clasica
de cuadrados mnimos, existe un unico P c (x; ) que minimiza ku ? P kx sobre todos los P 2 Pm
([12],[18],[20]) y por ende u^c esta bien denido.
Teorema 4.1.1 Si R satisface la propiedad 1) cualquiera sea x 2 existe un unico P c (x; ) 2 Pm
para el cual ku ? P c (x; :)kx ku ? P kx cualquiera sea P 2 Pm .
Observacion 4.1.1 Observemos que, para cada x 2 si derivamos Jxc () respecto de j obtenemos
Z
Z
R (x ? y )P (x; y )pj (y )dy = R (x ? y )u(y )pj (y )dy 1 j s
P
s
c
c
Como P (x; y ) =
(x)p (y ) reemplazando en la expresion anterior arrivamos al siguiente
sistema
i=1 i
s
X
i=1
ci (x)
Z
i
R (x ? y )pi(y )pj (y )dy =
Z
R(x ? y )u(y )pj (y )dy 1 j s
i.e, c (x) = (c1(x); ; cs (x)) es la solucion del sistema A(x)c (x) = b(x) con
(A(x))ij =
Z
R (x ? y )pi (y )pj (y )dy bj (x) =
Z
R (x ? y )u(y )pj (y )dy 1 i; j s
Observacion 4.1.2 Para analizar la regularidad de u^c, basta con ver cual es la regularidad de los
coecientes cj , 1 j s. Dado que c es la solucion del sistema mencionado en la Observacion
anterior, es claro que si R 2 C l entonces c tambien, y por ende u^c sera tan regular como lo sea
R .
4.2 Estimaciones de error
Nuestro proposito es establecer como aproxima u^c y sus derivadas a u y las derivadas de u. En
principio vamos a suponer que la funcion a aproximar u esta en W m+1;1 (
) (depues consideraremos el caso en que u sea menos regular, digamos u 2 H m+1 (
)).
Llamamos f g a la convolucion de f con g , i.e,
f g(x) =
Z
IRN
f (z )g(x ? z )dz
Por C01 denotaremos las funciones en C 1 con soporte compacto. Para llevar a cabo nuestro
analisis de error vamos a hacer uso del siguiente resultado de Calderon y Zygmund [9], el cual nos
proporciona una de las herramientas fundamentales para llevar adelante nuestras estimaciones.
Por completitud incluiremos aqu la demostracion.
El metodo de cuadrados mnimos continuos con peso variable
47
Teorema 4.2.1 Existe una funcion ' 2 C01(B1(0)), i.e, ' innitamente diferenciable con soporte
en B1 (0), tal que cualquiera sea P 2 Pm
Z 1 x?y
'(
)P (y )dy = P (x)
i.e, P = P ' donde ' (z ) =
IRN N
1 z
N '( )
Dem. Consideremos la clase de todas las funciones innitamente diferenciables '(x) con soporte
en jxj 1, i.e, C01 (B1(0)), y sea V el espacio vectorial de los puntos , = (1; ; N ),
i 2 IN0 , 0 jj m. Denimos la aplicacion lineal
T : C01 (B1 (0)) ?! V
como
T (') = =
Z
IRN
'(x)xdx
donde x = x1 xNN . Si la aplicacion T no es suryectiva, i.e , la imagen de T no es todo el
espacio V , entonces debe existir algun elemento en el ortogonal a la imagen de T , i.e , existen
numeros , 0 jj m, no todos nulos, tales que
1
X
= 0 =
Z
'(x)
N
IR
X
xdx = 0
P
cualquiera sea '. En particular esto se tiene para cualquier ' de la forma ' =
x con
funcion innitamente diferenciable con soporte en jxj 1 positiva para jxj < 1. Entonces
Z
IRN
P
X
(x)j
xj2 dx = 0
lo que implica que x = 0 para cualquier x con jxj < 1 y en consecuencia, = 0, 0 jj m,
arrivando as a una contradiccion. Luego, la imagen de T es V , i.e, dado cualquier elemento de V , existe una funcion ' 2 C01 (B1 (0)) tal que = T ('), en particular existe ' tal que
Z
IR
'(x)dx = 1;
N
Z
IRN
'(x)xdx = 0; 0 < jj m
Dado cualquier
polinomio Q de grado m, es claro que si elegimos ' en esas condiciones reR
sulta que IRN '(z )Q(z ) = Q(0) y en consecuencia haciendo el cambio de variables z = x? y y
reemplazando Q(z ) por Q(z ) = P (x ? z ) tenemos que
Z 1 x?y
'(
)P (y )dy = P (x)
IRN N
y la demostracion concluye .
Observacion 4.2.1 Notemos que el resultado anterior tambien se tiene si consideramos las fun-
ciones ' innitamente diferenciables pero con soporte en la interseccion de la bola de radio 1 con
un cono abierto con vertice en el origen.
48
Captulo 4
Teorema 4.2.2 Sea u 2 W m+1;1 (
) y para cada x 2 consideremos P c (x; ) como antes, si
satisface las propiedades 1) y 2) entonces existe una constante C independiente de R tal que
8y 2 B R (x) \ 4
jDy (u(y) ? P c(x; y))j CRm+1?jjkDm+1ukL1(BR(x)\
) CRm+1?jjkDm+1ukL1(
) 0 jj k
y en consecuencia 8x 2 ju(x) ? u^c(x)j CRm+1kDm+1ukL1 (BR(x)\
) CRm+1kDm+1ukL1(
)
Dem. Sea x 2 , como tiene borde Lipschitz para R chico podemos suponer que, cualquiera
sea y 2 B R (x) \ existe un cono abierto con vertice en y y de amplitud , independiente de y ,
tal que la interseccion del cono con B R (y ), la cual llamaremos C R (y ), esta contenida en (ver,
por ejemplo, [17]). Dado que u 2 W m+1;1 (
) , para cada x 2 y cualquiera sea y 2 B R (x) \ podemos construir T (x; y ) el polinomio de Taylor, asociado a u, centrado en x de grado m, i.e,
X 1 T (x; y ) =
! D u(x)(y ? x)
4
4
4
4
j jm
En vista del Teorema 4.2.1 y la observacion 4.2.1, existe una funcion innitamente diferenciable
R con soporte en C R (0) denida por R(w) = ( R1 )N ( wR ) con 2 C01 (C1(0)) tal que, cualquiera
R
R
sea Q 2 Pm , Q = Q R, i.e, Q(y ) = IRN Q(z ) R(y ? z )dz = C R (y) Q(z ) R(y ? z )dz .
Sea Q(y ) = P c (x; y ) ? T (x; y ), como Q es un polinomio de grado m. Luego
4
4
4
4
jQ(y)j Z
C R (y)
jP c(x; z) ? u(z)jj R(y ? z)jdz +
4
Z
C R (y)
ju(z) ? T (x; z)jj R(y ? z)jdz (4.2.3)
4
Consideremos ahora el primer termino en el lado derecho de (4.2.3) aplicando la desigualdad de
Schwartz tenemos que
Z
C R (y)
Z
jP c(x; z) ? u(z)jj R(y ? z)jdz (
C R (y)
4
Como
Z
jP c(x; z) ? u(z)j2dz) (
1
2
4
C R (y)
j R(y ? z)j2dz)
4
(4.2.4)
2 C01(C1(0)) existe una constante C tal que
Z
C R (y)
j
R
(y ? z )j2dz 4
C Z
1
R2N C R (y) dz = C RN
4
Usando esto en (4.2.4) y el hecho de que C R (y ) B R (y ) \ B R (x) \ tenemos que
Z
C R4 (y)
4
4
2
Z
jP c (x; z) ? u(z)jj R(y ? z)jdz CR? N (
2
B R (x)\
2
jP c (x; z) ? u(z)j2dz)
1
2
1
2
El metodo de cuadrados mnimos continuos con peso variable
49
A partir de que R satisface la propiedad 1), i.e, existe una constante c0 > 0, independiente de
R, tal que R (z) c0 para z 2 B R (0), se sigue que
Z
(
Z
jP c (x; z) ? u(z)j2dz) C (
jP c (x; z) ? u(z)j2R(x ? z)dz)
B R (x)\
B R (x)\
Z
C(
jP c (x; z) ? u(z)j2R(x ? z)dz)
2
1
2
2
1
2
2
Como P c (x; ) es el polinomio en Pm que
Z
BR (x)\
BR(x)\
minimiza Jxc () tenemos que cualquiera
Z
jP c (x; z) ? u(z)j2R(x ? z)dz =
Z
Z
=
1
2
sea P 2 Pm .
jP c(x; z) ? u(z)j2R(x ? z)dz
jP (z) ? u(z)j2R(x ? z)dz
BR(x)\
jP (z) ? u(z)j2R(x ? z)dz
En particular se tiene para P (z ) = T (x; z ) y entonces resulta que
Z
(
BR(x)\
Z
jP c (x; z) ? u(z)j2R(x ? z)dz) (
1
2
BR(x)\
Como por hipotesis 0 R 1 se sigue que
Z
(
BR (x)\
Z
jT (x; z) ? u(z)j2R(x ? z)dz) 21
(
BR (x)\
Denimos la funcion NR u(x) como
Z
1
1
N u(x) =
(
R
Rm+1
jT (x; z) ? u(z)j2R(x ? z)dz)
jT (x; z) ? u(z)j2dz)
1
2
1
2
RN BR (x)\
jT (x; z) ? u(z )j
2dz ) 21
En consecuencia, para el primer termino del lado derecho de (4.2.3), existe una constante C ,
independiente de R, tal que
Z
C R (y)
jP c(x; z) ? u(z)jj R(y ? z)jdz CRm+1NRu(x)
(4.2.5)
4
Consideremos ahora el segundo termino del lado derecho de (4.2.3). Usando la desigualdad de
Schwartz y el hecho de que esta acotada tenemos que
Z
Z
C R (y)
4
ju(z) ? T (x; z)jj R(y ? z)jdz (
C R (y)
ju(z) ? T (x; z)j2dz) 21 (
Z
4
CR? N2 (
CR? N2 (
C R (y)
j R(y ? z)j2dz)
4
C R (y)
Z
Z
ju(z) ? T (x; z)j2dz) 12
4
BR (x)\
ju(z) ? T (x; z)j2dz)
1
2
1
2
50
Captulo 4
y por ende
Z
C R (y)
ju(z) ? T (x; z)jj R(y ? z)jdz CRm+1NRu(x)
(4.2.6)
4
Usando (4.2.5) y (4.2.6) en (4.2.3) resulta que
jP c(x; y) ? T (x; y)j CRm+1NRu(x)
(4.2.7)
y en consecuencia para cualquier y 2 B R (x) \ existe una constante C , independiente de R, tal
que
4
jP c (x; y) ? u(y)j CRm+1NRu(x) + jT (x; y) ? u(y)j
(4.2.8)
En particular tomando y = x concluimos que
jP c(x; x) ? u(x)j = jP c(x; x) ? T (x; x)j CRm+1NRu(x) 8x 2 (4.2.9)
Notemos que Dy Q = Dy (Q R) = Q Dy R , i.e,
Z
Z
? z )dz
?
N
?j
j
Dy Q(y) = N Q(z )Dy R(y ? z)dz = R
Q(z )(D )( y R
IR
C R (y)
Z
z )dz
= R?N ?j j
(P c (x; z ) ? T (x; z ))(D )( y ?
(4.2.10)
R
C R (y )
4
4
En vista de que 2 C01 (C1 (0)) y (4.2.7) existe una constante C tal que, cualquiera sea ,
0 j j k se tiene que
jDy (u(y) ? P c (x; y))j jDy (u(y) ? T (x; y))j + jDy (T (x; y) ? P c (x; y))j
jDy (u(y) ? T (x; y))j + CRm+1?jjNRu(x)
(4.2.11)
Como u 2 W m+1;1 (
) y T es el polinomio de Taylor de grado menor o igual que m, cualquiera sea
y 2 B R (x) \ (podemos suponer que el segmento que une x con y esta contenido en B R (x) \ para R chico) se tiene que
NRu(x) C kDm+1ukL1(BR(x)\
)
y dado que para cualquier funcion u sabemos que la derivada del polinomio de Taylor de grado m
de u es el polinomio de Taylor de grado m ? 1 de la derivada de u, se tiene ademas que
jDy (u(y) ? T (x; y))j CRm+1?jjkDm+1ukL1 (B R (x)\
)
4
4
4
Usando esto en (4.2.9) y (4.2.11) concluye la demostracion.
Observacion 4.2.2 En el teorema anterior hemos establecido que dado x 2 para cualquier
y 2 B R (x) \ se tiene que
4
jDy (u(y) ? P c (x; y))j CRm+1?jjkDm+1ukL1(
) 0 jj k
El metodo de cuadrados mnimos continuos con peso variable
P
51
P
Como P c (x; y ) = sj=1 cj (x)pj (y ) entonces Dy P c (x; y ) = sj=1 cj (x)D pj (y ), dado que la estimacion se tiene para cualquier y 2 B R (x) \ en particular se tiene para y = x y en consecuencia
4
jD u(x) ?
s
X
j =1
cj (x)D pj (x)j CRm+1?jj kDm+1ukL1 (BR (x)\
)
Tenemos
hasta ahora, estimaciones del error cometido al aproximar u por u^c y D u por
Ps c Dentonces,
pj en lugar de aproximarlas por D u^c .
j =1 j
Antes de proceder con las estimaciones de error para las derivadas hagamos la siguiente observacion
Observacion 4.2.3 Supongamos que u esta denida en todo IRN (recordemos que si u 2 W m+1;1 (
)
entonces, u puede extenderse a IRN con la misma
regularidad en vista de que tiene borde LipsP
s
chitz) y sea, para cada x 2 , P (u; x; y ) =
(x)p (y ) donde los coecientes , 1 j s
son elegidos de forma tal que minimizan
Jx () =
Z
IRN
j =1 j
j
j
R (x ? z )(u(z ) ? P (u; x; z ))2dz
P
con R como antes. Denimos el aproximante a u como P (u; x; x) = sj=1 j (x)pj (x) entonces,
en este caso se tiene que,
@ (P (u; x; x)) = P ( @u ; x; x) 1 j s
@xj
@xj
(4.2.12)
i.e, la derivada del aproximante es el aproximante de la derivada.
Dado que
Z
(P (u; x; y ) ? u(y ))q (y )R(x ? y )dy = 0
N
IR
cualquiera sea q 2 Pm , (4.2.12) se demuestra, basicamente, usando esta relacion de ortogonalidad
en xh = (x1; ; xj +h; ; xN ) y haciendo el cambio de variables y ! yh = (y1; ; yj +h; ; yN )
lo que conduce a concluir que
Z
IRN
(P (u; xh; yh ) ? u(yh ))q (y )R(x ? y )dy = 0
cualquiera sea q 2 Pm y en consecuencia
P ( u(xh ) h? u(x) ; x; x) = P (u; xh ; xh)h? P (u; x; x)
y la demostracion concluye tomando lmite para h ! 0. R
R
Este argumento falla en nuestro caso pues al considerar en lugar de IRN al hacer el cambio de
variables podra modicarse el conjunto de integracion a un conjunto no contenido en .
El resultado que nos proporciona el siguiente Lema nos permitira establecer el orden con que
aproximan las primeras derivadas de u^c a las primeras derivadas de u.
52
Captulo 4
Lema 4.2.1 Sea u 2 W m+1;1(
) y para cada x 2 consideremos P c (x; ) como antes, si R
satisface las propiedades 1) y 2) entonces existe una constante C independiente de R tal que
8y 2 B R (x) \ c
j @P@x(x; y) j CRmkDm+1ukL1(B R(x)\
); 1 j N
4
j
2
Dem. Vamos a hacer la demostracion para el caso j = 1, dado que para los otros valores de j es
analoga. Sea x 2 tomemos h > 0 sucientemente peque~no de manera que (x1 + h; : : :; xN ) 2 para simplicar notacion llamamos xh a (x1 + h; : : :; xN ). Por el mismo argumento usado en la
demostracion del Teorema 4.2.2 existe R 2 C01 con soporte en C R (0) tal que cualquiera sea
Q 2 Pm , Q = Q R . Para cada y 2 B R (x) \ , denimos Q(y) = P c ((x1 + h; : : :; xN ); y ) ?
P c (x; y ) = P c (xh ; y ) ? P c (x; y). Como Q es un polinomio en y de grado menor o igual que m se
tiene que
Z
Q(y ) =
Q(z ) R(y ? z)dz
4
4
C R (y)
4
con C R (y ) . Luego usando la desigualdad de Schawrtz y el hecho de que R (w) = ( R1)N ( wR )
con acotada, independientemente de R, tenemos que
4
jQ(y)j 4
Z
C R (y)
4
jQ(z)jj R(y ? z)jdz
Z
Z
CN (
jQ(z)j2dz) CN (
jQ(z)j2dz)
C
(
y
)
B
(
x
)
\
R
R
R
R
4
1
2
2
2
4
1
2
2
Usando esta acotacion y el hecho de que R satisface la propiedad 1) tenemos que
jQ(y)j2 Z
Z
C Z
C
C
2
2
2
RN B R (x)\
jQ(z)j dz RN B R (x)\
jQ(z )j R (x ? z )dz RN jQ(z)j R (x ? z)dz
2
2
Notemos que
Z
Z
jQ(z)j2R(x ? z)dz = (P c (xh; z) ? u(z))(P c(xh; z) ? P c(x; z))R(x ? z)dz
+
Z
(u(z ) ? P c (x; z ))(P c(xh ; z ) ? P c (x; z ))R(x ? z )dz
En vista de que P c (x; ) es la proyeccion ortogonal de u sobre el espacio Pm respecto del
producto < ; >x , sabemos que, < u ? P c (x; ); P >x = 0 cualquiera sea P 2 Pm en particular se
tiene para P = Q y en consecuencia
Z
Z
2
jQ(z)j R(x ? z)dz = (P c (xh; z) ? u(z))Q(z)R(x ? z)dz
Para h sucientemente chico existe tal que R (x ? z ) = R (xh ? z ) ? h @@xR ( ? z ) y usando que
< u ? P c(xh; ); P >xh = 0 cualquiera sea P 2 Pm tenemos que
Z
Z
c
(P (x ; z ) ? u(z ))Q(z ) (x ? z )dz = h (u(z ) ? P c (x ; z ))Q(z ) @ R ( ? z )dz
1
h
R
h
@x1
h ju(z) ? P c (xh; z)jjQ(z)jj @@xR ( ? z)jdz
Z
1
El metodo de cuadrados mnimos continuos con peso variable
53
Sabemos que @@xR tiene soporte contenido en BR (0) luego la integral se reduce a aquellos puntos
z 2 BR ( ) \ BR+h (xh ) \ , como ademas R satisface la propiedad 2) tenemos que
1
Z
(P c (xh ; z ) ? u(z ))Q(z )R(x ? z )dz C Rh
Z
BR+h (xh)\
ju(z) ? P c (xh; z)jjQ(z)jdz
En (4.2.7) demostramos que dado xh 2 , jT (xh; z ) ? P c (xh ; z )j CRm+1 NR u(xh ) cualquiera
sea z 2 B R (xh ) \ . En vista de que T (xh ; z ) ? P c (xh ; z ) es un polinomio en z , la estimacion se
tiene tambien para z 2 B R(xh ) \ (ver Observacion 4.2.4) y en consecuencia
4
3
2
ju(z) ? P c (xh; z)j ju(z) ? T (xh; z)j + CRm+1NRu(xh)
cualquiera sea z 2 B R (xh ) \ . Como nos interesa estimar para h chico podemos suponer que
BR+h (xh ) \ B2R (x) \ luego
Z
Z
c
m
+1
ju(z) ? P (xh; z)jjQ(z)jdz CR NRu(xh)
jQ(z)jdz
BR h (xh )
B R (x)\
Z
+
ju(z) ? T (xh; z)jjQ(z)jdz
BR h (xh )
Z
CRm+1NRu(xh)
jQ(z)jdz
B
(
x
)
\
R
Z
N
ju(z) ? T (xh; z)j2dz) kQkL1(B R(x)\
+ CR (
BR h (xh)
CRm+1+N N Ru(xh)kQkL1(B R(x)\
)
3
2
+
2
+
2
1
2
2
+
3
2
2
2
Usando nuevamente que Q es un polinomio, existe una constante C que dependera solo de N tal
que kQkL1(B R (x)\
) C kQkL1 (B R (x)\
) (ver nuevamente Observacion 4.2.4) y por lo tanto
2
4
jQ(y)j2 CRmhN Ru(xh)kQkL1(B R (x)\
)
cualquiera sea y 2 B R (x) \ y en consecuencia
3
2
4
4
kQkL1(B R (x)\
) CRmhN Ru(xh)
3
2
4
y por ende
jQ(y)j CRmN u(x )
(4.2.13)
R h
h
Usando que N R u(xh ) kDm+1 ukL1 (B R (xh )\
) kDm+1 ukL1 (B R (x)\
), la demostracion concluye tomando h ! 0.
3
2
3
2
3
2
2
Observacion 4.2.4 Dado x 2 y Q un polinomio de grado menor o igual que m para el cual se
tiene que existe E = E (R) tal que cualquiera sea y 2 B R (x) \ ,
4
jQ(y)j E (R)
54
Captulo 4
Luego existe una constante , independiente de R y de Q, tal que cualquiera sea y 2 B R (x) \ 3
2
jQ(y)j E (R)
Esto puede verse simplemente considerando s ( s = dimPm) puntos en B R (x) \ , llamemoslos
1 ; ; s , seleccionados tal que las bases de Lagrange (lj )1j s , asociadas a esos puntos, estan
acotadas en B R (x) \ por una constante cL independiente de R. Luego
4
3
2
jQ(y)j s
X
j =1
jQ(j )jlj (y)j scLE (R) E (R)
Corolario 4.2.1 Sea u 2 W m+1;1(
) y sea u^c(x) = P c (x; x) la aproximacion a u dada por
CMLS, si satisface las propiedades 1) y 2) entonces existe una constante C independiente de R
tal que para cualquier x 2 jr(u(x) ? u^c (x))j CRmkDm+1ukL1(B R(x)\
)
2
Dem. Dado que
@ P c (x; x) = f @P c (x; y) + @P c (x; y) g
@xj
@xj
@yj y
@P c(x;y)
@xj
@P c (x;y) j,
@yj
x
(4.2.14)
=
es suciente estimar j @u@y(jy) ?
?
8y 2 BR(x) \ . Luego, el resultado se tiene
como una consecuencia del Teorema 4.2.2 y el Lema 4.2.1.
El Teorema 4.2.2 junto con el Corolario 4.2.1 proveen estimaciones de error en L1 para la
funcion y sus primeras derivadas suponiendo que u 2 W m+1;1 (
). Sean f1; ; lg puntos en
tales que [1j l BR (j ) y la cantidad de bolas que se superponen esta acotada por una
constante C independiente de R, nuestro interes es ahora obtener estimaciones en L2 (BR (j ) \ ),
1 j l, del error cometido al aproximar la funcion y sus primeras derivadas, por el aproximante
y sus primeras derivadas con menos requerimiento de regularidad de la funcion u, esto es u 2
H m+1(
).
Corolario 4.2.2 Sea u 2 H m+1(
) y sea u^c(x) = P c (x; x) la aproximacion a u dada por CMLS,
si satisface las propiedades 1) y 2) entonces existe una constante C independiente de R tal que
ku ? u^c kL (BR(j )\
) CRm+1jujH m (B R(j )\
)
kr(u ? u^c)kL (BR(j )\
) CRmjujH m (B R(j )\
)
2
+1
2
+1
2
3
Dem. Como u 2 H m+1(
) es claro que en este caso podra no tener sentido denir el polino-
mio de Taylor para u como hicimos en la demostracion del Teorema 4.2.2 y el Corolario 4.2.1.
Consideremos entonces T un polinonio de grado menor o igual que m el cual satisface
ku ? T kH k(B R(j)\
) CRm+1?k jujH m
3
+1
(B3R(j )\
)
0km
(4.2.15)
El metodo de cuadrados mnimos continuos con peso variable
55
Una posible eleccion para T esta dada por, [7],
Z
1
T (y) = jB j T (z; y)dz
B
donde B B3R (j ) \ de forma tal que B3R (j ) \ es estrellado respecto de B (la existencia de
una bola B en tales condiciones puede suponerse para R chico dado que tiene borde Lipschitz) y
T (z; y) denota el polinomio de Taylor para u de grado menor o igual que m centrado en z evaluado
en y (otra posible eleccion de T puede verse en [34]). Siguiendo la demostracion del Teorema 4.2.2
pero usando T en lugar de considerar el polinomio de Taylor, y por ende tomando NRu(x) como
Z
1
1
N u(x) =
(
jT (z) ? u(z)j2dz)
R
Rm+1 RN
1
2
BR (x)\
tenemos que cualquiera sea y 2 B R (x) \ 4
ju(y) ? P c (x; y)j CRm+1NRu(x) + jT (y) ? u(y)j
y en consecuencia
ku ? u^ck2L (BR(j)\
) CR2(m+1)
2
Z
BR (j )\
NRu(x)2 dx + C
Z
BR (j )\
ju(x) ? T (x)j2dx
en vista de que
NRu(x) = R?(m+1+ N ) ku ? T kL (BR(x)\
) R?(m+1+ N ) ku ? T kL (B R(j )\
)
2
2
2
2
2
cualquiera sea x 2 BR (j ) \ , la primer estimacion se tiene usando (4.2.15).
Para obtener la estimacion de error para las derivadas notemos que
Z
BR (j )\
Z
c
( @u (x) ? @P (x; x) )2dx C
@xk
@xk
c
( @u (x) ? @P (x; y ) y=x )2dx
@x
@y
ZBR(j )\
@Pkc(x; y) k
+ C
( @x y=x )2dx
BR (j )\
k
(4.2.16)
Consideremos, en primer lugar, el segundo termino del lado derecho de (4.2.16). Siguiendo la
demostracion del Lema 4.2.1 pero tomando T en lugar de considerar el polinomio de Taylor, si
llamamos xh = (x1 ; ; xk + h; ; xN ) y Q(y ) = P c (xh ; y ) ? P c (x; y ) tenemos que
Z
BR (j )\
( jQh(x)j )2 dx CR2(m+1)
Z
N 3 u(xh )2dx
BR(j )\
2 R
C ku ? T kL2 (B 3 R(xh )\
) C ku ? T kL2 (B3R (j )\
)
2
Tomando limite para h ! 0 y usando (4.2.15) tenemos que
Z
c
(j @P@x(x; y ) jy=x )2dx CR2(m+1)jujH m (B R (j )\
)
BR (j )\
k
+1
3
56
Captulo 4
Analicemos ahora el primer termino del lado derecho de (4.2.16). y notemos que
Z
Z
c
c
( @u (x)? @P (x; y ) )2dx C ku?T k2
+
( @T (x)? @P (x; y ) BR(j )\
@xk
@yk
H 1(BR(j )\
)
y=x
BR (j )\
@xk
@yk
y=x
(4.2.17)
Dado cualquier x 2 BR (j ) \ y cualquiera sea y 2 B R (x) \ por el mismo razonamiento usado
en (4.2.11) tenemos que jDy (T (y ) ? P c (x; y ))j CR?j j+m+1 NR u(x). Como el resultado se tiene
para cualquier y , en particular se tiene para y = x y resulta que
Z
Z
c (x; y ) @T
@P
2
2
m
( (x) ?
N u(x)2dx
) dx CR
4
@xk
@yk y=x
Por lo tanto usando que T satisface (4.2.15) se sigue que
@u ? @ u^c k
m
k @x
L (BR(j )\
) CR jujH m
k @xk
BR(j )\
2
BR (j )\
+1
R
(B3R(j )\
)
como deseabamos.
Observacion 4.2.5 Notemos que, como esta contenido en [1jl BR (j ) \ por el resultado
obtenido en el Corolario 4.2.2 y por el mismo argumento que utilizamos en la Observacion 3.2.1
del captulo 3 se tiene que existe una constante C , independiente de R, tal que
kD (u ? u^c )kL (
) CRm+1?jjjujH m
2
+1
(
)
jj 1
.
4.3 La aplicacion de CMLS a la resolucion numerica de ecuaciones diferenciales
En la seccion anterior hemos establecido estimaciones del error cometido al aproximar u y sus
derivadas por u^c y las derivadas de u^c . Es claro que para obtener la aproximacion mediante CMLS
es necesario calcular ciertas integrales que involucran a u. Nuestro proposito es presentar una
alternativa de como se podra utilizar el metodo CMLS para resolver numericamente ecuaciones
diferenciales.
P
Para cada x 2 consideremos u^c (x) = P c (x; x) = sk=1 ck (x)pk (x) la aproximacion obtenida
usando CMLS. Por lo mencionado en la Observacion 4.1.1 sabemos que c (x) = (c1(x); ; cs(x))
es la solucion del sistema A(x)c (x) = b(x) con
(A(x))ij =
Z
R(x ? y )pi(y )pj (y )dy bj (x) =
Z
R (x ? y )u(y )pj (y )dy 1 i; j s
Es claro entonces que, necesitamos aproximar el valor de bj , para ello consideremos PI (u; x; ) el
polinomio de grado m que interpola a u en s puntos fj ; ; js g 2 BR (x) \ luego,
bj (x) =
Z
R (x ? y )u(y )pj (y )dy =
Z
1
BR(x)\
R (x ? y )u(y )pj (y )dy
)2 dx
El metodo de cuadrados mnimos continuos con peso variable
podemos aproximarlo por
Z
ebj (x) =
BR (x)Z\
X
=
(
R(x ? y )PI (u; x; y )pj (y )dy
R (x ? y )lk (y )pj (y )dy )u(k)
k2fji g BR (x)\
X k
aj (x)u(k )
k2fji g
=
57
P
Si denimos akj (x) = 0 para aquellos k distintos de j1 ; ; js, podemos escribir ebj (x) = nk=1 akj (x)u(k )
y para cada x 2 resolvemos el sistema A(x)e (x) = eb(x).
P
Construimos entonces una aproximacion a u de la forma ue(x) = Pe c (x; x) = sj=1 ej (x)pj (x).
Llamemos pt = (p1(x); ; ps (x)) y ak = (ak1 ; ; aks )t entonces
Pe c (x; x) = p(x)tA?1 (x)eb =
=
n
X
k=1
n
X
k=1
p(x)tA?1(x)ak(x)u(k )
k (x)u(k )
(4.3.18)
Observemos que para cada x 2 , k (x) = 0 para aquellos k distintos de j1; ; js, y por ende
solo el valor de u en j ; ; js tendra inuencia al considerar ue(x).
Dada una ecuacion diferencial
Lu = f en con condiciones de borde
Bu = g en @ con L y B operadores lineales, nos proponemos encontrar una aproximacion a u de la forma uR =
P
n a con como se denio en (4.3.18). El metodo de colocacion, como ya hemos mencionado
j
j =1 j j
en Captulos anteriores, consiste en imponerle a uR que satisfaga la ecuacion diferencial y las
condiciones de borde, en ciertos puntos fz1 ; ; zn g 2 , i.e,
1
LuRjx=zi = f (zi ) zi 2 BuRjx=zi = g(zi) zi 2 @ Arribando de esta manera a un sistema de n ecuaciones con n incognitas a1; ; an .
LR a = FR
donde LR es una matriz de n n tal que (LR )ij = L(j (x))jx=zi si zi 2 y (LR )ij = B (j (x))jx=zi
si zi 2 @ y FR es un vector con componentes f (zi ) o g (zi ) segun zi 2 o zi 2 @ .
La convergencia de este tipo de metodos se establece, como hemos mencionado anteriormente,
a partir de la estabilidad y la consistencia del esquema resultante. Nuestras estimaciones de
error junto con estimaciones del error cometido al aproximar bj por ebj son las que proveeran la
consistencia del metodo propuesto, y la estabilidad debera analizarse para cada caso en particular.
Cap
tulo 5
Exp erimentos Numericos
En este Captulo vamos a presentar distintos ejemplos de la aplicacion de MLS y CMLS a la
resolucion numerica de ecuaciones diferenciales.
Dentro de las caractersticas sobresalientes de este tipo de metodos se destaca la posibilidad de
elegir funciones de peso apropiadas para cada problema, es en este aspecto en el que haremos
hincapie. Con el proposito de ejemplicar como se puede aprovechar esta ventaja nos ocuparemos
de la aplicacion de estos metodos a la resolucion numerica de la ecuacion de conveccion - difusion.
5.1 El caso unidimensional
A lo largo de esta seccion consideraremos el problema de resolver numericamente la ecuacion de
conveccion-difusion
? u00 + bu0 = 0; en (0; 1)
(5.1.1)
u(0) = 0
u(1) = 1
para diferentes valores de la constante b > 0.
5.1.1 Aplicaciones del metodo MLS
En el Captulo 1 hemos descripto distintas alternativas de aplicacion de MLS a la resolucion
numerica de ecuaciones diferenciales. Como hemos mencionado anteriormente podemos elegir la
funcion de peso R de manera de producir efectos convenientes en la aproximacion. Como es
sabido ([25], [31]), si el metodo de elementos nitos standard (tomando puntos equiespaciados y
funciones lineales a trozos) es usado para resolver la ecuacion (5.1.1) es necesario considerar mallas
sucientemente nas h 2b , donde h es el tama~no de la malla, para que no aparezcan oscilaciones. Por otro lado, si se aplica el metodo MLS es posible elegir R de forma tal de incorporar
el caracter no-simetrico del problema cuando la conveccion domina y en consecuencia, introducir
cierta clase de up-wind para el caso en que b es grande a n de evitar la presencia de oscilaciones.
58
Experimentos Numericos
59
Aproximaciones de Galerkin
Vamos a presentar dos ejemplos que ejemplican el uso de MLS como metodo de Galerkin para
la resolucion numerica de ecuaciones diferenciales. Recordemos que dado el problema variacional:
Hallar u 2 V H 1(
) tal que
a(u; v ) = L(v ); 8v 2 V
con a una forma bilineal, continua y coerciva en V y L un operador lineal y continuo, podemos
usar MLS para denir aproximaciones de Galerkin como se explico en la seccion 1.2.1 del Captulo
1.
Consideraremos entonces VR = spanf1 ; : : :; ng, donde j , 1 j n son las funciones
base denidas en (1.1.6). Sabemos que si R 2 C 1 (BR (0)) \ W 1;1 (IR) luego j 2 H 1(
) y en
consecuencia podemos denir la aproximacion de Galerkin uR 2 VR como
uR (x) =
donde u1 ; : : :; un es la solucion al sistema
n
X
j =1
n
X
j =1
j (x)uj
a(j ; k)uj = L(k); 1 k n
Ademas por el Lema de Cea ([7], [10]), y los Teoremas 2.2.1 y 2.2.2 tenemos que :
ku ? uRkV c vmin
ku ? vkV c ku ? u^kV CRmkum+1kL1(
)
2VR
(5.1.2)
y en virtud de los resultados de los Teoremas 3.2.1 y 3.2.2 tenemos tambien que existe C tal que
ku ? uRkV c ku ? u^kV CRmjujH m (
)
(5.1.3)
+1
donde c es la constante de continuidad y es la constante de coercividad de a(; ) en V . En
particular tenemos que, uR converge a u cuando R ! 0.
Consideremos ahora una forma equivalente para la ecuacion de conveccion-difusion (5.1.1) Sea
ue(x) = u(x) ? x luego tenemos que,
? ue00 + bue0 = ?b
(5.1.4)
ue(0) = ue(1) = 0
El problema variacional es entonces hallar ue 2 V = H01 (0; 1), tal que:
a(ue; v) = L(v ); 8v 2 V
donde
a(ue; v) =
Z1
0Z
L(v ) = ?
Z1
0
0
ue v + bue0v
0
1
0
bv
60
Captulo 5
Es sabido que la forma bilineal a(:) es coerciva y continua [31] en consecuencia, las estimaciones
de error (5.1.2) y (5.1.3) se tienen (con la constante C dependiendo de b).
Para R > 0 vamos a considerar la siguiente funcion de peso
8 >
< e
R (z ) = > e
>0
:
z 2
R ) ?e1
1z?e21
2 ( R ) ?e2
1?e2
1(
?R < z < 0
0z<R
otro caso;
(5.1.5)
donde 1 y 2 son constantes que elegiremos dependiendo del valor de b. Vamos a considerar
dos casos, b = 1 y b = 20. En ambos casos elegiremos puntos equiespaciados y el calculo de las
integrales se realizara generando una particion adecuada del intervalo de integracion y calculando
la integral en cada intervalito mediante la regla del punto medio. En el primer caso, b = 1, la
conveccion y la difusion son del mismo orden y por lo tanto no es necesario hacer up-wind. La
nalidad de este ejemplo es simplemente chequear el orden de convergencia que predijimos. Por
`renar' entendemos reducir el valor de R agregando puntos de forma tal de preservar la conguracion inicial. Podemos tomar, por ejemplo, 1 = 2 = 1 que corresponde a elegir una funcion
de peso simetrica como se muestra en la Figura 5.1. En la Figura 5.2 mostramos, comparativamente, la solucion exacta y la solucion aproximada usando MLS con n = 5 puntos equiespaciados
y m = 1. En la Figura 5.3 y la Figura 5.4 mostramos el orden del error, en terminos de R, en la
aproximacion de la funcion y sus derivadas en norma L1 (para mayor claridad se graco usando
escala logaritmica, i.e, gracamos el logaritmo del error en funcion del logaritmo de R). Observamos que, se obtuvo orden optimo en L1 para la aproximacion tanto de u como de u0 , i.e el orden
esperado cuando se aproxima usando polinomios de grado 1. En particular se tiene el orden de
convergencia en H 1 que predijimos.
El caso b = 20 es esencialmente distinto pues en este caso, la conveccion es dominante y por
lo tanto, elegimos una funcion de peso no-simetrica tomando 1 = ?30 y 2 = 1 como se muestra
en la Figura 5.5. A n de establecer comparaciones, en las Figuras 5.6, 5.7 y 5.8 se muestran
los resultados que se obtienen, en este caso, cuando se utiliza elementos nitos lineales standard,
el metodo usual de up-wind de diferencias nitas y MLS respectivamente para n=5, y en las
Figuras 5.9, 5.10 y 5.11 para n=10. Como es sabido el primer metodo presenta oscilaciones (que
para evitarlas deberiamos trabajar con mallas mas nas). Aunque no lo hemos demostrado, es
de esperar que MLS permita introducir up-wind preservando el orden de convergencia cuadratico
cuando R ! 0. En este sentido observemos que, si bien el metodo de diferencias nitas con upwind al igual que MLS no presenta oscilaciones, la aproximacion usando MLS es claramente mejor.
Colocacion
Otra alternativa para la aplicacion de MLS para resolver ecuaciones diferenciales es usar Colocacion, como se explico en la seccion 1.2.2. Por la Observacion 1.1.4 sabemos que si 2 C 2(IR)
luego las funciones base j estan en C 2(
). Tomemos m = 2, a partir de los Teoremas 2.2.1 y
2.2.2 tenemos demostrada la consistencia del metodo. Consideramos el caso b = 20 e intentamos
introducir up-wind eligiendo una funcion de peso no-simetrica, como denimos a continuacion y
Experimentos Numericos
61
cuyo graco se muestra en la Figura 5.12 con 1 = ?30 y 2 = 1.
8 >
>
< e
R(z ) = > e
>
:0
z 4
R ) ?e1 (1 ? ( z )2)4
R
1z?e41
2 ( R ) ?e2
z 24
1?e2 (1 ? ( R ) )
1(
?R < z < 0
0z<R
otro caso;
(5.1.6)
En las Figuras 5.13 y 5.14 mostramos las aproximaciones obtenidas tomando puntos equiespaciados en los casos n = 8 y n = 15 respectivamente. Nuevamente podemos observar la ausencia de
oscilaciones.
Formulas de Diferencias
Como explicamos anteriormente (ver seccion 1.2.3 del Captulo 1) el metodo MLS puede ser
usado para generar formulas de diferencias nitas de la siguiente manera: Para cada x 2 ,k?sea
) )2
a(x) = (ak (x))1km+1 el que se obtiene minimizando Pnj=1 (x ? j )(uj ? Pmk=1+1 ak (x) (j(?k?x1)!
i.e a es la solucion al sistema
t
PW (x)P a = PW (x)u
donde P es una matriz de m + 1 n cuya j ?esima la es p = (pj (1); ; pj (n )) con pj (y ) =
(y?x)j? , u = (u( ); ; u( ))t y W(x) es la matriz diagonal de n n, W(x) = diag ( (x ?
1
n
R
(j ?1)!
1 ); ; R(x ? n )).
El metodo propone aproximar u(k) (x) por ak+1 (x), 1 k m +1. y usando esta aproximacion en
la ecuacion (5.1.4) se obtiene un esquema de diferencias nitas cuya consistencia esta demostrada
por el Teorema 2.2.3. La ventaja de este tipo de esquemas, a diferencia de Colocacion, es que nos
evitamos el calculo de las derivadas de los coecientes ak (x).
En la Figura 5.15 mostramos la aproximacion obtenida para el caso b = 20 tomando n = 8, puntos
equiespaciados, m = 2 y la funcion de peso denida en (5.1.6) con los mismos valores de 1 y 2
que utilizamos al aplicar colocacion para este caso.
1
1
j
5.1.2 Ejemplo de aplicacion de CMLS
Para los mismos ejemplos tratados en la seccion anterior, mostramos los resultados obtenidos al
aplicar CMLS a la resolucion numerica de ecuaciones diferenciales con la tecnica que se menciono en la seccion (4.3) del Captulo 4. En la Figura 5.16 presentamos el resultado obtenido para
el caso b = 1 y en la Figuras 5.17 y 5.18 los resultados obtenidos para b = 20 con n = 8 y n = 15
puntos equiespaciados respectivamente. En ambos casos se utilizo la funcion de peso denida en
5.1.5 con los mismos parametros de 1 y 2 que se utilizaron previamente, al aproximar mediante
MLS, dependiendo del valor de b.
62
Captulo 5
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-0.08
-0.06
-0.04
-0.02
0
0.02
weight function
0.04
0.06
0.08
Figura 5.1: Funcion de peso simetrica
m=1
n= 5
b= 1
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
true solution
approximation
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
MLS
0.6
0.7
0.8
0.9
1
Figura 5.2: Solucion exacta vs Solucion por MLS
Experimentos Numericos
63
−4
−4.5
−5
log(Error)
−5.5
−6
−6.5
−7
−7.5
−8
−8.5
−3
−2.8
−2.6
−2.4
−2.2
−2
log(R)
−1.8
−1.6
−1.4
−1.2
Figura 5.3: ku ? uR kL1 (
) = O(R2)
−3
−3.2
−3.4
log(Error)
−3.6
−3.8
−4
−4.2
−4.4
−4.6
−4.8
−3
−2.8
−2.6
−2.4
−2.2
−2
log(R)
−1.8
−1.6
−1.4
−1.2
Figura 5.4: ku0 ? u0R kL1 (
) = O(R)
64
Captulo 5
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-0.5
-0.4
-0.3
-0.2
-0.1
0
0.1
weight function
0.2
0.3
0.4
0.5
Figura 5.5: Funcion de peso no-simetrica
finite element
1
0.5
true solution
approximation
0
-0.5
0
0.1
0.2
0.3
0.4
0.5
0.6
n= 5 b= 20
0.7
0.8
0.9
1
Figura 5.6: Solucion exacta vs Solucion por elementos nitos
Experimentos Numericos
65
finite difference
1
0.9
0.8
0.7
0.6
0.5
true solution
0.4
approximation
0.3
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
n= 5 b= 20
0.7
0.8
0.9
1
Figura 5.7: Solucion exacta vs Solucion por diferencias nitas upwind
m=1
n= 5
b = 20
1
0.8
0.6
0.4
true solution
approximation
0.2
0
-0.2
0
0.1
0.2
0.3
0.4
0.5
MLS
0.6
0.7
0.8
0.9
1
Figura 5.8: Solucion exacta vs Solucion por MLS
66
Captulo 5
finite element
1
0.8
0.6
0.4
true solution
approximation
0.2
0
-0.2
0
0.1
0.2
0.3
0.4
0.5
0.6
n= 10 b= 20
0.7
0.8
0.9
1
Figura 5.9: Solucion exacta vs Solucion por elementos nitos
finite difference
1
0.9
0.8
0.7
0.6
0.5
true solution
0.4
approximation
0.3
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
n= 10 b= 20
0.7
0.8
0.9
1
Figura 5.10: Solucion exacta vs Solucion por diferencias nitas upwind
Experimentos Numericos
67
m=1
n = 10
b = 20
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
true solution
approximation
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
MLS
0.6
0.7
0.8
0.9
1
Figura 5.11: Solucion exacta vs Solucion por MLS
1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0
-0.4
-0.3
-0.2
-0.1
0
0.1
weight function
0.2
0.3
0.4
Figura 5.12: Funcion de peso
68
Captulo 5
m=2
n= 8
b = 20
1
0.8
0.6
0.4
true solution
approximation
0.2
0
-0.2
0
0.1
0.2
0.3
0.4
0.5
MLS
0.6
0.7
0.8
0.9
1
Figura 5.13: Solucion exacta vs Solucion usando colocacion
m=2
n = 15
b = 20
1
0.9
0.8
0.7
0.6
0.5
0.4
true solution
0.3
approximation
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Figura 5.14: Solucion exacta vs Solucion usando colocacion
Experimentos Numericos
69
m=2
n= 8
b = 20
1.2
1
0.8
0.6
0.4
true solution
approximation
0.2
0
−0.2
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Figura 5.15: Solucion exacta vs Solucion aproximada
n= 5
m=1
1
0.9
0.8
0.7
0.6
0.5
0.4
true solution
0.3
approximation
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Figura 5.16: Solucion exacta vs Solucion usando CMLS
70
Captulo 5
n= 8
m=1
1
0.9
0.8
0.7
0.6
0.5
0.4
true solution
0.3
approximation
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Figura 5.17: Solucion exacta vs Solucion usando CMLS
n = 15
m=1
1
0.9
0.8
0.7
0.6
0.5
0.4
true solution
0.3
approximation
0.2
0.1
0
0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Figura 5.18: Solucion exacta vs Solucion usando CMLS
Experimentos Numericos
71
5.2 El caso bidimensional
En esta seccion nos ocuparemos del problema de conveccion-difusion en el caso bidimensional:
? u + bru = 0; en = (0; 1) (0; 1)
uj@
= g (x)
(5.2.7)
8 b (x?1) r1 r2
>
(e ? e ) y = 1
< xe
g(x; y) = > er y ? er2y
x=1
:0
en x = 0 e y = 0;
con
1
2
1
donde r1 = b ?k2 bk y r2 = b +2kbk .
La solucion exacta a este problema se muestra en la Figura 5.19
Nuestro interes es obtener aproximaciones a la solucion de la ecuacion (5.2.7) usando MLS.
Nuevamente deseamos elegir una funcion de peso apropiada ( que tenga presente la asimetra del
problema) a n de evitar la presencia de oscilaciones. Se planteaba el problema de generalizar a
mas dimensiones la idea de up-wind del caso unidimensional. Inspirados en este caso proponemos
la siguiente funcion de peso: R (x1; x2) = e R (x1)e R (x2) donde e R es la que utilizamos en el caso
unidimensional i.e
2
2
8 e?a Rz ?e?a
>
< 1?e?a si ?R < z < 0
e R (z ) = > e Rz ?e
si 0 z < R
: 0 1?e
en otro caso;
(
(
)2
)2
La eleccion del parametro a dependera de b1 al considerar e R (x1 ) y de b2 al considerar e R (x2 )
Se realizaron experimentos numericos tomando b = (1; 20), la correspondiente funcion de peso se
muestra en la Figura 5.21.
Para los experimentos numericos que se detallan a continuacion tomamos una malla uniforme
con 5 nodos en cada direccion. En la Figura 5.20 se muestra la aproximacion obtenida utilizando
la aproximacion usual por diferencias nitas para las derivadas segundas y diferencias centradas
para las de primer orden, como es sabido se observan oscilaciones. En la Figura 5.22 mostramos
los resultados obtenidos usando MLS, nuestra eleccion de la funcion de peso, adecuada a las
caractersticas del problema, evita la presencia de oscilaciones.
72
Captulo 5
8
x 10
5
4
3
2
1
0
1
0.8
1
0.6
0.8
0.6
0.4
0.4
0.2
0.2
0
0
Figura 5.19: Solucion de la ecuacion de conveccion-difusion
8
x 10
6
4
2
0
−2
−4
−6
−8
1
1
0.8
0.8
0.6
0.6
0.4
0.4
0.2
0.2
0
0
Figura 5.20: Solucion por diferencias nitas
Experimentos Numericos
73
weight function
1
0.8
0.6
0.4
0.2
0
1
0.6
0.5
0.4
0.2
0
0
−0.2
−0.5
−0.4
−1
eje y
−0.6
−0.8
eje x
Figura 5.21: funcion de peso
8
x 10
5
4
3
2
1
0
−1
1
0.8
1
0.6
0.8
0.6
0.4
0.4
0.2
0.2
0
0
Figura 5.22: Solucion usando MLS
Bibliografa
[1] Armentano M. G., Duran R. G. Error estimates for moving least square approximations,
submitted (1999).
[2] Armentano M. G. Error estimates in Sobolev Spaces for moving least square approximations,
submitted (1999).
[3] Babuska, I. Error bounds for nite element method, Numer. Math., 16, 322-333, (1971).
[4] Babuska, I. and Melenk J. M. The partition of unity method, International Journal for
numerical methods in engineering, 40, 727-758, (1997).
[5] Belytschko T. Lu Y.Y., Gu L. A new implementation of the element free Galerkin method,
Comput. Methods Appl. Mech. Engrg., 113, 397-414 (1994).
[6] Belytschko T., Krysl P. Element-free Galerkin method: Convergence of the continuous and
discontinuous shape functions , Comput. Methods Appl. Mech. Engrg., 148, 257-277 (1997).
[7] Brenner S. C. and Scott L. R. The Mathematical Theory of Finite Element Methods , SpringerVerlag, New York, (1994).
[8] Brezis, H. Analyse Fonctionnelle, Theorie et Applications, Masson, (1983).
[9] Calderon A. P. and Zygmund A. Local properties of solution of elliptic partial dierential
equations, Studia Mathematica, 171-225 (1961).
[10] Ciarlet P. G. The Finite Element Method for Elliptic Problems, North Holland, Amsterdam,
(1978).
[11] Colominas I., Mar Chao, Navarrina F. and Casteleiro M. Application of Meshless Method to
the analysis and design of Grounding Systems, Proccedings of `Fourth World Congress on
Computationas Mechanics', Argentina, (1998)
[12] Conte S. D. and C. deBoor Elementary Numerical Analysis, McGraw-Hill, New York, (1980).
[13] Dolbow J., Belytschko T. Numerical Integration of the Galerkin weak form in meshfree
method, Computational Mechanics, 23, 219-230 (1999)
[14] Dupont T., Scott R. Polynomial approximation of function in Sobolev Spaces, Mathematics
of Computation, 34, 441-463 (1980).
74
Bibliografa
75
[15] Duran R. G. On polynomial approximation in Sobolev Spaces, SIAM J. Numer. Anal., 20,
985-988 (1983).
[16] Fleming M, Chu Y. A., Moran B, and Belytschko T. Enriched element free Galerkin methods
for crack tip elds, International Journal for numerical methods in engineering, 40, 1483-1504,
(1997).
[17] Grisvard P. Elliptic problems in nonsmooth domains, Pitman, (1985).
[18] Johnson L. W., Riess R. D. Numerical Analysis, Addison-Wesley, (1982).
[19] Johnson, C. Numerical Solution of partial dierential Equations by the Finite Element
Method, Cambridge University Press, Cambridge, (1987)
[20] Kincaid D., Cheney W. Analisis Numerico, Addison Wesley Iberoamericana, (1994)
[21] Lancaster, P. Salkauskas K. Surfaces Generated by Moving Least Squares Methods, Mathematics of Computation,37,141-158 (1981).
[22] Levin, D. The approximation power of moving least-squares, Mathematics of
Computation,67,1335-1754 (1998).
[23] Marano M. Mejor Aproximacion Local , Tesis de Doctorado en Matematicas - U. N. de San
Luis, (1986).
[24] Melenk J. M. and Babuska I. The partition of unity nite element method: Basic theory and
applications, Comput. Methods Appl. Mech. Engrg., 139, 289-314 (1996).
[25] Morton K. W. Numerical Solution of Convection-Diusion Problems, Chapman & Hall,
(1996)
[26] Motzkin, T. S. and Walsh J. L. Polynomials of best approximation on a real nite point set,
Trans. Amer. Math. Soc.,91, 231-245 (1959).
[27] O~nate E., Idelsohn S. and Zienkiewicz O. C. Finite point method in computational mechanics,
CIMNE, report, (1995).
[28] Orkisz J. Meshless Finite Dierence Method I. Basic Approach, Proccedings of 'Fourth World
Congress on Computationas Mechanics', Argentina,(1998)
[29] Orkisz J. Meshless Finite Dierence Method II. Adaptive Approach, Proccedings of `Fourth
World Congress on Computationas Mechanics', Argentina, (1998)
[30] Rice, J. R. Best approximation and interpolating functions, Trans. Amer. Math. Soc.,101,
477-498 (1961).
[31] Roos H. G., Stynes M. and Tobiska L. Numerical Methods for Singularity Perturbed Dierential Equations, Springer, (1996).
[32] Shepard D. A two-dimensional interpolation function for irregularly spaced points, Proc.
A.C.M Natl. Conf. ,517-524 (1968).
76
Bibliografa
[33] Taylor R., Zienkiewicz O. C., O~nate E., and Idelsohn S. Moving least square approximations
for the solution of dierential equations, CIMNE, report, (1995).
[34] Verfurth R. A note on polynomial approximation in Sobolev Spaces, Rairo M 2 AN, 33, 715719, (1999).
Descargar