Introduccion - Laboratorio de Electroquímica Fundamental

Anuncio
Introducción estadístico-matemática
FACULTAD DE CIENCIAS
LABORATORIO DE ELECTROQUÍMICA FUNDAMENTAL
Introducción estadístico matemática.
Consideramos que es de importancia revisar los conceptos de clasificación de errores y aquellos
relacionados al sistema de medidas del cual se obtienen los datos a analizar. Los errores asociados a las
mediciones pueden dividirse en dos grandes clases:
1.1.Errores sistemáticos.
Los errores sistemáticos, tal como su nombre lo indica, se cometen de una misma manera cada vez
que se mide. Muchos errores sistemáticos pueden eliminarse aplicando correcciones muy simples. Un
ejemplo de la vida diaria está en el ajuste de cero que se encuentra usualmente en las balanzas de uso
doméstico. Otro caso de error sistemático es, por ejemplo, el asociado a la medición de la presión atmosférica
con un barómetro de mercurio. Allí debe corregirse la lectura por la diferencia en los coeficientes de
expansión térmica del mercurio y del material con que está hecha la escala del barómetro. Estos errores son
llamados también errores corregibles o determinados, a fines de distinguirlos de los errores aleatorios, los
cuales se encuentran en toda medición y están fuera del control del observador. Los errores sistemáticos no se
manifiestan como fluctuaciones aleatorias en los resultados de las mediciones. Por lo tanto, dado que el
mismo error está involucrado en cada medición, no pueden eliminarse simplemente repitiendo las mediciones
varias veces [imagine, por ejemplo, que Ud. utiliza (sin darse cuenta) una regla a la que le faltan dos
centímetros en el extremo del cero]. En consecuencia, estos errores son particularmente serios y peligrosos, y
pueden eliminarse sólo después de realizar cuidadosas calibraciones y análisis de todas las posibles
correcciones. Algunas veces, los errores sistemáticos se manifiestan como un corrimiento en valores medidos
consecutivamente o como un cambio en el valor experimental medido cuando se cambia la técnica
experimental de medición.
1.2. Errores aleatorios.
Los errores aleatorios o accidentales, aparecen como fluctuaciones al azar en los valores de
mediciones sucesivas. Estas variaciones aleatorias se deben a pequeños errores que escapan al control del
observador. Por ejemplo, si leemos varias veces la presión indicada por la escala de un barómetro, los valores
fluctuarán alrededor de un valor medio. Estrictamente hablando, nunca podremos medir el valor verdadero de
ninguna cantidad, sino sólo una aproximación. El propósito del tratamiento de los datos experimentales es
justamente determinar el valor más probable de una cantidad medida y estimar su confiabilidad.
Es entonces importante tener en cuenta el sistema con el que se trabaja y la situación en la cuál se
llevan a cabo las medidas correspondientes. Es por eso que se debe considerar el concepto de precisión, la que
es una medida del grado con el cual mediciones sucesivas difieren una de otra. La sensibilidad, es la relación
de la señal de salida o respuesta del instrumento al cambio de la entrada o variable medida. La resolución, que
es el cambio más pequeño en el valor medido para el cual el instrumento responderá. La incertidumbre, es la
desviación del valor “verdadero” al valor medido. Y por último, pero no menos importante, la apreciación, es
el mínimo registro en la escala de un instrumento.
Es, entonces, el resultado final de un proceso de medición un número real, valor de una magnitud
física, su unidad correspondiente y un intervalo de confianza.
1.3. Incertidumbre
Como fue comentado anteriormente, toda medición por su propia naturaleza lleva asociada consigo
un intervalo de incertidumbre. De esta forma el resultado de la medición se debe ser enunciado como el valor
de la medida junto con su intervalo de incertidumbre asociado.
Fisicoquímica de las interfases
1
Introducción estadístico-matemática
Medida ± incertidumbre
No hay unificación de criterios para determinar dicho intervalo.
1.4. Incertidumbre estadística
1.4.1. Media, desviación estándar, histograma.
Cuando hay fluctuaciones al azar en las medidas como las descritas en el párrafo anterior, en general
se supone que la distribución estadística de errores se aproxima a la denominada “distribución de Gauss” o
“normal”. Esta distribución se utiliza para interpretar muchos tipos de mediciones físicas, en parte debido a
que las circunstancias mecánicas de muchas de éstas guardan estrecha correspondencia con los fundamentos
teóricos de dicha distribución, y en parte porque la experiencia demuestra que la estadística Gaussiana
proporciona una descripción razonablemente exacta de los sucesos reales. La función de densidad que
corresponde a la distribución anteriormente explicada es:
f ( x) 
1
 2

e
( x )2
2 2
(1)
siendo  la desviación stándard, 2 la varianza,  la media de los valores de la muestra y x los valores
muestrales en la abscisa.
Sólo para otro tipo común de mediciones físicas es más apropiada otra distribución: al observar
fenómenos como la desintegración radiactiva se debe emplear la distribución conocida como “distribución de
Poisson” de la cual no nos ocuparemos aquí. Pero aún en casos como éste, la diferencia con la estadística de
Gauss resulta significativa sólo para muy bajos niveles de ocurrencia. Citemos un ejemplo para ilustrar ésta
distribución: supongamos que se hizo oscilar un péndulo particular y se midió el tiempo de una sola
oscilación cincuenta veces, y se obtuvo los resultados de la siguiente tabla:
Figura nº 1- distribución de resultados pertenecientes a la muestra con la que se trabaja.
Fisicoquímica de las interfases
2
Introducción estadístico-matemática
Existe un método gráfico que permite determinar la distribución de N resultados de medidas (en este
caso de lecturas del periodo de oscilación del péndulo). Tomemos un par de ejes coordenados, si dividimos el
eje x en intervalos pequeños de tamaño arbitrario x, podemos colocar en cada intervalo el número de
observaciones n que caen en ese intervalo. Obviamente n = N (Esta gráfica se conoce como histograma y
tiene un aspecto como el de la figura no.1.
Cuanto más grande sea el número N de medidas, más pequeño se puede hacer x sin perder la
posibilidad de tener un número considerable de medidas n en cada intervalo. En general en el histograma se
grafican en barras las frecuencias absolutas (numero de medidas que caen dentro de un intervalo). También
podemos graficar las frecuencias relativas (número de medidas que caen dentro de un intervalo sobre el total
de las observaciones n/N).
El promedio de los datos y la desviación estándar se calculan de la siguiente forma:
x
x
i
(2)
N
 x  x 
2
 
i
(3)
N
Los histogramas pueden ser aproximados por una función continua bien definida, que depende de
(, x ). La aproximación es mejor cuanto más grande es N y menor x. Por su forma a esta gráfica, y
distribución de probabilidad que la origina, se la denomina Campana de Gauss,  y x no modifican la
forma de la gráfica, sino que actúan como factores de escala. Haciendo cuentas se puede demostrar que la
curva presenta un máximo en x = x , es simétrica respecto a este valor medio y sus puntos de inflexión están
en x ± .
Figura nº 2 – distribución estadística conocida como campana de Gauss
Esto es importante porque significa que la dispersión () de la campana de Gauss da una idea del
error asociado a la medida. Debe relacionarse intuitivamente que el área encerrada entre dos puntos por la
curva de Gauss, corresponde a la probabilidad que una medida caiga dentro de ese intervalo. Cerca del
promedio la probabilidad es más alta, mientras que en los extremos se acerca a 0.
El valor de la medida generalmente se reporta como sigue:
x 
(4)
Fisicoquímica de las interfases
3
Introducción estadístico-matemática
Su interpretación es la siguiente: si se efectúa una sola medición con el equipo correspondiente, ésta
tiene una probabilidad del 68% de estar incluida en el intervalo x   (geométricamente el área bajo la
campana de Gauss comprendida en ese intervalo, es el 68% del área total).
Si el resultado se reportara como x  2 (como de hecho se podría hacer), se interpretaría diciendo
que si efectuamos una medición con nuestro equipo, ésta tendría una probabilidad del 95% de caer en el
intervalo x  2 (el área de la curva de la Gaussiana comprendida en este intervalo es el 95% del área
total). Obviamente la confiabilidad de los resultados aumenta con el número de mediciones. No es práctico
hacer un análisis estadístico para menos de 20 mediciones, sobre todo si se observan grandes desviaciones
estándar.
1.5. Incertidumbre absoluta y relativa.
Cualquiera que sea el medio por el que se obtiene una medida, y cualquiera que haya sido el tipo de
incertidumbre, el resultado final deberá ser un intervalo que representa, los límites dentro de los que se
encuentra el valor deseado. Con frecuencia es deseable comparar la magnitud de la incertidumbre con el valor
de la medición misma; haciéndolo así se puede evaluar en forma realista cuán significativa es ésta. Se define
la razón:
Incertidumbre relativa = incertidumbre absoluta / valor medio
Este valor aporta un sentido de la calidad de la lectura, y se denomina “precisión” de la medida. Es
importante recordar que la incertidumbre relativa es un número adimensional.
1.6. Propagación de incertidumbres
1.6.1. Medición indirecta. Incertidumbres en cantidades calculadas
Es raro que el proceso se termine con una sola medición. Generalmente el proceso de medición es
indirecto, es decir, el resultado que deseamos es una combinación de dos o más cantidades medidas, o es por
lo menos una función calculada a partir de una sola medida. Las incertidumbres (“errores”) asociadas con las
magnitudes medidas directamente se propagan al resultado de la medida final. Para tratar ésta propagación de
la incertidumbre debemos considerar dos casos: Cuando la incertidumbre no tiene un carácter estadístico y
cuando lo tiene.
1.6.2. Propagación de la incertidumbre que no tiene carácter estadístico.
Por los métodos del cálculo diferencial se puede demostrar que si la magnitud a medir es
y x1 , x2 , x3, xn  es una función de varias variables, la incertidumbre absoluta y en su medida, debida a las
medidas de las magnitudes
y  
donde los
y
xi
x1 , x2 , x3 ,  xn será:
xi
(5)
xi son las respectivas incertidumbres absolutas en los x i .
Es necesario advertir que para poder usar la expresión anterior en el cálculo de propagación de
incertidumbres es necesario que se den las siguientes dos condiciones:

El error de cada variable es mucho menor que la propia variable.

Las variables son independientes en el siguiente sentido: el valor de una de ellas no afecta en absoluto al
valor de la otra. Por ejemplo, la estatura de una persona y su peso no son variables independientes. Si se
mide el peso y la estatura de un gran número de personas llegaremos a la conclusión de que generalmente
Fisicoquímica de las interfases
4
Introducción estadístico-matemática
las personas más altas pesan también más. Esto no es fácil de detectar en muchos casos y omitirlo nos
lleva a resultados erróneos.
1.7. Compensación de incertidumbres.
Puede darse una situación especial cuando se trata de la medida de una magnitud en forma indirecta,
a través de la medida de varias magnitudes. Considere, por ejemplo, la ecuación óptica que relaciona el
ángulo de desviación mínima dm en un prisma, el índice de refracción n y el ángulo A del prisma:
n
1
 A  dm 
2
1
sen A
2
sen
(6)
Si A y dm son variables medidas con incertidumbres
 A y dm ,
la cantidad n es el resultado
requerido, con una incertidumbre  n . En este caso no podemos aplicar el método de propagación de errores
descrito en la sección anterior, debido a que las variables A y A+ dm no son independientes (el valor de una de
ellas afecta el valor de la otra). En ésta situación la incertidumbre asociada al numerador puede compensar a
la incertidumbre asociada con el denominador, dando como resultado que la incertidumbre en n no sea tan
grande. Para evitar esta dificultad, lo mejor sería reducir la ecuación a una forma en la que todas las variables
sean independientes, o bien regresar a los principios básicos (es decir, a los principios físicos que llevaron a
tal expresión) y de esta forma ya poder hacer el análisis anterior.
Los casos que tienen que ver con incertidumbres que se compensan deben de vigilarse con cuidado,
ya que pueden, si se tratan en forma incorrecta, dar lugar a errores en los cálculos de incertidumbre que son
difíciles de detectar.
1.8. Propagación de la incertidumbre con carácter estadístico
Suponga que desea medir una magnitud física a través de la medida de otras. En el caso de que la
recolección de datos para obtener las respectivas medidas justifique un análisis estadístico, es decir que las
desviaciones estándar sean confiables, la mejor opción para calcular la desviación estándar de la medida
buscada se debe hacer como se indica a continuación.
Sea
magnitudes
z x1 , x2 , x3, xn  y  1 ,  2 ,  n las respectivas desviaciones estándar en las medidas de las
x1 , x2 , , xn la desviación estándar  z para la medida de la magnitud z será:
2
 z 
 z      i 2
 xi 
(7)
2. Tratamiento de datos.
El tratamiento de los datos experimentales es una de las etapas de la post-experimentación más
importantes. De su correcta ejecución dependerá que las conclusiones que se obtengan sean válidas.
Una vez finalizado un experimento, el experimentador se encuentra con un conjunto de datos que
deberá utilizar en forma adecuada para llegar a un determinado fin. Este puede incluir el obtener un valor
analítico, comprobar o desarrollar una ley, ajustar los datos a un cierto modelo matemático, etc.
Se debe luego realizar un estudio detallado de los diferentes tratamientos de datos, pero ésto sería
muy extenso y excedería de lo pretendido en este curso. Por lo tanto, analizaremos aquellos procedimientos
de mayor uso en experimentación electroquímica.
Fisicoquímica de las interfases
5
Introducción estadístico-matemática
2.1. Ajuste al modelo lineal.
El modelo lineal provee una forma ventajosa de analizar los datos experimentales. Supongamos que
sobre un cierto conjunto discreto de datos x hacemos una determinada medida y. Cuando dichos datos se
ajustan a un modelo lineal del tipo
y = A + B.x
(8)
(A y B constantes)
la conclusión que se puede sacar en una primera instancia es tan sencilla y directa como "y es directamente
proporcional a x". Esta conclusión de por sí es sumamente importante, pues nos indica que la variable
dependiente y varía proporcionalmente con la variable independiente x, lo que nos está introduciendo a un
determinado comportamiento que nos permite hacer una primera generalización. Esta generalización es lo que
en general busca un experimentador: poder establecer un cierto comportamiento entre dos variables, más que
tener pares de datos x,y aislados.
2.1.1.¿Por qué un modelo lineal?
Una vez ajustado un modelo matemático a un cierto conjunto de datos experimentales, el
experimentador buscará responder preguntas tales como: "¿qué valor de y le corresponderá a un cierto valor
de x no medido?", o "¿qué valor de y le corresponderá a un cierto valor de x fuera del rango estudiado?".
Responder estas preguntas implica interpolar y extrapolar resultados, respectivamente. Estas operaciones,
que veremos más adelante, requiere de métodos matemáticos que, para el caso de un modelo lineal, son
sencillos de realizar con una alta precisión.
Sin embargo, el modelo lineal no es el único que se ajusta al comportamiento de los datos
experimentales. Existen variables que dependen entre sí a través de relaciones logarítmicas, exponenciales,
potenciales y aún algunas funciones matemáticas complejas. En la actualidad, el ajuste a otro tipo de modelos
matemáticos puede realizarse fácilmente con el uso de computadoras. Sin embargo, las operaciones de
interpolación y extrapolación se realizan con mayor precisión para modelos lineales que para otro tipo de
modelos matemáticos.
Cuando los datos no se ajustan a un modelo lineal, se busca alguna función de x y/o y que sí lo haga.
Es decir, se buscan relaciones del tipo:
y = A + B.f(x)
g(y) = A + B.x
g(y) = A + B.f(x)
(9)
(10)
(11)
Las funciones f(x) y g(y) pueden ser cualquier tipo de funciones matemáticas sencillas (log, , sen,
cos, exp) o complejas (funciones estadísticas, ecuaciones matemáticas).
2.2. Método de los Mínimos Cuadrados
Una vez encontradas las funciones adecuadas que permitan relacionar linealmente las variables, se
buscará conocer con la mayor confiabilidad posible los valores de A y B. Para ello se recurre a un método con
base estadística llamado Método de los Mínimos Cuadrados. Este método permite ajustar la mejor recta que
pasa por un cierto conjunto de pares de datos x,y. De acuerdo con este método, los valores de A y B vendrán
dados por:
Fisicoquímica de las interfases
6
Introducción estadístico-matemática
A
yx 2  xxy
nx 2  (x) 2
B
nxyxy
nx 2  (x) 2
(12)
(n=número de datos, j son parámetros estadísticos).
Estos valores de A y B son fácilmente evaluados por cualquier calculadora o computadora.
Llegado a este punto, se ha conseguido relacionar dos variables (o alguna función matemática de
ellas) a través de una ecuación matemática sencilla.
2.3. Objetivos del ajuste al modelo lineal.
Los objetivos que se persiguen cuando se ajustan datos experimentales a un modelo lineal pueden ser
variados. A continuación, veremos alguno de ellos, relacionados con medidas electroquímicas.
2.4. Verificación de leyes electroquímicas
Muchas veces pueden deducirse teóricamente relaciones entre variables que resultan estar vinculadas
(directa o indirectamente) a través de una relación lineal entre ellas. Veamos dos ejemplos:
Ejemplo 1. Verificación de la Ley de Tafel
La Ley de Tafel establece una relación entre el sobrepotencial () aplicado a una celda electroquímica y
la densidad de corriente (j) en la misma. La expresión matemática de dicha ley es:

2.303.RT
2.303.RT
log j0 
log j
nF
nF
(13)
Aquellas reacciones que cumplan con la Ley de Tafel, mostrarán una dependencia lineal entre  y log j. Una
vez demostrado el cumplimiento de la Ley de Tafel, el ajuste de la recta por Mínimos Cuadrados permite el
cálculo de parámetros de importancia como la densidad de corriente límite (j0) y el coeficiente de
transferencia () a partir de la ordenada en el origen y de la pendiente respectivamente.
Ejemplo 2. Verificación de la Ley de Kohlrausch
La Ley de Kohlrausch prevé un comportamiento lineal entre la conductancia molar y la raíz cuadrada de
la concentración para los electrolitos verdaderos, pero no para los potenciales.
  0  B C
(14)
Cuando se grafican los datos experimentales para un electrolito verdadero y uno potencial, el hecho de
obtener una recta para los primeros pero no para los últimos permite obtener, como primera conclusión, que
los electrolitos verdaderos siguen la Ley de Kohlrausch, mientras que los potenciales no lo hacen. En forma
secundaria, esta relación lineal permite calcular, por mínimos cuadrados, el valor de la conductancia molar a
dilución infinita (0).
Fisicoquímica de las interfases
7
Introducción estadístico-matemática
En los dos casos mencionados, se poseía una relación teórica, la que debía ser comprobada por
ajuste a un modelo lineal de los datos experimentales. En estos casos, el ajuste correcto al modelo lineal no
solo permite calcular parámetros de interés, sino que también permite comprobar que la relación teórica
planteada se ajusta a la realidad.
2.5. Determinación de parámetros fisicoquímicos
Dada una ecuación del tipo
y = A + B.x
(15)
Si se conoce el valor de A y se quiere determinar el valor de B, bastaría con un par de datos x,y para
conocerlo. Si tanto A como B son desconocidos, dos pares de datos x,y nos ayudarían a resolver el problema.
Sin embargo, es conveniente evaluar los valores de A y/o B con un conjunto de datos x,y, pues:
i)
permite evaluar la constancia del valor de B en un rango de valores de x.
ii)
La evaluación de A y B en un rango de valores de x es más confiable que la realizada por el uso de la
mínima cantidad de datos experimentales necesarias para obtener los resultados (esta mínima
cantidad es igual al número de incógnitas que se quieran resolver).
En este caso, graficando los datos experimentales x, y para un rango dado de valores de x, se pueden evaluar
los valores de A y B por el Método de los Mínimos Cuadrados. Veamos algunos ejemplos de aplicación en
Electroquímica.
Ejemplo 1. Determinación de la constante de disociación Ka de un ácido débil.
Por medidas de conductancia molar () de soluciones de distinta concentración C de un ácido débil, se llega
a la relación:
1
1
1

C 
 K a 20
0
(16)
Que responde a una ecuación lineal del tipo (16), con g(y) = 1/ y f(x) =C.
Es decir,  y C no se relacionan linealmente entre sí, pero dos funciones matemáticas de ellas sí lo
hacen. Graficando 1/ vs. C, obtiene 0 de la ordenada en el origen, y Ka de la pendiente.
Ejemplo 2. Determinación del Eº de un par redox
Para una reacción del tipo
Ox + ne  Red
(17)
la ecuación de Nernst correspondiente se puede escribir como:
Conociendo los valores de Ox/Red, y los potenciales correspondientes medidos se grafica E vs.
LnOx/Red y se obtiene Eº de la ordenada en el origen.
Fisicoquímica de las interfases
8
Introducción estadístico-matemática
E  E º
Ox
RT
ln
nF Re d 
(18)
Ejemplo 3. Determinación del coeficiente de temperatura de una celda galvánica
Si se mide el potencial (V) de una celda galvánica a distintas temperaturas (T), ambas magnitudes pueden
relacionarse por una ecuación lineal:
V = A + B.T
(19)
donde B representa el coeficiente de temperatura (V/T)P.
En ambos casos, se buscó obtener una recta para de ella calcular ciertos parámetros de interés,
aplicando para ese fin el método de los Mínimos Cuadrados, por representar la mejor estimación de la recta.
2.6. Confiabilidad del ajuste al modelo lineal.
Existen varios parámetros y pruebas estadísticas que permiten establecer el grado de confiabilidad
del ajuste realizado. La información aportada por cada uno de ellos es diferente, y el uso de los mismos como
criterio de confiabilidad debe ser usado con cautela.
2.6.1.Coeficiente de correlación r
Este coeficiente surge de la aplicación del método de Mínimos Cuadrados, y se calcula por medio de:
r
nx
nxy  xy
2

 (x) 2 . ny 2  (y ) 2

(20)
Adopta valores acotados entre 0 < r < 1, e indica un buen ajuste cuanto más cercano esté a 1 su valor. En
general, se considera que un coeficiente de correlación con un valor mayor de 0.995 es aceptable. Sin
embargo esto puede traer como consecuencia el sacar conclusiones erróneas en una experimentación.
Veamos el siguiente ejemplo. Supongamos que deducimos teóricamente que para que se cumpla
cierta ley, las variables x e y deben relacionarse linealmente de acuerdo con y= A + B.x. Cuando se grafican
los puntos experimentales se obtiene el siguiente gráfico que, por Mínimos Cuadrados, da la mejor recta que
se muestra en él. Una vez determinado el coeficiente de correlación, éste es superior a 0.995.
Fisicoquímica de las interfases
9
Introducción estadístico-matemática
y
x
Figura n° 3 – representación gráfica obtenida en el procesamiento de datos aplicado el método de mínimos cuadrados
La primera conclusión que sacaríamos basándonos en este valor de r sería que x e y siguen dicha ley
en estudio. Sin embargo, un examen minucioso de los puntos revela que los mismos muestran una tendencia
que no es lineal, sino logarítmica. De hecho, al grafica y vs. ln(x) se obtiene:
y
ln(x)
Figura n° 4 – representación logarítmica de los valores representados previamente en la fig. n°3
Esto nos lleva a concluir que x e y no siguen la ley en estudio, la conclusión opuesta a la que nos
lleva el análisis del valor de r.
2.7. Probabilidad
Otro parámetro que se puede analizar es la probabilidad P de que la recta ajustada no sea una recta.
Este valor de Probabilidad surge de la distribución Gaussiana de los errores. Para fines analíticos, dicha
probabilidad se suele establecer en un 1% (P<0.01), mientras que para datos biológicos, por su natural
variabilidad, se establece en un 5% (P<0.05). Estos valores de probabilidad, que son calculados por la
mayoría de los programas de computación de análisis de datos, permiten obtener la confiabilidad de la recta
obtenida desde un punto de vista estadístico.
¿Cómo se usa el dato de probabilidad? En el ejemplo anterior, si el valor de P para el ajuste lineal
entre x e y es P>0.01, dicho ajuste se descarta por no ser confiable. Si ambos ajustes, y,x e y,ln(x) presentan
valores de P<0.01, se puede decir que, desde el punto de vista estadístico, ambos ajustes son confiables. En
este caso, la ley en estudio se cumpliría con un grado de confianza del 99%.
Fisicoquímica de las interfases
10
Introducción estadístico-matemática
2.8. Interpolación y extrapolación.
Como se comentó previamente, el método de ajuste a una recta es el mejor cuando se quieren hacer
interpolaciones y extrapolaciones. El ajuste a una recta se hace dentro de un intervalo de valores de x
experimentales. Dentro de dicho intervalo, una vez ajustada la recta, el experimentador puede asegurar, con
un grado de confianza provisto por P, que cualquier dato de x dentro de dicho intervalo tendrá una respuesta y
dada por la ecuación de la recta ajustada.
La interpolación se realiza utilizando la ecuación de la recta ajustada, pudiéndose obtener los valores
tanto de x como de y.
La extrapolación consiste en obtener un valor fuera del rango experimental. En este caso, el cálculo
de dicho valor también se hace usando la ecuación de la recta ajustada, pero el experimentador debe asumir
que fuera del rango experimental, el comportamiento lineal obtenido sigue siendo el mismo. Un ejemplo de la
aplicación de la extrapolación en Electroquímica es la determinación de los valores de conductancia molar a
dilución infinita. Físicamente, no se pueden obtener diluciones infinitas, por ser éste un concepto abstracto;
esto es, equivaldría a trabajar a concentración nula, lo cual no tiene sentido físico. Por lo tanto, la única forma
de obtener dichos valores es por extrapolación en un gráfico contra concentraciones, y obtener el valor del
corte de la recta a concentración nula.
3. Cálculo aplicado a funciones polinómicas.
Uno de los objetivos primordiales es aprender como funcionan las aproximaciones polinómicas, ya
que es de gran importancia para poder así calcular las funciones logarítmicas, exponenciales y
trigonométricas. También así, darle una visión más amplia al estudiante sobre este tema, llevando un lenguaje
no tan extenso y más centrado en lo práctico y lo necesario para poder realizarse este tipo de cálculos
matemáticos, que en el cálculo diferencial e integral, encontramos infinidad de temas que a veces no nos
llaman la atención de practicar.
3.1. Aplicación de polinomios de Taylor a la ecuación de Butler – Volmer.
3.1.1. Aproximación para campos bajos.
La ley de combinación lineal de exponenciales para campos altos ha sido derivada despreciando una
de las corrientes que constituyen la densidad de corriente neta i. La ley para campos bajos es obtenida
ampliando los exponenciales y puesto que η es por definición pequeño en esta aproximación, conservando
solamente los primeros dos términos de la extensión de cada término exponencial:
i=i0(e(1-)Fη/RT - e -Fη/RT)
(21)
Y aplicando la función polinómica conocida como polinomios de Taylor, se aplica la fórmula:
(22)
Sabiendo que η es la única variable y el resto constantes, al calcular se obtiene que:
Fisicoquímica de las interfases
11
Introducción estadístico-matemática
f´() = i0  (1-)/RT . e(1-)F/RT - (-F/RT).e-F/RT (-0)
(23)
Evaluado en un punto, para el cual el valor de  = 0 (condiciones de campos bajos):
f´(0)=i0 (1-)F/RT – (-F/RT) (-0) = i0 ( F/RT - F/RT + F/RT) (-0)
f´(0) =(i0F/RT ) (-0) = i0F/RT
(24)
Llegando así a la aproximación para campos bajos:
i i0Fη / RT
(25)
Este caso especial de una reacción electródica, cercana al equilibrio ( pequeño), la cual demuestra
que las reacciones a través de interfaces exhiben comportamiento óhmico en dichas condiciones. La densidad
de corriente es proporcional a la diferencia de potencial producida actual (el sobrepotencial ). Entonces se
puede escribir:
i   M / S ()   M / S X
donde
(26)
 M / S es la conductividad de la interfase metal solución
La aproximación lineal para bajos campos se traza junto con la densidad corriente total en
el gráfico.
Figura n° 5 – representación gráfica I vs η. La línea azul punteada es el diagrama de la aproximación lineal
Fisicoquímica de las interfases
12
Introducción estadístico-matemática
Apéndice A.
A.1. Aproximación de funciones por polinomios
Nos vamos a ocupar aquí de la aproximación local f(x) dada, mediante funciones polinómicas P(x),
que se buscarán. Hemos llamado "local" a esta aproximación por que se realiza para valores de x próximos a
un punto fijo a; las aproximaciones van a ser tanto mejores cuanto más se acerque x al valor a.
Para aproximar a f(x), se recurre a las funciones polinómicas, porque como ya hemos explicado,
éstas funciones son realmente más sencillas y más adecuadas para los cálculos numéricos. Para ir ganando
precisión hay que tomar funciones polinómicas que sean, cada vez, de mayor grado.
Las mejores aproximaciones se obtienen, si f(x) es suficientemente regular, al tomar para P(x)
funciones polinómicas que tienen en x = a las mismas derivadas (primera, segunda, etc,....) que f(x); Éstos,
son los llamados polinomios de Taylor en x = a de f(x). Para medir la bondad de estas aproximaciones se
necesita conocer algún tipo de acotación del error f(x) – P(x); por ello, obtendremos una expresión de esta
diferencia, R(x), que se llama resto o término complementario.
A.2.Aproximación local de una función
Sean, una función f(x) y una función polinómica P(x), donde:
a.
b.
f(a) = P(a)
son n derivables en x = a y se verifica:
f’(a) = P’(a); f’’(a) = P’’(a); f’’’(a) = P’’’(a);........f n(a) = P n(a).
(A1)
Entonces P(x) es una aproximación local de f(x) en x = a.
Tenemos que f(x)-P(x)
cuando
Si comparamos f(x)-P(x) con (x-a); con (x-a)2; con (x-a)3;.......; con (x-a)n ; se dice que P(x) en una
aproximación de f(x) de primer orden, de segundo orden, ...., de orden n, para
si se verifica,
respectivamente que:
f ( x)  P( x)
f ( x)  P( x)
f ( x)  P( x)
f ( x)  P( x)
 0;
 0;
 0;......
0
2
3
xa
( x  a)
( x  a)
( x  a) n
(A2)
Dada una función f(x), se dice que otra función P(x) es una aproximación local de orden n de f(x) cerca de
un punto x = a si se cumple:
lim x  a
f ( x)  P( x)
0
( x  a)n
(A3)
Fisicoquímica de las interfases
13
Introducción estadístico-matemática
Demostración
Sea h
tal que h =
lim x  a
f ( x)  P( x)
( x  a) n
(A4)
Observemos: 1º.- ambas funciones admiten derivada de orden n. 2º.- este límite está indeterminado de la
forma (0/0)
A dicho límite le podemos aplicar la regla de L’Hopital (caso 0/0), sucesivamente, por lo menos hasta el
orden (n-1).
h  lim xa
f ( x)  P( x)
f ( x)  P ( x)
f ( x)  P ( x)
 lim xa
 lim xa
 .........
2
n 1
( x  a)
n( x  a )
n(n  1)(x  a) n 2
.......... lim xa
f n 1 ( x)  P n1 ( x)
1 f n 1 ( x)  P n1 ( x)
 lim xa
n(n  1)(n  2).....3.2( x  a)
n!
( x  a)
Com of n 1 (a)  P n 1 (a)tenem os:
h  lim xa


 

1 f n 1 ( x)  P n 1 ( x) 1
f n 1 ( x)  P n 1 ( x)  f n 1 (a)  P n 1 (a)
 lim xa

n!
( x  a)
n!
( x  a)
1
f n 1 ( x)  f n 1 (a)
P n1 ( x)  P n 1 (a) 
1 n
1
n
lim

lim
xa
 xa
  lim xa f (a)  P (a)  .0  0
n! 
( x  a)
( x  a)
n!
n!

 lim xa


f ( x)  P( x)
0
( x  a) n
L.q.q.d
(A5)
A.3.Polinomio de Taylor
Sea f(x) una función n veces derivable en x = a; P(x) un polinomio, con aproximación local de orden n de f(x)
cerca de x = a.
P(x) se llama POLINOMIO DE TAYLOR de grado n de f(x) siendo P(x):
P( x)  f (a) 
f (a)
f (a)
f (a)
f (a)
( x  a) 
( x  a) 2 
( x  a) 3  .... 
( x  a) n
1!
2!
3!
n!
(A6)
Fisicoquímica de las interfases
14
Introducción estadístico-matemática
Demostración
Por Hipótesis sabemos que:
f(a) = P(a); f’(a) = P’(a); f’’(a) = P’’(a);........f n(a) = P n(a)
(A7)
Expresemos P(x) en forma de potencias de (x – a) con coeficientes indeterminados:
P(x) = p0 + p1(x – a) + p2(x – a)2 + p3(x – a)3 + p4(x – a)4 +……….+pn(x – a)n
(A8)
Hallaremos las derivadas sucesivas de P(x):
P’(x) = p1 + 2.p2(x – a) + 3.p3(x – a)2 +4.p4(x – a)3 +…………...…….+ n.pn(x – a)n –1
(A9)
P’’(x) = 2.p2 + 2.3.p3(x – a) + 3.4.p4(x – a)2 + ……………….+ (n – 1).n.pn(x – a)n – 2
(A10)
P’’’(x) = 2.3.p3 + 2.3.4.p4(x – a) + ……………………..+ (n – 2).(n –1).n.pn(x- a)n – 3
(A11)
...................................................................................................................
Pn(x) = 1.2.3.4.................(n –3)(n – 2)(n – 1).n
(A12)
Sustituyendo x por a, tenemos;
P(a)  P0
P (a)  P1
P (a)  1.2.P2
P (a)  1.2.3.P3

(A13)
...........................
P n (a)  1.2.3.4......(n  3)(n  2)(n  1).n.Pn
f (a)  P0
f (a)  P1

f (a)  1.2.P2
f (a)  1.2.3.P3
(A14)
...........................
f n (a)  1.2.3.4....(n  3)(n  2)(n  1).n.Pn
de donde resulta:
Fisicoquímica de las interfases
15
Introducción estadístico-matemática
p0  f (a)
f (a)
1!
f (a) f (a)
p2 

1.2
2!
f (a) f (a)
p3 

1.2.3
3!
.........................................
pt  f (a) 
pn 
(A15)
f n (a)
f n (a)

1.2.3......((n  2)(n  1)n
n!
Sustituyendo:
P( x)  f (a) 
f (a)
f (a)
f (a)
f (a)
( x  a) 
( x  a) 2 
( x  a) 3  ... 
( x  a) n
1!
2!
3!
n!
(A16)
L.q.q.d
Recordemos que P(x) es próximo a f(x); es decir: f(x) – P(x)
0
(A17)
Designemos por Rn(x) la diferencia entre los valores de la función dada, f(x), y del polinomio calculado.
Rn(x) = f(x) – P(x)
f(x) = P(x) + Rn(x)
(A18)
Desarrollando, tenemos que:
f ( x)  f ( a ) 
f (a)
f (a)
f n (a)
( x  a) 
( x  a) 2  .... 
( x  a) n  Rn ( x)
1!
2!
n!
(A19)
El término Rn(x) se conoce con el nombre de TÉRMINO COMPLEMENTARIO O RESTO.
Fisicoquímica de las interfases
16
Introducción estadístico-matemática
A.4.Fórmula de Taylor
Sea ƒ una función tal que ƒ y sus primeras n derivadas son continuas en el intervalo cerrado [a, b].
Además, considere que ƒ(x) existe para toda x del intervalo abierto (a, b). Entonces existe un número z en el
intervalo abierto (a,b). Tal que:
f (b)  f (a) 
f (a)
f (a)
f n (a)
f n1 ( z )
(b  a) 
(b  a) 2  ... 
(b  a) n 
(b  a) n1
1!
2!
n!
(n  1)!
(A20)
La ecuación anterior también se cumple sí b < a; en tal caso [a, b] se reemplaza por [b, a], y (a, b) se
sustituye por (b, a). Observe que cuando n = 0, la misma se convierte en:
f (b)  f (a)  f ( z )(b  a)
(A21)
Donde z esta entre a y b. Ésta es la conclusión del teorema del valor medio.
Si se reemplaza b por x, se obtiene la fórmula de Taylor:
f ( x)  f ( a ) 
f (a)
f (a)
f n ( a)
f n1 ( z )
( x  a) 
( x  a) 2  ... 
( x  a) n 
( x  a) n1
1!
2!
n!
(n  1)!
(A22)
Donde z esta entre a y x. La condición en la que se cumple la expresión anterior es que ƒ y sus primeras n
derivadas sean continuas en un intervalo cerrado que contenga a a y x, y la (n + 1)-esima derivada de ƒ exista
en todos los puntos del intervalo abierto correspondiente. La formula puede escribirse como:
f ( x)  Pn ( x)  Rn ( x)
(A23)
Fisicoquímica de las interfases
17
Introducción estadístico-matemática
Donde
Pn ( x)  f (a) 
f (a)
f (a)
f n (a)
( x  a) 
( x  a) 2  ... 
( x  a) n
1!
2!
n!
(A24)
Y
Rn ( x) 
f n 1 ( z )
(b  a)n 1
(n  1)!
(A25)
Donde z esta entre a y x
El caso especial de la fórmula de Taylor que se obtiene al considerar a = 0 es
f ( x)  f (0) 
f (0)
f (0) 2
f n (0) n f n 1 ( z ) n 1
x
x  ... 
x 
x
1!
2!
n!
(n  1)!
(A26)
Donde z esta entre 0 y x. Ésta fórmula recibe el nombre de fórmula de Mac Laurin, en honor al matemático
escocés Colin Mac Laurin (1698-1746).
Fisicoquímica de las interfases
18
Descargar