Introducción estadístico-matemática FACULTAD DE CIENCIAS LABORATORIO DE ELECTROQUÍMICA FUNDAMENTAL Introducción estadístico matemática. Consideramos que es de importancia revisar los conceptos de clasificación de errores y aquellos relacionados al sistema de medidas del cual se obtienen los datos a analizar. Los errores asociados a las mediciones pueden dividirse en dos grandes clases: 1.1.Errores sistemáticos. Los errores sistemáticos, tal como su nombre lo indica, se cometen de una misma manera cada vez que se mide. Muchos errores sistemáticos pueden eliminarse aplicando correcciones muy simples. Un ejemplo de la vida diaria está en el ajuste de cero que se encuentra usualmente en las balanzas de uso doméstico. Otro caso de error sistemático es, por ejemplo, el asociado a la medición de la presión atmosférica con un barómetro de mercurio. Allí debe corregirse la lectura por la diferencia en los coeficientes de expansión térmica del mercurio y del material con que está hecha la escala del barómetro. Estos errores son llamados también errores corregibles o determinados, a fines de distinguirlos de los errores aleatorios, los cuales se encuentran en toda medición y están fuera del control del observador. Los errores sistemáticos no se manifiestan como fluctuaciones aleatorias en los resultados de las mediciones. Por lo tanto, dado que el mismo error está involucrado en cada medición, no pueden eliminarse simplemente repitiendo las mediciones varias veces [imagine, por ejemplo, que Ud. utiliza (sin darse cuenta) una regla a la que le faltan dos centímetros en el extremo del cero]. En consecuencia, estos errores son particularmente serios y peligrosos, y pueden eliminarse sólo después de realizar cuidadosas calibraciones y análisis de todas las posibles correcciones. Algunas veces, los errores sistemáticos se manifiestan como un corrimiento en valores medidos consecutivamente o como un cambio en el valor experimental medido cuando se cambia la técnica experimental de medición. 1.2. Errores aleatorios. Los errores aleatorios o accidentales, aparecen como fluctuaciones al azar en los valores de mediciones sucesivas. Estas variaciones aleatorias se deben a pequeños errores que escapan al control del observador. Por ejemplo, si leemos varias veces la presión indicada por la escala de un barómetro, los valores fluctuarán alrededor de un valor medio. Estrictamente hablando, nunca podremos medir el valor verdadero de ninguna cantidad, sino sólo una aproximación. El propósito del tratamiento de los datos experimentales es justamente determinar el valor más probable de una cantidad medida y estimar su confiabilidad. Es entonces importante tener en cuenta el sistema con el que se trabaja y la situación en la cuál se llevan a cabo las medidas correspondientes. Es por eso que se debe considerar el concepto de precisión, la que es una medida del grado con el cual mediciones sucesivas difieren una de otra. La sensibilidad, es la relación de la señal de salida o respuesta del instrumento al cambio de la entrada o variable medida. La resolución, que es el cambio más pequeño en el valor medido para el cual el instrumento responderá. La incertidumbre, es la desviación del valor “verdadero” al valor medido. Y por último, pero no menos importante, la apreciación, es el mínimo registro en la escala de un instrumento. Es, entonces, el resultado final de un proceso de medición un número real, valor de una magnitud física, su unidad correspondiente y un intervalo de confianza. 1.3. Incertidumbre Como fue comentado anteriormente, toda medición por su propia naturaleza lleva asociada consigo un intervalo de incertidumbre. De esta forma el resultado de la medición se debe ser enunciado como el valor de la medida junto con su intervalo de incertidumbre asociado. Fisicoquímica de las interfases 1 Introducción estadístico-matemática Medida ± incertidumbre No hay unificación de criterios para determinar dicho intervalo. 1.4. Incertidumbre estadística 1.4.1. Media, desviación estándar, histograma. Cuando hay fluctuaciones al azar en las medidas como las descritas en el párrafo anterior, en general se supone que la distribución estadística de errores se aproxima a la denominada “distribución de Gauss” o “normal”. Esta distribución se utiliza para interpretar muchos tipos de mediciones físicas, en parte debido a que las circunstancias mecánicas de muchas de éstas guardan estrecha correspondencia con los fundamentos teóricos de dicha distribución, y en parte porque la experiencia demuestra que la estadística Gaussiana proporciona una descripción razonablemente exacta de los sucesos reales. La función de densidad que corresponde a la distribución anteriormente explicada es: f ( x) 1 2 e ( x )2 2 2 (1) siendo la desviación stándard, 2 la varianza, la media de los valores de la muestra y x los valores muestrales en la abscisa. Sólo para otro tipo común de mediciones físicas es más apropiada otra distribución: al observar fenómenos como la desintegración radiactiva se debe emplear la distribución conocida como “distribución de Poisson” de la cual no nos ocuparemos aquí. Pero aún en casos como éste, la diferencia con la estadística de Gauss resulta significativa sólo para muy bajos niveles de ocurrencia. Citemos un ejemplo para ilustrar ésta distribución: supongamos que se hizo oscilar un péndulo particular y se midió el tiempo de una sola oscilación cincuenta veces, y se obtuvo los resultados de la siguiente tabla: Figura nº 1- distribución de resultados pertenecientes a la muestra con la que se trabaja. Fisicoquímica de las interfases 2 Introducción estadístico-matemática Existe un método gráfico que permite determinar la distribución de N resultados de medidas (en este caso de lecturas del periodo de oscilación del péndulo). Tomemos un par de ejes coordenados, si dividimos el eje x en intervalos pequeños de tamaño arbitrario x, podemos colocar en cada intervalo el número de observaciones n que caen en ese intervalo. Obviamente n = N (Esta gráfica se conoce como histograma y tiene un aspecto como el de la figura no.1. Cuanto más grande sea el número N de medidas, más pequeño se puede hacer x sin perder la posibilidad de tener un número considerable de medidas n en cada intervalo. En general en el histograma se grafican en barras las frecuencias absolutas (numero de medidas que caen dentro de un intervalo). También podemos graficar las frecuencias relativas (número de medidas que caen dentro de un intervalo sobre el total de las observaciones n/N). El promedio de los datos y la desviación estándar se calculan de la siguiente forma: x x i (2) N x x 2 i (3) N Los histogramas pueden ser aproximados por una función continua bien definida, que depende de (, x ). La aproximación es mejor cuanto más grande es N y menor x. Por su forma a esta gráfica, y distribución de probabilidad que la origina, se la denomina Campana de Gauss, y x no modifican la forma de la gráfica, sino que actúan como factores de escala. Haciendo cuentas se puede demostrar que la curva presenta un máximo en x = x , es simétrica respecto a este valor medio y sus puntos de inflexión están en x ± . Figura nº 2 – distribución estadística conocida como campana de Gauss Esto es importante porque significa que la dispersión () de la campana de Gauss da una idea del error asociado a la medida. Debe relacionarse intuitivamente que el área encerrada entre dos puntos por la curva de Gauss, corresponde a la probabilidad que una medida caiga dentro de ese intervalo. Cerca del promedio la probabilidad es más alta, mientras que en los extremos se acerca a 0. El valor de la medida generalmente se reporta como sigue: x (4) Fisicoquímica de las interfases 3 Introducción estadístico-matemática Su interpretación es la siguiente: si se efectúa una sola medición con el equipo correspondiente, ésta tiene una probabilidad del 68% de estar incluida en el intervalo x (geométricamente el área bajo la campana de Gauss comprendida en ese intervalo, es el 68% del área total). Si el resultado se reportara como x 2 (como de hecho se podría hacer), se interpretaría diciendo que si efectuamos una medición con nuestro equipo, ésta tendría una probabilidad del 95% de caer en el intervalo x 2 (el área de la curva de la Gaussiana comprendida en este intervalo es el 95% del área total). Obviamente la confiabilidad de los resultados aumenta con el número de mediciones. No es práctico hacer un análisis estadístico para menos de 20 mediciones, sobre todo si se observan grandes desviaciones estándar. 1.5. Incertidumbre absoluta y relativa. Cualquiera que sea el medio por el que se obtiene una medida, y cualquiera que haya sido el tipo de incertidumbre, el resultado final deberá ser un intervalo que representa, los límites dentro de los que se encuentra el valor deseado. Con frecuencia es deseable comparar la magnitud de la incertidumbre con el valor de la medición misma; haciéndolo así se puede evaluar en forma realista cuán significativa es ésta. Se define la razón: Incertidumbre relativa = incertidumbre absoluta / valor medio Este valor aporta un sentido de la calidad de la lectura, y se denomina “precisión” de la medida. Es importante recordar que la incertidumbre relativa es un número adimensional. 1.6. Propagación de incertidumbres 1.6.1. Medición indirecta. Incertidumbres en cantidades calculadas Es raro que el proceso se termine con una sola medición. Generalmente el proceso de medición es indirecto, es decir, el resultado que deseamos es una combinación de dos o más cantidades medidas, o es por lo menos una función calculada a partir de una sola medida. Las incertidumbres (“errores”) asociadas con las magnitudes medidas directamente se propagan al resultado de la medida final. Para tratar ésta propagación de la incertidumbre debemos considerar dos casos: Cuando la incertidumbre no tiene un carácter estadístico y cuando lo tiene. 1.6.2. Propagación de la incertidumbre que no tiene carácter estadístico. Por los métodos del cálculo diferencial se puede demostrar que si la magnitud a medir es y x1 , x2 , x3, xn es una función de varias variables, la incertidumbre absoluta y en su medida, debida a las medidas de las magnitudes y donde los y xi x1 , x2 , x3 , xn será: xi (5) xi son las respectivas incertidumbres absolutas en los x i . Es necesario advertir que para poder usar la expresión anterior en el cálculo de propagación de incertidumbres es necesario que se den las siguientes dos condiciones: El error de cada variable es mucho menor que la propia variable. Las variables son independientes en el siguiente sentido: el valor de una de ellas no afecta en absoluto al valor de la otra. Por ejemplo, la estatura de una persona y su peso no son variables independientes. Si se mide el peso y la estatura de un gran número de personas llegaremos a la conclusión de que generalmente Fisicoquímica de las interfases 4 Introducción estadístico-matemática las personas más altas pesan también más. Esto no es fácil de detectar en muchos casos y omitirlo nos lleva a resultados erróneos. 1.7. Compensación de incertidumbres. Puede darse una situación especial cuando se trata de la medida de una magnitud en forma indirecta, a través de la medida de varias magnitudes. Considere, por ejemplo, la ecuación óptica que relaciona el ángulo de desviación mínima dm en un prisma, el índice de refracción n y el ángulo A del prisma: n 1 A dm 2 1 sen A 2 sen (6) Si A y dm son variables medidas con incertidumbres A y dm , la cantidad n es el resultado requerido, con una incertidumbre n . En este caso no podemos aplicar el método de propagación de errores descrito en la sección anterior, debido a que las variables A y A+ dm no son independientes (el valor de una de ellas afecta el valor de la otra). En ésta situación la incertidumbre asociada al numerador puede compensar a la incertidumbre asociada con el denominador, dando como resultado que la incertidumbre en n no sea tan grande. Para evitar esta dificultad, lo mejor sería reducir la ecuación a una forma en la que todas las variables sean independientes, o bien regresar a los principios básicos (es decir, a los principios físicos que llevaron a tal expresión) y de esta forma ya poder hacer el análisis anterior. Los casos que tienen que ver con incertidumbres que se compensan deben de vigilarse con cuidado, ya que pueden, si se tratan en forma incorrecta, dar lugar a errores en los cálculos de incertidumbre que son difíciles de detectar. 1.8. Propagación de la incertidumbre con carácter estadístico Suponga que desea medir una magnitud física a través de la medida de otras. En el caso de que la recolección de datos para obtener las respectivas medidas justifique un análisis estadístico, es decir que las desviaciones estándar sean confiables, la mejor opción para calcular la desviación estándar de la medida buscada se debe hacer como se indica a continuación. Sea magnitudes z x1 , x2 , x3, xn y 1 , 2 , n las respectivas desviaciones estándar en las medidas de las x1 , x2 , , xn la desviación estándar z para la medida de la magnitud z será: 2 z z i 2 xi (7) 2. Tratamiento de datos. El tratamiento de los datos experimentales es una de las etapas de la post-experimentación más importantes. De su correcta ejecución dependerá que las conclusiones que se obtengan sean válidas. Una vez finalizado un experimento, el experimentador se encuentra con un conjunto de datos que deberá utilizar en forma adecuada para llegar a un determinado fin. Este puede incluir el obtener un valor analítico, comprobar o desarrollar una ley, ajustar los datos a un cierto modelo matemático, etc. Se debe luego realizar un estudio detallado de los diferentes tratamientos de datos, pero ésto sería muy extenso y excedería de lo pretendido en este curso. Por lo tanto, analizaremos aquellos procedimientos de mayor uso en experimentación electroquímica. Fisicoquímica de las interfases 5 Introducción estadístico-matemática 2.1. Ajuste al modelo lineal. El modelo lineal provee una forma ventajosa de analizar los datos experimentales. Supongamos que sobre un cierto conjunto discreto de datos x hacemos una determinada medida y. Cuando dichos datos se ajustan a un modelo lineal del tipo y = A + B.x (8) (A y B constantes) la conclusión que se puede sacar en una primera instancia es tan sencilla y directa como "y es directamente proporcional a x". Esta conclusión de por sí es sumamente importante, pues nos indica que la variable dependiente y varía proporcionalmente con la variable independiente x, lo que nos está introduciendo a un determinado comportamiento que nos permite hacer una primera generalización. Esta generalización es lo que en general busca un experimentador: poder establecer un cierto comportamiento entre dos variables, más que tener pares de datos x,y aislados. 2.1.1.¿Por qué un modelo lineal? Una vez ajustado un modelo matemático a un cierto conjunto de datos experimentales, el experimentador buscará responder preguntas tales como: "¿qué valor de y le corresponderá a un cierto valor de x no medido?", o "¿qué valor de y le corresponderá a un cierto valor de x fuera del rango estudiado?". Responder estas preguntas implica interpolar y extrapolar resultados, respectivamente. Estas operaciones, que veremos más adelante, requiere de métodos matemáticos que, para el caso de un modelo lineal, son sencillos de realizar con una alta precisión. Sin embargo, el modelo lineal no es el único que se ajusta al comportamiento de los datos experimentales. Existen variables que dependen entre sí a través de relaciones logarítmicas, exponenciales, potenciales y aún algunas funciones matemáticas complejas. En la actualidad, el ajuste a otro tipo de modelos matemáticos puede realizarse fácilmente con el uso de computadoras. Sin embargo, las operaciones de interpolación y extrapolación se realizan con mayor precisión para modelos lineales que para otro tipo de modelos matemáticos. Cuando los datos no se ajustan a un modelo lineal, se busca alguna función de x y/o y que sí lo haga. Es decir, se buscan relaciones del tipo: y = A + B.f(x) g(y) = A + B.x g(y) = A + B.f(x) (9) (10) (11) Las funciones f(x) y g(y) pueden ser cualquier tipo de funciones matemáticas sencillas (log, , sen, cos, exp) o complejas (funciones estadísticas, ecuaciones matemáticas). 2.2. Método de los Mínimos Cuadrados Una vez encontradas las funciones adecuadas que permitan relacionar linealmente las variables, se buscará conocer con la mayor confiabilidad posible los valores de A y B. Para ello se recurre a un método con base estadística llamado Método de los Mínimos Cuadrados. Este método permite ajustar la mejor recta que pasa por un cierto conjunto de pares de datos x,y. De acuerdo con este método, los valores de A y B vendrán dados por: Fisicoquímica de las interfases 6 Introducción estadístico-matemática A yx 2 xxy nx 2 (x) 2 B nxyxy nx 2 (x) 2 (12) (n=número de datos, j son parámetros estadísticos). Estos valores de A y B son fácilmente evaluados por cualquier calculadora o computadora. Llegado a este punto, se ha conseguido relacionar dos variables (o alguna función matemática de ellas) a través de una ecuación matemática sencilla. 2.3. Objetivos del ajuste al modelo lineal. Los objetivos que se persiguen cuando se ajustan datos experimentales a un modelo lineal pueden ser variados. A continuación, veremos alguno de ellos, relacionados con medidas electroquímicas. 2.4. Verificación de leyes electroquímicas Muchas veces pueden deducirse teóricamente relaciones entre variables que resultan estar vinculadas (directa o indirectamente) a través de una relación lineal entre ellas. Veamos dos ejemplos: Ejemplo 1. Verificación de la Ley de Tafel La Ley de Tafel establece una relación entre el sobrepotencial () aplicado a una celda electroquímica y la densidad de corriente (j) en la misma. La expresión matemática de dicha ley es: 2.303.RT 2.303.RT log j0 log j nF nF (13) Aquellas reacciones que cumplan con la Ley de Tafel, mostrarán una dependencia lineal entre y log j. Una vez demostrado el cumplimiento de la Ley de Tafel, el ajuste de la recta por Mínimos Cuadrados permite el cálculo de parámetros de importancia como la densidad de corriente límite (j0) y el coeficiente de transferencia () a partir de la ordenada en el origen y de la pendiente respectivamente. Ejemplo 2. Verificación de la Ley de Kohlrausch La Ley de Kohlrausch prevé un comportamiento lineal entre la conductancia molar y la raíz cuadrada de la concentración para los electrolitos verdaderos, pero no para los potenciales. 0 B C (14) Cuando se grafican los datos experimentales para un electrolito verdadero y uno potencial, el hecho de obtener una recta para los primeros pero no para los últimos permite obtener, como primera conclusión, que los electrolitos verdaderos siguen la Ley de Kohlrausch, mientras que los potenciales no lo hacen. En forma secundaria, esta relación lineal permite calcular, por mínimos cuadrados, el valor de la conductancia molar a dilución infinita (0). Fisicoquímica de las interfases 7 Introducción estadístico-matemática En los dos casos mencionados, se poseía una relación teórica, la que debía ser comprobada por ajuste a un modelo lineal de los datos experimentales. En estos casos, el ajuste correcto al modelo lineal no solo permite calcular parámetros de interés, sino que también permite comprobar que la relación teórica planteada se ajusta a la realidad. 2.5. Determinación de parámetros fisicoquímicos Dada una ecuación del tipo y = A + B.x (15) Si se conoce el valor de A y se quiere determinar el valor de B, bastaría con un par de datos x,y para conocerlo. Si tanto A como B son desconocidos, dos pares de datos x,y nos ayudarían a resolver el problema. Sin embargo, es conveniente evaluar los valores de A y/o B con un conjunto de datos x,y, pues: i) permite evaluar la constancia del valor de B en un rango de valores de x. ii) La evaluación de A y B en un rango de valores de x es más confiable que la realizada por el uso de la mínima cantidad de datos experimentales necesarias para obtener los resultados (esta mínima cantidad es igual al número de incógnitas que se quieran resolver). En este caso, graficando los datos experimentales x, y para un rango dado de valores de x, se pueden evaluar los valores de A y B por el Método de los Mínimos Cuadrados. Veamos algunos ejemplos de aplicación en Electroquímica. Ejemplo 1. Determinación de la constante de disociación Ka de un ácido débil. Por medidas de conductancia molar () de soluciones de distinta concentración C de un ácido débil, se llega a la relación: 1 1 1 C K a 20 0 (16) Que responde a una ecuación lineal del tipo (16), con g(y) = 1/ y f(x) =C. Es decir, y C no se relacionan linealmente entre sí, pero dos funciones matemáticas de ellas sí lo hacen. Graficando 1/ vs. C, obtiene 0 de la ordenada en el origen, y Ka de la pendiente. Ejemplo 2. Determinación del Eº de un par redox Para una reacción del tipo Ox + ne Red (17) la ecuación de Nernst correspondiente se puede escribir como: Conociendo los valores de Ox/Red, y los potenciales correspondientes medidos se grafica E vs. LnOx/Red y se obtiene Eº de la ordenada en el origen. Fisicoquímica de las interfases 8 Introducción estadístico-matemática E E º Ox RT ln nF Re d (18) Ejemplo 3. Determinación del coeficiente de temperatura de una celda galvánica Si se mide el potencial (V) de una celda galvánica a distintas temperaturas (T), ambas magnitudes pueden relacionarse por una ecuación lineal: V = A + B.T (19) donde B representa el coeficiente de temperatura (V/T)P. En ambos casos, se buscó obtener una recta para de ella calcular ciertos parámetros de interés, aplicando para ese fin el método de los Mínimos Cuadrados, por representar la mejor estimación de la recta. 2.6. Confiabilidad del ajuste al modelo lineal. Existen varios parámetros y pruebas estadísticas que permiten establecer el grado de confiabilidad del ajuste realizado. La información aportada por cada uno de ellos es diferente, y el uso de los mismos como criterio de confiabilidad debe ser usado con cautela. 2.6.1.Coeficiente de correlación r Este coeficiente surge de la aplicación del método de Mínimos Cuadrados, y se calcula por medio de: r nx nxy xy 2 (x) 2 . ny 2 (y ) 2 (20) Adopta valores acotados entre 0 < r < 1, e indica un buen ajuste cuanto más cercano esté a 1 su valor. En general, se considera que un coeficiente de correlación con un valor mayor de 0.995 es aceptable. Sin embargo esto puede traer como consecuencia el sacar conclusiones erróneas en una experimentación. Veamos el siguiente ejemplo. Supongamos que deducimos teóricamente que para que se cumpla cierta ley, las variables x e y deben relacionarse linealmente de acuerdo con y= A + B.x. Cuando se grafican los puntos experimentales se obtiene el siguiente gráfico que, por Mínimos Cuadrados, da la mejor recta que se muestra en él. Una vez determinado el coeficiente de correlación, éste es superior a 0.995. Fisicoquímica de las interfases 9 Introducción estadístico-matemática y x Figura n° 3 – representación gráfica obtenida en el procesamiento de datos aplicado el método de mínimos cuadrados La primera conclusión que sacaríamos basándonos en este valor de r sería que x e y siguen dicha ley en estudio. Sin embargo, un examen minucioso de los puntos revela que los mismos muestran una tendencia que no es lineal, sino logarítmica. De hecho, al grafica y vs. ln(x) se obtiene: y ln(x) Figura n° 4 – representación logarítmica de los valores representados previamente en la fig. n°3 Esto nos lleva a concluir que x e y no siguen la ley en estudio, la conclusión opuesta a la que nos lleva el análisis del valor de r. 2.7. Probabilidad Otro parámetro que se puede analizar es la probabilidad P de que la recta ajustada no sea una recta. Este valor de Probabilidad surge de la distribución Gaussiana de los errores. Para fines analíticos, dicha probabilidad se suele establecer en un 1% (P<0.01), mientras que para datos biológicos, por su natural variabilidad, se establece en un 5% (P<0.05). Estos valores de probabilidad, que son calculados por la mayoría de los programas de computación de análisis de datos, permiten obtener la confiabilidad de la recta obtenida desde un punto de vista estadístico. ¿Cómo se usa el dato de probabilidad? En el ejemplo anterior, si el valor de P para el ajuste lineal entre x e y es P>0.01, dicho ajuste se descarta por no ser confiable. Si ambos ajustes, y,x e y,ln(x) presentan valores de P<0.01, se puede decir que, desde el punto de vista estadístico, ambos ajustes son confiables. En este caso, la ley en estudio se cumpliría con un grado de confianza del 99%. Fisicoquímica de las interfases 10 Introducción estadístico-matemática 2.8. Interpolación y extrapolación. Como se comentó previamente, el método de ajuste a una recta es el mejor cuando se quieren hacer interpolaciones y extrapolaciones. El ajuste a una recta se hace dentro de un intervalo de valores de x experimentales. Dentro de dicho intervalo, una vez ajustada la recta, el experimentador puede asegurar, con un grado de confianza provisto por P, que cualquier dato de x dentro de dicho intervalo tendrá una respuesta y dada por la ecuación de la recta ajustada. La interpolación se realiza utilizando la ecuación de la recta ajustada, pudiéndose obtener los valores tanto de x como de y. La extrapolación consiste en obtener un valor fuera del rango experimental. En este caso, el cálculo de dicho valor también se hace usando la ecuación de la recta ajustada, pero el experimentador debe asumir que fuera del rango experimental, el comportamiento lineal obtenido sigue siendo el mismo. Un ejemplo de la aplicación de la extrapolación en Electroquímica es la determinación de los valores de conductancia molar a dilución infinita. Físicamente, no se pueden obtener diluciones infinitas, por ser éste un concepto abstracto; esto es, equivaldría a trabajar a concentración nula, lo cual no tiene sentido físico. Por lo tanto, la única forma de obtener dichos valores es por extrapolación en un gráfico contra concentraciones, y obtener el valor del corte de la recta a concentración nula. 3. Cálculo aplicado a funciones polinómicas. Uno de los objetivos primordiales es aprender como funcionan las aproximaciones polinómicas, ya que es de gran importancia para poder así calcular las funciones logarítmicas, exponenciales y trigonométricas. También así, darle una visión más amplia al estudiante sobre este tema, llevando un lenguaje no tan extenso y más centrado en lo práctico y lo necesario para poder realizarse este tipo de cálculos matemáticos, que en el cálculo diferencial e integral, encontramos infinidad de temas que a veces no nos llaman la atención de practicar. 3.1. Aplicación de polinomios de Taylor a la ecuación de Butler – Volmer. 3.1.1. Aproximación para campos bajos. La ley de combinación lineal de exponenciales para campos altos ha sido derivada despreciando una de las corrientes que constituyen la densidad de corriente neta i. La ley para campos bajos es obtenida ampliando los exponenciales y puesto que η es por definición pequeño en esta aproximación, conservando solamente los primeros dos términos de la extensión de cada término exponencial: i=i0(e(1-)Fη/RT - e -Fη/RT) (21) Y aplicando la función polinómica conocida como polinomios de Taylor, se aplica la fórmula: (22) Sabiendo que η es la única variable y el resto constantes, al calcular se obtiene que: Fisicoquímica de las interfases 11 Introducción estadístico-matemática f´() = i0 (1-)/RT . e(1-)F/RT - (-F/RT).e-F/RT (-0) (23) Evaluado en un punto, para el cual el valor de = 0 (condiciones de campos bajos): f´(0)=i0 (1-)F/RT – (-F/RT) (-0) = i0 ( F/RT - F/RT + F/RT) (-0) f´(0) =(i0F/RT ) (-0) = i0F/RT (24) Llegando así a la aproximación para campos bajos: i i0Fη / RT (25) Este caso especial de una reacción electródica, cercana al equilibrio ( pequeño), la cual demuestra que las reacciones a través de interfaces exhiben comportamiento óhmico en dichas condiciones. La densidad de corriente es proporcional a la diferencia de potencial producida actual (el sobrepotencial ). Entonces se puede escribir: i M / S () M / S X donde (26) M / S es la conductividad de la interfase metal solución La aproximación lineal para bajos campos se traza junto con la densidad corriente total en el gráfico. Figura n° 5 – representación gráfica I vs η. La línea azul punteada es el diagrama de la aproximación lineal Fisicoquímica de las interfases 12 Introducción estadístico-matemática Apéndice A. A.1. Aproximación de funciones por polinomios Nos vamos a ocupar aquí de la aproximación local f(x) dada, mediante funciones polinómicas P(x), que se buscarán. Hemos llamado "local" a esta aproximación por que se realiza para valores de x próximos a un punto fijo a; las aproximaciones van a ser tanto mejores cuanto más se acerque x al valor a. Para aproximar a f(x), se recurre a las funciones polinómicas, porque como ya hemos explicado, éstas funciones son realmente más sencillas y más adecuadas para los cálculos numéricos. Para ir ganando precisión hay que tomar funciones polinómicas que sean, cada vez, de mayor grado. Las mejores aproximaciones se obtienen, si f(x) es suficientemente regular, al tomar para P(x) funciones polinómicas que tienen en x = a las mismas derivadas (primera, segunda, etc,....) que f(x); Éstos, son los llamados polinomios de Taylor en x = a de f(x). Para medir la bondad de estas aproximaciones se necesita conocer algún tipo de acotación del error f(x) – P(x); por ello, obtendremos una expresión de esta diferencia, R(x), que se llama resto o término complementario. A.2.Aproximación local de una función Sean, una función f(x) y una función polinómica P(x), donde: a. b. f(a) = P(a) son n derivables en x = a y se verifica: f’(a) = P’(a); f’’(a) = P’’(a); f’’’(a) = P’’’(a);........f n(a) = P n(a). (A1) Entonces P(x) es una aproximación local de f(x) en x = a. Tenemos que f(x)-P(x) cuando Si comparamos f(x)-P(x) con (x-a); con (x-a)2; con (x-a)3;.......; con (x-a)n ; se dice que P(x) en una aproximación de f(x) de primer orden, de segundo orden, ...., de orden n, para si se verifica, respectivamente que: f ( x) P( x) f ( x) P( x) f ( x) P( x) f ( x) P( x) 0; 0; 0;...... 0 2 3 xa ( x a) ( x a) ( x a) n (A2) Dada una función f(x), se dice que otra función P(x) es una aproximación local de orden n de f(x) cerca de un punto x = a si se cumple: lim x a f ( x) P( x) 0 ( x a)n (A3) Fisicoquímica de las interfases 13 Introducción estadístico-matemática Demostración Sea h tal que h = lim x a f ( x) P( x) ( x a) n (A4) Observemos: 1º.- ambas funciones admiten derivada de orden n. 2º.- este límite está indeterminado de la forma (0/0) A dicho límite le podemos aplicar la regla de L’Hopital (caso 0/0), sucesivamente, por lo menos hasta el orden (n-1). h lim xa f ( x) P( x) f ( x) P ( x) f ( x) P ( x) lim xa lim xa ......... 2 n 1 ( x a) n( x a ) n(n 1)(x a) n 2 .......... lim xa f n 1 ( x) P n1 ( x) 1 f n 1 ( x) P n1 ( x) lim xa n(n 1)(n 2).....3.2( x a) n! ( x a) Com of n 1 (a) P n 1 (a)tenem os: h lim xa 1 f n 1 ( x) P n 1 ( x) 1 f n 1 ( x) P n 1 ( x) f n 1 (a) P n 1 (a) lim xa n! ( x a) n! ( x a) 1 f n 1 ( x) f n 1 (a) P n1 ( x) P n 1 (a) 1 n 1 n lim lim xa xa lim xa f (a) P (a) .0 0 n! ( x a) ( x a) n! n! lim xa f ( x) P( x) 0 ( x a) n L.q.q.d (A5) A.3.Polinomio de Taylor Sea f(x) una función n veces derivable en x = a; P(x) un polinomio, con aproximación local de orden n de f(x) cerca de x = a. P(x) se llama POLINOMIO DE TAYLOR de grado n de f(x) siendo P(x): P( x) f (a) f (a) f (a) f (a) f (a) ( x a) ( x a) 2 ( x a) 3 .... ( x a) n 1! 2! 3! n! (A6) Fisicoquímica de las interfases 14 Introducción estadístico-matemática Demostración Por Hipótesis sabemos que: f(a) = P(a); f’(a) = P’(a); f’’(a) = P’’(a);........f n(a) = P n(a) (A7) Expresemos P(x) en forma de potencias de (x – a) con coeficientes indeterminados: P(x) = p0 + p1(x – a) + p2(x – a)2 + p3(x – a)3 + p4(x – a)4 +……….+pn(x – a)n (A8) Hallaremos las derivadas sucesivas de P(x): P’(x) = p1 + 2.p2(x – a) + 3.p3(x – a)2 +4.p4(x – a)3 +…………...…….+ n.pn(x – a)n –1 (A9) P’’(x) = 2.p2 + 2.3.p3(x – a) + 3.4.p4(x – a)2 + ……………….+ (n – 1).n.pn(x – a)n – 2 (A10) P’’’(x) = 2.3.p3 + 2.3.4.p4(x – a) + ……………………..+ (n – 2).(n –1).n.pn(x- a)n – 3 (A11) ................................................................................................................... Pn(x) = 1.2.3.4.................(n –3)(n – 2)(n – 1).n (A12) Sustituyendo x por a, tenemos; P(a) P0 P (a) P1 P (a) 1.2.P2 P (a) 1.2.3.P3 (A13) ........................... P n (a) 1.2.3.4......(n 3)(n 2)(n 1).n.Pn f (a) P0 f (a) P1 f (a) 1.2.P2 f (a) 1.2.3.P3 (A14) ........................... f n (a) 1.2.3.4....(n 3)(n 2)(n 1).n.Pn de donde resulta: Fisicoquímica de las interfases 15 Introducción estadístico-matemática p0 f (a) f (a) 1! f (a) f (a) p2 1.2 2! f (a) f (a) p3 1.2.3 3! ......................................... pt f (a) pn (A15) f n (a) f n (a) 1.2.3......((n 2)(n 1)n n! Sustituyendo: P( x) f (a) f (a) f (a) f (a) f (a) ( x a) ( x a) 2 ( x a) 3 ... ( x a) n 1! 2! 3! n! (A16) L.q.q.d Recordemos que P(x) es próximo a f(x); es decir: f(x) – P(x) 0 (A17) Designemos por Rn(x) la diferencia entre los valores de la función dada, f(x), y del polinomio calculado. Rn(x) = f(x) – P(x) f(x) = P(x) + Rn(x) (A18) Desarrollando, tenemos que: f ( x) f ( a ) f (a) f (a) f n (a) ( x a) ( x a) 2 .... ( x a) n Rn ( x) 1! 2! n! (A19) El término Rn(x) se conoce con el nombre de TÉRMINO COMPLEMENTARIO O RESTO. Fisicoquímica de las interfases 16 Introducción estadístico-matemática A.4.Fórmula de Taylor Sea ƒ una función tal que ƒ y sus primeras n derivadas son continuas en el intervalo cerrado [a, b]. Además, considere que ƒ(x) existe para toda x del intervalo abierto (a, b). Entonces existe un número z en el intervalo abierto (a,b). Tal que: f (b) f (a) f (a) f (a) f n (a) f n1 ( z ) (b a) (b a) 2 ... (b a) n (b a) n1 1! 2! n! (n 1)! (A20) La ecuación anterior también se cumple sí b < a; en tal caso [a, b] se reemplaza por [b, a], y (a, b) se sustituye por (b, a). Observe que cuando n = 0, la misma se convierte en: f (b) f (a) f ( z )(b a) (A21) Donde z esta entre a y b. Ésta es la conclusión del teorema del valor medio. Si se reemplaza b por x, se obtiene la fórmula de Taylor: f ( x) f ( a ) f (a) f (a) f n ( a) f n1 ( z ) ( x a) ( x a) 2 ... ( x a) n ( x a) n1 1! 2! n! (n 1)! (A22) Donde z esta entre a y x. La condición en la que se cumple la expresión anterior es que ƒ y sus primeras n derivadas sean continuas en un intervalo cerrado que contenga a a y x, y la (n + 1)-esima derivada de ƒ exista en todos los puntos del intervalo abierto correspondiente. La formula puede escribirse como: f ( x) Pn ( x) Rn ( x) (A23) Fisicoquímica de las interfases 17 Introducción estadístico-matemática Donde Pn ( x) f (a) f (a) f (a) f n (a) ( x a) ( x a) 2 ... ( x a) n 1! 2! n! (A24) Y Rn ( x) f n 1 ( z ) (b a)n 1 (n 1)! (A25) Donde z esta entre a y x El caso especial de la fórmula de Taylor que se obtiene al considerar a = 0 es f ( x) f (0) f (0) f (0) 2 f n (0) n f n 1 ( z ) n 1 x x ... x x 1! 2! n! (n 1)! (A26) Donde z esta entre 0 y x. Ésta fórmula recibe el nombre de fórmula de Mac Laurin, en honor al matemático escocés Colin Mac Laurin (1698-1746). Fisicoquímica de las interfases 18