Contenido 4.1 Lista de estimadores a obtener de la simulación...........................................................................2 4.1.1 Instrumentos de medición ..................................................................................................2 4.1.2 Medios de registro de datos .............................................................................................2 4.2. Identificación del estimador determinante (estimador líder) del tamaño de la simulación. .......4 4.3 Muestras preliminares de los proyectos aprobados en 3.4...........................................................6 4.4 Características estadísticas del estimador lider .............................................................................6 4.4.1 Establecimiento de la precisión ..................................................................................................8 4.4.2 Cálculo del número mínimo de observaciones necesarias ..................................................... 10 Método Estadístico............................................................................................................. 10 4.4.3 Intervalos de confianza ............................................................................................................ 16 4.3.5 Muestras grandes: Prueba de Karl-Pearson para ajuste de una distribución de probabilidades hipotética, discreta o continúa con (hoja de cálculo o con paquete de estadístico). ...................... 18 4.5.4 Otras Pruebas (Anderson-Darling), Prueba G .......................................................................... 21 El estadístico de Anderson-Darling ............................................................................................... 21 ¿Qué es el estadístico de Anderson-Darling? ....................................................................... 21 Prueba G o prueba del logaritmo de la razón de Verosimilitudes ................................................ 23 Formula ......................................................................................................................................... 23 Función de verosimilitud para distribuciones continuas .............................................................. 24 4.6 Simulación de los comportamientos aleatorios de los proyectos y su verificación. ................. 26 Sistemas, modelos y simulación ................................................................................................... 26 Tipos de sistemas .......................................................................................................................... 27 Sistemas estáticos y sistemas dinámicos .................................................................................. 28 Sistemas deterministas y sistemas estocásticos. ...................................................................... 28 Sistemas continuos y sistemas discretos .................................................................................. 28 Tipos de modelos .......................................................................................................................... 28 Necesidad de la simulación........................................................................................................... 29 Verificación. .............................................................................................................................. 30 Ventajas de la simulación ............................................................................................................. 30 Bibliografía ........................................................................................................................................ 32 4.1 Lista de estimadores a obtener de la simulación Definiremos algunas propriedades de los estimadores. 1) Parámetro. Verdadero valor de una caracterı́stica de interes, denominado por θ, que raramente es conocido. 2) Estimativa. Valor numérico obtenido por el estimador, denominado de θ̂ en una m uestra. 3) Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es dado por: vies(θ̂) = E(θ ˆ θ) = E(θ̂) − θ Cuadrado médio del error (ECM). Es dado por: ECM (θ̂) = E(θ̂ − θ)2 = V (θ̂) + (vies 1) Un estimador es consistente si: plim(θ̂) = θ ; y lim −→ ∞ECM (θ̂) = 0 2) Las leyes de los grandes números explican por qué el promedio o media de una muestra al azar de una población de gran tamaño tenderá a estar cerca de la media de la población completa. 4.1.1 Instrumentos de medición El análisis de la literatura existente arroja un resultado de 17 instrumentos de medida de las actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos elaborados a partir de escalas bipolares, a la manera del diferencial semántico de Osgood (Birenbaum y Eylath, 1994; Green, 1993), todos los instrumentos revisados son escalas tipo Likert. En lo que sigue vamos a describir brevemente estos cuestionarios, poniendo un mayor énfasis en aquellos que han sido usados más frecuentemente. 4.1.2 Medios de registro de datos La elección del método depende de la estrategia de recopilación de datos, el tipo de variable, la precisión necesaria, el punto de recopilación y la formación del encuestador. Las vínculos entre una variable, su origen y los métodos prácticos para su recopilación. Pueden ayudar a escoger métodos apropiados. Los principales métodos de recopilación de datos son: Registros: los registros y licencias son particularmente valiosos para los censos completos, pero se limitan a variables que cambian lentamente, como el número de embarcaciones pesqueras y sus características. Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un método poco costoso que resulta útil cuando los índices de alfabetización son altos y los encuestados colaboran. Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el encuestado. Más caros que los cuestionarios, pero mejores para preguntas más complejas, y cuando se dan unos índices de alfabetización bajos o se encuentra menos colaboración. Observaciones directas: la realización de mediciones directas es el método más preciso para todas las variables, como las capturas, pero a menudo resulta caro. Muchos métodos, como los programas de observación, se limitan a la pesca industrial. Presentación de informes: la principal alternativa a la realización de mediciones directas consiste en pedir a los pescadores y a terceros que presenten informes de sus actividades. La preparación de informes presupone la alfabetización y requiere espíritu de colaboración, pero ello puede reforzarse mediante una obligación legal y mediciones directas. Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen de: a- El tipo de investigación que se esté haciendo. b- El tipo de análisis de datos que vamos a utilizar posteriormente. c- El problema que queramos estudiar. d- Los objetivos que pretendamos alcanzar con la investigación. Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se puede utilizar en: investigación acción, en estudios de caso, en investigación etnográfica, etc. 4.2. Identificación del estimador determinante (estimador líder) del tamaño de la simulación. Por definición, el valor de una variable cambia conforme avanza la simulación, aunque se le debe dar un valor inicial. Cabe recordar que el valor de un parámetro permanece constante; sin embargo, puede cambiar conforme se estudian diferentes alternativas en otras simulaciones. Determinación de condiciones iniciales La determinación de condiciones iniciales para las variables es una decisión táctica importante en la simulación. Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta que el modelo llega a un estado estable. Para manejar este problema, los analistas han seguido varios planteamientos como 1) Descartar los datos generados durante las primeras partes de la ejecución, 2) Seleccionar las condiciones iniciales que reducen la duración del periodo de calentamiento o 3) Seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para emplear cualquiera de estas alternativas, el analista debe tener una idea del margen de datos de salida esperado. Por lo tanto, en cierto sentido, el analista sesga los resultados. Por otro lado, una de las únicas características de la simulación es que permite la crítica en el diseño y análisis de la simulación; por lo que si el analista tiene cierta información que alberga un problema, se debe incluir. Determinación de duración de la ejecución La duración de la ejecución de simulación (duración de la ejecución o tiempo de ejecución) depende del propósito de la simulación. Quizás el planteamiento más común sea continuar la simulación hasta lograr un equilibrio. En el ejemplo del mercado de pescado, significaría que las ventas simuladas de pescado corresponden a sus frecuencias relativas históricas. Otro planteamiento es ejecutar la simulación durante un periodo establecido como 1 mes, 1 año o una década y ver si las condiciones al final del periodo son razonables. Un tercer planteamiento es establecer la duración de la ejecución de modo que se obtenga una muestra suficientemente grande para efectos de pruebas de hipótesis estadística. Esta alternativa se considera en la siguiente sección. Desde luego que las conclusiones que se pueden obtener de una simulación dependen del grado en que el modelo refleja el sistema real, aunque también depende del diseño de la simulación en un sentido estadístico. De hecho, muchos analistas consideran la simulación como una forma de prueba de hipótesis donde cada ejecución de simulación ofrece uno o más datos de muestra que son susceptibles al análisis formal a través de los métodos estadísticos inferenciales. Los procedimientos estadísticos que normalmente se usan en la evaluación de resultados de simulación incluyen el análisis de varianza, análisis de regresión y pruebas t. En la mayoría de las situaciones, el análisis tiene más información disponible con la cual comparar los resultados de simulación: datos operativos antiguos del sistema real, datos operativos del desempeño de sistemas semejantes y la percepción del analista de la operación del sistema real. Sin embargo, se debe admitir que la información obtenida de estas fuentes probablemente no sea suficiente para validar las conclusiones derivadas de la simulación. Por lo tanto, la única prueba real de una simulación es qué tan bien se desempeña el sistema real después de haber implantado los resultados del estudio. Un requerimiento lógico para un estimador es que su precisión mejore al aumentar el tamaño muestral. Es decir, que esperaremos obtener mejores estimaciones cuanto mayor sea el número de individuos. Si se cumple dicho requerimiento, diremos que un estimador es consistente. Desde un punto de vista más riguroso diremos que un estimador es consistente si converge en probabilidad al verdadero valor del parámetro que queremos estimar. Ejemplo: Consideremos el caso de la estimación de la media de una población Normal (μ) y consideraremos dos estimadores: Estimador 1: La primera observación de la muestra (para cualquier tamaño muestral). Estimador 2: La media aritmética de las observaciones. Para observar el comportamiento de ambos estimadores utilizaremos el siguiente programa que genera automáticamente diez muestras de diferentes tamaños (n = 2; 10 ; 50; 500) procedentes de una distribución Normal de parámetros (μ = 0; σ = 1). Se tratará, por tanto, de un estudio de simulación (generamos muestras procedentes de una determinada distribución) para comparar el comportamiento de ambos estimadores. Recuerda que el verdadero valor del parámetro a estimar (μ) es cero y que corresponde a la línea central en negro: 1) Comparad los valores del estimador 1 (primera observación) para los diferentes tamaños muestrales (n = 2; 10; 50; 500). 2) Haced lo mismo con el estimador 2: media aritmética. 3) Obtened nuevas simulaciones y repetid el estudio anterior. 4) ¿Mejora el resultado de algún estimador al aumentar el tamaño de la muestra? Es evidente que el estimador correspondiente a la primera observación no mejora al aumentar el tamaño de la muestra. Mientras que la media aritmética converge hacia el verdadero valor del parámetro (μ = 0) al aumentar el tamaño de la muestra. En resumen: la primera observación no es un estimador consistente de μ, mientras que la media aritmética sí que lo es. 4.3 Muestras preliminares de los proyectos aprobados en 3.4 4.4 Características estadísticas del estimador lider Hay una serie de características deseables en los estimadores para que éstos constituyan una buena aproximación a los respectivos parámetros. Se trata de rasgos que podrían entenderse como criterios de calidad de los estimadores. 1. Carencia de sesgo. Se dice que un estimador es insesgado si el valor esperado de su distribución de probabilidad es igual al parámetro. Es decir, si es igual a Ө la media de los valores Ê calculados en cada una de las muestras aleatorias posibles del mismo tamaño. Si el estadístico Ê es utilizado como estimador del parámetro Ө, ese estimador carece de sesgo cuando E(Ê) = Ө Por ejemplo, la media [D] es un estimador insesgado de µ, puesto que se cumple, tal y como vimos en el capítulo anterior al estudiar la distribución muestral del estadístico media, que E( [D]) = µ En el caso de la varianza, suelen manejarse habitualmente dos estimadores: [D] o bien, [D]. Para cada uno de ellos, el valor esperado resulta ser: [D] El segundo de los estimadores posee la característica de ser un estimador insesgado de σ2, razón por la que suele emplearse con más frecuencia que el primero a la hora de estimar el parámetro varianza poblacional. Cuando E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) > Ө, o que tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer sistemáticamente valores que se alejan en un sentido u otro del parámetro, aunque la muestra sea elegida aleatoriamente. Consistencia. Un estimador Ê es consistente si, además de carecer de sesgo, se aproxima cada vez más al valor del parámetro a medida que aumenta el tamaño de la muestra. Si el tamaño n se hace indefinidamente grande, los valores de Ê se concentran cada vez más en torno al valor del parámetro, hasta que con un tamaño 2. muestral infinito obtenemos una varianza del estimador nula. Por tanto, un estimador es consistente si cuando n tiende a infinito se cumple E(Ê) = Ө; var(Ê) = 0 La media es un estimador consistente del parámetro µ, puesto que se verifican las condiciones anteriores. Es decir. [D] También se comprueba que los dos estimadores de la varianza, presentados en el apartado anterior, resultan ser estimadores consistentes de σ2. 3. Eficiencia. La eficiencia de un estimador está vinculada a su varianza muestral. Así, para un mismo parámetro Ө, se dice que el estimador Ê1 es más eficiente que el estimador Ê2 si se cumple var(Ê1) < var(Ê2) Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de unas muestras a otras. Se demuestra que la media es un estimador del parámetro µ más eficiente que la mediana. Del mismo modo, la varianza Sn-12 es un estimador de σ2 más eficiente que Sn2. 4. Suficiencia. Un estimador es suficiente cuando en su cálculo se emplea toda la información de la muestra. Por ejemplo, al calcular el estimador [D] del correspondiente parámetro poblacional, utilizamos la fórmula: [D] para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi. Otro tanto ocurre con los estimadores Sn-12 y Sn2 de la varianza. Todos ellos pueden ser considerados estimadores suficientes de los respectivos parámetros. 4.4.1 Establecimiento de la precisión Sea H un intervalo cualquiera definido sobre la recta real. Definiremos ahora una variable ficticia, XH , de la siguiente forma: De manera que cada observación de Xt Ileva asociada una observación -con valor o ó 1- de la variable XNr . La función de densidad teórica -desconocida- de Xt asigna una probabilidad pH al intervalo H. Esto significa que: Producir T replicaciones del vector y, implica disponer de una muestra de T “observaciones" de la variable real X. Esta muestra lleva asociada, a su vez, una muestra de tamaño T de la variable Xy .Esta variable sigue una distribución binaria de parámetro pH , así que la suma de las T observaciones de XH , ZH = XH^ +. ,.+ X y T , sigue una distribución binomial b(pH ,^. Es oportuno aquí hacer una adaptación al presente contexto del concepto de estimación precisa de Finster{ 1987) Definición 1. ,ZH /T es una estimación precisa de pN con nivel de imprecisión A y confianza 1-a (can 0< cx < 1), si EI conjunta de precisión [-A, A] es el conjunto de errores de simulación aceptables. En lo que sigue a continuación se intentará determinar cuál es el número de replicaciones mínimo para obtener una estimación de pH can nivel de imprecisión fijo A y confianza 1-a. EI teorema de Moivre (ver por ejemplo Fz. de Trocóniz 1993) prueba que la sucesión b(pH ,1), b(pH ,2),. ..,b(pH , 7^, es asintóticamente normal N{T pH ,T p^ [1- pH ]) de manera que si T pH > 1 S se suele tomar como válida la siguiente aproximación a la distribución de ZH : entonces, para la frecuencia binomial, ZH IT, se tiene : Si t^ es el cuantil aJ2 correspondiente a la cola derecha de la distribución N(0,1), 4.4.2 Cálculo del número mínimo de observaciones necesarias El tamaño de la muestra o cálculo de número de observaciones es un proceso vital en la etapa de cronometraje, dado que de este depende en gran medida el nivel de confianza del estudio de tiempos. Este proceso tiene como objetivo determinar el valor del promedio representativo para cada elemento. Los métodos más utilizados para determinar el número de observaciones son: Método estadístico Método tradicional Método Estadístico MÉTODO ESTADÍSTICO El método estadístico requiere que se efectúen cierto número de observaciones preliminares (n'), para luego poder aplicar la siguiente fórmula: NIVEL DE CONFIANZA DEL 95,45% Y UN MÁRGEN DE ERROR DE ± 5% Siendo: n = Tamaño de la muestra que deseamos calcular (número de observaciones) n' = Número de observaciones del estudio preliminar Σ = Suma de los valores x = Valor de las observaciones. 40 = Constante para un nivel de confianza de 94,45% Ejemplo Se realizan 5 observaciones preliminares, los valores de los respectivos tiempos transcurridos en centésimas de minuto son: 8, 7, 8, 8, 7. Ahora pasaremos a calcular los cuadrados que nos pide la fórmula: 8 8 64 7 49 8 64 8 64 7 49 Σx = 38 Σx² = 290 7 8 8 7 N' = 5 Sustituyendo estos valores en la fórmula anterior tendremos el valor de n: Dado que el número de observaciones preliminares (5) es inferior al requerido (7), debe aumentarse el tamaño de las observaciones preliminares, luego recalcular n. Puede ser que en recálculo se determine que la cantidad de 7 observaciones sean suficientes. Este método consiste en seguir el siguiente procedimiento sistemático: 1) Realizar una muestra tomando 10 lecturas sí los ciclos son <= 2 minutos y 5 lecturas sí los ciclos son > 2 minutos, esto debido a que hay más confiabilidad en tiempos más grandes, que en tiempos muy pequeños donde la probabilidad de error puede aumentar. 2) Calcular el rango o intervalo de los tiempos de ciclo, es decir, restar del tiempo mayor el tiempo menor de la muestra: R (Rango) = Xmax - Xmin 1) Calcular la media aritmética o promedio: Siendo: Σx = Sumatoria de los tiempos de muestra n = Número de ciclos tomados Hallar el cociente entre rango y la media: 2) Buscar ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el número de observaciones a realizar para obtener un nivel de confianza del 95% y un nivel de precisión de ± 5%. 3) Bus car ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el número de observaciones a realizar para obtener un nivel de confianza del 95% y un nivel de precisión de ± 5%. Ejemplo Tomando como base los tiempos contemplados en el ejemplo del método estadístico, abordaremos el cálculo del número de observaciones según el método tradicional. En primer lugar como el ciclo es inferior a los 2 minutos, se realizan 5 muestras adicionales (6, 8, 8, 7, 8) para cumplir con las 10 muestras para ciclos <= 2 minutos. Las observaciones son las siguientes: 8 7 8 8 7 6 8 8 7 8 Σx = 75 8 7 8 8 7 Se calcula el rango: R (Rango) = 8 - 6 = 2 Ahora se calcula la media aritmética: Ahora calculamos el cociente entre el rango y la media: Ahora buscamos ese cociente en la tabla y buscamos su intersección con la columna de 10 observaciones: Tenemos entonces que el número de observaciones a realizar para tener un nivel de Confianza del 95% según el método tradicional es: 11 Al adicionar los 5 tiempos y utilizar el método estadístico tenemos un número de observaciones igual a: 12.8 aproximadamente 13. Por lo cual podemos concluir que ambos métodos arrojan resultados muy parecidos y que la elección del método se deja a criterio del especialista. 4.4.3 Intervalos de confianza Un intervalo de confianza es un rango de valores, derivado de los estadísticos de la muestra, que posiblemente incluya el valor de un parámetro de población desconocido. Debido a su naturaleza aleatoria, es poco probable que dos muestras de una población en particular generen intervalos de confianza idénticos. Sin embargo, si usted repitiera muchas veces su muestra, un determinado porcentaje de los intervalos de confianza resultantes incluiría el parámetro de población desconocido. En este caso, la línea negra horizontal representa el valor fijo de la media desconocida de la población, µ. Los intervalos de confianza azules verticales que se sobreponen a la línea horizontal contienen el valor de la media de la población. El intervalo de confianza rojo que está completamente por debajo de la línea horizontal no lo contiene. Un intervalo de confianza de 95% indica que 19 de 20 muestras (95%) de la misma población generarán intervalos de confianza que contendrán el parámetro de población. Utilice el intervalo de confianza para evaluar la estimación del parámetro de población. Por ejemplo, un fabricante desea saber si la longitud media de los lápices que produce es diferente de la longitud objetivo. El fabricante toma una muestra aleatoria de lápices y determina que la longitud media de la muestra es 52 milímetros y el intervalo de confianza de 95% es (50,54). Por lo tanto, usted puede estar 95% seguro de que la longitud media de todos los lápices se encuentra entre 50 y 54 milímetros. El intervalo de confianza se determina calculando una estimación de punto y luego determinando su margen de error. Estimación de punto Este valor individual estima un parámetro de población usando los datos de su muestra. Margen de error Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que sin importar lo bien que esté diseñado su estudio, su estimación está sujeta a error de muestreo aleatorio. El margen de error cuantifica este error e indica la precisión de su estimación. Usted probablemente ya entiende el margen de error, porque está relacionado con los resultados de las encuestas. Por ejemplo, una encuesta política podría indicar que el nivel de popularidad de un candidato es de 55% con un margen de error de 5%. Esto significa que el nivel de popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y 60%. Para un intervalo de confianza bilateral, el margen de error es la distancia desde el estadístico estimado hasta el valor de cada intervalo de confianza. Cuando un intervalo de confianza es simétrico, el margen de error es la mitad del ancho del intervalo de confianza. Por ejemplo, la longitud media estimada de un árbol de levas es 600 mm y el intervalo de confianza oscila entre 599 y 601. El margen de error es 1. Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro podrá estar usted del valor de la estimación de punto. 4.3.5 Muestras grandes: Prueba de Karl-Pearson para ajuste de una distribución de probabilidades hipotética, discreta o continúa con (hoja de cálculo o con paquete de estadístico). El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error estándar de ajuste como criterio de selección en el análisis de frecuencias. Dicho estadístico se comparó con los estadísticos de prueba de Kolmogorov-Smirnov, Cramer-Von Mises y Anderson-Darling. Las distribuciones elegidas para el propósito de comparar estos estadísticos fueron la gamma, Weibull, Gumbel, log-normal y log-logística. Los resultados obtenidos recomiendan el uso de muestras con tamaño de por lo menos de más de n=50 para tener un buen desempeño de las pruebas de Anderson-Darling y error estándar de ajuste. El empleo de las pruebas de Kolmogorov-Smirnov y Cramer-Von Mises o pruebas Karl-Pearson es del todo recomendable en hidrología, ya que para obtener un desempeño aceptable se necesitan muestras más grandes de las que normalmente se tienen en esta disciplina. El análisis de frecuencias de eventos hidrológicos extremos para estimar la probabilidad de ocurrencia de dichos eventos. A menudo, el periodo de retorno del evento de diseño de una obra hidráulica excede el periodo de las observaciones y deben hacerse extrapolaciones a partir de los valores registrados. Una forma de extrapolar los datos históricos consiste en emplear el método gráfico, que requiere de un analista experimentado y presenta la desventaja de la subjetividad. Una técnica más objetiva es encontrar la distribución de probabilidad teórica que se ajuste mejor a los datos medidos y usar esta función para la extrapolación. Algunas de las distribuciones de probabilidad usadas en hidrología son normal, log-normal, gamma, Gumbel, Weibull, Pearson tipo III y log-Pearson tipo III (Aksoy, 2000; Aparicio-Mijares, 2005). Un problema importante en el análisis de frecuencias es la selección de una distribución de probabilidad apropiada para los datos observados. Este problema no es exclusivo de la hidrología, también se observa en otras áreas, como la confiabilidad y ciencias actuariales. Quesenberry y Kent (1982) desarrollaron un criterio de selección de distribuciones basado en estadísticos invariantes bajo transformaciones de escala. Demostraron la efectividad de su criterio a partir de un estudio de Monte Carlo para distinguir entre las distribuciones exponencial, gamma, Weibull y log-normal. Generalmente, la selección de modelos se basa en pruebas de bondad de ajuste, que incluyen métodos gráficos y estadísticos, siendo preferibles los métodos estadísticos por su objetividad (Shin, Jung, Jeong, & Heo, 2011). Entre los métodos estadísticos con mayor aplicación en la hidrología se encuentran las pruebas de chi-cuadrado (c2) y del error estándar de ajuste (EEA) (GananciasMartínez, 2009). Otros métodos usados a menudo son los de función de distribución empírica (FDE), que incluyen las pruebas de Kolmogorov-Smirnov (KS), Cramer-Von Mises (CVM) y AndersonDarling (AD) (p. ej., Laio, 2004; Suhaila & Jemain, 2007; Dan'azumi, Shamsudin, & Aris, 2010; Shin et al., 2011; Atroosh & Moustafa, 2012). Sin embargo, las pruebas estadísticas de bondad de ajuste tienen poco poder para rechazar distribuciones equivocadas (Mitosek, Strupczewski, & Singh, 2002), por lo que en muchos casos, más de una distribución puede ser aceptada por una prueba específica (Laio, Baldasarre, & Montanari, 2009). En este caso, el concepto de criterio de selección de modelos representa una alternativa a las pruebas de bondad de ajuste. Pueden definirse diversos criterios de selección en función de los estadísticos de bondad de ajuste antes mencionados. Otros criterios de selección se basan en la función de verosimilitud, como el criterio de información de Akaike (CIA) y el criterio de información Bayesiano (CIB) (Laio et al., 2009). Balasooriya, Low y Wong (2005) evaluaron la efectividad de los criterios de Akaike, y de Quesenberry y Kent. Encontraron que si bien ambos criterios tuvieron un buen desempeño, el segundo fue ligeramente mejor; sin embargo, la dificultad computacional de este criterio hace preferible el empleo del CIA. Los criterios de selección de modelos probabilísticos han recibido poca atención en la literatura hidrológica. Mitosek et al. (2002) consideraron las distribuciones Weibull, gamma, Gumbel y log-normal como modelos alternativos para la distribución de caudales pico anuales, y evaluaron estas distribuciones usando tres índices: la desviación absoluta media, la media cuadrática y la función de verosimilitud normalizada. Tras realizar un estudio de Monte Carlo, concluyeron que la función de verosimilitud normalizada representaba el mejor criterio de selección. El Adlouni, Bobée y Ouarda (2008) utilizaron técnicas gráficas para seleccionar la clase de distribuciones que proporciona el mejor ajuste a un conjunto de datos. Utilizaron el criterio de clasificación de Werner y Upper (2002), quienes dividieron las distribuciones en: a) estables; b) con cola tipo Parteo; c) regularmente variantes; d) sub-exponenciales; e) con momentos exponenciales inexistentes. Estos autores propusieron el empleo de métodos gráficos para determinar la clase de la distribución y después utilizar criterios como el CIA, CIB o AD para seleccionar la distribución de mejor ajuste. Por su parte, Laio et al. (2009) hicieron un análisis del desempeño de tres criterios de selección de modelos: CIA, CIB y AD, aplicados para identificar el mejor modelo probabilístico de un ajuste de datos hidrológicos extremos. El análisis numérico para comparar los desempeños de diferentes criterios de selección de modelos probabilísticos. Los criterios considerados fueron las pruebas de error estándar de ajuste (EEA), Cramer-Von Mises (CVM), Kolmogorov-Smirnov (KS), Anderson-Darling (AD) y Karl-Pearsoon (KP). El análisis se llevó a cabo por medio de una serie de experimentos de Monte Carlo, que constaron de los siguientes pasos: a) se eligieron las siguientes distribuciones de probabilidad madre: Gumbel, Weibull, gamma, log-normal y log-logística, las funciones de densidad de probabilidad (fdp) de las primeras cuatro distribuciones se pueden consultar en el texto de Haan (1994), la de la distribución log-logística, en Dey y Kundu (2009); b) se generaron 80 000 muestras aleatorias de tamaño n de las distribuciones madre, los tamaños de muestra considerados fueron n = 30, 50, 80 y 100; c) las distribuciones de interés se ajustaron a los datos generados, los parámetros se estimaron por el método de máxima verosimilitud; d) para cada una de las distribuciones se calcularon los estadísticos de AD, CVM, KS y EEA; e) para cada uno de los criterios se seleccionó la distribución para la cual se obtuvo el valor más pequeño, si la distribución seleccionada era igual a la distribución madre, se consideró que el criterio tuvo éxito. Estas simulaciones muestran que los criterios de selección ayudan a escoger la mejor distribución para un análisis de frecuencias. Se encontró que de los criterios empleados, el mejor fue AD, seguido por el EEA. También se observó que es difícil discriminar entre dos distribuciones parecidas. También se encontró que el porcentaje de selección correcta (PSC) de los criterios de selección depende del tamaño de la muestra n y de la distribución que siguen los datos generados. En general, el criterio de AD resulta con mejores estimaciones para T = 100, aun cuando no escoge la distribución correcta. También se observó que tiende a producir estimaciones más pequeñas que los demás criterios considerados, y que en la mayoría de los casos subestima el valor xT. Para T = 10 no hay grandes diferencias entre los criterios. A partir de los resultados obtenidos, se recomiendan muestras con tamaño de por lo menos n = 50 para tener un buen desempeño de las pruebas de AD y EEA. El empleo de las pruebas de KS y CVM no se recomienda a menos que se tengan muestras grandes. 4.5.4 Otras Pruebas (Anderson-Darling), Prueba G El estadístico de Anderson-Darling ¿Qué es el estadístico de Anderson-Darling? El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución específica. Para un conjunto de datos y distribución en particular, mientras mejor se ajuste la distribución a los datos, menor será este estadístico. Por ejemplo, usted puede utilizar el estadístico de Anderson-Darling para determinar si los datos satisfacen el supuesto de normalidad para una prueba t. Las hipótesis para la prueba de Anderson-Darling son: H0: Los datos siguen una distribución especificada H1: Los datos no siguen una distribución especificada Utilice el valor p correspondiente (si está disponible) para probar si los datos provienen de la distribución elegida. Si el valor p es menor que un nivel de significancia elegido (por lo general 0.05 o 0.10), entonces rechace la hipótesis nula de que los datos provienen de esa distribución. Minitab no siempre muestra un valor p para la prueba de Anderson-Darling, porque este no existe matemáticamente para ciertos casos. También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste de varias distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para concluir que una distribución es la mejor, el estadístico de Anderson-Darling debe ser sustancialmente menor que los demás. La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov. En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos de una muestra provienen de una distribución específica. La fórmula para el estadístico determina si los datos (observar que los datos se deben ordenar) vienen de una distribución con función acumulativa F. Donde: n es el número de datos f(x): es la función de distribución de probabilidad teórica FS(X): es la función de distribución empírica. Para definir la regla de rechazo para esta prueba es necesario, también, obtener el estadístico ajustado para luego compararlo con los valores críticos de la tabla de Anderson- Darling. Prueba G o prueba del logaritmo de la razón de Verosimilitudes En estadística, la función de verosimilitud (o, simplemente, verosimilitud) es una función de los parámetros de un modelo estadístico que permite realizar inferencias acerca de su valor a partir de un conjunto de observaciones. No debe confundirse con el término probabilidad: ésta permite, a partir de una serie de parámetros conocidos, realizar predicciones acerca de los valores que toma una variable aleatoria. Formula En cierto sentido, la verosimilitud es una versión inversa de la probabilidad condicional. Conocido un parámetro B, la probabilidad condicional de A es P(A|B), pero si se conoce A, pueden realizarse inferencias sobre el valor de B gracias al teorema de Bayes, según el cual La función de verosimilitud, L( b |A), definida como desempeña el mismo papel bajo un enfoque no bayesiano. De hecho, lo relevante no es el valor en sí de L( b |A) sino la razón de verosimilitudes. Esta permite comparar cuanto más verosímil es el parámetro que el a la hora de explicar el evento A. De ahí que en ocasiones se entienda que la función de verosimilitud, más que una función en sí, sea la clase de funciones Donde: α es una constante de proporcionalidad. La función de verosimilitud, abundando en los razonamientos anteriores, abre la vía para dos técnicas muy habituales en inferencia estadística: las de la máxima verosimilitud y la del test de la razón de verosimilitudes. Función de verosimilitud para distribuciones continuas En los casos anteriores, los eventos considerados tenían una probabilidad p estrictamente mayor que cero. Pero cuando la noción de verosimilitud se extiende a variables aleatorias con una función de densidad f sobre, por ejemplo, el eje real, la probabilidad de un evento cualquiera es nula. 4.5. Muestras definitivas 4.5.1. Estadísticas descriptivas 4.5.2. Muestra pequeñas: prueba de kolmogorov-Smirnov para ajuste de una distribución de probabilidades continua hipotética (en hoja de cálculo o con paquete estadístico) Desarrollada en la década de los treinta del siglo XX, esta prueba permite —al igual que la prueba Chi-cuadrada— determinar la distribución de probabilidad de una serie de datos. Una limitante de la prueba de Kolmogorov-Smirnov estriba en que solamente se puede aplicar al análisis de variables continuas. El procedimiento general de la prueba es: 1. Obtener al menos 30 datos de la variable aleatoria a analizar. 2. Calcular la media y la varianza de los datos. 3. Crear un histograma de m= vn intervalos, y obtener la frecuencia observada en cada intervalo 0¡. 4. Calcular la probabilidad observada en cada intervalo PO¡ =0¡ / n , esto es, dividir la frecuencia observada O. entre el número total de datos, n. 5. Acumular las probabilidades PO.para obtener la probabilidad observada hasta el i-ésimo intervalo, POAr 6. Establecer de manera explícita la hipótesis nula, para esto se propone una distribución de probabilidad que se ajuste a la forma del histograma. 7. Calcular la probabilidad esperada acumulada para cada intervalo, PEA¡, a partir de la función de probabilidad propuesta. 8. Calcular el estadístico de prueba. c = máx |PEA¡ - PÚA, \ i = 1,2,3,..., k,..., m 9. Definir el nivel de significancia de la prueba a, y determinar el valor crítico de la prueba, Da n (consulte la tabla de valores críticos de la prueba de KolmogorovSmirnoven la sección de apéndices). 10. Comparar el estadístico de prueba con el valor crítico. Si el estadístico de prueba es menor que el valor crítico no se puede rechazar la hipótesis nula. 4.5.3. Muestras grandes: prueba de Karl- Pearson para ajuste de una distribución de probabilidades hipotética, discreta o continua (en hoja de cálculo o con paquete estadístico) El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error estándar de ajuste como criterio de selección en el análisis de frecuencias. Dicho estadístico se comparó con los estadísticos de prueba de Kolmogorov-Smirnov, Cramer-Von Mises y Anderson-Darling. Las distribuciones elegidas para el propósito de comparar estos estadísticos fueron la gamma, Weibull, Gumbel, log-normal y loglogística. Los resultados obtenidos recomiendan el uso de muestras con tamaño de por lo menos de más de n=50 para tener un buen desempeño de las pruebas de Anderson-Darling y error estándar de ajuste. El empleo de las pruebas de KolmogorovSmirnov y Cramer-Von Mises o pruebas Karl-Pearson es del todo recomendable en hidrología, ya que para obtener un desempeño aceptable se necesitan muestras más grandes de las que normalmente se tienen en esta disciplina. El análisis de frecuencias de eventos hidrológicos extremos para estimar la probabilidad de ocurrencia de dichos eventos. A menudo, el periodo de retorno del evento de diseño de una obra hidráulica excede el periodo de las observaciones y deben hacerse extrapolaciones a partir de los valores registrados. Una forma de extrapolar los datos históricos consiste en emplear el método gráfico, que requiere de un analista experimentado y presenta la desventaja de la subjetividad. Una técnica más objetiva es encontrar la distribución de probabilidad teórica que se ajuste mejor a los datos medidos y usar esta función para la extrapolación. Algunas de las distribuciones de probabilidad usadas en hidrología son normal, lognormal, gamma, Gumbel, Weibull, Pearson tipo III y log-Pearson tipo III (Aksoy, 2000; Aparicio-Mijares, 2005). Un problema importante en el análisis de frecuencias es la selección de una distribución de probabilidad apropiada para los datos observados. Este problema no es exclusivo de la hidrología, también se observa en otras áreas, como la confiabilidad y ciencias actuariales. Quesenberry y Kent (1982) desarrollaron un criterio de selección de distribuciones basado en estadísticos invariantes bajo transformaciones de escala. 4.6 Simulación de los comportamientos aleatorios de los proyectos y su verificación. Simular el funcionamiento de distintos tipos de instalaciones o procesos. A la instalación o proceso que se pretende estudiar se le denomina sistema y para poderlo analizar se realiza una serie de supuestos sobre su funcionamiento. Estos supuestos, que normalmente se expresan mediante relaciones matemáticas o relaciones lógicas, constituyen un modelo del sistema. Este modelo se utiliza para comprender y prever el comportamiento del sistema real. Si las relaciones matemáticas o lógicas que comprende el modelo son sencillas, entonces será posible utilizar un procedimiento analítico para obtener una solución o respuesta exacta sobre las características de interés del sistema analizado. No obstante, si las relaciones son complejas, puede ocurrir que no se pueda evaluar analíticamente el problema. En este caso, será necesario acudir a la simulación del sistema, evaluando numéricamente el modelo y analizando los datos obtenidos para estimar las características de dicho sistema. Sistemas, modelos y simulación Un sistema se puede definir como un conjunto de elementos unidos por relaciones de interacción o interdependencia. En el ámbito de los sistemas productivos estos elementos normalmente tienen un objetivo común. Los elementos que forman parte del sistema vienen condicionados por el objetivo del estudio que se pretende realizar, ya que un sistema definido para un estudio determinado puede ser una parte de un sistema más amplio definido para otro estudio particular. Por ejemplo, si se quiere determinar cuál es el número más adecuado de operarios y máquinas en la sección de mecanizado de una empresa que tiene una determinada cartera de pedidos, estos elementos serán los que formen parte del sistema a analizar, mientras que, si lo que se desea es estudiar la capacidad productiva de la empresa, los elementos mencionados anteriormente sólo serán una parte del sistema. A ellos habrá que añadir montaje, embalaje, almacenaje, etc. Se pueden realizar las siguientes definiciones: − Atributo: propiedad de un elemento del sistema. − Actividad: todo proceso que provoque un cambio en el sistema. El estado del sistema en un instante de tiempo determinado se puede definir como la descripción de todos los elementos, atributos y actividades en dicho instante. Por ejemplo, el estado de una oficina bancaria en un instante se podría definir mediante el número de cajeros en él, el número de clientes, el instante de llegada de cada cliente y el tipo de operación que desea realizar cada uno. Este conjunto constituiría las variables de estado del sistema. Tipos de sistemas Evidentemente, las características del sistema real que se desea estudiar van a condicionar el tipo de simulación que se va a desarrollar. Por lo tanto, conviene hacer una clasificación de los sistemas de acuerdo con los aspectos que van a condicionar su análisis posterior. Así, es útil realizar una clasificación de los sistemas atendiendo a tres aspectos fundamentales: Sistemas estáticos y sistemas dinámicos. Un sistema se considera estático cuando sus variables de estado no cambian a lo largo del tiempo, es decir, cuando el tiempo no juega ningún papel en sus propiedades. Por el contrario, en un sistema dinámico los valores que toman todas o algunas de sus variables de acción evolucionan a lo largo del tiempo. Sistemas deterministas y sistemas estocásticos. Si un sistema no tiene ningún componente de carácter estocástico (es decir, aleatorio) se considera determinista. En este caso, el comportamiento del sistema está determinado una vez que se hayan definido las condiciones iniciales y las relaciones que existen entre sus componentes. Por el contrario, un sistema no determinista o estocástico tiene algún elemento que se comporta de forma aleatoria, de forma que no está predeterminado comportamiento en función de las condiciones iniciales y de las relaciones entre sus componentes. En este caso, el sistema sólo se podrá estudiar en términos probabilistas, consiguiendo, en el mejor de los casos, conocer sus respuestas posibles con sus probabilidades asociadas. Sistemas continuos y sistemas discretos. En un sistema continuo las variables de estado cambian de forma continua a lo largo del tiempo, mientras que en uno discreto cambian instantáneamente de valor en ciertos instantes de tiempo. En un sistema de una cierta complejidad puede ocurrir que existan simultáneamente variables de estado continuas y discretas. En este caso, dependiendo de la predominancia de una y otras y del objetivo del estudio que se pretende realizar, se considerará el sistema como perteneciente a uno de los dos tipos. Tipos de modelos Para estudiar un sistema, la forma más inmediata sería experimentar sobre él. Sin embargo, esto puede ser desaconsejable, e incluso imposible, por diversos motivos: − Puede ocurrir que el sistema no exista y lo que se pretenda sea su diseño. − Puede ser imposible experimentar con el sistema real porque no se dispone de ningún control sobre dicho sistema; por ejemplo, si se desea estudiar un sistema financiero, bursátil,... − Puede ser económicamente inviable la experimentación sobre el sistema real. − La experimentación sobre el sistema real puede conllevar unos plazos de tiempo muy dilatados. Es el caso, por ejemplo, de ciertos sistemas sociales o biológicos. En cualquiera de los casos anteriores se hace necesaria la construcción de un modelo del sistema que refleje con la fidelidad adecuada las características destacadas del sistema a analizar y la experimentación sobre dicho modelo. Si se realiza correctamente la construcción del modelo y el diseño de los experimentos, los resultados obtenidos permitirán inferir cuál sería el comportamiento del sistema a analizar en determinadas condiciones. Necesidad de la simulación Ya se ha indicado anteriormente que se recurre a la simulación cuando el modelo matemático que representa el sistema a estudiar es excesivamente complejo o resulta inabordable por no estar desarrollados métodos analíticos para su resolución. La fuente de complejidad puede tener básicamente dos causas: − En los sistemas continuos es frecuente que unas variables de estado representen la tasa o velocidad de cambio de otras variables de estado. La formulación matemática de estos modelos lleva a la aparición de ecuaciones diferenciales que indican las relaciones anteriormente mencionadas. Si el sistema tiene una cierta complejidad, puede ocurrir que las ecuaciones diferenciales sean no lineales y, por lo tanto, de difícil o imposible resolución analítica. − En los sistemas discretos pueden aparecer fenómenos aleatorios que sólo se pueden representar en términos probabilistas. En este caso, la formulación matemática del modelo contiene relaciones en las que aparecen funciones de distribución o de densidad de probabilidad, que dificultan o impiden su resolución analítica. Como ya se ha indicado, la catalogación de un sistema como continuo o discreto depende del objetivo del estudio y de las variables de estado predominantes. Esto quiere decir que un mismo sistema puede tener ciertas variables de estado continuas y otras discretas. Por lo tanto, no es infrecuente encontrar modelos en los que coexisten ecuaciones diferenciales complejas con variables aleatorias, lo que, evidentemente, complica aún más la resolución analítica. Verificación. El modelo anterior se debe validar mediante la ejecución de una serie de experimentos piloto, en los que los resultados obtenidos coincidan con los previsibles ante determinadas condiciones iniciales. Por otra parte, si el sistema modelado es similar a alguno ya existente, se puede contrastar el funcionamiento del modelo con el del sistema real. Ventajas de la simulación Ya se ha comentado previamente que la simulación es una técnica cada vez más utilizada en el estudio de sistemas complejos. Entre los argumentos a favor de la utilización de la simulación se encuentran los siguientes: − La mayoría de los sistemas complejos reales con elementos estocásticos no se pueden describir con suficiente precisión mediante un modelo matemático que se pueda resolver analíticamente. Por lo tanto, con frecuencia la simulación es el único método posible de estudio de dichos sistemas. − La simulación permite estimar el comportamiento de un sistema existente bajo un conjunto previsto de condiciones operativas. − Mediante la simulación se pueden comparar diseños alternativos (o políticas de operación alternativas para un determinado diseño) para especificar cuál es el que cumple de forma más adecuada con los objetivos formulados. − En la simulación se puede tener un control mucho mejor sobre las condiciones del experimento que si se realizase sobre el propio sistema. − La simulación permite estudiar un sistema cuya evolución es muy dilatada en el tiempo (por ejemplo, un sistema económico) en un periodo de tiempo reducido. Alternativamente, también permite estudiar de forma detallada la evolución de un sistema en un corto periodo de tiempo. Conclusión El proceso de validación de un modelo de simulación siempre está sujeto al experimento frente al que se vaya a realizar el estudio. Por lo que no se puede asegurar estrictamente si el modelo es válido o no, habrá que señalar siempre el experimento frente al que es válido o no. Sirve por lo tanto como una guía en el diseño de experimentos. Para realizar la validación de cualquier modelo de simulación, no es necesario ser un experto del sistema que el modelo represente, bastaría con tener ciertos conocimientos estadísticos y estar apoyado por en el sistema. Bibliografía http://ocwus.us.es/metodos-de-investigacion-y-diagnostico-en-educacion/analisis-de-datos-enla-investigacion-educativa/Bloque_II/page_40.htm/ http://revistas.utp.edu.co/index.php/revistaciencia/article/view/3137 http://www.iol.etsii.upm.es/arch/simulacion.pdf file:///C:/Users/El%20Kostra/Downloads/693-388-140_10.pdf https://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-industrial/estudio-detiempos/c%C3%A1lculo-del-n%C3%BAmero-de-observaciones/ http://www.didacticaambiental.com/revista/numero10/6.-.pdf http://support.minitab.com/es-mx/minitab/17/topic-library/basic-statistics-andgraphs/introductory-concepts/confidence-interval/confidence-interval/ http://campus.fi.uba.ar/course/view.php?id=187 http://www.iol.etsii.upm.es/arch/simulacion.pdf http://www.redalyc.org/pdf/302/30235208.pdf http://www.simulacion.com/trabajos-pdf5/prueba-chi-cuadrada-estadistica/prueba-chi-cuadradaestadistica.shtml http://simulacionunilibre.blogspot.mx/p/prueba-anderson-darling.html http://www.econ.unicen.edu.ar/attachments/1051_TecnicasIISimulacion.pdf http://www.cyta.com.ar/biblioteca/bddoc/bdlibros/monte_carlo/monte_carlo.htm?iframe=true&width=95 %&height=95% http://www.scielo.org.mx/scielo.php?pid=S2007-24222014000500012&script=sci_arttext&tlng=en http://dspace.ucbscz.edu.bo/dspace/bitstream/123456789/4345/3/1368.pdf