Subido por Alesandra Esquivel

toaz.info-unidad-4-completa-simulacion-pr a01412eb30254b0742853de10deda31b

Anuncio
Contenido
4.1 Lista de estimadores a obtener de la simulación...........................................................................2
4.1.1 Instrumentos de medición ..................................................................................................2
4.1.2 Medios de registro de datos .............................................................................................2
4.2. Identificación del estimador determinante (estimador líder) del tamaño de la simulación. .......4
4.3 Muestras preliminares de los proyectos aprobados en 3.4...........................................................6
4.4 Características estadísticas del estimador lider .............................................................................6
4.4.1 Establecimiento de la precisión ..................................................................................................8
4.4.2 Cálculo del número mínimo de observaciones necesarias ..................................................... 10

Método Estadístico............................................................................................................. 10
4.4.3 Intervalos de confianza ............................................................................................................ 16
4.3.5 Muestras grandes: Prueba de Karl-Pearson para ajuste de una distribución de probabilidades
hipotética, discreta o continúa con (hoja de cálculo o con paquete de estadístico). ...................... 18
4.5.4 Otras Pruebas (Anderson-Darling), Prueba G .......................................................................... 21
El estadístico de Anderson-Darling ............................................................................................... 21
¿Qué es el estadístico de Anderson-Darling? ....................................................................... 21
Prueba G o prueba del logaritmo de la razón de Verosimilitudes ................................................ 23
Formula ......................................................................................................................................... 23
Función de verosimilitud para distribuciones continuas .............................................................. 24
4.6 Simulación de los comportamientos aleatorios de los proyectos y su verificación. ................. 26
Sistemas, modelos y simulación ................................................................................................... 26
Tipos de sistemas .......................................................................................................................... 27
Sistemas estáticos y sistemas dinámicos .................................................................................. 28
Sistemas deterministas y sistemas estocásticos. ...................................................................... 28
Sistemas continuos y sistemas discretos .................................................................................. 28
Tipos de modelos .......................................................................................................................... 28
Necesidad de la simulación........................................................................................................... 29
Verificación. .............................................................................................................................. 30
Ventajas de la simulación ............................................................................................................. 30
Bibliografía ........................................................................................................................................ 32
4.1 Lista de estimadores a obtener de la simulación
Definiremos algunas propriedades de los estimadores.
1) Parámetro. Verdadero valor de una caracterı́stica de interes, denominado por θ, que
raramente es conocido.
2) Estimativa.
Valor numérico obtenido por el estimador, denominado de θ̂ en una
m uestra.
3) Viés y no viés. Un estimador es no in-sesgado si: E(θ̂) = θ, onde el viés es dado por:
vies(θ̂) = E(θ ˆ θ) = E(θ̂) − θ
Cuadrado médio del error (ECM). Es dado por:
ECM (θ̂) = E(θ̂ − θ)2 = V (θ̂) + (vies
1) Un estimador es consistente si: plim(θ̂) = θ ; y lim −→ ∞ECM (θ̂) = 0
2) Las leyes de los grandes números explican por qué el promedio o media de una muestra
al azar de una población de gran tamaño tenderá a estar cerca de la media de la
población completa.
4.1.1 Instrumentos de medición
El análisis de la literatura existente arroja un resultado de 17 instrumentos de medida de las
actitudes y la ansiedad hacia la estadística. Exceptuando dos instrumentos elaborados a partir
de escalas bipolares, a la manera del diferencial semántico de Osgood (Birenbaum y Eylath,
1994; Green, 1993), todos los instrumentos revisados son escalas tipo Likert. En lo que sigue
vamos a describir brevemente estos cuestionarios, poniendo un mayor énfasis en aquellos que
han sido usados más frecuentemente.
4.1.2 Medios de registro de datos
La elección del método depende de la estrategia de recopilación de datos, el tipo de variable, la
precisión necesaria, el punto de recopilación y la formación del encuestador. Las vínculos entre
una variable, su origen y los métodos prácticos para su recopilación. Pueden ayudar a escoger
métodos apropiados. Los principales métodos de recopilación de datos son:

Registros: los registros y licencias son particularmente valiosos para los censos
completos, pero se limitan a variables que cambian lentamente, como el número de
embarcaciones pesqueras y sus características.

Cuestionarios: formularios que los encuestados devuelven cumplimentados. Un método
poco costoso que resulta útil cuando los índices de alfabetización son altos y los
encuestados colaboran.

Entrevistas: formularios que se cumplimentan a lo largo de una entrevista con el
encuestado. Más caros que los cuestionarios, pero mejores para preguntas más
complejas, y cuando se dan unos índices de alfabetización bajos o se encuentra menos
colaboración.

Observaciones directas: la realización de mediciones directas es el método más preciso
para todas las variables, como las capturas, pero a menudo resulta caro. Muchos
métodos, como los programas de observación, se limitan a la pesca industrial.

Presentación de informes: la principal alternativa a la realización de mediciones directas
consiste en pedir a los pescadores y a terceros que presenten informes de sus
actividades. La preparación de informes presupone la alfabetización y requiere espíritu
de colaboración, pero ello puede reforzarse mediante una obligación legal y mediciones
directas.
Las técnicas de recogida de la información no son un fin en si mismo, sino que dependen de:
a- El tipo de investigación que se esté haciendo.
b- El tipo de análisis de datos que vamos a utilizar posteriormente.
c- El problema que queramos estudiar.
d- Los objetivos que pretendamos alcanzar con la investigación.
Algunas técnicas se pueden utilizar en distintos diseños, por ejemplo la entrevista se puede
utilizar en: investigación acción, en estudios de caso, en investigación etnográfica, etc.
4.2. Identificación del estimador determinante (estimador líder) del
tamaño de la simulación.
Por definición, el valor de una variable cambia conforme avanza la simulación, aunque se le
debe dar un valor inicial. Cabe recordar que el valor de un parámetro permanece constante; sin
embargo, puede cambiar conforme se estudian diferentes alternativas en otras simulaciones.
Determinación de condiciones iniciales La determinación de condiciones iniciales para las
variables es una decisión táctica importante en la simulación.
Lo anterior se debe a que el modelo se sesga por una serie de valores iniciales hasta que el
modelo llega a un estado estable.
Para manejar este problema, los analistas han seguido varios planteamientos como
1) Descartar los datos generados durante las primeras partes de la ejecución,
2) Seleccionar las condiciones iniciales que reducen la duración del periodo de
calentamiento o
3) Seleccionar las condiciones iniciales que eliminan el sesgo. Sin embargo, para emplear
cualquiera de estas alternativas, el analista debe tener una idea del margen de datos de
salida esperado. Por lo tanto, en cierto sentido, el analista sesga los resultados. Por otro
lado, una de las únicas características de la simulación es que permite la crítica en el
diseño y análisis de la simulación; por lo que si el analista tiene cierta información que
alberga un problema, se debe incluir.
Determinación de duración de la ejecución La duración de la ejecución de simulación (duración
de la ejecución o tiempo de ejecución) depende del propósito de la simulación.
Quizás el planteamiento más común sea continuar la simulación hasta lograr un equilibrio. En
el ejemplo del mercado de pescado, significaría que las ventas simuladas de pescado
corresponden a sus frecuencias relativas históricas. Otro planteamiento es ejecutar la
simulación durante un periodo establecido como 1 mes, 1 año o una década y ver si las
condiciones al final del periodo son razonables. Un tercer planteamiento es establecer la
duración de la ejecución de modo que se obtenga una muestra suficientemente grande para
efectos de pruebas de hipótesis estadística. Esta alternativa se considera en la siguiente
sección.
Desde luego que las conclusiones que se pueden obtener de una simulación dependen del
grado en que el modelo refleja el sistema real, aunque también depende del diseño de la
simulación en un sentido estadístico.
De hecho, muchos analistas consideran la simulación como una forma de prueba de hipótesis
donde cada ejecución de simulación ofrece uno o más datos de muestra que son susceptibles
al análisis formal a través de los métodos estadísticos inferenciales. Los procedimientos
estadísticos que normalmente se usan en la evaluación de resultados de simulación incluyen el
análisis de varianza, análisis de regresión y pruebas t.
En la mayoría de las situaciones, el análisis tiene más información disponible con la cual
comparar los resultados de simulación: datos operativos antiguos del sistema real, datos
operativos del desempeño de sistemas semejantes y la percepción del analista de la operación
del sistema real. Sin embargo, se debe admitir que la información obtenida de estas fuentes
probablemente no sea suficiente para validar las conclusiones derivadas de la simulación. Por
lo tanto, la única prueba real de una simulación es qué tan bien se desempeña el sistema real
después de haber implantado los resultados del estudio.
Un requerimiento lógico para un estimador es que su precisión mejore al aumentar el tamaño
muestral. Es decir, que esperaremos obtener mejores estimaciones cuanto mayor sea el
número de individuos.
Si se cumple dicho requerimiento, diremos que un estimador es consistente. Desde un punto
de vista más riguroso diremos que un estimador es consistente si converge en probabilidad al
verdadero valor del parámetro que queremos estimar.
Ejemplo:
Consideremos el caso de la estimación de la media de una población Normal (μ) y
consideraremos dos estimadores:

Estimador 1: La primera observación de la muestra (para cualquier tamaño muestral).

Estimador 2: La media aritmética de las observaciones.
Para observar el comportamiento de ambos estimadores utilizaremos el siguiente programa
que genera automáticamente diez muestras de diferentes tamaños (n = 2; 10 ; 50; 500)
procedentes de una distribución Normal de parámetros (μ = 0; σ = 1). Se tratará, por tanto, de
un estudio de simulación (generamos muestras procedentes de una determinada distribución)
para comparar el comportamiento de ambos estimadores. Recuerda que el verdadero valor del
parámetro a estimar (μ) es cero y que corresponde a la línea central en negro:
1) Comparad los valores del estimador 1 (primera observación) para los diferentes tamaños
muestrales (n = 2; 10; 50; 500).
2) Haced lo mismo con el estimador 2: media aritmética.
3) Obtened nuevas simulaciones y repetid el estudio anterior.
4) ¿Mejora el resultado de algún estimador al aumentar el tamaño de la muestra?
Es evidente que el estimador correspondiente a la primera observación no mejora al aumentar
el tamaño de la muestra. Mientras que la media aritmética converge hacia el verdadero valor
del parámetro (μ = 0) al aumentar el tamaño de la muestra.
En resumen: la primera observación no es un estimador consistente de μ, mientras que la
media aritmética sí que lo es.
4.3 Muestras preliminares de los proyectos aprobados en 3.4
4.4 Características estadísticas del estimador lider
Hay una serie de características deseables en los estimadores para que éstos constituyan una
buena aproximación a los respectivos parámetros. Se trata de rasgos que podrían entenderse
como criterios de calidad de los estimadores.
1. Carencia de sesgo. Se dice que un estimador es insesgado si el valor esperado de su
distribución de probabilidad es igual al parámetro. Es decir, si es igual a Ө la media de
los valores Ê calculados en cada una de las muestras aleatorias posibles del mismo
tamaño. Si el estadístico Ê es utilizado como estimador del parámetro Ө, ese estimador
carece de sesgo cuando
E(Ê) = Ө
Por ejemplo, la media
[D] es un estimador insesgado de µ, puesto que se cumple, tal y como
vimos en el capítulo anterior al estudiar la distribución muestral del estadístico media, que
E(
[D]) = µ
En el caso de la varianza, suelen manejarse habitualmente dos estimadores:
[D] o bien,
[D]. Para cada uno de ellos, el valor esperado resulta ser:
[D]
El segundo de los estimadores posee la característica de ser un estimador insesgado de σ2,
razón por la que suele emplearse con más frecuencia que el primero a la hora de estimar el
parámetro varianza poblacional.
Cuando E(Ê) ≠ Ө, decimos que el estimador sesgado tiene un sesgo positivo si E(Ê) > Ө, o que
tiene un sesgo negativo si E(Ê) < Ө. Un estimador sesgado tenderá a ofrecer sistemáticamente
valores que se alejan en un sentido u otro del parámetro, aunque la muestra sea elegida
aleatoriamente.
Consistencia. Un estimador Ê es consistente si, además de carecer de sesgo, se aproxima
cada vez más al valor del parámetro a medida que aumenta el tamaño de la muestra. Si el
tamaño n se hace indefinidamente grande, los valores de Ê se concentran cada vez más en
torno al valor del parámetro, hasta que con un tamaño
2. muestral infinito obtenemos una varianza del estimador nula. Por tanto, un estimador es
consistente si cuando n tiende a infinito se cumple
E(Ê) = Ө; var(Ê) = 0
La media es un estimador consistente del parámetro µ, puesto que se verifican las condiciones
anteriores. Es decir.
[D]
También se comprueba que los dos estimadores de la varianza, presentados en el apartado
anterior, resultan ser estimadores consistentes de σ2.
3. Eficiencia. La eficiencia de un estimador está vinculada a su varianza muestral. Así, para
un mismo parámetro Ө, se dice que el estimador Ê1 es más eficiente que el estimador
Ê2 si se cumple
var(Ê1) < var(Ê2)
Por tanto, si un estadístico es más eficiente que otro, significa que varía menos de unas
muestras a otras. Se demuestra que la media es un estimador del parámetro µ más eficiente
que la mediana. Del mismo modo, la varianza Sn-12 es un estimador de σ2 más eficiente que
Sn2.
4. Suficiencia. Un estimador es suficiente cuando en su cálculo se emplea toda la
información de la muestra. Por ejemplo, al calcular el estimador
[D] del correspondiente
parámetro poblacional, utilizamos la fórmula:
[D]
para cuyo cálculo se tienen en cuenta todas las puntuaciones Xi. Otro tanto ocurre con los
estimadores Sn-12 y Sn2 de la varianza. Todos ellos pueden ser considerados estimadores
suficientes de los respectivos parámetros.
4.4.1 Establecimiento de la precisión
Sea H un intervalo cualquiera definido sobre la recta real. Definiremos ahora una variable
ficticia, XH , de la siguiente forma:
De manera que cada observación de Xt Ileva asociada una observación -con valor o ó 1- de la
variable XNr . La función de densidad teórica -desconocida- de Xt asigna una probabilidad pH
al intervalo H. Esto significa que:
Producir T replicaciones del vector y, implica disponer de una muestra de T “observaciones" de
la variable real X. Esta muestra lleva asociada, a su vez, una muestra de tamaño T de la
variable Xy .Esta variable sigue una distribución binaria de parámetro pH , así que la suma de
las T observaciones de XH , ZH = XH^ +. ,.+ X y T , sigue una distribución binomial b(pH ,^. Es
oportuno aquí hacer una adaptación al presente contexto del concepto de estimación precisa
de Finster{ 1987) Definición 1. ,ZH /T es una estimación precisa de pN con nivel de imprecisión
A y confianza 1-a (can 0< cx < 1), si
EI conjunta de precisión [-A, A] es el conjunto de errores de simulación aceptables. En lo que
sigue a continuación se intentará determinar cuál es el número de replicaciones mínimo para
obtener una estimación de pH can nivel de imprecisión fijo A y confianza 1-a. EI teorema de
Moivre (ver por ejemplo Fz. de Trocóniz 1993) prueba que la sucesión b(pH ,1), b(pH ,2),.
..,b(pH , 7^, es asintóticamente normal N{T pH ,T p^ [1- pH ]) de manera que si T pH > 1 S se
suele tomar como válida la siguiente aproximación a la distribución de ZH :
entonces, para la frecuencia binomial, ZH IT, se tiene :
Si t^ es el cuantil aJ2 correspondiente a la cola derecha de la distribución N(0,1),
4.4.2 Cálculo del número mínimo de observaciones necesarias
El tamaño de la muestra o cálculo de número de observaciones es un proceso vital en la etapa
de cronometraje, dado que de este depende en gran medida el nivel de confianza del estudio
de tiempos. Este proceso tiene como objetivo determinar el valor del promedio representativo
para cada elemento.
Los métodos más utilizados para determinar el número de observaciones son:

Método estadístico

Método tradicional

Método Estadístico
MÉTODO ESTADÍSTICO
El método estadístico requiere que se efectúen cierto número de observaciones preliminares
(n'), para luego poder aplicar la siguiente fórmula:
NIVEL DE CONFIANZA DEL 95,45% Y UN MÁRGEN DE ERROR DE ± 5%
Siendo:
n = Tamaño de la muestra que deseamos calcular (número de observaciones)
n' = Número de observaciones del estudio preliminar
Σ = Suma de los valores
x = Valor de las observaciones.
40 = Constante para un nivel de confianza de 94,45%
Ejemplo
Se realizan 5 observaciones preliminares, los valores de los respectivos tiempos transcurridos
en centésimas de minuto son: 8, 7, 8, 8, 7. Ahora pasaremos a calcular los cuadrados que nos
pide la fórmula:
8
8
64
7
49
8
64
8
64
7
49
Σx = 38
Σx² = 290
7
8
8
7
N' = 5
Sustituyendo estos valores en la fórmula anterior tendremos el valor de n:
Dado que el número de observaciones preliminares (5) es inferior al requerido (7), debe
aumentarse el tamaño de las observaciones preliminares, luego recalcular n. Puede ser que en
recálculo se determine que la cantidad de 7 observaciones sean suficientes.
Este método consiste en seguir el siguiente procedimiento sistemático:
1) Realizar una muestra tomando 10 lecturas sí los ciclos son <= 2 minutos y 5
lecturas sí los ciclos son > 2 minutos, esto debido a que hay más confiabilidad
en tiempos más grandes, que en tiempos muy pequeños donde la probabilidad
de error puede aumentar.
2) Calcular el rango o intervalo de los tiempos de ciclo, es decir, restar del tiempo
mayor el tiempo menor de la muestra:
R (Rango) = Xmax - Xmin
1) Calcular la media aritmética o promedio:
Siendo:
Σx = Sumatoria de los tiempos de muestra
n = Número de ciclos tomados
Hallar el cociente entre rango y la media:
2) Buscar ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor
correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el
número de observaciones a realizar para obtener un nivel de confianza del 95% y un
nivel de precisión de ± 5%.
3) Bus car ese cociente en la siguiente tabla, en la columna (R/X), se ubica el valor
correspondiente al número de muestras realizadas (5 o 10) y ahí se encuentra el
número de observaciones a realizar para obtener un nivel de confianza del 95% y un
nivel de precisión de ± 5%.
Ejemplo
Tomando como base los tiempos contemplados en el ejemplo del método estadístico,
abordaremos el cálculo del número de observaciones según el método tradicional.
En primer lugar como el ciclo es inferior a los 2 minutos, se realizan 5 muestras adicionales (6,
8, 8, 7, 8) para cumplir con las 10 muestras para ciclos <= 2 minutos. Las observaciones son
las siguientes:
8
7
8
8
7
6
8
8
7
8
Σx = 75
8
7
8
8
7
Se calcula el rango:
R (Rango) = 8 - 6 = 2
Ahora se calcula la media aritmética:
Ahora calculamos el cociente entre el rango y la media:
Ahora buscamos ese cociente en la tabla y buscamos su intersección con la columna de 10
observaciones:
Tenemos entonces que el número de observaciones a realizar para tener un nivel de
Confianza del 95% según el método tradicional es: 11
Al adicionar los 5 tiempos y utilizar el método estadístico tenemos un número de observaciones
igual a: 12.8 aproximadamente 13.
Por lo cual podemos concluir que ambos métodos arrojan resultados muy parecidos y que la
elección del método se deja a criterio del especialista.
4.4.3 Intervalos de confianza
Un intervalo de confianza es un rango de valores, derivado de los estadísticos de la muestra,
que posiblemente incluya el valor de un parámetro de población desconocido. Debido a su
naturaleza aleatoria, es poco probable que dos muestras de una población en particular
generen intervalos de confianza idénticos. Sin embargo, si usted repitiera muchas veces su
muestra, un determinado porcentaje de los intervalos de confianza resultantes incluiría el
parámetro de población desconocido.
En este caso, la línea negra horizontal representa el valor fijo de la media desconocida de la
población, µ. Los intervalos de confianza azules verticales que se sobreponen a la línea
horizontal contienen el valor de la media de la población. El intervalo de confianza rojo que está
completamente por debajo de la línea horizontal no lo contiene. Un intervalo de confianza de
95% indica que 19 de 20 muestras (95%) de la misma población generarán intervalos de
confianza que contendrán el parámetro de población.
Utilice el intervalo de confianza para evaluar la estimación del parámetro de población. Por
ejemplo, un fabricante desea saber si la longitud media de los lápices que produce es diferente
de la longitud objetivo. El fabricante toma una muestra aleatoria de lápices y determina que la
longitud media de la muestra es 52 milímetros y el intervalo de confianza de 95% es (50,54).
Por lo tanto, usted puede estar 95% seguro de que la longitud media de todos los lápices se
encuentra entre 50 y 54 milímetros.
El intervalo de confianza se determina calculando una estimación de punto y luego
determinando su margen de error.
Estimación de punto
Este valor individual estima un parámetro de población usando los datos de su muestra.
Margen de error
Cuando usted utiliza estadísticos para estimar un valor, es importante recordar que sin importar
lo bien que esté diseñado su estudio, su estimación está sujeta a error de muestreo aleatorio.
El margen de error cuantifica este error e indica la precisión de su estimación.
Usted probablemente ya entiende el margen de error, porque está relacionado con los
resultados de las encuestas. Por ejemplo, una encuesta política podría indicar que el nivel de
popularidad de un candidato es de 55% con un margen de error de 5%. Esto significa que el
nivel de popularidad real es +/- 5% y, por lo tanto, se ubica entre 50% y 60%.
Para un intervalo de confianza bilateral, el margen de error es la distancia desde el estadístico
estimado hasta el valor de cada intervalo de confianza. Cuando un intervalo de confianza es
simétrico, el margen de error es la mitad del ancho del intervalo de confianza. Por ejemplo, la
longitud media estimada de un árbol de levas es 600 mm y el intervalo de confianza oscila
entre 599 y 601. El margen de error es 1.
Mientras mayor sea el margen de error, más ancho será el intervalo y menos seguro podrá
estar usted del valor de la estimación de punto.
4.3.5 Muestras grandes: Prueba de Karl-Pearson para ajuste de una
distribución de probabilidades hipotética, discreta o continúa con
(hoja de cálculo o con paquete de estadístico).
El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error estándar
de ajuste como criterio de selección en el análisis de frecuencias. Dicho estadístico se comparó
con los estadísticos de prueba de Kolmogorov-Smirnov, Cramer-Von Mises y Anderson-Darling.
Las distribuciones elegidas para el propósito de comparar estos estadísticos fueron la gamma,
Weibull, Gumbel, log-normal y log-logística. Los resultados obtenidos recomiendan el uso de
muestras con tamaño de por lo menos de más de n=50 para tener un buen desempeño de las
pruebas de Anderson-Darling y error estándar de ajuste. El empleo de las pruebas de
Kolmogorov-Smirnov y Cramer-Von Mises o pruebas Karl-Pearson es del todo recomendable
en hidrología, ya que para obtener un desempeño aceptable se necesitan muestras más
grandes de las que normalmente se tienen en esta disciplina.
El análisis de frecuencias de eventos hidrológicos extremos para estimar la probabilidad de
ocurrencia de dichos eventos. A menudo, el periodo de retorno del evento de diseño de una
obra hidráulica excede el periodo de las observaciones y deben hacerse extrapolaciones a
partir de los valores registrados. Una forma de extrapolar los datos históricos consiste en
emplear el método gráfico, que requiere de un analista experimentado y presenta la desventaja
de la subjetividad. Una técnica más objetiva es encontrar la distribución de probabilidad teórica
que se ajuste mejor a los datos medidos y usar esta función para la extrapolación.
Algunas de las distribuciones de probabilidad usadas en hidrología son normal, log-normal,
gamma, Gumbel, Weibull, Pearson tipo III y log-Pearson tipo III (Aksoy, 2000; Aparicio-Mijares,
2005). Un problema importante en el análisis de frecuencias es la selección de una distribución
de probabilidad apropiada para los datos observados. Este problema no es exclusivo de la
hidrología, también se observa en otras áreas, como la confiabilidad y ciencias actuariales.
Quesenberry y Kent (1982) desarrollaron un criterio de selección de distribuciones basado en
estadísticos invariantes bajo transformaciones de escala.
Demostraron la efectividad de su criterio a partir de un estudio de Monte Carlo para distinguir
entre las distribuciones exponencial, gamma, Weibull y log-normal. Generalmente, la selección
de modelos se basa en pruebas de bondad de ajuste, que incluyen métodos gráficos y
estadísticos, siendo preferibles los métodos estadísticos por su objetividad (Shin, Jung, Jeong,
& Heo, 2011). Entre los métodos estadísticos con mayor aplicación en la hidrología se
encuentran las pruebas de chi-cuadrado (c2) y del error estándar de ajuste (EEA) (GananciasMartínez, 2009).
Otros métodos usados a menudo son los de función de distribución empírica (FDE), que
incluyen las pruebas de Kolmogorov-Smirnov (KS), Cramer-Von Mises (CVM) y AndersonDarling (AD) (p. ej., Laio, 2004; Suhaila & Jemain, 2007; Dan'azumi, Shamsudin, & Aris, 2010;
Shin et al., 2011; Atroosh & Moustafa, 2012). Sin embargo, las pruebas estadísticas de bondad
de ajuste tienen poco poder para rechazar distribuciones equivocadas (Mitosek, Strupczewski,
& Singh, 2002), por lo que en muchos casos, más de una distribución puede ser aceptada por
una prueba específica (Laio, Baldasarre, & Montanari, 2009).
En este caso, el concepto de criterio de selección de modelos representa una alternativa a las
pruebas de bondad de ajuste. Pueden definirse diversos criterios de selección en función de los
estadísticos de bondad de ajuste antes mencionados. Otros criterios de selección se basan en
la función de verosimilitud, como el criterio de información de Akaike (CIA) y el criterio de
información Bayesiano (CIB) (Laio et al., 2009). Balasooriya, Low y Wong (2005) evaluaron la
efectividad de los criterios de Akaike, y de Quesenberry y Kent. Encontraron que si bien ambos
criterios tuvieron un buen desempeño, el segundo fue ligeramente mejor; sin embargo, la
dificultad computacional de este criterio hace preferible el empleo del CIA. Los criterios de
selección de modelos probabilísticos han recibido poca atención en la literatura hidrológica.
Mitosek et al. (2002) consideraron las distribuciones Weibull, gamma, Gumbel y log-normal
como modelos alternativos para la distribución de caudales pico anuales, y evaluaron estas
distribuciones usando tres índices: la desviación absoluta media, la media cuadrática y la
función de verosimilitud normalizada. Tras realizar un estudio de Monte Carlo, concluyeron que
la función de verosimilitud normalizada representaba el mejor criterio de selección. El Adlouni,
Bobée y Ouarda (2008) utilizaron técnicas gráficas para seleccionar la clase de distribuciones
que proporciona el mejor ajuste a un conjunto de datos. Utilizaron el criterio de clasificación de
Werner y Upper (2002), quienes dividieron las distribuciones en: a) estables; b) con cola tipo
Parteo; c) regularmente variantes; d) sub-exponenciales; e) con momentos exponenciales
inexistentes.
Estos autores propusieron el empleo de métodos gráficos para determinar la clase de la
distribución y después utilizar criterios como el CIA, CIB o AD para seleccionar la distribución
de mejor ajuste. Por su parte, Laio et al. (2009) hicieron un análisis del desempeño de tres
criterios de selección de modelos: CIA, CIB y AD, aplicados para identificar el mejor modelo
probabilístico de un ajuste de datos hidrológicos extremos.
El análisis numérico para comparar los desempeños de diferentes criterios de selección de
modelos probabilísticos. Los criterios considerados fueron las pruebas de error estándar de
ajuste (EEA), Cramer-Von Mises (CVM), Kolmogorov-Smirnov (KS), Anderson-Darling (AD) y
Karl-Pearsoon (KP). El análisis se llevó a cabo por medio de una serie de experimentos de
Monte Carlo, que constaron de los siguientes pasos: a) se eligieron las siguientes
distribuciones de probabilidad madre: Gumbel, Weibull, gamma, log-normal y log-logística, las
funciones de densidad de probabilidad (fdp) de las primeras cuatro distribuciones se pueden
consultar en el texto de Haan (1994), la de la distribución log-logística, en Dey y Kundu (2009);
b) se generaron 80 000 muestras aleatorias de tamaño n de las distribuciones madre, los
tamaños de muestra considerados fueron n = 30, 50, 80 y 100; c) las distribuciones de interés
se ajustaron a los datos generados, los parámetros se estimaron por el método de máxima
verosimilitud; d) para cada una de las distribuciones se calcularon los estadísticos de AD, CVM,
KS y EEA; e) para cada uno de los criterios se seleccionó la distribución para la cual se obtuvo
el valor más pequeño, si la distribución seleccionada era igual a la distribución madre, se
consideró que el criterio tuvo éxito.
Estas simulaciones muestran que los criterios de selección ayudan a escoger la mejor
distribución para un análisis de frecuencias. Se encontró que de los criterios empleados, el
mejor fue AD, seguido por el EEA. También se observó que es difícil discriminar entre dos
distribuciones parecidas. También se encontró que el porcentaje de selección correcta (PSC)
de los criterios de selección depende del tamaño de la muestra n y de la distribución que
siguen los datos generados.
En general, el criterio de AD resulta con mejores estimaciones para T = 100, aun cuando no
escoge la distribución correcta. También se observó que tiende a producir estimaciones más
pequeñas que los demás criterios considerados, y que en la mayoría de los casos subestima el
valor xT. Para T = 10 no hay grandes diferencias entre los criterios. A partir de los resultados
obtenidos, se recomiendan muestras con tamaño de por lo menos n = 50 para tener un buen
desempeño de las pruebas de AD y EEA. El empleo de las pruebas de KS y CVM no se
recomienda a menos que se tengan muestras grandes.
4.5.4 Otras Pruebas (Anderson-Darling), Prueba G
El estadístico de Anderson-Darling
¿Qué es el estadístico de Anderson-Darling?
El estadístico Anderson-Darling mide qué tan bien siguen los datos una distribución específica.
Para un conjunto de datos y distribución en particular, mientras mejor se ajuste la distribución a
los datos, menor será este estadístico. Por ejemplo, usted puede utilizar el estadístico de
Anderson-Darling para determinar si los datos satisfacen el supuesto de normalidad para una
prueba t.
Las hipótesis para la prueba de Anderson-Darling son:

H0: Los datos siguen una distribución especificada

H1: Los datos no siguen una distribución especificada
Utilice el valor p correspondiente (si está disponible) para probar si los datos provienen de la
distribución elegida. Si el valor p es menor que un nivel de significancia elegido (por lo general
0.05 o 0.10), entonces rechace la hipótesis nula de que los datos provienen de esa distribución.
Minitab no siempre muestra un valor p para la prueba de Anderson-Darling, porque este no
existe matemáticamente para ciertos casos.
También puede utilizar el estadístico de Anderson-Darling para comparar el ajuste de varias
distribuciones con el fin de determinar cuál es la mejor. Sin embargo, para concluir que una
distribución es la mejor, el estadístico de Anderson-Darling debe ser sustancialmente menor
que los demás.
La prueba de Anderson-Darling es usada para probar si una muestra viene de una distribución
especifica. Esta prueba es una modificación de la prueba de Kolmogorov- Smirnov donde se le
da más peso a las colas de la distribución que la prueba de Kolmogorov-Smirnov.
En estadística, la prueba de Anderson-Darling es una prueba no paramétrica sobre si los datos
de una muestra provienen de una distribución específica. La fórmula para el estadístico
determina si los datos (observar que los datos se deben ordenar) vienen de una distribución
con función acumulativa F.
Donde:
n es el número de datos
f(x): es la función de distribución de probabilidad teórica
FS(X): es la función de distribución empírica.
Para definir la regla de rechazo para esta prueba es necesario, también, obtener el estadístico
ajustado para luego compararlo con los valores críticos de la tabla de Anderson- Darling.
Prueba G o prueba del logaritmo de la razón de Verosimilitudes
En estadística, la función de verosimilitud (o, simplemente, verosimilitud) es una función de los
parámetros de un modelo estadístico que permite realizar inferencias acerca de su valor a partir de
un conjunto de observaciones.
No debe confundirse con el término probabilidad: ésta permite, a partir de una serie de parámetros
conocidos, realizar predicciones acerca de los valores que toma una variable aleatoria.
Formula
En cierto sentido, la verosimilitud es una versión inversa de la probabilidad condicional. Conocido un
parámetro B, la probabilidad condicional de A es P(A|B), pero si se conoce A, pueden realizarse
inferencias sobre el valor de B gracias al teorema de Bayes, según el cual
La función de verosimilitud, L( b |A), definida como
desempeña el mismo papel bajo un enfoque no bayesiano. De hecho, lo relevante no es el valor en
sí de L( b |A) sino la razón de verosimilitudes.
Esta permite comparar cuanto más verosímil es el parámetro
que el
a la hora
de explicar el evento A. De ahí que en ocasiones se entienda que la función de verosimilitud, más
que una función en sí, sea la clase de funciones
Donde: α es una constante de proporcionalidad.
La función de verosimilitud, abundando en los razonamientos anteriores, abre la vía para dos
técnicas muy habituales en inferencia estadística: las de la máxima verosimilitud y la del test de la
razón de verosimilitudes.
Función de verosimilitud para distribuciones continuas
En los casos anteriores, los eventos considerados tenían una probabilidad p estrictamente mayor
que cero. Pero cuando la noción de verosimilitud se extiende a variables aleatorias con una función
de densidad f sobre, por ejemplo, el eje real, la probabilidad de un evento cualquiera es nula.
4.5. Muestras definitivas
4.5.1. Estadísticas descriptivas
4.5.2. Muestra pequeñas: prueba de kolmogorov-Smirnov para ajuste de una
distribución de probabilidades continua hipotética (en hoja de cálculo o con
paquete estadístico)
Desarrollada en la década de los treinta del siglo XX, esta prueba permite —al igual
que la prueba Chi-cuadrada— determinar la distribución de probabilidad de una serie
de datos. Una limitante de la prueba de Kolmogorov-Smirnov estriba en que solamente
se puede aplicar al análisis de variables continuas. El procedimiento general de la
prueba es:
1. Obtener al menos 30 datos de la variable aleatoria a analizar.
2. Calcular la media y la varianza de los datos.
3. Crear un histograma de m= vn intervalos, y obtener la frecuencia observada en
cada intervalo 0¡.
4. Calcular la probabilidad observada en cada intervalo PO¡ =0¡ / n , esto es, dividir
la frecuencia observada O. entre el número total de datos, n.
5. Acumular las probabilidades PO.para obtener la probabilidad observada hasta el
i-ésimo intervalo, POAr
6. Establecer de manera explícita la hipótesis nula, para esto se propone una
distribución de probabilidad que se ajuste a la forma del histograma.
7. Calcular la probabilidad esperada acumulada para cada intervalo, PEA¡, a partir
de la función de probabilidad propuesta.
8. Calcular el estadístico de prueba.
c = máx |PEA¡ - PÚA, \ i = 1,2,3,..., k,..., m
9. Definir el nivel de significancia de la prueba a, y determinar el valor crítico de la
prueba, Da n (consulte la tabla de valores críticos de la prueba de KolmogorovSmirnoven la sección de apéndices).
10. Comparar el estadístico de prueba con el valor crítico. Si el estadístico de prueba
es menor que el valor crítico no se puede rechazar la hipótesis nula.
4.5.3. Muestras grandes: prueba de Karl- Pearson para ajuste de una
distribución de probabilidades hipotética, discreta o continua (en hoja de
cálculo o con paquete estadístico)
El estudio de Monte Carlo para determinar la validez del empleo de la prueba del error
estándar de ajuste como criterio de selección en el análisis de frecuencias. Dicho
estadístico se comparó con los estadísticos de prueba de Kolmogorov-Smirnov,
Cramer-Von Mises y Anderson-Darling. Las distribuciones elegidas para el propósito de
comparar estos estadísticos fueron la gamma, Weibull, Gumbel, log-normal y loglogística. Los resultados obtenidos recomiendan el uso de muestras con tamaño de por
lo menos de más de n=50 para tener un buen desempeño de las pruebas de
Anderson-Darling y error estándar de ajuste. El empleo de las pruebas de KolmogorovSmirnov y Cramer-Von Mises o pruebas Karl-Pearson es del todo recomendable en
hidrología, ya que para obtener un desempeño aceptable se necesitan muestras más
grandes de las que normalmente se tienen en esta disciplina.
El análisis de frecuencias de eventos hidrológicos extremos para estimar la
probabilidad de ocurrencia de dichos eventos. A menudo, el periodo de retorno del
evento de diseño de una obra hidráulica excede el periodo de las observaciones y
deben hacerse extrapolaciones a partir de los valores registrados. Una forma de
extrapolar los datos históricos consiste en emplear el método gráfico, que requiere de
un analista experimentado y presenta la desventaja de la subjetividad. Una técnica más
objetiva es encontrar la distribución de probabilidad teórica que se ajuste mejor a los
datos medidos y usar esta función para la extrapolación.
Algunas de las distribuciones de probabilidad usadas en hidrología son normal, lognormal, gamma, Gumbel, Weibull, Pearson tipo III y log-Pearson tipo III (Aksoy, 2000;
Aparicio-Mijares, 2005). Un problema importante en el análisis de frecuencias es la
selección de una distribución de probabilidad apropiada para los datos observados.
Este problema no es exclusivo de la hidrología, también se observa en otras áreas,
como la confiabilidad y ciencias actuariales. Quesenberry y Kent (1982) desarrollaron
un criterio de selección de distribuciones basado en estadísticos invariantes bajo
transformaciones de escala.
4.6 Simulación de los comportamientos aleatorios de los proyectos
y su verificación.
Simular el funcionamiento de distintos tipos de instalaciones o procesos. A la instalación o
proceso que se pretende estudiar se le denomina sistema y para poderlo analizar se realiza
una serie de supuestos sobre su funcionamiento. Estos supuestos, que normalmente se
expresan mediante relaciones matemáticas o relaciones lógicas, constituyen un modelo del
sistema. Este modelo se utiliza para comprender y prever el comportamiento del sistema real.
Si las relaciones matemáticas o lógicas que comprende el modelo son sencillas, entonces será
posible utilizar un procedimiento analítico para obtener una solución o respuesta exacta sobre
las características de interés del sistema analizado. No obstante, si las relaciones son
complejas, puede ocurrir que no se pueda evaluar analíticamente el problema. En este caso,
será necesario acudir a la simulación del sistema, evaluando numéricamente el modelo y
analizando los datos obtenidos para estimar las características de dicho sistema.
Sistemas, modelos y simulación
Un sistema se puede definir como un conjunto de elementos unidos por relaciones de
interacción o interdependencia. En el ámbito de los sistemas productivos estos elementos
normalmente tienen un objetivo común.
Los elementos que forman parte del sistema vienen condicionados por el objetivo del estudio
que se pretende realizar, ya que un sistema definido para un estudio determinado puede ser
una parte de un sistema más amplio definido para otro estudio particular. Por ejemplo, si se
quiere determinar cuál es el número más adecuado de operarios y máquinas en la sección de
mecanizado de una empresa que tiene una determinada cartera de pedidos, estos elementos
serán los que formen parte del sistema a analizar, mientras que, si lo que se desea es estudiar
la capacidad productiva de la empresa, los elementos mencionados anteriormente sólo serán
una parte del sistema. A ellos habrá que añadir montaje, embalaje, almacenaje, etc.
Se pueden realizar las siguientes definiciones:
−
Atributo: propiedad de un elemento del sistema.
−
Actividad: todo proceso que provoque un cambio en el sistema.
El estado del sistema en un instante de tiempo determinado se puede definir como la
descripción de todos los elementos, atributos y actividades en dicho instante. Por ejemplo, el
estado de una oficina bancaria en un instante se podría definir mediante el número de cajeros
en él, el número de clientes, el instante de llegada de cada cliente y el tipo de operación que
desea realizar cada uno. Este conjunto constituiría las variables de estado del sistema.
Tipos de sistemas
Evidentemente, las características del sistema real que se desea estudiar van a condicionar el
tipo de simulación que se va a desarrollar. Por lo tanto, conviene hacer una clasificación de los
sistemas de acuerdo con los aspectos que van a condicionar su análisis posterior. Así, es útil
realizar una clasificación de los sistemas atendiendo a tres aspectos fundamentales:
Sistemas estáticos y sistemas dinámicos. Un sistema se considera estático cuando sus
variables de estado no cambian a lo largo del tiempo, es decir, cuando el tiempo no juega
ningún papel en sus propiedades. Por el contrario, en un sistema dinámico los valores que
toman todas o algunas de sus variables de acción evolucionan a lo largo del tiempo.
Sistemas deterministas y sistemas estocásticos. Si un sistema no tiene ningún componente de
carácter estocástico (es decir, aleatorio) se considera determinista. En este caso, el
comportamiento del sistema está determinado una vez que se hayan definido las condiciones
iniciales y las relaciones que existen entre sus componentes.
Por el contrario, un sistema no determinista o estocástico tiene algún elemento que se
comporta de forma aleatoria, de forma que no está predeterminado comportamiento en función
de las condiciones iniciales y de las relaciones entre sus componentes. En este caso, el
sistema sólo se podrá estudiar en términos probabilistas, consiguiendo, en el mejor de los
casos, conocer sus respuestas posibles con sus probabilidades asociadas.
Sistemas continuos y sistemas discretos. En un sistema continuo las variables de estado
cambian de forma continua a lo largo del tiempo, mientras que en uno discreto cambian
instantáneamente de valor en ciertos instantes de tiempo. En un sistema de una cierta
complejidad puede ocurrir que existan simultáneamente variables de estado continuas y
discretas. En este caso, dependiendo de la predominancia de una y otras y del objetivo del
estudio que se pretende realizar, se considerará el sistema como perteneciente a uno de los
dos tipos.
Tipos de modelos
Para estudiar un sistema, la forma más inmediata sería experimentar sobre él. Sin embargo,
esto puede ser desaconsejable, e incluso imposible, por diversos motivos:
−
Puede ocurrir que el sistema no exista y lo que se pretenda sea su diseño.
−
Puede ser imposible experimentar con el sistema real porque no se dispone de ningún
control sobre dicho sistema; por ejemplo, si se desea estudiar un sistema financiero,
bursátil,...
−
Puede ser económicamente inviable la experimentación sobre el sistema real.
−
La experimentación sobre el sistema real puede conllevar unos plazos de tiempo muy
dilatados. Es el caso, por ejemplo, de ciertos sistemas sociales o biológicos.
En cualquiera de los casos anteriores se hace necesaria la construcción de un modelo del
sistema que refleje con la fidelidad adecuada las características destacadas del sistema a
analizar y la experimentación sobre dicho modelo. Si se realiza correctamente la
construcción del modelo y el diseño de los experimentos, los resultados obtenidos
permitirán inferir cuál sería el comportamiento del sistema a analizar en determinadas
condiciones.
Necesidad de la simulación
Ya se ha indicado anteriormente que se recurre a la simulación cuando el modelo matemático
que representa el sistema a estudiar es excesivamente complejo o resulta inabordable por no
estar desarrollados métodos analíticos para su resolución. La fuente de complejidad puede
tener básicamente dos causas:
−
En los sistemas continuos es frecuente que unas variables de estado representen la tasa o
velocidad de cambio de otras variables de estado. La formulación matemática de estos
modelos lleva a la aparición de ecuaciones diferenciales que indican las relaciones
anteriormente mencionadas. Si el sistema tiene una cierta complejidad, puede ocurrir que
las ecuaciones diferenciales sean no lineales y, por lo tanto, de difícil o imposible resolución
analítica.
−
En los sistemas discretos pueden aparecer fenómenos aleatorios que sólo se pueden
representar en términos probabilistas. En este caso, la formulación matemática del modelo
contiene relaciones en las que aparecen funciones de distribución o de densidad de
probabilidad, que dificultan o impiden su resolución analítica.
Como ya se ha indicado, la catalogación de un sistema como continuo o discreto depende del
objetivo del estudio y de las variables de estado predominantes. Esto quiere decir que un
mismo sistema puede tener ciertas variables de estado continuas y otras discretas. Por lo
tanto, no es infrecuente encontrar modelos en los que coexisten ecuaciones diferenciales
complejas con variables aleatorias, lo que, evidentemente, complica aún más la resolución
analítica.
Verificación. El modelo anterior se debe validar mediante la ejecución de una serie de
experimentos piloto, en los que los resultados obtenidos coincidan con los previsibles ante
determinadas condiciones iniciales. Por otra parte, si el sistema modelado es similar a alguno
ya existente, se puede contrastar el funcionamiento del modelo con el del sistema real.
Ventajas de la simulación
Ya se ha comentado previamente que la simulación es una técnica cada vez más utilizada en el
estudio de sistemas complejos. Entre los argumentos a favor de la utilización de la simulación
se encuentran los siguientes:
−
La mayoría de los sistemas complejos reales con elementos estocásticos no se pueden
describir con suficiente precisión mediante un modelo matemático que se pueda resolver
analíticamente. Por lo tanto, con frecuencia la simulación es el único método posible de estudio
de dichos sistemas.
−
La simulación permite estimar el comportamiento de un sistema existente bajo un conjunto
previsto de condiciones operativas.
−
Mediante la simulación se pueden comparar diseños alternativos (o políticas de operación
alternativas para un determinado diseño) para especificar cuál es el que cumple de forma más
adecuada con los objetivos formulados.
−
En la simulación se puede tener un control mucho mejor sobre las condiciones del
experimento que si se realizase sobre el propio sistema.
−
La simulación permite estudiar un sistema cuya evolución es muy dilatada en el tiempo (por
ejemplo, un sistema económico) en un periodo de tiempo reducido. Alternativamente,
también permite estudiar de forma detallada la evolución de un sistema en un corto periodo
de tiempo.
Conclusión
El proceso de validación de un modelo de simulación siempre está sujeto al
experimento frente al que se vaya a realizar el estudio. Por lo que no se puede
asegurar estrictamente si el modelo es válido o no, habrá que señalar siempre el
experimento frente al que es válido o no. Sirve por lo tanto como una guía en el diseño
de experimentos. Para realizar la validación de cualquier modelo de simulación, no es
necesario ser un experto del sistema que el modelo represente, bastaría con tener
ciertos conocimientos estadísticos y estar apoyado por en el sistema.
Bibliografía
http://ocwus.us.es/metodos-de-investigacion-y-diagnostico-en-educacion/analisis-de-datos-enla-investigacion-educativa/Bloque_II/page_40.htm/
http://revistas.utp.edu.co/index.php/revistaciencia/article/view/3137
http://www.iol.etsii.upm.es/arch/simulacion.pdf
file:///C:/Users/El%20Kostra/Downloads/693-388-140_10.pdf
https://www.ingenieriaindustrialonline.com/herramientas-para-el-ingeniero-industrial/estudio-detiempos/c%C3%A1lculo-del-n%C3%BAmero-de-observaciones/
http://www.didacticaambiental.com/revista/numero10/6.-.pdf
http://support.minitab.com/es-mx/minitab/17/topic-library/basic-statistics-andgraphs/introductory-concepts/confidence-interval/confidence-interval/
http://campus.fi.uba.ar/course/view.php?id=187
http://www.iol.etsii.upm.es/arch/simulacion.pdf
http://www.redalyc.org/pdf/302/30235208.pdf
http://www.simulacion.com/trabajos-pdf5/prueba-chi-cuadrada-estadistica/prueba-chi-cuadradaestadistica.shtml
http://simulacionunilibre.blogspot.mx/p/prueba-anderson-darling.html
http://www.econ.unicen.edu.ar/attachments/1051_TecnicasIISimulacion.pdf
http://www.cyta.com.ar/biblioteca/bddoc/bdlibros/monte_carlo/monte_carlo.htm?iframe=true&width=95
%&height=95%
http://www.scielo.org.mx/scielo.php?pid=S2007-24222014000500012&script=sci_arttext&tlng=en
http://dspace.ucbscz.edu.bo/dspace/bitstream/123456789/4345/3/1368.pdf
Descargar