Estadística Es una ciencia matemática que se ocupa de la

Anuncio
Estadística
Es una ciencia matemática que se ocupa de la recolección, análisis, interpretación o explicación,
y presentación de datos. También incluye la predicción y pronostico basado en datos. Es
aplicable a una gran variedad de disciplinas como las ciencias naturales, ciencias sociales,
humanidades, gobierno, y los negocios.
Los métodos estadísticos se pueden usar para resumir o describir una colección de datos; esto es
llamado Estadística Descriptiva. Además, patrones en los datos se pueden modelar de manera
que tomen en cuenta la aleatoriedad e incertidumbre en las observaciones, y son utilizados para
obtener inferencias sobre los procesos o poblaciones en estudio; esto es llamado Estadística
Inferencial. La estadística descriptiva, predictiva, e inferencial conforman la Estadística
Aplicada.
Ejemplos de estadística descriptiva lo son la media y la desviación estándar como descriptores
numéricos. Los histogramas son resúmenes gráficos. Ejemplos de estadística inferencial lo son
pruebas de hipótesis para contestar preguntas si/no, estimación para estimados de características
numéricas, correlación para descripciones de asociación, regresión para modelación de
relaciones. Otras técnicas incluyen análisis de varianza, series de tiempo, y minería de datos.
La Estadística Matemática se ocupa de las bases teóricas del tema. Esto lo hace desde una
posición puramente matemática, utilizando teoría de probabilidad así como otras ramas de
matemática como el álgebra lineal y análisis.
La Estadística Exacta fue desarrollada para proveer resultados más precisos en las pruebas
estadísticas y estimación de intervalos mediante la eliminación de procedimientos basados en
métodos estadísticos aproximados y asintóticos. La característica principal de los métodos
exactos es que las pruebas estadísticas y los intervalos de confianza están basados en enunciados
de probabilidad exactos que son validos para cualquier tamaño muestral.
Cuando p-valores exactos e intervalos de confianza son calculados bajo ciertas distribuciones,
entonces los métodos usados son referidos como Métodos Paramétricos. Los métodos exactos
que no hacen supuesto alguno sobre la distribución son referidos como Métodos No
Paramétricos. Los métodos no paramétricos tienen la ventaja de no asumir muchas cosas,
mientras que los métodos paramétricos tienden a dar pruebas más poderosas cuando los
supuestos de distribución son razonables. Para métodos avanzados como ANOVA de
n-vías (n > 1), regresión, y modelos mixtos, solo hay métodos paramétricos.
Los campos de economía, finanzas, mercadeo, y negocios hacen uso de la estadística para
estudiar, analizar, y comprender el entorno dado la ausencia de certidumbre y conocimiento
perfecto. También hacen uso de métodos cuantitativos como la investigación de operaciones y
programación (tanto matemática como computacional). Los campos de la física e ingeniería han
brindado grandes aportes a estas áreas de estudio dado la naturaleza rigurosa de las técnicas
utilizadas.
La estadística se presta a ser utilizada de mala manera dado el grado de objetividad-subjetividad
en la interpretación de los datos y la información obtenida.
Teoría de la Probabilidad
Es una rama de las matemáticas que se ocupa del análisis de fenómenos aleatorios. Los objetos
centrales de la teoría de la probabilidad son variables aleatorias, procesos estocásticos, y eventos.
Por ejemplo, aunque un simple lanzamiento de una moneda o la tirada de un dado es un evento
aleatorio, si se repite muchas veces dicha secuencia de eventos aleatorios exhibirá cierto patrones
estadísticos, que pueden ser estudiados y predichos.
Dos resultados matemáticos representativos que describen dichos patrones son los Teoremas
Fundamentales de la Probabilidad: La ley de los números grandes y el teorema del límite
central. Esto surge como respuesta al problema general de ¿Cuál es la conducta limitante de Sn a
medida que n → ∞? Estos dos teoremas son soluciones parciales.
Como fundamento matemático de la estadística, la teoría de la probabilidad es esencial para las
actividades que usan análisis cuantitativo de grandes conjuntos (sets) de datos. Métodos de teoría
de la probabilidad también se usan para la descripción de sistemas complejos bajo conocimento
parcial de sus estados.
Evento
Abstracción matemática de eventos no determinísticos o cantidades medidas que pueden ser
ocurrencias singulares (simples, únicas) o evolucionar en el tiempo de manera aparentemente
aleatoria. Es un conjunto de resultados (un subconjunto del espacio muestral) al que una
probabilidad es asignada.
Cuando el espacio muestral es finito, cualquier subconjunto del espacio muestral es un evento.
Sin embargo, cuando el espacio muestral es infinito es posible y necesario excluir ciertos
subconjuntos del espacio muestral para que no sean eventos.
Notación
Si X es una variable aleatoria con valor Real definida en el espacio muestral Ω, el evento
 | u  X ()  v
puede ser escrito de manera más conveniente como
u X v
Esto es especialmente común en formulas para una probabilidad, como
P(u  X  v)  F (v)  F (u)
Evento Complementario
El complemento de un evento A es el evento [no A]; es decir, el evento de que A no ocurra. El
evento A y su complemento [no A] son mutuamente excluyentes y exhaustivos. Generalmente,
solo hay un evento B tal que A y B son ambos mutuamente excluyentes y exhaustivos; ese
evento es el complemento de A. El complemento de un evento A a veces se denota A’.
Evento Independiente
Un evento independiente es aquel cuya probabilidad de ocurrencia no depende de la ocurrencia
de otro evento. Intuitivamente, dos eventos son independientes si la ocurrencia de un evento no
hace que sea más o menos probable la ocurrencia del otro. Similarmente, dos variables aleatorias
son independientes si la distribución de probabilidad condicional de cualquiera, dado el valor
observado del otro, es la misma que si el valor del otro no hubiese sido observado.
Formalmente, dos eventos A y B son independientes si y solo si P(A∩B)=P(A)P(B)
A nivel general, cualquier colección de eventos – posiblemente más de dos – son mutuamente
independientes si y solo si para cualquier subconjunto finito A1, …, An de la colección tenemos
 n  n
P  Ai    P Ai 


 i 1  i 1
Esto es llamado la regla multiplicativa de eventos independientes.
Lo siguiente no es tomado como la definición de independencia: Si dos eventos A y B son
independientes, entonces la probabilidad condicional de A dado B es la misma que la
probabilidad marginal (incondicional) de A, es decir, P(A|B)=P(A). Esto se debe a que el
enunciado tiene problemas cuando se trata de eventos de probabilidad 0, porque por definición
P( A  B)
P( A | B) 
P( B)
Independencia no tiene el mismo significado que en el lenguaje común. Un evento puede ser
independiente de si mismo si y solo si P(A)=P(A∩A)=P(A)P(A). Eso es, si su probabilidad es
1 ó 0. Si un evento o su complemento casi seguro ocurre, es independiente de si mismo. Por
ejemplo, si el evento A es elegir cualquier numero pero el 0,5 de una distribución uniforme en el
intervalo unitario; A es independiente de si mismo, a pesar que tautológicamente A totalmente
determina a A.
Tautología
En lógica proposicional, tautología es una formula proposicional que es verdadera bajo cualquier
evaluación posible (interpretación) de sus variables proposicionales. De otra manera, tautología
es aquella proposición cuya tabla de verdad da siempre el valor de verdad V en todos los casos
posibles de los valores de verdad (V, F) de cada una de las proposiciones que la integran. En
todos los casos la forma del argumento ofrece un resultado verdadero, por lo que el argumento es
válido.
De un modo más sencillo: la supuesta explicación de algo mediante una redundancia, la
"explicación" o definición de algo mediante una ligera variación de palabras que tienen en
conjunto el mismo significado ya conocido de lo supuestamente explicado. Ejemplo: una
novedosa innovación.
La negación de una tautología es una contradicción.
Deterministico
Cuya propiedad es tener una conducta determinada solo por el estado inicial y la entrada (input).
No tiene la posibilidad de resultar en otra conducta.
Evento No Deterministico
Evento que depende de otros factores más allá del estado inicial y la entrada (input).
Estado
Configuración única de información en un programa o máquina. De esta definición se deriva que
un estado es un conjunto (set) de resultados organizados de una manera particular en respuesta a
eventos de entrada (input). Representa una situación en un punto en el tiempo en un modelo de
un sistema.
Sistema
Es un conjunto de entidades interactuando o interdependientes, reales o abstractas, que forman
un todo integrado.
Modelo
Es un patron, plan, representación, o descripción diseñada para mostrar el funcionamiento de un
objeto, sistema, o concepto. Es una abstracción o conceptualización de objetos de interés en el
sistema descrito, utilizada en la creación de una formula predictiva. La modelación es parte
fundamental, esencial e inseparable de toda actividad científica; utilizando en muchos casos el
lenguaje matemático para describir un sistema.
Se basa en el uso y manejo de variables clasificadas en seis grupos básicos: variables de
decisión, variables de entrada, variables de estado, variables exógenas, variables aleatorias, y
variables de salida.
Se pueden clasificar en:
Lineales vs No Lineales: Si todos los operadores en un modelo presentan linealidad, entonces el
modelo se define como lineal, en caso contrario se considera no lineal.
Deterministicos vs Probabilísticos (Estocásticos): Un modelo deterministico es uno en que cada
conjunto de estados de las variables es únicamente determinado por parámetros en el modelo y
por un conjunto de estados previos de estas variables. Por consiguiente, un modelo
deterministico siempre tienen un mismo desempeño para un conjunto de condiciones iniciales
dado. Un modelo estocástico es aquel donde la aleatoriedad esta presente, y los estados de las
variables no son descritos por valores únicos, sino por distribuciones de probabilidad.
Estáticos vs Dinámicos: Un modelo estático no toma en cuenta el elemento tiempo, mientras que
un modelo dinámico si. Los modelos dinámicos por lo general se representan con ecuaciones en
diferencia (relaciones recursivas) o ecuaciones diferenciales.
Agrupados vs Parámetros Distribuidos: Si el modelo es homogéneo (un estado consistente en
todo el sistema), los parámetros están agrupados. Si el modelo es heterogéneo (estados variantes
dentro del sistema), entonces los parámetros están distribuidos. Parámetros distribuidos por lo
general se representan con ecuaciones diferenciales parciales.
Empíricos vs Heurísticos: Los modelos empíricos son los que utilizan las observaciones directas
o los resultados de experimentos del fenómeno estudiado. Los modelos heurísticos se basan en
las explicaciones sobre las causas o mecanismos naturales que dan lugar al fenómeno estudiado.
La representación puede ser conceptual o matemática. Por su uso se pueden usar para la
simulación, optimización, o control. La modelación puede ser computarizada. En ese caso, un
programa de computadora intenta simular un modelo abstracto de un sistema particular. En todo
caso el modelo se construye para expresar la lógica del sistema. Si el modelo se construye
basado en un conjunto de datos, se debe determinar de que sistema o situación los datos son un
conjunto típico.
Ley de los Números Grandes
Es el primer teorema fundamental de la probabilidad. Describe la estabilidad a largo plazo de la
media de una variable aleatoria.
Formas
1
( x1    xn )
n
xn  
para n  
donde X1, X2, … es una secuencia infinita de variables aleatorias independientes e idénticamente
distribuidas (i.i.d.), con valor esperado μ < ∞. El supuesto σ2 < ∞ no es necesario. σ2 → ∞ hace
la convergencia lenta, pero la LNG se mantiene.
xn 
Ley Débil
p
xn  
para
n
lim P(| xn   |  )  1
n 
Promedio muestral converge en probabilidad hacia el valor esperado. (Convergencia debil de
variables aleatorias)
Ley Fuerte
a.s.
xn  
para
n


P lim xn     1
 n 

Promedio muestral converge casi seguramente hacia el valor esperado. (Convergencia fuerte de
variables aleatorias)
Consecuencias
Ley débil, propiedad de equipartición asintótica (propiedad general de las muestras resultantes de
una fuente estocástica). Ley fuerte, la ley fuerte implica la ley débil (pero no lo contrario).
Caso especial
La ley fuerte se puede ver como un caso especial del teorema ergódico (teoría ergódica – estudia
sistemas dinámicos).
Teorema del Límite Central
Es el segundo teorema fundamental de la probabilidad. Indica que la suma de un numero
suficientemente grande de variables aleatorias i.i.d., cada una con media y varianza finita, estará
aproximadamente distribuida normalmente.
Sea X1, X2, X3, …, Xn una secuencia de variables aleatorias i.i.d. con μ < ∞ y σ2 > 0
n
S n  x1    xn   xi
i 1
S  n
Zn  n
Z n  N (0,1) para n  

n

D
n ( xn   )  N (0, 2 )
S
donde xn  n
n
 ( x1    xn )
Significa que si Φ(z) es la f.d.c. de N(0,1), entonces para todo Z real
lim P ( Z n  z )   ( z )
n 
ó


 xn  

lim P
 z   ( z )
n   

n


Sea cual sea la distribución de la variable aleatoria, cuando el número de variables es grande, la
distribución de la suma de variables aleatorias tiende a una distribución normal. Las ventajas de
este teorema radican en que el análisis de los resultados se simplifica ya que se puede asumir un
tipo de distribución permitiendo así modelar el comportamiento de la variable.
Casi Seguramente
Una sucesión de variables aleatorias Xn converge de forma casi segura a una variable aleatoria
límite X cuando el conjunto de sucesos ω, tales que X(ω) es el límite de la sucesión Xn(ω), tiene
probabilidad 1
Estadístico
Es una medida cuantitativa, derivado de un conjunto de datos de una muestra con el objetivo de
estimar o contrastar características de una población o modelo estadístico. Es una función
medible que dado una muestra estadística de valores, les asigna un número que sirve para estimar
los parámetros de la distribución de la que procede la muestra. Ej: media, varianza, curtosis,
estadístico t, etc. Propiedades potenciales importantes de estadísticos incluyen completitud,
consistencia, suficiencia, no sesgo (objetividad), error cuadrado medio mínimo, baja varianza,
robustez, y conveniencia computacional (facilidad, eficiencia y efectividad de cálculo).
Probabilidad
Frecuencia con la que ocurre un resultado en un experimento bajo condiciones estables. Es el
chance (oportunidad) de que algo sea el caso u ocurrirá. La probabilidad mide la frecuencia con
la que ocurre un resultado en un experimento bajo condiciones suficientemente estables. La
teoría de la probabilidad se usa extensamente en áreas como la estadística, la matemática, la
ciencia y la filosofía para sacar conclusiones sobre la probabilidad de sucesos potenciales y la
mecánica subyacente de sistemas complejos.
La probabilidad constituye un importante parámetro en la determinación de las diversas
causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.
Dos aplicaciones principales de la teoría de la probabilidad en el día a día son en el análisis de
riesgo y en el comercio de los mercados de materias primas. En campos como la política, las
probabilidades no se calculan independientemente y tampoco son necesariamente muy
racionales.
Los frecuentistas (de frecuencia) hablan de probabilidades solo cuando tratan con experimentos
aleatorios bien definidos. La probabilidad de un evento denota la frecuencia relativa de
ocurrencia del resultado de un experimento, cuando se repite el experimento. Frecuentistas
consideran como probabilidad la frecuencia relativa “a la larga” de los resultados.
Los bayesianos asignan probabilidades a cualquier enunciado, aun cuando no haya procesos
aleatorios. Probabilidad para un bayesiano es una manera de representar los “grados de creencia”
en un enunciado, dado la evidencia.
Matemáticamente se representa con un número real en el rango de 0 a 1 y escrito como P(A),
p(A), o Pr(A). Un evento imposible tiene probabilidad 0, mientras que un evento seguro tiene
probabilidad 1. Sin embargo, lo otro no siempre es verdad: eventos de probabilidad 0 no siempre
son imposibles, ni eventos de probabilidad 1 seguros. La diferencia entre “seguro” y
“probabilidad 1” viene dada por lo que se llama casi seguro.
En un universo deterministico, basado en conceptos newtonianos, no hay probabilidades si todas
las condiciones son conocidas.
Nota curiosa
A pesar de que en un sentido realista los conceptos de negativos no se ajustan a la vida real; el
concepto de probabilidad negativa, introducido en física y particularmente en mecánica cuántica,
se ha ido probando e intentando aplicar en la matemática financiera. En finanzas cuantitativas la
mayoría de las probabilidades no son reales sino pseudo-probabilidades (probabilidades riesgo
neutrales). No son probabilidades reales, sino “probabilidades” teóricas bajo una serie de
supuestos que ayudan a simplificar los cálculos, dando mayor flexibilidad a ciertos modelos
financieros sin que sean inconsistentes con probabilidades reales observadas.
Momento
El concepto de momento en matemáticas evolucionó del concepto de momento en física. El
momento n de una función real de una variable real alrededor de un valor C es
n 

 ( x  c)
n
f ( x)dx

Los momentos alrededor de cero usualmente se les llaman simplemente los momentos de una
función. Usualmente, con excepción del contexto especial del problema de momentos, la función
será una función de densidad de probabilidad. El momento n alrededor de cero de una f.d.p. f(x)
es el valor esperado Xn. Los momentos alrededor de la media μ son llamados momentos
centrales; los cuales describen la forma de la función, independientemente de traslación.
Significado de los momentos
El primer momento alrededor de 0, si existe, es la expectativa de X; es decir, la media de la
distribución de probabilidad de X, designada μ. El momento central n de la distribución de
probabilidad de una variable X es
 n  E (( X   ) n )
Por consiguiente, el primer momento central es 0. El segundo momento central es la varianza σ2,
de la cual la raíz cuadrada positiva es la desviación estándar σ. El momento n normalizado o
momento estandarizado es el momento central n dividido entre σn, es decir (μn/σn). Estos
momentos centrales normalizados son cantidades sin dimensión, que representan la distribución
independientemente de cualquier cambio lineal de escala. Así, el primer momento estandarizado
es 0, porque el primer momento alrededor de la media es cero. El segundo momento normalizado
es 1, porque el segundo momento es igual a la varianza.
El tercer momento central es una medida del sesgo de una distribución, cualquier distribución
simétrica tendrá un tercer momento central, si definido, de 0. El tercer momento central
normalizado es llamado asimetría, usualmente γ. Una distribución que es asimétrica a la
izquierda (la cola de la distribución es mas larga y flaca a la izquierda y gorda a la derecha)
tendrá una asimetría negativa. Una distribución que es asimétrica a la derecha (la cola de la
distribución es mas gorda a la izquierda y larga y flaca a la derecha) tendrá una asimetría
positiva. Para distribuciones que son muy parecidas a la distribución gaussiana, la mediana estará
algo cerca de μ - γσ/6, la moda alrededor de μ - γσ/2.
El cuarto momento central normalizado se llama curtosis, es una medida de si la distribución es
alta y flaca, o baja y achatada; comparada a la distribución normal con la misma varianza. Como
es la expectativa de una cuarta potencia, el cuarto momento, donde definido, siempre es positivo;
y exceptuando la distribución punto (degenerada), es estrictamente siempre positiva. El cuarto
momento central de una distribución normal es 3σ4.
Parámetro
Medida auxiliar. Es una cantidad que define ciertas características de sistemas o funciones. Un
parámetro no es una variable. Los parámetros son medidas específicas, mientras que las
variables… varían. Los parámetros no son constantes. Las constantes no cambian, mientras que
los parámetros pueden cambiar. Ej: media, desviación estándar, máximo, moda, etc. Es de notar
que un estadístico si puede ser un parámetro. La estimación de parámetros es uno de los focos de
atención de la estadística y econometría.
Estimador
Es una función de los datos muestrales observables usada para estimar un parámetro poblacional
desconocido (el estimando). Un estimado es el resultado de la aplicación de dicha función a una
muestra particular de datos.
Promedio (“Average”)
Tendencia central de un conjunto de datos. Se refiere a una medida del “medio”, centro, o valor
“esperado” de un set de datos. Un promedio es un valor que pretende tipificar y representar una
lista de valores. Los estadísticos más comunes para expresar el promedio son la media, la
mediana, y la moda.
Media
Describe la ubicación central de los datos. Se estila a utilizar este término para referirse a la
media aritmética (y se distingue de media geométrica, media armónica, etc.), o al valor esperado
de una variable aleatoria, que también se llama media poblacional. Es por ello que en estos
sentidos la media no es un promedio, dado que existen varios tipos de promedio.
Para una variable aleatoria real X, la media es la expectativa de X. No toda distribución de
probabilidad tiene una media definida, Ej. la distribución de Cauchy.
Media Aritmética
Es la media “estándar” que se utiliza, simplemente llamada media. Se define como la sumatoria
de los componentes de una lista dividido entre la cantidad de miembros de la lista. De otra
forma, es la sumatoria de un conjunto de números dividido entre la cantidad de números. Si la
lista es una población estadística se le llama Media Poblacional. Si la lista es una muestra
estadística se le llama Media Muestral. Ambas se calculan de la misma manera.
xa  x 
1 n
1
xi  ( x1    xn )

n i 1
n
Se utiliza μ para denotar la media aritmetica de toda la población. Para una variable aleatoria que
tiene una media definida, μ es la media probabilística o valor esperado del numero aleatorio. En
la practica μ no se observa porque solo se tiene una muestra en vez de toda la población. Por la
ley de los números grandes, se utiliza la media muestral para estimar valores esperados
desconocidos.
La media de n+1 es mayor que la media de n si y solo si el nuevo numero es mayor a la vieja
media, menor si y solo si es menor, y se mantiene estable si y solo si es igual. Mientras más
grande es n, menor será la magnitud del cambio en la media relativo a la distancia entre la vieja
media y el nuevo numero (el numero se diluye). La media aritmetica no es un estadístico robusto,
generalmente siendo influenciado por valores extremos. Esto es notable en distribuciones
asimetricas, donde la mediana seria una mejor descripción de tendencia central; o en
distribuciones inciertas donde la moda podría funcionar mejor.
Media Geométrica
Utilizada para conjuntos de números positivos que son interpretados de acuerdo a su producto en
vez de su suma, o son exponenciales en naturaleza. Ej. Tasas de crecimiento poblacional, tasas
de retorno en finanzas. Se define como la raíz n-esima del producto de n datos.
1
 n
 n
x g    xi   n x1    xn


 i 1 
Se caracteriza por ser menor a la media aritmética del mismo conjunto de datos. Solo aplica para
números positivos. Es preferida como medida central de valores expresados en porcentajes por
tomar en cuenta el punto de partida de cada porcentaje sucesivo, para así calcular rendimientos
anualizados.
Mediana
Valor que ocupa el lugar central cuando los datos están ordenados en sentido creciente (si es
impar). Si es par se tiende a mencionar los dos valores centrales o calcular el promedio de los
mismos. Es el valor de la variable que deja el mismo número de datos antes y después que si
misma. Un intervalo mediano es el intervalo que contiene dicho dato.
Moda
Es el dato que más se repite en un conjunto de datos u observaciones. Si existen dos datos que se
repite un número igual de veces entonces el conjunto será bimodal.
Esperanza
La esperanza matemática (o simplemente esperanza) o valor esperado de una variable aleatoria
es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Para una
variable aleatoria discreta la esperanza se calcula como
n
E[ X ]   xi p ( xi )
i 1
Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los
valores y la función de densidad f(x)

E[ X ] 
 xf ( x)dx

La esperanza también se suele simbolizar con μ. No todas las variables tienen un valor esperado,
Ej. La distribución de Cauchy. El termino esperanza se utiliza cuando se habla de distribución de
probabilidad; cuando se trata de una muestra se habla de media. El valor esperado de una
constante es igual a la constante misma. Si X y Y son variables aleatorias tal que X ≤ Y,
entonces E[X] ≤ E[Y].
Desviación
Es una medida de diferencia para intervalos y variables de tasas entre el valor observado y la
media. El signo de la desviación, positivo o negativo, indica si el valor es mayor o menor que la
media. La magnitud del valor (en la escala relevante) indica que tan diferente e la observación de
la media. Una característica de la media es que la suma de las desviaciones a través del conjunto
completo de observaciones siempre es cero.
Varianza
Es una medida de la dispersión de una variable aleatoria X respecto a su esperanza E[X]. Se
define como la esperanza de la transformación (X – E[X])2. Esto es V(X) = E[(X – E[X])2]. La
varianza es la media de los cuadrados de las diferencias entre cada valor de la variable y la media
aritmética de la distribución.
Desviación Estándar (Aritmética)
La desviación típica es una medida que informa de la media de distancias que tienen los datos
respecto de su media aritmética, expresada en las mismas unidades que la variable. Es la raíz
cuadrada de la varianza. La desviación estándar es una medida del grado de dispersión de los
datos del valor promedio. Dicho de otra manera, la desviación estándar es simplemente el
"promedio" o variación esperada con respecto de la media aritmética. Una desviación estándar
grande indica que los puntos están lejos de la media, y una desviación pequeña indica que los
datos están agrupados cerca a la media. La desviación estándar puede ser interpretada como una
medida de incertidumbre.
Desviación Estándar Geométrica
Describe la dispersión de los datos con respecto a la media geométrica. A diferencia de la
desviación estándar aritmética, la geométrica no es una cantidad (aditiva), es un factor
(multiplicativo).
n
 (ln x i  ln  g ) 2
i 1
g  e
n
Asimetría
Es el tercer momento estándar de la distribución de probabilidad de una variable aleatoria de
número real. También se conoce como coeficiente de asimetría. Se define como γ1 = μ3/σ3 donde
μ3 es el tercer momento en torno a la media y σ es la desviación estándar. El riesgo de asimetría
denota que las observaciones no están esparcidas simétricamente alrededor del valor central.
Como resultado, la media y la mediana son diferentes. Es importante en modelos que se basan en
distribuciones simétricas. El riesgo de asimetría tiene implicaciones técnicas en el cálculo del
valor en riesgo, si no se toma en cuenta el VAR tendrá fallos.
Curtosis
Es el cuarto momento estándar. Es una medida de lo "picudo" (concentrada en torno a la media)
de la distribución de probabilidad de una variable aleatoria de número real. Una mayor curtosis
implica que la mayor parte de la varianza es debida a desviaciones infrecuentes en los extremos,
que se oponen a desviaciones comunes de medidas menos pronunciadas. Se define como
γ2 = μ4/σ4, donde μ4 es el cuarto momento en torno a la media.
La definición “moderna” se conoce como exceso de curtosis. Esta es γ2 = (μ4/σ4) – 3. La
sustracción del 3 al final de la fórmula es una corrección que se hace a la curtosis de una
distribución normal estándar (curtosis = 3). Una distribución puede ser leptocurtica, mesocurtica,
o platicurtica.
El riesgo de curtosis denota que las observaciones están esparcidas de una manera mas ancha que
la distribución normal. Es decir, menos observaciones están alrededor de la media y mas
observaciones están en los extremos.
Coeficiente de Variación
Es útil para comparar dispersiones a escalas distintas pues es una medida invariante ante cambios
de escala. Por otro lado presenta problemas ya que a diferencia de la desviación típica este
coeficiente es variable ante cambios de origen. Por ello es importante que todos los valores sean
positivos y su media de por tanto un valor positivo. Se calcula como Cv = σ/μ. Solo esta definido
para media distinta de 0. Es útil para datos medidos a escala de razones, pero no muy útil a
escala de intervalos.
Medida de intervalo
En este tipo de medida, los números asignados a los objetos tienen todas las características de las
medidas ordinales, y además las diferencias entre medidas representan intervalos equivalentes.
Esto es, las diferencias entre una par arbitrario de medidas puede compararse de manera
significativa. Por lo tanto, operaciones tales como la adición, la sustracción tienen significado. El
punto cero de la escala es arbitrario y se pueden usar valores negativos.
Medida racional
Los números asignados a los objetos tienen todas las características de las medidas de intervalo y
además tienen razones significativas entre pares arbitrarios de números. Operaciones tales como
la multiplicación y la división tienen significado. La posición del cero no es arbitraria para este
tipo de medida. Las variables para este nivel de medida se llaman variables racionales.
Mínimo
Dato que representa el valor mínimo en un conjunto de datos.
Máximo
Dato que representa el valor máximo en un conjunto de datos.
Sesgo
La diferencia entre el valor esperado de un estimador y el verdadero valor del parámetro
estimado.
Estimador Insesgado
Función que toma en cuenta el sesgo de una estimación. En algunas situaciones, si no se tiene
cuidado, su utilización puede llevar a resultados absurdos. Ej. La varianza muestral no es
representativa de la varianza poblacional. Esto se debe a que la media muestral, por definición,
esta en el medio de la muestra; pero el “medio” de la población puede bien estar fuera del rango
muestral. Es por ello que la varianza muestral necesita ser multiplicada por un factor de
normalización para ser algo representativa de la población.
Error
Es la diferencia entre el valor medido o estimado y el verdadero valor observado.
Error Medio
Es el valor esperado de los errores (la media de los errores).
Error Estándar
Es una medida que estima la desviación estándar de los errores. El verdadero valor de la
desviación de los errores es desconocida, por ello este valor es un estimado y esto se debe tomar
en cuenta.
Error Estándar Medio
Es un estimado del error esperado en el estimado muestral de la media poblacional. Se define
como la desviación estándar muestral dividida entre la raíz cuadrada de la cantidad muestral.
SE = s/√n Independencia en las cantidades medidas es un requisito. Si se asume que los datos
siguen una distribución normal, el error estándar y la media muestral se pueden utilizar para
calcular intervalos de confianza para la media.
Frecuencia
La cantidad de veces que se repite un determinado valor de la variable. Formalmente, es el
número n de veces que un evento i ocurre en un experimento o estudio. Usualmente se
representan por medio de histogramas.
Frecuencia Absoluta
Es el número de veces que el valor aparece en el estudio. Formalmente, se habla de frecuencia
absoluta cuando la cantidad n de repeticiones es dada.
Frecuencia Relativa
Es el cociente de la frecuencia absoluta y el tamaño de la muestra. Formalmente, se habla de
frecuencia relativa cuando la cantidad n de repeticiones e normalizada por el número total de
eventos.
Percentil
Es el valor de una variable bajo el cual determinado porcentaje de las observaciones caen. Ej. El
percentil 20% es el valor que por debajo del cual el 20% de las observaciones se encuentran.
Tablas de Contingencia
Se usan para registrar y analizar la relación entre dos o más variables, habitualmente de
naturaleza cualitativa (nominales u ordinales), variables categóricas.
Clasificación de Datos Categóricos
Se hace por medio de la frecuencia, tablas de contingencia.
Parámetro de Ubicación
Parámetro que determina donde se encuentra el origen μ de una función (no confundir con el
origen en el plano cartesiano). Puede ser parametrizado por un parámetro escalar o un parámetro
vectorial que determina la ubicación de la distribución. Media, mediana, y moda son ejemplos.
Dispersión Estadística
Es la variabilidad o esparcimiento en una variable o una distribución de probabilidad. Por lo
general se mide alrededor de la medida que determina el origen. Varianza, desviación estándar,
rango, rango intercuartil son ejemplos. La dispersión se origina por imperfecciones en la manera
de llevar a cabo una medición o calculo.
Medición de Datos Continuos
Se hace por medio de los parámetros de ubicación, dispersión estadística, y momentos.
Histograma
Es una representación gráfica de una variable en forma de barras, donde la superficie de cada
barra es proporcional a la frecuencia de los valores representados. En el eje vertical se
representan las frecuencias, y en el eje horizontal los valores de las variables, normalmente
señalando las marcas de clase, es decir, la mitad del intervalo en el que están agrupados los
datos.
Significancia Estadística
Un resultado se denomina estadísticamente significativo cuando no es probable que haya sido
debido al azar. Una "diferencia estadísticamente significativa" solamente significa que hay
evidencias estadísticas de que hay una diferencia; no significa que la diferencia sea grande,
importante, o significativa en el sentido estricto de la palabra.
El nivel de significación de un test es un concepto estadístico asociado a la verificación de una
hipótesis. En pocas palabras, se define como la probabilidad de tomar la decisión de rechazar la
hipótesis nula cuando ésta es verdadera (decisión conocida como error de Tipo I, o "falso
positivo").
En otros términos, el nivel de significatividad de un contraste de hipótesis es una probabilidad P
tal que la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando esta es
verdadera no es mayor que P.
Rango
La longitud del intervalo más pequeño que contiene todos los datos. Se calcula restando el valor
mínimo del valor máximo.
p-Valor
Es la probabilidad de obtener un valor como el observado o más extremo si la hipótesis nula H0
es cierta
Aleatoriedad
Falta de orden, propósito, causa, o “predictibilidad”. Se asocia a todo proceso cuyo resultado no
es previsible más que en razón de la intervención del azar. El resultado de todo suceso aleatorio
no puede determinarse en ningún caso antes de que este se produzca. Por consiguiente, los
procesos aleatorios quedan englobados dentro del área del cálculo de probabilidad y, en un
marco más amplio en el de la estadística.
La aleatoriedad es una propiedad objetiva, Sin embargo, lo que parece aleatorio a un observador
puede que no lo sea para otro. Ej. Mensajes codificados.
Incertidumbre
Falta de certidumbre. Conocimiento limitado donde es imposible describir con exactitud
diferentes estados o resultados futuros. Es diferente de aleatoriedad. Ej. Un dado tiene seis caras
enumeradas del 1 al 6, el resultado de una tirada es aleatorio pero si se tienen certidumbre que
estará entre 1 y 6. Esta definición forma parte de la aleatoriedad pero no es la aleatoriedad
misma.
Variable Aleatoria
Es una función que asocia un número real a cada punto del espacio muestral. Una entidad
matemática rigurosamente definida que describe el chance o probabilidad en forma matemática.
La estructura de una variable aleatoria fue diseñada para analizar eventos estocásticos y los
resultados de experimentos científicos, reteniendo solo las propiedades matemáticas necesarias
para contestar preguntas de probabilidad. Se definen dos tipos de variables aleatorias, discretas y
continuas.
Las variables aleatorias discretas toman un valor de un conjunto especifico de valores, cada uno
con probabilidad mayor a cero. Las variables aleatorias continuas toman cualquier rango de
valores, y estos rangos tienen probabilidad de ocurrir mayor a cero. Las variables aleatorias
discretas tienen una distribución de probabilidad asociada, mientras que las continuas tienen una
función de densidad de probabilidad.
Variable Continua
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo.
Variable Discreta
Se denomina distribución de variable discreta a aquella cuya función de probabilidad sólo toma
valores positivos en un conjunto de valores de X finito o numerable. A dicha función se la llama
función de masa de probabilidad.
Distribución de Probabilidad
Modelo teórico que describe la forma en que varían los resultados de un experimento aleatorio.
Lista de los resultados de un experimento con las probabilidades que se esperarían ver asociadas
con cada resultado. Es la función F(x) que asigna a cada evento definido sobre X una
probabilidad.
Función de Probabilidad
Función que asigna probabilidades a cada uno de los valores de una variable aleatoria discreta.
Función de Densidad de Probabilidad
Función que mide concentración de probabilidad alrededor de los valores de una variable
aleatoria continua. Forma en que se distribuyen las probabilidades de un evento en relación al
resultado del evento. Se utiliza con el propósito de conocer cómo se distribuyen las
probabilidades de un suceso o evento, en relación al resultado del suceso.
Función de Distribución
Función que acumula probabilidades asociadas a una variable aleatoria.
Estocástico
Aleatorio.
Proceso Estocástico
Un proceso aleatorio. Es un concepto matemático que sirve para caracterizar y estudiar todo tipo
fenómenos aleatorios (estocásticos) que evolucionan, generalmente, con el tiempo.
Formalmente, un proceso estocástico es una sucesión de variables aleatorias indexadas por una
variable (continua o discreta), generalmente, el tiempo. Cada una de las variables aleatorias del
proceso tiene su propia función de distribución de probabilidad y, entre ellas, pueden estar
correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o impactos
aleatorios constituye un proceso estocástico. Ej. El índice de la bolsa segundo a segundo.
Casos especiales
Proceso estacionario: Un proceso es estacionario en sentido estricto si la función de distribución
conjunta de cualquier subconjunto de variables es constante respecto a un desplazamiento en el
tiempo. Se dice que un proceso es estacionario en sentido amplio (o débilmente estacionario)
cuando se verifica que: La media teórica es independiente del tiempo; y las autocovarianzas de
orden s sólo vienen afectadas por el lapso de tiempo transcurrido entre los dos periodos y no
dependen del tiempo.
Proceso de Márkov: Aquellos procesos discretos en que la evolución sólo depende del estado
actual y no de los anteriores. (n+1 solo depende de n, no de n-1, n-2, etc.) Ej. Caminata aleatoria.
Proceso de Gauss: Proceso continuo en el que toda combinación lineal de variables es una
variable de distribución normal.
Cadena de Márkov
Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento
inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el último
evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento
anterior distingue a las cadenas de Márkov de las series de eventos independientes, como tirar
una moneda al aire o un dado.
Este tipo de proceso presenta una forma de dependencia simple, pero muy útil en muchos
modelos, entre las variables aleatorias que forman un proceso estocástico. En los negocios, las
cadenas de Márkov se han utilizado para analizar los patrones de compra de los deudores
morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
Formalmente, se define como un proceso estocástico discreto que cumple con la propiedad de
Márkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente
resume toda la información relevante para describir en probabilidad su estado futuro. Los estados
futuros se alcanzaran mediante procesos aleatorios en vez de procesos deterministicos.
Propiedad de Márkov
Dado el estado presente, estados futuros son independientes de estados pasados. La probabilidad
de ir al estado n+1 condicionada a que antes estábamos en el estado n. La propiedad de las
cadenas de Márkov es que las transiciones entre los estados, sólo puede producirse entre estados
vecinos. Sólo se puede llegar al estado i desde el estado i-1 ó bien de i+1. Es condicionalmente
independiente de estados pasados.
Población
Es el conjunto de elementos sobre el que se realizan las observaciones.
Muestra
Es un subconjunto de casos o individuos de la población.
Contraste de Hipótesis
También denominado prueba de hipótesis, es una técnica de inferencia estadística para juzgar si
una propiedad que se supone cumple una población estadística es compatible con lo observado
en una muestra de dicha población.
Función de Masa de Probabilidad
Abreviada f.m.p., es una función que da la probabilidad que una variable aleatoria discreta es
exactamente igual a algún valor. Se distingue de la f.d.p. (definida para variables aleatorias
continuas), en que los valores de la f.d.p. no son probabilidades como tal. La integral sobre un
rango de posibles valores (a,b] da la probabilidad de que un valor caiga en ese rango.
Función de Distribución Cumulativa (Acumulada)
Describe completamente la distribución de probabilidad de una variable real aleatoria X. Se
caracteriza por: lim X -∞, F(x)=0 ; lim X  ∞, F(x)=1. Esta propiedad implica que todas las
f.d.c. son funciones Càdlàg. (continua a la derecha y tiene un limite a la izquierda)
Discreto
Contable. Proviene de conjunto contable, un conjunto con la misma cardinalidad (número de
elementos) que algún subconjunto de números naturales.
Continuidad
Intuitivamente, sin división. En el caso de las funciones, si el conjunto de puntos que forman la
curva que la representa forman un trazo continuo, se dice que la función es continua.
Variable
En estadística, una variable se refiere a un atributo medible, que puede variar en el tiempo o
entre individuos. Pueden ser discreta (de un set contable) o continuas (que tienen una función de
distribución continua), o ninguna. En modelos causales se hace la distinción entre variable
independiente y variable dependiente. Esta última se espera varíe en respuesta a cambios en la
variable independiente, la cual se presume afecta a la dependiente.
Variable Independiente
Dependiendo del contexto, también se conocen como variables predoctoras, regresores, variables
controladas, variables manipuladas, variables explicatorias, variables input.
Son las variables que se manipulan deliberadamente para inducir cambios en las variables
dependientes.
Variable Dependiente
También conocidas como variables respuesta, regresandos, variables medidas, variables
respondientes, variables explicadas, variables de resultado, variables experimentales, variables
output.
Son las variables que se observan cambian en respuesta a las variables independientes.
Variable de Supuesto
Son variables que representan cantidades inciertas. Analogas de las variables independientes.
Variable de Pronostico
Una variable que es pronosticada por otra(s) variable(s). Analogas de las variables dependientes.
Variable de Decisión
Una cantidad desconocida que representa una decisión que se necesita tomar. Es la cantidad que
un modelo necesita determinar. Es una variable que el tomador de decisiones controla. Se
utilizan en la búsqueda de resultados óptimos, por lo cual es una variable de entrada (input)
controlable parecida a una variable independiente.
Numero Aleatorio
Es un número que exhibe aleatoriedad estadística. También se puede referir a una secuencia
aleatoria obtenida de un proceso estocástico.
Numero Pseudo-Aleatorio
Es un numero que proviene de un proceso pseudo-aleatorio (parece aleatorio pero no lo es).
Exhiben aleatoriedad estadística pero son generados por un proceso causal determinístico.
Función Objetivo
En la función que representa matemáticamente lo que se quiere optimizar. Ej. Las ganancias
resultantes de una venta.
Optimización
La optimización (también denominada programación matemática) intenta dar respuesta a un tipo
general de problemas donde se busca minimizar o maximizar una función objetivo, sujeta a
restricciones (conjunto de decisiones factibles). Un problema de optimización trata entonces de
tomar una decisión óptima para maximizar (ganancias, velocidad, eficiencia, etc.) o minimizar
(costos, tiempo, riesgo, error, etc.) un criterio determinado. Las restricciones significan que no
cualquier decisión es posible.
Optimización clásica
Si la restricción no existe, o es una restricción de igualdad, con menor o igual número de
variables que la función objetivo, entonces el cálculo diferencial da la respuesta, ya que solo se
trata de buscar los valores extremos de una función.
Optimización con restricciones de desigualdad - optimización no clásica
Si la restricción contiene mayor cantidad de variables que la función objetivo, o la restricción
contiene restricciones de desigualdad, existen métodos en los que en algunos casos se pueden
encontrar los valores máximos o mínimos.
Si tanto restricciones como función objetivo son lineales (programación lineal), la existencia de
máximo (mínimo), esta asegurada, y el problema se reduce a la aplicación de unos simples
algoritmos de álgebra lineal elemental los llamados método simples.
Optimización estocástica
Cuando las variables del problema (función objetivo y/o restricciones) son variables aleatorias el
tipo de optimización realizada es optimización estocástica.
En las finanzas y economía los problemas no son tan fáciles de solucionar con técnicas de
cálculo. Por ello a veces se utilizan métodos de optimización a base de métodos de Monte Carlo.
La mayoría de los métodos de optimización Monte Carlo se basan en caminatas aleatorias.
Varios métodos de optimización son: Estrategias evolutivas, algoritmos geneticos, optimización
estocástica, intercambio replica (parallel tempering), simulated annealing, stochastic tunneling
(STUN).
Métodos de Monte Carlo
Son una clase de algoritmos computacionales que se basan en muestreo aleatorio repetido para
calcular los resultados. Se usan en simulaciones de sistemas fisicos y matemáticos. Dada a la
naturaleza de las repeticiones (muchas), son métodos mejor aplicados por computadoras. Se
utilizan cuando es imposible o muy difícil calcular un resultado exacto con un algoritmo
deterministico.
En finanzas se utilizan para calcular valores de compañías, evaluar proyectos de inversión,
evaluar derivados financieros, problemas actuariales, analizar portafolios, etc. Los analistas
financieros lo utilizan para contruir modelos financieros estocasticos en vez de los modelos
estaticos y deterministicos tradicionales.
Una aplicación popular y versátil es en la simulación y optimización numerica. Estos problemas
utilizan funciones que frecuentemente representan muchas variables y vectores de alta dimensión
que se deben minimizar o maximizar.
Falacia del Jugador (Falacia de Monte Carlo)
Es una falacia lógica por la que se cree erróneamente que los sucesos pasados afectan a los
futuros en lo relativo a actividades aleatorias. Ej:




Un suceso aleatorio tiene más probabilidad de ocurrir porque no ha ocurrido durante
cierto periodo de tiempo.
Un suceso aleatorio tiene menos probabilidad de ocurrir porque no ha ocurrido durante
cierto periodo de tiempo.
Un suceso aleatorio tiene más probabilidad de ocurrir si ocurrió recientemente.
Un suceso aleatorio tiene menos probabilidad de ocurrir si ocurrió recientemente.
Formalmente, las desviaciones de conducta esperada en observaciones en intentos
independientes repetidos de un proceso aleatorio, se promediaran por las probables desviaciones
en el sentido contrario en el futuro. (una mala interpretación de la ley de los números grandes)
Simulación
Proceso de diseñar un modelo de un sistema real y conducir experimentos con dicho modelo
para evaluar el comportamiento del sistema y/o evaluar diversas estrategias para la operación de
él.
Distribución Uniforme
Es una distribución de probabilidad cuyos valores tienen la misma probabilidad de ocurrencia.
Distribución Uniforme Continua
Es una distribución de probabilidad donde los valores tienen la misma probabilidad de
ocurrencia y siguen una distribución de probabilidad continua. La distribución uniforme continua
estándar es la que se encuentra distribuida entre 0 y 1. Con frecuencia se utiliza como base para
generar números aleatorios que siguen otro tipo de distribución (Ej; Triangular).
Distribución Uniforme Discreta
Es una distribución de probabilidad donde los valores tienen la misma probabilidad de
ocurrencia y siguen una distribución de probabilidad discreta.
Distribución de Poisson
Es una distribución de probabilidad discreta que expresa la probabilidad que un numero de
eventos ocurran en un periodo de tiempo fijo, si estos eventos ocurren con una tasa promedio
conocida e independientemente del tiempo desde el ultimo evento.
Distribución t-Student
Es una distribución de probabilidad que surge del problema de estimar la media de una población
distribuida normalmente, cuando el tamaño muestral es pequeño.
Distribución Binomial
Es la distribución resultante de un experimento aleatorio que tiene solo 2 resultados posibles, que
son mutuamente excluyentes y conjuntamente exhaustivos.
Distribución Normal
Es una distribución continua donde la mayoría de los datos se encuentran alrededor de la media.
Distribución Lognormal
Es una distribución continua que excluye los valores negativos y en la que la mayoría de los
valores se encuentran alrededor de la media.
Distribución Triangular
Es una distribución de probabilidad continua que cuenta con un límite inferior, una moda y un
límite superior. Se usa cuando los datos no son confiables y/o se dispone de poca información.
Distribución Exponencial
Es una distribución continua para variables que toman valores positivos y su función de densidad
no es simétrica alrededor de la media.
Riesgo Puro
Es aquel en que se puede perder o quedar igual (ej. Sacar el carro a la calle)
Riesgo Especulativo
Es aquel donde se puede perder, ganar o quedar igual (ej. Jugar póker)
Distribución Chi2
Es una distribución continua que mide la discrepancia entre la distribucion observada y la
teórica, indicando en que medida la diferencia observada entre ambas se debe al azar. Muestra
también el nivel de independencia de 2 muestras entre si.
Intervalo de Confianza
Intervalo de valores alrededor de un parámetro muestral en los que, con una probabilidad o nivel
de confianza determinado, se situará el parámetro poblacional a estimar.
Nivel de Confianza
Es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor
del parámetro.
Correlación
Indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias.
Covarianza
Es una medida de que tanto cambian conjuntamente dos variables.
Regresión
Es un modelo matemático mediante el cual es posible inferir datos acerca de una población
¿Para que sirve la regresión?
Permite evaluar y determinar el comportamiento de las variables estadísticas, además son útiles
porque puede haber una o más variables independientes.
Regresión Lineal
Es un modelo matemático mediante el cual es posible inferir datos acerca de una población Se
conoce como regresión lineal ya que usa parámetros lineales (potencia 1).Sirve para poner en
evidencia las relaciones que existen entre diversas variables.
Medidas de Calidad de la regresión (o bondad)




Coeficiente de determinación: R2, es un numero entre 0 y 1 que cuando es grande (se
acerca a 1) el modelo explica bien las variaciones de los valores de las variables
dependiente. Cuando R2 es igual a 1 la regresión es perfecta.
Valor critico de F (f grande): indica la probabilidad de que con números aleatorios
tuviésemos una correlación como la observada.
El estadístico P: indica que tan probable es que pudiésemos conseguir un estimado de
este coeficiente de regresión si en verdad el fuera 0.
El estadistico T: es la relacion entre lo estimado del parámetro y su desviación estandar
(error tipico). Si el valor absoluto del estadistico es mayor que 2 el coeficiente no puede
ser 0.
Crystal Ball
La herramienta Crystal Ball es una aplicación de Excel que permite pronosticar, optimizar y
analizar opciones reales. Por medio de ella, se pueden diseñar modelos de sistemas por métodos
de Monte Carlo y “correr” simulaciones para luego analizar el comportamiento de dichos
sistemas y las posibles alternativas de funcionamiento.




CB tiene sus propias funciones, es decir agrega funciones a Excel como por ejemplo la
función triangular CB, etc., muchas de ellas no nativas de Excel o de difícil
implementación.
Permite correr un modelo miles de veces con gran facilidad.
Permite hacer comparaciones entre posibles cambios que ocurran en las variables de una
situación específica.
Optimizar resultados.
Para Octubre de 2008, Crystal Ball se encuentra en su versión 11.
Palisade
Compañía que produce software que es competencia de Oracle (el cual adquirió
Hyperion  Decisioneering, los creadores de Crystal Ball).
@Risk
Software de análisis de riesgo que utiliza simulación de Monte Carlo en Excel; y que es la
competencia directa de Crystal Ball. Lider del mercado. Se diferencia de CB en que es a base de
comandos/funciones, al estilo Excel; y no a base de programación de celdas como CB. La
sintaxis es del tipo [email protected]ón(parámetros). CB tiene una sintaxis similar (cambiar @Risk
por CB) pero el proceso es automatizado. Es por esto, la simplicidad de su uso, y el precio que
CB le ha venido ganando terreno a @Risk. Aun así, la gama de funciones de @Risk sigue siendo
más amplia.
PrecisionTree
Arboles de decisión para Excel.
NeuralTools
Redes neurales para Excel. La técnica empleada es una forma de inteligencia artificial.
StatTools
Herramientas estadísticas avanzadas para Excel.
Evolver
Contracción de Evolutionary Solver, es una herramienta de optimización a base de algoritmos
genéticos (otra forma de inteligencia artificial).
Six Sigma
Estrategia de gerencia de negocios, desarrollada por Motorola, y ha sido implementada en
softwares de simulación para la modelación de sistemas. La estrategia se basa en el concepto de
que a seis desviaciones estándar de la media tanto a la izquierda como a la derecha, la gran
mayoría de los procesos quedan representados.
Valor en Riesgo
Es la perdida máxima tolerable que pudiese ocurrir con una probabilidad dada en un periodo de
tiempo dado. Es la perdida máxima con un nivel de confianza dado. El nivel de confianza que se
utiliza comúnmente es 95% ó 99% (VaR 5% ó VaR 1%). El VaR condicionado es la esperanza
del VaR para el nivel de probabilidad dado. La forma más versátil de calcular en VaR es por
medio de métodos de Monte Carlo.
Solver
Permite hallar la mejor solución a un problema, modificando valores e incluyendo condiciones o
restricciones a los modelos que se deseen estudiar.
Tabla de Mortalidad
Es un modelo teórico que describe la extinción de una cohorte hipotética o ficticia. Permite
determinar las probabilidades de sobrevivir o de morir a una edad exacta "x" o entre edades "x" y
"x+n".
Excel
Es una aplicación para manejar hojas de cálculos. Este programa fue y sigue siendo desarrollado
y distribuido por Microsoft, y es utilizado normalmente en tareas financieras y contables. En
Excel las celdas son variables, que dependiendo del contenido, pueden ser dependientes,
independientes, etc.
Relación Recursiva
Es una ecuación que define recursivamente una secuencia. Cada término de la secuencia se
define como una función de los términos anteriores. Una ecuación en diferencia es un tipo
específico de relación recursiva. Este tipo de relación es muy utilizada en modelos económicos.
Programación
En informática la programación es un proceso por el cual se escribe (en un lenguaje de
programación), se prueba, se depura y se mantiene el código fuente de un programa informático.
Es un componente importante de la ingeniería financiera, en especial las simulaciones.
Algoritmo
Un algoritmo es una secuencia no ambigua, finita y ordenada de instrucciones que han de
seguirse para resolver un problema.
Iteración
Acto de repetir. En matemáticas, se refiere al proceso de iterar una función, o técnicas usadas en
métodos iterativos para resolver problemas numericos.
Prueba Chi2
Es una prueba de hipótesis estadística en que un estadístico de prueba tiene una distribución chi 2
cuando la hipótesis nula es verdadera, o cualquiera en donde la distribución del estadístico de
prueba se pudiese aproximar a una chi2 tan cerca como deseado por medio del incremento del
tamaño muestral a lo suficientemente grande.
Teorema de Bayes
Es el resultado que da la distribución de probabilidad condicional de una variable aleatoria A
dada B, en términos de la distribución de probabilidad condicional de la variable B dada A y la
distribución de probabilidad marginal de sólo A.
Bondad del Ajuste (Goodness of Fit)
Describe que tan bien un modelo estadístico se ajusta a un conjunto de observaciones. La medida
de bondad de ajuste resume la discrepancia entre los valores observados y los valores esperados
bajo el modelo.
Anderson-Darling
La prueba Anderson-Darling determina si los datos vienen de una distribución específica. La
fórmula para el estadístico A determina si los datos vienen de una función de distribución
acumulativa F.
Kolmogorov-Smirnov
la prueba de Kolmogórov-Smirnov es una prueba no paramétrica que se utiliza para determinar
la bondad de ajuste de dos distribuciones de probabilidad entre sí. En el caso de que queramos
verificar la normalidad de una distribución, la prueba Anderson-Darling es una alternativa más
potente.
Retorno
En economía, son las distribuciones o pagos otorgados a los oferentes de factores de producción.
En finanzas, es la ganancia o perdida derivada de una inversión.
Riesgo
Es la probabilidad precisa de eventualidades específicas. El concepto de riesgo es independiente
de valor; las eventualidades pueden tener consecuencias buenas y malas. Por convención de uso,
el enfoque es en el impacto potencialmente negativo a alguna característica de valor que pueda
surgir en un evento futuro. Riesgo no es incertidumbre (falta de certeza completa), es un estado
de incertidumbre donde las posibilidades pueden resultar en consecuencias malas.
Es la varianza es resultados esperados, usualmente en referencia a la posibilidad de resultados
negativos.
Valor Presente Neto
Es el valor presente total de una serie de tiempo de flujos de caja. Es un indicador de valor o
magnitud.
Tasa Interna de Retorno
La tasa de interés con la cual el valor presente neto es igual a cero. Es una medida de eficiencia o
calidad.
Periodo de Recuperación
El periodo de tiempo requerido para que el retorno de una inversión iguale la inversión inicial.
Documentos relacionados
Descargar