Sesión de carteles

Anuncio
2014
Sesión de carteles
XXIX Foro Internacional de Estadística,
Puebla, Puebla.
2014
Sesión de carteles
Análisis de
Confiabilidad
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Prueba de Vida Acelerada para Determinar la Estabilidad Operacional de un Controlador PID de
Temperatura
Ponente: Arturo David García Higareda1
Co-autor: Gilberto Alejandro Herrejón Pintor2
1
CIMAT, 2Tecnológico de Zamora, Departamento de Ingeniería Electrónica
Resumen
El presente trabajo muestra la conducción de la prueba de vida acelerada con el modelo de riesgo
proporcional aplicada a un dispositivo de control PID (proporcional, integral y diferencial) construido y
desarrollado como parte de la cátedra de las asignaturas de ingeniería industrial a nivel experimental, con
la finalidad de evaluar el nivel de desempeño del prototipo en actividades de control. El control de los
procesos y las operaciones es una de las aplicaciones más importante en el sector industrial. Esto suele
referirse a un sistema automático por retroalimentación con una aplicación de tal importancia que la
mayor parte de los estudiantes a nivel licenciatura incluye en su retícula algún curso o tópico relacionado
con el tema. Un requerimiento importante para un sistema de control es que debe ser estable. Esto
significa que si se aplica una entrada de magnitud finita, entonces la salida debería también ser finita y de
ningún modo infinita, es decir incrementarse dentro de un límite. Por tal motivo, un dispositivo de control
presenta fallas o no es confiable cuando su estabilidad no se cumple y los límites o set points que se
especifican no se mantienen en el intervalo deseado por el usuario. El modelo de prueba de vida acelerada
desarrollado con el fin de estimar los efectos de las covariables que influyen en los tiempos hasta el fallo
de un sistema es el de riesgos proporcionales o proportional hazards model (PH). El modelo ha sido
ampliamente utilizado en el campo de la biomedicina y recientemente, ha habido un creciente interés en
su aplicación en la ingeniería de confiabilidad. En su forma original, el modelo es no paramétrico, es
decir, no se hacen suposiciones acerca de la naturaleza o la forma de la distribución de fallos subyacentes.
En ese sentido, la formulación original es no-paramétrica, sin embargo como una forma paramétrica del
modelo se considera la utilización de una distribución de Weibull a la vida del producto y se procedió con
el análisis de los datos con dos variables: temperatura y voltaje. El controlador PID analógico propuesto
permite a los estudiantes observar de manera independiente la señal producida por cada una de las etapas
del controlador, lo que complementa las explicaciones teóricas. La etapa de potencia se asemeja a las
implementadas en controladores comerciales, lo cual es una aportación adicional del sistema. El proceso
de caracterización del sistema permite comparar el modelo del sistema con los resultados experimentales.
El sistema diseñado cumple el objetivo de acercar al estudiante a todas las etapas del desarrollo de un
sistema de control: definición del problema, modelado, sintonización, implementación y comprobación
experimental. El modelo de vida acelerada de riesgos proporcionales permitió modelar el mecanismo de
control y cuantificar cómo se ve afectado por la temperatura y el voltaje de esta forma se puede continuar
con la fase de pruebas piloto. La predicción de fallas permitió caracterizar el mecanismo de control en
términos de la confiabilidad exhibida a la luz de la fase de prototipo del proyecto.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis de
Datos
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis Correlacional y Uso de la Distribución t de Student, en el Análisis de Resolución de
Problemas de Matemáticas Básicas en el Área de Administración y Contabilidad, para el Mejor
Aprovechamiento Escolar.
Ponente: Francisca García Chablé1
Coautores: María Concepción Zarracino Mendoza1 y Norma Edith Alamilla López2
1
Instituto Tecnológico Superior de Macuspana, Tabasco. 2Universidad Politécnica del Centro.
Resumen
A nivel nacional e internacional se ha medido el aprovechamiento escolar en el sistema educativo y los
resultados emitidos por las instituciones evaluadoras coinciden con los resultados emitidos por el Instituto
Nacional de Estadística y Geografía (INEGI) en que la materia de mayor reprobación es matemáticas.
Ante las situación descrita se realizó este trabajo de investigación con el objetivo de determinar que la
resolución de problemas enfocados a la administración y contabilidad tienen influencia en el
aprovechamiento escolar en los alumnos que aprenden aritmética, con la hipótesis “ los alumnos de
primer semestre de la carrera de administración que estudian aritmética, enfocada a la resolución de
problemas administrativos y contables, obtienen un mayor aprovechamiento escolar comparados con los
que no lo estudian con ese enfoque". Se realizó un análisis correlacional y la prueba t de Student para
probar la hipótesis planteada. Los resultados obtenidos demostraron que la resolución de problemas
enfocados a la administración y contabilidad influye incrementando el aprovechamiento escolar.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis de Supervivencia y Puntos de Cambio
Ponente: Guadalupe Yoanna Arenas Martínez1
Co-autores: Franciasco Solano Tajonar1 y Hortensia Reyes Cervantes1
1
BUAP, Facultad de Ciencias Físico Matemáticas
Resumen
En este trabajo se da una aplicación de los puntos de cambio en el área del análisis de supervivencia, el
objetivo se centra en estimar los puntos de cambio que tiene la función de riesgo, dichos puntos son
obtenidos mediante el algoritmo Simplex de Nelder-Mead y una prueba de tipo Wald. El
presente trabajo esta ubicado en la línea del análisis de supervivencia, la cual hace uso de modelos
paramétricos para el estudio de fenómenos relacionados con tiempos de vida o tiempos de falla, algunos
son el modelos que se usan en este tipo de análisis son el Exponencial, Weibull, Log-normal, Gamma,
etc. En este caso se supondrá que la función de riesgo que se analiza, se ajusta a una distribución
Exponencial por tramos. En los últimos años el análisis de supervivencia ha desarrollado tópicos
importantes en muchas áreas, especialmente en biología, medicina, ingeniería, epidemiología, etc., con
aplicaciones que van desde estudiar el desarrollo de alguna enfermedad, tiempos de vida en individuos
con enfermedades terminales, falla en maquinaria, durabilidad de electrodomésticos, hasta estudiar la
resistencia de materiales al calor, etc. son solo algunas de las aplicaciones en donde el papel del análisis
de supervivencia y de confiabilidad es importante.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Curvas ROC Y Regresión Logística Conjuntas en el Análisis de Saturación Venosa Central como
Predictor de Severidad para Pancreatitis Aguda
Ponente: Karla Gabriela Ortega Sánchez1
Co-autores: Araceli Pineda Moreno1 y Sergio Morales Polanco2
1
Universidad Veracruzana, Facultad de Estadística e Informática,
2
Hospital Adolfo López Mateos del ISSSTE, Gastroenterología
Resumen
Con el fin de dar respuesta a la hipótesis central, que consiste en saber si la saturación venosa central
actúa como predictor de severidad en pacientes que fueron diagnosticados con pancreatitis; como analista
de los datos obtenidos por el medico encargado se utilizó regresión logística para la estimación de
relaciones entre variables que determinan si el paciente presenta pancreatitis severa o leve. La utilización
de curvas ROC (Característica Operativa del Receptor) complementa el análisis y nos proporciona de
manera gráfica la evaluación del rendimiento de los clasificadores, además del desarrollo de un
diagnóstico que permite discriminar entre dos grupos y obtener un punto de corte o criterio que clasifica a
los individuos de interés; así como, evaluar dicha clasificación. Además de indicarnos la probabilidad de
obtener falsos negativos o falsos positivos; es decir, dar un diagnóstico equivocado al correspondiente.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Distribución Normal y Gamma Aplicadas al Análisis de Datos de la Comprensión Lectora
Ponente: Elsa Edith Rivera Rosales1
Coautor: José Jesús Israel Ruiz Benitez1
1
Universidad Autónoma De Coahuila, Facultad de Ciencias Físico Matemáticas
Resumen
El presente trabajo aborda un tema actual del currículo universitario pues la probabilidad está inmersa en
la mayoría de los cursos de nivel superior, ya que es tan común hablar de probabilidad como saber si hoy
llegaré temprano o no a la escuela. El trabajo se realiza ante la necesidad de explorar el aprendizaje que
los alumnos del curso de Estadística 1 de la Licenciatura en Matemáticas Aplicadas de la Universidad
Autónoma de Coahuila presentan ante el uso de diversas distribuciones, primordialmente la normal; se
pretende aplicar las distribuciones a un contexto real considerando que el estudio de las distribuciones
continuas tienen múltiples aplicaciones en campos como la industria, medicina, física, procesos de
producción, entre otros. El trabajo surge por buscar ir más allá de la distribución normal, apoyándose
además en la distribución gamma, por lo que se hace uso de técnicas de cálculo avanzado para hacer la
conexión entre las distribuciones, para lo cual es indispensable tener un buen dominio de los métodos
estadísticos y cálculos avanzados para lograr hacer este puente entre distribuciones y lograr aplicarlas al
análisis de datos de la comprensión lectora. Sin duda la probabilidad es un tema que no puede escapar,
pues con las distribuciones de probabilidad se hace un estudio más arduo de la probabilidad; para poder
llegar a dichas distribuciones es importante conocer a fondo el cálculo de probabilidades pues es la
materia prima de todas las distribuciones sin importar que sean discretas o continuas. Históricamente la
probabilidad ha estado presente en muchos fenómenos que no tienen un patrón determinístico sino
aleatorio es así que la matemática y en particular la probabilidad juegan un papel trascendental.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Evaluación de la calidad de tres puntos de explotación de agregados pétreos para la fabricación de
concretos hidráulicos
Ponente: Alfredo Cuevas Sandoval1,a
Co-autores: Flaviano Godinez Jaimes1,b y Raziel Barragan Trinidad1,a
1
a
Universidad Autónoma De Guerrero
Materiales de Construcción, UAI, bMatemáticas
Resumen
El concreto hidráulico es el material de construcción más utilizado en el mundo por su versatilidad,
durabilidad y economía. Se compone básicamente de pasta (agua y cemento) y agregados (arena y grava),
estos últimos por tener propiedades físicas y mecánicas condicionadas por la fuente de procedencia le
imprimen al concreto características particulares específicamente en la resistencia a compresión; la cual
es la medida más común para evaluar su calidad. Se determinó la calidad de tres bancos de agregados y su
efecto en la resistencia a compresión del concreto controlando otros factores en laboratorio. Los
resultados preliminares han permitido llevar a cabo recomendaciones más efectivas a los usuarios,
mejorando la calidad de las obras construidas, y una reducción importante en los costos.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Indicador de Prioridad BID-UV de Problemáticas Sociales que Impactan la Calidad de Vida
Ciudadana: Una Comparación entre Ciudades
Ponente: Consuelo Amador Valencia1
Co-autor: Claudio Rafael Castro López1
1
Universidad Veracruzana, Centro de Estudios de Opinión Y Análisis
Resumen
El rápido proceso de urbanización en muchas ciudades de América Latina y el Caribe (ALC) durante las
últimas décadas ha traído numerosos retos para el desarrollo de la región: a) crecimiento desordenado y
patrones de uso de suelo inadecuados; b) proporción creciente de la población viviendo en condiciones de
pobreza; c) limitación de recursos y capacidades institucionales; y d) crecientes problemas ambientales y
sociales, y aumento de la vulnerabilidad de la población. Los desafíos de la urbanización acelerada
adquieren mayor relevancia en ciudades de tamaño intermedio, donde la población urbana tiende a
asentarse cada vez más. El tratamiento de estos retos exigió el lanzamiento de una nueva iniciativa del
Banco Interamericano de Desarrollo (BID), la Iniciativa Ciudades Emergentes y Sostenibles (ICES),
orientada a contribuir al logro de la sostenibilidad urbana, ambiental y fiscal de ciudades con una
población intermedia en rápido crecimiento. La metodología CES de la iniciativa, procura un desarrollo
integral de las ciudades, donde se ofrezca un alto nivel de calidad de vida de los habitantes, se generen
menores impactos ambientales, y se tenga la capacidad fiscal y administrativa para hacer frente a las
responsabilidades de la gestión urbana. Por todo esto, se realizó un estudio de opinión a los habitantes de
la Zona Metropolitana Xalapa y el Municipio de Campeche por parte del Centro de Estudios de Opinión y
Análisis de la Universidad Veracruzana, para conocer la jerarquización y comparación relativa entre las
distintas problemáticas que se evalúan en la metodología CES. En este trabajo Se presenta un indicador
agregado de priorización ciudadana, construido a partir de percepciones ciudadanas, utilizando métodos
multivariantes de clases latentes y segmentación, para evidenciar su robustez.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis
Multivariado
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis de Consumo de Drogas entre Universitarios: Comparativo Regional
Ponente: Paola Estefany Fernández Cruz1
Co-autor: Claudio Rafael Castro López1
1
Universidad Veracruzana, Centro de estudios de opinión y análisis
Resumen
Entre los jóvenes, el consumo de drogas (legales e ilegales) no solo se ha ido incrementando, sino que, el
primer contacto que se tiene con estas es a una edad cada vez más temprana, este inicio prematuro
incrementa la posibilidad de crear una futura adicción hacia este tipo de sustancias, ocasionando, además
de problemas de salud para quien las consume, problemas sociales, daños a terceros y problemas
económicos. Son muchos los factores que influyen en la predilección de una droga, uno de estos, es la
ubicación geográfica en la que se habita, ya que la cultura, creencias e incluso, la altitud a la que se está,
influyen en el tipo y cantidad de droga que se consume. En el contexto de la Encuesta PERCIBETE en la
Universidad Veracruzana, se presentan análisis estadísticos que permiten obtener comportamientos
regionales de consumo y perfiles de estudiantes en los consumos de drogas legales e ilegales. Se utilizan
diversas técnicas multivariantes con lo que se ha podido retratar las similitudes en cuanto a los hábitos de
consumo entre los estudiantes universitarios.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis Exploratorio Multivariante para Identificar el uso de las Metas de Aprendizaje de la
Estadística en Estudiantes de la Universidad Veracruzana
Ponente: Cecilia Morales Flores1
Co-autores: Cecilia Cruz López1 y Mario Miguel Ojeda Ramírez1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
En el presente estudio se reporta un estudio exploratorio sobre las Metas de Aprendizaje de la Estadística
en estudiantes que han llevado al menos un curso introductorio de estadística en la Universidad
Veracruzana. A partir de un cuestionario aplicado a 258 estudiantes en las cinco regiones de la institución,
se generó una base de datos y a partir de ella se llevaron a cabo análisis descriptivos y de asociación
multivariante, entre ellos correspondencia múltiple y correlación canónica, el tipo de datos que se tienen
son categóricos, esto se realizó con el propósito de identificar si existe alguna relación entre el uso de las
Metas de Aprendizaje de la Estadística y la carrera que estudian.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Caracterización Estadística de lo que los Adolescentes Quieren Conocer sobre Educación y Salud
Sexual
Ponente: Linette Giovanna Zapata Morales1
Co-autor: María Luisa Hernández Maldonado1
1
Universidad Veracruzana, CyTES
Resumen
El objetivo en este trabajo es presentar lo que los estudiantes de nivel medio superior del estado de
Veracruz quieren conocer sobre educación y salud sexual. Para el análisis se utiliza una base de datos de
tipo textual que contiene 4,064 preguntas recolectadas del 2012 al 2014, relacionadas con los temas:
relaciones sexuales, embarazos no planeados, métodos anticonceptivos, infecciones de transmisión sexual
y medidas de autocuidado. Estos se encuentran dentro del programa “Educación y Salud Sexual”
implementado por el Consejo Estatal de Población de la SEGOB, orientando a los adolescentes a través
de charlas informativas, enfocándose al interés que manifiestan ellos en forma de preguntas. Se realiza un
análisis estadístico de textos: palabras característica, respuestas modales y análisis de correspondencia
múltiple. Se observan diferencias en el interés de los adolescentes sobre los diferentes temas.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
El Análisis de Correlación Canónica Dispersa (SCCA): Aplicación en Procesos de Recubrimiento
Automotriz.
Ponente: Mercedes Patricia Flores Ibarra1
Co-autor: Mario Cantú Sifuentes2
1
PICYT, COMIMSA, 2COMIMSA, Gerencia de Desarrollo Humano
Resumen
En el presente trabajo de investigación se emplea el análisis de correlación canónica dispersa (SCCA, por
sus siglas en inglés) para establecer una relación entre variables y parámetros en un proceso de
recubrimiento automotriz. Con esto, se estima el efecto que tiene una función de los parámetros, con las
variables de salida del proceso. Además, se establece la región en la que debe tomar valores esta función
para garantizar, estadísticamente, que la variable de calidad del proceso tome valores en los límites
especificados. El caso de estudio se desarrolla en un proceso típico de recubrimiento automotriz, que
consiste en una secuencia de etapas, cada una asociada a un conjunto de parámetros de proceso, mediante
los cuales es posible controlar los valores de las variables de salida. Las variables de salida de cada etapa,
son las variables de entrada de la siguiente. El principal interés es lograr el control del valor de la
apariencia final del producto (característica de calidad de recubrimientos). Con esto se pretende que un
índice de apariencia tome valores dentro de límites especificados por el cliente.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Generación de Muestras Aleatorias con Censura Aleatoria
Ponente: Pedro Enrique Monjardin1
Coautor: Raúl Enrique Villa Diharce2
1
Universidad Autónoma de Sinaloa, FCFM, 2CIMAT, Área de Probabilidad y Estadística
Resumen
En confiabilidad y análisis de supervivencia los datos que se analizan son tiempos a la falla. Un rasgo
importante en éstos es la censura, que se presenta cuando no se observa el tiempo de falla y solo se
conoce que éste ocurrió en un intervalo de tiempo o después de algún tiempo determinado. Cuando se
consideran varios modos de falla en un individuo, los datos son multivariados con un cierto patrón de
dependencia entre ellos. Para estudiar las propiedades de los estimadores o de algunas características de
interés, es necesario generar tiempos de vida, univariados o multivariados con algún patrón de censura.
En este trabajo proponemos un procedimiento para generar datos con censura aleatoria. La principal
ventaja de esta propuesta es que no es necesario modificar la distribución de censura cuando se desea
cambiar el nivel de censura en los datos o las distribuciones marginales.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Proceso Metodológico y Aplicación del Análisis Factorial Múltiple para Tablas de Contingencia
Ponente: Herminia Domínguez Palmeros1
Co-autor: María Luisa Hernández Maldonado1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
Este trabajo surge al considerar la carencia de procedimientos computarizados para aplicar el método
Análisis Factorial Múltiple para Tablas de Contingencia (AFMTC), presentado por Bècue y Pagés (1999,
2004). Su valiosa aportación consiste en la representación simultanea de varias estructuras parciales y una
estructura global en un mismo mapa perceptual, centradas todas en el origen, para facilitar su
comparación. El objetivo consiste en codificar en lenguaje R dos algoritmos, uno para la transformación
de datos que permita la aplicación de AFMTC a través del Análisis de Componentes Principales (ACP)
no normado y otro procedimiento que transforme las coordenadas resultantes del ACP para graficarlas en
un mapa perceptual. Se presenta un ejemplo que permite mostrar el procedimiento y los resultados de su
aplicación.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Un estudio Comparativo de Cartas de Control para el Monitoreo Estadístico de Datos
Autocorrelacionados
José Rodolfo Olmos Zepeda1
Co-autores: Mario Cantú Sifuentes1 y Julia Aurora Montano Rivas2
1
UAAAN, Departamento de Estadística, 2UV, Facultad de Estadística e Informática
Resumen
En este trabajo se presenta una comparación del desempeño de dos cartas de monitoreo para procesos
multivariados serialmente correlacionados. Una, no paramétrica, basada en el concepto de profundidad de
datos, la otra es una generalización, para datos autocorrelacionados, de la carta de control T 2 de Hotelling.
La comparacion se hace en términos de la Longitud Media de Corrida (ARL). Finalmente se realiza un
estudio de caso.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Diseño de
Experimentos
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Diseño y Análisis de un Experimento de Transmisión de Microondas a Través de un Material
Granulado para Caracterizar su Contenido de Humedad.
Ponente: José Alejandro Rosendo Robles1
Co-autores: Alberto Arturo Herrera Becerra2, y Oliver Cortés Pérez2
1
ZAMETXIC, Análisis y Modelación, 2UNAM, CCADET
Resumen
La acuametría en una de sus definiciones es la medición del contenido de humedad en material sólido y
líquido, específicamente nuestra motivación va en el sentido de medir por medio de microondas la
cantidad de humedad en material granulado. En la industria hay procedimientos no destructivos para la
medición de agua en material granular, para aquellos con base en microondas el principio básico consiste
en que las microondas penetran en el material granulado humedecido, provocando la rotación de las
moléculas de agua libre. Como resultado la velocidad de las microondas se ralentiza (desplazamiento de
fase) y su intensidad se debilita (atenuación). Estos efectos se miden como una indicación del contenido
de humedad. La propuesta de este trabajo va en el sentido de desarrollar un experimento que tome la
atenuación como variable dependiente de la humedad. En las mediciones para la humedad se calibró el
analizador de redes y en todos los casos se restó la línea base que se trata de la medición de la atenuación
producida por el contenedor de acrílico vació pero lleno de aire ambiente, para que de esta manera se
midiera solo la atenuación producida por la mezcla correspondiente de agua y galena. Se planteó un
diseño experimental con tres factores, la humedad con siete niveles, la frecuencia con 501 niveles de los
cuales de manera aleatoria se tomaron algunas y 4 rotaciones que al ser realizadas sobre la misma muestra
de galena humedecida se puede considerar como un experimento de dos factores con mediciones
repetidas y sin replicación ya que las mediciones repetidas, es decir las rotaciones se realizaron solo sobre
una mezcla de galena humedecida a un cierto nivel, así se llega a un modelo de efectos mixto de una sola
muestra de mediciones repetidas.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Investigación de la plaga del gusano cogollero en el cultivo de maíz mediante la implementación de
una encuesta y un diseño de parcelas divididas
Ponente: Ruth Rodríguez Ramírez
Co-autor: Julia Aurora Montano Rivas
Resumen
El maíz (Zea mays) es un grano dorado nativo de América, pertenece a la familia de gramíneas, su planta
es robusta, de fácil desarrollo y de producción anual. Numerosas investigaciones se han desarrollado
sobre el maíz, económicamente hablando los tipos de maíz más cultivados para grano, forraje y ensilaje
son tres: el dentado, duro y harinoso. Asimismo, se han considerado tipos de maíz menos relevantes en
comparación con los anteriores, pero con importante valor agregado, estos son: maíz reventón, dulce y
ceroso. En este trabajo se propone un diseño experimental para encontrar la combinación de fertilizante e
insecticida con el que se obtiene una mayor producción de maíz. El presente trabajo se llevó a cabo en la
localidad de Los Ángeles, Matías Romero A., Oaxaca, de agosto del año 2013 a Junio del 2014. Se
dividió en dos etapas, la primera consistió en el diseño y aplicación del cuestionario para captar las
opiniones sobre la producción del maíz; dicha encuesta consta de 37 preguntas que se dividieron en cuatro
secciones, las cuales fueron: información general del agricultor encuestado, información sobre
fertilizantes, insecticidas y asesoramiento para sembrar. Como segunda etapa se realizó un experimento
en parcelas divididas en bloques, en terreno perteneciente a la localidad y ubicado cerca del rio Jaltepec.
El experimento a desarrollar obedece algunas interrogantes derivadas de la aplicación de la encuesta.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Sequential Bayesian Analysis of Definitive Screening Experiments
Víctor Aguirre Torres1 y Román de la Vara Salazar
1
ITAM, Estadística
Abstract
Sequential Bayesian Analysis of Definitive Screening Experiments Definitive Screening Experiments,
Jones and Nachtsheim (2011), are experimental plans with three levels that allow the estimation of main
effects that are completely independent of two factor interactions, two factor interactions are not
completely confounded with other two factor interactions, and quadratic effects are estimable. The
number of experimental runs is just twice plus one the number of factors of interest. In the literature,
forward stepwise regression, Hamada and Wu (1992), has been used to analyze this kind of experiments.
In this work we show the sequential use of two tools coming from the Bayesian approach to analyze this
kind of experiments, namely: posterior distribution of effects, and posterior probabilities that effects are
active. We show that by combining all three approaches leads to a much better identification of active
effects in the experiment. References Hamada, M., and C. Wu (1992) “Analyzing Designed Experiments
with Complex Aliasing”. Journal of Quality Technology 24, pp. 30-37. Jones, B., and C. Nachtsheim
(2011) “A Class of Three-Level Designs for Definitive Screening in the Presence of Second Order
Effects”. Journal of Quality Technology 43, pp. 1-15.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Significancia de los Métodos ASME B31
Ponente: Génesis Peredo Rivera1
Coautores: Lady Yohanna Beltrán López1 y Edgar Ávila Hernández1
1
Centro de Innovación en Integridad de Infraestructura y Ductos, Corrosión Interior
Resumen
La integridad de ductos y determinación para su funcionalidad, se ha convertido en un tema muy
importante para establecer criterios uniformes y tomar decisiones para el mantenimiento de las tuberías;
dentro de la norma ASME B31, Apéndice G, se describen dos métodos para la determinación de la
presión permisible del ducto, enfocado en la necesidad de generar criterios estándar para reparar o
reemplazar tuberías que presentan defectos, este trabajo realiza una comparación de dos métodos para el
cálculo de la presión permisible en función a la pérdida de espesor del ducto. En una de las “líneas aguas
arriba”, situada en el sureste de México, bajo la técnica de MFL se hallaron tres defectos de desgaste de
tubería, de los cuales uno de ellos ubicado a las 11:46 hrs. no cumplió con el “factor de folias” para el
soporte de la concentración de las tensiones en los extremos de la falla recomendado por la ASME B31,
se realizó el cálculo de las presiones permisibles para este ducto por medio de los métodos ASME B31-G
y RSTRENG-1, soportando al cálculo se realizó un análisis de varianza (ANOVA) con un 95% de
confiabilidad probando la hipótesis de diferencias entre los métodos bajo una distribución F-Fisher, para
un ducto con características específicas, obteniendo un intervalo de confianza para la media de la presión
permisible del ducto.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estadística
Bayesiana
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Aplicación de Modelos Bayesianos para el Análisis de Conteos de Linfocitos T CD4+ de Pacientes con
VIH en México
Ponente: Rodrigo Hernández Hernández1
Co-autor: Luis E. Nieto-Barajas1
1
ITAM, Estadística
Resumen
El conteo de linfocitos cT CD4+ es el indicador más importante de la progresión de la infección de VIH
hacia el SIDA y un reflejo del estado inmunológico del paciente, por ello es de interés modelar el
comportamiento de estas mediciones y poder hacer predicciones. El objetivo fue la aplicación de dos
modelos de regresión bayesiana al conteo de CD4+ de pacientes con VIH para: 1. Determinar el nivel
medio modelado de CD4+ de cada individuo durante un periodo determinado y 2. Proyectar a futuro su
conteo de CD4+. Se incluyeron 4,578 pacientes del Laboratorio de Diagnóstico Virológico del CIENI con
seguimiento de enero 2008 a diciembre 2011 sin embargo sólo se utilizaron datos de pacientes que tenían
dos o más mediciones. Dado que el número de mediciones varía mucho entre pacientes, se utilizaron
modelos jerárquicos para determinar el nivel medio modelado de CD4+ de cada individuo durante el
periodo de estudio a partir de ciertas variables explicativas. Por otro lado, para las proyecciones se
emplearon modelos con splines que ajustan curvas suavizadas a los CD4+ en función del tiempo. Para
ambos modelos se realizaron 10,000 iteraciones con las cuales se alcanzó la convergencia en ambos
modelos. Finalmente, con el modelo jerárquico ajustado a los datos se obtuvieron niveles medios de
CD4+ modelados con la información completa de la cohorte y las variables explicativas, permitiendo una
clasificación más confiable de los pacientes que mantienen niveles de CD4+ bajos, medios y altos. Con el
modelo de splines se obtuvieron estimaciones de los CD4+ a lo largo del periodo de estudio e incluso
hasta un año después.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
Sesión de carteles
2014
Enseñanza y
Divulgación de
la Estadística
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Creación de un Índice de Uso de Metas de Aprendizaje de la Estadística en Profesores de la
Universidad Veracruzana
Ponente: Martha Yanet Domínguez Cortina1
Co-autores: Cecilia Cruz López1 y Mario Miguel Ojeda Ramírez1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
En este trabajo se creó un índice de qué tanto utilizan las Metas de Aprendizaje de la Estadística los
profesores de la Universidad Veracruzana en cursos de servicio. La recolección de la información se llevó
a cabo a través de un cuestionario que contiene las ocho metas de aprendizaje con respuestas tipo Likert.
Se realizó un análisis exploratorio multivariante y por medio de la Técnica de Componentes Principales
fue creado el índice del uso de las Metas llamado IMA.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
El Enfoque por Competencias para Enseñanza de la Estadística Caso de las Carreras de Ingeniería
Ponente: Estela Domínguez Hernández1
Coautores: José Luis Hernández González1 y Enrique Acoltzi Bautista1
1
Instituto Tecnológico de Apizaco, Ciencias Básicas
Resumen
Actualmente la enseñanza en los diferentes niveles de educación como son medio superior y superior han
reorientado a un enfoque en competencias. En el caso del sistema nacional de institutos tecnológicos
pertenecientes a la DGEST-SEP, se han desarrollado planes de estudios en competencias para los
programas 2009-2010. Sobre este enfoque Vázquez y Caton argumentan que “una sociedad que cambia
con rapidez precisa una formación que capacite personas para actuar en contextos diferentes del que
rodeó a su aprendizaje y no le basta con individuos que almacenen conocimientos que podrían quedar
obsoletos o que, simplemente, estén entrenados para realizar tareas mecánicas”, para ello se requiere
reconstruir la conceptualización de la enseñanza de las ciencias básica, en particular la enseñanza de la
estadística que se ha fortalecido con el desarrollo de prácticas de laboratorio que permitan desarrollar
competencias. Sin embargo, el crecimiento tanto en matricula como de instituciones, no ha sido
equilibrado con los requerimientos de equipo e infraestructura, para ello nos debemos replantear ¿Qué
hacer para desarrollar competencias acordes a las necesidades actuales? Algunas competencias generales
como son analizar y sintetizar información, argumentar lógicamente, establecer analogías entre
situaciones distintas, dar ejemplos particulares de una situación general, abstraer lo general de varios
ejemplos particulares, obtener información cualitativa de datos cuantitativos, expresar de maneras
diferentes pero equivalentes el mismo problema, manejar con precisión el lenguaje matemático y
competencias específicas como: traducir un problema real a un problema de enunciado matemático con
datos e incógnitas, obtener un modelo matemático de un sistema real, discriminar datos relevantes para la
solución de un problema, diseñar estudios experimentales útiles en la resolución de un problema, expresar
gráficamente datos, seleccionar procedimientos y herramientas adecuados de cálculo, calcular soluciones
aproximadas de un problema, utilizar herramientas computacionales para analizar datos, obtener
soluciones y simular el comportamiento de un sistema requiere del uso de algunas “herramientas básicas”
y relativamente “económicas” y cumplir con niveles de desempeño de las competencias que pueden ser
genéricas, interpersonales y profesionales. El instituto tecnológico de Apizaco muestra algunas
características de la enseñanza por competencias para ingenierías.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estrategias Tecnológicas en el PAE de Estadística Para Contadores
Rufina Georgina Hernández Contreras
UPAEP, PE y DT
Resumen
En el presente trabajo, que se realizó en la Facultad de Contaduría Pública (FCP) de la Benemérita
Universidad Autónoma de Puebla (BUAP), México, se analizó el proceso de aprendizaje-enseñanza de
dos conceptos básicos en la materia de estadística, el Promedio o Media Aritmética y la Desviación
Estándar. Se trató de innovar el proceso de aprendizaje-enseñanza, además de adecuar a las necesidades
actuales, y los requerimientos cada vez mayores de conocimientos estadísticos en la carrera; así como el
aprendizaje y adquisición de habilidades tecnológicas de los alumnos. Al apoyarse en las Tecnologías de
Información y Comunicación (TICs), no se obtuvieron mejoras relevantes en el aprendizaje de los
conceptos promedio y desviación estándar, pero si se obtuvieron mejoras en el interés y motivación de los
alumnos, así como en la obtención de herramientas de apoyo a la aplicación de la estadística, y el apoyo
del propio proceso de aprendizaje-enseñanza, de una materia cada vez más substancial para los
contadores públicos.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
La Varianza de la Mediana Muestral para las Distribuciones Normal, Exponencial Negativa y Pareto
Francisco Sánchez Villarreal
UNAM, Matemáticas
Resumen
La mediana es una estadística de tendencia central, que junto con la media aritmética y la moda se
calculan en el análisis estadístico. La mediana ocupa un lugar destacado en el análisis estadístico no
paramétrico. Para estimar la mediana se ordenan los datos de menor a mayor y se toma la observación
central, si el tamaño de la muestra es impar o el promedio de la dos centrales si es par. La estimación de la
varianza de la mediana es un problema tratado en la literatura (Efron, Bradley, 1985). Una alternativa es
apoyarse en el teorema: Si X1..,Xn son v.a.i.i.d con función de densidad f(x), y función de distribución
F(x), monótona y con valor único para el percentil p, entonces, la distribución asintótica del estimador de
dicho percentil es normal con valor esperado µp y varianza p(1-p) / nf(µp). Este resultado se ejemplifica
por simulación de Monte Carlo para las distribuciones Normal, Exponencial negativa. y Pareto I.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estadística no
paramétrica
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estimación no Paramétrica del Siniestro Ocurrido en Seguros
Ponente: Martin Romero Martínez1
Co-autor: María del Carmen Romero Martínez1
1
Instituto Nacional De Salud Pública, Encuestas
Resumen
Un siniestro ocurrido en el mes t, X(t), representa el monto que una compañía de seguros debe pagar para
cubrir las reclamaciones de los siniestros ocurridos en el mes t. Sea X(t,j) el pago en el mes t+j del
siniestro ocurrido en el mes t; entonces, X(t) = X(t,0) + ...+ X(t,N). Así, X(t,N) es conocido hasta después
de transcurridos N meses. El problema que se trata es estimar no paramétricamente a X(t) a partir de la
información disponible hasta el mes t.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estadística y
Ciencias
Sociales
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis de la Esperanza de Vida en México
Ponente: Javier Santibáñez Cortés1
Co-autores: Jorge Luis Peña Cortez1 y Francisco José Zamudio Sánchez1
1
Universidad Autónoma Chapingo, DEMyC
Resumen
Se presenta un estudio de la esperanza de vida en México a diferentes escalas territoriales, estados y
municipios, y su asociación con la tasa de mortalidad infantil. Para el cálculo de ambos indicadores se usa
la información presentada por el INEGI y las proyecciones de la población del CONAPO. El objetivo del
trabajo es exhibir que para sociedades que han alcanzado un cierto nivel de desarrollo la relación entre la
esperanza de vida y la tasa de mortalidad infantil ya no es tan clara ni significativa. Se plantea como
hipótesis que después de superar un umbral de necesidades sanitarias básicas, el efecto del segundo
indicador sobre el primero es más débil.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Aprendizaje Basado en Proyectos en el Verano de la Investigación
Ponente: Maria De Jesus Barradas Guevara1
Coautor: Mario Miguel Ojeda1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
El verano de la investigación científica tiene como objetivo fomentar entre los estudiantes el interés por la
actividad científica, lo cual consiste en promover y facilitar a los estudiantes de diferentes áreas y lugares
del país de México a realizar un proyecto de investigación durante siete semanas entre el 23 de junio al
22 de agosto, bajo la supervisión de la persona que los guie durante este tiempo. El objetivo de este
trabajo es analizar las variables que más induce al estudiante a investigar y aprender por cuenta propia. De
los estudiantes que tomaron el curso en los años 2012 y 2013 se analizaron, entre otras variables el nivel
de satisfacción del curso, que tanto aprendieron en el curso, si se le hizo difícil estar en el curso durante
el periodo, y que tan difícil fueron los proyectos.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Desarrollo y Delincuencia
Ponente: Javier Santibáñez Cortés1
Coautores: Omar Mata Lemus1 y Francisco José Zamudio Sánchez1
1
Universidad Autónoma Chapingo, DEMyC
Resumen
Se presenta un análisis de las asociaciones entre nivel de desarrollo de la entidades, medido a través de los
índices de desarrollo humano, marginación y rezago social; con el nivel de victimización y percepción de
la seguridad pública, media a través de un conjunto de variables extraídas de la ENVIPE del INEGI. El
trabajo se refiere a información del año 2012 por ser la más actual disponible. Se emplea el análisis de
conglomerados para agrupar los estados del país y tener una comparación más robusta.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Factores más Relevantes que Influyen en la Felicidad
Ponente: Santiago Córdoba Morales1
Coautor: Julia Aurora Montano Rivas1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
Si decimos que la felicidad es el estado emocional que sólo se puede sentir en el presente, entonces
¿cómo podríamos medir la felicidad ya que nos podemos encontrar con personas que en ese momento no
se sienten felices? Existen muchos estudios en los que miden la felicidad a través del bienestar, midiendo
cuánto bienestar hay en un lugar en función de sus recursos utilizados. Adrian G. White (1979), creó un
índice de satisfacción con la vida, donde el bienestar subjetivo se correlaciona fuertemente con la salud, la
riqueza y el acceso a la educación básica. En base a lo anterior, nos damos a la tarea de investigar las
características que más influyen para medir la felicidad en tres regiones del país: la región norte está
conformada por los estados, de Sonora y Coahuila, la región centro está compuesta por Querétaro y el
Distrito Federal y la región sur que la conforman los estados de Veracruz y Quintana Roo, a través de la
técnica de análisis de correspondencia.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Modelo para Evaluar la Formación y Desempeño Docente de Egresados de Instituciones de Educación
Normal
Ponente: Sergio Martín Nava Muñoz1
Coautores: María Antonieta Zuloaga Garmendia1 y Luz Elba Zepeda Jiménez1
1
CIMAT, U Ags
Resumen
El seguimiento de egresados es un punto fundamental para la labor formativa de las Escuelas Normales,
porque es posible establecer parámetros que sirvan de referencia para mejorar la formación de un
profesional de la educación que en el campo laboral manifieste un desempeño eficiente y proyecte una
opinión favorable sobre su quehacer ante las autoridades educativas inmediatas y ante la sociedad. Es por
ello que se hace necesario realizar análisis de la inserción de los egresados en el mercado laboral para
mejorar su oferta de enseñanza y formación. Esta investigación partió del supuesto de que la formación
profesional docente impacta en la eficiencia del desempeño laboral de los egresados de escuelas normales
del Estado de Aguascalientes. Del que se deriva la siguiente pregunta ¿Cómo son las relaciones entre los
factores que intervienen en la formación profesional docente y los factores que determinan la eficiencia
del desempeño laboral de egresados de la generación 2005-2009 de escuelas normales del Estado de
Aguascalientes? El interés por esta generación de egresados es porque fue la primera que participó en el
Examen General de Ingreso al Servicio. Este trabajo tiene como objetivo encontrar la relación entre la
formación profesional de los egresados de la generación 2005-2009 de las escuelas normales del Estado
de Aguascalientes y la eficiencia en su desempeño laboral, así mismo se busca proponer un modelo para
encontrar las relaciones entre los factores que intervienen en la formación y desempeño docente. Los
resultados se obtienen de una encuesta, de la cual se construyen una serie de indicadores que resumen la
formación profesional y el desempeño de los egresados. Estos indicadores se utilizaron para construir un
modelo que relaciona estas variables, que finalmente permite encontrar las relaciones existentes entre los
constructos construidos.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Semaforización de la Calidad de la Atención en los Servicios de Urgencias en Hospitales de Segundo
Nivel de la Ciudad de Durango
Ponente: Edgar Felipe Lares Bayona1
Co-autores: Manuel Rocha Fuentes1, Santiago David Fierro Martínez2 e Iván González Lazalde2
1
UJED, IIC, Departamento de Cómputo y Estadística, 2ITDurango, Ingeniería Industrial
Resumen
El servicio de salud es un servicio intangible, ya que es el resultado de un esfuerzo ó de una acción, donde
las relaciones interpersonales, las técnicas e instrumentos médicos y la infraestructura adecuada son los
principales enfoques en programas de mejora continua para la atención médica. Objetivo. Identificar la
semaforización de la calidad de la atención en los servicios de urgencias en hospitales de segundo nivel
de la ciudad de Durango. En este estudio descriptivo, transversal, y comparativo, se entrevistó a 325
pacientes que hicieron uso del servicio de urgencias en los hospitales de segundo nivel, como son: el
Instituto de Seguridad y Servicios Sociales de los Trabajadores del Estado (ISSSTE), Hospital General de
Durango (HG) y el Instituto Mexicano del Seguro Social (IMSS), hospitales de segundo nivel ubicados en
la ciudad de Durango. Se encontró que la actividad desarrollada de los médicos en los servicios de
urgencias frente a los pacientes muestra un nivel aceptable de comunicación. Los indicadores que
conforman el rubro de satisfacción, están por debajo del estándar establecido. La semaforización en tres
colores (rojo, amarillo y verde) representa el compromiso de una acción y la continuidad de un
seguimiento en la monitoria de los servicios de urgencias en los hospitales de segundo nivel de la ciudad
de Durango con los estándares establecidos por la Cruzada Nacional de la Calidad de los Servicios de
Salud.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Una Aplicación de la Estadística Textual en una Pregunta Abierta de una Encuesta de Opinión en el
Estado de Veracruz Relacionada con la Violencia Contra las Mujeres
Ponente: Marisol Sánchez Cano1
Coautores: Alma Janett Tenorio Aguirre1 y Marisol Sánchez Cano1
1
Universidad Veracruzana, Centro de Estudios de Opinión y Análisis
Resumen
Más que un conteo de palabras, la estadística textual ha permitido que la información que recogen las
preguntas abiertas en encuestas de opinión tenga un tratamiento sistemático, e.g. permite relacionar las
características generales de los encuestados. El tema relacionado con la violencia de las mujeres es un
tema en el que la recopilación de información es difícil. Algunos expertos señalan que la violencia puede
ser asociada a los estigmas, el miedo, etc. Por esta razón, derivado de una encuesta de opinión en el
estado de Veracruz, se obtuvo información referente a la opinión sobre violencia contra las mujeres donde
los encuestados expresaban su opinión al respecto. Esta información se captó mediante una pregunta
abierta, en el que las respuestas se convierten en datos expresados en cadenas de palabra. Se realizó un
análisis de texto utilizando un software estadístico y métodos de la estadística textual; considerando la
posibilidad de crear grupos de clasificación de las respuestas, así como identificar un perfil de los
informantes considerando las variables sexo y edad.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Variables que Influyen para que un Alumno Egrese en dos Licenciaturas de la BUAP
Ana Luisa Nieto Méndez1
Flaviano Godinez Jaimes2 y Hortensia Reyes Cervantes1
1
BUAP, FCFM, 2UAGro, Matemáticas
Resumen
Las licenciaturas en Matemática y Matemáticas Aplicadas que se ofrecen en la Facultad de Ciencias
Físico Matemáticas de la BUAP tienen cursos en los primeros años en los que frecuentemente sus
estudiantes reprueban. Actualmente es importante determinar los factores que influyen para que un
alumno egrese. En este trabajo se consideran 14 variables asociadas a las calificaciones de los primeros
cursos que un alumno toma, además de sus promedios en cada año que permanece en alguna de las
licenciaturas. Para identificar que variables influyen para que un alumno egrese se usó una Regresión
Logística considerando como variable respuesta a la variable Egreso (= 1/0) si un alumno ha o no
egresado, respectivamente de las licenciaturas en Matemática o Matemáticas Aplicadas y se realizó
selección de variables para identificar dichas variables.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estadística y
Medio
Ambiente
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis Multivariante para el Estudio de Materia Orgánica dentro de Bromelias
Ponente: Yonatan Aguilar Cruz1
Co-autores: Cecilia Cruz López1 y José García Franco2
1
UV, FEI, 2Instituto de Ecología A.C., Ecología Funcional
Resumen
En trabajos de ecología comúnmente se reporta más de una variable respuesta para unidades
experimentales asignadas a distintos tratamientos. Una herramienta útil para evaluar la respuesta
simultánea del conjunto de variables es el Análisis de Varianza Multivariado (MANOVA). Para conocer
el efecto de la especie de árbol hospedero en los componentes de la materia orgánica almacenada en
bromelias, se seleccionaron nueve árboles (tres por especie) y se colectó la materia orgánica de tres
bromelias sujetas a cada árbol. Se realizó un MANOVA con cuatro variables respuesta (proporción de
hojas, ramas, epifitas y detritos) y tres factores (especies de árboles). Para determinar diferencias entre
grupos se realizaron pruebas de contraste, y para detectar diferencias en cada una de las variables se
utilizaron análisis de varianza univariados. Se concluyó que existe una diferencia significativa de la
proporción de hojas, ramas, epifitas y detritos almacenados en las bromelias cuando éstas se encuentran
en diferentes especies de árboles.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estimación del Volumen Promedio de Agua Utilizada en la Evacuación de Residuos Líquidos en
Sanitarios
Ponente: Marcos Andrés Jiménez Moreno1
Coautores: Norma Edith Alamilla López2,a, Reyle Mar Sarao2,b, y Simón Javier Hernández Gaspar3
1
Universidad Tecnológica de Tabasco, Química, 2Universidad Politécnica del Centro
3
Universidad Politécnica del Golfo de México, Seguridad y Automatización Industrial
a
Mecatrónica, bElectrónica y Telecomunicaciones
Resumen
El agua es uno de los recursos más importantes para las actividades humanas; aunque abunda en nuestro
planeta, solo una pequeña fracción es útil para el consumo humano. De esto se desprende que el uso
racional, responsable y eficiente del agua debe ser una prioridad en cualquier sociedad y país. Una parte
del agua es utilizada con fines sanitarios. En particular, la evacuación de orina en los sanitarios conlleva
el uso del agua, mediante la evacuación de los inodoros. El estado de Tabasco es uno de los más
característicos de la República Mexicana, dado que este posee dos recursos importantes como son: el agua
potable y el petróleo. Sin embargo, en ciertas épocas del año el estado sufre de la falta del vital líquido
(agua), a pesar de que este tenga grandes precipitaciones anuales que en algunas ocasiones pueden
provocar hasta inundaciones y que como consecuencia conlleve a grandes pérdidas económicas, es bien
conocido en la región que durante en el período comprendido entre los meses de abril-julio se presentan
como período de seca, presentándose una gran escasez teniendo un gran impacto en los sectores
domésticos, agrícolas, ganaderos, etc. Por otro lado además de la sequía en ese período, se percibe un uso
excesivo de agua para fines sanitarios, de la misma forma que en otras épocas del año donde abunda el
agua. En el presente trabajo se realiza un análisis estadístico, sobre datos obtenidos mediante una encuesta
realizada a estudiantes de Tabasco de las universidades UPC, UPGM y UTTAB, con el fin de estimar
cuanto del vital líquido es usado para la evacuación de residuos de orina por parte de varones. Con lo
anterior se busca contar con un estudio piloto para la propuesta de una campaña de concientización para
promover el uso de mingitorios que usen menos agua, o bien mingitorios secos o libres de agua. La
metodología anterior se decidió mediante una discusión grupal con base a una tabla de actividades que se
realizan de manera diaria y cotidianamente en una casa habitación. Entre los puntos que se consideraron
importantes, están el conocer el número de hombres existentes en cada domicilio, la veces que se acude al
sanitario a orinar, el uso y existencia de sanitarios con caja con volúmenes diversos, existiendo estos en
un rango de 5 a 20 litros, cajas con sistemas ahorradores de agua, etc., concluyendo que en dicha
actividad el desperdicio de agua es bastante significativo, razón por la cual se decidió realizar un estudio
estadístico. Es importante mencionar que en dicho estado no existe un sistema de monitoreo o control del
volumen de agua que los habitantes consumen y que el costo bimestral es sumamente bajo para la
importancia que contiene este vital liquido, razón por la cual, consideramos que no existe una conciencia
sobre la importancia de su cuidado, control y usos.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Modelación de Valores Extremos de Precipitación Pluvial Usando Modelos VGAM
Ponente: Violeta De La Huerta Contreras1
Coautor: Humberto Vaquera Huerta1
1
Colegio de Postgraduados, Estadística
Resumen
La intensidad y periodicidad de lluvias reconocidas como atípicas en nuestro país llaman a un estado de
alerta. Es así que se ha realizado la modelación pluvial de riesgos de inundaciones para la ciudad de
Mèxico y zonas conurbadas; usando la base de registros de precipitación del Clicom con datos de 1921 al
2012. Se emplearon modelos lineales generalizados aditivos vectoriales (VGAM) ajustando a una
distribución de Valores Extremos Generalizada empleando el valor máximo mensual, obteniendo los
niveles de retorno a cien, ochenta, sesenta, y cincuenta meses de doscientas veintiún estaciones
meteorológicas. Utilizando métodos de interpolación espacial (Kriging e IDW) se elaboraron mapas de
riesgos los cuales indican que la incidencia de eventos extremos de precipitación se incrementará sobre
todo en las zonas centro-sur de la Ciudad de México.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Modelos
Lineales
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Modelo Óptimo para Identificar el Confort Térmico en el Metro de la Ciudad de México Estación
Zapata
Ponente: Julia Aurora Montano Rivas1,a
Coautores: Patricia Díaz Gaspar1,a e Irving R. Méndez Pérez1,b
1
UV, aFacultad de Estadística e Informática bCentro de Ciencias de la Tierra
Resumen
En este trabajo se caracteriza el confort o disconfort térmico que perciben los pasajeros del Metro de la
Ciudad de México, estación Zapata, problema que se presenta en condiciones de ventilación natural y
aumento de la temperatura en las horas pico. Por ello, el objetivo es encontrar un modelo de regresión
logística óptimo que permita identificar las variables que influyen en el malestar térmico del usuario
cuando éste se encuentra en el área Andén. Como método de optimización se aplican algoritmos genéticos
y para elegir el mejor modelo nos basaremos en las pruebas de Hosmer y Lemeshow y validación
cruzada.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Uso de Algoritmos Genéticos para Encontrar el Modelo Óptimo de Regresión Logistica
Ponente: Gloria Edith Rodríguez Ramirez1
Coautores: Julia Aurora Montano Rivas1 y Ernesto Pedro Menéndez Ácuña1,b
1
Universidad Veracruzana , aFacultad de Estadística e Informática, bFacultad de Matemáticas
Resumen
Esta investigación tiene como objetivo la optimización del modelo de regresión logística a través de la
técnica algoritmos genéticos. Para ello, se desarrolla un programa en lenguaje R donde tomando como
referencia el grado de los modelos se obtienen 11 clases, de las cuales a través de remuestreos y las
operaciones genéticas se pretende visualizar el o los modelos más significativos. Para aplicación de este
trabajo se utilizó una base de datos con 235 casos en pacientes con padecimientos de hígado graso a los
cuales se les realizó las mediciones de su correspondiente índice de masa corporal.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Cotas para la Varianza del Estimador de Proporciones en el Muestreo por Conglomerados en dos
Etapas con Tamaños Iguales
Alberto Manuel Padilla Terán
Banco De México, Investigación Económica
Resumen
En el problema de estimación de proporciones en el muestreo aleatorio simple es conocido el hecho de
que la varianza de dicho estimador alcanza el máximo cuando la proporción es igual a 0.5. Cuando no se
tiene información de la variable de interés por estimar, puede usarse el valor máximo de la varianza para
el cálculo del tamaño de muestra. Este resultado se extiende al muestreo por conglomerados en dos etapas
con tamaños iguales usando muestreo aleatorio simple en ambas etapas y se construyen expresiones para
las varianzas mínima y máxima, sin considerar proporciones poblaciones iguales a cero o uno, para la
varianza del estimador de proporciones. Las condiciones bajo las cuales se alcanzan los valores mínimo y
máximo dependen del coeficiente de correlación intraclase de la variable de interés, de algunas cantidades
relacionadas con el número de conglomerados en la población y muestra, así como del tamaño de los
conglomerados. A partir de los valores de varianza mínima y máxima, resulta inmediato obtener cotas
para el efecto del diseño y el coeficiente de variación. Las cotas se ilustran con algunos ejemplos.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Diagnóstico de la Parroquia de San Pio X, en la ciudad de Xalapa, Veracruz
Ponente: Diana Elizabeth Valderrábano Pedraza1
Coautor: Minerva Reyes Félix1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
En la actualidad, los tipos de religiones que existen en el mundo van en aumento, no así el número de
fieles de una de las religiones que siempre ha predominado “la religión católica”, que ha visto disminuir
en número a los integrantes de su comunidad. Esta situación constituye una gran preocupación para la
Iglesia Católica, y en este caso para la Parroquia de San Pio X, que se encuentra ubicada en la ciudad de
Xalapa, Veracruz, México; la cual está interesada en tener un diagnóstico de la opinión de los feligreses
sobre los servicios que ofrece e identificar el posicionamiento que tienen como Iglesia en la zona
parroquial que le corresponde. Cabe mencionar que se conoce como zona parroquial a la zona geográfica
en la que se ubica el Templo. Para realizar el estudio, se consideró a los feligreses que asisten a la
Parroquia de San Pio X y a las personas que viven en la zona parroquial delimitada. Además, el estudio
consta de dos etapas, la primera es el diseño del cuestionario dirigido a los asistentes de dicha parroquia y
la segunda el diseño muestral estratificado de acuerdo a la zona parroquial; realizando el levantamiento de
encuestas en ambas etapas. Terminadas las etapas del estudio, se realizó el análisis estadístico que
permitirá a la Iglesia tener mayores elementos para realizar acciones encaminadas a mejorar sus servicios
y a atraer mayor cantidad de fieles.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Encuesta de Salud y Nutrición Infantil en Municipios del Estado de Tabasco
Ponente: Josefina Alvarado Leyva1, a
Coautores: José Reyes Montejo Velázquez1, a, Lizania De La Cruz De La Cruz1,a,
Luis Reyes Velázquez1,b y Fidel Ulín Montejo1,b
1
UJAT, aActuaria, bMatemáticas
Resumen
En las últimas tres décadas la obesidad ha emergido como una epidemia mundial que afecta todas las
edades y todos los niveles socioeconómicos. Los datos de prevalencia de la obesidad en México tienen
una tendencia ascendente. En este trabajo se ilustran los resultados y análisis preliminares de un estudio
diseñado para conocer las condiciones de salud y nutrición infantil en hogares con niños y niñas menores
de 5 años en municipios del estado de Tabasco. Los objetivos de esta encuesta fueron conocer la
cobertura y utilización de servicios de salud, analizar las condiciones y determinantes de salud y nutrición
en los municipios considerados, y conocer la frecuencia, distribución y tendencia de las condiciones y
determinantes de la salud y nutrición de niñas y niños menores de 5 años. Para tal efecto se empleó una
muestra seleccionada mediante muestreo probabilístico, polietápico, estratificado y por conglomerados,
de acuerdo a la densidad poblacional reportada por el INEGI para cada municipio, conformada por
asentamientos con más de 2500 habitantes. Las variables de interés para este estudio, son las Desnutrición
y obesidad infantil. Para llevar a cabo el análisis del estado de nutrición, se medirá el peso y la talla o
longitud realizadas por personal capacitado y procedimientos estandarizados según protocolos
convencionales. Se registrará el peso y la talla para construir los índices antropométricos. Tablas, cuadros
y gráficos son presentados para ilustrar los resultados y análisis preliminares.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Normalidad Asintótica del Estimador Máximo Verosímil del Tamaño Poblacional bajo la Variante del
Muestreo por Bola de Nieve Propuesta por Félix-Medina y Thompson
Martin Humberto Felix Medina
Universidad Autónoma De Sinaloa, Facultad De Ciencias Físico-Matemáticas
Resumen
Félix-Medina y Thompson (JOS, 2004) propusieron una variante del muestreo por bola de nieve en la
cual se construye un marco muestral incompleto de sitios de reunión de los elementos de la población. Se
toma una muestra de sitios y a los elementos allí encontrados se les pide que nombren a otros elementos.
Estos autores derivaron estimadores máximo verosímiles (EMVs) del tamaño poblacional bajo el
supuesto de que la probabilidad de que una persona sea nombrada por alguna de las encontradas en un
sitio particular (probabilidad de liga) no depende de la persona sino sólo del sitio (hipótesis de
homogeneidad). Posteriormente, Félix-Medina y col. (Proc. Sec. Surv. Res. Meth.-JSM, 2009) y FélixMedina y Domínguez-Molina (Proc. Sec. Surv. Res. Meth.-JSM, 20012) derivaron EMVs del tamaño
poblacional bajo modelos que toman en cuenta la heterogeneidad de las probabilidades de ligas. En este
trabajo se considera un modelo general para estas probabilidades y se establecen condiciones que
garantizan la normalidad asintótica del EMV del tamaño poblacional.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Tamaño muestral para preferencias electorales con tres o más candidatos bajo muestreo complejo
Ponente: José Luis Ávila Valdez1,2
Carlos Felipe Henríquez Roldán1
1
Universidad de Valparaíso, Facultad de Ciencias, 2Universidad Popular Autónoma del Estado de
Puebla, Área de Matemáticas y Estadística para Ciencias Sociales.
Resumen
Cinco son los elementos fundamentales que determinan el tamaño de muestra: el nivel de confianza
deseado, el error de estimación o margen de error, la varianza de la variable en estudio, la información a
priori acerca de la variable de interés y el plan de muestreo utilizado en la recolección de los datos. A
excepción de la distribución binomial donde el tamaño de la muestra se obtiene considerando “el peor
escenario” para el cliente, cuando la varianza se maximiza, no se requiere de información sobre la
varianza. En cualquier otro caso se requieren los cinco elementos antes mencionados. Por otro lado, el
plan de muestreo pocas veces es considerado en el cálculo del tamaño de la muestra y éste último por lo
general se obtiene como si se tratara de un muestreo aleatorio simple. Existen casos donde el tamaño de la
muestra no se puede obtener de manera cerrada, por ejemplo cuando la distribución multinomial admite
tres o más opciones. En este trabajo se presenta un método para obtener el tamaño de muestra para la
distribución multinomial mediante simulaciones, incorporando el plan de muestreo utilizado a través del
efecto de diseño. Se simulan diferentes escenarios para niveles de confianza del 90%, 95% y 99% y
márgenes de error de 0.01, 0.02, 0.03, 0,04 y 0.05, se asume que las población es suficientemente grande
por lo que no se utiliza factor de corrección para poblaciones finitas y que el muestreo es realizado sin
reemplazo. Finalmente, el método aquí presentado se aplica a la determinación del tamaño de la muestra
para un caso real de una encuesta para evaluar preferencias electorales.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Series de
Tiempo
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis de Variables Climatológicas del Estado de Tlaxcala
Ponente: Silvia Herrera Cortés1
Coautor: Bulmaro Juárez Hernández1
1
BUAP, FCFM
Resumen
El pronóstico de variables climatológicas juega un papel importante en las actividades realizadas por el
hombre, pues le permite prever medidas de adaptación para minimizar los efectos ocasionados por su
variabilidad, cuya causa se le puede atribuir a la variabilidad natural del clima, al cambio climático
generado por la concentración de gases de efecto invernadero en la atmósfera, o ambos. El análisis sobre
comportamiento de las variables climatológicas cuyo registro numérico de sus características son
longitudinales, se puede realizar con series de tiempo cuyo objetivo es el de predecir o pronosticar datos.
En el estudio de las series de tiempo los métodos utilizados en la predicción están basados en el supuesto
de un comportamiento lineal, lo que en condiciones climatológicas no es una realidad, por esto, es
necesario buscar métodos más precisos que permitan hacer pronósticos con un menor margen de error. En
este trabajo se hace un análisis de variables climatológicas del estado de Tlaxcala (temperatura,
precipitación) mediante la metodología de Box-Jenkins para series de tiempo además de realizar una
comparación con resultados obtenidos a través de redes neuronales.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Análisis Espectral Singular de las Series de Tiempo de Precipitación y Temperatura de Riobamba,
Ecuador
Ponente: Sergio Francisco Juárez Cerrillo1
Coautores: Fernando Romero1 y Sergio Hernández González1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
El Análisis Espectral Singular (AES) es una técnica de desarrollo reciente para analizar series de tiempo.
En esencia, es un análisis de componentes principales en el dominio del tiempo de una serie de tiempo. El
objetivo del AES es extraer información de la dinámica de una serie de tiempo y resulta una herramienta
poderosa para analizar series de tiempo cortas y con mucho ruido. Es por esto que el AES se ha aplicado
ampliamente en geofísica, climatología, meteorología y recientemente en econometría y finanzas. En este
trabajo presentamos brevemente el AES y lo ilustramos con el análisis de la series de tiempo de
precipitación y temperatura mensuales registradas en la ciudad de Riobamba, Ecuador, de 1976 al 2010.
Los cálculos se realizaron con el paquete Rssa de R.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estimación Basada en Cadenas de Markov Monte Carlo para el Análisis de Series de Tiempo Enteras
Ponente: Eduardo Selim Martínez Mayorga1
Coautor: Ruth Selene Fuentes García1
1
UNAM, FC
Resumen
En este trabajo se revisan muchas de las ideas más conocidas en series de tiempo que toman valores en un
espacio a lo más numerable. Se explica por qué algunas de las técnicas estándar en el análisis de series de
tiempo no son adecuadas y las aproximaciones asintóticas se deben considerar de forma muy cuidadosa y
la mayoría de las veces son inadecuadas.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Modelos ocultos de Markov: Una aplicación a las finanzas
Ana Gabriela López Gutiérrez1
Ana Gabriela López Gutiérrez1 y Blanca Rosa Pérez Salvador1
1
UAM-I, Departamento de Matemáticas
Resumen
El modelo de Black-Scholes es un modelo ampliamente utilizado para estimar el precio de las opciones en
el mercado de valores, este modelo se basa en el movimiento Browniano como un proceso evolutivo del
activo subyacente. Sin embargo, el proceso de evolución del activo subyacente siempre está dado en un
entorno no estable, es decir, puede cambiar de "bueno" a "malo", de "malo" a "normal", etc., de manera
aleatoria. Por lo tanto, los valores de las opciones pueden ser afectados por este entorno. Janssen, Manca
y E. Volpe, 2009, propusieron una modificación de la fórmula de Black-Scholes asumiendo el entorno
como una cadena de Markov en la cual se conocen los posibles estados del sistema, pero se desconoce el
estado en el que se encuentra el proceso en el tiempo t, porque permanecen ocultos. A partir de esta
modificación, Luc Tri Tuyen (2010) utiliza los modelos ocultos de Markov para estimar los parámetros de
una cadena de Markov para analizar y predecir fenómenos de series de tiempo. En este trabajo se
presentan los modelos ocultos de Markov aplicados a la modificación de la fórmula de Black-Scholes
propuesta por Janssen, Manca y E. Volpe y lo propuesto por Luc Tri Tuyen.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Simulación,
Cómputo y
Software
Estadístico
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Algoritmos Evolutivos para el Diseño T-óptimo
Ponente: Wilfrido Jacobo Paredes García1
Coautor: Eduardo Castaño Tostado1
UAQ, Facultad de Ingeniería
Resumen
En este trabajo se aborda el uso de los llamados algoritmos evolutivos diferenciales y el algoritmo de
colonia artificial de abejas para tratar el problema del diseño T-óptimo para discriminar entre dos modelos
alternativos. Se presentará su implementación usando R y una comparación de estos algoritmos
evolutivos y los métodos clásicos de optimización.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Data Warehouse y Minería de Datos
Ponente: José Antonio Flores Cruz1,a
Coautores: José Luis García Cue1,a, Yolanda Margarita Fernández Ordoñez1,b y Reyna Carolina Medina
Ramírez2, c
1
a
Colegio de Postgraduados, 2Universidad Autónoma Metropolitana
Estadística, bCómputo Aplicado, cDepartamento de ingeniería Eléctrica
Resumen
En el presente trabajo se introduce la forma básica de cómo pueden evolucionar e integrarse las
arquitecturas de bases de datos para entregar el valor de la minería de datos a los usuarios finales
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Estimación de Densidad por Núcleo (Kernel) para Datos Circulares
Ponente: Isaías Hazarmabeth Salgado Ugarte1
Coautor: Marco Aurelio Pérez Hernández1
1
F.E.S. Zaragoza UNAM, Biología (Biometría y Biología Pesquera)
Resumen
La información cuantitativa recabada tomando como referencia a una escala circular ocurre comúnmente
en campos diversos de la actividad humana. Como con las escalas lineales, la distribución es una
característica que debe entenderse para interpretar adecuadamente el mensaje que transmiten los datos.
Una de las herramientas más importantes para analizar la distribución de los datos es la estimación de
densidad por núcleo (kernel) la cual resuelve los problemas del efecto del origen y la discontinuidad de
los histogramas tradicionales, proporcionan guías para escoger la amplitud de intervalo (ventana) y
pueden estructurarse con amplitud variable de ventana para ajustar por abundancia o escasez de
observaciones. En esta contribución y con base en trabajos previos sobre tratamiento estadístico de datos
circulares y lineales, presentamos una serie de programas para llevar a cabo estimaciones de densidad
circular. El primero permite calcular varias reglas prácticas para elegir el ancho de ventana adaptadas (al
considerar la dispersión circular) de reglas para datos lineales y un procedimiento basado en el parámetro
de dispersión de la distribución de von Mises (equivalente circular de la Gaussiana); el segundo permite
estimar la densidad con varias funciones ponderales (kernel o núcleo) tales como uniforme, triangular,
Epanechnikov, cuártica (biponderada), triponderada, Gaussiana y coseno. Este algoritmo despliega los
resultados en forma linear o circular, cuenta y estima modas, antimodas y hace posible generar variables
de densidad y puntos de cálculo (en grados) para uso posterior; el tercero es similar al anterior pero estima
la densidad con la función ponderal de von Mises; el último dibuja gráficos circulares de densidad
personalizados. Presentamos su aplicación sobre varios conjuntos de datos (propios o provenientes de la
literatura). En nuestra experiencia, estos programas proporcionan una herramienta muy poderosa que
lleva a un conocimiento profundo de características importantes de distribución circular tales como
simetría, sesgo y modalidad.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Un Sistema Experto para la Descripción Automatizada de Datos
Paul Ramírez De la Cruz
CIMAT, A. C., Unidad Aguascalientes
Resumen
Las oficinas de estadísticas oficiales y otras entidades relacionadas, producen grandes volúmenes de
tabulados y gráficas descriptivas que ponen a disposición de sus usuarios, ya sea de manera impresa o en
formato electrónico. Esta información, aunque muy importante, puede en ocasiones resultar poco clara
para el usuario ocasional. Se presenta el planteamiento básico de un sistema experto que produce una
explicación de las principales características de un conjunto de datos a partir del conjunto mismo o de un
resumen tabular.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
Sesión de carteles
2014
Teoría y
Aplicaciones de
Valores
Extremos
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Aplicación de Algunos Métodos para Estimar Medidas de Riesgo Financiero como el VaR y EVaR
Ponente: Jaime Iván Urbina Rugerio1
Coautores: Gabriel Nuñez Antonio1 y Patricia Saavedra Barrera1
1
UAM-I, Departamento de Matemáticas
Resumen
En el presente trabajo se aplican algunos métodos estadísticos para estimar medidas como el Valor en
Riesgo (VaR) y el Valor en Riesgo Condicionado (EVaR). Lo anterior, en el contexto de las pérdidas que
se obtiene al invertir en ciertos portafolios de inversión. Los métodos aplicados son el denominado
varianza-covarianza, el método histórico y el método de picos sobre el umbral, este último asociado a la
metodología de valores extremos. Los procedimientos mencionados se aplican y comparan en dos tipos
de portafolio, uno constituido por 5 acciones del sector de la industria de la construcción que cotizan en la
Bolsa Mexicana de Valores (BMV) y el otro por 3 bonos cupón cero con tasas de rendimiento a 28, 91 y
182 días, respectivamente. Finalmente, se presentan conclusiones con base en el desempeño de cada
método.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Modelación de los Retornos del IPC, 1991-2014 con las Distribuciones Pareto y Pareto Generalizada
Ponente: Genoveva Lorenzo Landa1
Coautor: Sergio Francisco Juárez Cerrillo1
1
Universidad Veracruzana, Facultad de Estadística e Informática
Resumen
Se calcula el Valor en Riesgo (VaR) de los retornos negativos del IPC. Tradicionalmente se ha utilizado
la distribución normal para calcular el VaR. Sin embargo esta distribución no es la adecuada para analizar
extremos. Puesto que nos interesan las pérdidas grandes del IPC utilizamos un enfoque de extremos para
lo cual ajustamos a los retornos negativos extremos las Distribuciones Pareto y Pareto Generalizada.
Utilizamos máxima verosimilitud para datos censurados en el caso de la Pareto y máxima verosimilitud
para excedentes sobre umbrales para la Pareto Generalizada. En este trabajo presentamos el ajuste de
ambas distribuciones a los retornos negativos. La siguiente fase es elegir a una distribución, ya sea la
Pareto o la Pareto Generalizada como mejor modelo para los retornos negativos del IPC. Utilizaremos la
medida de bondad de ajuste Valor Promedio Absoluto Escalado como criterio para elegir la distribución.
Finalmente, con el modelo elegido procederemos a calcular el VaR de los retornos negativos del IPC.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
2014
Sesión de carteles
Optimización del Logaritmo de la Función de Verosimilitud a Través del Algoritmo Genético
Asael Angel Santiago1
Pedro E. Menéndez Acuña1 y Julia Aurora Montano Rivas1
1
UV, Facultad de Estadística e Informática
Resumen
En este trabajo se pretende maximizar el logaritmo de la función de verosimilitud a través de la aplicación
del algoritmo genético, para la obtención del estimador máximo verosímil de un parámetro, sin tener que
transitar por la solución de una ecuación de verosimilitud. Esta propuesta se ensaya primeramente con
distribuciones que dependan de un solo parámetro: Bernoulli, Poisson y Exponencial. Posteriormente se
considera una situación donde la solución de la ecuación de verosimilitud requiera de un método
numérico para su solución, aplicándose en este caso un método numérico clásico para la solución de la
ecuación de verosimilitud y el algoritmo genético para maximizar la función de verosimilitud. Se simulan
muestras aleatorias de las distribuciones de interés con el objetivo de evaluar la propuesta.
XXIX Foro Internacional de Estadística, Puebla, Puebla.
Descargar