Ubicación de Actividades - Universidad Veracruzana

Anuncio
Ubicación de Actividades
Cursos Preforo:
Contribuciones Libres:
CR1: Galindo
CR2: Osuna
CR3: Nelson
CR1: 1, 3, 5, 7, 9, 11 y 13
(CR 1)
(CR 2)
(CR 3)
Un solo salón (CR 4)
Cursos Foro:
CR1: Lebart
CR3: 2, 4, 6, 8, 10, 12 y 14
Inauguración, Magistrales y
Clausura: CR4
Asamblea General de la AME: CR2
CR2: Barrios
Brindis de Bienvenida: Jardín Sur
CR3: Multion y SAS
e
s t ro ó n
i
g
Re ripci
c
ins
Carteles y Stands: Foyer
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
PROGRAMA
PREFORO
_______________________________________________________________________________________________________
XXIII Foro Nacional de Estadística
________________________________________________________________________________________________________________
PROGRAMA PREFORO
(Cursos Cortos)
HORA
DOMINGO 7
9:00 – 11:00
LUNES 8
Dra. Galindo
11:00 – 11:30
Dra. Osuna
MARTES 9
Dr. Nelson
Descanso para café
11:30 – 13:30
Dra. Galindo
13:30 – 16:00
Dra. Osuna
Dra. Galindo
Dra. Osuna
Dra. Osuna
Dr. Nelson
Descanso para café
Dr. Nelson
Receso para Comida
16:00 – 17:00
Dra. Galindo
HORA
Dr. Nelson
Dra. Galindo
Dra. Osuna
11:00 – 11:30
Dr. Nelson
Receso para Comida
Dra. Galindo
Dra. Osuna
9:00 – 11:00
11:30 – 13:30
13:30 – 16:00
Dr. Nelson
16:00 – 17:00
Registro
17:00 – 17:30
17:30 – 18:30
Cursos
Cortos
(Hotel Sede)
18:30 – 20:30
Descanso para café
Dra. Galindo
Dra. Osuna
Descanso para café
Dr. Nelson
Dra. Galindo
Dra. Osuna
17:00 – 17:30
Dr. Nelson
17:30 – 18:30
Junta Mesa Directiva de la AME
Registro XXIII Foro Nacional de Estadística
(Hotel Sede)
18:30 – 20:30
________________________________________________________________________________________________________________
4
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CURSOS
PREFORO
_______________________________________________________________________________________________________
XXIII Foro Nacional de Estadística
____________________________________________________________________________________________________________
AVANCES EN ANÁLISIS DE DATOS MULTIVARIANTES
Dra. Purificación Galindo
Departamento de Estadística
Universidad de Salamanca, España
Descripción:
Se expondrán los avances que se tienen en Análisis de Datos Multivariantes, partiendo desde cuando se trata de analizar una sola
matriz de datos, cuando se trata de analizar la relación que existe entre dos matrices de datos y análisis de k matrices de datos.
Programa:
1. Análisis de una matriz de datos: Análisis de Componentes Principales, GH-Biplot, JK-Biplot, HJ-Biplot, Análisis de
Correspondencias, Modelo de Respuesta Gaussiana y Análisis Indirecto del Gradiente.
2. Análisis de las relaciones entre dos matrices de datos: Análisis Canónico de Correspondencias, Análisis de la Co-Inercia y CoCorrespondence Analysis.
3. Análisis de k matrices de datos: STATIS DUAL, STATIS CANÓNICO, CCA Asimétrico y AFM Asimétrico.
____________________________________________________________________________________________________________
5
XXIII Foro Nacional de Estadística
____________________________________________________________________________________________________________
ANÁLISIS ESTADÍSTICO DE DATOS TEXTUALES
Dra. Zulaima Osuna
Departamento de Estadística
Consejo Nacional de Universidades
Caracas, Venezuela
Descripción:
Se expondrán las diferentes metodologías para el Análisis de Datos Textuales desde la perspectiva estadística, bajo los enfoque
lexicométricos o de la estadística textual, apoyados en las técnicas estadísticas desarrolladas por la Escuela Francesa de Análisis de
Datos (Analyse des Données) y el modelo vectorial propuesto por Salton y McGill. Los participantes al final del curso podrán
sintetizar la información latente contenida en un corpus.
Programa:
4. Introducción al Análisis de Datos Textuales. Abordaremos su definición, el concepto de estadística textual, unidades tratables,
protocolos lexicométricos, corpus, y lematización.
5. Metodología general del análisis de datos textuales. Tablas Léxicas y/o matriz de co-ocurrencia, Análisis Factorial de
Correspondencia, ponderación de unidades tratables y reglas de interpretación.
6. Los Métodos Biplots como herramienta alternativa del análisis de datos textuales. Fundamentos teóricos de los Biplots, AC
como solución particular de los Métodos Biplots.
7. Identificación de palabras características mediante un Biplot Robusto.
8. Aplicación práctica.
____________________________________________________________________________________________________________
6
XXIII Foro Nacional de Estadística
____________________________________________________________________________________________________________
ANÁLISIS DE DATOS DE CONFIABILIDAD Y SUPERVIVENCIA
Dr. Wayne Nelson
Consultor Internacional (USA)
Descripción
Se describirán diferentes métodos para recolectar y analizar datos de confiabilidad y supervivencia, hacia la mejora del diseño,
desarrollo, ensayo, fabricación y gestión de productos para hacerlos más confiables y de menor costo. Los participantes aprenderán
cómo recolectar y analizar eficientemente datos de ensayo y de servicio, que permitan obtener información para la gestión y mejora de
la confiabilidad de productos.
Programa
1.- Introducción al análisis de datos de supervivencia y reparación de productos.
Se expondrán los métodos básicos para el Análisis de Datos de Supervivencia y Reparación de productos.
2.- Distribuciones para confiabilidad y supervivencia.
Conceptos básicos: distribución acumulada, gráficos de probabilidad, función de confiabilidad, percentiles y tasa de falla.
Propiedades de las distribuciones exponenciales, de Weibul, logarítmico-normal, etc.
3.- Análisis gráfico para datos de confiabilidad y supervivencia.
Poblaciones y muestras, datos válidos, falla y uso, los tipos de datos (completos, censurados, intervalos) y la información
deseada.
4.- Análisis por computadora y de datos con modos de falla.
Cómo utilizar software para obtener estimadores, límites de confianza, y verificar los modelos aplicados. Reseña sobre
diferentes opciones de software.
5.- Análisis de datos de reparación y de eventos recurrentes.
Conceptos básicos para eventos recurrentes: función acumulada de historia de cada unidad, modelo de la población, función
acumulada promedio (FAP), y la tasa de recurrencias.
____________________________________________________________________________________________________________
7
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
PROGRAMA
FORO
_______________________________________________________________________________________________________
XXIII Foro Nacional de Estadística
________________________________________________________________________________________________________________
PROGRAMA GENERAL
(Sesión matutina)
HORA
MIERCOLES 10
8:30-9:55
Cursos
Barrios y
Lebart
col.
JUEVES 11
SAS
Contribuciones libres
Lebart
Curso
Barrios
y col.
VIERNES 12
Multion
Consulting
Contribuciones libres
Lebart
Cursos
Barrios y
col.
HORA
SAS
8:30-9:55
Contribuciones libres
Sesión 11
10:00 – 11:35
Sesión 2
Sesión 1
Estadística
Bayesiana I
11:35 – 12:00
Diseños
Factoriales y
Confiabilidad
Sesión 5
Análisis
Multivariado I
Sesión 6
Modelos de
Regresión
Descanso para café
Descanso para café
Contribuciones libres
Contribuciones libres
Modelos
Lineales y
Modelos
Lineales
Generalizados
Sesión 12
Descanso para café
13:35 – 16:00
Series de
Tiempo,
Estadística
Espacial y
Estadística
EspacioTemporal
11:35 – 12:00
Contribuciones
libres
Sesión 3
12:00 – 13:35
10:00 – 11:35
Estadística
Bayesiana II
Sesión 14
Sesión 7
Sesión 4
Prueba de
Hipótesis
Comida
Teoría y
Aplicaciones
de Valores
Extremos
Sesión 8
Sesión 13
Análisis
Multivariado
II
Estadística
Comida
Multivariada III
Tesis
ganadoras del
Premio FAO
12:00 – 13:35
y Muestreo
Comida
13:35 – 16:00
________________________________________________________________________________________________________________
8
XXIII Foro Nacional de Estadística
________________________________________________________________________________________________________________
PROGRAMA GENERAL
(Sesión vespertina)
HORA
MIERCOLES 10
JUEVES 11
Conferencia Magistral II
16:00 – 17:00
Ceremonia de Inauguración
17:00 – 18:00
18:00 – 18:30
VIERNES 12
HORA
Conferencia Magistral IV
16:00 – 17:00
Conferencia Magistral I
Purificación Galindo
Villardón
Conferencia Magistral III
Rubén Hernández Cid
Ludovic Lebart
Javier Rojo
Descanso para café
Descanso para café
Descanso para café
18:00 – 18:30
Ceremonia de Clausura
18:30-19:40
José M. González-Barrios
Conferencia Magistral V
17:00 – 18:00
Contribuciones libres
18:30 – 19:40
Carteles
Sesión 9
Sesión 10
Datos
Censurados
Divulgación
19:40 – 20:00
Receso
20:00
Brindis de Bienvenida
Asamblea General de la
AME
Registro al Foro y entrega de material en el Hotel Sede:
•
Martes 9 de septiembre de 18:30 a 20:30 hrs.
•
Miércoles y Jueves de 8:30 a 10:00 hrs.
________________________________________________________________________________________________________________
9
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CURSOS
FORO
_______________________________________________________________________________________________________
XXIII Foro Nacional de Estadística
____________________________________________________________________________________________________________
ESTADÍSTICA TEXTUAL: VISUALIZACIÓN Y VALIDACIÓN
Ludovic Lebart
Télécom-ParisTech
Centre National de la Recherche Scientifique, Paris
Para describir y comparar textos, la estadística textual incorpora métodos procedentes de la estadística exploratoria multidimensional,
esencialmente los métodos de clasificación automática, los mapas autoorganizativos de Kohonen y el análisis de correspondencias.
Dichas herramientas operan a partir del recuento sistemático de las distintas palabras del corpus de textos de partida. Las respuestas a
preguntas abiertas en las encuestas constituyen un campo de aplicación privilegiado. El curso insistira sobre los métodos de
visualización grafica y sobre la validación de ellos mediante varias formas de bootstrap.
Programa
1. Introducción: El marco de la estadística textual. Elección de las unidades.
2. Los datos estructurados. El caso de las respuestas a preguntas abiertas.
3. Las herramientas básicas: análisis de correspondencias, clasificación jerárquica, mapas de Kohonen, métodos de seriación.
Complementaridad de los diversos enfoques.
4. Palabras y respuestas características.
5. Estabilidad de los resultados. Aplicación del bootstrap (bootstrap parcial, total, específico). Validación de los mapas
obtenidos. Regiones de confianza.
6. Una herramienta relacionada: La semiometria.
7. Aplicaciones prácticas con los softwares DTM y Lexico3.
____________________________________________________________________________________________________________
10
XXIII Foro Nacional de Estadística
____________________________________________________________________________________________________________
PROGRAMACIÓN EN “R PARA ESTADÍSTICA
Ernesto Barrios, Elías y Luís Felipe González
Investigadores del Instituto Tecnológico Autónomo de México (ITAM)
R es un sistema para análisis estadísticos y gráficos creado por Ross Ihaka y Robert Gentleman. R tiene una naturaleza doble de
programa y lenguaje de programación y es considerado como un dialecto del lenguaje S creado por los Laboratorios AT&T Bell. S
está disponible como el programa S-PLUS comercializado por Insightful. R se distribuye gratuitamente bajo los términos de la GNU
(General Public Licence); su desarrollo y distribución son llevados a cabo por varios estadísticos conocidos como el Grupo Nuclear de
Desarrollo de R.
R posee muchas funciones para análisis estadísticos y gráficos; estos últimos pueden ser visualizados de manera inmediata en su propia
ventana y ser guardados en varios formatos (jpg, png, bmp, ps, pdf, emf, pictex, xfig; los formatos disponibles dependen del sistema
operativo). Los resultados de análisis estadísticos se muestran en la pantalla, y algunos resultados intermedios (como valores P-,
coeficientes de regresión, residuales, etc.) se pueden guardar, exportar a un archivo, o ser utilizados en análisis posteriores.
Programa
1. Introducción y manipulación de datos.
2. Graficación y muestreo.
3. Simulación y paquetes.
____________________________________________________________________________________________________________
11
XXIII Foro Nacional de Estadística
____________________________________________________________________________________________________________
ANALISIS MULTIVARIADO CON STATA 10
Jesús Pérez
Multion Consulting
Se expondrá brevemente las capacidades y ventajas de Stata para el manejo y depuración de bases de datos, la aplicación de técnicas
del análisis multivariado como son el análisis de componentes principales, el análisis de factores, análisis discriminante y análisis
cluster enfatizando la rapidez y eficiencia de los algoritmos propios de Stata al momento de obtener los resultados y su interpretación,
con lo cuales el usuario optimiza el tiempo en la obtención de resultados. Usando datos del Índice de Desarrollo Humano (IDH) de la
República Mexicana.
____________________________________________________________________________________________________________
12
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CONFERENCIAS
MAGISTRALES
_______________________________________________________________________________________________________
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CONFERENCIA MAGISTRAL I
Miércoles 10 de Septiembre, 2008
17:00-18:00
ESTADÍSTICA MULTIVARIADA EN LA INVESTIGACIÓN EN CIENCIAS SOCIALES
Rubén Hernández Cid
ITAM, México.
Resumen
Como cualquier disciplina científica, la Estadística tiene orígenes muy diversos, en ocasiones un tanto desconocidos o
francamente olvidados. Esta charla, principalmente dirigida a los estudiantes de nivel licenciatura, tiene como objetivo mostrar
algunas de las relaciones entre la Estadística Multivariada y algunas áreas de las Ciencias Sociales (principalmente la
Sociología). De manera particular se analiza el estudio de fenómenos complejos por medio del análisis de matrices de datos
censales tomando como ejemplo el fenómeno de la marginación en México durante los últimos veinte años.
_______________________________________________________________________________________________________
13
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CONFERENCIA MAGISTRAL II
Jueves 11 de Septiembre, 2008
16:00-17:00
STATIS y AFM, ante cambios Alfa, Beta y Gamma
Ma. Purificación Galindo Villardón
Universidad de Salamanca, España.
Resumen
En este trabajo se analiza el comportamiento de los métodos STATIS y AFM ante la presencia de cambios Alfa, Beta y Gamma
y se pone de manifiesto que ni el RV utilizado en el método STATIS, ni el Lg utilizado en el AFM, son útiles a la hora de
definir qué tipo de cambio se produce entre una estructura y otra.
_______________________________________________________________________________________________________
14
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CONFERENCIA MAGISTRAL III
Jueves 11 de Septiembre, 2008
17:00-18:00
RESAMPLING TECHNIQUES FOR ASSESSING THE VISUALISATIONS OF MULTIVARIATE DATA
Ludovic Lebart
Telecom-Paris Tech, Paris.
Abstract
Multivariate descriptive techniques involving singular values decomposition (such as Principal Components Analysis, Simple
and Multiple Correspondence analysis) may provide misleading visualisations of the data. We briefly show that several types of
resampling techniques could be carried out to assess the quality of the obtained visualisations: a) Partial bootstrap, that considers
the replications as supplementary variables, without diagonalization of the replicated moment-product matrices. b) Total
bootstrap type 1, that performs a new diagonalization for each replicate, with corrections limited to possible changes of signs of
the axes. c) Total bootstrap type 2, which adds to the preceding one a correction for the possible exchanges of axes. d) Total
bootstrap type 3, that implies procrustean transformations of all the replicates striving to take into account both rotations and
exchanges of axes. e) Specific bootstrap, implying a resampling at different levels (case of a hierarchy of statistical units).
Examples are presented and discussed for each technique.
_______________________________________________________________________________________________________
15
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CONFERENCIA MAGISTRAL IV
Viernes 12 de Septiembre, 2008
16:00-17:00
UNA PRUEBA DE ASOCIATIVIDAD PARA CÓPULAS
José M. González-Barrios y Arturo Erdely
IIMAS UNAM, México.
Resumen
En esta plática se presentará una nueva estadística
pareja de variables aleatorias continuas con cópula
para probar si unos datos aleatorios de tamaño
, provenientes de una
, satisfacen la condición de asociatividad, es decir si la cópula satisface la
condición
para todas
Esta condición es básica para que la cópula
.
pertenezca a la familia de cópulas arquimedeanas. También se incluirán algunos
ejemplos para checar la potencia de la prueba. Finalmente se harán algunos comentarios acerca del comportamiento asintótico de
la estadística
.
_______________________________________________________________________________________________________
16
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CONFERENCIA MAGISTRAL V
Viernes 12 de Septiembre, 2008
17:00-18:00
INFERENCIA SOBRE LA COLA DE DISTRIBUCIONES DE PROBABILIDAD
Javier Rojo
Universidad de Rice, Houston, TX, EU.
Resumen
Se presentará un resumen de conceptos acerca de la pesadez de las colas de las distribuciones de probabilidad, se incluirán
conceptos para categorizar distribuciones. Se presentará una nueva metodología para probar hipótesis sobre la pesadez de la cola
junto con resultados sobre la potencia de esta prueba.
_______________________________________________________________________________________________________
17
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CONTRIBUCIONES
LIBRES
_______________________________________________________________________________________________________
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 1: ESTADÍSTICA BAYESIANA I
Miércoles 10 de septiembre
10:00-11:35
1.
10:00-10:20
Curvas Bayesianas de Mortalidad
Primer autor (Ponente): Manuel Mendoza
Segundo: Daniel Straulino
Resumen: La tabla que actualmente se utiliza para el cálculo de las llamadas reservas legales para el seguro de vida en México
se produjo en el año 2000 a partir de un modelo de regresión Bayesiano. Recientemente se ha planteado la actualización de esa
tabla y con ese motivo se han considerado algunas ideas que parten de la misma base pero producen resultados más robustos. En
esta plática se examina el proceso que se ha seguido hasta ahora.
2.
10:25-10:45
Métodos Variacionales como una Alternativa para los MCMC
Primer autor (Ponente): Guadalupe Eunice Campiran García
Segundo: Eduardo Gutiérrez Peña
Resumen: Para aproximar la distribución a posteriori en estadística bayesiana se utilizan los métodos de simulación MCMC,
desafortunadamente en problemas con muchas variables, resultan sumamente lentos. En esta plática se presentara otro enfoque
diferente, en donde la distribución a posteriori será aproximada por métodos variacionales que son más rápidos ya que no
involucran simulaciones.
_______________________________________________________________________________________________________
18
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
3.
10:50-11:10
Estimación de Toxicidades en un Ensayo Clínico Fase III: Inferencia Bayesiana para Respuestas Ordinales Anidadas en
Respuestas Categóricas
Primer autor (Ponente): Luis G León-Novelo
Segundo: Xian Zhou
Tercero: B. Nebiyou Bekele
Cuarto: Peter Muller
Resumen: Consideramos el modelaje de respuestas ordinales anidadas en respuestas categóricas. Extendemos el modelo
Bayesiano Probit multinominal (MNP por sus siglas en inglés) tomando en cuenta la posible dependencia entre las respuestas en
las diferentes categorías. Introducimos una mezcla de distribuciones normales para las variables latentes asociadas con los datos
ordinales esta mezcla en el modelo permite fijar los parámetros de puntos de corte que ligan la variable latente con la respuesta
ordinal observada. Además, esta mezcla hace más flexible la estimación de la probabilidad de que una observación pertenezca a
cierto nivel dentro de cierta categoría que la tradicional regresión ordinal probit Bayesiana con puntos de corte aleatorios.
Aplicamos este modelo a un ensayo clínico aleatorio fase III para comparar tratamientos en base a las toxicidades registradas por
efecto tóxico y grado dentro de cada tipo de efecto. Los datos incluyen el nivel de toxicidad de cada tipo de efecto tóxico para
cada paciente. El hecho de que algunos pacientes presenten más de un efecto tóxico incluye una fuente adicional de dependencia
más que modelamos con un efecto aleatorio específico para cada paciente.
4.
11:15-11:35
Un Modelo Bayesiano para Regresión Circular-Lineal
Primer autor (Ponente): Gabriel Núñez Antonio
Segundo: Eduardo Gutiérrez Peña
Tercero: Gabriel Escarela
Resumen: Los datos direccionales se encuentran de manera natural en muchas áreas y son especialmente comunes en las
ciencias biológicas y geofísicas. Particularmente, Arnold y SenGupta (2006) presentan un panorama general de la aplicación de
datos direccionales en las ciencias ecológicas y del medio ambiente. Por otro lado, este tipo de observaciones aparece a menudo
_______________________________________________________________________________________________________
19
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
en modelos de regresión como la variable de respuesta. El análisis de datos direccionales requiere de técnicas estadísticas
especiales, dada la periodicidad inherente de este tipo de observaciones. Más aún, la aplicación de técnicas convencionales puede
conducir a resultados no adecuados si no se toma en cuenta la diferencia entre la topología del círculo y la de la línea recta. Los
modelos de regresión propuestos en la literatura que tratan las respuestas circulares como escalares sufren de varias dificultades
que los hacen poco prácticos para el análisis de tales datos (ver por ejemplo, Downs y Mardia, 2002, y Presnell et al. 1998). En
este trabajo se presenta una propuesta de análisis, desde el punto de vista Bayesiano, vía la introducción de variables latentes y el
uso de métodos MCMC, de un modelo de regresión lineal bivariado para datos circulares con covariables lineales. Este modelo
considera las respuestas circulares como proyecciones, sobre el círculo unitario, de vectores parcialmente observables. Se discute
el problema de datos faltantes en la variable respuesta y el uso de un criterio predictivo para la selección de covariables.
_______________________________________________________________________________________________________
20
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 2: DISEÑOS FACTORIALES Y CONFIABILIDAD
Miércoles 10 de septiembre
10:00-11:35
1.
10:00-10:20
Análisis Robusto de Factoriales Fraccionales no Replicados
Primer autor (Ponente): Víctor Aguirre
Segundo: Román de la Vara
Resumen: Los métodos de análisis para experimentos factoriales fraccionales que no contemplan la posibilidad de datos atípicos
tienen un desempeño pobre cuando esta posibilidad se convierte en realidad. Mostramos un método basado en regresión robusta
que tiene una buena habilidad aun en presencia de datos contaminados.
2.
10:25-10:45
Fractional Factorial Designs in the Analysis of Categorical Data
Primer autor (Ponente): Alexander Von Eye
Resumen: In this contribution, first, fractional factorial designs are reviewed, with an emphasis on Box-Hunter designs. Based
on the Sparsity of Effects Principle, it is argued that, when higher order effects are indeed unimportant in most hypotheses,
fractional designs can be used without loss of information. Fractional factorial designs can be specified such that the desired
level of interactions can be interpreted. Given a fixed amount of time and money, these designs allow one to include more factors
in a study than completely crossed designs, or to increase the sample. It is then shown that, when the outcome variables are
categorical, the same principles apply. It is also shown that, to obtain the same resolution, higher order effects need to be
specified when the outcome variables are categorical. Parameter interpretation is illustrated for a selection of fractional factorial
designs. The application of fractional factorial designs is illustrated in both explanatory and exploratory contexts. An empirical
data set is analyzed using the fractional and the complete information. It is illustrated that distortion from only using the
fractional information can be minimal.
_______________________________________________________________________________________________________
21
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
3.
10:50-11:10
Comparación de Errores de Medida de dos Instrumentos ¿cómo Estudiar una Desviación Estándar con una sola
Medida?
Primer autor (Ponente): Wayne Nelson
Resumen: This talk presents a comparison of two measuring instruments for statistically significant differences between their
sample means and standard deviations of measurement error. In application, a number of specimens were each measured twice
with one instrument and just once with the other. The pairs of measurements with the firs instrument readily yield an estimate of
the standard deviation of its measurements error. This talk shows to estimate the standard deviation of measurement error of the
second instrument when there is just one measurement on each specimen. The estimate is illustrated with measurements (below)
of the depth of craters produced in metal specimens by impact of steel balls.
4.
11:15-11:35
Análisis de Tiempos entre Fallas considerando Riesgos en Competencias
Primer autor (Ponente): Julio César Villegas
Segundo: Raúl Villa Diharce
Resumen: Considere un componente o equipo que presenta interrupciones en su funcionamiento en los tiempos t1, t2,…,tn .
Suponga que los paros del equipo son provocados por dos causas:
1.
Reparación motivada por falla
2.
Ejecución de mantenimiento preventivo o predictivo
Del esquema anterior se tiene que, además de contar con los tiempos de paro ti, también se cuenta con una “etiqueta” o
“identificador” ci que señala la causa por la cual el equipo dejó de operar, esto es, los datos con los que se cuenta, son de la
siguiente forma: (t1,c1) (t2,c2),…, (tn,cn) con ti 0 y ci= 1,2 para i= 1,2,…,n . a este tipo de datos se les conoce como datos de
riesgos en competencia. Un problema interesante que surge en este contexto es el de valorar la calidad del mantenimiento que se
da al equipo, para lo cual se podría estar interesado, por ejemplo, en las distribuciones de probabilidad marginales de los tiempos
de falla y tiempos de mantenimiento. Se presentan algunos modelos para datos de riesgos en competencia y se ejemplifica la
inferencia con datos provenientes de una bomba centrífuga utilizada en una refinería.
_______________________________________________________________________________________________________
22
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 3: SERIES DE TIEMPO, ESTADÍSTICA ESPACIAL Y ESTADÍSTICA ESPACIO-TEMPORAL
Miércoles 10 de septiembre
12:00-13:35
1.
12:00-12:20
Métodos Multivariados en la Determinación de Puntos de Corte Dinámicos
Primer autor (Ponente): Belem Trejo Valdivia
Segundo: Ximena Duque López
Tercero: Sergio Flores Hernández
Resumen: En la población general las deficiencias de micronutrientes son un problema de salud pública y en particular, la
deficiencia de hierro durante el primer año de vida es un problema importante. Tradicionalmente se ha asociado a la anemia con
deficiencia de hierro pero se puede tener deficiencia de hierro sin anemia y anemia por otras causas. Los marcadores biológicos
más usados para diagnosticar deficiencia de hierro y anemia son la concentración de ferritina sérica y de hemoglobina,
respectivamente. Cuando la ferritina sérica es menor que 10 ng/ml se habla de deficiencia de hierro, mientras que si la
hemoglobina es menor que los valores normales para la edad, se habla de anemia. Por otro lado, los niños nacidos a términos
tienen concentraciones altas de ferritina pero ésta va disminuyendo rápidamente en sus primeros meses de vida. Debido al rápido
crecimiento de los niños durante el primer año de vida y a la necesidad de un aporte externo de hierro a partir de los 6 meses de
edad, se considera que durante el primer año de vida los niños están en mayor riesgo de presentar deficiencia de hierro. De lo
anterior, surge la siguiente pregunta: ¿Es adecuado el uso de un solo punto de corte para identificar deficiencia de hierro a través
de la concentración de en niños menores de 1 año? Un solo punto de corte no parece tomar en cuenta el proceso natural de
disminución de las reservas corporales de hierro durante el primer año de vida, ni otras características como sexo o la
concentración de hemoglobina. En esta plática se discute el uso de métodos multivariados de agrupamiento para determinar
puntos de corte de ferritina sérica a lo largo del primer año y para evaluar los patrones de asociación entre los niveles de ferritina
sérica y hemoglobina durante la misma etapa. Se utiliza información proveniente de un ensayo clínico aleatorizado cuyo objetivo
es el de evaluar el efecto de una suplementación profiláctica con hierro para prevenir la deficiencia de hierro en niños durante el
primer año de vida.
_______________________________________________________________________________________________________
23
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
2.
12:25-12:45
Diseño en Procesos Gaussianos
Primer autor (Ponente): J. Andrés Christen
Resumen: Presentamos algunos avances en el diseño de experimentos computacionales usando Procesos Gaussianos (GP) como
modelos sustitutos. Un GP es ajustado a datos provenientes de un “experimento computacional” (modelo matemático “resuelto”
numéricamente, con diversos niveles de aproximación, usualmente siendo un procedimiento computacionalmente
extremadamente demandante). Este modelo de GP se le llama sustituto (surrogate, en inglés). Es muy importante el diseño
experimental para minimizar y optimizar la cantidad de evaluaciones que se hacen del experimento computacional. Nosotros
ensayamos con la estrategia de “Active Learning” (AL), proveniente del área de robótica, que trata de maximizar la reducción en
varianza predictiva para encontrar puntos de diseño. Usando una serie de aproximaciones considerando resultados conocidos de
álgebra lineal (desigualdades de Weyl) establecemos un score para maximizar y encontrar diseños adecuados, que es muchísimo
más fácil y rápido de calcular diseños AL. Se presenta un ejemplo simulado, con una rejilla de 10,200 puntos, y otro real de un
experimento computacional (de clima global) desarrollado en el MIT, con una rejilla de 426 puntos.
3.
12:50-13:10
Modelos Espaciales de Regresión
Primer autor (Ponente): Alejandro Alegría
Resumen: Hace poco más de cien años Galton (1889) hizo notar que las inferencias obtenidas al realizar comparaciones, con
observaciones supuestamente independientes, pueden ser equivocadas si la variable de interés se ve afectada no solo por los
atributos que se comparan, sino también por un efecto de difusión entre las unidades de observación, el cual produce cierto tipo
de dependencia entre las observaciones. Por ejemplo, la respuesta de las personas ante un incentivo o un tratamiento no depende
solamente de los atributos individuales de las personas, sino de la estructura del sistema al que pertenecen, su posición dentro del
mismo y de las interacciones con otros individuos. En este caso, una forma de modelar la dependencia entre observaciones es por
medio de los modelos espaciales de regresión. El propósito de esta plática es mostrar la forma de este modelo así como algunas
de sus propiedades, y ejemplificar su uso. Es conveniente mencionar que en estos modelos se puede usar una noción de distancia
diferente a la usual distancia euclidiana.
_______________________________________________________________________________________________________
24
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
4.
13:15 – 13:35
Procesos Puntuales tipo Shot-Noise y su Aplicación al Modelado Espacial y Temporal de Incendios Forestales
Primer autor (Ponente): Carlos Díaz Ávalos
Resumen: Los procesos puntuales espaciales constituyen una herramienta que ha sido utilizada con éxito en el modelado de
fenómenos que se presentan de manera localizada (eventos), tales como epicentros de terremotos, brotes de enfermedades,
ocurrencia de actos delictivos y distribución de mamíferos marinos, entre muchos otros. En la mayoría de los casos, estos
fenómenos pueden definirse en el espacio tridimensional compuesto por el espacio y el tiempo. Dado que la presencia del
fenómeno bajo estudio raramente es homogénea, es necesario utilizar modelos que sean capaces de modelar el agregamiento de
eventos que usualmente se observa en la naturaleza. En este trabajo se presenta una descripción de los procesos puntuales tipo
shot-noise y se presenta un ejemplo de aplicación al modelado de incendios forestales.
_______________________________________________________________________________________________________
25
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 4: PRUEBA DE HIPÓTESIS
Miércoles 10 de septiembre
12:00-13:35
1.
12:00-12:20
Prueba de White modificada para Heterogeneidad de Varianza
Primer autor (Ponente): Araceli Martínez-Franco
Segundo: Gustavo Ramírez-Valverde
Tercero: Benito Ramírez-Valverde
Resumen: La prueba de White (1980) para detectar heterogeneidad de varianzas es una prueba que no requiere que se
especifique estructura alguna a las varianzas, motivo que la hizo popular, al grado de ser la prueba que en forma automática
realizan algunos paquetes estadístico (SAS, E-Views y Stata, etc.); sin embargo, algunos estudios sugieren que esta prueba no
debería ser empleada por su baja potencia (Lyon-Tsai, 1996 y Dios-Rodríguez, 1999). En este trabajo se propone una
modificación a la prueba de White para mejorar su potencia. Mediante un estudio de simulación, la potencia y el tamaño de la
prueba propuesta son evaluados y comparados con algunas pruebas alternativas.
2.
12:25-12:45
Una Estrategia para el Cálculo del Nivel de Significancia Real de las Pruebas de no-Inferioridad para dos Proporciones
Primer autor (Ponente): David Sotres Ramos
Segundo: Félix Almendra Arao
Tercero: Cecilia Ramírez Figueroa
Resumen: Las pruebas de no-inferioridad son frecuentemente utilizadas en la investigación clínica para demostrar que un
tratamiento nuevo (con mínimos efectos secundarios o bajo costo) no es sustancialmente inferior en eficacia que el tratamiento
estándar. Un problema práctico importante que presentan las pruebas de no-inferioridad es el cálculo del nivel de significancia
real de la prueba. Este problema se presenta debido a que por la mera formulación de las hipótesis de no-inferioridad el espacio
_______________________________________________________________________________________________________
26
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
nulo de parámetros es una región contenida en el plano. En este trabajo se presenta una prueba un resultado que facilita de
manera muy importante el cálculo de dicho nivel de significancia real. Se presentan varias aplicaciones de este resultado, entre
ellas se explica cómo fue posible construir tablas para el uso de la prueba exacta de Farrington-Manning.
3.
12:50-13:10
Pruebas de Bondad de Ajuste para la Distribución Normal Asimétrica
Primer autor (Ponente): Paulino Pérez Rodríguez
Segundo: José A. Villaseñor Alva
Resumen: En este trabajo se proponen dos pruebas de bondad de ajuste para la distribución normal asimétrica, basadas en
propiedades de esta familia de distribuciones y el coeficiente de correlación. Los valores críticos para las pruebas son obtenidos
utilizando simulación Monte Carlo. La potencia de las pruebas propuestas es comparada con las estudiadas por Mateu et al.
(2007) usando simulación Monte Carlo y la estudiada por Meintanis (2007) utilizando Bootstrap paramétrico. Los resultados
muestran que las pruebas propuestas son más potentes que las estudiadas por Mateu et al. y Meintainis varias de las alternativas
consideradas.
4.
13:15-13:35
Comparación de dos Enfoques para el Contraste de Hipótesis Estadísticas en un Modelo Lineal Funcional
Primer autor (Ponente): María Guzmán
Segundo: Eduardo Castaño
Resumen: Este trabajo compara por vía de un ejemplo con datos reales de un experimento en tecnología de alimentos, a dos
enfoques para contrastar hipótesis estadísticas relevantes cuando en el experimento la variable de respuesta puede pensarse como
funcional y los factores toman valores reales; los procedimientos corresponden a los desarrollados por Ramsay y Silverman
(2005) y por Abramovich et al (2004), respectivamente. Las diferencias de los enfoques se comentan en los siguientes aspectos:
en la base utilizada para la representación funcional de los datos y correspondiente grado de suavizamiento en tal representación,
en la estructura del error en los modelos estadísticos supuestos, y en el criterio de optimalidad utilizado para desarrollar el
_______________________________________________________________________________________________________
27
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
procedimiento de contraste respectivo. El objetivo de esta comparación es esclarecer desde el punto de vista práctico la facilidad
de uso de los procedimientos comparados.
_______________________________________________________________________________________________________
28
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 5: ANÁLISIS MULTIVARIADO I
Jueves 11 de septiembre
10:00-11:35
1.
10:00-10:20
Biplot versus Coordenadas Paralelas
Primer autor (Ponente): Purificación Galindo Villardón
Segundo: Purificación Vicente Villardón
Tercero: Carlomagno Araya Alpízar
Resumen: En este trabajo realizaremos un estudio comparativo de dos técnicas de representación de datos multivariantes: los
Métodos BIPLOT (Gabriel, 1971; Galindo, 1986) y las Coordenadas Paralelas (Inselberg, 1992). Presentaremos la interpretación
en coordenadas paralelas de los conceptos variabilidad, correlación, contribuciones, perfiles multivariantes, etc., los cuales son
clave en los análisis Biplot. Aplicaremos ambos métodos al estudio de la caracterización multivariante de las preferencias de los
sociólogos de finales del siglo XX, para poner de manifiesto las similitudes y diferencias entre ambos métodos, así como sus
ventajas e inconvenientes.
2.
10:25-10:45
Cuantificación de Variables Categóricas Mediante Análisis Multivariante no Lineal: una Aplicación al Estudio del Perfil
de Mujeres Inmigrantes en Situación Laboral Irregular, en España
Primer autor (Ponente): Mª Carmen Patino Alonso
Segundo: Mª Purificación Vicente Galindo
Tercero: Mª Elena Vicente Galindo
Cuarto: Purificación Galindo Villardón
Resumen: Es muy frecuente encontrar publicaciones en las cuales intervienen variables expresadas en escala tipo Licker las
cuales son analizadas estadísticamente como si fueran variables cuantitativas. Sin embargo, es bien conocido que esa forma de
_______________________________________________________________________________________________________
29
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
análisis no captura la información contenida en los datos de manera óptima. Tomando como escenario de referencia el Sistema
Gifi, es posible obtener el mejor conjunto de cuantificaciones simples de un sistema multivariante, de forma que se minimice la
pérdida de información inherente a la reducción de la dimensionalidad del sistema original. En este trabajo utilizamos el método
HOMALS para cuantificar las categorías de las variables nominales y/o ordinales y para describir las relaciones entre esas
variables en un subespacio de baja dimensión, de tal forma que la homogeneidad sea máxima. El procedimiento se aplica a la
búsqueda del perfil multivariante de mujeres inmigrantes que se encuentran en situación laboral irregular en España, entendiendo
por tal, que no cumplen con las cotizaciones a la seguridad Social, Para llevar a cabo la investigación, se ha elaborado un
cuestionario específico basado en la información recogida en 50 entrevistas en profundidad y 2 grupos de discusión que recoge
información sobre características sociodemográficas, formación y cualificación, situación laboral y trabajo, estado de opinión
sobre diversos aspectos relacionados con las consecuencias de la situación de irregularidad, demandas y medidas. El estudio se
ha realizado sobre la información recogida en 3100 encuestas, realizadas en 144 municipios de la provincia de Salamanca
(Castilla y León, España), utilizando un muestreo multietápico en el cual la etapa final fue un muestreo en bola de nieve,
proporcional. Los estratos se han elegido utilizando un HJ-BIPLOT (Galindo, 1985), sobre los datos tomadas del Anuario Social
de España. Realizando un análisis de conglomerados de k-medias sobre las variables categóricas cuantificadas, ha sido posible
describir 2 clusters de mujeres inmigrantes y diferenciarlos de las mujeres en situación laboral regular: uno constituido por
mujeres jóvenes inmigrantes que buscan un complemento monetario para sus gastos personales, pero dependen económicamente
de sus padres y viven con ellos, desempeñando su actividad en el sector de la hostelería; y el grupo de mujeres inmigrantes,
dedicadas al servicio doméstico. Las mujeres manifiestan su deseo de pasar a una situación regular de forma unánime, solicitan
una flexibilización en los horarios y ayuda de la Administración en la atención de niños y ancianos, que les permita conciliar su
vida familiar y su vida laboral.
3.
10:50-11:10
Segmentación Estadística Basada en Análisis No Simétrico de Correspondencia
Primer autor (Ponente): Claudio Rafael Castro López
Segundo: Purificación Galindo Villardón
Resumen: En el marco de los métodos de segmentación estadística, se presenta una propuesta de algoritmo de segmentación de
muestras y/o poblaciones, en base a la creación de árboles ternarios con variable respuesta latente. Se abordan los Modelos de
_______________________________________________________________________________________________________
30
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
Clases Latentes y la descomposición factorial de la predictividad mediante el Análisis No Simétrico de Correspondencias
(ACNS). Se presenta una aplicación del Algoritmo propuesto. Contexto El Análisis de Correspondencia No Simétrico (ACNS),
es un método, basado en la idea de analizar la dependencia en una tabla de dos dimensiones, y puede ser considerado como una
alternativa al análisis de correspondencia, en donde se sabe que la hipótesis de independencia es reformulada, en base al
concepto de probabilidad condicional, estamos interesados en considerar la información a priori, dada por las categorías de la
variable explicativa columna, sobre las categorías de la variable fila. Se presenta una propuesta para segmentar basada en estas
ideas.
4.
11:15-11:35
Análisis de Componentes Principales para el Modelo Poblacional “Spiked” cuando la Dimensión de los Datos es mayor
que el Tamaño de la Muestra
Primer autor (Ponente): Addy Margarita Bolivar
Segundo: Víctor Manuel Pérez Abreu Carrión
Resumen: El análisis de componentes principales a menudo falla en estimar correctamente los valores y vectores propios
poblacionales cuando la dimensión de los datos es mayor que el tamaño de la muestra. Esto se debe a que la matriz de covarianza
muestral no es una buena aproximación a la matriz de covarianza poblacional. En esta plática daré una introducción al modelo
poblacional “spiked”, que es utilizado para modelar datos normales multivariados de dimensión n mayor al tamaño de la
muestra. Se mostrara algunos casos en los cuales es posible estimar correctamente los valores propios poblacionales más
importantes del modelo poblacional “spiked” utilizando un análisis de componentes principales cuando la dimensión de los datos
es mayor que el tamaño de muestra y ambos tienden al infinito.
_______________________________________________________________________________________________________
31
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 6: MODELOS DE REGRESIÓN
Jueves 11 de septiembre
10:00-11:35
1.
10:00-10:20
Construcción de Tablas Antropométricas mediante un nuevo Algoritmo de Regresión por Cuantiles
Primer autor (Ponente): Roberto Jasso Fuentes
Segundo: Carlos Cuevas Covarrubias
Tercero: Nelly Altamirano
Resumen: Las tablas de crecimiento son una herramienta fundamental en la evaluación médica del desarrollo infantil. En
México son pocos los estudios que se han hecho con este objetivo. Presentamos un nuevo algoritmo de regresión por cuantiles
basado en kérneles de suavizamiento y su aplicación en la construcción de tablas antropométricas basadas en experiencia de
niños mexicanos. Comentamos además algunos aspectos relacionados con su implementación computacional.
2.
10:25-10:45
El Problema de Programación Cuadrática mediante la Técnica de Ramificación y Acotamiento
Primer autor (Ponente): Blanca Rosa Pérez Salvador
Resumen: El análisis de regresión lineal con restricciones lineales sobre los parámetros del modelo, así como la tecnología de
superficies de respuestas con restricciones lineales sobre los factores da origen a un problema de programación cuadrática. En
este trabajo se presentan los resultados del estudio del problema de programación cuadrática utilizando la técnica de ramificación
y acontecimiento como una alternativa del método de Kunh-Tuker o el algoritmo del cono.
_______________________________________________________________________________________________________
32
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
3.
10:50-11:10
Punto de Cambio Estructural en Modelos de Regresión Lineal
Primer autor (Ponente): María Guadalupe Salazar
Segundo: Blanca Rosa Pérez Salvador
Resumen: El problema de cambio estructural en modelos lineales, viene a modelar problemas en los cuales la variable respuesta
Y, la cual depende de dos o más variables explicativas X1,… ,Xn, representa un cambio en la tendencia de Y dentro de la región
de observación. El cambio se puede deber a fenómenos naturales, si Y indica una respuesta geográfica, a cambios en los modelos
económicos y sociales, si Y indica una variable económica; o un cambio en la edad, si Y indica mediciones clínicas del
organismo humano, entre otros casos. Este problema ha sido abordado por diferentes autores, los que han publicado diferentes
estadísticas de prueba, pero los trabajos realizados no consideran la función de verosimilitud para obtener resultados, puesto que
considera que la técnica de verosimilitud es inaplicable por el hecho de que el logaritmo de la función de verosimilitud no es
diferenciable en el punto de cambio. En el presente trabajo se estudiará el modelo del cambio de estructural para el caso
multivariado aplicando el método de máxima verosimilitud para la estimación del punto de cambio y el cociente de verosimilitud
para encontrar la región crítica uniformemente más potente.
4.
11:15-11:35
Mínimos Cuadrados Ortogonales
Primer autor (Ponente): Edilberto Nájera Rangel
Segundo: Jorge Alejandro Bernal Arroyo
Resumen: Si se tiene un conjunto de datos en el plano cartesiano que exhibe una tendencia lineal, de modo tal que tanto la
abscisa como la ordenada de los puntos son valores de variables aleatorias, o representan mediciones hechas con algún grado de
error, no hay razón para ajustarles a los puntos una línea recta por el método de mínimos cuadrados ordinarios. En este trabajo se
prueba que una mejor alternativa es ajustarles la línea recta para que la suma de los cuadrados de las distancias de los puntos a
ella es mínima, es decir, ajustarles a los puntos una línea recta por el método de mínimos cuadrados ortogonales. También se
demuestra que este procedimiento se reduce al método usual cuando únicamente minimiza la dispersión de las ordenadas con la
recta ajustada, o bien cuando esto se hacía con las abscisas.
_______________________________________________________________________________________________________
33
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 7: TEORÍA Y APLICACIONES DE VALORES EXTREMOS
Jueves 11 de septiembre
12:00-13:35
1.
12:00-12:20
Regular Variation and Related Properties for the Multivariate GARCH Process with Constant Conditional Correlations
Primer autor (Ponente): Nelson Muriel
Segundo: Begoña Fernández
Resumen: We focus on the multivariate GARCH
i.i.d. nois e sequence
process with constant conditional correlation matrix
, and given by
generated by the
,
,
,
We establish the multivariate regular variation of its finite dimensional distributions under mild assumptions on
the distribution of the noise variables
, namely the sequence
has a density strictly positive on
and is such that for
there exists
for which Using this result, we derive the distributional limit and rates of convergence for the
any given
autocovariance function of the process
which agree with those given by Basrak, Davis and Mikosch for the real case. We
further provide a general formula for the multivariate extreme value distribution associated to the process
.
2.
12:25-12:45
Un Modelo para Máximos de Conjuntos de Observaciones Dependientes
Primer autor (Ponente): Elizabeth González Estrada
Segundo: José A. Villaseñor Alva
Resumen: En esta plática se propone un modelo distribucional paramétrico para los máximos de conjuntos de concentraciones
que exceden un umbral tomando en consideración la dependencia entre las concentraciones del conjunto. Este modelo
proporciona una familia de distribuciones conjuntas para el máximo y el número de observaciones en el conjunto, el cual permite
_______________________________________________________________________________________________________
34
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
estudiar el valor medio del tamaño del conjunto condicionado a que el máximo del conjunto no excede a un valor dado. Se
discute el problema de la estimación de los parámetros y se aplica el modelo a un conjunto de datos de ozono de la ciudad de
México.
3.
12:50-13:10
Modelación Espacio-Temporal de la Temperatura Máxima Anual en el Estado de Veracruz
Primer autor (Ponente): Luis Hernández Rivera
Segundo: Sergio Francisco Juárez Cerrillo
Resumen: Presentamos un modelo semiparamétrico para extremos espacio-temporales. Este modelo lo aplicamos para detectar
la presencia de tendencias en las temperaturas máximas en el estado de Veracruz. Los datos analizados consisten de temperaturas
máximas anuales registradas en 22 estaciones climatológicas del estado de Veracruz de 1960 al 2002. Además de describir la
temperatura máxima anual en espacio-tiempo, el modelo permite interpolar espacio-temporalmente en puntos en donde no se
tienen estaciones. El modelo nos da evidencia de presencia de calentamiento en el estado de Veracruz.
4.
13:15-13:35
Una Prueba de Bootstrap para la Distribución Pareto Generalizada
Primer autor (Ponente): José A. Villaseñor Alva
Segundo: Elizabeth González Estrada
Resumen: En esta plática se discute una prueba de bondad de ajuste para la familia de distribuciones Pareto generalizada (PG)
con parámetro de forma que toma los valores en R. La que se propone es del tipo intersección –unión la cual prueba
separadamente los casos Ύ ≥0 y Ύ 0, rechazando la hipótesis de PG cuando ambos casos son rechazados. Con base en un
estimador de Ύ se construye una prueba de bootstrap paramétrico para cada uno de los casos anteriores, usando como estadística
de prueba al coeficiente de correlación muestral. Mediante un estudio de simulación Monte Carlo es posible establecer el
desempeño de esta prueba en términos de su función de potencia con respecto a algunas distribuciones alternativas.
_______________________________________________________________________________________________________
35
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 8: ANÁLISIS MULTIVARIADO II
Jueves 11 de septiembre
12:00-13:35
1.
12:00-12:20
Mapeos Autoorganizados para el Análisis de Datos Multivariados. Una Introducción
Primer autor (Ponente): Antonio Neme
Segundo: Armando Esquivel
Resumen: El mapeo autoorganizado es un modelo de red neuronal no supervisada inspirado en un mecanismo relativamente
simple de organización en la corteza cerebral. La idea que subyace al modelo es que un mundo multidimensional es inteligible en
un mapa bidimensional, como lo es la superficie de la corteza cerebral, pues existe un mapeo no lineal que va del espacio de alta
dimensión (el mundo)al espacio discreto de baja dimensión constituido por la red de neuronas (la corteza).Una de las
propiedades interesantes de este mapeo no lineal es que los estímulos del ambiente, esto es, los vectores de entrada, que son
semejantes entre sí son mapeados a neuronas próximas entre sí en tanto que estímulos diferentes son mapeados a neuronas
alejadas. Esta propiedad, la de la preservación de la topología definida por los vectores de entrada, se conoce como mapa
topográfico. Los mapeos autoorganizados han mostrado ventajas sobre otros métodos de análisis de datos multivariados como lo
son el análisis de componentes principales, escalamiento multidimensional y el análisis de componentes independientes, sobre
todo en espacios multidimensionales no convexos, pues la red neuronales capaz de aproximar con más detalle las variaciones en
la distribución de los datos. Los mapas autoorganizados se han aplicado con gran éxito en el análisis de datos multivariados en
diversos contextos, como la biología molecular, el análisis de biodiversidad, el flujo vehicular, entre otros. En esta plática se
detalla algoritmo del mapeo autoorganizado. Además, se muestran algunas de sus aplicaciones en diversos contextos y se
compara con el desempeño mostrado por otros métodos de análisis de datos multivariados.
_______________________________________________________________________________________________________
36
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
2.
12:25-12:45
Un Enfoque Diferente para Clasificación
Primer autor (Ponente): Ruth Fuentes García
Segundo: Stephen Walker
Resumen: En muchas aplicaciones resulta de interés el problema de clasificación. En este trabajo, primero buscamos obtener un
modelo de clasificación, construyendo después un modelo de mezclas al rededor de éste. Esto permite asignar las observaciones
a los diferentes grupos de manera sencilla.
3.
12:50-13:10
Estudio sobre la Concepción de Ciencia, Tecnología e Innovación en las Empresas Venezolanas
Primer autor (Ponente): Zulaima Osuna
Segundo: María Purificación Galindo
Resumen: El propósito fundamental de este trabajo es analizar las declaraciones de las empresas venezolanas sobre las
concepciones conceptuales sobre ciencia, tecnología e innovación. El enfoque metodológico empleado es el ‘Análisis Estadístico
de Datos Textuales’ apoyado en las técnicas estadísticas desarrollado por la escuela Francesas de Análisis de Datos (Analyses
des Donnèes) (BENZÈCRI, 1973, 1976), sustentado en la estadística textual o lexicometría, con el objeto de obtener datos
relevantes (palabras) del corpus, las cuales nos proporcionaran una simplificación de la información que permita analizar las
principales características léxicas e intentar descubrir las concepciones. Palabras Claves: HJ-Biplot, protocolos lexicométricos,
ciencia-tecnología-innovación.
_______________________________________________________________________________________________________
37
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
4.
13:15-13:35
Optimización de Modelos Discriminantes para Tres Grupos Mediante Algoritmos Genéticos
Primer autor (Ponente): Carlos Alberto Gómez Grajales
Segundo: Julia Aurora Montano Rivas
Resumen: El término clasificación implica el procedimiento realizado para tomar una decisión o realizar una predicción en base
a la información disponible en el momento, así que el proceso de clasificación se define como un procedimiento formal para
poder repetir el razonamiento desarrollado en caso de presentarse situaciones nuevas. Este tipo de problemas se presentan de
forma natural en numerosas situaciones en la vida real. Aplicaciones cada vez más recurrentes se están suscitando en áreas como
la mercadotecnia, las finanzas, la medicina, la economía y la industria. Dentro del análisis lineal discriminante, una de las
herramientas más útiles son los modelos de clasificación, los que permiten de forma sencilla catalogar individuos en base a sus
características. Más aun al trabajar con más de dos grupos, caso en el que los modelos canónicos pueden llegar a resultar
procesos de clasificación confusos y complicados. Sin embargo, el rendimiento de este tipo de modelos suele ser muy pobre,
resultando en ocasiones un error de clasificación más alto de lo aceptable. Precisamente, estas limitantes hacen necesario la
búsqueda de nuevas alternativas que permitan optimizar el ajuste alcanzado. Una posible solución podemos encontrarla mediante
un proceso de optimización a través de algoritmos genéticos, una herramienta informática de reciente desarrollo. Incorporando
en el desarrollo de un análisis discriminante para tres grupos un algoritmo genético es posible tener mejores modelos de
clasificación que contribuyan al perfeccionamiento de la clasificación, mediante un proceso que fácilmente podrá generalizarse a
más poblaciones.
_______________________________________________________________________________________________________
38
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 9: DATOS CENSURADOS
Jueves 11 de septiembre
18:30-19:40
1.
18:30-18:50
Estimación de Parámetros de Modelos de Espacio de Estados Lineal Gaussiano con Observaciones Censuradas
Primer autor (Ponente): Francisco J. Ariza Hernández
Segundo: Gabriel A. Rodríguez Yam
Resumen: La función de verosimilitud de modelos de espacios de estados (SSM, por sus siglas en inglés) lineal Gaussiano se
puede obtener fácilmente con las recursiones de Kalman. Sin embargo, cuando se tienen observaciones censuradas, aun para este
modelo simple, la función de verosimilitud no se puede obtener explícitamente. En esta plática la función de verosimilitud de un
SSM lineal Gaussiano con observaciones censuradas por la izquierda se obtiene usando integración Monte Carlo. Los
estimadores que se obtienen al maximizar esta aproximación de la función de verosimilitud son comparados con los estimadores
obtenidos con el algoritmo EM Estocástico.
2.
18:55-19:15
Análisis de Modelos de Regresión con Datos Censurados Usando R
Primer autor (Ponente): Carlos Abraham Carballo Monsiváis
Segundo: Jorge Domínguez Domínguez
Resumen: Los modelos de regresión generados a partir de los datos experimentales permiten caracterizar la confiabilidad de un
producto. Los datos se obtienen mediante una estrategia experimental con el fin de caracterizar la confiabilidad en un producto.
En este tipo de situaciones los datos tienen propiedades específicas tales como la censura o distribuciones no normales. En la
literatura estadística existen el método clásico de Máxima verosimilitud para resolver estos problemas, lo comparemos con los
métodos de Hamada-Wu y Hahn, Morgan-Schmee para modelar ese tipo de datos. El primero es un algoritmo generado por
máxima verosimilitud, el segundo consiste del método de mínimos cuadrados clásico con ponderación iterada para tomar en
_______________________________________________________________________________________________________
39
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
cuenta la censura y la distribución. En la actualidad R desempeña un papel importante en el cómputo estadístico. En este trabajo
se ilustra la implementación de R en estos dos métodos estadísticos que permiten modelar datos en confiabilidad y se evalúa la
utilidad del lenguaje R. También se compara y discuten las ventajas y desventajas de ambos procedimientos con diversos casos
de la literatura. Los resultados de estas comparaciones son la pauta para análisis de la confiabilidad de muchos productos que se
manufacturan en el sector industrial.
3.
19:20-19:40
Una Propuesta Alternativa al Algoritmo EM para la estimación Máximo Verosímil con Datos Incompletos
Primer autor (Ponente): Ernesto Menéndez
Segundo: Ernestina Castells
Resumen: En este trabajo se propone un algoritmo alternativo al algoritmo EM para la estimación máximo verosímil con datos
incompletos. Este algoritmo EM alternativo (EMA) ha sido aplicado en el caso de una muestra aleatoria de la cual solamente se
conoce su tamaño y el máximo de las observaciones, bajo la suposición de dos modelos de probabilidad: Exponencial con media
; y Normal con varianza conocida. Además, se resuelven otros dos ejemplos. El primero de ellos esta basado en el conocido
ejemplo genético de Rao y el segundo es el ejemplo de un modelo de mezcla de dos distribuciones, considerado por Pawitan. El
algoritmo EMA consiste en sustituir el paso E del algoritmo EM por el completamiento de la muestra mediante la generación de
números aleatorios, y una vez que la muestra está completa, se obtiene con ella la estimación máximo verosímil. Este último
paso sustituye al paso M del algoritmo EM. También es realizado un estudio por simulación para estudiar el desempeño del
algoritmo EMA. Por los resultados obtenidos el nuevo procedimiento de estimación muestra resultados alentadores.
_______________________________________________________________________________________________________
40
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 10: DIVULGACIÓN
Jueves 11 de septiembre
18:30-19:40
1.
18:30-18:50
Un Modelo para Cursos de Probabilidad y Estadística en Línea de acuerdo con las Preferencias en cuanto a los Estilos de
Aprendizaje de los Docentes
Primer autor (Ponente): José Luis García Cue
Segundo: José Antonio Santizo Rincón
Tercero: María José Marques Dos Santos
Resumen: El presente trabajo comienza con una breve descripción de los proyectos de investigación donde se han incorporado
las TIC en cursos de Probabilidad y Estadística tanto en el Colegio de Postgraduados como en la Facultad de Estudios Superiores
Zaragoza de la UNAM. Más adelante se hace una revisión de conceptos sobre Estilo y Estilos de Aprendizaje. Después se hace
la propuesta de cada uno de los elementos que integra el modelo diseñado para cursos de Estadística vía Internet de acuerdo a los
Estilos de Aprendizaje. Al final se muestran los resultados, la discusión, las conclusiones y las fuentes documentales.
2.
18:55-19:15
Vale más Prevenir que Lamentar: Pronóstico de Contingencias Ambientales
Primer autor (Ponente): José Elías Rodríguez Muñoz
Resumen: El problema de contaminación atmosférica por emisiones de SO2 y PM10 sigue siendo común en ciertas ciudades con
actividad industrial. El monitoreo de los niveles de concentración de estos contaminantes y la aplicación de medidas preventivas
para no permitir niveles altos de éstos son actividades cotidianas que realizan los organismos gubernamentales de ecología. Para
lograr que dichas medidas preventivas sean pertinentes, es necesario contar con un modelo que estime la probabilidad de que se
presenten futuras contingencias ambientales por altas concentraciones de SO2 y PM10. Esta presentación mostrará cómo se
construyó un modelo que genera dichas estimaciones para la ciudad de Salamanca.
_______________________________________________________________________________________________________
41
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
3.
19:20-19:40
Método para Estimar el Tiempo en Circulación de los Billetes a partir de su Serie y Folio
Primer autor (Ponente): Joaquín Vargas
Resumen: Se propone un método para estimar el tiempo en circulación de los billetes a partir de dos elementos únicos de
fabricación: folio y serie. Mediante la liga entre estos dos datos es posible es posible rastrear la fecha y el lugar en que fue puesto
a circular un billete, puede medirse el efecto del tiempo sobre el deterioro paulatino de los billetes y así planear su reposición. En
este trabajo se aplica dicho método a una muestra de billetes depositados en instituciones bancarias. Se estima el tiempo que
estuvieron en circulación, el tiempo en circulación que presentan billetes con distinto grado de deterioro y se exploran algunos
hechos estilizados de su patrón migratorio.
_______________________________________________________________________________________________________
42
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 11: MODELOS LINEALES Y MODELOS LINEALES GENERALIZADOS
Viernes 12 de septiembre
10:00-11:35
1.
10:00-10:20
Operador Proyector en el Modelo Lineal General Mixto considerando la Estimación de Efectos Fijos, Aleatorios y Mixtos
Primer autor (Ponente): Fernando Velasco Luna
Segundo: Mario Miguel Ojeda Ramírez
Resumen: El modelo lineal general mixto es un modelo que permite analizar datos con estructura jerárquica. En este trabajo se
presenta la manera en que el operador proyector interviene en la estimación en el modelo lineal general mixto. En particular en la
estimación de los parámetros fijos, en la predicción de los efectos aleatorios y en la predicción de efectos mixtos.
2.
10:25-10:45
Modelos Lineales Generalizados con Restricciones Lineales de Desigualdad en los Parámetros
Primer autor (Ponente): Silvia Ruíz Velasco A.
Segundo: Federico O’Reilly
Resumen: En este trabajo se presenta una propuesta para obtener los estimadores de los parámetros en Modelos Lineales
Generalizado sujetos a restricciones lineales de desigualdad en los parámetros utilizando el algoritmo del cono. Los resultados
obtenidos son comparados con los resultados de McDonald y Diamond (1990) a través del ejemplo ahí presentado y de
simulaciones.
_______________________________________________________________________________________________________
43
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
3.
10:50-11:10
Modelamiento de Datos Poisson Longitudinales con Exceso de Ceros
Primer autor (Ponente): Yaneth Cecilia Pérez Fonseca
Segundo: Luis Guillermo Díaz Monroy
Resumen: Los datos con exceso de ceros se presentan en industria, agricultura, medicina, entre otros campos, y ha sido
ampliamente discutido por varios autores como Lambert (1992); Heibron (1989); Mullahy (1997); Ridout, Hinde y Demetrio
(1998); Viera, Hindey Demetrio (2000); Hall (2000); quienes en sus diferentes propuestas no modelan la sobredispersión
causada por el exceso de ceros; además, si los datos son tomados a través del tiempo se presenta un problema adicional, ya que
se presenta una, tienen un tratamiento especial ya que se presenta una correlación entre las observaciones. Teniendo en cuenta lo
anterior proponemos un modelo para datos Poisson longitudinales con exceso de ceros, en el cual se modela la sobredispersión
en dos etapas bajo un modelo binomial negativo aumentado BNA (Haab & McConnell 1996). Se presentan los cálculos de los
dos primeros momentos de orden central para construir las GEE bajo el modelo BNA y se muestran las ventajas obtenidas al
considerar la estructura de dependencia y el exceso de ceros en el modelamiento.
4.
11:15-11:35
Modelamiento Univariado de datos Longitudinales Binarios en Presencia de Sobredispersión 'una Aplicación en
Medicina'
Primer autor (Ponente): Leidy Rocío León Dávila
Segundo: Luis Guillermo Díaz Monroy
Resumen: En muchas áreas tales como la agronomía, ingeniería, medicina, economía, entre otros, se registra si una unidad
experimental presenta o no, una determinada característica durante varios intervalos de tiempo; esta estructura de datos
corresponde a datos longitudinales binarios. El tratamiento de los datos longitudinales binarios a través de los modelos lineales
clásicos resulta inapropiado, pues las mediciones son desarrolladas en el tiempo sobre un mismo individuo, las cuales son
correlacionadas, las observaciones no se ajustan a una distribución normal, y, además, se puede encontrar que la varianza de los
datos es mayor que la varianza esperada bajo el modelo probabilístico asumido, esto se conoce como sobredispersión (Kachman
2004).El objetivo de este artículo es proponer un modelo estadístico y desarrollar una metodología que considere la
_______________________________________________________________________________________________________
44
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
sobredispersión en datos binarios longitudinales, teniendo en cuenta la detección y caracterización de la sobredispersión en estos,
luego la estimación de los parámetros para modelar estos datos y finalmente verificar la metodología propuesta a través de datos
reales de tipo biológico específicamente en parasitología. Los datos longitudinales han sido estudiados por Potthoff y Roy
(1964). Singer y Andrade (1986) presentan una revisión de los métodos más comunes usados en el análisis de datos
longitudinales. Liang y Zeger (1986), proponen ecuaciones de estimación generalizadas (EEG),. Verbeke y Molenberghs (2005)
proponen modelos para datos longitudinales discretos. Para el cálculo del parámetro de sobredispersión hay soluciones
propuestas por Jorgensen (1989) y Collet (1991). Se encontró una metodología apropiada para modelar datos binario
longitudinales en presencia de sobredispersión; el modelamiento se hace con el modelo de dos etapas, específicamente, el
modelo tipo II de Williams expuestos por Hinde y Demétrio (1998). Como instrumento básico de estimación se emplean las
ecuaciones de estimación generalizadas (EEG) en las cuales se incluyen el parámetro de sobredipersión y la naturaleza
longitudinal de los datos, además se realiza una aplicación en la medicina.
_______________________________________________________________________________________________________
45
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 12: ESTADÍSTICA BAYESIANA II
Viernes 12 de septiembre
10:00-11:35
1. 10:00-10:20
Bayesian Generalized Method of Moments
Primer autor (Ponente): Guosheng Yin
Resumen: We propose the Bayesian generalized method of moments (GMM) and a new sampling algorithm, which are
particularly useful when likelihood-based methods are difficult. We can easily derive the moments and concatenate them
together, which often converges to a zero-mean normal distribution asymptotically. We build up a weighted quadratic objective
function in the GMM framework. As in a normal density function, we take the negative GMM quadratic function divided by two
and then exponentiate it to substitute for the likelihood. After specifying the prior distributions, we apply the Markov chain
Monte Carlo procedure to sample from the posterior distribution. We carry out simulation studies to examine the finite sample
properties of the proposed Bayesian GMM procedure, and, as illustration, apply our method to real data.
2. 10:25-10:45
El twalk: Un Método de MCMC Genérico y Autoajustable
Primer autor (Ponente): J Andrés Christen
Segundo: Colin Fox
Resumen: En aplicaciones donde se usa simulación de una distribución objetivo compleja (eg. estadística Bayesiana) es común
el uso de métodos de MCMC. Normalmente las distribuciones de propuesta tienen que ser calibradas con mucho cuidado y en
general el MCMC resultante es muy difícil de poner a punto para que se simule razonablemente bien de la distribución posterior
en cuestión. En Christen y Fox (2007) presentamos un MCMC Cautoajustable (llamado t-walk) que, siendo un algoritmo de
Metropolis-Hastings en el espacio producto de la distribución original, presenta de adaptabilidad para obtener eficientemente
muestras de la distribución objetivo en cuestión, aun para distribuciones altamente correlacionadas, multimodales, con secciones
_______________________________________________________________________________________________________
46
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
planas, y en dimensiones de hasta 200 parámetros etc. Presentaremos varios ejemplos de cómo el t-walk puede resolver
problemas en la aplicación y varios avances recientes.
3. 10:50-11:10
Estimación de la Distribución de las Características de Pacientes con Cáncer de Mama
Primer autor (Ponente): Luis E. Nieto Barajas
Segundo: Nebiyou Bekele
Tercero: Mark Munsell
Resumen: En este trabajo estimamos la distribución de varias características clínicas y patológicas conocidas como predictoras
en el desarrollo de la enfermedad en pacientes con cáncer de mama. Estas características incluyen Receptores de estrógeno,
involucramiento nodal, HER-2 y etapa de la enfermedad. En particular estimamos la distribución conjunta de las primeras 3
características condicional en la cuarta característica. Esto nos permite explotar la asociación Markoviana entre las probabilities
de distintas etapas de la enfermedad. Es decir, las probabilidades condicionales en la etapa actual se consideran función de las
probabilidades en la etapa anterior. Proponemos entonces un proceso de Markov con marginales Dirichlet que nos permite usar
información de distintas etapas para estimar la distribución de las características de los pacientes en una determinada etapa de la
enfermedad.
4. 11:15-11:35
Una Estrategia para el Cálculo del Nivel de Significancia de las Pruebas de No-Inferioridad para dos Proporciones
Primer autor (Ponente): David Sotres Ramos
Segundo: Félix Almendra Arao
Tercero: Cecilia Ramírez Figueroa
Resumen: Las pruebas de no-inferioridad son frecuentemente utilizadas en la investigación clínica para demostrar que un
tratamiento nuevo (con mínimos efectos secundarios o bajo costo) no es sustancialmente inferior en eficacia que el tratamiento
estándar. Un problema práctico importante que presentan las pruebas de no-inferioridad es el cálculo del nivel de significancia
_______________________________________________________________________________________________________
47
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
real de la prueba. Este problema se presenta debido a que por la mera formulación de las hipótesis de no-inferioridad el espacio
nulo de parámetros es una región contenida en el plano. En este trabajo se presenta una prueba un resultado que facilita de
manera muy importante el cálculo de dicho nivel de significancia real. Se presentan varias aplicaciones de este resultado, entre
ellas se explica como fue posible construir tablas para el uso de la prueba exacta de Farrington-Manning.
_______________________________________________________________________________________________________
48
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN 13: ESTADÍSTICA MULTIVARIADA III Y MUESTREO
Viernes 12 de septiembre
12:00-13:35
1.
12:00-12:20
Estadística con Senderos
Primer autor (Ponente): Ignacio Méndez Ramírez
Resumen: Se tiene una mejor visión de la estadística si se contemplan las principales ideas de la estadística a la luz del análisis
de senderos. En virtud de esto, se presentan en esta ponencia, los siguientes aspectos: 1.- Análisis de senderos, 2.- Estadística
Básica con senderos, 2.1 Prueba de t, 2.2 Análisis de Varianza y Covarianza, 2.3 regresión múltiple, 2.4 Análisis de Varianza
multivariado, 2.5 Paradoja de Simpson, 2.6 Análisis de factores Confirmatorio y 2.7 Sistemas de Ecuaciones Estructurales. Al
usar los senderos se tiene más control e información sobre algunos de los supuestos básicos y ayuda a explicar algunos aspectos
como la multicolinealidad. Todas las ideas se presentan con ejemplos que se que se corren con el paquete EQS y con este se
producen las graficas.
2.
12:25-12:45
Análisis Multivariado con Kernels
Primer autor (Ponente): Julia Aurora Montano Rivas
Segundo: Sergio Francisco Juárez Cerrillo
Resumen: En esta plática revisamos lo aspectos teóricos y metodológicos de las técnicas kernel aplicados al análisis de
componentes principales (ACPK), análisis de correlación canónica (ACCK) y análisis discriminante (ADK). Presentamos como
realizar ACPK, ACCK y ADK con algunos ejemplos tomados de problemas reales. Finalmente, discutiremos algunos problemas
abiertos a la investigación sobre estas técnicas, en particular revisaremos el problema de selección óptima de kernels.
_______________________________________________________________________________________________________
49
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
3.
12:50-13:10
Comparación en Muestras Complejas de Estimadores de Regresión del Total bajo tres Especificaciones de la Matriz de
Varianzas y Covarianzas
Primer autor (Ponente): Flaviano Godínez Jaimes
Segundo: Ignacio Méndez Ramírez
Tercero: Ma. Natividad Nava Hernández
Resumen: Los estimadores de regresión del total usan el modelo E(Y)=Xβ, V(Y)=V. Esto supone que la matriz de varianzas y
covarianzas V es conocida, lo cual no es cierto en muestreo de conglomerados y tampoco en muestras complejas que involucren
conglomerados. Para resolver este problema se puede considerar que V=I, es decir que se tiene una muestra aleatoria simple, que
V es una función de las probabilidades de inclusión o bien V se puede estimar mediante las ecuaciones de estimación
generalizadas. En este trabajo se hace una comparación empírica de los estimadores de regresión del total en muestras complejas
considerando las tres propuestas de la matriz V.
4.
13:15-13:35
Funciones en R para el Análisis de Encuestas
Primer autor (Ponente): Alberto Manuel Padilla Terán
Resumen: Actualmente, una gran parte de encuestas o muestras se extraen mediante diseños complejos. El análisis de las
muestras así obtenidas requiere el uso de los pesos muestrales en el cálculo de las estimaciones. En el mercado existen paquetes
comerciales que cuentan con módulos que permiten realizar este tipo de análisis; empero, una opción atractiva la constituye el
paquete R, en particular con el programa survey desarrollado por Thomas Lumley. En esta plática se mencionan las funciones
principales de dicho programa, así como ejemplos de gráficas ponderadas con los pesos muestrales, estimaciones puntuales de
totales, razón y de regresión, así como sus varianzas estimadas, tablas de contingencia, modelos lineales generalizados, métodos
de remuestreo, entre otros.
_______________________________________________________________________________________________________
50
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
CARTELES
_______________________________________________________________________________________________________
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
SESIÓN DE CARTELES
Miércoles 10 de septiembre, 18:00-20:00
1. Análisis de la Capacidad de Proceso en la producción de Miel Zayoli en la región de Coatepec, Veracruz
Primer autor (Ponente): Atzín García Flores
Segundo: Carlos Rodrigo Meza Zamora
Resumen: Cualquiera que ha trabajado en una planta ó laboratorio, entiende que no siempre dos unidades ó partes son
exactamente iguales. Este concepto se llama variación. La variabilidad es un acontecimiento natural y puede ser medida. Las
empresas necesitan poseer una herramienta que le permita de forma rápida la cuantificación de la calidad con que se está
produciendo en cada proceso. El control estadístico no tiene nada que ver con límites de especificación. Si un proceso despliega
un control estadístico, entonces, el promedio y la variabilidad del proceso son consistentes a través del tiempo. Esto no significa
que todo el proceso sea aceptable. Significa únicamente que el proceso es consistente. Si el promedio y la variabilidad son
consistentes, entonces podemos realizar predicciones acerca del desempeño de un proceso. En este documento, discutiremos la
capacidad del proceso. La capacidad del proceso analiza la habilidad del mismo de producir dentro de especificaciones. Un
prerrequisito para el análisis de la capacidad de proceso es que debe presentar algún grado de control estadístico.
2. Construcción de un Índice de Desempeño de Tutores de la UV mediante Componentes Principales No Lineales
Primer autor (Ponente): Guadalupe García Flores
Segundo: Sergio Francisco Juárez Cerrillo
Resumen: El Sistema Institucional de Tutorías (SIT) de la Universidad Veracruzana tiene como tarea diseñar estrategias de
atención individualizada y/o grupal que desarrollan los tutores para los estudiantes con el fin de ofrecerles a estos un servicio de
apoyo académico para ayudarlos a que logren una formación integral. En este trabajo construimos un índice para evaluar el
desempeño de los tutores (IDT), el cual, a partir de la opinión de los estudiantes, toma en cuenta las funciones básicas que realiza
el tutor periodo a periodo. En este cartel presentamos la metodología, basada en Cuantificación Óptima (CO) y Componentes
Principales Cualitativos, para construir el IDT y presentamos resultados preliminares basados en un estudio piloto.
_______________________________________________________________________________________________________
51
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
3. Uso del Modelo Hurdle en dos partes (Two-part Hurdle Model) para analizar el efecto del Seguro Popular sobre la
utilización de los servicios de salud
Primer autor (Ponente): Aaron Salinas-Rodríguez
Segundo: Sandra Sosa-Rubí
Tercero: Betty Manrique-Espinoza
Resumen: El uso de modelos de regresión para datos de conteo ha tenido, en fechas recientes, un importante incremento, entre
otros motivos, por el desarrollo de algoritmos que forman parte de la mayoría de los paquetes informáticos especializados en
estadística. Entre otros, han sido particularmente utilizados el modelo Poisson, el Quasi-Poisson, y el modelo Binomial Negativo.
Mientras que si se tiene una variable de conteo sin ceros, se utilizan modelos de regresión truncados (Poisson o Binomial
Negativo). En otras ocasiones se puede tener una variable de conteo con un número excesivo de ceros, para lo cual se ha
propuesto el uso de algún modelo de regresión cero-inflado (Zero-inflated Counts). Un ejemplo clásico de esta situación es
cuando se trata de analizar el número de visitas al médico o a los servicios de salud en un periodo de tiempo determinado, donde
una gran proporción de personas reportan no utilizar dichos servicios. Un problema con el modelo de regresión cero-inflado es
que se debe especificar con detalle el mecanismo probabilístico que determina el exceso de ceros, en términos, sobre todo, de las
variables que explican dicho exceso.Un enfoque alternativo ha sido propuesto por Mullahy (1986) y es conocido como el modelo
de regresión hurdle en dos partes. La idea básica es que la distribución binomial puede ser utilizada para determinar si la variable
de conteo es cero o si asume un valor de 1 si el conteo es positivo, mientras que alguna distribución para datos de conteo
truncados (Poisson o Binomial Negativa) es utilizada para explicar la distribución condicional de los valores positivos. Este
modelo ha sido utilizado en este trabajo para evaluar el efecto del Seguro Popular sobre la probabilidad de uso de los servicios de
salud (consulta externa) y sobre la intensidad de uso de dichos servicios (número de consultas). Los resultados muestran, en
general, que el Seguro Popular ha aumentado dicha probabilidad así como la intensidad de uso.
_______________________________________________________________________________________________________
52
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
4. La Varianza como Biomarcador en Estudios Toxicológicos
Primer autor (Ponente): José J. H. Herrera-Bazan
Segundo: Patricia Ramos-Morales
Resumen: La Toxicología estudia el daño real y potencial de agentes tóxicos físicos, químicos y biológicos a los seres vivos y
ecosistemas. Una de sus tareas es la obtención de la información necesaria para definir los límites de seguridad de la exposición
humana a diversos agentes. A menudo, el establecimiento de Riesgo Toxicológico involucra la extrapolación de datos
epidemiológicos y experimentales limitados, a situaciones más amplias como el medioambiente o poblaciones humanas. Los
estudios experimentales en toxicología están obligados al uso de otros organismos ante la obvia imposibilidad de utilizar
organismos de la especie (humana) hacia la cual se desea calcular el Riesgo. La mosca de fruta Drosophila melanogaster es uno
de los organismos modelo más utilizado en Toxicología. Las variables de respuesta utilizadas en estudios toxicológicos con
Drosophila son cuantitativas, y como cualquier otro protocolo experimental, el efecto sobre la variable de respuesta involucrada
se evalúa comparando mediante métodos paramétricos la media de la variable de un grupo experimental y la media de la
variable un grupo control de moscas. Las medidas de dispersión como la varianza generalmente no forman parte del análisis, y se
calculan sólo para buscar la homoscedasticidad necesaria en pruebas de hipótesis o ANOVA. En diversos trabajos de nuestro
laboratorio al evaluar distintas variables de respuesta en moscas Drosophila tratadas con diferentes tóxicos y contaminantes
(NitroDiMetilAmina, Talidomida, Cromo, Glifosato) hemos observado un patrón en la varianza dependiente de la concentración
en el que; 1) en concentraciones sumamente bajas donde no se altera el equilibrio fisiológico, bioquímico, y genético funcional
de un organismo, la media y la varianza son similares a la de organismos control; 2) conforme aumenta la concentración, el
estímulo comienza a ser detectado y aunque daña al organismo no lo afecta de manera vital y los organismos responden a él en
distinto grado según su variabilidad individual aumentando la varianza sin alterar la media; 3) en concentraciones donde el
estímulo interfiere significativamente con el metabolismo de las moscas dejando como opciones de sobrevivencia pocas vías de
desintoxicación, se unifica la respuesta individual disminuyendo la varianza, mientras la media es evidentemente significativa y
los análisis estadísticos determina diferencias significativas; 4) en concentraciones muy altas que alteran el equilibrio de los
organismos y comprometen su sobrevivencia la respuesta poblacional tiende a homogenizarse, en el punto donde todos los
organismos mueren la varianza es cero. La varianza es otra opción de variable de respuesta a considerar en estudios
toxicológicos ya que refleja cambios en la respuesta individual ante un efecto tóxico y hace urgente reconsiderar su observación
y el uso de análisis estadísticos que la involucren como una variable de respuesta para el establecimiento de Riesgo
Toxicológico.
_______________________________________________________________________________________________________
53
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
5. Escenarios de Temperatura Máxima Diaria en Veracruz con Análisis Espectral Singular para Series de Tiempo
Multivariadas
Primer autor (Ponente): Alejandro Ramírez Núñez
Segundo: Sergio Francisco Juárez Cerrillo
Resumen: El Análisis Espectral Singular Multicanal (AESM) es una técnica de desarrollo reciente usado para extraer
información de la dinámica de un conjunto de p series de tiempo. El AESM se ha aplicado ampliamente en geofísica,
climatología, meteorología y recientemente en econometría y finanzas. En este trabajo utilizamos AESM para estudiar la
variación espacio-temporal de la temperatura máxima diaria registrada de 1960 a 2002 en 25 estaciones climatológicas
localizadas en el estado de Veracruz, una vez que hemos caracterizado esta variación usamos el AESM para hacer pronósticos de
la temperatura máxima diaria en el Estado de Veracruz.
6. Modelación de precios de gas. En un Horizonte a Corto Plazo, ¿Presentan Reversión a la Media?
Primer autor (Ponente): Víctor Hugo Ibarra Mercado
Segundo: Patricia Saavedra Barrera
Resumen: En los mercados de energéticos, a partir de 1995, con la aparición del artículo de Litzberger y Rabinowitz, es muy
común encontrar que las dinámicas para los modelos de precios sean con reversión a la media, por ejemplo modelos de Schwartz
(1997), Pilipovic (1995) y Miltersen (2003). Por otro lado, en el estudio realizado por Bessembinder (Bessembinder et al., 1995),
se da evidencia de que en 11 mercados diferentes, sobre todo de energéticos, se presenta en mayor o menor grado la reversión a
la media. Pero, debido a que tanto el gas como el petróleo son recursos no renovables y tienden a agotarse, en los últimos años
los precios de estos energéticos han mostrado un comportamiento consistentemente a la alza, por lo que se puede cuestionar la
validez de los modelos de reversión a la media, véase Geman (Geman, 2007 y Geman, 2005). Con base en lo anterior, se plantea
el problema de determinar si el modelo browniano geométrico puede ser adecuado, para modelar precios de gas, y por tanto ser
utilizado para la valuación de opciones asiáticas en un horizonte a corto plazo. Con base en los precios diarios de cierre del gas
Henry-Hub, cotizados en NYMEX (New York Mercantile Exchange), se realizarán pruebas estadísticas para determinar si el
proceso de precios presenta reversión a la media. Una forma de determinar si una serie de precios presenta reversión a la media
es probar la ausencia de una raíz unitaria en el modelo autorregresivos. Se aplicarán dos pruebas para la detección de raíces
_______________________________________________________________________________________________________
54
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
unitarias, comúnmente utilizadas para este fin. La prueba aumentada de Dickey-Fuller (ADF) (Dickey-Fuller) y la prueba de
Phillips-Perron (PP) (Phillips-Perron}. Para realizar estas pruebas se hará uso de los datos de gas tomados de 1994 a la fecha.
7.
Cuantificación del Efecto del Error de Medición sobre los Estimadores de Interacción: Aplicación en un Estudio
sobre los Efectos del Plomo en la Salud Humana
Primer autor (Ponente): Héctor Lamadrid-Figueroa
Segundo: Martha M. Téllez-Rojo
Tercero: Gustavo Ángeles
Cuarto: Mauricio Hernández-Ávila
Resumen: Estudios previos han buscado estimar el grado en el cual la movilización del plomo en el hueso, medida por la
interacción entre los N-telopétidos de colágena tipo I (NTX) y las concentraciones de plomo en el hueso medidas por
fluorescencia de rayos X (XRF), influyen sobre las concentraciones de plomo en sangre. No obstante, intentos previos han
ignorado el error de medición introducido por la estimación XRF, lo cuál muy probablemente ha resultado en la subestimación
del impacto de la movilización ósea en las concentraciones sanguíneas de plomo. Presentamos aquí resultados obtenidos por una
estrategia alternativa de medición que toma en cuenta la medición de la imprecisión que se obtiene del XRF y que provee de
estimadores insesgados del efecto de variables predictoras medidas con error. Un total de 193 mujeres mexicanas se evaluaron
(1997-1999) en el primero, segundo y tercer trimestres de embarazo. Las concentraciones de plomo en sangre y en plasma, y la
concentración urinaria del biomarcador de resorción ósea NTX se midieron en cada trimestre. Se midieron las concentraciones
de plomo en el hueso 4 semanas después del parto por medio de XRF. La relación entre el plomo en sangre/plasma (variable
respuesta) plomo en hueso y el NTX se estimó en cada etapa del estudio usando regresión de Errores-en-Variables (EIV) así
como Mínimos Cuadrados Ordinarios (MCO) con mediciones de plomo en hueso ponderadas por la imprecisión (el tratamiento
estándar de los datos). Encontramos que aunque las pruebas de hipótesis arrojaron los mismos resultados con los dos métodos,
los estimadores de efecto obtenidos por MCO fueron entre 20 y 22% menores que los estimadores obtenidos por EIV. Estos
resultados confirman consideraciones teóricas previas acerca de la importancia de tomar en cuenta el error en la medición de
plomo en hueso por XRF cuando esta variable es un predictor en un modelo de regresión.
_______________________________________________________________________________________________________
55
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
8. Modelo Lineal Jerárquico en Tres Niveles: Una Aplicación
Primer autor (Ponente): María Nayeli Hernández Carmona
Segundo: Mario Miguel Ojeda Ramírez
Tercero: Fernando Velasco Luna
Resumen: Los modelos lineales jerárquicos forman una clase general de modelos que permiten la modelación en una gran
variedad de situaciones en las cuales se tienen datos que presentan una estructura jerárquica, son también conocidos en la
literatura bajo una gran variedad de nombres, tales como modelos multinivel (Goldstein, 1986, 1995), modelos de coeficientes
aleatorios (Longford, 1995), modelos de componentes de la varianza y covarianza (Searle et al., 1992), o como modelos de
efectos mixtos (Laird y Ware, 1982). Estos modelos tienen una gran variedad de aplicaciones en diversa áreas, una de ellas es en
la investigación educativa, biología, investigación social, psicología, medicina, entre otras. En un sistema con estructura
jerárquica puede ser de interés estudiar la relación existente entre una variable respuesta, la cual se mide en las unidades de nivel
1, y variables explicatorias las cuales se pueden medir en cada uno de los niveles de la estructura jerárquica, en el presente
trabajo se aplicara un modelo lineal jerárquico en tres niveles, en el área de la investigación educativa.
9. Concentración de Precipitación en el Estado de Veracruz con Entropía
Primer autor (Ponente): Enrique Del Callejo Canal
Segundo: Sergio Francisco Juárez Cerrillo
Resumen: En este trabajo caracterizamos la variabilidad espacio-temporal de la concentración de la precipitación en el estado de
Veracruz mediante entropía. Comparamos los resultados con el índice de concentración de precipitación (Índice de Gini) y
comentamos ventajas y desventajas de ambas medidas.
_______________________________________________________________________________________________________
56
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
10.
Estudios de Caso de Estadística: La Experiencia de 12 años en la Especialización en Métodos Estadísticos
Primer autor (Ponente): Regino Fernández Cabrera
Segundo: Juan Manuel Lara Chávez
Tercero: Anahí Solano Portilla
Cuarto: Sergio Francisco Juárez Cerrillo
Resumen: La especialización en Métodos Estadísticos (EME) es un programa dirigido a profesionistas sin la formación de un
estadístico profesional pero que requieren de un conocimiento básico en métodos estadísticos para responder a las necesidades de
sus trabajos. Esto ha originado que en la EME se realice un trabajo importante de vinculación con la problemática local, regional
y estatal ya que bajo la dirección de los académicos de la EME los estudiantes presentan las soluciones a sus problemas como
proyectos de titulación. En este trabajo hacemos una recopilación de algunos de estos proyectos con el objetivo es desarrollar un
material didáctico que sirva de apoyo en el proceso de enseñanza-aprendizaje en cursos de estadística con ejemplos de basados
en problemas reales surgidos en disciplinas como economía, biología, sicología, agronomía, educación, climatología, por
mencionar algunas y que se han solucionado con la aplicación de estadística exploratoria, modelos de regresión, diseño
experimental, análisis de datos de encuestas, estadística multivariante, métodos no paramétricos, y modelos para series de
tiempo. Partimos de la premisa de que el aprendizaje basado en casos reales y no de libro de texto, proporciona una mayor
motivación en el aprendizaje de cualquier disciplina, incluida la estadística. Debemos mencionar que varios de los proyectos que
presentamos motivan además investigación en el desarrollo de metodología estadística ya sea a través aplicaciones innovadoras o
bien mediante la adecuación de metodología ya desarrollada.
11.
Modelos de Transición para Series de Tiempo Ambientales
Primer autor (Ponente): Lorelie Hernández
Segundo: Gabriel Escarela
Resumen: Este estudio considera el problema de extender series de tiempo Gaussianas autorregresivas a un marco de respuestas
de valor extremo, la metodología propuesta consiste en especificar el modelo autorregresivo en forma de distribución
condicional cuya parametrización pertenece a la familia exponencial de distribuciones; para ello, se analizan niveles máximos
diarios de ozono de la Ciudad de Guadalajara.
_______________________________________________________________________________________________________
57
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
12. Estimación Robusta en Fechamientos con Radiocarbono
Primer autor (Ponente): Sergio Pérez Elizalde
Segundo: Andrés Christen
Resumen: El método general presentado por Christen (1994) para analizar fechamientos con radiocarbono está condicionado a
que la desviación estándar reportada por los laboratorios, refleja la incertidumbre del proceso. Sin embargo, esta incertidumbre
esta medida dentro de cada laboratorio por lo que ignora la incertidumbre extra debida a la variabilidad de los procesos entre
laboratorios. En este trabajo se propone un método para el análisis de fechamientos con radiocarbono en el que se considera que
la varianza está dada por el producto de una constante desconocida y la varianza reportada por el laboratorio. Con este enfoque,
asumiendo que proviene de una población normal y que a priori tiene una distribución Gamma, el modelo para los fechamientos
es una distribución t. Así, la introducción del parámetro permite hacer un análisis robusto en presencia de datos atípicos a la vez
que incorpora la incertidumbre asociada a los procesos de determinación en cada laboratorio. Para la inferencia sobre los
parámetros del modelo se utiliza el enfoque bayesiano por medio de métodos de simulación MCMC.
13. Reconocimiento de Patrones basado en el Color para la Clasificación de Frutas
Primer autor (Ponente): Ana María Vázquez Vargas
Segundo: Noemí Ortiz-Suárez
Tercero: Everardo Lozada-Martínez
Cuarto: Patricia Balderas-Cañas
Resumen: Dada una partición en clases de un universo, tratamos de determinar a qué clase pertenece cualquier elemento de ese
universo. Por ejemplo, en una imagen satelital sería identificar bosques de rocas, o áreas de cultivo de áreas urbanas, entre otras.
Generalmente, no conocemos las variables discriminantes de nuestros objetos de estudio, entonces tratamos de estudiar nuestros
objetos, a fin de identificar la clase a la cual pertenecen. Supongamos un universo de estudio U particionado en M clases y
tomemos un elemento X de U. El problema se convierte en definir un sistema reconocedor de patrones que permita tomar la
decisión de la clase a la cual pertenece U. En este trabajo, nuestro universo consiste en frutas que pueden ser de tres clases:
manzanas rojas (clase 1), naranjas (clase 2) y manzanas amarillas (clase 3) y tratamos de diferenciarlas por su color. Siempre que
se toma una decisión es necesario considerar el riesgo de error que hicimos al tomar esa decisión. Para minimizar el riesgo de
_______________________________________________________________________________________________________
58
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
error, utilizamos la Regla de Bayes para tener el mínimo riesgo. En un estudio anterior (Ortiz y Lozada, 2008), realizamos un
experimento que consistió en seleccionar las frutas (30 manzanas rojas, 30 manzanas amarillas y 30 naranjas), tomar una
fotografía digital de cada una de ellas. Aprovechamos el conocimiento que se tiene sobre la descomposición cromática básica
(rojo, verde y azul), en los rangos de 0 a 255 y seleccionamos un píxel de cada fruta y anotamos los valores de los 3 colores,
eliminando el azul ya que tuvimos la experiencia de que el azul sesga los resultados, nos quedamos entonces, para “medir el
color” por medio de los colores rojo y verde los cuales quedaron representados por la proporción del rojo y verde, denominando
a esta variable discriminatoria tasa de rojez. Los datos correspondientes a cada clase fueron las medias aritméticas:
(0.525880241, 0.76908766, 0.91210009), y sus desviaciones estándares (0.036181704, 0.04204817, 0.027016). De esta manera
la Regla de Bayes obtuvo los puntos frontera entre las clases, siendo estas dos intersecciones los valores: en donde los subíndices
indican las clases involucradas. La discriminación entre manzanas rojas y naranjas no mostró ningún error y la discriminación
entre manzanas amarillas y naranjas y manzanas amarillas tuvieron un error asociado de 0.03732838496, que consideramos
como aceptable. Concluimos que fuimos capaces de determinar la validez del sistema reconocedor de frutas, basado en una
selección de colores mencionada (Marques de Sá, 2001).
14. Análisis de Confiabilidad para la Predicción de Vida Útil de Alimentos
Primer autor (Ponente): Fidel Ulín-Montejo
Segundo: Rosa Ma. Salinas-Hernández
Resumen: En este trabajo se presentan conceptos y métodos de análisis de confiabilidad usados en estudios sensoriales y
fisicoquímicos para la predicción de vida útil de frutos frescos cortados. Las funciones de confiabilidad se definen como la
probabilidad de aceptación de los consumidores a un fruto fresco almacenado a lo largo de ciertos tiempos establecidos. El
fenómeno de censura, se ha definido y demostrado que ocurre en datos sensoriales y fisicoquímicos de vida útil de alimentos.
Métodos estadísticos para datos de confiabilidad fueron aplicados a un conjunto de datos obtenidos de consumidores quienes
probaron muestras del fruto fresco cortado con diferentes tiempos de almacenamiento, respondiendo 'si' o 'no' a las muestra que
consumirían. De este conjunto de datos censurados, algunos modelos fueron obtenidos permitiendo las estimaciones de vida útil.
También se presenta un modelo de Arrhenius para analizar los datos basados en la aceptación o rechazo de muestras conservadas
a diferentes tiempos y diferentes temperaturas. La inferencia estadística para la estimación y predicción de vida útil fueron
realizadas a través de rutinas de cómputo y graficación en R.
_______________________________________________________________________________________________________
59
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
15. Análisis Post-Cosecha en la Calidad del Café Pergamino
Primer autor (Ponente): Consuelo Amador Valencia
Segundo: Oscar González Ríos
Tercero: Mario Miguel Ojeda Ramírez
Resumen: Se presenta un análisis estadístico de cuatro tratamientos post-cosecha en la calidad del café pergamino, utilizando
datos obtenidos en un invernadero en la ciudad de Coatepec, Veracruz, México. Se realizó un diseño experimental, donde
intervinieron cuatro tratamientos diferentes. Se hicieron análisis preliminares tanto físicos como químicos, se obtuvo en cada
etapa un análisis exploratorio, tanto univariado como multivariado y tablas de análisis de varianza, mismo que permitió verificar
los datos y detectar cuál era el mejor tratamiento para la calidad en el café pergamino. La técnica estadística utilizada para
trabajar conjuntamente las variables de calidad es la de Análisis de Componentes Principales (ACP).
16. Análisis Factorial de Correspondencias Múltiples en un Estudio de Satisfacción de Usuarios sobre Servicios de
Personal Bibliotecario
Primer autor (Ponente): Gladys Linares Fleites
Segundo: María de Lourdes Sandoval Solís
Tercero: Minerva Haideé Díaz Romero
Cuarto: María Guadalupe Romero Vázquez
Resumen: La Dirección General de Bibliotecas de la Benemérita Universidad Autónoma de Puebla está empeñada en alcanzar
niveles de excelencia en los servicios que brinda a la comunidad universitaria. En este trabajo se reportan los resultados de una
encuesta llevada a cabo con 100 usuarios en la Biblioteca del área de las carreras de ingeniería, Biblioteca Ing. L. Barragán, a
través de la técnica de Análisis Factorial de Correspondencias Múltiples. Se analizaron los aspectos de la encuesta referidos al
personal bibliotecario que atiende esta biblioteca destacándose dos dimensiones importantes: una, que denominamos
Capacitación y Eficiencia del Personal con 74.34% de inercia y, otra, que nombramos Trato y Amabilidad del Personal, con
12.45% de inercia. El análisis de estas dimensiones en conjunción con otras opiniones y características de los usuarios permite
arribar a recomendaciones para elevar la calidad de los servicios bibliotecarios.
_______________________________________________________________________________________________________
60
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
17. Métodos Multivariados en la Búsqueda de Indicadores de Degradación Ambiental en la Sierra Norte de Puebla
Primer autor (Ponente): Gladys Linares Fleites
Segundo: Miguel Ángel Valera Pérez
Tercero: María Guadalupe Tenorio Arvide
Resumen: Para el diagnóstico de procesos de degradación ambiental es necesario utilizar múltiples indicadores,
fundamentalmente, indicadores de degradación de suelos, ya que el proceso de degradación de este recurso natural está
estrechamente relacionado al primero. La evaluación de los suelos se realiza a través de diferentes parámetros físicos, químicos,
mineralógicos y biológicos, por lo que la utilización de métodos estadísticos multivariados se torna imprescindible. Con el
objetivo de contar con indicadores de degradación de suelos que permitan evaluar los suelos de la Sierra Norte de Puebla se han
aplicado diversas técnicas exploratorias de datos, tales como, Componentes Principales, Conglomerados Jerárquicos y
Escalamiento Multidimensional, que han permitido obtener algunos indicadores de la degradación de suelos de la Sierra Norte de
Puebla. El propósito del presente trabajo ha sido realizar un análisis confirmatorio a través de los métodos de Discriminación
Lineal y Regresión Logística para corroborar que los indicadores obtenidos permiten diagnosticar la degradación de estos suelos
y, por ende, la degradación ambiental.
18. El Análisis Multivariado Aplicado al Cultivo del Cirián
Primer autor (Ponente): Emilio Padrón Corral
Segundo: Ignacio Méndez Ramírez
Tercero: Armando Muñoz Urbina
Cuarto: Haydée de la Garza Rodríguez
Resumen: Usando el análisis multivariado es posible examinar en forma simultánea la estructura de los datos así como los
valores de las variables y la relación que existe entre ellas. En este trabajo se desarrolló un análisis de correlación canónica y un
análisis de coeficientes de sendero, utilizando datos de la especie árborea Cirián (crescentia alata H.B.K.) donde las variables a
medir fueron: altura del árbol, número de ramas, diámetro de ramas, cobertura, diámetro ecuatorial, diámetro polar, número de
frutos, peso de frutos y rendimiento; con el fin de determinar los siguientes objetivos: 1.- Analizar datos del árbol y del fruto
mediante correlación canónica, a fin de determinar aquellas variables que mas influyen sobre la producción. 2.- Efectuar un
_______________________________________________________________________________________________________
61
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
análisis de coeficientes de sendero para estudiar las relaciones de causa y efecto entre las componentes del rendimiento. La
metodología usada en el análisis de la dasometría del árbol fue el muestreo probabilístico por conglomerados en dos etapas, para
el caso del fruto se utili\-z ó el mismo tipo de muestreo pero en tres etapas. Para el análisis de correlación canónica la matriz de
datos originales se particionó de acuerdo la naturaleza de sus variables en dos submatrices, cada una correspondiente a dos
grupos de variables. En el análisis de sendero las características fueron tratadas como variables de primero y segundo orden, los
efectos directos e indirectos del análisis de sendero fueron estimados utilizando el paquete computacional MatLab. En los
resultados obtenidos del análisis de correlación canónica se observó una correlación altamente significativa entre el primer par de
variables canónicas. El segundo par de variables canónicas presentaron una correlación significativa. En el análisis de sendero se
detectó que de los efectos directos sobre número de frutos; cobertura fue la más sobresaliente. Las conclusiones indican que en el
análisis de correlación canónica los dos grupos de variables (árbol y fruto) se encuentran relacionados. Estimándose una
correlación altamente significativa entre el primer par de variables canónicas y una correlación significativa entre el segundo par
de variables canónicas. El análisis de sendero mostró que la cobertura fue un factor importante para determinar el número de
frutos. Los efectos directos de diámetro ecuatorial y diámetro polar sobre peso de fruto fueron de aproximada magnitud y
explicaron en un 69% la variación en el peso de fruto. En el análisis de sendero para rendimiento de fruto, se observó que el
coeficiente de determinación explicó el 97% de la variación en el rendimiento de fruto.
19. Regresión Mínimo Cuadrática Parcial (PLS)
Primer autor (Ponente): Marcela Rivera Martínez
Segundo: Hortensia Reyes Cervantes
Tercero: Luis René Marcial Castillo
Cuarto: Gladys Linares Fleites
Resumen: Resumen: En este trabajo se presenta un procedimiento de regresión por mínimos cuadrados parciales (PLS), para
realizar predicciones, cuando las variables regresoras (X) son muchas y altamente colineales. A diferencia de otros métodos de
regresión, la regresión PLS busca para un conjunto de componentes de X una descomposición simultánea de las variables
regresoras (X) y las variables respuesta (Y), con la restricción de que éstas componentes expliquen tanto como sea posible la
covarianza entre X e Y. En particular, se discute el algoritmo NIPALS (Nonlinear Iterative Partial Least Squares) por ser el de
uso más frecuente y se muestra una aplicación del mismo.
_______________________________________________________________________________________________________
62
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
20. El Modelo de Zurek y su modificado aplicado a la Viscoelasticidad de Hilados de Poliester
Primer autor (Ponente): Ana María Islas Cortés
Segundo: Gabriel Guillén Buendía
Tercero: Manuel Olvera Gracia
Resumen: Los fundamentos matemáticos de la viscoelasticidad fueron establecidos por James C. Maxwell proponiendo el
modelo que lleva su nombre. Considera dos elementos ideales, el primero explica la recuperación elástica de los cuerpos
sometidos a tracción y está representado por un muelle; mientras que la segunda, la variación de las dimensiones que se
producen en el material a lo largo del tiempo, ya sea durante la aplicación del esfuerzo o bien después de cesar el mismo, está
relacionado con las tensiones internas acumuladas en el material que se liberan gradualmente y se representa por un émbolo. Uno
de los modelos más trascendentes es el modelo de Zurek, en el cual el mecanismo de resistencia es remplazado por un sistema de
fricción interna de masa M y fuerza de fricción T proporcional al alargamiento. La fricción interna esta incorporado a un sistema
en paralelo compuesto por un muelle de Hooke con una constante k2 y un émbolo de Newton de viscosidad n. Todo conectado a
un extremo de un muelle de Hooke de constante k1. Los parámetros del modelo de Zurek tienen significado físico, A es la
rigidez; B esta determinado como la pendiente de la recta de la zona de refuerzo; C y D suelen estar relacionadas con
propiedades mecánicas del material. Para el desarrollo de este trabajo se utilizo las curvas carga alargamiento promedio de hilos
de poliéster de uso textil común, procesados en estiraje mecánico en una máquina Barmag a diferentes temperaturas y relaciones
de estiraje. Se sometieron a ensayo de tracción en un dinamómetro universal bajo la normativa vigente. Las constantes numéricas
del modelo de Zurek se determinan por los métodos gráfico, método iterativo Marquardt, y la técnica de mínimos cuadrados y
los resultados obtenidos se comparan y son significativos al 1% de confianza. El modelo modificado también conduce a
excelentes resultados. El presente estudio permite formular las siguientes conclusiones: La evaluación numérica de los
parámetros del modelo de Zurek es resuelto por la técnica de mínimos cuadrados con excelentes resultados, el método iterativo
de Newton-Raphson conduce con un mínimo de iteraciones a la solución óptima del modelo analógico, el modelo de Zurek
modificado conduce a una bondad de ajuste del 5% de confianza estadística.
_______________________________________________________________________________________________________
63
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
21. El Modelo de Phillips como Función de Densidad de Muestra
Primer autor (Ponente): Gabriel Guillén Buendía
Segundo: Ana María Islas Cortés
Resumen: En el ámbito de la ingeniería textil los modelos de peso estadístico de muestra son de gran interés, puesto que
determinadas propiedades de las fibras textiles conducen a un histograma unimodal de moda centrada, por ejemplo las
propiedades mecánicas de los hilos textiles, la finura de las fibras químicas; para la representación matemática de la campana
envolvente de estos histogramas se usan modelos de peso estadístico de muestra que son tradicionales. En este documento se
prueba el modelo de campana de Phillips como modelo de peso estadístico de muestra. El modelo de Phillips es un modelo de
secante hiperbólica al cuadrado y tiene ventajas esenciales como ser directamente integrable, el modelo cumulativo de muestra se
obtiene por una simple integración, el tamaño de un individuo “x” es despejable del modelo cumulativo ya citado, esto permite
calcular el tamaño al cual son inferiores un cierto número de individuos acumulados de izquierda a derecha en el modelo de
densidad de muestra, mediante un modelo numérico funcional muy sencillo. En el presente trabajo se ajusta el modelo de
Phillips a un histograma de datos experimentales de alargamiento a la rotura de hilos de poliéster de 177 dtex (calibre),
ensayados de acuerdo a norma técnica y utilizando un dinamómetro universal Instron de uso común en la industria textil. Del
estudio se concluye que el modelo de Phillips es eficiente como función densidad de muestra para histogramas unimodales de
moda centrada, asimismo se usaron tecnicas de ajuste a la distribución normal como la técnica del punto conocido, el algoritmo
de Guggenheim, y el procedimiento Marquardt como métodos de comprobación, en todos los casos se lograron bondades de
ajuste del 5% de confianza estadística.
_______________________________________________________________________________________________________
64
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
22. Estudio de la Validez del Constructo Inteligencia Emocional, en Estudiantes Universitarios, mediante un Modelo de
Análisis Factorial Confirmatorio: Escala CASVI
Primer autor (Ponente): Mª Elena Vicente Galindo
Segundo: Juan Antonio Castro Posada
Tercero: Mª Purificación Vicente Galindo
Cuarto: Purificación Galindo Villardón
Resumen: La Inteligencia Emocional es entendida como una metahabilidad cuya base es el autodominio de las competencias
afectivas. A pesar de tratarse de una metahabilidad que incide en la totalidad del potencial del ser humano y que se encuentra
implicada en una vida exitosa, ha recibido poca atención en la literatura científica. El constructo Inteligencia Emocional presenta
gran dificultad para su evaluación. Hay diferentes tests en la literatura que evalúan las diferentes componentes de la inteligencia
emocional y las diferencias individuales, desarrolladas, la mayoría, en Estados Unidos. (Davies, et al, 1990; Mayer y Salovey,
1993). La gran mayoría están dirigidos al medio laboral y las emplean los consultores en desarrollo organizacional, han sido
traducidas y aplicadas directamente en nuestro país sin haber pasado por un proceso de adaptación, validación y estándarización,
tienen baja validez de contenido, ya que no involucran ítems relacionados con el manejo de las emociones en otros escenarios, y
generalmente todas las preguntas tienen la misma orientación semántica.Este trabajo se encuadra dentro de la perspectiva
psicométrica de evaluación de la inteligencia emocional, que tiene por objetivo la validación y estudio de la fiabilidad de un
instrumento para medir Inteligencia Emocional que evalúe metaconocimiento de los estados emocionales y nos permita detectar
el perfil de inteligencia emocional de estudiantes universitarios: escala CASVI. La escala presenta un formato de inventario; es
decir, está compuesta por 213 cuestiones. Cada ítem se corresponde con un enunciado que representa un rasgo de
comportamiento paradigmático de la Inteligencia Emocional, expresado en escala tipo Licker, con 6 posibles respuestas.
Tomamos como referente empírico una muestra no probabilística de 642 estudiantes universitarios, de las dos universidades de
Salamanca, la USAL (pública) y la PONTIFICIA (privada), con edades comprendidas entre 18 y 35 años.El Análisis Factorial
exploratorio (ACP, con rotación VARIMAX ) nos ha permitido simplificar la escala inicial y construir otra que contiene 43 ítems
que configuran 4 dimensiones de la Inteligencia emocional: Autoestima (afectivo, cognitiva-comportamental), Autoconcepto
(responsabilidad y empatía), Centración en si mismo y Dependencia Emocional, con alta consistencia interna, no sólo en las
subescalas, sino también en su conjunto. Se ha desarrollado un modelo de Análisis Factorial Confirmatorio que ha permitido
contrastar la configuración de la escala de Inteligencia Emocional de una manera científicamente válida: corrobora la estructura
en cuatro dimensiones obtenida en el análisis exploratorio. El análisis Factorial Confirmatorio nos ha permitido, además,
_______________________________________________________________________________________________________
65
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
localizar los ítems para los cuales hay falta de ajuste, lo que nos lleva a pensar en profundizar en su estudio en investigaciones
posteriores.
23. Ajuste del Modelo Exponencial y Gompertz usando la Técnica de los Tres Puntos de Apoyo de Lipka
Primer autor (Ponente): Gabriel Guillén Buendía
Segundo: Ana María Islas Cortés
Resumen: Se estudia en el presente trabajo, la bondad de ajuste de la técnica de los tres puntos de apoyo de Lipka para la
determinación numérica de los parámetros de los modelos exponencial y Gompetz, aplicados a datos experimentales obtenidos
de la caracterización de materiales textiles. Para el caso del modelo exponencial se utilizaron datos del incremento de la
tenacidad (resistencia específica) de hilos de algodón-Lyocell en función del contenido de ésta última fibra. En cuanto al modelo
de Gompetz, se ajustó a datos experimentales del ensayo de sorción de iodo en fibras de poliéster en función de la temperatura
del ensayo, útil para la caracterización indirecta de la microestructura. Asimismo, se compararon los resultados obtenidos de la
técnica que da pie al presente documento con el algoritmo de Guggenheim y el método iterativo Marquardt. Este estudio formula
las siguientes conclusiones: La técnica de los tres puntos de apoyo de Lipka aplicado a los modelos exponencial y Gompetz
conduce a valores numéricos similares a los obtenidos por el método iterativo Marquardt. La transformación lineal de los
modelos exponencial y Gompetz resulta una excelente herramienta para determinar los parámetros de dichos modelos, además
de simplifica la compresión de los modelos haciendo uso de regresión simple. El valor didáctico de dichas técnicas se extiende a
otros modelos no lineales. Los ajustes obtenidos fueron significativos al 5% de confianza estadística.
_______________________________________________________________________________________________________
66
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
24. Análisis de Supervivencia en un Contraste de los Atributos Defensivos de dos Especies de Hormigas Pseudomyrmex
sobre Plantas Acacia Cornígera en una Selva Baja Caducifolia
Primer autor (Ponente): Rosario Galván Martínez
Segundo: Ingrid Rosario Sánchez Galván
Tercero: Juan Carlos López Acosta
Resumen: Una de las interacciones interespecificas defensivas más sobresalientes de la América neotropical son las relaciones
mirmecofilas que se dan entre plantas de Acacia cornigera con hormigas del género Pseudomyrmex. En la cual las plantas
ofrecen sitios de anidación por medio de espinas huecas de origen estipular (Domatios) y alimento mediante unos corpusculos
amarillentos que crecen en el ápice de los foliolulos y nectarios extraflorales con glucosa y fructuosa. En una zona de selva baja
caducifolia, nosotros encontramos la interacción entre plantas de A. cornigera con hormigas P. gracilis y P. ferrugineus con
aparentes diferencias en su comportamiento defensivo. La herbivoría observada en las acacias nos indicaba que las hormigas P.
ferrugineus eran más eficientes en términos de defensa antiherbivoro para las plantas que hormigas P. gracilis. Además
experimentalmente ante la presencia de herbívoros simulados P. ferrugineus se recluto más rápido y con mayor número de
hormigas ocurriendo ante el estímulo que P. gracilis. Nosotros intentamos inducir el reclutamiento de las hormigas P. gracilis
ante señales químicas del post daño en un diseño pareado con extractos de Acacia, a los datos obtenidos se les aplico una
metodología estadística con estudios de supervivencia, con la técnica no paramétrica de Kaplan- Meier con la cual se calcularon
las curvas de supervivencia, también se utilizaron para comparar las distribuciones de supervivencia entre grupos (control vs.
tratamiento) las pruebas de Log-Rank. Para los procesamiento necesarios se utilizó el paquete estadístico SPSS. En los
tratamientos con extractos se observó mayor actividad defensiva de ambas hormigas, incrementando su tiempo y cantidad de
patrullaje y velocidad de llegada al área de estímulo. Este estudio evidencia que el mantenimiento de las interacciones puede
estar mediado por estímulos químicos, las cuales pueden ser interpretadas por las hormigas como señales fidedignas de daño.
_______________________________________________________________________________________________________
67
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
25. Modelos Lineales Aplicados a la Estimación de Demanda de Agua
Primer autor (Ponente): Alejandro Salazar Adams
Segundo: Nicolás Pineda Pablo
Resumen: En este trabajo se utilizó un modelo de regresión lineal para estimar los parámetros de una función de demanda
percápita de agua. La estimación se llevó a cabo con base en los datos de consumo de agua de una muestra de 57 ciudades con
más de 50 mil habitantes en México. La función de demanda de agua está dada por: D = f(Y, P, TH, Temp, Precip), en donde: D
es la demanda percápita de agua, Y es el ingreso percápita, P es el precio promedio por metro cúbico, TH es el tamaño del hogar,
Temp es la temperatura, Precip es la precipitación. Se utilizó una forma funcional semi- logarítmica cuyos parámetros fueron
estimados a través del método de mínimos cuadrados ordinarios. Con base en el modelo estimado se llevó a cabo la proyección
de escenarios de demanda de agua en la ciudad de Hermosillo, Sonora hasta el año 2030 para determinar si es posible asegurar el
abastecimiento de agua hasta dicho año.
26. Análisis Psicométrico del Funcionamiento Diferencial del Cuestionario QUALEFFO, para Evaluar Calidad de Vida
en Pacientes Osteoporóticos, Ambulatorios, basado en el Modelo DFIT y en Regresión Logística
Primer autor (Ponente): Mª Purificación Vicente Galindo
Segundo: Mercedes Sánchez Barba
Tercero: José Luis Vicente Villardón
Cuarto: Purificación Galindo Villardón
Resumen: A la mayoría de la gente le es familiar la expresión “calidad de vida” y tiene una idea intuitiva de lo que comprende.
Sin embargo, es muy difícil dar una definición de Calidad de Vida, porque significa diferentes cosas para diferentes personas,
para las mismas personas en diferentes momentos e, incluso, tiene diferentes significados dependiendo del área de aplicación.
Una de las áreas en las que éste término ha adquirido una mayor importancia es en el ámbito de la salud. No hay, por el
momento, una definición universalmente aceptada. En la mayoría de los trabajos se identifica el concepto con las dimensiones
que evalúa el cuestionario que se utiliza. De ahí, la trascendencia de disponer de cuestionarios específicos con buenas
propiedades psicométricas. Este trabajo se centra en el estudio del QUALEFFO, un cuestionario específico para evaluar Calidad
de Vida en pacientes osteoporóticos, que fue diseñado para su uso en pacientes hospitalizados que habían sufrido fractura de
_______________________________________________________________________________________________________
68
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
cadera, mayoritariamente mujeres. Dada la trascendencia social y económica que tiene la osteoporosis, y su incidencia cada vez
mayor, también en hombres, la Organización Mundial de la Salud ha recomendado su detección en el ámbito de Atención
Primaria. El primer paso para evaluar el impacto en la Calidad de Vida del paciente es disponer de un cuestionario adecuado.
SANCHEZ-BARBA, 2008, probó que el QUALEFFO sigue siendo válido el ser aplicado en screening en pacientes ambulatorios
y demostró también que puede ser simplificado sin perder sus propiedades psicométricas. Este trabajo se centra en el estudio del
funcionamiento diferencial, ya que de existir, no podría ser generalizado su uso a ambos géneros. Se ha evaluado el
Funcionamiento Diferencial de los diferentes ítems del Qualeffo, con el modelo DFIT, para identificar si los hombres y las
mujeres, con un mismo nivel de nivel de Calidad de Vida, tienen distinta probabilidad de elegir una determinada respuesta. Se
han identificado cinco ítems con funcionamiento diferente en hombres y mujeres de los cuales, cuatro además no aportaban
información relevante. El modelo de Regresión logística nos ha permitido identificar cinco ítems con funcionamiento diferencial
no uniforme; es decir, cinco ítems para los cuales la probabilidad de responder una categoría concreta es distinta para el grupo de
los hombres y para el grupo de las mujeres, en ciertos niveles de Calidad de Vida, mientras que en otros esto no sucede.
27. Modelación Factorial de la Estructura de Varianza-Covarianza de la Interacción Genotipo x Ambiente para el
Agrupamiento de Genotipos y/o Ambientes sin Interacción de Entrecruzamiento
Primer autor (Ponente): Juan Andrés Burgueño
Segundo: José Crossa
Tercero: Paul L. Cornelius
Cuarto: Rong-Cai Yang
Resumen: La variabilidad encontrada en la interacción genotipo x ambiente puede ser debida a interacción de entrecruzamiento
o de no entrecruzamiento (heterogeneidad de varianza). Los métodos estadísticos para detectar y cuantificar la interacción de
entrecruzamiento y formar grupos de ambientes y/o genotipos con interacción de entrecruzamiento despreciable han estado
basados en modelos lineales bilineales de efectos fijos. El modelo lineal mixto y la modelación de la estructura de varianzacovarianza a través del análisis factorial, nos da una solución más realista y eficiente para cuantificar la interacción de
entrecruzamiento y formar grupos de ambientes y genotipos sin interacción de entrecruzamiento. Los objetivos de este estudio
son (i) presentar una metodología integrada para el agrupamiento de ambientes y genotipos sin interacción de entrecruzamiento,
basada en el ajuste del modelo factorial de ensayos multiambiente, (ii) detectar interacción de entrecruzamiento, usando
_______________________________________________________________________________________________________
69
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
funciones predecibles basadas en el modelo lineal mixto con análisis factorial y en los mejores predictores lineales insesgados de
genotipos. Los resultados de dos redes de ensayos internacionales de CIMMYT para la evaluación de maíz (Zea mays L.) fueron
usados para ilustrar la metodología utilizada para la búsqueda de grupos de ambientes y genotipos sin interacción de
entrecruzamiento. La metodología utilizada mostró, en ambos ensayos, que sí es posible formar grupos de ambientes y/o
genotipos sin interacción de entrecruzamiento. El uso del modelo lineal mixto permite un mejor manejo del desbalance en la
información, habitual en este tipo de ensayos. La principal ventaja de esta metodología integrada es que un único modelo lineal
mixto, con modelación de la estructura de varianza-covarianza a través del análisis factorial, puede ser usada para (i) modelar la
asociación entre ambientes, (ii) formar grupos de ambientes sin interacción de entrecruzamiento, (iii) formar grupos de genotipos
sin interacción de entrecruzamiento, (iv) detectar interacción de entrecruzamiento usando las funciones predecibles apropiadas.
28. Análisis Multivariado de Covarianza para determinar la Influencia del Medio Ambiente sobre la Durabilidad del
Concreto. Proyecto Duracon-Tampico
Primer autor (Ponente): Haidie Lissete Hervert Zamora
Segundo: Demetrio Nieves Mendoza
Tercero: Miguel Ángel Baltazar Zamora
Cuarto: Julio Cesar Barrientos Cisneros
Resumen: La durabilidad de las estructuras de concreto esta generalmente asociada con las características mecánicas del mismo,
tales como la resistencia a la compresión, la relación agua/cemento, la porosidad, etc. Sin embargo, es de vital importancia
conocer el comportamiento del medio ambiente en el que están inmersas dichas estructuras, y de esta forma tomar medidas que
optimicen la vida útil de las mismas. Para conocer la influencia que tienen las condiciones del medio ambiente al que están
expuestas las estructuras de concreto reforzado en Ibero América, sobre su durabilidad se implementó el Proyecto IberoAmericano DURACON. Este proyecto se desarrolla mediante la exposición de vigas de concreto armado de dos relaciones
agua/cemento (a/c, 0.45 y 0.65), con tres espesores de recubrimientos (15, 20 y 30 mm). El seguimiento del comportamiento
electroquímico de las vigas fue mediante la técnica electroquímica de Resistencia a la polarización lineal (Rp), obteniéndose la
medición del potencial de corrosión (Ecorr), y Velocidad de Corrosión (icor).En fenómenos como el descrito anteriormente,
donde, aun bajo condiciones aparentemente idénticas, existe un alto grado de incertidumbre y variabilidad en los resultados, es
difícil tomar decisiones; por lo que en el presente trabajo se muestra la aplicación de la técnica Estadística Análisis Multivariado
_______________________________________________________________________________________________________
70
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
de Covarianzas (MANCOVA) de los resultados de las técnicas electroquímicas del proyecto DURACON, en conjunto con las
condiciones de experimentación (relación a/c, Recubrimiento, Cara Expuesta a los vientos predominantes o Resguardada) y las
variables ambientales como son Temperatura y Humedad; con el objetivo de determinar estadísticamente el grado de influencia
que tiene estas variables ambientales o en su caso de las condiciones de experimentación sobre la durabilidad del concreto. Los
resultados muestran que las variables ambientales hasta el momento no presentan influencia alguna sobre la icor, y Ecorr, del
mismo modo sobre las condiciones experimentales, excepto la condición Recubrimiento y Relación a/c que se muestran
altamente significativas.
29. Modelos de Regresión Logística y Lineal para el Estudio de los Datos de los Pesos de los Recién Nacidos, en el
Hospital Dr. Gustavo A. Rovirosa Pérez, de Villahermosa, Tabasco
Primer autor (Ponente): Edilberto Nájera Rangel
Segundo: José Juan Guzmán Hernández
Tercero: Lucas López Segovia
Resumen: A un conjunto de datos, en los que la variable de interés es el peso al nacer, se les ajustó un modelo de regresión
logística y uno de regresión lineal. Las variables explicativas que se consideraron son las semanas de gestación, el sexo del
recién nacido, el peso de la madre, la estatura de la madre, la edad de la madre y el número de visitas al ginecólogo. El objetivo
es analizar el efecto que tiene el control del embarazo sobre el peso del producto al nacer. También se comparan los dos modelos
ajustados.
30. Estimación del Tamaño de una Población de Difícil Detección en el Muestreo por Seguimiento de Nominaciones y
Probabilidades de Nominación Heterogéneas
Primer autor (Ponente): Martín H. Félix Medina
Segundo: Pedro E. Monjardin
Resumen: En este trabajo se presenta una generalización de un estimador del tamaño de una población de difícil detección
(drogadictos, niños de la calle, sexo servidoras, etc.) propuesto por Félix Medina y Thompson (Jour. Official Stat., 2004) para el
_______________________________________________________________________________________________________
71
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
caso en el cual las probabilidades de nominación dependen de los individuos (probabilidades de nominación heterogéneas). El
estimador propuesto es una adaptación del estimador que presentan Coull y Agresti (Biometrics, 1999) en el contexto de estudios
de captura-recaptura múltiple. Mediante un estudio de simulación se analiza el desempeño del estimador propuesto y se compara
con el del estimador que no toma en cuenta la heterogeneidad de las probabilidades de nominación presentado por Félix Medina
y Thompson (2004).
31. Estudio Computacional sobre Aleatoriedad para Sucesiones Grandes en Desarrollo Decimal de Algunos Números
Primer autor (Ponente): Agustín Jaime García Banda
Segundo: Luis Cruz Kuri
Tercero: Ismael Sosa Galindo
Resumen: Es conocido que el número Pi, cociente del perímetro de un círculo y su diámetro, es trascendente, en el sentido de no
ser raíz de algún polinomio con coeficientes enteros. Otro número que también es trascendente es e, la base de los logaritmos
naturales; la raíz cuadrada de 2, por otra parte, es irracional pero no es trascendente. Con la introducción de programas de
cómputo matemático, tales como Mathematica, es relativamente fácil obtener en computadoras personales expansiones
decimales de tales números a millones de cifras. En el presente trabajo, se introduce un algoritmo computacional, desarrollado
por nosotros, el cual permite hacer aplicación de algunas pruebas de aleatoriedad para las sucesiones correspondientes de los
dígitos así generados; asimismo se discuten los hallazgos para algunos números selectos.
32. Estudio Computacional para Encontrar el Valor Óptimo de la Distancia Esperada entre un Punto y una Variable
Aleatoria Real
Primer autor (Ponente): Luis Cruz Kuri
Segundo: Agustín Jaime García Banda
Tercero: Ismael Sosa Galindo
Resumen: Sea X una variable aleatoria fija con una distribución dada, discreta o absolutamente continua, y sea d una métrica
sobre el espacio de los números reales. Para cada número real r se define la función f(r) =E(d(X,r)). El objetivo es encontrar el
_______________________________________________________________________________________________________
72
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
valor óptimo (máximo) de la función f. En el presente trabajo se describe como este problema se resuelve con el apoyo de un
programa de cómputo matemático, ejecutado en una computadora personal, para algunas métricas y para algunas variables
aleatorias. En particular, se ilustra lo que ya es conocido en dos situaciones especificas, a saber, que para la métrica euclidiana
L2 el valor óptimo se obtiene con r=E(X) y, para la métrica L1, el valor óptimo se alcanza con r=Mediana(X).
33. Estudio de Algunas Distribuciones mediante el Apoyo de un Programa de Computo Matemático
Primer autor (Ponente): Ismael Sosa Galindo
Segundo: Luis Cruz Kuri
Tercero: Agustín Jaime García Banda
Resumen: Haciendo uso de un programa de cómputo matemático, se hace un estudio de algunas distribuciones, tanto discretas
como absolutamente continuas, que aparecen en estadística y probabilidad multivariada. El programa que hemos utilizado para
nuestras ilustraciones es Mathematica, el cual tiene capacidad de ejecución de procesamientos numéricos, simbólicos y gráficos.
Con el propósito de poder visualizar algunas características gráficas en un espacio de tres o menos dimensiones, se seleccionan
algunas distribuciones divariadas. Para dimensiones mayores, la visualización se consigue de manera parcial mediante
proyecciones sobre subespacios de dimensiones uno y dos. Así, por ejemplo, para la distribución normal de tres dimensiones, se
presentan, entre otros objetos geométricos, la colección de los así llamados “elipsoides de concentración”. Se hace un pequeño
estudio de versiones multivariadas de distribuciones absolutamente continuas de algunos modelos clásicos, tales como el
exponencial, etc. y, de manera análoga, para algunas distribuciones discretas, tales como las familias de la distribución binomial
y la distribución hipergeométrica (con dos o más variables).
34. Análisis Descriptivo Multivariado de la contaminación en el corredor industrial del Estado de Guanajuato
Primer autor (Ponente): Sergio Martín Nava Muñoz
Segundo: Rafael Alberto Pérez Abreu Carrión
Resumen: El monitoreo atmosférico es uno de los indicadores principales de la calidad del aire y representa una valiosa
herramienta de gestión para instrumentar acciones de prevención y control de los contaminantes presentes en la atmósfera ante
_______________________________________________________________________________________________________
73
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
condiciones que ponen en riesgo la salud de los ciudadanos. Además, es una fuente de información para la ciudadanía sobre los
niveles de contaminación. El presente trabajo ofrece una descripción del estado que guarda la Red de Monitoreo de la Calidad
del Aire del Estado de Guanajuato para el año 2006. Esta descripción se da en términos de las variables ambientales y
contaminantes medidos en las estaciones de monitoreo. Además se realiza un análisis de la situación de los contaminantes
criterio respecto a los valores permisibles en la normatividad para la calidad del aire. Este estudio fue realizado con recursos del
Fondo Mixtos del Estado de Guanajuato y en conjunto con el departamento de “coordinación de mejoramiento de la calidad del
aire” del Instituto de Ecología del Gobierno de Guanajuato.
35. Regresión Lineal en Confiabilidad Usando el Lenguaje R
Primer autor (Ponente): Carlos Abraham Carballo Monsiváis
Segundo: Jorge Domínguez Domínguez
Resumen: Los modelos de regresión generados a partir de los datos experimentales permiten caracterizar la confiabilidad de un
producto. Los datos se obtienen mediante una estrategia experimental con el fin de caracterizar la confiabilidad de un producto.
En este tipo de situaciones los datos tienen propiedades específicas tales como la censura o distribuciones no normales. En la
literatura estadística existen el método clásico de Máxima verosimilitud para resolver estos problemas, lo compararemos con los
métodos de Hamada – Wu y Hahn, Morgan – Schmee para modelar ese tipo de datos. El primero es un algoritmo generado por
máxima verosimilitud, el segundo consiste del método de mínimos cuadrados clásico con ponderación iterada para tomar en
cuenta la censura y la distribución. En la actualidad R desempeña un papel importante en el cómputo estadístico. En este trabajo
se ilustra la implementación de R en estos dos métodos estadísticos que permiten modelar datos en confiabilidad y se evalúa la
utilidad del lenguaje R. También se comparan y discuten ventajas y desventajas de ambos procedimientos con diversos casos de
la literatura. Los resultados de estas comparaciones son la pauta para análisis de la confiabilidad de muchos productos que se
manufacturan en el sector industrial.
_______________________________________________________________________________________________________
74
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
36. Aprendizaje de la Estadística con Base en Opciones Lúdicas: Proyecto Genios de la Estadística
Primer autor (Ponente): Lorena López Lozada
Segundo: Joaquín Díaz López
Tercero: Víctor Manuel Méndez Sánchez
Cuarto: Claudio Rafael Castro López
Resumen: Sin duda, los programas académicos de estadística a nivel de licenciatura enfrentan la baja demanda en su matrícula y
peor aún, la desorientación de los estudiantes que ingresan sobre que van a consistir sus estudios, ya que su pensamiento
estadístico en los niveles de educación básica se desarrolla con algunas deficiencias graves. La carrera de Licenciado en
Estadística que ofrece la Universidad Veracruzana en México es un caso que enfrenta problemas de baja demanda,
desorientación y poca motivación del estudiante que ingresa en este programa académico. Esto último ha impactado en elevados
índices de deserción escolar. En este contexto nace el proyecto Genios de la estadística, con el objetivo principal: motivar el
aprendizaje y espíritu investigador que posee todo ser estadístico, a través de juegos populares, cuyos contenidos están
orientados a conceptos y áreas relacionadas con la estadística con base a los contenidos temáticos que se abordan a nivel
bachillerato. El proyecto se visualiza en tres grandes etapas: 1) Adaptación y prueba de los juegos, 2) Implementación
informática de los juegos con tecnología Web para disponibilidad en línea y 3) Despliegue de los juegos a la comunidad usuaria
para su evaluación y mejora, así como el seguimiento a usuarios interesados. Ésta información servirá para motivar entre otras
cosas cambios en la educación estadística y la implantación de una campaña que promueva nuestro programa académico. Aquí
se presenta la experiencia lograda de la adaptación y prueba (primera etapa) de los juegos denominados “La Oca estadística”,
“ µparχ ” y “El Retador” llevados a cabo in situ con estudiantes de la Licenciatura de Estadística. El conocimiento incorporado
en los juegos se basa en los contenidos temáticos que se abordan a nivel bachillerato. El contenido requirió la elaboración de un
banco de 500 reactivos distribuidos en las temáticas: Algebra, Computación, Estadística Exploratoria, Probabilidad y Cultura
General. Estos reactivos fueron planteados por los académicos que imparten dichas experiencias educativas.
_______________________________________________________________________________________________________
75
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
37. Calidad de vida de los habitantes de la ciudad de Xalapa, Ver.: Una perspectiva multivariante
Primer autor (Ponente): Toshil Sarmiento Martínez
Segundo: Claudio Rafael Castro López
Resumen: La aceleración demográfica y la intensa migración regional bastan para que el problema de dimensión urbana versus
calidad de vida sea argumento de apelación para reconsiderar la política de desconcentración de las ciudades grandes. La
población de Xalapa ha crecido a un ritmo acelerado, lo cual implica una gran demanda de servicios e infraestructura local que
no puede ser satisfecha a plenitud, ya que el gobierno municipal no posee la capacidad financiera necesaria y suficiente para
proveer la cantidad y calidad de servicios, equipamiento e infraestructura para su población. Añádase además que en los últimos
años, Xalapa ha experimentado un crecimiento explosivo, ante una planeación retardada por parte de sus gobiernos. Y que si
bien, se tiene la presunción de que este aspecto ha impactado notablemente en la calidad de vida de sus habitantes, es
conveniente plantearse la pregunta: ¿Cómo se mide y cuáles son las dimensiones de la calidad de vida de los habitantes de la
ciudad de Xalapa?
38. Pruebas exactas incondicionales de no-inferioridad para la diferencia de probabilidades binomiales
Primer autor (Ponente): Cecilia Ramírez Figueroa
Segundo: David Sotres Ramos
Tercero: Félix Almendra Arao
Resumen: El objetivo de este trabajo es estudiar el comportamiento del nivel de significancia real de varias pruebas exactas que
contrastan la no-inferioridad entre dos tratamientos; basada en la diferencia de dos proporciones binomiales así como su
potencia. La investigación ha encontrado que la prueba de Blackwelder que se usa frecuentemente se debe aplicar con mucha
precaución debido a su comportamiento excesivamente conservador, que repercute en una potencia baja. La prueba donde su
estadística es la razón de verosimilitud es generalizada resulta mejor sólo para algunos valores del margen de no-inferioridad.
Por último la prueba basada en una estadística tipo score (Farrington-Manning) se puede recomendar como la mejor porque
mantienen los valores del nivel de significancia muy cercanos al nivel nominal y ligeramente supera a todas las pruebas
estudiadas en cuanto ala potencia. Todos los estudios se realizan con cálculos detallados del nivel de significancia real, sin
utilizar aproximaciones, para establecer conclusiones sólidas.
_______________________________________________________________________________________________________
76
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
39. Modelación de la Tendencia en Extremos no Estacionarios para Datos de Temperatura Obtenidos Alrededor de
Citlaltépetl
Primer autor (Ponente): Marisol López Cerino
Segundo: Bulmaro Juárez Hernández
Tercero: José del Carmen Jiménez Hernández
Resumen: Los glaciares tropicales representan excelentes indicadores del cambio en el clima, están constituidos por reservas
sólidas de agua dulce y son particularmente importantes, por los recursos hídricos que proporcionan. Los glaciares tropicales en
México cubren una superficie aproximada de 11.4 km2. En este trabajo se presenta un análisis descriptivo de las temperaturas
máximas y mínimas promedios mensuales. Se realizó un mapa de la región en la cual se pueden encontrar las estaciones
meterelógicas de las cuales se obtuvieron los datos en un radio de 50 km. Parece ser un hecho la desaparición de los glaciares del
volcán Citlaltéptl, a menos que las condiciones climáticas locales y globales cambien. Los patrones de temperatura de la región
de estudio indican un incremento sistemático en la temperatura media anual. El ritmo de retroceso sostenido que se ha observado
en el presente ocasionará sus desaparición en las próximas tres décadas. Los glaciares del volcán Citlaltépetl son fuente de
recarga de los mantos acuíferos del valle de Puebla y la región del Estado de México, así como de municipios de Veracruz. La
importancia del análisis de datos a través de series de tiempo, permite conocer la tendencia de temperatura, observándose del
análisis de los datos una tendencia positiva para las temperaturas máximas y mínimas. Se necesita crear una conciencia sobre las
preguntas que surgen naturalmente, ¿Desaparecerán los glaciares tropicales que se encuentran en el volcán Citlaltépetl? ( ¿En
cuanto tiempo? ¿Qué se debe hacer para evitarlo?
_______________________________________________________________________________________________________
77
XXIII Foro Nacional de Estadística
_______________________________________________________________________________________________________
40. Distribución de Estimadores en Modelos de Regresión donde los Parámetros están Sujetos a Restricciones Lineales de
Desigualdad
Primer autor (Ponente): Leticia Gracia-Medrano V.
Segundo: Federico O’Reilly
Resumen: En este trabajo se muestra a través de re-muestreo paramétrico en distribuciones de los estimadores para modelos de
regresión cuando se imponen restricciones lineales de desigualdad sobre los parámetros, se comparan estas simulaciones versus
otro trabajo que utiliza muestreo de Gibbs. Las simulaciones son hechas utilizando un conjunto de datos conocido en la
literatura.
_______________________________________________________________________________________________________
78
Descargar