Subido por vicentemolina1309

Diseño de experimentos Apuntes

Anuncio
2015
Diseño de
experimentos
Beatriz Pérez de Vargas Moreno
Universidad de Valladolid
Profesor: Alfonso Gordaliza Ramos
16/03/2015
ÍNDÍCE
BLOQUE I: TEMAS STATGRAPHICS.
Tema 3: Experimentos con un solo factor. El análisis de la varianza……………………………………1
Tema 4: Bloques aleatorizados, cuadrados latinos y diseños relacionados.………………………22
Tema 5: Introducción a los diseños factoriales...……………………………………………………………….34
Tema 12: Experimentos con factores aleatorios...…………………………………………………………….69
Tema 13: Diseños anidados y de parcelas subdivididas ...……………………………………..………….95
Material adicional: Introducción al control estadístico de procesos (temas 12 y 13)…125
Tema 6: Diseño factorial 2k ...………………………………………………………………………………..………...131
Tema 7: Formación de bloques y confusión en el diseño factorial 2k ...………………..…………219
Tema 8: Diseños factoriales fraccionados de dos niveles....………………..………………………….239
Tema 14: Análisis de la covarianza....………………..………………………………………..………………….283
Tema 11: Metodología de superficies de respuesta....………………..………………………………….297
BLOQUE II: ENTREGABLES
Entregable 1: Ejercicio 1 - Examen ordinario 13/14 – Datos CONTAMINACIÓN.sfx ……..316
Entregable 2: Ejercicio 2 - Examen ordinario 13/14....………………..…………………………………324
Entregable 3: Pimientos....…………………………………………………..……..…………………………………336
BLOQUE I:
TEMAS
STATGRAPHICS
TEMA 3: Experimentos con un solo
factor. El analisis de la varianza
1
Las observaciones obtenidas son:
Para resolver este problema con Statgraphics lo primero que deberíamos hacer es crear el
diseño. Para ello:
Podemos pinchar en Labels para dar nombre a las
etiquetas, en nuestro caso a los diferentes
porcentajes utilizados.
2
Seguimos dando a OK, y la siguiente pantalla que nos aparece es:
Siempre 1 menos, tenemos
5 réplicas en este caso pero
Statgraphics siempre parte
de que al menos hay 1.
Lo tenemos que quitar, se
supone que esto ya lo ha
aleatorizado quien ha hecho
el experimento.
Con esto, si vamos a Databook vemos que se nos han rellenado unas columnas para que
introduzcamos los datos de la tabla del enunciado:
**Si hubiésemos marcado
"randomize", esto nos mostraría el
orden en que tendríamos que
realizar las mediciones:
3
Número de factores
Número de bloques
Número de respuesta
Número de corridas
Grados de libertad que le queda al error
Abrimos el archivo "Tabla 3-1" que ya viene los datos completados y vamos a realizar el
análisis:
Podemos seguir el camino anterior, pero aprovechando que ya tenemos el diseño creado a
partir de DOE, vamos a hacer lo siguiente:
4
Y ponemos como datos: Resistencia. Ahora vamos a marcar los gráficos y las tablas que más
nos interesen:
Análisis gráfico:
- Scatterplot:
Como podemos ver se aprecia
que la resistencias va
subiendo como una "escalera"
según aumentamos el
porcentaje en el algodón y
luego decrece de golpe con el
35%
- Box-and-Whisker Plot:
Para poner el gráfico en
vertical vamos a Pane Options
> Vertical. Como podemos
observar nos queda algo
parecido a la forma que
seguía el gráfico anterior.
5
Tablas:
- Summary Statistics:
Para cada uno de los niveles nos da la media, la
desviación.. Podemos añadir más cosas en Pane
Options
- ANOVA:
La variabilidad total de las observaciones dan una suma total de 636,96. Las diferencias entre
(between) grupos es de 475,76 y dentro de ellos (within) es de 161,2
Además el F-ratio es 14,76, un valor muy extremo por lo que estará en la cola
derecha. El observar unas diferencias tan extremas entre los grupos no es
atribuible al azar, luego podemos afirmar que existen diferencias
significativas.
Estimación de parámetros:
Las estimaciones puntuales valen de poco, a nosotros nos interesan los intervalos de
confianza. Para hallarlos en statgraphics lo que debemos hacer es:
En tablas seleccionamos "Table of Means" y dentro de esta tenemos que ir a Pane Options y
marcar lo siguiente ya que es lo correspondiente a la formula estudiada en teoría: (ecuación 312, pág.74)
6
Obteniendo como resultado:
Lo que quiere decir
que por ejemplo
para un porcentaje
de algodón del
15% el intervalo de
confianza que
tenemos es de
[7,151 - 12,448]
La tabla ANOVA nos dice si hay diferencias significativas, pero no nos dice entre que niveles,
habría que hacer I.C para las diferencias entre las medias y si contienen al cero es que
podemos dar por válido que las medias son iguales.
Para realizar esto en statgraphics vamos a tablas y marcamos:
Tenemos diferentes métodos aunque los más recomendados son
LSD: diferencias menos significativa
Duncan
Tukey
Estos se pueden ir alternando en Pane Options y nos ordenan los niveles de las medias de
menos a más.
Las cruces en la misma vertical quiere decir
que no hay diferencias significativas entre
las medias de esos niveles. En nuestro caso
tenemos tres grupos: 15-35, 20-25 y 30.
Hay veces que tendremos cruces enlazadas que nos muestran un efecto cadena. En este
ejemplo lo encontramos con el método de Bonferroni, que nos da un efecto cadena ya que el
25 queda entre dos grupos
7
Gráficamente este lo podríamos ver marcando en gráficos Means Plot, que como vemos se
aprecia claramente los grupos que comparten medias:
Antes de haber realizado cualquiera de estas pruebas, sabemos que hay que verificar tres
hipótesis a la hora de realizar cualquier problema:



Homogeneidad de la varianza: el gráfico de residuos vs predichos no tiene que seguir
ningún patrón.
Normalidad: El plot de normalidad tampoco tiene que seguir ningún patrón
Independencia: El gráfico tiene que hacer una línea recta.
Para comprobar estas hipótesis en Statgraphics lo primero que tenemos que marcar es
- Homogeneidad de la varianza: en Residual Plots damos a botón derecho, opciones de panel y
seleccionamos la 2 opción:
Como
podemos observar el plot de residuales es bastante aceptable ya que no sigue ningún patrón.
Igual que ocurre con el siguiente test de normalidad.
-Test de normalidad: Igual pero marcando la tercera opción:
8
-Test de independencia: Nos vamos al botón
y grabamos los residuales (estos nos
aparecerán en el databook, nosotros hemos marcado que aparezca en la hoja A):
Una vez que tengamos el gráfico de normal probability plot damos a Pane Options >
9
Si aún con los gráficos tuviéramos dudas sobre la homogeneidad de la varianza podemos ir en
tablas y gráficos y marcar
. Aquí vamos a tener diferentes pruebas: de le
Levene's, Cochran, Barlets, etc. Para afirmar que hay igualdad en varianzas el p-valor de estas
pruebas debe ser > 0,05
A la vista de estos resultados podemos asegurar la homogeneidad de la varianza. (Que el pvalor de la primera, por ejemplo, sea 0,63 quiere decir que el 63% de las veces salen
diferencias como estas, no son valores extraños).
2. Verificación del modelo - Pág.83
Abrimos la tabla 3-7, donde aparecen recogidos estos datos:
10
Marcamos los gráficos 1 y 4, y dejamos las tablas que ya vienen seleccionadas. Además para
comprobar si el modelo es correcto tendremos que mirar primero el plot de residuales y la
prueba de varianza. Por tanto, marcamos también estas últimas.
Verificación del modelo:
Como vemos el plot de residuales tiene claramente forma de megáfono abierto y en todas las
pruebas de la varianza el p-valor es menor de 0,05 por tanto tenemos que corregir la
heterogeneidad de la varianza. Para ello, vamos a seguir el método empírico visto en clase:
A partir de la fórmula:
Y realizando un ajuste de regresión, determinaremos el estimador de α. Con este estimador
sacaremos el ajuste más aproximado a partir de esta tabla:
11
Con Statgraphics se haría de la siguiente forma:
1. Ajuste de regresión:
Vamos a
y marcamos Level Means y Level Sigmas. Vamos a databook y:
Nos vamos al plot of fitted Model:
Comparando término a término vemos
que α = 0,446
Vamos a la tabla anterior y vemos que para un α ≈ 1/2 la transformación que tenemos que
hacer es Raíz Cuadrada, vamos a ONE-WAY a nuestro lado izquierdo
ponemos sqrt:
y en estimación
Como podemos apreciar el plot de residuales ya no presenta forma de megáfono abierto y
todas las p-valor de las pruebas de la varianza son > 0,05. Conclusión: hemos logrado corregir
la heterogeneidad de la varianza. Además la tabla ANOVA muestra un p-valor=0,0000.
12
Abrimos el documento "3-16.sfx". Antes de empezar cualquier problema lo primero que
tenemos que hacer el chequear el modelo. Para ello vamos a ver primero si la varianza es
homogénea:
Si observamos el plot de residuales vemos que
presenta claramente forma de megáfono abierto,
no hay dudas de que hay heterogeneidad.
Para corregirlo lo primero que tenemos que hacer
es realizar la regresión de la fórmula
Vamos a
y marcamos Level Means y Level Sigmas
Obteniendo:
Por tanto; como α≈1 la transformación que tenemos que hacer es logarítmica:
13
El plot de residuales aun no nos convence mucho, ya que presenta estrangulamiento en el
medio, pero con variance check salimos de dudas ya que el p-valor de todas las pruebas es
>0,05
3. Identificación de los efectos de dispersión. (Tabla 3-12. Pág. 111)
14
Abrimos el documento tabla 3-12, y realizamos un análisis como los que llevamos haciendo
hasta ahora, poniendo en un principio la variable localización como dato.
Vamos a verificar las hipótesis de validación del modelo:
Ambos parecen correctos; el único que presenta una forma un poco preocupante es el plot de
normalidad:
Cuando tenemos puntos al principio por arriba de la recta que ajusta y después por debajo la
distribución estaría a caballo entre una distribución normal y una uniforme, cuyo resultado
sería una especie de distribución normal sin colas. Aún así, el p-valor de la prueba es 0,43 no
tenemos por qué cuestionar la normalidad.
Vamos a la tabla ANOVA y vemos que tiene un p-valor = 0.89 por lo que no tenemos
diferencias significativas, de ahí que las pruebas de rango múltiple nos den un único grupo.
15
Para investigar los efectos de dispersión vamos a utilizar el log(s), para ello basta con cambiar
el modelo actual, poniendo como dato: log(Dispersion)
Como vemos el p-valor = 0, lo que nos indica que el algoritmo para controlar la proporción
tiene un efecto de dispersión. Las pruebas estándares de la adecuación del modelo, incluyendo
las gráficas de probabilidad normal de los residuales, indican que no hay problemas con la
validez del experimento.
Si hacemos las pruebas de rango múltiple, y
escogiendo la de Bonferroni ya que no hay
solapamiento vemos con toda claridad que el
algoritmo 3 para controlar la proporción
produce más ruido del crisol o una desviación
estándar del voltaje de la celda mayor que los
otros algoritmos. No parece haber gran
diferencia entre los algoritmos 1, 2 Y 4.
Si se diera el caso en el que no se pudieran validar las hipótesis del modelo; es decir, no
podemos corregir ni la heterogeneidad de la varianza, ni el plot de normalidades, etc. Tenemos
un método alternativo a la tabla ANOVA, llamado test de Kruskal - Wallis. Si queremos hacer
este test en Statgraphics lo marcamos en tablas Su interpretación es
idéntica a la de la tabla ANOVA.
16
4. Problemas (Pág. 120)
Para empezar copiamos los datos a partir de la Excel,
seleccionamos todo (incluido el nombre) y vamos a databook de
statgraphics > marcamos la columna y seleccionamos colum names
en este caso.
a) Hacemos el análisis de la varianza (Compare > Analysis of Variance > One-Way ANOVA y lo
primero que tenemos que comprobar es la validación del modelo.
El único gráfico del que podíamos dudar es el de la homogeneidad de la varianza que tenemos
a la izquierda ya que tiende un
poco a forma de megáfono. Aun
así, si miramos las pruebas de la
varianza en todas obtenemos un
p-valor>0,05, luego podemos
afirmar que no hay diferencias
estadísticamente significativas
entre las varianzas.
17
Para responder al apartado a) tenemos que mirar la tabla ANOVA, en la que vemos un p-valor
<0,05, con lo que se concluye que tenemos diferencias significativas de conductividad debido
al tipo de recubrimiento.
b) y c) Para estimar la media global,
vamos a la tabla de medias (en pane
options: confidence intervals (pooled)).
Como podemos observar la media global
es = 137, 938. Además de aquí ya
podemos sacar el intervalo de confianza
para el tipo 4, que es = [124.416 ,
134.084]
d) ,e) y f) Para probar los pares de medias lo hacemos a través de las pruebas de rango
múltiple en donde vemos que se pueden distinguir entre dos grupos, por un lado podemos
suponer que no hay diferencias significativas entre el tipo de recubrimiento 3 y 4, y por otro
entre el tipo de recubrimiento 1 y 2. Lo mismo que podemos observar en el gráfico de medias.
Por tanto, a la vista de los resultados y puesto que lo que se quiere es mejorar la conductividad
entre el tipo 1 y 2 escogeríamos el más económico (o el que mejor nos convenga por otros
factores) dado que no hay diferencias entre ambos.
18
5. Problemas (Pág. 120)
a), b) y c) Primero tenemos que verificar las hipótesis del modelo para ello miramos los plots
de residuales y el de normalidad. Además antes de nada echamos un vistazo al Scatterplot y al
gráfico de cajas y bigotes.
Como vemos a simple vista a más diámetro vamos a tener un menor porcentaje de radón
liberado. En principio el gráfico de bigotes parece apuntar que si se va a cumplir la
homogeneidad de la varianza. Vamos a ver que nos dicen los plots:
19
El único que presenta una ligera asimetría en los datos es el plot de normalidad pero no es
suficiente para cuestionar los datos ya que el p-valor es 0,127 > 0,05. Así que en principio
podemos afirmar que se cumplen las tres hipótesis.
Con la ayuda de la tabla ANOVA podemos afirmar que el tamaño de los orificios afecta al
porcentaje promedio de radón liberado ya que el p-valor es < 0,05.
d) Para ver un I.C del porcentaje promedio de radón liberado para un diámetro de orifico de
1,40 vamos a la tabla de medias y como podemos observar este I.C es = [62.15 , 67.84]
20
e) Esto lo podemos realizar con la ayuda de means plot en el que vemos que ningún nivel de
medias coincide, salvo el nivel 140 y 199, tal y como nos muestra Duncan.
21
TEMA 4: Bloques aleatorizados,
cuadrados latinos y disenos
relacionados
Para hacer este diseño:
También en podríamos haber marcado
En la misma
pantalla marcamos
AyB
22
Abrimos el documento "tabla 4-1", donde ya vienen completados los datos. Obtenemos los
datos a partir de DOE > Analyze design y dando todo a OK.
Primero vamos a validar el modelo:
- Homogeneidad de la varianza e independencia: cómo podemos observar en los gráficos
inferiores ninguno presenta un patrón obvio.
- Normalidad: Aunque hay una ligera asimetría en los datos no es suficiente para cuestionar la
normalidad ya que el p-valor de la prueba nos da 0,3534 > 0,05. Por tanto, el análisis de la
varianza es robusto con respecto al supuesto de normalidad.
Una vez que estamos seguro de la validez del modelo ya podemos analizar la tabla ANOVA
Que el p-valor del
bloque sea 0 nos
indica que hemos
hecho bien en hacer
bloques. Aún así lo
podemos comprobar viendo que hubiera pasado si no hubiésemos bloqueado
Compare > Analysis of variance > One - Way ANOVA
23
Como vemos si no hubiésemos bloqueado nos saldría que las diferencias no son significativas
Además podemos ver que SSError + SSBloque del primero modelo = SSError del segundo
modelo:
0, 08 + 0,825 = 0,905
CONCLUSIÓN: A la vista de los resultados de la primera tabla ANOVA, vemos que si tenemos
diferencias estadísticamente significativas entre el tipo de punta.
Tabla de Medias: Solo nos interesa la del factor, al igual que en Means Plot, que como vemos
podemos hacer dos grupos: (3-1-2) y el 4. La punta 4 es significativamente más dura, cosa que
vemos también en las pruebas de rango múltiple.
Pegamos los datos a partir del excel
Siempre
tenemos que
intentar poner el
bloque al final
24
Si miramos la tabla ANOVA vemos
que la diferencia entre productos
químicos no son significativas. Ni si
quiera bloqueando hemos sido
capaces de detectar diferencias.
Sin embargo, en las pruebas de rango múltiple vemos que algunos marcan la existencia de
diferencias.
*Suponemos que los datos de la tabla son las bacterias promedio.
Compare > Analysis of variance > Multifactor ANOVA
25
Como vemos todos los plot son
aceptables salvo el de normalidad
que presenta una ligera
curvatura, pero su p-valor es
0,38.
Hay diferencias significativas
entre las distintas soluciones,
además suerte que hemos hecho
bloques porque también
afectaban para ver los
resultados.
Si lo quisiéramos comparar con el diseño sin bloques vamos a
y quitamos el bloque.
Suerte que hicimos bloques
porque si no hubiésemos creído
a juzgar por los resultados de la
tabla ANOVA que no hay
diferencias significativas entre
las soluciones.
Cuadrado latino. Pág 144
Para crear el modelo
26
Siempre tenemos que tener cuidado en el orden:
Factor A: el importante, el de dentro de la
matriz
Factor B:filas
Factor C:columnas
El modelo resultante sería el que encontramos en "Tabla 4-9"
DOE> Design Analyze - > si lo hicíeramos con multiple Regression:
Lo primero que vemos es que todos los plot de residuales son aceptables. El único que está al
límite es el de normalidad, pero lo damos por bueno ya que su p-valor es > 0,05
Los efectos del factor principal (Formulación) son relevantes; es decir, hay diferencias
significativas entre formulaciones. El factor operador también era relevante suerte que lo
hemos bloqueado. No ocurre así con el factor Lote, entre los cuales no hay diferencias
significativas.
27
Además en la tabla de medias y en las pruebas de rango múltiple vemos que tenemos
diferentes grupos: EAD en un nivel más alto que BC, aunque hay un efecto cadena. Elegiríamos
entre ABC (las más rápidas). Ninguno de los métodos no ha mostrado una partición limpia.
Todos los residuos son aceptables. Vamos a ver que dice la tabla ANOVA
Hay diferencias
significativas entre
catalizadores. Sino
hubiésemos
bloqueado no
hubiese pasado nada
ya que el p-valor de los bloques > 0,05. Además cuando el scatterplot es muy claro significa
que los bloques no están activos; es decir, que no influyen en la respuesta.
28
Tenemos una partición limpia: nos quedamos con E,
D, B que son los menores.
4.3 Diseño de cuadrado grecolatino (Pág. 151)
Para hacer este diseño:
El factor B serían las filas, el C las columnas, el A factor de interés
(letras latinas) y el D el cuadrado latino superpuesto (letras griegas)
Abrimos el documento Tabla 4-20 y tenemos dos formas de hacerlo:
- Mediante Análisis de la varianza:
29
- Mediante Analyze Design (no siempre podremos hacer el diseño con DOE, ya que con
Statgraphics esta opción solo nos deja hacer cuadrados latinos estándar por lo que es
interesante aprender a manejar las dos maneras)
Vamos a analizar los resultados:
Scatterplot: para ver qué diferencias podemos
observar desde el punto de vista descriptivo:

Plots: todos OK; incluso el de normalidad presenta una recta bastante ajustada:

Tabla ANOVA: El factor de interés presenta
diferencias significativas, pero de los factores
bloqueados solo uno es significativo; luego
no hubiese hecho falta hacer un cuadrado
grecolatino, bastaría con haber bloqueado el
factor operador solamente -> Diseño en
bloques completamente aleatorizado.

Multiple Range Test: Ya que hay diferencias significativas vamos a ver cuáles son:
Tenemos un efecto cadena, no hay partición
30
limpia; pero como lo que buscamos son valores altos en rapidez lo que está claro es que
tenemos que elegir entre el E, el A y el D.
El cuadrado latino es estándar ya que sigue la forma:
A
B
C
D
E
B
C
D
E
A
C
D
E
A
B
D
E
A
B
C
E
A
B
C
D
Sin embargo, el grecolatino es totalmente aleatorizado, por lo que no podremos hacerlo con
DOE. Copiamos los datos del excel:
Filas
Columnas
Letras latinas
Letras griegas
31
Compare > Analysis of Variance >
Vamos a analizar los datos:

Scatterplot: Sólo con ver el gráfico de la
derecha podemos intuir que va a haber
diferencias significativas.

Plots:
Se cumplen todas las hipótesis,
además vemos que la recta en el plot
de normalidad es bastante ajustada.
32

ANOVA:
El tiempo, que es el
factor de estudio, es
el único que
presenta diferencias
significativas. El
resto tienen un pvalor >0,05. Por lo
que podemos
concluir que hubiese dado igual si no hubiésemos bloqueado el resto de los factores. Esto lo
podemos comprobar haciendo un One-Way ANOVA de Yield y usando como factor el Tiempo:
Como vemos, podemos observar las diferencias significativas en función del tiempo de
procesamiento sin necesidad de bloquear más factores.
En la prueba de rango múltiple da igual que
método cojamos porque aunque nos
aparezcan solapados unos niveles con
otros no hay duda de que el que tenemos
que escoger es el A pues presenta un
mayor rendimiento.
33
TEMA 5: Introduccion a los disenos
factoriales
Para hacer estos diseños vamos a DOE> Create New Design> Multifactor categorical > Nº of
experimental factors:2 > Quitamos randomize y en réplicas ponemos 4-1= 3.
Abrimos el archivo "tabla 5-1".
Para analizar el modelo: Compare > Analysis of varianza > Multifactor ANOVA:
Si pusiéramos aquí que el Order Interaction es 1,
estaríamos haciendo otro modelo distinto -> yijk = µ + Ʈi + βj +
ɛijk
Después de verificar las hipótesis del modelo pasamos a analizar los datos.Como podemos
observar en la tabla ANOVA todos los factores son significativos, al igual que lo es la
interacción entre el material y la temperatura:
34
Dado que la interacción es significativa, si vamos al gráfico de interacción no tendríamos que
ver líneas paralelas, dado que entonces tendríamos un modelo
aditivo ->
Tal y como habíamos predicho, podemos observar que efectivamente la interacción es
significativa:
(Dando a Pane Options podemos cambiar el factor)
En la tabla de medias
podemos distinguir 3
grupos:
- Media general
- Media por filas
- Media por columnas
- Media por celdas
Si quisiéramos elegir la mejor combinación (la que da valores más altos) no basta con ver el
Multiple Range Test de los dos factores, ya que incurriríamos en el error de tratar con un
diseño aditivo de nuevo. Si hiciéramos esto cogeríamos el material 3 y temperatura 15º. Sin
embargo si miramos la tabla de medias de arriba vemos que la media más alta la da la
35
combinación del material 2 con 15º (cuando habíamos visto que el material idóneo no era el 2)
¿Cómo podemos comprobarlo?
Tene
mos
que
crear una columna nueva con la interacción: Vamos a databook, marcamos la columna donde
queremos depositar los datos > Botón derecho > Generate Data: (Además hemos llamado a
esta columna mat * temp)
Compare > Analysis of Variance > One-Way ANOVA >
Si vamos a Pane Options vemos que podemos combinar
tanto el material y la temperatura de 4 formas distintas
que nos va a dar valores muy parecidos. Como
podemos deducir, cuando hay interacción el análisis de
las comparaciones múltiples por separado pueden ser
insuficientes.
36
DOE >Create New Design>Multifactorcategorical> 3 factores experimentales > respuestas: 1.
Podemos poner en cada factor las etiquetas en pinchando en label. Replicas = 2-1 = 1. Y
quitamos randomize.
Copiamos los datos desde el Excel:

Scatterplot: a medida que hay más factores vemos menos en este gráfico.

El plot de residuales no muestra ningún patrón y frente al número de corrida tampoco
vemos nada en especial. Vamos a ver qué ocurre con el plot de normalidad de residuos:
37
Tenemos cierta anomalía, ya que el p-valor es 0,02 < 0,05 -> la normalidad está un poco
en entredicho y además vemos cierta curvatura ya que los datos están muy discretizados
(son muy parecidos todos: el 90 lo tienen todos en común: 90,1 90,2...) -> Mal arreglo:
para resolver problema de normalidad no tenemos ninguna transformación que nos
garantice que vamos a arreglar el problema sin alterar otras cosas.
 Gráfico de interacción: vemos que estas líneas son paralelas por lo que seguramente
la interacción no va a ser significativa. Aunque hay un cierto cruce en el descenso es
más o menos de la misma magnitud. Lo comprobamos con la tabla ANOVA.

ANOVA: Tal y como vaticinábamos la interacción no es significativa, pero ambos factores si
lo son por separado; tanto la temperatura como la presión afectan al rendimiento :
38
Aunque hemos ajustado el modelo de interacción la tabla ANOVA nos muestra que el modelo
que necesitaríamos es el aditivo. Vamos al “max orde interaction” y quitamos la interacción
(ponemos 1)
Como vemos la fila de residual absorbe a la de la interacción pero las filas de A y B no han
cambiado para nada, tan sólo los F-ratios. (esto ocurre siempre)
En lo que sigue utilizaremos ya el modelo aditivo.
Vamos a volver a mirar en este nuevo modelo la normalidad. -> Ya se ha corregido: p-valor >
0,05 -> nos quedamos más tranquilos.

Multiple Range Test: Hemos llegado a la conclusión de que hay diferencias pero queremos
analizar estas diferencias para ver cual nos interesa desde el punto de vista industrial.
Si miramos las gráficas elegiríamos de Temperatura: 150 ó 170 ya que ofrecen rendimientos
parecido; 160 ofrece un rendimiento significativamente menor.
Presión: tampoco es lineal, la mejor es la presión media.
Por tanto, desde el punto de vista industrial deberíamos combinar 150 o 170 grados de
temperatura con una presión de 215. Ya que el modelo es aditivo nos serviría con este único
análisis.
39
DOE >Create New Design>Multifactor categorical> 2 factores experimentales > Factor A: 3
niveles > Factor B: 4 niveles > respuestas: 2. Podemos poner en cada factor las etiquetas en
pinchando en label. Replicas = 2-1 = 1. Y quitamos randomize.
Copiamos los datos desde el Excel (primero tenemos que modificar el Excel dando a buscar y
remplazar los puntos por las comas. Ya que Statgraphics no trabaja con puntos):
EXCEL
40

Scatterplot: Si miramos el scatterplot (aunque son visiones parciales del problema) vemos
que parece que crece la variable respuesta en los dos casos a medida que aumenta el
factor:

Plots de residuales: Todos los residuos parecen correctos (contra predichos, contra el
número de filas, etc). El plot de normalidad: hay una ligera curvatura pero pasa el test de
normalidad p-valor =0,3737 > 0,05
Gráfico de interacción: las líneas son casi paralelas pero hay una cierta convergencia,
cuando la velocidad es baja los valores de la respuesta están más separadas que luego. Y
en cuanto a la profundidad: las dos de arriba son bastantes paralelas y la de abajo va
convergiendo hacia ello. A lo mejor hay diferencias significativas, vamos a verlo en la

ANOVA:
Efectivamente hay interacción. Los otros dos factores son claramente significativos. Por tanto
influye la profundidad de corte y velocidad de alimentación pero no de forma aditiva sino que
hay una cierta interacción. En este caso si tenemos que dar recomendaciones tenemos que
hacer un análisis mayor.
41
Lo primero que tenemos que mirar es la tabla de medias.
Vemos que la variable respuesta
crece a medida que crecen ambos
factores. Y si miramos los cruces
como los dos factores apuntan en
la misma dirección vemos que el
valor máximo está en la
combinación de los dos niveles que
producen por separado valores
más grandes, y el siguiente igual.
Aunque podemos observar que hay
un 104 mucho más atrás. Vamos a
hacer una comparación de medias
múltiples. (4*3 = 12: haríamos la
comparación de las 12 medias)
Vamos a databook> llamamos a la columna A*B >Generate data (si no nos deja convertimos
todas las columnas en caracteres):
La combinación que produce valores más
grandes es 0,3 0,25. Pero hay otras
combinaciones que en principio nos ofrecería
resultados equivalentes: (0,3 0,25 y 0.25 0.25)
42
Apartado 5.3.6 -> El supuesto de no interacción en un modelo de dos factores
Abrimos estos datos y hacemos una ANOVA de la duración en función de la temperatura y el
material sin interacción.
En este plot se observa una
especie de curvatura, de unos
grupos a otros hay
oscilaciones hacia arriba y
hacia abajo. Esto es fruto de
que al modelo le faltan
parámetros relevantes que no
hemos medido (le falta la
interacción) –> Falta de
parametrización del modelo.
Si metemos la interacción
vemos que cambian las
cosas: el plot de residuos
deja de tener esta dolencia;
los bloques están centrados
en la línea del cero.
Otro ejemplo:
Para verlo con más claridad vamos a crear un diseño 3x3
Factor A y B con tres niveles cada 1. Replicas: 3, quitamos
la aleatorización:
43
Vamos a formular el siguiente modelo:
Y = A + B +A*B + ε el error sigue una normal N(0, 0.5).
En la columna 4 del databook>Generate Data (primero ponemos todas las columnas en
numérico)
BNORMAL(corridas, medias,
desviación típica)
Vamos a compare >ONE WAY anova> SIN INTERACCIÓN. Vemos el plot de residuales con
mucha curvatura.
Si metemos un orden de interacción 2 desaparece la curvatura.
44
Antes estábamos queriendo predecir las observaciones sumando solamente un efecto fila y un
efecto columna. Si omitimos la interacción es imposible recuperar la validez del modelo.
¿Que hemos hecho en este modelo?
Y = A+B+A*B
Así por ejemplo en la fila 1,2 tenemos
= 1 + 2 +1*2 ≈ 5.
En la 2,3 -> 2 + 3 + 2*3 ≈ 11
Y el parámetro sigma si recordamos lo
habíamos estimado como 0.5 (N(0,
0.5)) -> MSE de la tabla ANOVA =
0,259 = √0.5
Apartado 5.3.7- Una observación por celda
Si solo hay una observación cuando queremos ajustar el modelo no hay datos suficientes…
Si sumamos los grados de libertad vemos que el resultado es a*b
Tenemos a*b datos + 1 (porque tenemos σ)
1 a-1
b-1 (a-1)*(b-1)
ab-a-b-1
Y en estadística esto es imposible no podemos estimar más datos
que parámetros tengamos.
Conclusión: SOLO PUEDE UTILIZARSE ESTE MODELO CUANDO
HAY INTERACCIÓN
Para verlo mejor vamos a la tabla 5- 10
Compare > Analysis of Variance > Multifactor ANOVA >
Metemos orden de interaccion 2:
45
No hay F-ratios porque no hay residual. El modelo está saturado: no hay residuos. EL modelo
pasa por todos los puntos ya que tiene tantos datos como parámetros. Todos los residuos son
ceros -> se dice que el modelo está saturado.
Si que tenemos tabla de medias que es el valor en sí mismo ya que solo hay un dato -> La
media de un dato es el propio dato.
46
No tenemos un contraste de hipótesis para la interacción pero si podemos hacer un análisis
gráfico.
No podemos estar seguros pero si podemos apreciar que las líneas son razonablemente
paralelas, puede ser útil estimar el modelo sin interacción.
Vamos a las opciones de análisis y quitamos la interacción -> ya sí que tenemos tabla ANOVA:
Prescindiendo de una interacción que no parece que vaya a ser muy importante visto el gráfico
de interacción y ajustando un modelo aditivo vemos que son significativas la temperatura y la
presión sobre las impurezas.
Como lo que buscamos es obtener valores pequeños de impureza, nos interesa temperatura
baja (150) y con 40 y 30 de presión. No necesitamos hacer más porque el modelo es aditivo.
¡¡¡Ojo cuando hay una sola réplica, si no vemos claro el plot de interacción no nos fiemos!!!
47
Ejemplo 5-3 – Pág. 197
Abrimos tabla 5-13. Compare > Analysis of variance > Multifactor ANOVA

Scatterplot: Los gráficos descriptivos frente a los factores (scatteplot) nunca son
concluyentes. Si se muestran diferencias claras lo más seguro es que sea significativo. Pero
también puede ocultares.

Grafico de interacciones : solo se pueden dobles. Parecen poco importantes, casi todas
paralelas. Vemos las 3 pares de combinaciones cambiando desde pane options
48

plots de residuales: Vemos que los plots de residuales son OK, el de residuos frente a
predichos como solo hay dos replicas en cada celda hay dos observaciones, que no nos
llame la atención porque cuando hay uno por arriba lo hay también por abajo no nos
asustemos. y el hecho de que los valores sean enteros también le quitan variabilidad.

SI vamos a la ANOVA vemos que no hay interacciones. La AB (Carbonatación- Presión ->
Marcada en Rojo) está en el límite: la más cerca de ser significativa, pero desde el punto de
vista estadístico si queremos mantener un alfa = 0,05 no lo es.
Tenemos un modelo razonablemente aditivo con una ligera interacción entre AB, que a lo
mejor no la estamos viendo por tener solo dos replicas.

Multiple Range Test y tabla de
Medias: En este caso interesa para
la variable respuesta que este lo
más cerca del cero, vamos a la
tabla de medias y vemos que
habría que combinar la
carbonatación 10, con la presión
25 y la rapidez 200.
49
Queda más cerca del 0 la combinación 10,30 que la 10, 25 puede ser porque el modelo no es
del todo aditivo.
Si queremos ver la combinación de las 3 en un Multple Range Test: generate data en la
columna 6
Hacemos un ONE WAY anova de la rapidez de llenado frente a la columna 6:
Las combinaciones que más se
parecen al 0 son la (10 25
250), la (10 30 200) y la (10 25
200).
50
Lo mismo que observamos en el test de Rango Multiple de la página siguiente.
Es un análisis un poco pobre ya que solo tenemos dos datos por celda.
Apartado 5-6 - FORMACIÓN DE BLOQUES EN UN DISEÑO FACTORIAL
51
En definitiva, tenemos que intentar asociar las réplicas al factor bloque. En este caso
tendríamos como parámetros A, B, A*B Y
interacciona con los demás).
(factor bloque que va sólo y no
Tabla 5-18
Compare > analysis of variance > Multifactor ANOVA.
Metemos primero el Operador porque es el que queremos bloquear, tenemos que
meter max order = 2, pero tenemos que dar al botón exclude de la derecha, y sacar la
de operador y ruido y operador con filtro
Como vemos la tabla ANOVA tiene las 3 filas de los efectos principales y la interaccion solo
tiene la del ruido con el filtro, vemos que el ruido y el filtro son significativoS. La interaccion
aunque es mayor que 0,05 no la podemos obviar porque esta muy cerca.
Si hubiesemos obviado el operador (que ahora aparece como significativo) los resultados de
haber ignorado el posible efecto de los operadores no modifica ni la suma de los cuadros ni los
ms (nunca cambian). El residual absorbe los 402,167 del operador. De ahí que en la nueva
tabla ANOVA, el residual sea 568,5 (=166.33+ 402,167). Al engrosar el denomiandor los pvalores son menos rotundos que antes. Y la interaccion esta mucho mas lejos de ser
significativa. No tendriamos demasiada mala suerte porque el ruido del factor operador no nos
oculta las cosas.
52
Abrimos el archivo tabla 5-18. Compare > Analysis of variance > Multifactor ANOVA > Max
Order interaction: 2, excluyendo:
53

Gráfico de interacciones: No está muy claro sólo con el gráfico. No son paralelas pero
tampoco se cruzan ni se ve una clara tendencia de las interacciones. A ver que nos dice la
tabla ANOVA


Plots de residuales: Vemos que los plots de residuales son OK.
SI vamos a la ANOVA vemos que todos los factores por si solos son significativos, pero no
lo es la interacción entre el ruido y el filtro aunque tampoco la podemos obviar ya que el pvalor es muy próximo a 0,05.

Multiple Range Test: dado que la interacción no es significativa se trataría como un
modelo aditivo, por lo que para ver que combinación nos da la mejor solución basta con
mirar las pruebas de rango múltiple.
Tendríamos que coger (si lo que se pretende es tener la menor intensidad) un ruido bajo,
combinado con el filtro 2. Además puesto que los operarios difieren en habilidad, el
operario que menos tarda en desempeñar la tarea es el operario 4.
54
Compare > Analysis of variance > Multifactor ANOVA > Max. order interaction = 3.
Lo primero que tenemos que asegurarnos es que el modelo sea valido -> Todos los plots ok;
aunque parecen un poco extraños es porque son completamente simétricos (sólo 2 réplicas)
por lo que no tenemos que preocuparnos.
Vamos a ver las gráfica de interacción:
55
A la vista de las gráficas, parece que ninguna es completamente paralela, sobre todo la
marcada en rojo ya que mientras que para el mismo valor de "hardwood" con una presión
(400) la resistencia baja y para otra (500) sube. Por el contrario, la gráfica de la izquierda
aunque hay cruce los niveles de la respuesta son bastante parecidos. Vamos a ver si esto
coincide con la tabla ANOVA:
Efectivamente, vemos que todos los
factores son significativos de manera
individual y de las interacciones tan
solo es significativa la AC, aunque las
demás no están lejos de serlo (en
términos estadísticos si podríamos
prescindir de ellas). La interacción
triple no parece que sea significativa.
Si hubiésemos ajustado el modelo a
una interacción doble no hubiesen
cambiado las cosas.
Tenemos que buscar la mejor combinación de los tres factores implicados en el modelo para
conseguir la mayor resistencia del papel, para ello y poder saber que combinación de niveles
entre los factores nos proporciona la mayor resistencia, utilizamos JUXTAPOSE para crear una
variable artificial combinando los tres factores y realizamos un estudio de análisis de la
varianza con esa nueva variable.
Aunque el factor B no aparece en ninguna interacción doble y triple como significativa hay que
tenerlo en cuenta porque como factor sí que lo es, ya lo vimos en el análisis de tabla ANOVA.
Hacemos un ONE WAY anova de la resistencia frente a esta nueva columna ->
Podemos coger cualquier
combinación de las filas
señaladas en azul que son las
que nos daran mayor
resistencia.
56
Compare > Analysis of Variance > Multifactor ANOVA > Score frente al resto.
Lo primero que tenemos que verificar es la validez del modelo -> Todos los plots ok incluido el
de normalidad con un p- valor de 0,2727.
Vamos a ver las gráficas de interacciones a ver que nos muestran:
Las tres gráficas parecen indicar una
clara significación de la interacción
entre los factores; sobre todo las dos
primeras. La gráfica de la izquierda
(operador-temperatura) sin embargo
no es tan "escandalosa" como las
demás: al pasar del operador 2 al 3 el
descenso es casi paralelo con ambas
temperaturas.
57
Como vemos en la tabla ANOVA
todos los factores son
significativos, al igual que todas las
interacciones salvo de la que
hablábamos anteriormente.
Parece claro que el operador no
fuese in simple factor bloque; ya
que interacciona con el factor A de
manera rotunda. Y la interacción
triple también.
Si tuviéramos que dar nuestra opinión en cuanto a la mejor combinación vamos a databook>
Generate Data>
Y hacemos un análisis de la varianza de la puntuación frente a esta nueva columna. Si vamos a
multiple Range Test vemos que podemos coger cualquier combinación de las señaladas en azul
que nos darán puntuaciones parecidas (suponemos que buscamos las máximas).
58
El día aparece como un tercer factor pero en realidad queremos bloquearlo. En este caso, está
claro que no podemos estudiar las interacciones triples y se supone que las interacciones
dobles solo nos interesaría la de presión y temperatura porque el otro factor seria bloque
Tenemos un modelo
Si el modelo está recogiendo muy bien la variabilidad el plot de interacción no tiene por qué
ser significativo.
59
Si miramos la tabla ANOVA vemos que la interacción no parece significativa -> Se puede ajustar
al modelo aditivo porque el termino de la interacción no parece significativo.
Lo que aporta al
modelo es ruido
Si lo quitamos aumenta el σ. Vamos a ver qué ocurre si no tenemos en cuenta el factor bloque:
Si desbloqueamos el factor día, el efecto presión no va a ser significativo según la tabla ANOVA
y eso es erróneo porque el estudio anterior nos muestra que si lo es. Esto se debe a que
aumenta el error y por tanto su MSE por lo que los F-ratios disminuyen ya que F = /MSE
Desde el punto de vista industrial pretendemos maximizar el rendimiento. Como el modelo es
aditivo podemos ir a la tabla de medias y no haría falta utilizar el JUXTAPOSE
La mejor es 270- high La media
mejor por celdas es la combinación
optima individual.
60
Como siempre lo primero que tenemos que hacer es validar las hipótesis del modelo. Nos
encontramos con un plot de residuales que tiende a forma de megáfono abierto, luego ya viola
la hipótesis de heterogeneidad de la varianza:
Vamos a ver qué trasformación es la mejor para corregir esto: Para ello, vamos a seguir el
método empírico visto en clase:
A partir de la fórmula:
Y realizando un ajuste de regresión, determinaremos el estimador de α. Con este estimador
sacaremos el ajuste más aproximado a partir de esta tabla:
61
Con Statgraphics se haría de la siguiente forma: Lo primero que tenemos que hacer es un
juxtapose en la siguiente columna de la frecuencia y el medio ambiente para realizar un anális
de varianza con un sólo factor (aunque en realidad es la suma de los dos), para poder sacar
level means y level sigmas, ya que esta opción solo está disponible en ONE-WAY anova. Una
vez que tenemos esto:
Ajuste de regresión:
Vamos a
y marcamos Level Means y Level Sigmas. Vamos a databook y:
Nos vamos al plot of fitted Model:
Comparando término a término vemos
que α ≈ 1
Vamos a la tabla anterior y vemos que para un α ≈ 1 la transformación que tenemos que hacer
es Logaritmo, vamos a ONE-WAY a nuestro lado izquierdo
log:
y en Crack Growth ponemos
62
Como podemos apreciar el plot de residuales ya no presenta forma de megáfono abierto y
todas las p-valor de las pruebas de la varianza son > 0,05. Conclusión: hemos logrado corregir
la heterogeneidad de la varianza.
Ya podemos volver a nuestro multifactor ANOVA y hacer la transformación de forma que
comprobamos que los plots ya están corregidos:
Con esta corrección vemos que tanto los factores de forma individual como la interacción son
significativos:
Para comprobar con cual nos quedaríamos desde el punto de vista industrial ya tenemos
nuestro ONE-WAY Anova hecho de antes, bastaría con ir a Multiple Range Test y como vemos
las combinaciones que más rápido hacen crecer las grietas son 0,1 con agua, ya sea salada o
normal.
63
Copiamos los datos del fichero Excel. La variable Dopping es el factor A, que cuenta con dos
niveles. El otro factor es la temperatura del revenido (3 niveles)
Compare > Multifactor Anova> Max order interaction: 2
Aunque estos gráficos no nos
dan mucha información, sí
que parece que la corriente
base va aumentando a
medida que aumenta la
temperatura de revenido.
Además comprobamos que
todos los plots de residuales
están OK
64
Los gráficos de interacciones parecen paralelos, luego veremos que dice la tabla ANOVA:
Vamos a la tabla ANOVA, y vemos que la interacción está al borde, no es significativa al 5%
pero prescindir de ella en el modelo es un poco temerario ya que su p-valor esta cerca del
límite. Los efectos principales asociados a los factores son significativos, especialmente la
temperatura.
Si prescindiéramos de la interacción (bajando el orden de la interacción del análisis), vemos
que aumentando el MSE al factor A le cuesta más ser significativo, ya no lo es al 1%. La
variabilidad explicada también disminuye un poco.
Además, al quitar la interacción vemos que el plot de residuales tiene un grupo negativo, otro
positivo, luego por debajo, luego por encima.. -> falta de ajuste.
65
Aunque el grueso de la variabilidad lo recoge el factor B, al meter la interacción
aparentemente no ganamos mucho, pero a pesar de eso el modelo ha ganado mucho en
ajuste, aunque no a nivel de explicación. Aunque la mayoría de la variabilidad está recogida en
el modelo con los parámetros que le metemos y pensemos que podemos eliminar los
parámetros no significativos, si los eliminarnos puede haber falta de ajuste.
A la vista de los resultados lo volvemos a poner con la interacción de orden 2. Si quisiéramos
ver que nos interesa más desde el punto de vista industrial podemos ir a la tabla de Medias,
pero como la interacción estaba al límite debemos mirar las celdas cruzadas. Si quisiéramos
hacer una comparación de los niveles desde el punto de vista estadístico hacemos un
juxtapose y posteriormente el análisis de varianza de una vía.
Como vemos los mejor resultados, son los
marcados en azul.
Además en el apartado d) tenemos que analizar este modelo de regresión
Si solo tenemos dos niveles no hay diferencia entre hacer regresión o análisis de la varianza,
cuando queremos ajustarlo es como intentar ajustar una recta por dos puntos, ésta va a pasar
por ella si o si. Por ello da igual si estas variables son cuantitativas o cualitativas. Si hubiera 3
niveles ya no valdría
Con el x2 lo que estamos haciendo es meter un término más otro término cuadrático
66
Y el penúltimo factor lo que quiere intentar es meter la interacción, dando una forma
matemática esta aunque no tiene por qué ser como la fórmula ajustada.
Vamos a estudiarlo con el Statgraphics: Relate >Multiple factor >multiple regression
El modelo es significativo y además todos los términos que hemos metido son significativos en
presencia de los demás. Este modelo se ajusta razonablemente a los datos, además tiene un
R2 del 98%
En los plots como hay pocos puntos se ven constelaciones extrañas, pero son razonables.
Si comparamos las dos tablas ANOVA (regresión con multifactor):
Análisis de la
varianza
Regresión
67
En la regresión la variabilidad explicada es de 112. La suma de todos los termino suman los
mismo que la regresión = 0,399 y 0,388, de tal forma que meternos en las celdas a estimar las
medias es prácticamente equivalente a este modelo matemático de regresión en la que
estamos dando una ecuación global a lo que ocurre en estas celdas, ya que las medias
estimadas son prácticamente las mismas en las dos.
Además si comprobamos los plots de residuos (que tienen la característica de cuando hay dos
replicas solo) se parece bastante el de regresión con el Multifactor Anova.
68
TEMA 12: Experimentos con factores
aleatorios
Hasta ahora todos los factores eran considerados como efectos fijos, todos los factores tenían
unos niveles específicos que interesaban a la solución.
Esto no siempre es así, en algunas situaciones experimentales, los niveles de los factores se
eligen al azar de una población más grande (teóricamente infinita) de niveles posibles. No nos
importa en absoluto como afectan estos niveles elegidos a la respuesta, lo que quiero es sacar
conclusiones sobre la población completa de niveles. En esta situación se dice que se trata de
un factor aleatorio –> modelo de efectos aleatorios: un modelo en el que los factores tienen
niveles que no se representan a sí mismos sino que son representantes de una población de
niveles.
También se conoce como modelo de componentes de la varianza, porque en vez de aportar
parámetros que tienen que ver con las medias aportan parámetros que tienen que ver con las
varianzas.
Los experimentos no van a ser puramente con efectos aleatorios o efectos fijos, tendremos
situaciones mixtas. Ejemplo:
Y = rendimiento
A = método de fabricación (3 métodos concretos)
B= operador con controla el proceso (son muchos y elijo varios al azar para el
experimento)
Lo que vamos a estudiar es como el rendimiento se ve afectada por trabajar con un
método u otro y cuanta variabilidad aporta el trabajador a la respuesta.
Lógicamente también nos vamos a encontrar con la interacción (A*B) en la que con
que uno de los términos sea un factor aleatorio, convierte el producto en aleatorio.
12.1. MODELO CON EFECTOS ALEATORIOS
Para entender este modelo vamos a basarnos en el siguiente ejemplo:
69
Este ejemplo ilustra un uso importante de los componentes de la varianza: la separación de las
diferentes fuentes de variabilidad que afectan un producto o sistema.
Vamos a tener:
 Y = respuesta = Resistencia
 A = factor de efectos aleatorios con a niveles (elegidos al azar) – 4 telares al azar
i = 1…a = 4 (los telares elegidos al azar)
j = 1..n = 4 (las 4 determinaciones de la resistencia = 4 observaciones por cada telar)
*Se supone que el diseño es completamente aleatorizado.
¿Cómo podemos modelar esto matemáticamente?
Donde tanto τi como ɛ¡j son variables aleatorias, por lo que vamos a tener dos parámetros
sigmas: στ y σ. Para probar hipótesis en este modelo se requiere que:
τi v.a. N(0, στ)
ɛ¡j v.a. N(0 , σ)
Además vamos a suponer que son independientes todos de todos; entonces la varianza de las
observaciones Var (yij) =
Por eso a este modelo se le llama de componentes de la varianza.
Ahora las hipótesis de interés son:
Si στ = 0, todos los tratamientos son idénticos; pero si στ > 0, existe variabilidad entre los
tratamientos. En nuestro ejemplo aceptar la hipótesis nula implica aceptar que la varianza es
0; es decir, que da igual estar fabricado en un telar que en otro que no va a haber una
variabilidad extra.
* Ocasionalmente, el método del análisis de varianza produce una estimación negativa de uno
de los componentes de la varianza; si ocurre puede ser por un mal diseño del problema, pero a
efectos prácticos cuando salga negativo vamos a considerarlo como 0.
En cuanto a la ANOVA, las cosa no van a cambiar mucho
70
Que hacemos con estos SS para contrastar estas hipótesis. Vamos a hacer un test F en el que:
.
Cuanto más grande sea más se rechaza la hipótesis
nula
Intuitivamente la mecánica es la misma, dividimos lo que explica el factor entre lo que no
explica. Pero además de ser de sentido común la clave está en esto:
Como siempre, esta ecuación es
invariante en todos los modelos
Matemáticamente en muy diferente, pero en la práctica lo resolvemos igual.
Estimación de los parámetros:
En el modelo de efectos aleatorios el rechazar o aceptar una hipótesis nula resulta pobre. Nos
interesa dar una estimación de los parámetros
Es decir, cuánto vale aproximadamente στ y σ y luego dar un porcentaje de estos para poder
ver así los márgenes de mejora.
Lo que no tiene ningún interés aquí es la prueba de rango múltiple, ya que elegimos los telares
en este caso al azar. Solo miramos la variabilidad que nos da los telares a la respuesta para ver
si tenemos que buscar proveedores más homogéneos etc. Las medias carecen de interés, lo
que cuentan son los componentes de la varianza.
¿Cómo se estiman los componentes de la varianza? -> Con el método de los momentos.
E(MSE) = σ2
-> MSE = σ2
sustituimos el estadístico por su valor esperado
E(MStratamientos) = σ2 + nστ2 (como ya tenemos estimado el sigma^2) - > MSEtrat = MSE +nστ2
->despejamos el estimador de
στ2
Vamos a resolver este problema con statgraphics
Abrimos tabla 12-1
Compare >analysis of variance > one-way anova : resistencia vs telar
Como podemos observar todos los plots ok, se cumplen las hipótesis de validez del modelo.
71
Vamos a ver que dice la tabla ANOVA:
El total de la variabilidad es 111, 937. Rechazamos la hipótesis nula ya que p-valor < 0,05, es
decir podemos afirmar que hay una variabilidad extra que añade la diferencia de los telares al
proceso de fabricación.
Nos gustaría estimar los componentes de la varianza y porcentualizarlo. Tenemos que coger
los MS (el σ2 ya está
estimado ya que y es = 1.8958
2
Para estimar el στ -> Compare>Analysis of variance > variance components > Resistencia vs
telar (hay que meter los factores en orden de anidamiento). Como vemos la tabla ANOVA
cambia:
El στ2 se estima en 6,95. Las diferencias entre los telares son casi del 80%: este proceso tiene
importante oportunidad de mejora si somos capaces de proveernos de telares que trabajen de
valores de manera más homogénea.
**Esta manera de estimar el στ2 sólo es válida con los modelos factoriales de un factor.
Esto puedo tener mucha importancia en el ámbito de control de la calidad. Imaginemos que
tenemos unos límites de especificación: la respuesta tiene que estar metida entre unos límites.
A la vista de esta imagen vemos que tenemos una alta tasa fuera de especificaciones. Esta
curva tiene la varianza VAR (ij) que como sabemos tiene dos componentes, una que no es
atribuible a nada en concreto y otra a la variabilidad de los telares. Si fuéramos capaces de
disminuir esta varianza (en el caso extremo erradicar la variabilidad debida a los telares)
tendríamos una curva como la siguiente:
72
Compare >analysis of variance > one-way anova : calcium vs Batch
Rechazamos la hipótesis nula ya que p-valor < 0,05, es decir podemos afirmar que hay una
variabilidad extra que añade los lotes en el contenido del calcio.
Nos gustaría estimar los componentes de la varianza y porcentualizarlo. Tenemos que coger
los MS (el σ2 ya está
estimado ya que y es = 0.00438
Para estimar el στ2 -> Compare>Analysis of variance > variance components > Calcium vs
Batchs (hay que meter los factores en orden de anidamiento) . Como vemos la tabla ANOVA
cambia:
73
Nuestro suministrados de lotes tiene un problema porque tiene mucha variabilidad, o a lo
mejor es muy complejo el proceso y no podemos disminuir la variabilidad. Lo importante es
saber que la hay para poder analizarlo; no siempre vamos a poder disminuir esta variabilidad.
74
Es muy frecuente diseñar experimentos estadísticos para valorar la capacidad de actitud de los
sistemas de medida (R&R) ya que cualquier sistema de medida añade variabilidad a la
respuesta.
Se han seleccionado 20(= a) piezas del proceso de producción -> Factor A
Factor B -> Tres operadores elegidos al azar (b=3). Cada operador mide cada una de las piezas
un número n de veces (n = 2).
Si lo modelamos matemáticamente :
75
Como todas las variables son aleatorias independientes, vamos a tener 4 varianzas:
reproductibilidad
Variabilidad total Varianza de las
piezas
**Algunos autores llaman
(calibrador)
Varianza de los
operadores
repetibilidad
Varianza de la
interacción
Error experimental
aleaotrio
a reproductibilidad del instrumento de medición
ya
repetibilidad del instrumento de medición. De ahi el nombre de experimentos R&R
(reproductibilidad y repetibilidad)
En statgraphics:
Abrimos la tabla 12-3
Compare > Analysis of Variance > Multifactor ANOVA Operador vs pieza y operario.
En la tabla ANOVA no nos sirve de nada los p-valores dado que los F-ratios ahora no nos
interesa que se hagan siempre usando MSE como denominador: damos a pane options y nos
deja cambiar el término de error
76
Entonces tenemos que las piezas tienen un p-valor = 0, son diferentes entre si. EL operario y la
interaccion no son significativos pero lo que nos interesa es la interacción.
Tenemos que hacer estas estimaciones a mano. Que son los resultados que veiamos
Una vez que tenemos el valor de todos los estimadores calcularíamos su porcenaje (sabiendo
que la suma de todos los estimadores es 11,285:
0.99
= 0.0887 = 8.77%
11.285
0.015
= 0.0001 = 0.1%
11.285
10.28
= 0.91 = 91%
11.285
El error de medida es del entorno al 9%. Las diferencias entre unas medidas y otras en este
caso son del 9% debido a nuestra incapacidad para medir.
Dentro del error de medida:
= 0.1 + 0 = 0,1% se debe a la reproductibilidad
= 8.77% se debe a la repetibilidad.
77
Como nos ha salido un componente negativo, el de la interacción, y por ello lo consideramos
como nulos podríamos haber ajustado este modelo a un modelo reducido (sin interacción) y
así la reproducibilidad solo tendría un componente. (Bajamos el orden de interacción a 1)
Puesto que no hay término de interacción, los dos efectos principales se prueban contra el
término del error, y las estimaciones de los componentes de la varianza son
Por último, la varianza del calibrador podría estimarse como
La variabilidad del calibrador parece ser pequeña en comparación con la variabilidad del
producto. Se trata generalmente de una situación deseable, la cual implica que el calibrador
tiene la capacidad de distinguir entre las diferentes gradaciones del producto .
12.3. MODELOS MIXTOS CON DOS FACTORES:
Hace alusión a modelos donde en el mismo diseño experimental podemos tener efectos fijos y
aleatorios.
Tenemos un factor A con a niveles fijos cuya influencia en la variable respuesta queremos
estudiar, mientras que el factor B es aleatorio: hace alusión a toda una población de niveles
posibles que tiene ese factor; es decir, lo que quiero es averiguar cuanta variabilidad añade
este factor a la variable respuesta.
¿Cómo se formula? El modelo estadístico lineal es:
78
Este modelo con esta restricción sería un modelo restringido. Es una restricción muy artificial y
de difícil justificación. Muchos paquetes estadísticos no tienen este modelo.
Las expresiones de los cuadrados medios en este caso son:
Porque es un
efecto fijo
En este modelo los parámetros de interés son:
τ1, ..., τa -> Factor A
σβ -> Factor B
στβ -> Interacción
Las hipótesis que tenemos que contrastar ahora son:
H0 = τ1, ..., τa =0
MSA
H1= τi ≠0
MS(AB)
2
H0 = σβ =0
H1= σβ2 ≠0
H0 = στβ2 =0
2
H1= στβ ≠ 0
MSB
MSE
MS(AB)
MSE
Cuando el modelo es mixto también hay que estimar los parámetros.
79
Nosotros vamos a utilizar el modelo no restringido. El modelo no restringuido es más sencillo.
Ahora tenemos que las varianzas de los betas, que en este caso llama gammas, etc. y no se
hace ninguna restricción sobre los
Las esperanzas de los cuadrados medios serían:
También tenemos que estimar los parámetros.
Para verlo en Stagraphics hacemos el ejemplo 12-3, para el cual abrimos el archivo tabla 1203.
Si hacemos un multifactor anova, todos los f- ratios están basados en el MSE, con las opciones
de panel tenemos la posibilidad de cambiar los denominadores de los F-test. Por ejemplo, en
este modelo el operario y la pieza se hace contra la interacción y la interacción contra el
residual (lo que manda el modelo no restringido).
80
Otra manera de hacerlo:
Si no le pongo nada mas - modelo aditivo. Lo que tenemos que hacer es:
Solo con marcar la primera opción de las tablas, nos ofrece unos datos muy relevantes, donde
vamos a encontrar dentro de este panel:
La primera tabla nos
muestra un test de
significación del
modelo genérico,
donde podemos
comprobar que
existen diferencias significativas entre las medidas ya que el p-valor es 0.
81
La segunda tabla es la que tiene los tres efectos por separado, sería la misma que el
multifactor ANOVA que acabamos de hacer.
La tercera tabla son estas fórmulas de las esperanzas de los cuadrados medios
Los números entre paréntesis son los sigmas cuadrados de las filas correspondientes a la tabla
anova, el (4) quiere decir σ2. Para entenderlo mejor, la varianza de la fila cuatro (residual) es =
σ2.
Si lo que queremos comprobar es la E(MSA) = E(MSOperario):
Operario -> (4) + 2(3) + Q1:
(4) = σ2
2*(3) = 2* (sigma cuadrado de la interacción -> 3 fila) = 2*στβ2
Las Q son términos del tipo de suma de cuadrados asociados a efectos fijos.
Cuando tengamos un modelo de tres factores, tendremos hasta (8): efectos por separados,
efectos dobles, efecto triple y error.
La siguiente tabla F-test denominators nos indica quien son los denominadores
Por último tenemos los componentes de la varianza (si todos fueran aleatorios tendríamos 4
componentes de la interacción) en este caso solo tenemos tres: el asociado al factor, a la
interacción y al error.
82
El operario*pieza sale negativo -> nulidad de ese efecto,
evidencia muy claro en favor de la hipótesis nula de sigma
beta.
Solo nos faltaría la porcentualización
También nos encontramos con información sobre los los R^2
Antes deberíamos haber comprobado los plots. El plot de residuos tiene un aspecto un poco
extraño pero tienen que ver con la discreción de la variable.
El plot de normalidad lo podemos hacer desde este mismo gráfico, botón derecho > Pane
Options:
83
También tenemos l opción de realizar el Multiple Range Test; solo nos interesaría el operador,
ya que para los efectos aleatorios carece de sentido.
Tal como decía la tabla
ANOVA no hay diferencias
entre operarios.
12.6. PRUEBAS F APROXIMADAS -> PSEUDO F-TEST
A partir de dos factores, en modelos que no sean puramente de efectos fijos (si fuera solo de
efectos fijos es el sigma cuadrado más otras expresiones) se complican.
Los pseudo f-test lo que hacen es buscar combinaciones lineales de los MS de tal manera que
arriba y abajo quede el parámetro de contraste:
Combinaciones Lineales de MS
Combinaciones Lineales de MS
de forma que me quede MS del efecto a contrastar / Combinaciones lineales de MS sumando y
restando.
Mediante fórmulas aproximadas podemos dar unos grados de libertad aceptables.
Vamos a ver por ejemplo como sería en algunos casos:
Por ejemplo, ¿cómo contrastaríamos el efecto A, aquí arriba nos da una pista:
Si sumamos MSA + MSABC / MSAB + MSAC ≈ MSA / MSAB + MSAC - MSABC
MSA + MSABC
MSA
≈
MSAB + MSAC
MSAB − MSAC + MSAC
84
Para hacer esto en statgraphics, metemos la tabla 12-13 que proviene del ejemplo 12-7
¿Cómo se han hecho estos test -f?
85
Los denominadores son:
Cuantos componentes tendrá la varianza, el número de filas menos el factor fijo Temperatura:
operador, manómetro,..., en total: 7
Todos aquellos que sean efectos fijos tendrán en sus esperanzas medias un término Q.
Problema 12-21.
Copiamos los datos del ejercicio 21.
El operador es de efectos aleatorios, cosa bastante razonable. Y la temperatura y la duración
de ciclo son efectos fijos.
Si queremos analizar estos datos:
86
Todos los plots parecen correctos, veamos el de normalidad.
87
Podemos apreciar algo de curvatura pero es normal. Aun así si queremos ver el p-valor,
tendríamos que grabar los residuos y realizar un Normal probability plot. Obtenemos un pvalor = 0,27
Ahora miramos en el primer panel de los cuadrados medios esperados.
Tenemos dos efectos fijos (Temperatura y tiempo de ciclo) por tanto la interacción entre
ambos también va a ser fijo.
El más complicado es el del operador porque no tiene ningún denominador exacto. Entonces
para este efecto haremos un pseudo F-test, es decir, una aproximación de F-test.
88
Además, si echamos un ojo a la tabla ANOVA:
Desde el punto de vista estadístico vemos que los p-valores son bastante altos. Pero tenemos
el de triple interacción y el de ciclo con operador que son menores de 0,05. Luego, aunque por
sí solos no encontramos diferencias significativas, sí que lo hay en las interacciones.
El tiempo de ciclo no es significativo, la temperatura tampoco y la interacción entre ellos dos
tampoco. Por lo tanto, los efectos fijos en este modelo no son significativos desde el punto de
vista estadístico.
Nos centramos entonces en los modelos de efectos aleatorios. En este caso no interesan las
pruebas de rango, nos interesa porcentualizar los componentes de la varianza.
La única información relevante tiene que ver con la variabilidad que aporta al proceso la
intervención del operador, como vemos en la tabla anterior todo lo que aporta variabilidad
tiene entre sus factores el operador.
El σ2=3.28 por lo tanto no es el componente de la varianza más importante, es decir, si
pusiéramos las estimaciones de las varianzas de los factores del modelo en % respecto del
total de la variabilidad obtendríamos que el mayor porcentaje de variabilidad del modelo es
debido a la interacción "cycle*operator".
Para obtener la variabilidad total, sumamos 2.64+12.89+2.75+3.28=
Sobre la variabilidad total que observamos en la producción el 85% está influenciada por
distintos aspectos debidos a la labor del operador, es decir, que vamos a tener un amplio
recorrido de mejora que tiene que ir en la dirección de adiestramiento, formación... dado que
son los operadores los que añaden una mayor variabilidad al resultado.
89
Abrimos los datos HICK TAB 10-03.
Tenemos dos factores aleatorios (days and operators) y uno fijo (gate settings). Los operadores
son siempre los mismos cada día, luego no están anidados -> General Lineal Models
90
Todos los plots OK
Lo primero que miramos es la tabla de p-valores.
Lo más significativo estadísticamente es la interacción triple. Los demás son algo significativos,
pero todos vinculados al operador. Otra cosa muy reseñable es que el primero de los p-valores
es prácticamente nulo. Si que vamos a tener que decir algo sobre los efectos aleatorios, es
decir, cuál es la puerta que nos conviene (MRT)
La tabla de los componentes de la varianza tiene un valor nulo, y el resto son muy pequeños.
No por ello, no van a ser importantes, lo que tenemos que hacer es porcentualizarlo. Llegamos
a la misma conclusión que antes, el operador juega con un papel muy importante en la
variabilidad, adiestramiento, formación, etc.
Source
Estimate
DAY
0
OPERATOR
0,00373472
GATE*DAY
0,000531944
GATE*OPERATOR
0,00205833
DAY*OPERATOR
8,47222E-05
GATE*DAY*OPERATOR0,00107639
Residual
0,000325
Total
0,007811106
Porcentaje
0,00 %
47,81 %
6,81 %
26,35 %
1,08 %
13,78 %
4,16 %
Si miramos la tabla de los cuadrados medios esperados solo aparece un Q1, es decir solo hay
un parámetro de efectos fijos
91
Cuando esta tabla tiene saltos bruscos y no “baja” en escalera, nos indica que vamos a tener
que utilizar f-test. Efectivamente, como vemos en la tabla siguiente las 3 primeras son
combinaciones:
Con respecto a las puertas tendríamos que hacer el MRT; los tres tipos de puertas se
comportan de manera diferente:
Vamos a hacer otro problema de R&R (Reproducibilty & Repetibilty) - Problema 12-9
Como todas las variables son aleatorias independientes, vamos a tener 4 varianzas:
reproductibilidad
Variabilidad total Varianza de las
piezas
Varianza de los
operadores
repetibilidad
Varianza de la
interacción
Error experimental
aleaotrio
92
**Algunos autores llaman a reproductibilidad del instrumento de medición (calibrador)
ya
repetibilidad del instrumento de medición. De ahí el nombre de experimentos R&R
(reproductibilidad y repetibilidad)
En este modelo los dos factores son de efectos aleatorios:
Lo primero, como siempre, es mirar los plots de residuales que como vemos parecen bastante
aceptables.
Los R&R requieren de un análisis más detallado. Nosotros vamos a ir a los componentes de la
varianza, la única variabilidad que aporta al sistema de medida tiene que ver con la
repetibilidad, el ruido está en las distintas mediciones que hace el operador en cada pieza, en
el
aparato. De reproductibilidad no hay nada, ya que = 0.
Como este Stagraphics es muy utilizado industrialmente tenemos un paquete especial
dedicado a la calidad - SPC - gage studies > ANOVA method:
93
Ahora tenemos que decir si lo ajustamos con o sin interacción; en un principio vamos a poner
la interacción.
Esta tabla ANOVA es la misma, pero nos saca una columna al final con los porcentajes, ésta nos
dice que la repetibilidad es el 100% de la medida. La columna a su izquierda indica la
variabilidad debido a las piezas (56%) y debida a la repetibilidad 46%.
Una vez que sabemos que no hay interacción quitamos del modelo la interacción. Como vemos
es muy parecida a la anterior. La columna a su izquierda indica la variabilidad debido a las
piezas (56%) y debida a la repetibilidad 45%.
94
TEMA 13: Disenos anidados y de
parcelas subdivididas
Para entender este capítulo vamos a ver el ejemplo 13. 1
Los diseños anidados lo que plantean es otra forma de relacionarse los factores entre sí.
Lo que tenemos aquí es una variable respuesta (pureza) y otros dos factores: proveedor y lote.
Y = pureza
Factor A = Proveedor -> a =3 (efectos fijos)
Factor B = Lote -> b = 4 (efectos aleatorios)
n = 3 -> número de réplicas
95
La diferencia fundamental con los diseños que veíamos antes es que ahora cada lote va a ser
de un proveedor, no podemos hacer una tabla cruzada. En este caso tenemos un esquema
anidado o jerarquizado.
P1
P2
L1 L2 L3 L4
L1 L2 L3 L4
P3
L1 L2 L3 L4
Modelo jerarquizado en dos niveles en este caso. Estos niveles se caracterizan porque los
niveles de un factor están anidados bajo otro factor. La interacción ahora deja de tener
sentido, antes la interacción era el efecto particular que producía la interacción de los niveles
de los distintos factores. Por lo que vamos a tener un término menos.
¿Cómo se formula este modelo matemáticamente?
Necesitamos un subíndice para la rama principal (i), otra para la rama secundaria (j) y otro para
la replicaciones (k). Se suele poner j(i) para indicar el anidamiento de B en A.
Resulta conveniente considerar que las réplicas están anidadas dentro de la combinación de
los niveles de A y B; por lo tanto, se usa el subíndice (ij)k para el término del error. Se trata de
un diseño anidado balanceado, ya que hay el mismo número de niveles de B con cada nivel de
A y el mismo número de réplicas. El no balanceo aquí podía tener muchas fuentes.
¿Cómo hacemos ahora el ANOVA?
-
El primer término mide el efecto del factor A.
El segundo término pretende explicar el efecto del factor B anidado en A; es decir, las
diferencias entre las subramas.
Finalmente, el último factor representa el error aleatorio; las diferencias dentro de las
subramas.
Entonces la variabilidad total se compone de:
96
¿Qué hacemos ahora con estos cuadrados medios para construir los F-test?
Necesitamos conocer las esperanzas; esto va a depender de muchos factores. Existen tres
posibilidades: que ambos fueran de efectos fijos, de efectos aleatorios, o A fijo y B aleatorio (el
A aleatorio y B fijo no existe, no tiene sentido).
De ahí que al modelo matemático haya que añadirle unas restricciones, similares a las que
hacíamos en los efectos factoriales.
Contraste de hipótesis
Para saber cómo tenemos que hacer los contrastes de hipótesis en cada caso, la siguiente
tabla resume los tres modelos que podemos encontrarnos.
- Para contrastar el factor A y B en el caso de efectos fijos dividimos el MS(A) y el MS(B) entre
el MSE.
- En el caso de efectos aleatorios, nos queda una batería de expresiones telescópica, de abajo
arriba se va sumando la fila anterior más otro término. En este caso para los test-F tendremos
que dividir cada fila por la siguiente.
- En el modelo mixto también queda telescópico, la única diferencia es el término asociado al
factor A.
Vamos a hacer el ejemplo con Statgrpahics.
Abrimos la tabla 13-3.
Todos los modelos se resuelven con general lineal models, salvo cuando todos los factores son
completamente aleatorios para lo cual vamos a tener una herramienta específica.
97
Ahora sí que son interesantes los scatterplot: buscamos las diferencias entre proveedor. En el
caso del lote no interesa tanto ya que es un factor aleatorio.
Los gráficos de residuos son más o menos correctos.
En el caso de la tabla ANOVA, vemos que está descompuesta en dos:
La primera de ellas tiene que ver con el ajuste general y una especie de test de significación de
la regresión.
Pero sobre todo, la que más nos interesa a nosotros es la segunda, donde tenemos las tres
filas de efectos a estudiar. A la vista de esta tabla vemos que las diferencias entre purezas no
están causas por las diferencias entre proveedores.
La primera fila lo que muestra es el contraste:
H0 = τi = 0
H1 = τi≠ 0 para todo i
Con lo que concluimos a la vista de los resultados que el cambio del proveedor no es la causa
de las diferencias globales que observamos en la respuesta.
98
En el segundo caso, lo que estamos contrastando es:
H0 = σβ2 = 0
H1 = σβ2 ≠ 0 para todo i
A la vista de la tabla ANOVA vemos que las diferencias entre lotes sí que
proporcionan un aumento de la variabilidad de la pureza. Pero lo importante
es decir cuánto representa en tanto por ciento. Para ello miramos la tabla de
variance check que si lo hacemos porcentualmente vemos que más o menos
el 40% se debe diferencias entre lotes y 60% variabilidad de residual.
Para el caso del proveedor, factor fijo como ya habíamos visto en la ANOVA, no tiene
diferencias significativas. Los comprobamos con el MRT.
Los cuadrados medios esperados, para el proveedor es una suma de tres componentes donde
aparece un Q1 (señal de que es efecto fijo).
También podemos ver los denominadores asociados.
99
Vamos a suponer que ambos factores son aleatorios. Compare > Analysis of variance >general
lineal models:
Tenemos el típico plot de residuos simétricos porque solo hay dos réplicas. El plot de
normalidad sigue una distribución muy uniforme; si grabamos los residuos vemos que el plot
de normalidad nos ofrece un p-valor <0,05. Mal arreglo...
100
Si vemos el gráfico de bigotes (del análisis de normalidad), y vemos que los cuartiles son
idénticos, es el gráfico típico de una distribución uniforme. Este hecho se deberá seguro a que
los datos son artificiales. Como tiene mal arreglo no vamos a hacer nada, simplemente tomar
con cautela los p-valores. Para hacer este gráfico, tenemos que ir a:
Y meter como variables respuesta: Residuals.
Volvemos a la tabla ANOVA, y vemos el esquema telescópico de las esperanzas de los
cuadrados medios.
Al ser los dos efectos aleatorios vamos a la tabla de variance componentes para
porcentualizarlos.
Las diferencias entre máquinas son del 39 % y de las maquinas en función de cada operador
casi también -> Mucha oportunidad de mejora.
También podíamos haberlo hecho (solo cuando sea un modelo con TODOS los efectos
aleatorios y jerarquizados) con:
Compare >Analysis of variance> componentes de la varianza
¡¡Ojo al orden en que lo metemos!!
101
Esta tabla ANOVA es diferente a la que estamos acostumbrados, nos saca los componentes de
la varianza y su porcentualización. No se molesta en poner los p-valores porque interpreta que
no son necesarios.
*¿Qué pasaría si quisiéramos abordar estos datos desde el punto de vista de un multifactor
ANOVA?
Si comparamos esta tabla con la anterior, vemos que el ANOVA tiene elementos en común: la
suma de cuadrados total va a ser la misma. La suma de cuadrados del factor A, que es el
primero en la línea de anidamiento va a ser el mismo, lo que cambia es que la fila del operador
bien analizada (jerarquizado) se compone de lo que resulta de sumar el B más la interacción.
Los grados de libertad también son la suma.
Si solo tuviéramos programada la herramienta del multifactor ANOVA, podríamos hacer este
análisis sumando la suma de cuadrados del B más la interacción. Sólo valdría para esto, la
suma de cuadrados tendríamos que analizarla.
Resumiendo, tenemos una herramienta específica para los modelos jerarquizados, por cuando
son puros, (todo con factores aleatorios) tenemos una herramienta especial. Lo que no vale es
hacer un multifactor ANOVA, habría que arreglar la tabla.
Abrimos HICK 11.2
Todos los plots OK.
Miramos la tabla ANOVA; la máquina no es significativa, pero la cabeza casi sí. No tenemos
ningún componente de la varianza al ser todos fijos.
102
Podemos mirar en la tabla de medias, para ver las
diferencias, habría que buscar los valores más bajos.
Tendríamos que ir sincronizando en cada rama donde hay
problemas. Si hubiera diferencia entre las máquinas
iríamos al test de comparaciones múltiples.
103
Todos los plots ok
Vamos a la tabla ANOVA y tenemos que las diferencias entre la aleación no son significativas.
Las diferencias entre hornadas están en el borde de ser significativos, si que hay que tenerlas
en cuenta.
Aunque no sea significativo el factor anidado desde el punto de vista del componente de la
varianza, el 35% aproximadamente de la variabilidad se debe entre las diferencias de los
lingotes.
El modelo es un poco pobre, las hornadas en sí mismas se prestan mucho más a ser de efectos
aleatorios. Estas hornadas deberían ser representantes de la infinita población que puedo
tener. Por ello volvemos a plantear el modelo poniendo la hornada como un efecto aleatorio:
Los cuadrados medios esperados de la aleación son diferentes cuando la hornada es fija que
cuando es aleatorio.
Esta forma telescópica sólo se produce cuando el
diseño tiene el primer efecto fijo (que siempre sea
el primero) y el resto aleatorios
104
Las hornadas nos afectan un componente de la varianza muy grande: más
del 50%. No hay diferencias entre aleaciones. Tenemos que armonizar las
hornadas ya que introducen mucha variabilidad, y dentro de las hornadas
también hay que armonizar los lingotes.
No lo podemos analizar con Variance components, porque no son todos aleatorios; la
porcentualización no sería correcta.
EJEMPLO CALIDAD:
No pensemos que las unidades son un factor, son las réplicas.
Abrimos los datos “Calidad”
Recordemos que estamos en un Modelo de componentes de la varianza:
- Todos los efectos son aleatorios
- Completamente aleatorizado.
E(MSA) = σ2+ O*σγ2 + O*σβ2 + O*στ2
E(MSB(A)) = σ2+ O*σγ2 + O*σβ2
E(MSC(AB))= σ2+ O*σγ2
E(MSE) = σ2
Esto es lo que decimos forma telescópica, cada uno de ellos se calcula restando el MS
correspondiente a la fila anterior menos la fila suya y la constante que corresponda, en este
caso lo hemos representado por O.
Si analizamos estos datos con General Lineal Models:
105
Lo único que no tenemos aquí son los componentes de la varianza que los tenemos debajo, lo
que pasa es cuando un componente sale negativo, modifica las expresiones de los
componentes de la varianza.
El tercer componente sería (2.93-0.756)/5, el segundo saldría de hacer (1,532-2,93)/10. Para
conocer el numerador basta con mirar la tabla ANOVA, el denominador lo sacamos de:
También podemos estudiar este problema con VarianceComponents:
106
¡Muy importante el
orden!
Todos los plots de residuales parecen aceptables. Pasamos a mirar la tabla ANOVA:
Lo normal es que las sumas de cuadrado vayan en orden creciente. En este caso como la suma
de los cuadrados es 9, que es menor que la de las máquinas (23) sale negativa.
Tendríamos ya la porcentualización de los componentes de la varianza: el 60% variabilidad
residual atribuible a otras cosas que no hemos considerado en el experimento. La
heterogeneidad de la fabricación producen diferencias entre los lotes que representan un 34%,
las maquinas sólo un poco.
¿Por qué cambian los compontes de la varianza?
General Lineal Models:
Variancecomponents
Las dos últimas coinciden pero a partir de operarios no, ya que la tabla ANOVA nos dice que el
σβ2es 0. Ahora el 0(2) de la tabla siguiente va a ser 0.
107
Si lo quitamos de estas fórmulas, vemos que al MS(A) le restamos el MS(C(AB)), no con el
MS(AB). Tendríamos que hacer caso al segundo análisis (componentes de la varianza), ya que
no tiene en cuenta al signo negativo de los componentes de la varianza, sino que lo considera
nulo, como debe ser. Tenemos que prestar especial atención cuando el componente sea muy
negativo.
MODELO FACTORIAL ANIDADO O ANIDADO FACTORIAL (Pág 569):
En experimentos con factores múltiples, algunos factores pueden estar incluidos en un arreglo
factorial yotros estar anidados. En ocasiones a estos diseños se les llama diseños factorialesanidados. Por supuesto, vamos a seguir teniendo la posibilidad de que unos efectos sean de
efectos fijos y otros aleatorios.
El análisisestadístico de un diseño así con tres factores se ilustra en el ejemplo siguiente.
108
Los arreglos y los dispositivos son fijos y los operadores son elegidos al azar-->Modelo mixto
El operador está anidado en el arreglo (parámetro γ), como esta anidado no tiene sentido la
interacción betta- gamma (operador-arreglo). Pero sí que va a haber interacción del operador
con el arreglo y operador-dispositivo.
Si hiciéramos el ANOVA factorial, consideraría los términos de interacción que no son, ya que
no tendría en cuenta el anidamiento.
Abrimos la "tabla 13-09"
Recordemos que nosotros utilizamos los modelos NO RESTRINGIDOS si queremos compararlo
con los datos que ofrece el libro de Montgomery.
109
Vemos que tiene tres componentes paramétricos; el del dispositivo, el arreglo y la interacción.
(Q1,Q2 Y Q3)
Vamos a tener 3 componentes de la varianza: todo lo relacionado con el operador, ya que éste
es aleatorio.
Si observamos el plot de residuos, éste muestra una estructura simétrica con respecto al 0,
debido a que sólo hay dos réplicas.
El plot de normalidad tiene una ligera curvatura pero no especialmente llamativa. Sin embargo
si grabamos los residuos y hacemos el plot de normalidad con ellos el test de Shapiro–Wilk nos
muestra un p-valor muy próximo a cero -> rechaza la normalidad. Tenemos que tomar los
datos con precaución.
110
Pasamos a ver la tabla ANOVA: Los dispositivos sin son importantes pero la interacción y el
arreglo no. Los p-valor de los componentes de la varianza no nos importan.
Miramos en variance components.. Todo lo que hace referencia a los operadores es digno de
tener en cuenta a la hora de pensar en mejora, ya que más de la mitad de la variación es
debido a ello. (1,57 + 1,08)/total(5) = 53%
Ahora tenemos que elegir que dispositivo nos interesa más. SI vamos a MRT vemos que
claramente que entre el dispositivo 1 y 3 no hay diferencias significativas en cuanto al tiempo
medio; sin embargo el dos es diferente y bastante mayor.Como interesa minimizar el tiempo
escogemos el 1 y 3.
Los arreglos como era de esperar no tiene diferencias. No hace falta ver la justa posición ya
que los p-valores no son muy importantes.
111
Siempre: para los efectos fijos buscar las diferencias y para los aleatorios los componentes
de la varianza.
... .. ...
1. Plantear el modelo y explicar sus términos:
Variable respuesta Y = disparos por minutos (DPM)
A = Métodos: Efecto fijo -> Nuevo y antiguo
B = Constitución física-Grupo-> Efecto fijo -> Ligeros, medianos y pesados
C = Hombres- Equipo- > Efectos aleatorio, anidado en constitución física.
2 réplicas
112
El modelo lineal para este diseño es:
1,2
1,2,3
1,2,3
1,2
Donde τi es el efecto del método i-ésimo, βj es el efecto de la constitución física j-ésimo,
es el efecto del hombre k-ésimo dentro del nivel j-ésimo de la constitución física,
interacción método-constitución física,
constitución física y
es la
es la interacción método-hombre dentro de
es el término de error usual.
Tanto
,
, como ɛ(ijk)l son variables aleatorias independientes, supondremos
también que estas variables aleatorias siguen una distribución normal con media cero y
varianzas dadas por V(
observación es:
)=σγ, V[(τγ)ik(j = στγ y V(ɛ(ijk)l) = σ. Por tanto, la varianza de cualquier
V(yijkl) = σγ + στγ + σ
y σγ , στγ y σ son los componentes de la varianza.
En cambio, τi , βj y
son efectos fijos tales que ∑𝑎𝑖=1 𝜏𝑖 = 0: ∑𝑏𝑗=1 𝛽𝑗 = 0 y ∑𝑎𝑖=1 𝜏𝛽(𝑖𝑗) =
0 ∀j ∑𝑏𝑗=1 𝜏𝛽(𝑖𝑗) = 0 ∀𝑖 . Es decir, la suma de los efectos del tratamiento A(métodos) y la
suma de los efectos del tratamiento B(grupos) , así como la suma de los efectos de la
interacción, es cero.
- Validar el modelo
113
Vemos que tiene tres componentes paramétricos;
el del método, la constitución física y la
interacción. (Q1,Q2 Y Q3)
Vamos a tener 3 componentes de la varianza:
todo lo relacionado con el equipo, ya que éste es
aleatorio.
Si observamos el plot de residuos, éste muestra una estructura simétrica con respecto al 0,
debido a que sólo hay dos réplicas. Es razonablemente aleatorio.
El gráfico de residuos frente al número de fila nos da mala espina: todas las observaciones de
la primera parte tienen signo negativo y la segunda signo positivo. Si vamos a los datos, vemos
que siempre la segunda réplica es mayor, lo que quiere decir que de la primera réplica a la
segunda globalmente ha habido un aumento. Esto lo que quiere decir es que no se ha
aleatorizado convenientemente, puede ser que haya habido un aprendizaje que se manifiesta
en que la primer réplica siempre sea menor. Lo que pasa es que como está repartido no va a
afectar mucho pero hay una estructura inadecuada. Lo único bueno es que ha afectado a
todos los factores por igual.
114
El plot de normalidad tiene una ligera curvatura pero no especialmente llamativa. Si grabamos
los residuos y hacemos el plot de normalidad con ellos vemos que el test de Shapiro–Wilk nos
muestra un p-valor>0,05
-> Soporta la normalidad.
115
- Estimar los efectos fijos, si los hubiere.
Una vez que ya tenemos validado el modelo pasamos a ver la tabla ANOVA: El método
utilizado si es importante pero la interacción y el grupo no. Con lo cual lo relevante es el
método. Los p-valor de los componentes de la varianza no nos importan.
Ahora tenemos que elegir que método interesa más, sólo tenemos en cuenta el método ya
que es el único. SI vamos a MRT vemos que el método nuevo es mejor que el antiguo ya que
buscamos maximizar
los
disparos por minuto.
Entre los grupos, como era de esperar no hay diferencias; es decir no importa la constitución
física de los hombres.
Estimar los componentes de la varianza y sacar conclusiones.
Los componentes de la varianza que tenemos son: el equipo dentro del grupo y la interacción
de éste con el método. Si miramos los p-valores de estos componentes vemos que en el caso
del equipo estaba en el borde de ser significativo y el de la interacción era muy grande.
Aunque no tiene una relación lineal si vamos a Variance Components vemos que para la
interacción, que tenía el p-valor tan grande da negativo, en el caso del Equipo(Grupo) que
estaba en el borde de ser significativo tenemos una estimación de la varianza en 1,19.
Miramos los cuadrados medios esperados para rehacer esta tabla considerando el
componente negativo como 0. y además porcentualizamos.
116
Ahora el estimador del equipo viendo
la tabla izquierda será:
(MS(C(B)) – MSE )/ a = 1.05
Source
EQUIPO(GRUPO)
METODO*EQUIPO(GRUPO)
Residual
Mean Square Estimate
6,54306
1,058125
1,78694
0
2,31056
2,31056
TOTAL
3,368685
Porcentaje
31,41 %
0,00 %
68,59 %
Conclusión: de las metodologías las nuevas son sustancialmente mejor, produce en promedio
8 disparos más o menos y de los factores aleatorios que el grupo hay que tenerlo en cuenta ya
que introduce una variabilidad extra.
** Recordemos que el gráfico de residuos frente al número de fila nos daba mala espina. Si
ponemos en el fichero de datos una nueva columna llamada réplica, donde las 18 primeras
sean un 1 y las 18 segundas 2. Vamos a general lineal models y ponemos los mismos efectos
que antes pero añadiendo el factor D
Como vemos en la tabla ANOVA la réplica es significativa de manera clara.
117
Además vemos que ya el método*equipo ya no tiene un estimador negativo
Es decir una parte de la que antes veíamos como variabilidad residual está asociado a los
equipos. Estaría mejor analizado este modelo.
Variable respuesta Y = rendimiento
A = Ajustes de potencia: Efecto fijo -> 1,2
B = Máquinas-> Efecto fijo -> 1,2,3
C(B) = Estaciones- > Efecto fijo, anidado en máquina -> 1,2,3
3 réplicas
El modelo lineal para este diseño es:
1,2
1,2,3
1,2,3
1,2,3
Donde τi es el efecto del ajuste i-ésimo, βj es el efecto de la máquina j-ésima,
de la estación k-ésima dentro del nivel j-ésimo de máquinas,
Máquina,
error usual.
es el efecto
es la interacción Ajuste-
es la interacción ajuste-estación dentro de máquina y
es el término de
118
Todos los efectos, salvo el error son fijos luego habría que añadir las restricciones:
∑𝑎𝑖=1 𝜏𝑖 = 0:
∑𝑏𝑗=1 𝛽𝑗 = 0
∑𝑐𝑘=1 γk(j) = 0
∑𝑐𝑘=1(τγ)ik(j) = 0 ∀i
∑𝑎𝑖=1 𝜏𝛽(𝑖𝑗) = 0 ∀j
∑𝑎𝑖=1(τγ)ik(j) = 0 ∀k
∑𝑏𝑗=1 𝜏𝛽(𝑖𝑗) = 0 ∀𝑖
Si miramos el scatterplot en principio sí que parece que puede haber diferencias en el ajuste
de potencia, el de la máquina no está tan claro y el del anidado no nos dice prácticamente
nada.
El gráfico de interacción las tres líneas son paralelas (Power Machine). También lo son en el
segundo factor (Yield Machine)
119
Vemos que todos tienen componentes paramétricos; ya que todos son de
efectos fijos.Por ello, el único componente de la varianza va a ser el
relacionado con el error. Todos los cocientes de la tabla ANOVA son contra
el error como estábamos acostumbrados en los multifactoriales.
Antes de empezar a sacar conclusiones tenemos que validar el modelo:
Como vemos, ambos son
bastante aceptables. El plot
de normalidad tiene una
ligera curvatura pero no
especialmente llamativa
Una vez que ya tenemos validado el modelo pasamos a ver la tabla ANOVA: Todos los factores
resultan significativos, además de la interacción del ajuste con la estación (anidada en
máquina). No ocurre esto con la interacción ajuste-máquina.
120
Ahora tenemos que elegir que combinación nos interesa más, teniendo en cuenta que hay que
maximizar los rendimientos, vamos a MRT:
La potencia como vemos tendríamos que elegir la 1 que tiene en promedio 8 puntos de
diferencias más. En cuanto a la máquina dos son comparables: la 3 y la 2. En cambio
preferimos la 1.
Lo que pasa es que hay interacción, vamos a la tabla de medias y vemos que la de mayor
rendimiento es la potencia 1 en la máquina 1 y la potencia 1 en la máquina 2. Como ya
sabíamos la potencia 1 producía más rendimiento y dentro de esta la maquina 1, que es lo que
nos decía también las pruebas de rango múltiple. La interacción ha empujado en la misma
dirección
* ¿Qué pasaría si hubiesen sido las máquinas de efectos aleatorios? Solo tendríamos que
poner que B es aleatorio porque si un factor cuelga de otro aleatorio, como es el caso de C,
este pasa directamente a ser aleatorio. Como podemos observar en la tabla inferior, aunque
no hayamos marcado C como random, tiene componente de la varianza.
En este caso los test F cambian de manera radical los contrastes de hipótesis. Además de la
tabla ANOVA que vemos ahora la maquina no es significativa. La estación y la interacción
tampoco. El último sí. Es decir la estructura es completamente diferente por eso no es trivial
comprender bien el modelo y formularlo bien.
121
Variable respuesta Y = resistencia
Tamaño de la barra: efecto fijo -> 1.0, 1.5 o 2.0 pulgadas -> 1,2,3
Fabricante-> Efecto fijo -> 1,2,3
Hornadas- > Efectos aleatorio, anidado en fabricante -> 1,2,3
2 réplicas
El modelo lineal para este diseño es:
1,2
1,2,3
1,2,3
1,2,3
Donde τi es el efecto del tamaño de barra i-ésimo, βj es el efecto del fabricante j-ésimo,
es el efecto de la hornada k-ésima dentro del nivel j-ésimo de fabricantes,
interacción Tamaño de la barra- Fabricante,
hornada dentro de fabricante y
es la
es la interacción tamaño de la barra-
es el término de error usual.
122
Vemos que tiene tres componentes paramétricos; el de la barra,
el fabricante y la interacción. (Q1,Q2 Y Q3)
Vamos a tener 3 componentes de la varianza: todo lo
relacionado con la hornada, ya que éste es el factor
aleatorio.
Si observamos el plot de residuos, éste muestra una estructura simétrica con respecto al 0,
debido a que sólo hay dos réplicas.
123
El plot de normalidad tiene una ligera curvatura pero no especialmente llamativa. Si grabamos
los residuos y hacemos el plot de normalidad con ellos vemos que el test de Shapiro–Wilk nos
muestra un p-valor>0,05 -> Aceptamos normalidad.
Una vez que ya tenemos validado el modelo pasamos a ver la tabla ANOVA: Ni los efectos fijos
ni su interacción presentan diferencias significativas.
Miramos en variance components y además porcentualizamos
Source
Heat(Vendor)
Bar Size*Heat(Vendor)
Residual
Estimate
0,00263
0,000257
0,000404
0,003292
Porcentaje
79,90 %
7,82 %
12,28 %
Todo lo que hace referencia a las hornadas es digno de tener en cuenta a la hora de pensar en
mejora; casi el 88% de la variabilidad de la respuesta es debida al a la hornada; tendremos que
intentar armonizar las hornadas.
No hace falta hacer los multiple range test ya que ningún efectos fijo ha sido significativo.
124
Material adicional: Introduccion al
control estadístico de procesos
(temas 12 y 13)
LIE
LSE
En este caso se dice que el sistema tiene capacidad
1, ya que la distribución está justo dentro de los
intervalos LIE y LSE.
La varianza total de cualquier observación va a ser igual VarY = σy2 + 𝝈𝟐𝒎𝒆𝒅𝒊𝒅𝒂 . Si soy capaz
de desprenderme de σmedida2 la campana se hace más ajustada, mucho mejor.
Vamos a tener dos ratio para medir la capacidad:

P/T (Razón Precisión/Tolerancia): !Ojo! El el sigma no la varianza - > √𝝈𝟐𝒎𝒆𝒅𝒊𝒅𝒂
Interpretación:

Porcentaje de la variabilidad de medida sobre variabilidad del producto:
125
2. En el fichero MEDIDA.sf3 se muestran los datos de un estudio para valorar la capacidad de
un sistema de medida.
Se han tomado al azar 20 piezas y se han realizado dos mediciones en cada pieza.
e) Valorar la capacidad del sistema de medida aplicando un modelo de componentes de la
varianza.
f) Hacer lo mismo aplicando el método de Medias y Rangos.
g) Valorar la capacidad del sistema de medida si los límites de especificación para el
producto son 22 ± 2.
e) Valorar la capacidad del sistema de medida aplicando un modelo de componentes de la
varianza.
Es un experimento de un único factor A = piezas. Estas se han elegido al azar, luego es de
efectos aleatorios. Esquema de árbol de un solo nivel, el más sencillo posible.
El modelo lineal sería: Yij = µ + τi + ɛij
i = 1...20
j = 1,2
τi v.a. N(0, στ)
ɛ¡j v.a. N(0 , σ)
Además vamos a suponer que son independientes todos de todos; entonces la varianza de las
observaciones Var (yij) =
Variabilidad
entre las piezas
Variabilidad sistema
de medida
Vamos a Analysis of Variance > Variance components:
Vemos que la variabilidad total se divide en dos partes: 9,566 se debe a las piezas (la varianza
que yo tendría si el sistema de medida fuese impecable) y el 0,75 es la varianza del sistema de
medida.
126
c) Valorar la capacidad del sistema de medida si los límites de especificación para el
producto son 22 +- 2.
Entonces el P/T ratio lo podemos calcular: (ojo el sigma que nos da la tabla ANOVA es al
cuadrado, tenemos que hacer su raíz)
Este es igual a
𝑃
𝑇
=
6∗√𝝈𝟐
𝒎𝒆𝒅𝒊𝒅𝒂
𝐿𝑆𝐸−𝐿𝐼𝐸
=
6∗0.866
4
= 1,3
Estamos hasta por encima de 1, este sistema de medida es un desastre o los límites de
especificaciones son irreales.
3. En el fichero EXAMP 9-8bis.sf3 se muestran los datos de un estudio R&R para valorar la
capacidad de un sistema de medida.
Se han tomado al azar 20 piezas y 3 operarios y cada operario ha realizado dos mediciones
en cada pieza.
a) Estimar los componentes de la variabilidad del sistema de medida mediante un modelo de
análisis de la varianza.
b) Hacer lo mismo aplicando el método de Medias y Rangos.
c) Valorar la capacidad del sistema de medida si los límites de especificación para el producto
son 22 ± 2.
a) Estimar los componentes de la variabilidad del sistema de medida mediante un modelo de
análisis de la varianza.
Todos los plots OK. Vamos a ver la tabla ANOVA:
127
El que las piezas tengas un p-valor 0 es lógico y esperable lo que importa es lo demás, para ello
miramos la tabla de componentes de la varianza.
Tenemos un componente negativo, que es el operario, pero no podemos
quitarlo porque está la interacción. A veces, hay que dejar los modelos
más sencillos pero manteniendo un principio de jerarquía; si yo tengo la
interacción AB porque es importante no puedo quitar el factor B.
Reproducibilidad
Repetibilidad
De estos componentes los que tienen que ver con la medida son las 3 última filas. La pieza no
está dentro ni de repetibilidad ni de reproductibilidad.
*En este caso convertir en 0 el 𝜎 2 de los operarios no modifica los otros valores.
Statgraphics tiene un paquete especial para estos análisis:
Vemos que es la misma
tabla que habíamos
obtenido antes. Sin
embargo, no ofrece
una tabla más (la que
tenemos debajo) que
nos da el porcentaje de reproductibilidad y repetibilidad.
128
**Nosotros
tratamos la
interacción como
reproducibilidad.
Lo de las piezas solo nos interesa para ver qué porcentaje representa lo otro. El porcentaje en
el R&R no nos da el sigma de medida.
Para hacer el P/T ratio hay que tener la raíz cuadrada de la suma de (1,197+0,99) = σβ2
𝟐
𝑃 6 ∗ √𝝈𝒎𝒆𝒅𝒊𝒅𝒂 6 ∗ 1.478
=
=
= 2,21
𝑇
𝐿𝑆𝐸 − 𝐿𝐼𝐸
4
P/t ratio = 2,21 – la situación no es creíble, tener una situación tan mala es insostenible.
c) Valorar la capacidad del sistema de medida si los límites de especificación para el producto
son 22 ± 2.
1.478
√7.83
=
1.478
∗ 100 = 52.8%
2.79
1. En el fichero PULIDO.sf3 se muestran los datos tomados en un proceso de pulido de piezas
de mármol para ensolado. En la fábrica hay una gran cantidad de máquinas pulidoras que
son controladas por distintos trabajadores cada una. La piedra bruta se recibe de distintos
proveedores. Para controlar las distintas fuentes de variabilidad en el resultado de la calidad
del pulido se elige al azar una muestra de seis máquinas, se eligen al azar dos operarios para
probar cada máquina y se eligen al azar dos proveedores para tomar cinco piezas de cada
uno para cada operario en cada máquina. Posteriormente se valora con un índice adecuado
la calidad del pulido.
g) Plantear un modelo de componentes de la varianza.
h) Estimar los distintos componentes de la varianza.
i) Extraer conclusiones.
Dado que el esquema de relaciones entre los efectos es en árbol, aunque los proveedores
fueran los musmos aportarían componentes de la varianza, porque en un modelo de efectos
aleatorios, todos los que llevan debajo también lo son. Por tanto lo hacemos con variance
componentes:
129
¡¡Ojo al orden de
anidamiento!!
Todos los plots OK
Si nos fijamos en la tabla ANOVA vemos que va a haber un componente nulo porque se rompe
la progresión de los cuadrados medios, ya que estos tienen que tienen que ir de menos a más.
Donde hay que poner el énfasis para mejorar el proceso es en proveedores ya que provocan
más de un tercio de la variabilidad en el pulido. Sin embargo la variabilidad de las máquinas es
pequeña en comparación con la otra.
130
Tema 6: Diseno factorial 2k
1. INTRODUCCIÓN:
Como su propio nombre indica, se trata de diseños factoriales, por tanto vamos a aplicar toda
la metodología estudiada en el capítulo 5. Regresamos al terreno en el que todos los
experimentos son factoriales y de efectos fijos. Por supuesto son completamente
aleatorizados, y las hipótesis siguen siendo la misma: homogeneidad de la varianza, linealidad
y normalidad.
Se trata de un tipo de diseño que presenta unas peculiaridades especiales con una gran
importancia en la investigación industrial. ¿Cual son estas peculiaridades?
K factores en dos niveles -> El nombre de 2k les viene ya que para correr una réplica completa
tendríamos
2x2x2..2
K veces
k
El diseño 2 es de particular utilidad en las etapas iniciales del trabajo experimental, cuando
probablemente se estén investigando muchos factores. Gracias a estos diseños se descartan
cosas y se profundizan en otra. De ahí que se les conozcan como experimentos de cribado,
tamizado (screening). Experimento rápido para quedarme con lo esencial.
Estos diseños tienen la ventaja de que permiten una cierta investigación con el menor número
de corridas. Reducir todo a dos niveles simplifica mucho, aunque claro está que la información
será menor. Es decir, una de las razones por las que se emplean estos diseños es por la
economía que supone.
Esta economía tiene una serie de desventajas, si para cada factor solo experimentamos dos
niveles asumimos que la respuesta va a seguir un modelo lineal, no tengo más"ingredientes"
para estimar este tipo de experimentos. Esta estimación a veces va a ser inapropiada pero
funciona más veces de las que podemos imaginar. No solo se utilizan en la industria, etc.
También son buenas aproximaciones de la realidad, aunque la relación globalmente del
modelo con la respuesta no sea lineal, si puede ser que con el rango de operaciones lo sea. No
se pierde tanto por entender que en este tramo hay linealidad, aunque en algunas ocasiones sí
que es verdad que esta linealidad será absurda.
En un diseño experimental 2k pueden coexistir factores cuantitavos (presión, temperatura,
etc) y cualitativos (operario, maquina, etc). En el caso de que
un factor sea cuantitativo, evidentemente es absurdo pensar
que solo hubiese 2 temperaturas, para ello cogemos el nivel
bajo (-/-1) y el nivel alto (+/+1) del rango de aplicaciones.
131
2. DISEÑO FACTORIAL 22:
El primer diseño de la serie 2k es el que sólo tiene dos factores, por ejemplo, A y B; cada uno
se corre a dosniveles. A este diseño se le llama diseño factorial 22
Se suele representar en cuadrado como el de la figura de la derecha.
Por convención, elefecto de un factor se denota con una letra mayúscula latina. Por lo tanto,
"A" se refiere al efecto del factor A, "B" al efecto del factor B, y "AB" a la interacciónAB.
El valor - (15) y + (25) de A, por ejemplo, no son los únicos valores que puede tomar; Claro
está que podríamos trabjar a 16 grados o incluso a 30, estos valores no representan los valores
absolutos.
Una novedad en cuanto a notación, es que a los vértices del cuadrado se les denomina con la
siguiente nomenclatura: las mismas letras minúsculas que los factores que intervienen que
correspondan a cuales de los factores estén en el nivel alto.
Al vértice de abajo a la izquierda, como los dos factores están a nivel bajo se denota con (1).
a = nivel alto del factor A
b = nivel alto del factor B
ab = niveles altos de A y B
1= niveles bajos de A y B
Además, vamos a usar estas letras como la suma
de las observaciones en cada uno de los vértices.
Es decir las letras 1,a,b y ab representan por una
parte el vértice correspondiente del cuadrado; es
decir, la combinación de niveles correspondientes
y por otra parte van a representar también la
suma de las operaciones realizas en cada vértice.
132
Vamos a distinguir los efectos principales: A y B y la interacción AB. (
Efecto principal A
Efecto principal B
Interacción AB
Los efectos principales y las interacciones se van a distinguir de la siguiente manera:
Básicamente en A, por ejemplo, sería el promedio de cuando A esta en el nivel alto (ab-a)
menos la media de cuando a está en lo bajo (b-1).
Análogamente llamaríamos efecto principal de B a la media de b alto – b en bajo.
Por último, la interacción sería la diagonal principal menos la diagonal secundaria, los dos
factores en alto frente a lo que ocurre cuando están cambiados; uno en el alto y otro en el
bajo.
Entonces cuando analicemos un diseño 2k uno de los aspectos que vamos a considerar la
estimación de los efectos.
De los efectos vamos a examinar tanto la magnitud como la dirección. Si a es positivo quiere
decir que movernos de nivel bajo a nivel alto contribuye a aumentar la respuesta. A estas
combinaciones lineales de las letras se les llama contrastes.
Contraste asociado a A -> ab +a – b –(1)
Contraste asociado B->ab-a+b-(1)
Contraste asociado C -> ab-a-b + (1)
Para estos contrastes nos ayudamos como siempre de la tabla ANOVA, la única peculiaridad
que tiene es que los grados de libertad de todos los efectos van a ser siempre 1; ya que para
133
los efectos principales los grados de libertad es el número de niveles -1 = 1, y la de los
productos (n-1)*(n-1) = 1. Por tanto,la suma de cuadrado es igual a los cuadrados medios.
Además resulta que si calculamos estos contrastes:
Contraste asociado a A -> ab +a – b –(1)
Contraste asociado B->ab-a+b-(1)
Contraste asociado C -> ab-a-b + (1)
Las formulas serian las siguientes, mera curiosidad aritmética:
En definitiva iríamos a una tabla ANOVA como la siguiente:
En Statgraphics:
Para los 2k es recomendable tenerlo como un diseño, no como datos.
(Recomendable dejarlo así, con el -1 y +1)
134
Siempre nos va a crear una columna bloque asociada a la réplica:
Vamos a DOE >design analyze:
Marcamos ignore block numbers, salvo que nos
digan lo contrario:
135
Pasamos entonces a analizar los datos:
Primero vemos el grafico de residuos, hay cierta heterogeneidad de la varianza, pero no
especialmente significativa. Frente al número de fila tampoco tiene mayor importancia que las
constelaciones sigan esa forma se debe a los pocos datos. El plot de normalidad no nos deja
ajustarlo a mínimos cuadrados, pero esta OK.
Si vemos la tabla de Estimatedeffects ; vemos que de los efectos son importantes tanto la
magnitud como el signo. Estos son contrastes /2n.
Si nos fijamos en la primera sería la media: ab+a+b+(1) ->Solo nos interesa para saber en qué
entorno se mueve la variable respuesta
El factor A tiene un efectos positivo, pasar de – a + aumenta la respuesta 8.33
En cambio, en el caso del factor B pasar de alto a bajo produce un efecto negativo, disminuye
la respuesta en 5.
La interacción también hace que aumente la respuesta al pasar de más a menos.
Aunque estos dos últimos tienen una magnitud sensiblemente inferior.
Esto se suele representar en el diagrama de Pareto, llamado así por la tipología, ya que en
realidad no es un diagrama de Pareto como tal: ordena los efectos por orden de magnitud, los
positivos son grises y los negativos azules. (Se pueden cambiar estos colores en Pane Options)
136
Aquí vemos las diferencias notables en magnitud. La línea azul es la línea de la significación
estadística. Los efectos significativos son los que van a llegar por encima de la línea de corte,
en este caso ambos factores.
Efectivamente si vemos la tabla ANOVA, vemos que estos dos factores son significativos, cosa
que no ocurre con la interacción AB.
También tenemos una gráfica
de efectos principales, que nos
muestra cómo cambia la
respuesta al pasar de alto a
bajo.
La interacción también tiene grafico.
137
Activamos también los plots de superficie de respuesta:
Estimated response Surface: estamos ante
dos factores cuantitativos. Tiene sentido
hablar del 0: punto central del rango de
valores (interpolación lineal) el 0,5 sería la
interpolación que le corresponda. Este tipo
de grafico no tiene sentido cuando solo
tuviéramos por ejemplo que utilizar el
método h o el j. (Esta superficie de respuesta
se puede mover para verlo mejor). Esto no es
exactamente un plano porque hay
interacción; podemos quitarla para purgar el
modelo ya que no es significativa.
Si miramos las curvas
de nivel (Contours of
Estimated Response
Surface) conjunto de
puntos que tienen
valores iguales en la
función.
Si quitamos la interacción, vemos que la superficie se convierte exactamente en un plano. La
relación es puramente lineal y aditiva y por ello las curvas de nivel son totalmente rectas. Sería
como ajustar un modelo de regresión.
138
MODELOS DE REGRESIÓN
El coeficiente de un contraste es siempre es + 1, -1, y puede usarse una tabla de signos
positivos y negativos como la tabla 6-2 para determinar el signo correcto para cada
combinación de tratamientos. Los encabezados de las columnas de la tabla 6-2son los efectos
principales (A y B), la interacción AB e 1, que representa el total o promedio del experimento
completo. Observe que la columna que corresponde a 1 incluye únicamente signos positivos.
Las etiquetas de los renglones son las combinaciones de los tratamientos.
Para encontrar el contraste para estimar cualquier efecto, simplemente se multiplican los
signos de la columna apropiada de la tabla por la combinación de tratamientos
correspondiente y se hace la suma.
Por ejemplo, para estimar A, el contraste es -(1) + a - b + ab
En un diseño factorial2k es sencillo expresar los resultados del experimento en términos de un
modelo de regresión. Por ejemplo, para un diseño 22 el modelo matemático sería:
y = β0 + β1x1 + β2x2 + β12x1x2
Asique la siguiente matriz sería la matriz X de regresión:
139
*Si tuviéramos más replicas iría debajo otro paquete como este.
Si quisiera escribir este modelo matemático con la metodología que estamos usando hasta el
momento tendríamos: (modelo ANOVA- diseño experimentos):
Y = µ+ τi + αj + ταij + εijk
Media general
Efecto factor A
Efecto factor B
Efecto interacción
̂ = (XtX)-1 Xt*Y obtendríamos que:
Si desarrollamos la matriz X de regresión ->β
̂0
µ=β
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴)
= β̂1
2
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐵)
= β̂2
2
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴𝐵)
= β̂12
2
¿Por qué? Las betas es lo que aumenta la variable respuesta por aumentar en una unidad la
variable. Por ejemplo β1 es lo que aumenta la variable respuesta al aumentar x1 en una unidad
manteniendo el resto fijas.
Sin embargo, el efecto mide cuanto aumenta la variable respuesta por aumentar dos unidades,
por eso hay que dividirlo entre 2.
Vamos a verlo con el mismo ejemplo anterior en Stratgraphics:
Abrimos Fig6-1
Como ya está hecho como diseño, tan sólo tenemos que ir a Analyze Design:
Abrimos la tabla de coeficientes de regresión:
140
Si lo comparamos con el panel de los efectos, vemos que efectivamente coincide lo que
habíamos dicho, es justo el doble ya que efecto A/2 = estimador:
Esto mismo podríamos haberlo comprobado haciéndolo como si fuera un modelo de regresión
múltiple:
Como vemos la tabla de regresión coincide con la que habíamos obtenido antes.
Obviamente los p-valores son los mismos.
Los parámetros no cambian aunque quitemos la interacción dado que las columnas de la
matriz de diseño son ortogonales entre sí salvo la de los 1 como es lógico, pero esa no la
vamos a cuestionar. Cuando las columnas son ortogonales las estimaciones de los
parámetros independientes son equivalentes. Entonces siempre que en una matriz de diseño
tengamos matrices ortogonales la estimación de los efectos no se va a ver afectado por quitar
unos parámetros u otros.
141
Si yo trato a los factores que están en el modelo como numéricos me permiten hacer
predicciones, calcular los residuos, etc. Los residuos son las diferencias entre las predicciones
y las observaciones. Si son variables numéricas lo que estamos haciendo es una interpolación.
Por ejemplo en el catalizador el nivel bajo era 15 y el 25 el alto.
+1
15
25
Recta de interpolación
-1
La recta de interpolación es la ecuación de la recta que pasa por los puntos (15-25 en el caso
de X1) y el catalizador entre (1,7 y 2 libras): Si lo tuviéramos en códigos también podemos
utilizar estas ecuaciones para pasarlo a los números reales.
La ecuación que hemos estimado es y = 27,5 + 4,167x1 – 2.5x2: Si queremos ponerlo en las
variables originales sustituimos x1 y x2 por sus fórmulas correspondientes.
142
Podemos ver también el plano de esta ecuación con las variables codificadas (-1/+1) en
Estimated Response Surface:
Si metemos la interacción: plano torsionado (no tiene cimas ni valles porque no tenemos
ningún término al cuadrado), en este caso por tanto nunca tendríamos curvas de nivel en
forma de circulo.
Si añadimos a la tabla de datos por ejemplo los valores 0,9 y -0,7 y vamos a la tabla de
Predictions nos dice la estimación que tendría la respuesta y un i.c de predicción futura. La
relación entre la variable respuesta y la regresión asumimos que es aceptable en el rango de
datos en el que nos movemos.
La siguiente tabla trata de buscar la combinación de los factores que aumenta optimiza la
respuesta.
Nos interesa movernos en la región de máxima pendiente para buscar el máximo lo más
pronto posible. Si queremos alcanzar la cima lo más rápido posible tenemos que hacerlo
perpendicular a las curvas de nivel.
143
Muchas veces esta estrategia de cribado nos sirve para cambiar la región de operación; si no
estamos conforme con la actual podemos buscar otra, pero ya sabemos en qué dirección; en la
que indica la flecha..
Para esta tabla podemos definir con que variables queremos dar los pasos en este caso:
concentración.
Las curvas de nivel son RENDIMIENTO = 27,5 + 4,16667*CONCENTRACION - 2,5*CATALIZADOR =
CTE
El vector perpendicular a una recta de tipo ax1 + bx2 = c será
(-b,a) por tanto la pendiente es (-b/a) = (-2.5/4,6) = -0.6
El último panel se llama optimizar respuesta: este módulo nos da el óptimo, el óptimo estará el
vértice de abajo a la derecha. En pane options podemos poner minimizar o maximizar.
144
Vamos a Statgrphics:
(Recomendable dejarlo así, con el -1 y +1)
Quitamos la aleatorización y en replicas ponemos 3
+
+
Por defecto los el diseño se crea en el orden natural (bloques = réplicas)
145
Si no queremos copiar todos los datos, vamos a Montgomery datashet; y copiamos los valores
de las tres tablas sin su nombre; teniendo en cuenta que hay que cambiar el factor bloque, que
ya no va 1111222..sino 123412341234..
Damos a aceptar sin olvidar marcar Ignore blocks:
Pasamos a analizar los datos:
1. Miramos los efectos (en dos paneles). En el primero vemos los efectos de manera
numérica, en la primera fila vemos el efecto que resulta de promediar todos los factores,
aunque no nos dice nada; sólo donde se mueven los datos. Lo que si nos dice que el
estimador de A es ≈ 16 y el B y el AB en torno a 8. Como los grados de libertas son 1, la
magnitud de los efectos ya nos dice mucho. Es decir, los efectos y la suma de cuadrados no
son lo mismo pero están relacionados funcionalmente. Lo que veamos aquí grande en sus
contrastes de hipótesis los p-valores van a ser pequeños.
Esta tabla tiene una contrapartida gráfica. Además nos anticipa a través de esta línea azul la
significación ya que esta línea es la línea de corte de la significación. Además vemos que todos
los efectos son del mismo signo, esto nos va a facilitar mucho a la hora de interpretar los
resultados para decidir qué es lo correcto para minimizar la respuesta
Como ya vaticinábamos los p-valores eran muy pequeños.
146
2. Miramos los residuos, como vemos el plot de residuos frente al número de fila, muchas
positivas al principio y luego todas negativas. Puede ser porque los datos sean artificiales, si
fueran datos de verdad esto indicaría que hay una asociación entre el ir avanzando en la
réplicas y la variable respuesta.
Puede haber algún factor espurio con el que no contábamos y que induce a diferencias entre
las réplicas. Podemos quitar del análisis la opción Ignore Block Numbers; esto hará que se
vean con más claridad los efectos; aunque los efectos no van a cambiar dado que las columnas
son ortogonales; el álgebra que va detrás hace que todo sea independiente. Además si
miramos la tabla ANOVA vemos que el efecto de los bloques sí que era importante -> p-valor
pequeño
3. Abrimos la tabla de los coeficientes de regresión: recordando que
̂0
µ=β
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴)
= β̂1
2
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐵)
= β̂2
2
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴𝐵)
= β̂12
2
147
Este modelo de regresión es el que nos va a permitir hacer todo tipo de predicciones,
optimizar, calcular de una manera sencilla los residuos (observado-pronosticado por el
modelo), etc.
Vamos a hacer predicciones. Por ejemplo, que ocurriría si operamos a 0,0953pulgadas de
ranura y 50 rpm de velocidad?
Lo primero que tenemos que hacer es interpolarlo.
Estas predicciones serían para el caso de la velocidad
𝑉𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 − ((𝑣𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 𝑏𝑎𝑗𝑎 + 𝑣𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 𝑎𝑙𝑡𝑎)/2)
(𝑣𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 𝑎𝑙𝑡𝑎 − 𝑣𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 𝑏𝑎𝑗𝑎)/2
=
50 − 65
= −𝟎, 𝟔
25
Y para el caso de la ranura:
40 + 90
50 − (
)
𝑉𝑒𝑙𝑜𝑐𝑖𝑑𝑎𝑑 − 𝑝𝑢𝑛𝑡𝑜 𝑚𝑒𝑑𝑖𝑜
2
=
90 − 40
𝑠𝑒𝑚𝑖𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑
( 2 )
=
𝑝𝑢𝑙𝑔𝑎𝑑𝑎𝑠 − ((𝑝 𝑏𝑎𝑗𝑎 + 𝑣𝑝 𝑎𝑙𝑡𝑎)/2) 𝑝𝑢𝑙𝑔𝑎𝑑𝑎𝑠 − 𝑝𝑢𝑛𝑡𝑜 𝑚𝑒𝑑𝑖𝑜
=
(𝑝 𝑎𝑙𝑡𝑎 − 𝑝 𝑏𝑎𝑗𝑎)/2
𝑠𝑒𝑚𝑖𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑
0,0625 + 0,125
) 0,0953 − 0,09375
0.1 − (
2
=
=
= 𝟎, 𝟎𝟓
0,125 − 0,0625
0,03125
(
)
2
Lo copiamos en databook; y nos vamos al panel de predicciones, obteniendo una respuesta de
21, 85 con unos márgenes de predicción de [20,70 - 23,006] al 95% de confianza.
Siguiente panel: panel de optimización lo primero que tenemos que hacer es cambiarlo a
minimizar. Como vemos es factor A= -1, Factor B = 1. El menos está en el A porque es el
dominante.
148
Esto lo podríamos haber predicho con el gráfico de efectos. Si queremos minimizar a la vista
del análisis de Pareto parece razonable que tendría que ir a nivel bajo, el B pensamos que
también pero si ponemos a los en el nivel bajo la interacción es positiva, por lo que lo que va a
empujar B nos lo quita la interacción. ¡Ojo cuando tengamos muchos factores!
Si vamos a ver el gráfico de la respuesta estimada, vemos que el vértice más bajo está en
consonancia a los resultados. En las curvas de nivel vemos una especie de "silla de montar", y
vemos que el valor más bajo también está en el -1,1
El gráfico de Path of SteepestAscent solo funciona bien cuando maximizamos, como vemos si
intentamos minimizar no lo hace bien. No está sincronizado con el panel en el que le decimos
que queremos minimizar. Si lo cambiamos en su panel, nos da una trayectoria inversa a la de
maximizar, pero no es la correcta.
Nos ha faltado ver la gráfica de los efectos: gráfico elemental que indica cómo cambia la
respuesta al pasar de - 1 a + 1, además el hecho de que el efecto de A sea mayor que el de B se
demuestra porque tiene mayor pendiente.
149
En el siguiente gráfico vemos el gráfico de interacción, que como vemos al haber cruce si que
es significativo.
El último sería el grafico de probabilidad de los efectos, que aun no estamos en condiciones
de interpretar.
150
EL DISEÑO 23
151
Se están estudiando tres factores: porcentaje de carbonatación, la presión de operación y la
velocidad de la línea (botellas/minuto). Como vemos tenemos 8 combinaciones y hemos hecho
dos réplicas. A la derecha de la tabla muestra los verdaderos rangos (no codificados)
En general vamos a poder tener una representación geométrica de estos diseños, sería como
un cubo. Vamos a utilizar la misma nomenclatura para denotar los 8 vértices del cubo.
En estos diseños vamos a tener 7 efectos (23 -1). En general, para cualquier modelos vamos a
tener (2k-1 efectos):
A
Efectos principales: (𝑘1)
B
Interacciones dobles: (𝑘2)
Si sumamos todos estos obtenemos la
C
𝑘
Interacciones
triples:
(
)
fórmula general: 2k-1 efectos
3
AB
……
AC
Interacciones K-uple(𝑘𝑘)
BC
ABC
*Por muchos efectos que tengamos en general más allá del 2 o 3 orden de interacción no
solemos tener nada.
Considere la estimación de los efectos principales.
Primero, considere la estimación del efecto principal A. El
efecto de A cuando B y C están en el nivel bajo es [a (1)]/n. De manera similar, el efecto de A cuando B está en
el nivel alto y C está en el nivel bajo es [ab -b]/n. El efecto
de A cuando C está en el nivel alto y B está en el nivel bajo
es [ac -c]/n. Por último, el efecto de A cuando tanto B
como e están en el nivel alto es [abc -bc]/n. Por lo tanto,
el efecto promedio de A es sólo el promedio de estos
cuatro efectos, o:
152
De nuevo hay una relación algebraica entre las estimaciones y los efectos. Para calcular
fácilmente dichos efectos tenemos también la tabla de signos:
Esto es lo que tendríamos que llevar a la matriz de diseño para realizar la regresión.
Además resulta que las sumas de cuadrados tienen que ver también con estas combinaciones
lineales. Por ejemplo, el efecto de A daba 3 en este ejemplo:
Lo que es el contraste en sí da 24; que al dividirlo por 8 es cuando nos da el 3. La suma de
cuadrados es entonces el cuadrado del contraste entre 16:
Vamos a analizar este ejemplo nosotros en Statgraphics:
Abrimos TAB6-4 y seguimos el siguiente procedimiento:
Lo más sencillos posibles pero guardando un principio de
jerarquía en la purga o refinado de los modelos (si una
interacción es importante, pero sus efectos no, los tenem
que dejar)
Que efectos van a favor de la respuesta, temas de
optimización, de rutas de máxima pendiente donde
tengamos mejor respuesta, etc.
153
Design Analysis, ignorando el número de bloque. Y max order: 3
Los tres efectos más importantes son los efectos principales.
Si vamos a la tabla ANOVA vemos que los tres efectos principales son significativos. La
interacción AB no es como para ignorarla pero su importancia es significativamente más
pequeña. El 0,75 estimado es menos de la mitad que cualquiera de los 3 efectos principales
que son mucho más significativos.
Para refinarlo está claro que podemos quitar la interacción triple, y la BC y la AC. En principio
dejamos la AB porque está cerca del borde y como además se han hecho pocas observaciones
(2 réplicas) no tenemos la suficiente contundencia para descartar este término.
Para refinarlo, antes de ir al exclude, bajamos el orden de interacción y después excluimos los
siguientes términos (AC y BC). Este es el modelo que nos deja Statgrpahics: (como mucho se
nos va a modificar los p-valores, nunca el resto. El R2 también cambia.)
154
Ahora sí que merece la pena ver el gráfico de residuos. Volvemos a tener el problema en el
gráfico de residuos vs order: primero todos negativos, y luego todos positivos.
Vamos a ver si mejoran las cosas poniendo el bloque como efecto. Sin embargo, vemos que no
es significativo. Ni si quiera ha bajado el p-valor a la interacción AB.
Si vamos al diagrama de Pareto de nuevo vemos que todos los efectos son positivos, la presión
la carbonatación y la velocidad hacen aumentar la respuesta; así como la interacción.
155
Podemos hacer también predicciones, (velocidad 240…) obteniendo una Desviación respecto
al nivel de llenado de 0,85.
En el caso de optimización y teniendo en cuenta que el objetivo
es minimizar (en concreto buscamos tener una desviación 0).
El óptimo va a estar en el medio, no buscamos minimizar en general, sino el 0. Por eso el
óptimo no está en un vértice.
156
Los planos los descompone ahora en 3 dejando cada vez uno de los efectos fijos; al igual que
ha hecho con las curva de nivel. Esto lo vamos a ir cambiando en Pane Options en la pestaña
Factors.
En este problema no interesa tanto ver la ruta de máxima pendiente ya que esta solo tiene
sentido cuando vamos a maximizar. Cuando vamos hacia un valor esto carece de interés.
EL DISEÑO GENERAL 2k
La tabla ANOVA sería:
157
Abrimos el archivo 6-1
Vemos que hay tres efectos que dominan, la interacción AC es muy importante pero uno de los
factores que están en ella no lo está; por lo que no vamos a poder simplificarlo. Vemos que en
cuanto a los signos tenemos de todo.
En el caso de las interpretaciones tienen que ser muy cuidadosas; la interacción AC es positiva;
en cambio A es negativo. Cuando pongamos A en el bajo y C en el alto su producto es negativo;
con lo cual se da a la vuelta la interacción.
En cuanto a magnitud, vemos los efectos en valores numéricos (no vienen ordenados en
orden de importancia, desventaja frente al diagrama de Pareto):
158
Vamos a la tabla ANOVA, aunque no vamos a ver más de lo que ya sepamos; dado que el
diagrama de Pareto nos resume estas dos tablas.
Podemos marcar los bloques para ver si sin significativos, pero tienen un p-valor muy grande
por lo que lo dejamos.
Empezamos a purgar el modelo; primero le bajamos la interacción y luego quitamos AB y BC
Tenemos que deja el factor A por el principio de jerarquía. El modelo que hemos ajustado es:
159
Ahora es cuando tenemos que validar el modelo. Como vemos todos los plots son correctos.
Hay que tener cuidado también con el gráfico de residuos frente a factores; el que veamos una
columna de residuos mucho más extensa que otra sería malo; iría en contra dela
homogeneidad de la varianza, pero no es el caso -> Modelo válido.
Vamos a ver la optimización. En este caso se busca maximizar:
La velocidad que parecía inofensiva resulta que el hecho de ponerla en el menos implica que
como el ángulo lo ponemos en el más; cuando multiplicamos AC es negativo, y por tanto
contrarresta el efecto negativo de la interacción.
Vamos a ver la geometría imaginando que el factor B es un factor cualitativo. Lo que
aprovecharíamos de este modelo es que como la geometría suele tomar dos valores, se
convertiría en dos rectas. Con lo cual lo que tendríamos que hacer es ir al modelo y sustituir el
C por 1 y por -1.
160
Con las opciones de panel de los planes, y dando a Factors quitamos la geometría y lo
ponemos en el 1. Sería la superficie de respuesta cuando la geometría es la correspondiente al
+1. Lo mismo haríamos en el gráfico de las curvas de nivel.
De igual forma tendríamos que hacer poniendo geometría en el nivel bajo.
Vamos a nuestro modelo; si sustituimos 5,666*Geometría por 1 y por -1; este 5,666 ó -5,666 se
van al término independiente, por lo que vamos a tener dos superficies exactamente
paralelas. La más alta sería la correspondiente a la geometría (+1).
Aquí la ruta de máxima pendiente pierde un poco de interés porque no tiene sentido.
161
Nos encontramos ante un diseño 24 vamos a analizar los datos:
1. Estimar los efecto de los factores:
A la vista de estas dos tablas podemos concluir que el efecto más
importante va a ser el factor A; sin dejar atrás las interacciones
ABC, ABD, AB y el factor D que también son muy dominantes. El
factor C, el ABCD y el AD tampoco los podemos obviar puesto que
son significativos.
El diagrama de Pareto cuando tienen un decrecimiento así, lineal (aunque el factor A
destaca mucho mas), son los más complicados de analizar porque no se ve un corte
fácil. Lo ideal es tener unos pocos efectos muy significativos y otros que no lo sean, así
a la hora de purgar y analizar el modelo es más fácil.
162
2. Construir la tabla del análisis de varianza y determinar cuáles factores son importantes
para explicar el rendimiento.
Si miramos la tabla ANOVA; no vamos a ver
nada nuevo que no sepamos, dado que la
significación de los factores la podemos ver
gracias a la línea del diagrama de Pareto:
3. Escribir un modelo de regresión para
predecir el rendimiento, suponiendo que los cuatro factores se hicieron variar en el rango de
-1 a + 1 (en unidades codificadas).
Puesto que la interacción de orden 4 es significativa siguiendo el orden de jerarquía a
la hora de purgar, no se podría simplificar ningún factor ni interacción a pesar de que
no sean significativos.
Por tanto, este sería nuestro modelo de regresión:
4. Validación del modelo
Una vez que ya tenemos el modelo final vamos a pasar a analizar los plots de residuales para
validar el modelo:
163
Todos parecen aceptables, el único del que podríamos dudar un poco es del del residual vs
factor, en el cual se ve una cierta heterogeneidad de la varianza. Vamos a grabar los
residuos para hacer una prueba de igualdad de varianzas. Para ello, guardamos los
residuos studentizados:
Tenemos que marcar la siguiente tabla: Comparaison of
StandarDesviation
Como vemos el p-valor es 0.03 por tanto al 5% se
podría rechazar la hipótesis de que las varianzas
son nulas. Esto es especialmente grave cuando
vemos el megáfono en la respuesta predicha
Si volvemos a nuestro análisis del diseño podemos “corregir” la ligera heterogeneidad de la
varianza mediante logaritmos.
Tomando logaritmos vemos que no hay diferencias a penas con el anterior modelo, por lo
tanto vamos a analizar el anterior.
164
5. Analizar resultados.
Vamos al panel de optimización
teniendo en cuenta que lo que
pretendemos es maximizar el
modelo
El factor A puesto que es el dominante lo ponemos en -1 para contrarrestar su efecto negativo;
la interacción ABC también nos interesa que sea negativa y por el contrario la ABD que se
quede positiva, por lo que AB han de tener el mismo signo y C y D distinto para que en un caso
la multiplicación sea positiva y en el otro negativa; el D es quien se va a quedar con el +1
puesto que es bastante dominante y va a tirar mucho hacía de la respuesta. Además el
producto de AB también va a salir positivo, cosa favorable puesto que es muy dominante. De
los otros tres factores significativos; el C tiene asignado el -1 como ya hemos visto lo que
favorece para contrarresta su signo negativo, la interacción ABCD no la hemos podido
optimizar y restará.
A partir de 3 factores, el gráfico de respuesta estimada y demás gráficos no son de mucho
interés. Sí que nos interesaría, por ejemplo, hacer predicciones.
165
1. Estimar los efecto de los factores:
Como vemos la interacción AC es la más significativa, seguida de factor B,
C, la interacción triple y el A. El factor D y la interacción AB también son significativos aunque
tienen una importancia menor. Hay una interacción triple en la zona alta y todos los efectos
principales también se encuentran en esta zona; esta es la forma del gráfico que buscamos:
unos efectos que sean muy significativos y el resto que no lo sean. Además si vamos a poder
purgarlo con facilidad, ya que la interacción triple ABC (la única triple significativa) contiene las
interacciones dobles que también lo son (AC y AB: BC aunque no es significativa la tenemos
que dejar si queremos respetar el principio de jerarquía).
Además, este modelo digamos que tiene dos partes; por un lado la interacción D y por otro
todo lo demás. Además al no ser significativa la interacción cuádruple podríamos decir que es
un modelo 23
2. Construir la tabla del análisis de varianza y determinar cuáles factores son importantes
para explicar el rendimiento.
Si miramos la tabla ANOVA; no vamos
a ver nada nuevo que no sepamos,
dado que la significación de los
factores la podemos ver gracias a la
línea del diagrama de Pareto.
166
3. Escribir un modelo de regresión para predecir el rendimiento, suponiendo que los cuatro
factores se hicieron variar en el rango de -1 a + 1 (en unidades codificadas).
Vamos a ver de qué interacciones podríamos prescindir: lo primero
podemos bajar el orden de interacción ya que la interacción de orden
4 (ABCD) no es significativa. Y además podemos quitar otros términos
como los que tenemos a la izquierda (El BC no le tenemos que quitar
por el principio de jerarquía)
Este sería nuestro modelo:
Var_1 = 11,9881 + 1,50944*Factor_A + 1,98794*Factor_B - 1,79812*Factor_C +
0,978875*Factor_D + 0,967063*Factor_A*Factor_B - 2,00387*Factor_A*Factor_C +
1,56875*Factor_A*Factor_B*Factor_C + .. BC
4. Validación del modelo
Una vez que ya tenemos el modelo final vamos a pasar a analizar los plots de residuales para
validar el modelo:
167
Todos parecen aceptables. Además si miramos los R2 de tabla ANOVA. Cuando el R2 y R2
ajustado coinciden significa que el modelo está bien ajustado.
5. Analizar resultados.
Vamos al panel de optimización teniendo
en cuenta que lo que pretendemos es
minimizar el modelo; en concreto
buscamos tener 0 fisuras:
El factor B puesto que es el segundo más dominante lo ponemos en -1 para contrarrestar su
efecto positivo y así disminuir la respuesta; El factor C es positivo luego no nos interesa que
cambie su signo, se queda con +1. Entonces para que la interacción AC se quede con el mismo
signo, el factor A también tiene que ser +1. La interacción ABC también nos interesa que sea
negativa por lo que el producto de estos tres ha de ser negativa; el signo de B es -, el de C es +,
luego el de A tiene que ser +. Aunque esto suponga que luego A por sí sola vaya a hacer que
aumente la respuesta. Por último, el factor D nos interesa que sea -1, puesto que su efecto es
positivo.
Si vamos a ver el gráfico de la respuesta estimada:
A la vista de este gráfico de la interacción AC vemos que A tiene que estar en 1 y C en +1
también. En AB el vértice más bajo está cuando A toma el valor 1 y el B -1 aunque está un poco
dudoso.
En las curvas de nivel vemos que el valor más bajo también está en el 1,-1, para el caso de la
interacción AB. Y de 1, 1 para AC
168
El gráfico de Path of SteepestAscent no funciona bien cuando pretendemos minimizar.
Nos ha faltado ver la gráfica de los efectos: gráfico elemental que indica cómo cambia la
respuesta al pasar de - 1 a + 1, además el hecho de que el efecto de B y C sean los dominante
se demuestra porque tienen mayor pendiente, aunque la de C es bastante parecida.
169
En el siguiente gráfico vemos el gráfico de interacción, que como vemos la más significativa
como ya sabíamos es la AC
170
El factor C, a diferencia del resto es una variable categórica. Es decir, o usamos un tratamiento
(-1) u otro (+1) pero no vamos a tomar valores intermedios. Por tanto, este modelo se
descompondría en dos planos; uno cuando C vale -1 y otro cuando vale +1.
En este caso si que nos va ser de gran ayuda los modelos de tres dimensiones. (3D-Mesh
dentro de Estimated Surface)
Cuando C = 1:
En este caso, puesto que los que queremos es minimizar los interesa el vértice inferior
derecho. Sin embargo, cuando C vale -1, nos interesa el vértice inferior izquierdo.
El modelo resultante sería el siguiente: (todo estimado ^)
̂0 + 𝛽
̂1 𝑥1 + 𝛽
̂2 𝑥2 + 𝛽
̂3 𝑥3 + 𝛽̂
̂
̂
𝑌=𝛽
12 𝑥1 𝑥2 + 𝛽13 𝑥1 𝑥3 + 𝛽123 𝑥1 𝑥2 𝑥3
Tenemos que sustituir C=X3=+1 y luego por C = X3 = -1.
171
6.5. UNA SOLA REPLICA DEL DISEÑO 2K
¿Qué es lo que puede ocurrir si se hace solo una réplica?
El número de efectos a estimar es 2k-1, con lo cual como el número de datos también es el
mismo, cuando queramos hacer la tabla ANOVA vamos a ver que no vamos a tener grados de
libertad para el error, el modelo está saturado. Es como si tenemos dos puntos y queremos
ajustar una recta; el modelo va a pasar por ambos puntos.
El tener más réplicas sirve para tener más potencia en los contraste de hipótesis; es decir, al
tener mayor información voy a poder rechazar la hipótesis nulas con más claridad.
Cuando tengo pocas replicas puedo acabar viendo como importantes cosas que pueden no
serlo.
Si he tomado la zona de operación muy cerca; es decir lo que representa el +1 y el -1 está muy
cerca entre sí, si el ruido es grande (el sigma), puede ocurrir que en realidad el efecto que haya
no lo vea así y por tanto voy a tener una percepción equivocada.
Para evitar esto, tengo que estudiar a fondo la zona de operación, separando cuanto me sea
posible los valores -1 y +1.
172
En definitiva; el ruido puede dominar el sistema. Cuando tengo más observaciones esto es más
improbable que ocurra.
En el ejemplo 6.2 solo hay una réplica. Pero vamos a meter hasta orden de interacción 4.
Vemos que Statgraphics nos calcula aun así los coeficientes; sin embargo no tenemos el pvalor para ver cuál son significativos y cuáles no.
173
Si vemos el diagrama de Pareto, al tener solo un codo me da idea de cosas que se pueden
simplificar en el modelo; como vemos no aparece la línea de significación dado que el modelo
está saturado.
Para ver cómo podemos simplificar el diseño, nos va a ser muy útil los plots de interacción:
Además tenemos que ir a una gráfica que aun no habíamos utilizado; el plot de normalidad de
los efectos. En la cual todos los efectos que se salgan de la normalidad (que no sean lineales)
vamos a considerarlos como significativos.
174
Lo que vamos a ver dos estrategias para abordar estos casos:
- El principio de dispersión de los efectos
- La proyección de los residuos.
Lo primero que vamos a hacer es un diseño experimental 25. Para la variable respuesta Y
vamos a simular por ejemplo una normal N(µ,σ) y vamos a hacerlo con réplica única.
Una vez que ya tenemos el modelo, vamos a generate data en la columna de la respuesta:
Como vemos obtenemos un diagrama de Pareto que crece de forma progresiva; lo cual nos
dificulta bastante el análisis de resultados.
175
Si vamos al gráfico de normalidad de los efectos;
Vemos que esta todo bastante alineado, todo lo que se desvíe es por puro azar. Lo que
representamos aquí son los efectos estimados. Si volvemos a regenerar los datos, siempre que
tengamos efectos aleatorios alguno de los efectos se va a alejar de esta linealidad (efectos
significativos).
Aunque no tengamos grados de libertad, los efectos y las sumas de cuadrados siempre las
vamos a poder estimar (y los cuadrados medios también; que son los mismos valores que las
sumas de cuadrados ya que los grados de libertado son 1).
176
Teorema: si la Y es independiente de los factores, estos 2k -1 efectos se comportan como una
muestra aleatoria de distribución normal. Si cogemos los efectos estimados en el plot tendrán
que salir más o menos alineados. Cuando esto no ocurra; es decir, que una buena parte se
desvía por arriba o por abajo; es que va a ver unos efectos más significativos. La masa que
quede debajo de la diagonal serán efectos importantes positivos, y por encima tendremos los
efectos negativos.
Para comprobarlo vamos a suponer el siguiente modelo:
Y = 10 + 5x1 – 5x2 + 4x3 – 6x4 + 3x5 + ε ->N(0,1)
Vamos a Statgrpahics y en la columna donde habíamos generado los datos, lo cambiamos,
copiando esta fórmula:
Ahora en el diagrama de Pareto vemos que hay un codo muy claro en estos efectos:
Si vamos al plot de normalidad: la mayoría de los puntos están alineados (estos son los efectos
irrelevantes) y luego tenemos 5 puntos que sobresalen; los dominantes: 2 en la parte negativa
y 3 positivos.
177
Si vamos a los efectos estimados, como era de esperar el modelo de regresión
tiene como parámetros el efecto /2; por ello vemos que todos los valores son
más o menos el doble de los factores que habíamos metido en la fórmula.
¿Qué tendríamos que hacer en estos casos? Diseñar estrategias para poder diseñar los
contrastes de hipótesis, porque no siempre vamos a tener estos efectos tan definidos; es decir,
un diagrama de Pareto tan claro.

Estrategia 1: Principio de dispersión de los efectos
La primera de ellas es el principio de dispersión de los efectos (principio de los efectos
esparcidos):la naturaleza generalmente es generosa, no nos lo pone difícil. La mayoría de los
sistemas están dominados por efectos de órdenes bajos. Es poco frecuente modelos que estén
modelados por interacciones.
Para el modelo que hemos simulado, sería lógico bajar el orden de interacción a 1. (Pero esto
no tiene por qué ser siempre así, a veces nos tenemos que seguir quedando con orden 2 ó 3).
178
Si hacemos esto ya no tiene sentido mirar el plot de normalidad, dado que los puntos que
buscamos eran los que no se alineaban. Una vez que hacemos un purga drástica, este plot ya
no tiene sentido. Lo que nos interesa es el diagrama de Pareto:
Como vemos en la tabla ANOVA estos efectos son muy significativos. Y como sabemos, la suma
de cuadrados y los efectos estimados siguen siendo los mismos independientemente de los
términos que deje en el modelo. Lo que no son iguales son los F-ratio y los p-valores ya que
dependen del denominador (el error), ya que todos los términos que quiten van a ir al error.
En esencia tampoco tienen que cambiar mucho los F-ratios, dado que hemos tenido que quitar
aquellos aspectos irrelevantes. Entonces, más o menos en la misma medida que aumentan el
SSE aumentan los grados de libertad.
𝑆𝑆𝐸
MSE = 𝑔.𝑙
¿Qué pasaría si metiéramos más ruido en la simulación en la que estamos?
Duplicamos el ruido, pero aun así vemos todavía un codo bastante definido; además el plot de
los efectos siguen estando claros: 2 negativos y 3 positivos.
179
Por tanto, vamos a aumentar más el ruido para verlo más claro, para ello subimos la desviación
típica a 4:
Y como podemos ver cada vez aumentan más los irrelevantes, y el plot de normalidad de los
efectos ya no es tan claro:
180
Vamos a seguir metiendo más ruido; por ejemplo 10. El tercer efecto en magnitud es triple que
como sabíamos antes era nula, y ya vemos que cada vez va cayendo de forma más lineal. Si
empezáramos a purgar el modelo no sabríamos donde empezar; porque la interacción
cuádruple están en cabeza.
Por último si subimos la desviación a 20; se confunde todo con ruido. La señal se pierde entre
el ruido, digamos que la dependencia que tienen la variable respuesta con los factores (la
fórmula) está escondida entre el ruido. Esto se mejoraría si se replica el modelo. Sin embargo,
tenemos que volver a construirlo:
Generando los mismos datos en databook:
5*Factor_A-5*Factor_B+4*Factor_C-6*Factor_D+3*Factor_E+RNORMAL(160;10;20)
**Ahora tenemos que poner 160 porque es el número de datos que tenemos
Analizamos el diseño ignorando el factor bloque:
En cada una de la línea de la tabla ANOVA, lo que estamos haciendo es analizar si cada uno de
ellos es significativo o no; tenemos 25– 1 = 31 efectos. Por tanto, por puro azar, a un
determinado nivel, los contrastes de hipótesis dan fallo y es por el riesgo que asumimos (error
de tipo 1: no acepta la hipótesis nula siendo ésta verdadera; equivalente a encontrar un
resultado falso positivo).
181
Sin embargo, si alguno de los efectos importantes no saliera significativo (error de tipo 2: no
rechaza la hipótesis nula siendo ésta falsa; es decir no encontramos diferencias significativas
cuando sí las hay). Este error se combate con la potencia; en este caso como hemos hecho 5
réplicas y el hecho de que los dominantes tengan un p-valor 0,000 quiere decir que el modelo
tienen mucha potencia.
182
Y por último si pasamos a una desviación típica de 20; incluso con esta desviación típica tan
grande, de los 5 efectos significativos 4 de ellos quedan en cabeza y el C que es uno de los más
pequeños (no es de extrañar ya que en la fórmula es uno de los cuales se multiplica por un
factor pequeño = 4)
Todos los modelos estadísticos que estamos ajustando tienen estas dos partes: señal y ruido,
la única vacuna contra esto es la replicación. En los casos de réplica única, afortunadamente,
vamos a ser capaces de reconocer muchas cosas.
183

Estrategia 2: proyección del diseño
Hay otra estrategia que se llama proyección del diseño para cuando tenemos un sistema en el
que tenemos unos pocos efectos que dominan y lo demás es ruido:
5 factores, sin replicas.
Aquí, aparte de purgar el modelo de interacciones altas a interacciones bajas; nos sugiere que
hay dos factores que no intervienen para nada; el E y el D. Este modelo de 25 se podría
convertir en un 23 si quitamos todos los efectos en los que intervienen el D y el E. Tendríamos
23 que estaría replicado 4 veces ya que:
25 = 32 réplicas; si los convertimos en un modelo 23= 8 cada uno de estos efectos estaría
replicado 32/8 = 4 veces.
Diseños con réplica única (resumen)



Los efectos se pueden estimar
Los efectos no se pueden contrastar (no hay MSE)
Se procede de manera exploratoria:
- Diagrama de Pareto de los efectos: diagrama muy potente a pesar de su
sencillez; lo que vamos a buscar es el codo que es la diferencia entre lo que es
realmente relevante y lo que no lo es.
- Plot de normalidad de los efectos donde vamos a buscar los puntos singulares
de las colas; es decir todo aquello que se sale de la normalidad. Cuando el
diseño no tienen ningún efecto relevante: todo ruido, el diseño no se
comporta de manera normal. Si hay algo relevante aparece separado de esta
normalidad.
184


Tenemos dos estrategias después de ver estos gráficos para poder tener los MSE y por
tanto tener los test de la tabla ANOVA. Estas 2 estrategias son:
- Principio de dispersión de los efectos: lo normal es que estén activos los
efectos de orden bajo; esta estrategia nos permitirá bajar el orden del modelo.
Este principio nos será útil en el caso de que sea cierto; no podemos acumular
el error a costa de quitar términos que no se deben quitar. De esta manera
consigo error a raíz de quitar efectos.
- Proyección del diseño: eliminar de raíz todos los términos que afectan a uno o
más factores. El factor C no parece que vaya a tener mucha relevancia, nos lo
“cargamos”. Así podremos convertir un diseño 2k en un diseño 2k-r; siendo r los
factores irrelevantes. De esta manera consigo error porque en definitiva es
como si estuviera analizando un diseño replicado.
Habitualmente combinaremos estas dos estrategias, con el modelo que nos quedemos
habrá que validarlo y a partir de ahí analizar resultados.
185
Volvemos al ejemplo 6-2, donde lo que buscamos maximizar. Metemos un orden de
interacción 4 y al no estar replicado no es necesario ignorar la columna bloque.
El diagrama de Pareto nos ofrece una situación en la que hay una diferencia clara entre los 5
primeros efectos, que está formado por los factores principales, y por interacciones dobles que
además resultar ser combinación de los factores principales significativos.
Si miramos el plot de normalidad de los efectos vemos que es muy claro:
Como estrategia de actuación tendríamos una mezcla de ambas; por un lado tendríamos que
bajar el orden de interacción y por otro proyectar el diseño para purgar el modelo.
- > Bajamos la interacción a 2 y con el exclude quitamos:
186
Una vez que hemos comprobado que todos los plots de residuales son
aceptables, vamos a la tabla de regresión: la interacción AC es negativa,
y al ser grande, el C irá en negativo, para contrarrestar esta negatividad.
Vamos directamente al panel de optimización:
El formaldehido en nivel bajo es lo que
conviene, luego queda confirmado lo que
buscaba el investigador.
Grabamos los residuos studentizados para ver cómo afectan las variables que hemos quitando
del modelo a la homogeneidad de la varianza, en este caso hemos quitado el facto B=Presión :
sresiduals vs Presión
187
Si hubiéramos detectado aquí una diferencia muy grande en variabilidad; es decir en un lado
muy juntos y en otro muy dispersos querría decir que tiene un efecto de dispersión sobre la
respuesta; por lo cual, como la variabilidad interesa que sea lo menos posible tendríamos que
poner el factor en el -1 ó el +1; es decir, en el que esté este más concentrada la nube de
puntos.
188
El factor B (tipo de lodo) podría ser una variable dicotómica, aunque el enunciado no dice nada
al respecto.
Todos los efectos son positivos, luego las interpretaciones van a ser muy fáciles; si queremos
maximizar todos los efectos positivos y viceversa si lo que queremos es minimizar. El codo es
un poco confuso; el B muy superior y el resto van bajando de formar general hasta la
interacción BC, y luego otro grupo. La duda está en donde vamos a cortar.
Si vamos al plot de normalidad parece que un modelo de 5 términos será suficiente:
Purgamos el modelo, dejando solo estos 5 datos:
189
Sin embargo, si vemos el plot de residuales vemos que hay heterogeneidad.
Vamos a probar con la trasformación logarítimica; sino lo arreglamos tendríamos que hacer lo
que aprendimos en el tema 3.
A partir de la fórmula:
Y realizando un ajuste de regresión, determinaremos el estimador de α. Con este estimador
sacaremos el ajuste más aproximado a partir de esta tabla:
Con Statgraphics se haría de la siguiente forma:
1. Ajuste de regresión:
Vamos a
y marcamos LevelMeans y Level Sigmas. Vamos a databook y:
Nos vamos al plot of fittedModel:
Comparando término a término vemos
que α = 0,446
190
Una vez que cambiamos al modelo logarítmico tenemos que volver al modelo grande, porque
el modelo cambia radicalmente.
Ahora el factor A ha ganado peso:
Si dejamos solo orden de interacción 1:
Además vemos el R2ajustado es muy parecido al R2
191
Además como vemos el A tiene poca importancia en cuanto
al empuje. Podemos quitarlo (mejora el R2 ajustado)
Y como no, tenemos que comprobar el plot de residuales:
Desde el punto de vista de la optimización no vamos a tener mucha sorpresa, hay que ponerlos
todos en el nivel alto. Además si queremos representar los hipersuperficie, podemos poner A
en el máximo.
192
Si observamos el diagrama de Pareto vemos que la disminución es muy parsimoniosa.
Además podemos ver el plot de normalidad de los efectos que suele ser más contundente:
193
A la vista de estos datos podemos hacer una purga radical del modelo dejando solo el A y el C:
Tenemos un 77% de R cuadrado. Igual nos hemos pasado
Vamos a hacer una purga más parsimoniosa: en varias etapas:
1. Bajamos a orden 2 y quitamos AB, BC, AC, B, AD y el BD.
En cuanto a variabilidad ajustada hemos ganado unos cuantos puntos porcentuales:
Todos los gráficos están aceptables.
2. El libro solo lo deja con A y C, vamos a ver qué ocurre:
Y miramos los gráficos de residuos frente al factor. Estos nos indican que el que el A o el C no
contribuyen a la variabilidad, solo contribuyen a la media.
Sin embargo, tenemos que hacer esto también para los factores que hemos quitado del
modelo: el B y el D. Vamos a grabar los residuos y los vamos a plotear frente al factor B y el D
en dos pasos:
194
1. Factor B
Vemos que el factor B si que afecta a la variabilidad. Podemos obtener el p-valor
Si hacemos lo mismo con el factor D (que no está en el modelo) vemos que no afecta tanto a la
respuesta ->
Desde el punto de vista de la optimización además de mirar en qué nivel ponemos los factores
significativos tenemos que dejar el factor B en el nivel bajo para evitar la variabilidad.
Para optimizar, en este caso minimizar, los factores que importan hay que ponerlos él A en el –
y el C en el +, y el B aunque no afecta a la media sí que lo hace a la variabilidad. Por tanto lo
dejamos en el -1.
Por último tendríamos el D que no afecta ni a la media ni a la variabilidad, por lo que
elegiríamos nivel alto o bajo por otros factores, como coste, etc. Ya que no afecta a la
respuesta; en este caso podemos ponerlo -, ya que se trata de tiempo (D = tiempo de
prensado)
195
Lo que vamos a hacer es hacer un modelo para estudiar las medias por un lado y las varianzas
por otro.
¿Por qué esto no es lo mismo que decir que tenemos 4 réplicas?
Aquí se está rompiendo la idea de que las observaciones tienen que ser independientes entre
sí. Los experimentos se han hecho en las mismas consideraciones experimentales porque se
han hecho a la vez. No son replicas, son mediciones duplicadas.
En estos caso se aprovecha la media y la desviación y ajustamos un modelo para las medias
(como afectan las posiciones de los factores a la respuesta media ) y otro modelo para la
variabilidad.
196
Abrimos tab 6-16.
Si hubiéramos teclado solo los datos de los espesores. Podemos ir a:
Y los resultados obtenidos los podemos grabar igual que grabamos los residuales.
Primero vamos a analizar el efecto de localización: el de la media ->orden 4
En el cual nos encontramos un efecto que domina de manera importante, y luego dos parejas
consecutivas
EL grafico de normalidad también me marca estos tres niveles escalonados, el resto parece
que va a ser irrelevante
De nuevo tenemos las dos estrategias: bajamos hasta orden 2 y con exclude quitamos todo lo
que afecta a D y también el BC:
197
Lo que ya no están satisfactorio es plot de residuos: aparte de haber una zona con mayor
variabilidad hay una curvatura. El modelo tiene alguna carencia.
Hay que reajustar el modelo (viendo el gráfico con todos los efectos para tomar decisiones):
Podemos hacer el corte después de BD y BC puesto que están al límite de la significación. Esto
nos llevaría a meter también el D por orden de jerarquía. Pero aunque el modelo no gane
mucho en explicación teniendo más factores, igual nos corrige la heterogeneidad.
198
Como el vemos el R cuadrado crece pero lo realmente importante es que se corrige bastante la
heterogeneidad.
En este caso:
Para ello vemos la curva de nivel de A y C
Nos quedaríamos con la franja rosa y la verde, como zona de operación y copiamos esto en el
Statgallery para luego compararlo (Botón derecho >Copy at Statgallery> Y en la ventana que
queramos de las que se nos abren > Botón derecho > Paste)
Volvemos a DOE para analizar los SIGMAS - > siempre hay que estudiarlos en logaritmos:
199
Típico modelo parsimonioso de disminución donde no vemos nada relevante, de hecho la
interacción cuádruple está en cabeza. No obstante, por jugar un poco con esta idea multiobjetivo (comportamiento de la media y el de la dispersión) el libro de Montgomery se queda
con el A, el B, el D y el BD (sin dejar de ser puro ruido) y crea un modelo en el cual desprecia la
interacción cuádruple quedándose con A y B que son los más importantes y la interacción BD
por ser la más importante (el D se mete por puro orden de jerarquía).
Aun así siguen sin ser significativos. Por puro azar podríamos haber tenido uno significativo.
200
Los valores más bajos de la varianza se conseguirían cerca del vértice gris ->Copy to stagallery y
pegamos.
(Para pegar encima ->Overlay)
Los colores indican cómo nos movemos hacia una región de menor varianza, tenemos que
irnos hasta el gris. Las curvas eran las regiones de equi-valor de la respuesta media. Habíamos
dicho que nos interesaba estar entre 390 y 400.
6. 6 ADICIÓN DE PUNTOS CENTRALES EN EL DISEÑO 2k (pag 284)
Hasta ahora los modelos que estamos ajustando son términos lineales y términos de la
interacción.
Para poder conseguir picos y valles tiene que haber términos cuadráticos.
En este tema lo único que vamos a hacer es chequear si es suficiente con estos términos o nos
estamos quedando cortos al no meter términos cuadráticos. Esto se consigue añadiendo
puntos centrales al proceso.
201
Es decir, con hacer una observaciones en el (0,0) vamos a poder hacer un test de falta de
ajuste sobre ese modelo, de forma que nos juzgue si el modelo es correcto o no. Lo que nos va
a permitir estos puntos centrales es una suma de cuadrados de falta de ajuste ó curvatura
cuadrática.
Estos modelos tienen una peculiaridad: en el origen vale lo que vale el promedio en el valor de
los vértices. Lo que vamos a hacer es comparar los valores de la muestra que yo he tomado en
el origen con la media que me ha salido en los vértices. La suma de cuadrado de la curvatura
cuadrática pura con un solo grado de libertad está dada por:
Donde n es el número de corridas en el punto central y n es el número de puntos del diseño
factorial.
Haciendo esto, solo vamos a poder rechazar o aceptar la validez del modelo. Lo unico que se
contrasta es esto:
Este diseño tiene una utilidad añadida, no hace falta replicar, con las estimaciones que tengo
en el centro ya tenemos estimación de la varianza. Lo que hace que este supeditado a que se
cumpla la hipótesis de la varianza.
Statgraphics:
Para crear estos modelos: DOE >Create> 2 factores y el resto como está.
202
Y metemos los datos:
Para analizarlos: DOE >Análisis> orden 2
En la tabla ANOVA; con el botón derecho vamos a opciones de panel para decirle que incluya
el lackof fit:
El p-valor es muy alto, lo cual aceptamos la hipótesis nula (este modelo es correcto). Es el
único test que se programan con el propósito de confirmar la hipótesis nula, es decir,
buscamos p-valores grandes.
A partir de aquí ya podríamos quitarlo de la tabla ANOVA. Además como la interacción no es
significativa podemos purgar el modelo:
203
Hay mayor variabilidad en el centro, como era de esperar.
Sin prejuicio de esta mayor variabilidad en el centro, lo que pretendíamos con este modelo es
maximizar
.
204
Aquí los 3 factores son cualitativos, no tiene sentido realizar superficies de respuesta.
a) Analizar los datos de este experimento como si se tratara de ocho réplicas de un diseño
23. Comentar losresultados.
Hay un solo efecto
significativo; el factor A.
Es decir, solo importa el
material de molde. En
cuando al método de
batido y la marca de la
harina usada no hay
diferencias.
Lo único que
tendríamos que hacer para maximizar la exquisitez de los brownies es usar moldes de aluminio
(nivel alto del A).
** Podemos meter el factor bloque para ver si influye y ver su valor en el p-valor. En este caso
de 0,06 pero ignorarlos no altera significativamente el resultado. Aunque no es muy
importante porque ya tenemos línea de corta podemos mirar el plot de normalidad.
Si purgamos dejamos el A y el B, pero si miramos la tabla ANOVA es un modelo muy pobre. R2
muy pequeño: hay mucha variabilidad que no recogen los factores.
En estos problemas de factores cualitativos, no esperemos encontrar R2 muy grandes.
205
b) ¿El análisis del inciso a es el enfoque correcto? Hay únicamente ocho lotes; ¿se tienen en
realidad ocho réplicas de un diseño factorial 23?
¿Por qué esto no es lo mismo que decir que tenemos 8 réplicas?
Aquí se está rompiendo la idea de que las observaciones tienen que ser independientes entre
sí. Los experimentos se han hecho en las mismas consideraciones experimentales porque se
han hecho a la vez. No son replicas, son mediciones duplicadas.
En estos caso se aprovecha la media y la desviación y ajustamos un modelo para las medias
(como afectan las posiciones de los factores a la respuesta media) y otro modelo para la
variabilidad.
e) Analizar el promedio y la desviación estándar del puntaje de la exquisitez. Comentar los
resultados.
¿Este análisis es más apropiado que el del inciso a? ¿Por qué sí o no?
Lo que vamos a hacer es hacer un modelo para estudiar las medias por un lado y las varianzas
por otro.
Como el diseño está considerado como si fueran réplicas tenemos que crear el nuevo: para
ello lo único que tenemos que tener en cuenta es poner nº de variables respuesta = 8, y sin
réplicas.
Y los resultados obtenidos los podemos grabar igual que grabamos los residuales.
Para cambiar el modelo, podíamos haber hecho una combinación de las tres en un justapoxe.
Cogemos los 3 factores y los copiamos en las columnas de a continuación con nombres
incluido:
Las convertimos en carácter. Y en la
siguiente columna, generar datos:
Hacemos un One-way ANOVA de
Var-1 frente a esta nueva columna.
Procedemos a grabar Level Means y
Level Sigmas.
206
Abrimos un nuevo databook, creamos el diseño (nº respuesta =2 y numero de factores 3; no
replicas, no aleatorización) Y ya pegaríamos los datos obtenidos.
Cuando tenemos medidas duplicadas tenemos posibilidad de ver efectos de dispersión.
1. Primero vamos a analizar el efecto de localización: el de la media ->orden 3
En el cual nos encontramos un efecto que domina de manera importante, el C (marca de la
harina), seguido de B (método de batido) y luego una pareja de interacciones.
El grafico de normalidad marca claramente la importancia de los dos primeros factores, el C y
el B.
De nuevo tenemos las dos
estrategias: bajamos hasta orden
1 y con exclude quitamos el factor
A.
207
El plot de residuos tiene cierto estrangulamiento, aunque no demasiado importante. El resto
parecen aceptables
Si lo que queremos ver es en que niveles tenemos que poner los factores, aunque a la vista del
fácil Diagrama de Pareto que teníamos ya podríamos deducir en qué nivel ponerlo, vamos a la
tabla de optimización:
2.Volvemos a DOE para analizar los SIGMAS - >siempre hay que estudiarlas en logaritmos:
208
Destaca la interacción AC y luego tenemos el típico modelo parsimonioso de disminución
donde no vemos nada relevante. No obstante, si miramos el plot de normalidad de los efectos
nos quedaríamos solo con la interacción. Sin embargo, para respetar el principio de jerarquía
debemos quedarnos también con A y C, por suerte eran los siguientes más relevantes.
Estos tres factores afectan a la variabilidad de la respuesta. El A tiene un efecto positivo: pasar
del menos al más incrementa la dispersión pero luego la interacción es negativa. Tenemos que
ir al panel de optimización y decir que lo que queremos es minimizar:
El A y el C, que son los factores que afectan a la variabilidad, interesan en el nivel bajo. Sin
embargo para la media nos interesaba que C estuviera en +1. Es decir, con C en +1 obtenemos
mejores resultados en media aunque peores en dispersión.
Aquí no estamos ajustando un modelo de regresión, la variabilidad es una respuesta
secundaria lo que nos importa es la media. Si podemos dar una variabilidad pequeña mejor,
pero hay veces que no se puede. Por tanto, como respuesta final dejaríamos:
El A en el nivel bajo puesto que no afecta a la media. Y el B y C en el alto para maximizar el
sabor.
209
a) Considere únicamente la respuesta del peso molecular. Graficar las estimaciones de los
efectos en una
escala de probabilidad normal. ¿Qué efectos parecen ser importantes?
A la vista del diagrama de Pareto,
consideraríamos como efectos
más importantes el C, el A y la
interacción AB. Por orden de
jerarquía, aunque quisiéramos
purgar el modelo tendríamos que
dejar el factor B.
210
b) Usar un análisis de varianza para confirmar los resultados del inciso a. ¿Hay algún indicio
de curvatura?
A la vista de la tabla ANOVA, los únicos efectos significativos, como era de esperar son los que
comentábamos con el diagrama de Pareto. Además, gracias a los puntos centrales hemos
podido hacer una prueba de falta de ajuste. Como el p-valor > 0,05 no hay falta de ajuste. Los
plots de residuales tampoco muestran nada extraño.
e) Escribir un modelo de regresión para predecir el peso molecular como una función de las
variables
importantes.
PESOMOLECULAR = 2499,5 + 61,875*TEMPERATURA + 100,625*TIEMPO
+ 60,0*TEMPERATURA*CATALIZADOR
211
d) Analizar los residuos y comentar la adecuación del modelo.
Todos parecen aceptables salvo el plot de
normalidad, muy difícil corregirlo…
Además si vemos la tabla ANOVA, el modelo está bien ajustado p-valor Lack of Fit grande.
e) Repetir los incisos a-d utilizando la respuesta de la viscosidad.
Como podemos ver hay dos efectos que predominan sobre los demás: el A y el B; el resto no
son significativos.
212
Vamos a ajustar el modelo dejando únicamente estos dos:
No hay falta
de ajuste.
El modelo de regresión se podría ajustar como:
Como vemos tenemos que cierta heterogeneidad de la varianza: megáfono abierto. Esto igual
podemos corregirlo con logaritmos:
Con el modelo entero de nuevo, vemos que se corrige la heterogeneidad:
213
Vamos a ver cómo podemos purgar el modelo, de forma que no tengas este problema de la
varianza. Si únicamente dejamos los factores A y B:
214
a) Construir una gráfica de probabilidad normal de las estimaciones de los efectos. ¿Qué
efectos parecen ser grandes?
A la vista del Diagrama de Pareto vemos que tenemos una situación ideal; 4 efectos
destacados (sobre todo el B) y el resto parecen irrelevantes. Además, de los 4 efectos
significativos 3 son efectos principales y otro es una interacción doble que por suerte engloba
dos de los 3 factores más significativos; con lo que no nos obliga a dejar ningún valor
irrelevante por orden de jerarquía. Todos los efectos importantes son del mismo signo lo que
nos van a facilitar mucho las cosas: como lo que pretendemos es maximizar el rendimiento:
todos los efectos tendrán que aparecer en positivos.
Además el plot de Normalidad de los efectos también parece contundente. Vamos a combinar
las dos estrategias que hemos visto; por un lado bajar el nivel y por otro eliminar factores
irrelevantes.
b) Efectuar un análisis de varianza para confirmar los resultados obtenidos en el inciso a.
Como no tenemos réplicas, la tabla ANOVA no nos muestra ni los F-ratios ni los p-valores; de
ahí que tengamos que basarnos en el plot de normalidad.
215
e) Escribir el modelo de regresión que relacione el rendimiento con las variables
significativas del proceso.
Dejamos únicamente estas 4 variables que mencionábamos, quedando el siguiente modelo de
regresión:
Var_1 = 30,5313 + 5,90625*Factor_A + 16,9688*Factor_B + 4,84375*Factor_C +
3,96875*Factor_A*Factor_B
Como sabemos los coeficientes de la regresióm son la mitad de los efectos.
Además, el R2 ajustado es muy grande y muy similar al R2. El modelo explica el 99,34% de los
términos.
d) Graficar los residuales en papel probabilidad normal. ¿La gráfica es satisfactoria?
La gráfica está
bastante bien
ajustada. Además el pvalor es > 0,05, luego
aceptamos hipótesis
de normalidad.
e) Graficar los
residuales contra los rendimientos predichos y contra cada uno de los cinco factores.
Comentar las gráficas.
216
El plot de residuales es bastante aceptable. Además, de los 5 factores el único que presenta
cierta heterogeneidad es el factor B, que resulta ser de los significativos. Mientras que para la
respuesta es conveniente que este en nivel alto, para la variabilidad es mejor en nivel bajo...
f) Interpretar cualquier interacción significativa.
La única interacción significativa que tenemos es AB, que puesto que ambos son del mismo
signo, al igual que la interacción no vamos a tener problemas para identificar que ambos
factores van a ir en positivo.
g) ¿Qué recomendaciones se harían respecto de las condiciones de operación del proceso?
Como ya decíamos, los 3 factores: A = ajuste de
apertura, B = tiempo de exposición y C= tiempo de
desarrollo interesan que esten en el nivel alto.
Mientras que para el factor D y el E cogeríamos el que
más nos interesase por precio, trato con el proveedor,
etc. Ya que no afecta a la respuesta ni a la variabilidad de la respuesta.
No merece la pena graficar los 3 factores ya que el factor A es cualitativo; sólo puede tomar
dos valores. Lo que tenemos que hacer es dos gráficos, fijando A en -1 y en +1
respectivamente:
Estas rectas serían paralelas si la interacción AB no estuviera viva. El cambiar x1 = A si no
tuviera interacción este término iría al factor beta 0. En cambia la b12 afecta a la pendiente del
plano.
̂0 + 𝛽
̂1 𝑥1 + 𝛽
̂2 𝑥2 + 𝛽
̂3 𝑥3 + 𝛽̂
𝑌=𝛽
12 𝑥1 𝑥2
217
Tenemos que hacer un nuevo modelo para poder poner los puntos centrales: DOE >Create
New Design> N respuestas = 1, Nº factores = 5 y centerpoints = 4 (quitamos randomize) y
copiamos los datos:
De nuevo tenemos el mismo modelo que antes, donde ningún factor es significativo:
Además si vamos a la tabla ANOVA, vemos que el p-valor es =0,0002. Como el contraste de
hipótesis que se contrasta aquí es:
H0 = Modelo sin término cuadráticos es suficiente
H1 = No es suficiente
Por lo que no vamos a poder seguir analizándolo. Y buscar un modelo más complejo.
218
TEMA 7: Formacion de bloques y
confusion en el diseno factorial 2 k
Vamos a ver como se hacen bloques cuando no hay ni siquiera réplicas –> Confusión. Factores
cuya presencia se conoce y quizá pueda tener algún efecto se puede bloquear. Todo esto
dentro del marco de 2k.
219
En el caso de que sea un diseño replicado la idea más intuitiva es relacionar los bloques con las
réplicas.
Lo que vamos a tener con las réplicas es la estructura 2k varias veces. Además en la tabla
ANOVA tendremos una nueva fila: el factor bloque. (En este caso no tenemos que ignorar el
factor bloque). La inclusión de los bloques en la ANOVA nos sirve para retirar del error toda la
variabilidad del bloque para que me deje ver con nitidez los resultados.
La creación del modelo sería idéntica; lo único que tendríamos que hacer es no dar a ignorar el
factor bloque a la hora de analizarlo.
Abrimos el archivo EJE.7-1.
A la vista de la tabla ANOVA el factor bloque es irrelevante.
Si vamos al diagrama de Pareto, los
resultados no hubiesen sido muy
diferentes a la tabla actual. Los dos
factores principales son significativos,
ignoremos o no el factor bloque.
220
En este caso, el factor bloque si es significativo: el cambio de lote o lo que hayamos
considerado como bloque afecta variabilidad a la respuesta. Sin embargo, en comparación con
los efectos no es de suficiente entidad como para haber desdibujado al problema.
7-3 CONFUSIÓN DEL DISEÑO FACTORIAL 2k
Hay muchos problemas en lo que es imposible realizar réplicas completas de un diseño
factorial. Supongamos que tenemos cierta sospecha bastante fuerte de que el efecto bloque
va a afectar a la respuesta. Además por lo costosa que es la experimentación sólo vamos a
poder hacer una réplica.
Imaginemos que tenemos un diseño 22 de réplica única. 22= 4 corridas. Y además queremos
hacer dos bloques.
Se nos puede ocurrir que cada uno de los laterales del cuadrado sea un bloque; es decir las
pruebas de la cara izquierda se han corrido con un bloque y las de la otra con otro. Sin
embargo, cuando vaya a la tabla ANOVA y estime los efectos voy a tener la duda de que si lo
que veo en A es atribuible efectivamente al factor A o al bloque. Esto es lo que se llama
CONFUSIÓN: el efecto del bloque se mezcla o confunde con otros efectos, en este caso el A. Si
el no tuviera ningún efecto, y el bloque muy grande. Estaríamos viendo en A cosas que no son.
De igual modo, si el efecto A tuviera un efecto de -20 y el error de 20 no vería nada -> Elección
mala. Lo mismo pasaría para el factor B.
Corrida en el
Corrida en el
bloque 2
boque 1
221
B
A
La única opción que tengo es hacerlo en las diagonales, pero el bloque se va a confundir con la
interacción. Sin embargo, esta es la mejor opción ya que siempre vamos a tener en mente el
principio de dispersión de los efectos y vamos a confiar en que la naturaleza no nos pone las
cosas muy difícil: la naturaleza está dominada por órdenes bajos. Esta sería la estrategia
menos mala, ya que es más habitual que los efectos A y B tengan importancia antes que la
interacción.
Entonces la estrategia que vamos a seguir es confundir el bloque con la interacción máxima.
Imaginemos que tenemos un diseño 2k de réplica única y que queremos hacerlo en dos
bloques; lo que tenemos que hacer es confundir el bloque con la interacción más alta. Esto lo
vemos muy bien con una tabla de signos (supongamos que es la del 23)
(1)
a
b
ab
c
ac
bc
abc
I
1
1
1
1
1
1
1
1
A
-1
+1
-1
+1
-1
+1
-1
+1
B
-1
-1
+1
+1
-1
-1
+1
+1
AB
+1
-1
-1
+1
+1
-1
-1
+1
C
-1
-1
-1
-1
+1
+1
+1
+1
AC
+1
-1
+1
-1
-1
+1
-1
+1
BC
+1
+1
-1
-1
-1
-1
+1
+1
ABC
-1
+1
+1
-1
+1
-1
-1
+1
*Siempre tiene que haber para cada columna mismo número de positivos que de negativos.
Confundir el bloque con la interacción más alta significa que las corridas que corresponden al
+1 del bloque ABC forman el bloque 1 y las otras 4 forman el bloque 2
Bloque 1 = ABC = +1
Bloque 2 = ABC = -1
De forma general:
Bloque +1 = 2k-1 (la mitad)
Bloque -1 = 2k-1 (la mitad)
222
Se pueden reconocer los bloques por la paridad del número de letras: el bloque 1 está
formado por los que tienen un número impar de letras (a,b,c,abc) . Y el otro bloque tiene un
número par de letras contando al cero como par. (1, ab,bc,ac)
Para crear nosotros este diseño:
La novedad es que las filas en lugar de estar ordenadas en orden natural, están ordenadas por
el bloque.
223
Siempre que queramos hacer dos bloques sabemos que vamos a perder una interacción. En
este caso la de orden máxima. La estrategia de confundir la interacción de orden más alto
ABCD con los lotes es la óptima.
Entonces cuando vayamos a analizar estos datos tenemos que seguir el mismo orden de
interacción.
Al ver el diagrama de Pareto de los efectos, que por supuesto no tiene línea de corte porque
el modelo está saturado, vemos que la interacción ABCD es ABCD + bloque.
A partir de aquí, para simplificar el modelo no me queda más remedio que confiar en este
principio de dispersión de los efectos, que la naturaleza se organiza a través de efectos
sencillos; entonces lo que voy a considerar es que el efecto de ABCD es el bloque. Sin tener
ninguna certeza, voy a pensar en todo momento que la interacción cuádruple no es
significativa y la vamos a quitar.
El diagrama de normalidad de los efectos si que nos muestra el corte claro:
224
Vamos a bajar a orden 2 y proyectar eliminando todo lo que engloba al factor B y el CD ya que
no perdemos jerarquía en el modelo:
A partir de aquí todo sería igual que en el tema anterior.
A la vista de los resultados de la tabla ANOVA, vemos que el factor bloque no es significativo,
por lo que lo podemos quitar ya que su p-valor es grande y seguiríamos teniendo los mismos
resultados.
Si vamos al Diagrama de Pareto vemos que podemos purgar el modelo: por orden de jerarquía
tendremos que dejar los tres factores principales y la interacción AC ya que es significativa.
225
Quedándonos el siguiente modelo:
Lo primero que tenemos que comprobar son los gráficos que como vemos todos parecen
aceptables.
El modelo de regresión es:
DURACIÓN = 40,8333 + 0,166667*VELOCIDAD + 5,66667*GEOMETRÍA +
3,41667*ANGULO - 4,41667*VELOCIDAD*ANGULO
Puesto que lo que se quiere es maximizar la vida (en horas) de las máquinas, tendremos que
dejar estos niveles en:
226
Cosa que cabía esperar ya que tanto el B como el C que eran los factores significativos tenían
signo positivo; estos se quedan en el +1 y puesto que la interacción AC tiene signo negativo,
para contrarrestar su efecto ponemos a A en el -1.
Lo primero que tenemos que hacer es ver si el factor bloque es significativo. Como vemos en la
tabla ANOVA lo podemos quitar ya que es irrelevante.
De nuevo vamos a poder seguir las dos estrategias: bajar el orden y proyectar el modelo
eliminado datos con el exclude.
227
Antes de hacer alguna recomendación miramos los plots para ver si el modelo es adecuado.
Todos son correctos, el único del que tenemos cierta sospecha es del plot de normalidad, pero
al grabar los residuales vemos que el p-valor de Shapiro Wilk es > 0,05
En este problema lo que buscamos es minimizar el número de fisuras, por lo tanto:
Tenemos que crear un diseño nuevo, de 2 variable respuesta con 3 factores experimentales. Lo
único que cambia del tema anterior es que ahora tenemos que poner factorial en 2 bloques:
Y copiamos los datos de la réplica 1 del problema 6-1:
No ignoramos el factor bloque. El modelo es bastante parsimonioso, vamos a tener que
basarnos en el plot de normalidad para hacernos una idea de donde "dar el corte"
228
Seguramente con la interacción AC y el factor C nos sea suficiente, aunque por orden de
jerarquía tenemos que dejar el factor B. Vamos a suponer que la interacción ABC no es
significativa, que lo es el bloque.
Y nos quedamos con el siguiente modelo:
(Antes de hacer cualquier
predicción nos hemos
asegurado de que el modelo
es adecuado mirando los
plots).
En este problema lo que pretendíamos es maximizar la duración de la herramienta, luego
sabemos que el factor C va a ir en positivo, y el Factor A en negativa ya que nos interesa que
la interacción contrarreste su efecto negativo.
Para el caso del B podemos mirar cómo afecta a la variabilidad para decidir su signo:
229
Tampoco afecta demasiado a la variabilidad por lo que para la elección de B nos basaremos en
menor coste, u otro parámetro que la empresa estime oportuno.
Se nos presenta un modelo difícil ya que la interacción triple es uno de los efectos que está en
cabeza. La cuadruple la podemos obviar si pensamos que es tan grande por el efecto del
bloque. El test de normalidad de los efectos tampoco nos lo deja muy claro.
Vamos a empezar quedándonos con un modelo 7 efectos, en realidad de 6 porque vamos a
quitar el ABCD:
Podemos seguir purgando:
230
Aunque el R cuadrado ajustado no es muy grande...
Todos los plots son aceptables incluido el
de normalidad del que en principio
teníamos sospecha:
Teniendo en cuenta que en este modelo lo que se pretendía era maximizar:
En resumen: cuando hay bloques en réplica única tenemos la estrategia de la confusión. Para
ello se necesita que el número de bloques sea del tipo 2r; es decir, potencias de 2: 2 bloques, 4,
8... Lo que vamos a pretender es mezclar el error.
21 bloques -> 2k en 21 bloques -> I=ABCD… El decir esto quiere decir que los dos bloques son: el
bloque 1 cuando ABCD está en el más y el bloque 2 cuando ABCD esté en menos 1. Si pienso
que la interacción no va a estar activa lo atribuimos al bloque.
22 bloques – 2k en 22 bloques -> Tengo que sacrificar 2 efectos y ya no vamos a poder ir
directamente a por la interacción de mayor orden porque tendremos que sacrificar otro efecto
relevante. Imaginemos que tenemos un 25, tenemos que coger una estrategia por ejemplo 43-3 -> I = ABC = CDE = ABDE. El problema es que Statgraphics no es flexible para coger la
estrategia de confusión.
23 bloques – Perdemos tres productos dobles y los 3 triples; hay que busca equilibrios.
Al final, afortunadamente si tenemos una estructura de confusión igual al que tiene
Statgraphics, esto aparece gráficamente bien detallado.
231
Ejercicios bloques
B = factor cualitativo, C = no está muy claro que se pudiera tratar como cuantitativo, es un
poco cualitativo y D = cualitativo.
Réplica única pero se hacen 4 bloques.
DOE – Analizar diseño – Orden de interacción: 4 y no ignoramos el número de bloque.
Si miramos el plot de normalidad de los efectos, no se ve ningún punto que se salga
claramente de la linealidad. Lo mismo que vemos en el diagrama de Pareto cuya disminución
es parsimoniosa, lo cual nos dificulta bastante las cosas.
Además vemos la estructura de confusión: ACD – ABD (elegidos para sacrificar) y como
consecuencia se va a confundir también su producto (BC). Empezamos con orden 3, pero se
nos confunde un orden 2 que no es tan agradable. Sabemos que en un 24-2 está claro que no va
232
haber una combinación mejor para juntar 8 letras en 3 bloques (3+3+2, 4+2+2 y 4+3+1), por
ello esta elección es la menos mala de todas.
Cuando vemos el diagrama, el segundo efecto en importancia es ACD + bloque, voy a tener la
sospecha de que se deba al bloque y no a la interacción.
Vamos a bajar de orden al modelo para empezar a analizar: bajamos a orden 2 y quitamos el
BC:
A estas alturas si miramos la tabla ANOVA, el R cuadrado está bien pero el R 2 ajustado aun es
muy pequeño = 61,3. Tenemos que seguir purgando:
Ya empieza a verse el B como significativo. Lo único sustancial que queda es el B, si quito todo
se queda en el límite de la significación. Modelo muy pobre.
Estudiar las condiciones que maximizan la respuesta.
Teniendo en cuenta que el único factor es importante, y es positivo, lo que más interesa desde
el punto de vista industrial es el horno 3. Si tenemos en cuanta el modelo B, C, A, AC y
teniendo en cuenta que todos los factores son positivos no tenemos ninguna duda, todos en el
máximo.
233
Dar un Intervalo de Predicción al 90% para la respuesta obtenida a 1660ºC, en el horno nº 1,
Una bobina de diámetro Grande y SIN humidificación por Gas.
El 1660 sería el -0,6 y el resto
Ahora vamos al panel correspondiente y primero cambiamos el nivel de significación al 90%.
Estudiar posibles efectos de dispersión.
Los que presentan variabilidad son el Horno y el diámetro
Pero para ver su p-valor, si no estamos muy seguros vamos a: Comparar dos muestras – XY
independientes – Sresiduals vs C:
234
Efectivamente, el p-valor es 0,04 hay una variabilidad significativa asociada al cambio de
horno. Produce menos variabilidad el horno 3 (+1) de manera significativa. En el caso del C
también tenemos variabilidad asociada al diámetro.
Ahora tendríamos que hacerlo frente al factor que hemos quitado: humidificación. Frente a
este no hay efecto de dispersión: p-valor grande.
En este modelo tan pobre que estamos ajustando, resulta que además los factores B y C
encima tienen efectos de dispersión, es decir, no está bien ajustado; es un modelo deficiente.
** Cambiamos el 55 por 75 en el databook por si nos hubiéramos confundido al meter los
datos. Esto hace más claro y más evidente la importancia del factor B. Podíamos dejarlo solo
en el modelo con un R2 de 63%
235
Como es un 25 tenemos que hacer 4 bloques = 8*4 = 32
-
Analizar los datos.
Comentar la estructura de confusión elegida y valorar su idoneidad.
Es un 25 por lo que vamos a perder 10 letras. Las opciones de esquemas de confusión que
tenemos son: 4+3+3, 4+4+2, 5+3+2+, 5+4+1. Quedándonos con la primera opción ya que es el
óptimo. ABD, CDE y ABDE
A la vista del diagrama hay una clara diferencia entre una cabeza de efectos, un segundo nivel
de importancia y por último una cola irrelevante. Lo que tiende uno a pensar a la vista de las
interacciones CDE y ABD se deben al bloque.
Entonces bajamos a 2 el orden de interacción:
236
Y proyectamos en el D y el E; es decir, eliminamos todo lo que hay a la cola. Cosa que nos
respalda el diagrama de normalidad.
-
Estudiar el efecto de no haber considerado los bloques.
Como el bloque está siendo realmente importante, si hubiéramos ignorado el número de
bloque me hace ver más difícil las cosas; aunque en esencia no cambian las cosas. El ruido de
los bloques nos dificulta ver la señal.
Estudiar las condiciones que minimizan la respuesta.
-
Dar un Intervalo de Predicción al 90% para todos los factores en +0,5.
237
Estudiar posibles efectos de dispersión.
Como vemos, no hay efectos de dispersión.
CONCLUSIÓN DEL TEMA: Lo que se pretende con los bloques es bloquear el efecto de factores
indeseables. Sin embargo, no podemos meter bloques en un diseño de réplica única sin perder
algún efecto. Lo que tendremos que tener en cuenta es elegir la mejor estructura de
confusión.
238
TEMA 8: Disenos factoriales
fraccionados de dos niveles
Empezamos los factoriales replicando, luego dimos un segundo paso a la réplica única para
reducir coste. Y ahora vamos a poner las cosas más difíciles, muchos factores. Si por ejemplo
tenemos un 2k = 10 completo de réplica única ya son 1024 pruebas – Muy caro.
Tenemos 210-1 efectos principales = 1023 (uno es la media general). En este modelo tenemos:
(10
) + (10
) + (10
)
1
2
3
120 = interacciones triples
Efectos principales
45 = interacciones dobles
El total si nos quedamos aquí tenemos 175 efectos de interés. No solo no vamos a perder
efectos sino que se van a mezclar que es aún peor. Si tengo la suerte de que los efectos
dominantes son de orden bajo hay mucha cola que recortar.
239
Los diseños fraccionados se usan con el ánimo de que la experimentación sea más económica
en todos los sentidos. Vamos a ver de qué manera se puede, aun haciendo esto, recuperar
mucha información.
240
Imaginemos que queremos hacer un 23 y queremos hacer únicamente la mitad. Esto lo vamos
a nombrar como:
1 3
∗ 2 = 23−1
2
Aquí tendríamos la tabla de los signos. Organizamos la tabla de los signos como si fuéramos a
hacer bloques. Pero solo vamos a correr uno de ellos. En este caso, nos quedaríamos con las 4
filas de arriba que se caracterizan porque en este caso I = ABC (fracción principal). La otra parte
sería la que I es distinta de ABC (fracción alterna).
241
Imaginemos que solo nos quedamos con las cuatro primeras filas. Como podemos ver la
columna de A = BC, la de B = AC y la C = AB. Por lo cual al analizar los datos se van a mezclar.
Esto era de esperar porque en definitiva en vez de tener 8 efectos, tengo 4, con lo cual no
tengo 8 efectos principales tengo 4. Además de dar por perdido la interacción ABC ya que se
inyecta en la I. Esta apuesta inicial de sacrificar la interacción es igual a ABC = I = relación de
definición.
I = ABC
A = BC
B = AC
C = AB
Estas 4 igualdades indican que los efectos van a aparecer sumados. Esta estructura recibe el
nombre de estructura de alias. Se dice que el BC es alias del A, el B es alias de AC. Todos estos
efectos aparecen empaquetados y son indistinguibles.
No me va a quedar más remedio que creer que la naturaleza es buena y que va a estar siempre
gobernada por los efectos de nivel bajo.
** No tenemos dudas en por qué escogemos la interacción más grande mezclado con I. Si
hubiéramos escogido I = ABC -> A = BC, B, AC… y pero aun si hubiéramos igualado I = AB ya que
se me mezclarían los factores principales.
Construcción de fracciones un medio – Pág. 320
2 4-1
I = ABCD
A = BCD
B = ACD
C = ABD
D = ABC
AB = CD
AC = BD
AD = BC
Estructura de alias
Esto es mejor que antes, pero aun así esta estructura de alias es muy pobre; aún no tengo
disponibles las interacciones dobles.
Imaginemos que en la tabla de Pareto vemos que están fuertes los que están en negrita.
Vamos a pensar, que los importantes son A, B y su interacción.
En los bloques perdíamos un bloque, pero ahora es peor ya que no sólo lo perdemos sino que
se mezclan.
242
Create New Desigin – Screening – 4 factores.
Esto quiere decir que cuando voy a
experimentar los factores A, B, C por
ejemplo en – voy a poner D = Si en Statgraphics ponemos en – en lugar
del + nos haría los bloques alternativos.
243
Si metemos orden de interacción 3:
Pero vamos a poner interacción 2.
A la vista de estos resultados nos quedaríamos con que el factor A, C y D, la interacción AC y la
AD.
244
Vamos a ver cómo nos da los mismos resultados que en el ejercicio 6-2.
En resumen:
2k-1 = Fracción ½ de un diseño 2k
+1 – Fracción principal
I = ABCD
-1 – Fracción alterna
245
A = No sabemos si es cualitativo o cuantitativo al igual que el C.
En la tabla anterior se muestra la estructura del diseño y las observaciones y exactamente cuál
es la fracción. Si voy a hacer un diseño 25-1 tendría despliegue suficiente para combinar los 4
primeros factores y ya veríamos que hacer con el quinto. Vamos a hacerlo coincidir con la
interacción de los 4 factores anteriores. Si multiplicamos todas las columnas no tiene que dar
+1 pues es la fracción que hemos elegido.
Para hacer el diseño – Create New Design – 5 factores y ponemos Half Fraction. Quitamos la
aleatorización y en este caso no tiene ningún interés mirar los generadores.
Abrimos el ejemplo 8-2:
El orden de interacción 5 ni siquiera nos deja meterlo y si metemos interacción 4 nos aparecen
los 16 paquetes de 2 en 2 de los que consta la estructura de alias de este diseño. Nos da igual
ponerlo en orden 4 – 3 – 2 que el diagrama va a ser el mismo.
246
Vemos que el efecto B domina sobre todos los demás, y luego los otros dos factores
principales A y C. Después tenemos dos interacciones dobles (con su alias, pero no vamos a
apostar por estas interacciones triples).
Si miramos el gráfico de normalidad de los efectos, los efectos con los que nos vamos a quedar
están bastante claros: 4 efectos únicamente.
Proyectamos:
Nos queda un modelo muy sencillo en el que todo es fácil de interpretar dado que todo son
efectos positivos.
Tendríamos que verificar el modelo mirando los plots de residuales los cuales no parecen
significativos. Sin embargo tenemos una sospecha de dispersión por lo que vamos a grabar los
residuos y los vamos a enfrentar en un diagrama de dispersión con los factores que hemos
quitado (el D y el E).
** Como están en modo Character, tenemos que copiar estos
datos en una nueva columna.
247
-
Factor D: Los residuos frente al tiempo de grabado parecen un poco dispersos. Para
ello hemos tenido que hacer Scatterplot – Exploratory plots – X-Y plot.
Ante esta sospecha, podemos ir a compare – two samples y enfrentamos los sresiduals
vs tiempo de grabado_1 vemos que el p-valor es = 0,0662, por los pelos…
-
Factor C: Hacemos lo mismo, pero en este caso sólo con ver el gráfico sabemos que no
hay variabilidad al pasar de nivel bajo a nivel alto. El p-valor además es muy grande:
0,91907
En este caso, como lo que se pretende es maximizar tenemos las cosas claras ya que todos los
factores son de carácter positivo. Y en cuanto al C y el D tendremos que darlos aquellos valores
que minimicen la variabilidad. En el caso del D estará en -1 y C puede estar en el nivel que la
empresa determine por otros factores ya que no afecta ni a la variabilidad ni a la respuesta.
248
Aquí se nos plantea correr la otra fracción = -ABC. En una fracción ½ correr las fracciones y
combinar los resultados equivale a realizar el modelo completo, luego no tendría mucho
sentido.
8.3 LA FRACCIÓN UN CUARTO DEL DISEÑO 2k
En un diseño 2k-2 que es lo mismo que decir fracción ¼ de un 2k solo voy a poder estimar la
cuarta parte de los efectos, y además se me van a confundir de 4 a 4. Considere una situación
en la que tres factores, cada uno con dos niveles, son de interés, pero los experimentadores no
están en posición de correr las 23 = 8 combinaciones de tratamientos. Sin embargo, pueden
llevar a cabo cuatro corridas. Esto sugiere una fracción un medio de un diseño 23 Puesto que el
diseño contiene 23-1 = 4 combinaciones de tratamientos, es común llamar diseño 23-1 a una
fracción un medio del diseño 23
¿Cómo se genera un diseño?
Elijo 2 efectos a sacrificar P, Q: I = P = Q (los igualo y los hago coincidir con el efecto general). Y
por una cuestión elemental I = P = Q = P*Q -> Relación de definición.
¿De dónde sale la fracción?
P = +1, Q = -1 -> Fracción principal (la que se suele correr)
P = -1, Q = +1
P = +1, Q = -1
P = -1, Q = -1
Estructura de alias:
I = ABCE = BCDF = ADEF
Las letras tienen que sumar 2*k. En este caso como K = 6 = 12 letras
Esta es la estructura de alias óptima – > 4-4-4
249
Tendríamos 16 paquetes de 4 en 4: soy capaz de reconocer 16 efectos, pero 16 efectos que no
son puros, están mezclados de 4 en 4.
Otra manera de enfocarlo, si yo tengo un 26-2, tengo 16 pruebas experimentales, lo cual me
daría perfectamente para combinar completamente los 4 primeros factores y luego elijo a que
vincular los otros dos que me quedan; el E y el F lo tengo que asociar a algo de los restantes
factores. Entonces mi estructura de confusión sería I = ABCE = BCDF dando lugar a ADEF. Así
tendríamos que ir multiplicando A = BCE = …
Sin embargo, vamos a tener el problema de que las interacciones dobles se me van a mezclar.
¿Cómo se hace esto con Statgraphics?
Create New Desing – 6 factores – Quarter Fraction – Generadores: E = ABC y F = BCD lo cual
nos coincide con el esquema con el que trabaja el libro. El programa me dejaría elegir con + y
con – las distintas combinaciones, pero no me deja cambiar los generadores.
Abrimos los datos EJ 8-4.
Sabemos que el objetivo es reducir la contracción. No se puede ir hasta el orden máximo de
interacción (6) porque está confundida dicha interacción. Tenemos que bajar hasta orden 3:
250
A = ACE = CDF
AB = CE = ACDF
Y así sucesivamente..
Por lo demás, el análisis es igual. Lo que si que es importante es el tratar de interpretar los
efectos confundidos en término de los efectos importantes. Cuando tenemos interacciones
dobles confundidas tenemos dudas de sobre quien es la importante: vamos a pensar que ya
que los factores A y B son los significativos, la interacción significativa será la AB.
En el plot de normalidad vemos que 3 van a ser los factores significativos, o como mucho 5.
Vamos a purgar el modelo: una vez bajado el orden de interacción a 2, proyectamos en el C, D
E y en el F.
Esto representa una variabilidad recogida del 96% - bastante importante.
Por último, tenemos que analizar los efectos de dispersión: grabamos los residuos
studentizados y los comparamos con respecto los factores C, D, E y F que son los que hemos
quitado (¡¡¡OJO!!! Marcar la segunda opción):
251
De todos ellos, el que nos ha mostrado una posible dispersión es el factor C = tiempo. Como
vemos tiene un p-valor muy pequeño, lo cual indica que sí que ofrece variabilidad al pasar de
un nivel a otro.
La recomendación para minimizar la contracción es ponerlos todos en el nivel bajo, además
después de saber que el tiempo tiene un efecto sobre la dispersión hay que ponerle en nivel
bajo. El resto, no influyen en el modelo por lo que se busca para ellos otro tipo de asignación
en base a otro criterio.
RESOLUCIÓN DEL DISEÑO
Si yo tengo un diseño factorial 2k-p = una fracción 1/2p de un diseño 2k, quiere decir que el
diseño 2k se puede partir en estos trozos y solo vamos a correr uno; es decir, vamos a correr 2kp
experimentos. Digamos que los efectos se organizan en paquetes de 2p efectos mezclados o
confundidos entre sí. Es decir, que lo que voy a tener es lo siguiente:
Un efecto-i1 confundido con un efecto-i2 confundido con … efecto-ir
2k-p
Relación de definición
De las misma forma efecto-j1 = efecto-j2 =… = efecto-jr
…
2p
Tenemos una longitud de 2k-p y una anchura de 2p
La primera de estas líneas es lo que llamamos la relación de definición
Tenemos que coger efectos a sacrificar y con ellos se genera la relación de definición; y a partir
de ahí surge la estructura de alias.
Una cuestión adicional a mayores de que los efectos se ordenan en bloques indistinguibles; la
idea es procurar que todo aquello que sea importante no se confunda con otras cosas que
sean importantes. Por ejemplo, los efectos principales no se pueden confundir entre sí. Las
interacciones dobles también son importantes.
Es decir, cuando estamos haciendo diseños fraccionarios lo esencial es descubrir efectos
principales e interacciones dobles. A lo demás vamos a renunciar.
252
La resolución de un diseño es una medida del precio que pagamos en perdida de potencia por
no haber experimentado tanto como lo que supone realizar el experimento completo.
Un diseño fraccionario se dice que tiene resolución R cuando ningún efecto que se escribe
con p letras es alias de otro efecto que se escribe con R-p letras. O sea, un diseño tiene
resolución r si ningún efecto de orden p (el que requiere p letras para ser escritos: factores
principales orden 1, interacciones dobles orden 2…) es alias de un efecto que contiene menos
de R-p letras.
-
-
-
Como poco vamos a considerar diseños de resolución III. En este caso los efectos
principales se confunden con interacciones dobles (3-1=2). Es decir los efectos
principales no se pueden confundir entre sí, ya que como mínimo se tienes que
confundir con las interacciones dobles. Y además es el índice más bajo que se le puede
dar. La resolución se expresa en número romanos y se suele poner la resolución como
subíndice del 2.
Diseño de resolución IV: los efectos más bajos a los que los dejamos confundirse a los
efectos principales son como máximo de orden 3 (4-1=3). Es decir, en un diseño de
resolución IV los efectos principales son alias de las interacciones triples como mínimo;
no se pueden confundir con las dobles ni entre sí. Y las interacciones dobles no se van
a poder confundir con las que tengan menos de 4-2 = 2, es decir, no se pueden
confundir con los efectos principales pero se pueden confundir entre sí.
Diseños de resolución V: Los efectos principales no se confunden ni con interacciones
dobles ni triples. Se confunden con cuadruples como mínimo. En el caso de las dobles
5-2=3, no se pueden confundir entre sí.
Si uno quiere hacer un diseño en el cual las interacciones
dobles y los efectos principales libres como mínimo
tenemos que irnos a la resolución V. Si solo queremos
tener los factores principales libres nos valdría con
resolución III.
A la vista de la tabla 8-14 que nos muestra las mejores
combinaciones posibles tenemos que:
**Cuando se dice que los generadores son C = AB, es
equivalente a decir I = ABC.
Con 5 factores vemos que hay factores que pueden llegar
hasta resolución 5, ya que los factores principales se
confunden con las interacciones cuádruples y las dobles
con las triples.
Podríamos decir que la resolución es el orden más bajo
de los efectos que se confunden con los principales +1, y
expresar este número en números romanos.
253
Cuando llegamos ya a diseños con muchos factores, como es el caso de 8 podemos jugar con
muchas cosas en función de lo que queramos gastarnos. Si yo tengo un 28-1 de resolución 8,
tendría que hacer 128 pruebas, siendo 8 los efectos principales, (8*7)/2 = 28. Es decir, en total
hay 36 efectos probablemente importantes. Ni si quiera aparece esta opción en la tabla
porque es mucho despilfarro. Esta sería la fracción ½.
Además con la interacción ¼ (
) seguimos teniendo resolución 5. Los efectos principales no
se confunden ni con interacciones dobles ni triples. Se confunden con cuadruples como
mínimo. En el caso de las dobles 5-2=3, no se pueden confundir entre sí.
La fracción 1/8 y 1/16 ambas tienen resolución 4. Lo más probable es que con el 1/16 se
confundan todas las interacciones dobles. En cambio, en el 1/8 se perderán solo algunas.
En el apéndice tenemos el complemento a esto, la estructura de alias para varios factores,
como se ve en la imagen inferior:
Orden de interacción 4.
254
El diagrama de Pareto muestra que el factor D domina de manera “brutal”. Y luego tenemos
otros dos paquetes, lo está claro es que a partir del AE ya nada va a ser importante. Si miramos
el plot de normalidad de los efectos, vemos que nos quedamos con el D sólo, o con los tres
primeros factores.
Como el C está muy abajo y todas las interacciones también, proyectamos sobre C. Que
equivaldría a tener los 4 factores replicados completos con réplica única. Miramos como queda
esta primera etapa.
Aun así hay que seguir purgando, quitamos todo a partir del E.
255
Una vez que ya tenemos este modelo final, pasamos a analizar los residuos. Todos ellos
parecen aceptables.
Nos quedaría mirar cómo influyen a la dispersión los efectos que hemos quitado, el C y el E.
Para ello – Scatterplots – Exploratory plots – X-Y plots:
256
a) Escribir la estructura de los alias de este diseño. ¿Qué resolución tiene este diseño?
b) Analizar los datos. ¿Qué factores influyen en la altura libre promedio?
Al tener el diseño 5 factores los experimentadores tendrían que haber corrido: 25 = 32
combinaciones de tratamientos. Sin embargo, han corrido 25-1 = 16 combinaciones; es decir,
han hecho la fracción ½ del diseño.
Sin embargo tienen la peculiaridad de que la estructura de alias no es como la estandar, lo que
se está haciendo es que el D es lo resultante de multiplicar ABC. Por tanto, tenemos un 25-1
replicado 3 veces (aunque esto no afecta) en cual tenemos D = ABC o lo que es lo mismo I =
ABCD. Sin embargo, esta no es la estructura óptima. La recomendación para estos diseños era:
I = ABCDE y es lo que implementa Statgraphics. Esta estructura haría que los factores
principales se confundieran con una cuádruple y las dobles con las triples (resolución V: 25−1
𝑉 ),
5−1
al contrario que hace el problema (resolución IV 2𝐼𝑉 : los efectos principales se confunden
con triples y las dobles entre sí):
I = ABCD
A = BCD
D = ABC -> B = ACD
C = ABD
D = ABC
E = ABCDE
AB = CD
…..
Entonces estamos perdiendo resolución sin necesidad. Vamos a analizar los datos, escogiendo
en el desplegable la última opción User especifacation, sin necesidad de poner réplicas ni
nada, copiamos los datos desde el Montgomery pero sin el nombre las columnas.
Aparece la estructura de alias óptima, solo falta el I = ABCD ya que no se deja. Aquí vemos
todos los efectos principales mostrados con las triples (la E aparece sola porque está mezclada
con la quíntuple). Afortunadamente, el desastre a la hora de elegir la estructura de alias no ha
sido muy castigado ya que todas las interacciones dobles confundidas entre sí están a la cola, y
no hemos tenido que dudar con cuál de las dos nos quedamos.
257
Por el hecho de tener replicas nos aparece la línea de corte, no había necesidad de fraccionar
el modelo: teníamos potencia suficiente.
Los efectos significativos son el A, E, B, D y la interacción BE. Podría ser que al purgar el modelo
el factor D se perdiera o al revés, que la interacción AE sea ahora significativa.
Lo primero que tenemos que hacer es bajar el orden a 2 y quitar más a mayores.
Una vez elegido este modelo como modelo final tendríamos que analizar los plots de
residuales. Incluso tenemos que ver si en el factor que hemos quitado hay un efecto de
dispersión.
c) Calcular el rango y la desviación estándar de la altura libre para cada corrida. ¿Hay algún
indicio de que cualquiera de estos factores afecta la variabilidad de la altura libre?
Lo que se pretende aquí es que se traten los datos como si fueran dúplicas, por lo que tenemos
que meter los datos de otra manera. Tenemos que volver a generar el diseño
258
1) Efecto sobre la media:
No podemos, no tenemos calculada la media. Tendríamos que volver a nuestro modelo
anterior. Ponemos todas las columnas incluida la 8, en modo carácter.
Vamos a Comparar > Anlysis of varianza > One – Way Anova Columna 6 – Columna 8. El
problema es que no sabemos a qué media pertence cada uno. Abrimos de nuevo el 7c y
copiamos los datos que hemos obtenido en la combinación correspondiente:
Vamos a analizar el diseño y ponemos la variable media. Llegamos a los mismos
resultados que antes.
2) Efecto de dispersión
Tenemos que poner la variable respuesta (tanto la 1 como la 2 ya que miden
prácticamente lo mismo la desviación típica y el rango) como logaritmos. Además
ponemos orden 5 y excluimos ABCD ya que es la relación de definición
Este diagrama de Pareto y el gráfico
de normalidad nos hacen abandonar
esto, todo es ruido.
259
a) Verificar que los generadores que se utilizaron en el diseño fueron I = ACE e I = BDE.
Esta sería la estructura óptima. 3+3+4 (el 4 surge como multiplicación de ambas ABCD)
Creamos un 25-2 para ver la estructura de alias
Como no sigue la estructura de alias que creíamos volvemos a realizar el modelo pero ahora
generándolo como usuario.
Haríamos las 8 corridas, (e = todos en -1 y e en +1, etc) Pero ya están metidos los datos:
Hasta orden 3 no nos deja meter, por lo que una interacción triple está perdida con un factor
principal. Metemos orden 2.
Comprobamos que la estructura de alias es la que nos dice el enunciado:
B = DE o lo que es igual I = BDE
C = AE o lo que es igual I = ACE
Y por ello sale ABCD
Y así sucesivamente:
260
I = BDE = ACE = ABCD -> Relación de definición
B = DE = ABCE = ACE
C = BCDE = AE = ABC
E = BD = AC = ABCDE
…
(Tenemos que calcular tanta estructura de alias como nos sea necesaria para conocer
la resolución)
Es decir, tenemos resolución III -> Esto solo se puede hacer cuando solo vamos a apostar por
los efectos preliminares.
Vamos a purgar, y para ello lo bajamos a orden 1, dejando solo el factor B ya que es el único
significativo. Es decir, la variable respuesta es: Y = β0 + β1*Factor B
Se corre una fracción 1/8 con tres réplicas. Con alguna razón se trabaja de esta manera con el
objeto de estimar el promedio y el rango; es decir, tratarlas como duplicas en lugar de réplicas.
Y así con todos. Afortunadamente tenemos los datos ya metidos.
261
Efecto de la media (Var 1):
Tenemos una resolución 3, ya que las
interacciones dobles no nos la deja meter
en el modelo, se entiende que están
mezcladas. Además es un 26-3 = 8 corridas,
que dan para estimar 7 cosas. Tenemos 6
efectos principales, 15 (6*5/2)
interacciones dobles…
Aparentemente todo es no significativo pero si quitamos el B y el C, queda un modelo aditivo
en los 4 restantes y además todos apoyan positivamente a la respuesta.
Como hay que minimizar la recomendación es todos los significativos en el -1 y para los dos
que hemos quitado hemos comprado que no hay efecto de dispersión.
Digamos que una experimentación tan a bajo coste nos ha servido al menos para saber que en
la respuesta actúan 4 efectos en los que hay que poner más énfasis para reducir aún más el
modelo. Pero imaginemos que el factor D es alias de EF, no sabríamos quien es el importante,
estarían totalmente confundidos. O sea, que este experimento solo sirve para descartar los
factores C y B aún queda mucho por estudiar.
Vamos a ver qué pasaría si estudiamos los efectos de dispersión (Var 2)
Es puro ruido, no hay nada relevante. El R2 ajustado es del 0%
262
263
Todos los factores (6) son cuantitativos. De nuevo aparece el tratamiento de réplicas como
dúplicas. Es una fracción 1/4 (16/64). Si está bien hecha la fracción podemos tener una
resolución considerablemente buena.
MEDIA:
Para meter nosotros los datos – DOE – 6 factores – 2 respuestas (media y desviación típica o
rango) Si en los factores metemos letras, tenemos que quitar el tic del continuos. – Diseño
especificado por el usuario.
Pasamos a analizar los datos sabiendo que la variable 1 tiene los promedios y la variable 2 las
desviaciones típicas.
Orden 3: Aquí tenemos los 15 posibles efectos con sus alias, el 16ª sería el paquete que está
con la I (Identidad) por eso no tenemos línea de corte porque el modelo está saturado, se trata
de un hipermodelo que pasa por todos los puntos.
En el plot de normalidad solo hay un efecto dominante y al estar en la cola por encima de la
diagonal el efecto va a ser negativo.
264
Tenemos una resolución 4, ya que la resolución es una unidad más de los efectos de menor
tamaño que se confunden con los efectos principales. En este caso, los factores principales
están confundidos con las interacciones triples. Sin embargo, tienen la pega de que las
interacciones dobles están confundidas entre sí.
El modelo es 26−4
𝐼𝑉
La estructura de alias es:
F + ACD + BDE
I = ACDF = BDEF = ABCE – Relación de definición
A = CDF = ABDEF = ABCE
…
AC = DF = ABCDEF = BE
(Así con los 16 paquetes)
Para empezar a purgar bajamos a orden 2 y ya vemos que los efectos principales se ven
claramente. A continuación tendríamos que proyectar en B ya que está abajo del todo
A partir de aquí, tendríamos claro que se trataría de un modelo aditivo con esos 4 factores
principales. (El E lo dejamos porque es prácticamente significativo y además su R2 y su R2
ajustado disminuyen)
265
Además si observamos los residuos, vemos que todas las gráficas son aceptables.
Al final vemos que el modelo que nos queda es:
Si lo que pretendemos es minimizar la respuesta:
Es decir, la duración del ciclo y el Punto de rocío de
la cocción tienen que ser altos, y la temperatura de
laminación y la presión han de ser bajos.
Los efectos de dispersión lo vamos a estudiar a través de la desviación típica:
Quitamos las interacciones triples. El A y el B son los más importantes. Y de las siguientes
interacciones dobles las importantes serían por lógica la AF y la AB.
Resulta que lo más importante es que el factor B no estaba en el modelo de las medias, asi que
vamos a poder cambiarlo en función de cómo actúe frente la dispersión. Vamos a ver la
optimización minimizándola.
266
El A tanto para optimizar la media como la dispersión
nos interesa tenerlo en el nivel bajo. El B lo tenemos que
poner en el alto. El F nos interesaba que estuviera en
alto y para minimizar la dispersión bajo; tenemos una
contradicción y aunque el F por sí mismo tiene un
pequeño efecto pero aparece fuertemente en dos
interacciones. Tendríamos que optar por optimizar la media.
267
Cada placa la han medido en tres sitios, por tanto está claro el tema de las dúplicas. De nuevo
tenemos los datos con las unidades naturales (no con 1 y -1). Si quisiéramos poner lote 1 y lote
2 tenemos que quitar continuo.
Tenemos 6 factores y 32 observaciones. Por tanto tenemos una fracción 1/2, por tanto la
interacción óptima es confundir la I con la interacción máxima.
Vemos un diagrama de Pareto con un orden muy marcado:
268
Empezamos a purgar, bajamos el orden a 2 y proyectamos en A y C
Si el R2 y el R2 ajustado es muy próximo es que no le sobran muchas más variables al modelo.
El plot de residuos frente a “run number” es un poco feo. Además en el factor B y el E
presentan mucha dispersión. Cosa que vamos a poder comprobar ahora con la siguiente
variable: dispersión.
269
Modelo muy difícil, empieza por interacciones triples. En perjuicio de lo que salga cuando
empecemos a purgar, aparece el F que no salía…Como suele ser en la realidad, no merece
mucho trabajar mucho este problema en esta parte ya que además es muy parsimoniosa.
Lo bajamos a orden 2 y dejamos el E, F y su interacción. Los 3 son significativos aunque nos
hemos cargado la interacción triple – R2 muy bajo.
270
La variable respuesta es un poco peculiar, los números van del 1 (el mejor) al 16 (el peor vino).
Tenemos 8 factores. El diseño completo tendría 256 corridas de las cuales sólo hemos hecho
16. Por tanto hemos cogido la fracción 1/16. La resolución es 4, por lo que los efectos
principales se van a confundir con las interacciones triples y las interacciones dobles van a
estar confundidas entre sí. 28−4
𝐼𝑉 Cosa que nos preocupa más. Todos los factores salvo la
temperatura.
271
Vemos que afortunadamente las 3 cosas de mayor tamaño son efectos principales; los
hallazgos son interpretables.
**La única estructura óptima única es la de la fracción ½ en la que siempre tenemos que
confundir I con la interacción máxima.
El plot de normalidad de los efectos es un poco confuso, no vemos con claridad lo que va a
pasar. Sin embargo, el de Pareto nos lo ofrece más claro, los dos primeros efectos principales
son los más destacados.
a) ¿Cuáles son las relaciones de los alias en el diseño seleccionado por Harry y Judy?
Tenemos 16 paquetes de 16 efectos. No aparecen todos, soplo los que tienen interés. Lo que si
se ve claramente es que tienen resolución IV. Efectos principales con triples.
b) Usar las calificaciones promedio (Y) como variable de respuesta. Analizar los datos y sacar
conclusiones.
Bajamos a orden 1 y dejamos G y D. Es decir, lo que determina como los catadores ven los
vinos son el factor D = levadura y el G = Racimos completos. Como buscamos minimizar, el
factor D interesa ponerle en el nivel alto y el G en el bajo. (El R2 no llega ni al 40%, lo cual no es
demasiado preocupante tratándose de opiniones)
Antes de hacer esto nos hemos cerciorado de la validez del modelo.
272
c) Usar la desviación estándar de las calificaciones (o alguna transformación apropiada tal
como log s) como variable de respuesta. ¿Qué conclusiones pueden sacarse acerca de los
efectos de las ocho variables sobre la variabilidad de la calidad del vino?
Es un modelo muy parsimonioso, además es un modelo gobernado por interacciones dobles.
No merece la pena seguir con este modelo, no nos va a salir nada significativo.
d) Después de mirar los resultados, Rarry y Judy coincidieron en que uno de los miembros
del panel (DCM) sabía más de cerveza que de vino, por lo que decidieron eliminar su
calificación. ¿Qué efecto tendría esto en los resultados y las conclusiones de los incisos b y c?
Abrimos los datos 26.d y volvemos a analizar los datos.
Al quitar la opinión de este experto ya no está tan claro la importancia del factor G. De hecho
ahora ya no es significativo.
e) Suponga que justo antes de empezar el experimento, Rarry y Judy se enteraron de que las
ocho nuevas barricas que ordenaron de Francia para usarlas en el experimento no llegarían a
tiempo, y que las 16 corridas tendrían que hacerse con las barricas viejas. Si Harry y Judy
simplemente eliminan la columna e de su diseño, ¿qué ocurre con las relaciones de los alias?
¿Es necesario que empiecen de nuevo y construyan otro diseño?
En realidad, se dieron cuenta, que el factor C no se utilizó. El diagrama de Pareto es el mismo,
lo único que cambia es a quien tiene puesto detrás. De nuevo (aunque ponga C, es el D de
antes) el modelo está gobernado por D y por G.
273
Esta sería la estructura renombrada correctamente:
El eliminar un factor en una estructura de alias es muy predecible, únicamente tenemos que
quitar la fila donde aparece:
274
f) Rarry y Judy saben por experiencia que es improbable que algunas de las combinaciones
de tratamientos produzcan buenos resultados. Por ejemplo, la corrida con las ocho variables
en el nivel alto generalmente resulta en un vino con una calificación baja. Esto se confirmó el
8 de marzo de 1986 en la prueba del vino. Quieren establecer un nuevo diseño para su Pinot
Noir 1986 utilizando estas mismas ocho variables, pero no quieren correr el experimento con
los ocho factores en el nivel alto. ¿Qué diseño sugeriría el lector?
Tendríamos que experimentar otra fracción. La que estábamos haciendo es la que todos los
generadores están el más. Un diseño 28-4 tiene que tener 4 generadores I =G1 = G2 = G3 = G4 y
el resto serían los productos de 2 en 2, de 3 en 3 y de 4 en 4. Los generadores, además de
decirnos la estructura de alias que tenemos, nos indica que fracción estamos corriendo. Si
ponemos todos los generadores en +1, esta se llama fracción principal. Pero tenemos 16
combinaciones de signos en estos generadores, trabajar con una u otra no nos va a propiciar
ninguna ventaja.
275
Tenemos 5 factores, por tanto tendríamos que haber hecho 32 corridas. Solo tenemos 16, por
lo que hemos optado por la fracción ½ pero la fracción alterna. Entonces podemos alcanzar
hasta resolución V. Es decir, los efectos principales se confunden con la interacción cuádruple.
25−1
𝑉
Lo purgamos
dejando
únicamente el
factor A, B y E.
Y validamos los
plots de
residuales.
276
Tenemos 10 factores, el número de corridas que tendríamos que haber hecho es 1024. Sin
embargo, hemos optado por un diseño con sólo 16 corridas -> Fracción 1/64 -> 210−6
𝐼𝐼𝐼
277
Diseño factorial fraccionado de 10 factores con 16 corridas, es decir, nos encontramos ante un
diseño factorial 210−6 = 24 = 16 𝑐𝑜𝑟𝑟𝑖𝑑𝑎𝑠
Y = proporción de vaciado defectuoso; y queremos saber qué consecuencias tienen los 10
efectos de estudio en el diseño.
𝑝̂ = 𝑝𝑟𝑜𝑝𝑜𝑟𝑐𝑖ó𝑛 𝑑𝑒 𝑣𝑎𝑐𝑖𝑎𝑑𝑜𝑠 𝑛𝑜 𝑑𝑒𝑓𝑒𝑐𝑡𝑢𝑜𝑠𝑜𝑠.
Vamos a estudiar la variable respuesta proporción de vaciados no defectuosos queremos
maximizarlo.
Como es un diseño de resolución III, el grado de interacción con el que vamos a poder
analizarlo no va a ser superior a 2.
Modelo parsimonioso, aunque se ve claramente que predomina el factor F y K sobre el resto.
El modelo está saturado, no se puede ver la línea de cortes de p-valores.
Purgamos el modelo:
278
El modelo lo purgamos más aun, y dejamos un
modelo puramente aditivo con los dos efectos
principales de interés
La respuesta Y=binomial b(N,P) donde N es el tamaño de la muestra y P la proporción de
defectos.
Plot de residuos: este nos tiene que salir como un doble megáfono (rombo)
En este tipo de problemas la homogeneidad de la varianza no se resuelve con el logaritmo sino
con la fórmula que vemos en el libro de Montgomery.
Volvemos a realizar el análisis del diseño pero con la col_13 que es la respuesta corregida con
la transformación seno. Aunque corrijamos los datos no tiene por qué variar demasiado el plot
de Pareto pero en cambio al ver el plot de residuos, vemos que el problema se ha corregido.
279
Tenemos 9 factores y 16 corridas: fracción 1/32 = 29−5
𝐼𝐼𝐼 . Los generadores del diseño son: E =
BD, F= BCD, G = AC, H = ACD y J = AB.
280
Es un modelo muy parsimonioso, no está muy claro que el sistema esté dominado por el F y el
D. Si miramos el diagrama de normalidad de los efectos, nos dejaría 7 efectos.
En principio bajamos a nivel 1 y todo queda bastante lejos de ser significativo. Por lo que
dejamos solo el F y el D, aunque este último no es significativo.
Solo explicamos un 40% de los datos.
Si miramos el plot de residuales, al tener una distribución de Poisson, aparece:
281
Para corregir esta heterogeneidad, tendríamos que hacer la raíz cuadrada. Sin embargo, esta
no logra corregirlo. Probamos a hacer la raíz cúbica donde el diagrama de Pareto se ve más
claro.
Por tener un plot de residuos con megáfono no se invalida todo, sobre todo lo que afecta es
aquello que tiene que ver con la estimación del error.
282
TEMA 14: Analisis de la covarianza
ANÁLISIS DE COVARIANZA: Pág. 604
Imaginemos que queremos ver cómo influyen unos determinados factores sobre la variable
respuesta y sabemos que además tenemos presente en el experimento una variable que no
nos interesa pero puede afectar. Supongamos también que la información de los factores de
interés es cualitativa. En definitiva, se trataría del siguiente modelo:
Y = variable respuesta
A = Factor de interés cualitativo (Puede haber varios)
X = Variable cuantitativa que queremos bloquear – Covariable (también pueden ser
varias)
Quiero ver cómo afecta “A” a la respuesta. A la vez tengo la variable “X” que no la puedo
evitar pero la puedo medir. ¿Cómo lo hacemos?
-
Hacer un análisis de la varianza de Y frente a “A” es inapropiado, pues no
consideramos el posible efecto que pueda tener la variable X.
La regresión Y frente a X la hacemos para justificar el interés del bloque. Es decir, la
regresión lineal de Y frente a X sirve para ver el interés de bloquear la X.
En tercer lugar y la opción que vamos a seguir es relacionar el análisis de la varianza
con la regresión múltiple de la Y frente a la X y la A (introducida al modelo a través de
variables codificadas 0-1  dummies).
*El análisis de la covarianza se hace en Statgraphics a través del General Lineal Models. Si solo
hay una X podemos haciendo comparándolo rectas de regresión.
Como un ejemplo de un experimento en el que puede emplearse el análisis de covarianza,
considere el estudio realizado para determinar si existe una diferencia en la resistencia de una
fibra de monofilamento producida por tres máquinas diferentes. Los datos de este
experimento se muestran en la tabla
14-8. En la figura 14-3 se presenta un diagrama de dispersión de la resistencia (v) contra el
diámetro (o grosor) de la muestra. Evidentemente, la resistencia de la fibra también se afecta
por su grosor; por consiguiente, una fibra más gruesa será por lo general más resistente que
una delgada. El análisis de covarianza podría usarse para eliminar el efecto del grosor (x) sobre
la resistencia (y) cuando se prueban las diferencias en la resistencia entre las máquinas.
283
Y = variable respuesta (Resistencia)
A = Falta de interés (Máquina)
X = Covariable (Grosor)
De la variabilidad de la variable Y vamos a quitar la variabilidad de X y de
lo que queda vemos cuanto es atribuible a “A”.
Puede ocurrir que yo tenga una percepción rápida de cómo afecta la
respuesta a la variable máquina; sin embargo tenemos que mirar que no
sea a causa de la variable X.
Abrimos la TAB 14 -08:
1. Hacemos una regresión simple de la resistencia frente al diametro para ver si hay relación
entre ellos.
Efectivamente vemos que estos datos están fueretemente asociado. A mayor diametro, mayor
resistencia. De hecho la regresión es significativa (p-valor = 0). Esto es igual a al p-valor de la
pendiente (slope).
284
2. Si hacemos el ANOVA de una vía, ignorando la covariable. Vemos que desde el punto
descriptivo (box-and-Whisker Plot) la máquina 3 está dando unos valores de resistencia
más bajo que las otras dos. Aunque no sabemos cuanto se debe a los diametros.
Si miramos el p-valor de este análisis, podríamos decir que hay diferencias significativas entre
las máquina (p-valor = 0,04).
Si vamos al test de Rango Múltiple, hay una diferencia clara entre la 3 y la 2.
285
Sin embargo, como hemos explicado al principio ninguno de estos dos métodos sería correcto.
¿Cuál es la forma de hacerlo?
Mismos
supuestos que
siempre
Así, crearíamos un modelo asumiendo que existe una relación lineal entre la respuesta y la
covariable.
**Tenemos un modelo alternativo, aunque menos utilizado:
Lo que queremos ver es de la variable Y saber cuánto es atribuible a la variable, quitarlo y ver
cuánto explica el modelo de factor A.
Volvemos a nuestro problema y hacemos:
Relate – Multiple Factor – General lineal Models
La siguiente tabla nos indica los p-valores de la contribución del diámetro (me da
igual el p-valor que tenga, solo que si tiene valor 0 sabemos que si lo hubiera
quitado estaría camuflado). La máquina tiene un p-valor 0,11. Recordamos que
cuando hacíamos RESISTENCIA by MAQUINA, la máquina tenía un p-valor = 0,04.
286
Parte de este efecto es atribuible a la covariable. Es decir, que después de quitar la covariable
las diferencias entre máquinas no son tan fuertes; de hecho no son significativas.
Tras esto deberíamos analizar los plots para validar el modelo, que como vemos son
aceptables:
CONCLUSIÓN: Lo que obtenemos es que un análisis incorrecto nos llevaría a atribuir a las
maquinas un papel que no tienen porque se está camuflando el efecto de la covarianza.
También podemos hacer un modelo de regresión múltiple. Al tener el factor A con tres valores
(M1, M2, M3) hay que meter en el modelo variables 0,1… tantas como el número de
categorías -1. Aquí tendríamos dos variables z1 y z2.
A
M1
M2
M3
Z1
1
0
0
Z2
0
1
0
Y = β0 + β1x + δ1z1 + δ2z2 + ε
Las variables mudas no hace falta crearlas físicamente en el fichero.
Regresión múltiple:
287
Para la M1 hay un 1,58 adicional pero no es significativo
Ajustamos tres rectas:
-
Una recta que tiene 15,77 de término independiente
Otra tiene 15, 77 + 1,58 de término independiente pero no es significativa
Y la otra = 15,77 + 2,62 de término independiente que si es significativa.
Además podemos mejorar el modelo metiendo las interacciones que equivalen a xz1 + xz2 =
γ1W1 + γ2W2.
Así nos quedaría el siguiente modelo: Y = β0 + β1x + δ1z1 + δ2z2 + γ1W1 + γ2W2 + ε
Para realizar esto tenemos una herramienta muy útil. Dentro de Relate – One Factor –
Comparación de modelos de regresión:
Si doy al tick de abajo estaríamos ajustando el modelo sin las interacciones (rectas paralelas).
Si marcamos el segundo estaríamos ajustando un modelo con rectas con el mismo término
independiente (un poco raro). Y si no le damos a ninguno estamos obervando el modelo
general; el último que hemos visto -> Y = β0 + β1x + δ1z1 + δ2z2 + γ1W1 + γ2W2 + ε
Si no marcamos nada nos queda un modelo desmedido:
288
Muy próximas a ser paralelas. Pasamos a purgar el modelo, marcando el segundo tick (modelo
aditivo):
De las cuales ninguna presenta una diferencia significativa; p-valores grandes.
En definitiva, cuando uno tiene en un modelo un factor y una covariable es que a nosotros no
nos interesa como está relacionada la Y con la X, lo que pretendemos es quitar dicha relación.
Y estos análisis no nos lo ofrecen.
Para ello vamos a usar en estos casos en
General Lineal Models: factor como
explicativo de la variable respuesta.
289
Como es obvio si no aplicamos los métodos de descarga que presentan las carretillas al mismo
volumen, tendremos un efecto que nos puede confundir – volumen (x).
Relate – Multiple Factor – General lineal Models
No hay efecto carretilla. Aceptamos la hipótesis nula. En este caso el contraste de
hipótesis es:
Ho: τi = 0 ∀i
H1: τi ≠ 0
Tendríamos que pasar ahora a validar el modelo:
El plot de sresidual vs predicted no parece conflictivo y el plot de normalidad también queda
razonable; con tan pocos puntos no podemos pedir más
290
Ejercicio 14-14
Relate – Multiple Factor – General lineal Models
El pegamento (Glue) no es significativo.
Vamos a ver qué hubiese pasado entre la regresión y la covariable como un modelo de
regresión – Simple Regression - Strenght vs Thick. Donde vemos que la fuerza de la adhesión
está relacionada inversamente con el espesor. Además el p-valor de este modelo es 0.
¿Y si hubiésemos hecho el ANOVA de una vía ignorando la covariable  One – Way ANOVA Strenght by Glue. Donde vemos que la regresión tampoco es significativa:
En este caso, descontando o sin descontar el efecto de la covariable, esta regresión no es
significativa.
291
Ejercicio 14-16
Relate – Multiple Factor – General lineal Models
Una vez descontando el valor de la dureza, vemos que el p-valor es muy grande. Luego no es
significativo.
Si vamos a los plots de residuales, vemos que hay heterogeneidad:
Siempre hemos optado por hacer transformaciones de la respuesta (sqrt, logarítmicas,
etc). Esta vez, vamos a coger la covariable y la vamos a meter también al cuadrado.
292
Como vemos el plot de residuales se corrige bastante.
Los modelos tratan de reflejar la realidad a través de aproximaciones matemáticas. Como
estamos resolviendo algo muy local, podemos tener varias funciones que representen estas
aproximaciones de la realidad.
*El resto de plots siguen siendo razonable.
Experimentos factoriales con covariables – Pág. 620
La primera mitad de la tabla es la primera réplica, y la segunda parte; la segunda.
Abrimos la tabla 14-14
Es un fichero sfx, por lo que podemos analizarlo con DOE. Vamos a ver qué ocurriría.
Ignoramos la covariable  Variable respuesta = Y - max order = 3.
293
Tendríamos que quitar solo la interacción triple y la BC.
Quedaría este modelo: Y = 25,0287 + 11,1988*Factor_A + 18,055*Factor_B + 7,2425*Factor_C
- 18,905*Factor_A*Factor_B + 14,7975*Factor_A*Factor_C.
Pero es un análisis inadecuado ya que si hacemos la regresión Y vs X, hay una relación
creciente aunque no lineal que puede tener un efecto sobre el modelo que hemos hecho.
Además su p-valor es pequeño.
294
Entonces analizamos el modelo con General Lineal Models:
La D es la covariable:
Esta también puede tener interacción con los factores, por lo que el modelo final sería:
Tengo el modelo saturado; no nos queda más remedio que jugárnosla y
bajar el orden de interacción ya que sino no vemos nada; (quitando el
ABC y la interacción ABC*D)
Como vemos la interacción ACX y BCX tienen un p-valor muy grande, vamos a ir purgando y
para ello lo vamos quitando. Además vamos a quitar el AC, el BC y el CD.
Como vemos el modelo ha cambiado radicalmente, ahora todos los términos que hemos
dejado significativos.
Y además un tiene un R2 = 99.
295
Con este modelo podríamos hacer ahora todo tipo de estudios tal y como vimos con los
modelos lineales generales –> Multiple Range Test, etc.
296
TEMA 11: MSR – Metodología de
superficies de respuesta.
Cuando metíamos puntos centrales en el diseño y la prueba de Lack of Fit era menor que 1,
teníamos falta de ajuste y no podíamos continuar. ¿Cómo solucionamos esto?  Diseños de
superficie de respuesta
Características del diseño



Una o varias variables respuesta, Y1, Y2, ...
Varios factores experimentales continuos X1, X2, X3, ...
Objetivo:
- Optimizar una de las respuestas (maximizar o minimizar): Buscar la combinación
de niveles de los factores que producen el óptimo.
- Optimizar una respuesta restringida a un área de valores de otra respuesta.
- Determinar una región del espacio de factores en la que se satisfacen las
especificaciones de operación
Modelo:
Lo que vamos a hacer es parametrizar las cosas. Habitualmente vamos a suponer f
es un polinomio de grado bajo (Aprox. Taylor). O bien que la aproximación que me
daría esta aproximación es más que suficiente.
297
Vamos a suponer que la Y está relacionada con las X a través de una determinada función.
Imaginemos que mi proceso está operando en una pequeña región y vamos a reproducir
observaciones para ver hacia donde tenemos que mover esta región de operación; según sean
mis objetivos (maximizar, minimizar…). Sin embargo, no vamos a tener ningún óptimo
absoluto, solo local.
Organizando convenientemente la organización uno se puede mover hacia la zona correcta.
METODOLOGÍA
Procedimiento secuencial en tres etapas:
1. Aproximación lineal en las condiciones actuales de operación: explorar el espacion
en donde estamos operando.
2. Método de ascenso por pasos: nos va a indicar cómo caminar por ladera hacia algo
que puede ser la cima. Cuando tengamos unas ciertas garantías de que estamos en la
cima ya podemos pasar a orden 2.
3. Ajuste de una superficie de respuesta de orden dos.
*Sólo se garantiza convergencia a un óptimo local.
PASO 1: Aproximación lineal en las condiciones actuales de operación
-
-
-
Se realiza un diseño factorial 2k en las condiciones actuales de operación; no nos va a
hacer falta replicarlo ya que le vamos a añadir puntos centrales. Si tuviera la suerte de
que ya estoy en la cima, veríamos que hay curvatura por lo que el modelo lineal ya no
sería razonable. Esto querría decir que estamos bastante cerca del óptimo y
pasaríamos al paso 3. En cambio, cuanto más no significativo salga el Lack of Fit, más
lejos estamos y vamos a tener que ir al paso 2.
Se añaden puntos centrales para chequear la curvatura cuadrática.
Si hay curvatura cuadrática, pasamos directamente al Paso 3.
Si estamos lejos del óptimo, la aproximación lineal es razonable. Después de descartar
curvaturas, tenemos el modelo:
**También tendríamos que poner las interacciones
Se determina la ruta de ascenso (o descenso) máximo: Ruta desde el centro del diseño
factorial perpendicular a las curvas de nivel del modelo lineal (líneas rectas).
298
PASO 2: Método de ascenso por pasos
-
Hemos determinado previamente la ruta de ascenso.
Se fija el tamaño de los pasos en función de información previa sobre el proceso.
Se realizan varios experimentos a lo largo de la ruta de ascenso hasta que cambia de
tendencia la variable respuesta.
En la zona de cambio de tendencia puede haber un óptimo local. Ajustaremos un
modelo cuadrático (Paso 3).
Si la curvatura no fuera significativa buscamos una nueva ruta de ascenso (Repetir
Paso 1 y Paso 2) desde la nueva zona de operación.
PASO 3: Ajuste de un modelo de superficie de respuesta de segundo orden
-
Si se está relativamente cerca del óptimo, se requerirá un modelo de segundo grado
(al menos) para recoger la curvatura.
-
Para ajustar este modelo no sirve un diseño factorial con puntos centrales. Sólo
-
permite contrastar si algún
, pero no permite saber cuáles ni estimarlos. La parte
factorial no se suele replicar; estamos hablando de estimación a bajo coste.
Se realiza un DISEÑO CENTRAL COMPUESTO. Consta de tres tipos de puntos:
299
-
La forma de elegir α es muy variopinta, lo más habitual es que sea ROTABLE Una
propiedad deseada del diseño es que sea ROTABLE: El error de predicción (desviación
típica de la variable 𝑦̂ ) sólo depende de la distancia del punto al centro del diseño. El
diseño se hace ROTABLE eligiendo adecuadamente el espaciamiento axial: (F = puntos
factoriales)
EJEMPLO: Estudio del porcentaje de conversión o rendimiento de un proceso químico.



FACTORES:
- Tiempo de reacción (x1)
- Temperatura de Reacción. (x2)
RESPUESTAS:
- Rendimiento. Respuesta principal a maximizar. – Respuesta primaria
- Viscosidad. Respuesta secundaria que tiene que estar en un determinado
rango de valores prefijado. – Respuesta secundaria
Es decir; nos interesa maximizar el rendimiento pero no con cualquier
viscosidad.
CONDICIONES ACTUALES DE OPERACIÓN:
- TIEMPO en torno 35 minutos.
- TEMPERATURA en torno a 155 ºF.
Hacemos el diseño factorial completo, sin replicar porque ya tenemos 5 puntos centrales.
Para crearlo: DOE – Screening – 2 factores – 1 respuesta – Diseño factorial 2^2 con 5 puntos
centrales colocados al final y quitamos la aleatorización.
Abrimos el ejercicio TAB 11-01:
Analizamos este diseño, poniendo con las opciones de panel que nos saque la prueba del Lack
of Fit.
300
No tenemos falta de ajuste ya que el p-valor es alto. Ya podemos quitar el Lack-of Fit. Además
vemos que el modelo es puramente lineal, ya que la interacción no es significativa. Por tanto,
la quitamos:
El modelo sería:
Si pasamos a analizar los plots, en las zonas donde solo he hecho una observación; esta hace
de atractor de modelo lineal. Sin embargo, en la zona de los puntos centrales hay mayor
variabilidad. En este tipo de problema los plots de residuos son un poco complicados.
301
Si miramos el plano que hemos ajustado, es fácil ver que tenemos que ascender en este plano
para ir ganando rendimiento.
También podemos verlo buscando las líneas perpendiculares:
Las curvas de nivel serían Rendimiento estimado = C.
=C
¿Cómo serían las recta perpendiculares a estas? Si la recta es: ax1 + bx2; el vector
perpendicular es: (-b,a); que en este caso sería (0,775, 0,335)
302
Aumenta a un ritmo sostenido al
principio y luego vemos el punto de
inflexión; donde tenemos un
rendimiento próximo a 67.
Vamos a la trayectoria de máxima pendiente que nos ofrece Statgrpahics; predicción de lo que
debería pasar si se mantuviera la linealidad. Sin embargo no debemos fiarnos del rendimiento
estimado. El ritmo de los pasos los podemos cambiar si damos al botón derecho.
303
Podemos pensar que el 67 está cerca del óptimo y pasamos al paso 3: Ajuste de un modelo de
orden 2. Podríamos haber hecho solo la parte central y los puntos centrales hasta determinar
que había curvatura.
Hemos elegido el diseño rotable con √2 y -√2 = 1,414 y -1,414 La parte de estrella.
Como se crearía este diseño: DOE – Response Surface – 2 factores experimentales – 2
respuestas – Central composite desing – 2^2 + star. Ahora tendríamos que dejar marcado
rotable, y poner que queremos 5 puntos centrales poniéndolos al final y sin aleatorizar.
Abrimos el ejercicio TAB 11-01.CONT:
Analizamos el rendimiento hasta orden 2. Aquí, si saliera falta de ajuste muy alto querría decir
que ni siquiera el modelo cuadrático estima bien la curvatura. De hecho no tenemos ni porque
comprobar esta falta de ajuste.
Este modelo se podría purgar quitando la interacción AB, digamos que por el principio de
jerarquía lo
tendríamos que dejar.
304
También podríamos mirar las curvas de nivel:
Modelo estimado: RENDIMIENTO = 69,1 + 1,633*TIEMPO + 1,083*TEMPERATURA 0,968751*TIEMPO^2 + 0,225*TIEMPO*TEMPERATURA - 1,21875*TEMPERATURA^2
En este ejemplo concreto, hemos llegado a la cima de esta montaña.
Una de las diferencias notables cuando relacionamos los modelos experimentales con los
modelos de regresión; es que si yo quito las interacciones no se modifica ni la estimación ni la
suma de cuadrados  La ortogonalidad algebraica es la absoluta independencia en términos
estadísticos: El término independiente y los términos cuadráticos se condicionan entre sí. En
los modelos cuadráticos perdemos cierta linealidad; hay que comprobar si cuando quitamos
algún valor afecta al resto.
También podríamos haber hecho un modelo de regresión múltiple: Relate – Multiple
Regression:
Llegamos al mismo modelo; lo que pasa es que no podemos ver las superficies de respuesta.
305
Para elegir la combinación que maximiza el rendimiento tendríamos no solo que mirar el panel
de optimización:
Dado que tenemos un doble objetivo; la viscosidad tenemos que continuar con el análisis
DOE – Viscosidad:
Podemos bajar a orden 1 ya que tiene un comportamiento lineal:
Como el objetivo era mantenerlo entre 38 a 42; modificamos en opciones de panel para que
salga esos valores exactos.
Convertimos este diagrama con las opciones de panel en regiones pintada y lo copiamos en
Statgallery
306
Como vemos el óptimo está
fuera del rango de
viscosidad. Sin embargo, el
comportamiento de toda la
región que está dentro del
círculo es extrapolable al
óptimo.
Hay veces que podemos ampliar los diseños - DOE – Create Desing – Augment Existing Desing:
Esto me permite replica, añadir una fracción o añadir puntos estrella que es lo que nos
compete en este caso. Nos añade tanto puntos centrales como ya teníamos.
Ejemplo 11-1 pág. 432 (Adobe)
Abrimos DEXP TAB 11-01
Hacemos el diseño factorial con puntos centrales. Normalmente se hace con 5 puntos
centrales, pero con dos datos sería suficiente.
Rendimiento – Max order interaction = 2. Incluye el test de falta de ajuste.
Como el p-valor de falta de ajuste es muy alto, no hay curvatura reseñable; es decir, no hay
falta de ajuste. Seguramente estemos muy lejos del óptimo (del pico o valle)
Simplificamos el modelo, ya que la interacción no es significativa; obteniendo la siguiente
relación:
307
Si miramos la superficie de respuesta y las curvas de nivel, ya sabemos que para avanzar más
deprisa en la búsqueda de la cima hay que moverse perpendicularmente. Si de la expresión
anterior quitamos la variable “Y” y el término constante, tendríamos la curva de nivel:
0,7775x1 + 0,325x2 = cte.
Vamos a coger el factor que tiene el efecto más grande para definir el paso; normalmente el
paso va a ser de orden 1 en la dirección de este efecto.
La pendiente de todas las rectas de nivel es 0,325/0,775 =0,42. Partimos del centro de
cuadrado (35, 155)
Obteniendo los siguientes resultados en el laboratorio:
308
Para analizar estos datos abrimos DEXP 11-04 (creado como diseño factorial con puntos
centrales)
El test de falta de ajuste es muy significativo, mucha curvatura. Sin embargo, si vemos las
curvas de nivel no vemos forma de valle; estos puntos centrales solo sirven para estimar si hay
curvatura o no, mediante una aproximación lineal no podemos hacernos a la idea de cómo es
la superficie. Tenemos que completar el diseño. Si aquí de nuevo no hubiésemos tenido
curvatura volveríamos a buscar el óptimo reorientando nuestra ruta tantas veces como sea
necesario mientras no se detecte la curvatura.
¿Cómo completamos el diseño?
309
Así, nos genera la parte estrella; un diseño como el de antes pero rotado.
Los datos los tenemos metidos en el fichero Tabla 11-06; añadiendo dos variables respuesta,
tal como nos dice el enunciado: viscosidad y peso molecular.
Ignorando los números de bloque.
310
El efecto de la interacción sigue siendo no significativo:
Por primera vez vemos una superficie de pico, de valle:
Si queremos maximizar el rendimiento deberíamos ir al centro del pico:
311
Pero como el enunciado nos dice que la viscosidad tiene que estar entre 62 y 68 y el peso
molecular no puede ser superior a 3400.
Sin cerrar este análisis:
El único término que no es significativo es un término cuadrático pero no podemos quitar nada
porque ya es un modelo de segundo orden.
Vamos a dibujar las curvas de nivel para que nos coincidan las líneas con los valores entre los
que tiene que estar la respuesta:
312
Tenemos que estar en la zona rosa.
Vamos a ver qué ocurre para el peso molecular; abrimos otro análisis ignorando de nuevo el
número de bloque. Si miramos la tabla ANOVA:
La curvatura no es significativa y podríamos dejarlo como un modelo de orden 1
Superponemos las tres gráficas y vemos que tenemos que estar en la zona rosa, y por debajo
de la diagonal del peso molecular, tendríamos que situarnos…
313
El programa tiene un paquete para hacer esto podemos analizar las respuestas múltiples sin
cerrar los anteriores:
Nos dibuja un gráfico similar al de antes.
Además crea una especie de función sincronizando las 3. Tenemos que ir a Multiple Response
Optimization y en opciones de panel podemos: En el caso del rendimiento maximizar; en el
caso de viscosidad: Hit 65 (media entre los valores deseados) y el p-molecular minimizarlo.
314
BLOQUE
II:
BLOQUE
II:
ENTREGABLES
ENTREGABLES
315
EXAMEN ORDINARIO 13/14 - 1ª entrega
Beatriz Pérez de Vargas Moreno
Ejercicio 1.-Se compara la eficacia de 6 agentes biológicos distintos en la eliminación de un contaminante
químico presente en los residuos de un proceso industrial alimentario. Se toman 30 muestras de residuos,
que son asignadas al azar a los agentes biológicos, 5 a cada uno. El experimento consiste en someter los
residuos a la acción del agente biológico durante un periodo de tiempo fijo y medir la presencia de
contaminante químico tras el tratamiento, en ppm. Las pruebas se realizan de manera completamente
aleatorizada. (Datos en CONTAMINACIÓN.sfx)
**Aunque el enunciado no lo dice, en todo el ejercicio utilizaré un α = 0,05
Antes de empezar cualquier problema debemos echar un vistazo al gráfico de dispersión y al gráfico de cajas
y bigotes para hacernos una idea de lo que nos vamos a encontrar.
En principio podemos ver que si que va a haber diferencias entre los distintos agentes, y que posiblemente
tengamos algo de heterogeneidad de la varianza, ya que las cajas tienen anchuras diferentes. Vamos a ver
qué ocurre.
a) Ajustar el modelo oportuno para este tipo de diseño experimental y validar dicho modelo. En el caso de
que se detecte alguna violación de las hipótesis, actúese en consecuencia, justificando convenientemente
la manera de actuar.
El modelo oportuno para este diseño experimental es elmodelo de efectos fijos de un factor. Queremos ver
cómo afecta la variable categórica “agente biológico” con a=6 niveles a los valores medios de que toma la
variable respuesta “presencia de contaminante químico”. Buscamos aquel agente biológico cuya eficacia sea
máxima y, por lo tanto, que la presencia de contaminante químico sea la mínima. El número de réplicas es 5
para cada agente biológico, todas ellas asignadas de forma aleatoria.
Lo primero que tenemos que hacer es verificar la validez del modelo, para ello tenemos que comprobar si se
cumplen estas tres hipótesis:
316



Homogeneidad de la varianza: si el modelo es correcto y se satisfacen los supuestos el gráfico de
residuos vs predichos no tiene que seguir ningún patrón.
Independencia: Igual que antes; si el modelo es correcto y se satisfacen los supuestos el gráfico de
residuos contra el tiempo no tiene que seguir ningún patrón obvio.
Normalidad: Para comprobar esta hipótesis construiremos una gráfica de probabilidad normal de los
residuales. Si la distribución fundamental de los errores es normal, esta grafica tendrá la apariencia
de una línea recta.
Vamos a ver que nos dice Statgraphics:
- Homogeneidad de la varianza: El gráfico de residuos frente a predichos es el siguiente:
Claramente vemos como los
residuales tienden a forma de
megáfono abierto, luego la
primera de las hipótesis no se
cumple. Es más, aunque a la
vista del gráfico parece claro el
incumplimiento de la hipótesis
podemos asegurarnos
marcando
.
Si el p-valor es <0,05 podemos
afirmar que hay
heterogeneidad en la varianza:
2 de las 3 pruebas nos dan un p-valor < 0,05. Ya no haría falta si quiera verificar la normalidad y la
independencia, ya que con unas de las hipótesis que falle el modelo no es válido; luego parece lógico llevar a
cabo un reajuste que corrija la heterogeneidad de la varianza. Para ello, vamos a seguir el método empírico
visto en clase:
A partir de la fórmula:
Y realizando un ajuste de regresión, determinaremos el estimador de α. Con este estimador sacaremos el
ajuste más aproximado a partir de esta tabla:
317
Hacemos la regresión con Statgraphics, y en el Plot of FittedModel podemos encontrar el siguiente ajuste de
la regresión:
Comparando término a término vemos que α
= 1,133≈ 1
Con lo cual si miramos en la tabla superior, cuando α = 1, λ = 0 y por tanto hay que realizar una
TRANSFORMACIÓN LOGARÍTMICA. (Señalado en la tabla anterior)
Para comprobar si hemos acertado con la transformación volvemos a mirar los gráficos que nos permiten
chequear la validez del modelo:
- Homogeneidad de la varianza: El gráfico de residuos frente a predichos y las distintas pruebas de las
varianzas que nos ofrece Statgraphics tras las transformación son los siguientes:
Como podemos observar el gráfico es bastante aceptable, aún así si no estuviéramos seguros podemos ver
que todas las pruebas de chequeo de la varianza han dado un p-valor > 0,05. Luego ya cumplimos la
hipótesis de homogeneidad de la varianza.
Vamos a ver qué ocurre con las otras 2 hipótesis de las que hablábamos al principio:
-Test de independencia: El gráfico de residuos frente al tiempo vemos que no sigue ningún patrón obvio,
luego también podemos afirmar que se cumple la hipótesis de independencia.
318
-Test de normalidad: Para comprobar esta hipótesis construiremos una gráfica de probabilidad normal de
los residuales. Si la distribución fundamental de los errores es normal, esta grafica tendrá la apariencia de
una línea recta. Veamos a ver qué ocurre:
Aunque hay una ligera asimetría en los datos no es suficiente para cuestionar la normalidad ya que el p-valor
de la prueba nos da 0,4185 > 0,05. Por tanto, el análisis de la varianza es robusto con respecto al supuesto
de normalidad.
CONCLUSIÓN: a la vista de todos estos resultados podemos afirmar la validez de nuestro nuevo modelo; por
ello, en lo que resta de ejercicio utilizaremos el modelo ya transformado.
b) Formular matemáticamente el modelo matemático ajustado y explicar sus componentes.
Tenemos un diseño totalmente aleatorizado.
Variable respuesta -> y = presencia de contaminante químico tras el tratamiento, en ppm (aleatoria).
Aunque en el modelo ajustado la variable respuesta es log(y).
xi= agente biológico - > factor fijo (cualitativo) con a niveles
a = 6 niveles
n = 5 réplicas
a=6
1
n=5
2
3
4
5
6
1
2
3
4
5
Total = 6 x 5 = 30 corridas
319
Este modelo se puede formular de dos maneras:

Modelo de medias:Una manera de escribir este modelo es:
donde yjj es la observación ij-ésima, µi es la media del nivel del factor o tratamiento i-ésimo, y ɛij es
un componente del error aleatorio que incorpora todas las demás fuentes de variabilidad del
experimento, incluyendo las mediciones, la variabilidad que surge de factores no controlados, las
diferencias entre las unidades experimentales a las que se aplican los tratamientos, y el ruido de
fondo general en el proceso (ya sean la variabilidad con el tiempo, los efectos de variables
ambientales, etc.).

Modelo de los efectos:Una forma alternativa de escribir un modelo de los datos es definiendo
de tal modo que la ecuación del modelo de medias se convierte en:
En esta forma del modelo, µ es un parámetro común a todos los tratamientos al que se llama la
media global, y Ʈi es un parámetro único del tratamiento i-ésimo al que se le llama el efecto del
tratamiento i-ésimo.
* Recordemos que para probar las hipótesis se tienen que cumplir las tres hipótesis:
ɛijv.a.i.i.d ~ N(0,σ)
Independencia
Normalidad
Homogeneidad
de la varianza
c) Comparar la eficacia de los distintos agentes en la eliminación del contaminante y hacer la
recomendación más conveniente desde el punto de vista industrial.
Lo que queremos probar es la igualdad de las medias de los 6 agentes. Las hipótesis apropiadas son:
Para ver si existen diferencias significativas entre los diferentes agentes basta con mirar el p-valor de la tabla
ANOVA (una vez que hemos validado el modelo):
320
Como el p-valor es ≈ 0, rechazamos la hipótesis nula y por tanto podemos afirmar que existen diferencias
significativas entre la eficacia de los distintos agentes. Sin embargo, la tabla ANOVA nos dice que hay
diferencias pero ¿entre que agentes?
Como los datos que obtenemos son de la cantidad de contaminante presente tras la actuación de los
agentes lo que nos va a interesar son aquellos cuyos valores obtenidos de contaminante hayan sido los más
bajos.
Para responder a esta pregunta podemos fijarnos
primero en la gráfica de medias que tenemos a la
derecha donde observamos que podemos distinguir
entre tres grupos comparando la eficacia de los
agentes. Por un lado el Agente 1 y el 6, por otro el 2 y
el 5 y finalmente el último par de agentes similares
sería el 3 y 4.
Estos resultados han de coincidir con las pruebas de Rango Múltiple donde tenemos diferentes métodos
aunque los más recomendados son
LSD: diferencias menos significativa
Duncan
Tukey
Estos se pueden ir alternando en PaneOptions y nos ordenan los niveles de las medias de menos a más.
Como vemos todos los métodos, incluido Bonferroni(que es el más
conservador) nos da la misma solución que vaticinábamos con el
gráfico de medias. Los agentes cuyas X están en la misma columna
no presentan diferencias significativas entre sus medias, pero sí
entre ellos y los agentes cuya X está en una columna diferente.
Esto es lo que pretende explicar la tabla de la derecha , donde
están marcados con un asterisco los pares de agentes cuyas
medias presentan diferencias estadísticamente significativas.
321
CONCLUSIÓN: Por tanto, como los datos que obtenemos son de la cantidad de contaminante presente tras
la actuación de los agentes lo que nos va a interesar son aquellos cuyos valores obtenidos de contaminante
hayan sido los más bajos, en nuestro caso el 3 y el 4. Desde el punto de vista industrial, entre estos dos
agentes elegiríamos el más económico o cualquiera que sea el factor en quese base la empresa después de
saber que la eficacia de ambos es el mismo.
d) Obtener un IC al 95% para la contaminación media restante tras aplicar el AGENTE 1.
Tenemos diferentes fórmulas para obtener el I.C, nosotros nos vamos a basar en la vista en clase:
En lugar de realizarlo a mano, Statgraphics nos da dicho resultado en su tabla de medias. Nos pide un I.C al
95 % para el agente 1, que como vemos es: [9,68131 , 9,81203]; sin embargo recordemos que habíamos
aplicado logaritmos, asique aunque no es del todo cierto habrá que hacer el anti-logaritmo; por tanto el I.C
es: [e9,68131 , e9,81203] = [16015.46 , 18252]
e) Explicar qué quiere decir que el diseño es completamente aleatorizado y para qué sirve esta estrategia
experimental.
En un diseño completamente aleatorizado el orden de los experimentos se elige de forma totalmente
aleatoria. Si el experimentador ha decidido obtener 4 observaciones para cada factor y suponiendo que hay
un solo factor con 4 niveles, el diseño completamente aleatorizado de un solo factor consistiría en asignar al
azar cada una de las 4 x 4 = 16 corridas a una unidad experimental.
Esta estrategia experimental sirve para evitar que los efectos de factores externos que actúan como
variables perturbadoras desconocidas contaminen los resultados.
Mediante la aleatorización de la prueba conseguimos repartir estos factores indeseables de manera neutra e
imparcial durante todo el experimento.
f) Qué diseño experimental habrías usado si las 30 muestras se hubieran tomado en 5 días distintos, 6
muestras cada día. Explica en qué consiste ese diseño, qué estrategia experimental se está usando y qué
utilidad tiene dicha estrategia.
Hubiese utilizado el Diseño en Bloques completos aleatorizados (RCBD) en el cual tenemos:
- Un factor principal= Factor realmente objeto de estudio con a niveles, en este caso sería el agente.
- Un factor bloque= Factor que no es objeto directo de estudio pero quepuede afectar a la respuesta
con b niveles, en nuestro caso sería los días.
322
Por cada nivel del factor bloque se reparten de forma aleatoria todoslos niveles del factor principal, es decir,
cada día realizaríamos una medida por cada uno de los agentes.
Día
1
2
3
4
5
1 5 6 3 4 2
2 5 6 4 1 2
1 2 5 3 6 4
3 6 1 2 5 4
1 2 6 5 4 3
Esta estrategia se utiliza cuando la fuente perturbadora es conocida y controlable, lo que se pretende es
bloquear al factor; de ahí el nombre de formación de bloques.
La principal utilidad de esta estrategia experimental es que elimina una fuente de variación del error,
aumentando de esta forma la precisión del ensayo. Son numerosas las ocasiones en las que el RCBD es
apropiado, por ejemplo: las unidades de equipo o maquinaria de prueba son con frecuencia diferentesen sus
características de operación y serían un factor de formación de bloques típico. Lotes de materiaprima,
personas y el tiempo también son fuentes de variabilidad perturbadora comunes en un experimentoque
pueden controlarse de manera sistemática mediante la formación de bloques.
323
EXAMEN ORDINARIO 13/14- 2ª Entrega
Beatriz Pérez de Vargas Moreno
Ejercicio 2.- Se usan dos tipos de máquinas para enrollar bobinas de cobre. Un tipo de máquina opera
manualmente y el otro con motor. Se dispone de dos máquinas de cada tipo. Se enrollaron tres bobinas
con cada máquina con la misma longitud de alambre proveniente de dos rollos distintos elegidos al azar
del almacén. Para cada bobina se mide el diámetro exterior en la parte central y se obtienen los siguientes
resultados (en unidades de 10-5 pulgadas). El objetivo es que las bobinas tengan un diámetro lo menor
posible.
a) Explicar el diseño experimental realizado y todos los elementos que lo componen.
b) Formular matemáticamente el modelo matemático más apropiado para este diseño.
c) Ajustar el modelo anterior y validar dicho modelo. En el caso de que se detecte alguna violación de las
hipótesis, actúese en consecuencia, justificando convenientemente la manera de actuar.
d) Plantear y contrastar las hipótesis de interés en este problema. Estimar los parámetros de interés.
e) Extraer conclusiones desde el punto de vista industrial
f) Explicar y justificar los denominadores de los F-tests.
g) Explicar en qué cambiaría el diseño y el análisis si se dispusiera de muchas máquinas de cada tipo y las
utilizadas en el experimento se hubieran elegido al azar.
a) Explicar el diseño experimental realizado y todos los elementos que lo componen.
Se trata de un diseño factorial-anidado ya que tenemos un experimento con factores múltiples en los cuales
algunos factores como el Rollo y el Tipo de máquina están incluidos en un arreglo factorial y otros, como es
el caso del nº de máquina está anidado al tipo de máquina.
Puesto que sólo tenemos dos tipos de máquina y dos máquinas dentro de estos tipos, y los rollos se escogen
al azar, se trata de un modelo mixto.
Variable respuesta Y = diámetro
Rollos: efecto aleatorio -> 1,2
Tipo de máquina -> Efecto fijo -> Manual y Motor -> 1,2
Nº de máquina- > Efecto fijo anidado en tipo de máquina -> 1,2
3 réplicas
324
b) Formular matemáticamente el modelo matemático más apropiado para este diseño.
El modelo lineal para este diseño es:
1,2
1,2
1,2
1,2,3
Donde µ es el término general, τi es el efecto del rollo i-ésimo, βj es el efecto del tipo de máquina j-ésimo,
γk(j) es el efecto del número de máquina k-ésimo dentro del nivel j-ésimo de cada tipo de máquina, (τβ)ij es
la interacción rollo-tipo de máquina, (τγ)ik(j) es la rollo-número de máquina dentro de cada tipo y ɛ(ijk)l es el
término de error usual.
Tanto τi , como ɛ(ijk)l y las interacción del efecto τ con el resto de factores, (τβ)ij y (τγ)ik(j) , son variables
aleatorias independientes, supondremos también que estas variables aleatorias siguen una distribución
normal con media cero y varianzas dadas por V(τi) =στ2, V[(τβ)ij] = στβ2, V[(τγ)ik(j = στγ2 y V(ɛ(ijk)l) = σ2. Por
tanto, la varianza de cualquier observación es:
V(yijkl) = στ2 + στβ2 + στγ2 + σ2
y στ2, στβ2 , στγ2 y σ2 son los componentes de la varianza.
En cambio, βj y γk(j) son efectos fijos tales que: ∑2𝑗=1 𝛽𝑗 = 0 y ∑2𝑘=1 𝛾𝑘(𝑗) = 0. Es decir, la suma de los
efectos del tratamiento B(tipo de máquina) y la suma de los efectos del tratamiento C(número de máquina)
es cero dentro de cada nivel B.
c) Ajustar el modelo anterior y validar dicho modelo. En el caso de que se detecte alguna violación de las
hipótesis, actúese en consecuencia, justificando convenientemente la manera de actuar.
Vamos a analizar estos datos con la ayuda de "General Linear Models"
325
Para validar los modelos recordamos que estos habían de cumplir tres hipótesis:



Homogeneidad de la varianza: si el modelo es correcto y se satisfacen los supuestos el gráfico de
residuos vs predichos no tiene que seguir ningún patrón.
Independencia: Igual que antes; si el modelo es correcto y se satisfacen los supuestos el gráfico de
residuos contra el tiempo no tiene que seguir ningún patrón obvio.
Normalidad: Para comprobar esta hipótesis construiremos una gráfica de probabilidad normal de los
residuales. Si la distribución fundamental de los errores es normal, esta grafica tendrá la apariencia
de una línea recta.
Vamos a comprobar cada una de ellas:
- Homogeneidad de la varianza: Como vemos el gráfico es bastante aceptable. Por lo que podemos aceptar
la hipótesis de homogeneidad.
- Independencia: el gráfico de residuos contra el tiempo no sigue tampoco ningún patrón obvio. Luego
aceptamos la hipótesis de independencia.
326
- Normalidad: El plot de normalidad tiene una ligera curvatura . Si grabamos los residuos y hacemos el plot
de normalidad con ellos, vemos que el test de Shapiro–Wilk nos muestra un p-valor= 0,08 muy próximo 0,05
-> Aceptamos normalidad pero tenemos que tomar los datos con precaución.
d) Plantear y contrastar las hipótesis de interés en este problema. Estimar los parámetros de interés.
Una vez que hemos demostrado la valided del modelo, pasamos a plantear y contrastar las hipótesis del
modelo, que como hemos dicho antes es el siguiente:
Por lo que los contrastes de hipótesis que tenemos que hacer son:
1
H0 = στ2 = 0
H1 = στ2 ≠ 0
Para saber si los rollos aportan variabilidad extra a la respuesta: Si στ2
= 0, todos los tratamientos son idénticos; pero si στ2 > 0, existe
variabilidad entre los tratamientos.
2
H0 = βj = 0
H1 = βj ≠ 0
Para contrastar si hay diferencias estadísticamente
significativas entre los tipos de máquina.
H0 = γk(j) = 0
H1 = γk(j) ≠ 0
Para contrastar si hay diferencias estadísticamente significativas
entre el número de máquina, dentro de cada tipo de máquina.
4
H0 = στβ2 = 0
H1 = στβ2 ≠ 0
Para saber si la interacción "rollos-tipo de máquina" aporta
variabilidad extra a la respuesta.
5
H0 = στγ2 = 0
H1 = στγ2 ≠ 0
Para saber si la interacción "rollos-número de máquina de cada
tipo" aporta variabilidad extra a la respuesta.
3
327
Para contrastar estas hipótesis vamos a la tabla ANOVA:
1
2
3
4
5
Vemos que esta tabla nos da los p-valores para todas las hipótesis que pretendíamos contrastar. A la vista
de estos datos concluimos que el tipo de máquina y el número de máquina dentro de cada tipo presentan
diferencias significativas. En cuanto a los efectos aleatorios, más que su p-valor lo que nos importan es
porcentualizar los componentes de la varianza para ver cómo afectan a la respuesta. . Aunque no tiene una
relación lineal si vamos a Variance Components vemos que normalmente los que tienen p-valores muy
grandes tienen un efecto menor sobre la respuesta (muy bajo o incluso su estimador sale negativo como es
este caso).
Los que han salido negativos, los consideramos como 0, esto implica que vamos a tener que corregir los
estimadores con la ayuda de la siguiente tabla:
Ahora tenemos que considerar nulos el
"0(1)"y el "0(5)", que son στ2 y στγ2
Con la tabla ya corregida, nos va a resultar más fácil ver cómo sacar estos estimadores. De momento ya
sabemos que στ2 y στγ2= 0. El σ no se ve afectado, por lo que sólo nos queda calcular el estimador de σ2τβ
σ2τβ =
MS(AB) − MS(E)
34352,7 − 15747,2
=
6
6
= 3100,916 = 𝛔𝟐𝛕𝛃
328
Con estos datos ya podemos rehacer la tabla de los componentes de la varianza, que quedaría de la
siguiente forma:
Source
Estimate
Rollos
0
Rollos*Tipo de máquina
3100,916
Rollos*Nº máquina(Tipo de máquina)
0
Residual
15747,2
TOTAL 18848,12
Porcentaje
0,00 %
16,45 %
0,00 %
83,55 %
Como vemos el 16,5% de la variabilidad de la respuesta es atribuible al tipo de rollo que utilicemos, tenemos
que intentar homogeneizar el tipo de rollo usado, siempre y cuando sea posible, para disminuir esta
variabilidad.
e) Extraer conclusiones desde el punto de vista industrial
En lo que respecta al factor aleatorio, ya hemos dicho que convendría armonizar los tipos de rollos.
Para analizar los efectos fijos vamos a ver las pruebas de Rango Múltiple. Como podemos ver entre el tipo de
máquina si tenemos diferencias tal y como indicaba la tabla ANOVA y la vista de estos resultados nos
decantaríamos por la máquina que operar a motor, ya que el objetivo es minimizar el diámetro.
f) Explicar y justificar los denominadores de los F-tests.
A partir de dos factores, y más aún cuando se trata de modelos mixtos los F-test se complican.
Los pseudo f-test lo que hacen es buscar combinaciones lineales de los MS, por ejemplo:
MS' = MSr + ...+ MSg
MS'' = MSu + ... MSv
Estos cuadrados medios se seleccionan de modo que E(MS')- E(MS") sea igual a un múltiplo del efecto (el
parámetro del modelo o el componente de la varianza) considerado en la hipótesis nula. Entonces el
estadístico de prueba sería:
𝑭=
𝑴𝑺′
𝑴𝑺"
329
Vamos a verlo para el caso de este problema:
0(6) = σ2
0(5) = στγ2
0(4) = στβ2
0(1) = στ2
1
2
3
4
5
6

Rollos: Como acabamos de decir tenemos que buscar que E(MS') - E(MS") sea múltiplo del efecto
que queremos contrastar. Si miramos la tabla esta lo que indica es que:
E(MSA) = σ2 + 3*στγ2 + 6*στβ2 +12* στ2
Entonces ahora lo que tenemos que buscar es un E(MS), de forma que restándole al E(MSA) no
quedase sólo el 12* στ. ¿Cuál es? -> Vamos a la tabla superior y vemos que sería la fila 4, es decir:
E(MS(AB)) = σ2 + 3*στγ2 + 6*στβ2.
Como podemos comprobar E(MSA) - E(MS(AB)) = σ2 + 3*στγ2 + 6*στβ2 +12*στ2 -(σ2 + 3*στγ2 + 6*στβ2) =
12* στ2
Entonces el estadístico de esta prueba sería:
𝑀𝑆𝐴
𝐹=
𝑀𝑆(𝐴𝐵)
Si a cada una de las filas de la tabla anterior las numeramos, vemos que este denominador sería la
fila nº4 (Rollos*Tipo de máquina). Lo cual podemos comprobar con la tabla que nos proporciona
Statgraphics:

Tipo de máquina: Su esperanza es = E(MSA) = σ2 + 3*στγ2 + 6*στβ2 +Q1 . Las Q son términos del tipo
de suma de cuadrados asociados a efectos fijos. Para dejar sólo a este término, de nuevo tendríamos
que restarle la fila 4. Entonces el estadístico de esta prueba sería:
𝑀𝑆𝐵
𝐹=
𝑀𝑆(𝐴𝐵)
1
2
3
4
5
6
Si miramos la numeración de las filas vemos que este denominador sería la fila nº4 (Rollos*Tipo de
máquina). Los comprobamos con la tabla de Statgraphics:
330

Nº máquina: Su esperanza es: E(MSC) = σ2 + 3*στγ2 + Q2. Para dejar sólo al término Q2 ahora
deberíamos restar la fila 5: Rollos*Nº máquina(Tipo de máquina). Entonces el estadístico de esta
prueba sería:
𝑀𝑆𝐶(𝐵)
𝐹=
𝑀𝑆(𝐴𝐶(𝐵))
1
2
3
4
5
6

Rollos * Tipo de máquina: Su esperanza es = E(MSC) = σ2 + 3*στγ2 + 6*στβ 2. Para dejar sólo al término
6*στβ2 deberíamos restar de nuevo la fila 5: Rollos*Nº máquina(Tipo de máquina). Entonces el
estadístico de esta prueba sería:
𝑀𝑆𝐴𝐵
𝐹=
𝑀𝑆(𝐴𝐶(𝐵))
1
2
3
4
5
6
331

Rollos * Tipo de máquina: Su esperanza es = E(MSC) = σ2 + 3*στγ2 + 6*στβ2 . Para dejar sólo al término
6*στβ2 deberíamos restar de nuevo la fila 5: Rollos*Nº máquina(Tipo de máquina). Entonces el
estadístico de esta prueba sería:
𝑀𝑆𝐴𝐵
𝐹=
𝑀𝑆(𝐴𝐶(𝐵))
1
2
3
4
5
6

Rollos * Número de máquina(Tipo de máquina): Su esperanza es = E(MSC) = σ2 + 3*στγ2. Para dejar
sólo al término 3*στγ2 deberíamos restar la fila 6: la del residual. Entonces el estadístico de esta
prueba sería:
𝑀𝑆(𝐴𝐶(𝐵))
𝐹=
𝑀𝑆𝐸
1
2
3
4
5
6
332
g) Explicar en qué cambiaría el diseño y el análisis si se dispusiera de muchas máquinas de cada tipo y las
utilizadas en el experimento se hubieran elegido al azar.
Ahora tendríamos 2 efectos aleatorios (Rollo y nº de máquina) y un efecto fijo (tipo de máquina).
El modelo lineal sería el mismo:
1,2
1,2
1,2
1,2,3
Donde µ es el término general, τi es el efecto del rollo i-ésimo, βj es el efecto del tipo de máquina j-ésimo,
γk(j) es el efecto del número de máquina k-ésimo dentro del nivel j-ésimo de cada tipo de máquina, (τβ)ij es
la interacción rollo-tipo de máquina, (τγ)ik(j) es la rollo-número de máquina dentro de cada tipo y ɛ(ijk)l es el
término de error usual.
Sin embargo lo que cambiaría son las restricciones:
Ahora, τi , γk(j) , (τβ)ij, (τγ)ik(j) y ɛ(ijk)l son variables aleatorias independientes que siguen una distribución
normal con media cero y varianzas dadas por V(τi) =στ2, V(γk(j) ) =σγ2, V[(τβ)ij] = στβ2, V[(τγ)ik(j = στγ2 y V(ɛ(ijk)l)
= σ2. Por tanto, la varianza de cualquier observación es:
V(yijkl) = στ2 + σγ2 + στβ2 + στγ2 + σ2
y στ2, σγ2, στβ2 , στγ2 y σ2 son los componentes de la varianza.
En cambio, ahora βj es el único efecto fijo tal que: ∑2𝑗=1 𝛽𝑗 = 0. Es decir, la suma de los efectos del
tratamiento B(tipo de máquina) es cero.
Además, el único contraste de hipótesis que cambia es:
3
H0 = γk(j) = 0
H1 = γk(j) ≠ 0
3
H0 = σγ2 = 0
H1 = σγ2 ≠ 0
Ahora lo que pretendemos saber es si el nº de máquina aporta variabilidad extra a la respuesta -> si σγ2 = 0,
todos los tratamientos son idénticos; pero si σγ2 > 0, existe variabilidad entre los tratamientos.
Vamos a pasar a analizar este nuevo modelo, siguiendo los mismos pasos que antes:
1. Efectos fijos:
333
Como vemos el único efecto fijo es el tipo de máquina, que además resulta ser significativo dado que su pvalor es pequeño <0,05.
Tenemos que analizar con qué tipo de máquina nos quedaríamos, para ello vamos a las pruebas de rango
múltiple. De nuevo nos quedamos con las que funcionan a motor ya que el objetivo es minimizar el
diámetro.
2. Efectos aleatorios:
Aunque ya hemos dicho que lo que nos importan son los componentes de la varianza, vamos a echar un
vistazo a la tabla ANOVA:
Vemos que va a haber al menos un componente nulo porque se rompe la progresión de los cuadrados
medios (Rollo*Nºmáquina(Tipo de máquina)), ya que estos tienen que tienen que ir de menos a más.
Además, aunque no siempre ocurre ni sigue una relación lineal, los componentes con p-valores más bajos
suelen tener valores más altos en los componentes de la varianza (como es el caso de Nº máquina(Tipo de
máquina)).
Si miramos la tabla de Componentes de la Varianza, vemos que tampoco estábamos muy mal encaminados.
Con respecto a lo que vaticinábamos, tenemos otro componente negativo además del estimador de στγ2
(Rollo*Nºmáquina(Tipo de máquina)): el estimador de στ2 . Además, como decíamos antes el componente de
menor p-valor es el que suele tener mayor peso en los componentes de la varianza.
334
Tenemos que reajustar esta tabla como vimos en el apartado d) y con la ayuda de la tabla de los cuadrados
medios esperados (corregida):
σ2γ =
MS(C(B)) − MS(E) 214108 − 15747,2
=
= 33060,13
6
6
σ2τβ =
MS(AB) − MS(E)
34352,7 − 15747,2
=
= 3100,92
6
6
Source
Rollos
Nº máquina(Tipo de máquina)
Rollos*Tipo de máquina
Rollos*Nº máquina(Tipo de máquina)
Residual
Mean Square
20650,7
214108
34352,7
10520,3
15747,2
Total
Estimate
0
33060,13
3100,92
0
15747,2
51908,25
Porcentaje
0%
63,69 %
5,97 %
0%
30,34 %
A la vista de los resultados, podríamos decir que casi el 64% de la variabilidad es debida a la máquina que
cogemos dentro de cada tipo, por tanto tendremos que estudiar todas estas máquinas ya que hay algunas
notablemente mejores que otras; si conseguimos quedarnos sólo con las mejores, o poner a punto las que
dan peores resultados podremos mejorar mucho.
Los rollo aportan también un 6% de la variabilidad pero esto es bastante pequeño en comparación al
número de máquina; no obstante podemos revisarlo e intentar dejar a 0, si es posible, esta variabilidad.
335
PIMIENTOS - 3ª Entrega
Beatriz Pérez de Vargas Moreno
Para investigar los factores que influyen sobre el grado de picor de los pimientos de Padrón se realizan una
serie de pruebas cuyos resultados se recogen en la tabla siguiente. La variable respuesta se mide en una
escala de 0 a 3, donde 3 corresponde a los pimientos muy picantes y 0 a los nada picantes. Las pruebas se
realizaron en condiciones homogéneas y completamente aleatorizadas.
a) Explique el diseño realizado.
b) Analizar los datos.
c) Explique cómo influyen sobre la respuesta los distintos factores y señale cuáles son significativos al 5%.
Haga lo mismo al 10%. Simplifique el modelo dejando los términos significativos al 10%.
d) Construya un modelo de regresión para predecir la respuesta en función de los factores. Coméntelo.
e) Diga qué valoración media obtendría el picor de un pimiento de tamaño medio, grosor medio y frito en
un grado medio.
f) Formule un consejo para los consumidores que no deseen padecer las molestias ocasionadas por el picor
de los pimientos de Padrón.
g) Haga algún comentario general sobre la necesidad de validar los modelos usados en Diseño de
Experimentos.
h) Diga qué puede observarse en este caso al respecto.
a) Explique el diseño realizado.
Se están estudiando tres factores de interés: Tamaño, Grosor y Grado de fritura de los pimientos. A este
modelo se lo conocer como diseño factorial 23. Como vemos en esta tabla tenemos 8 combinaciones y
hemos hecho 6 réplicas para cada una de estas combinaciones, utilizando la notación “+” y “-“ para
representar los niveles alto y bajo de los factores.
Factores codificados
Corrida
1
2
3
4
5
6
7
8
A
-1
1
-1
1
-1
1
-1
1
B
-1
-1
1
1
-1
-1
1
1
C
-1
-1
-1
-1
1
1
1
1
Picor
Rep. 1
1
3
2
2
1
2
0
0
Rep. 2
1
2
1
2
0
1
1
2
Rep. 3
2
3
0
2
1
2
0
0
Rep. 4
0
2
0
1
1
1
0
1
Rep. 5
1
3
0
1
0
3
0
1
Rep. 6
1
3
0
2
0
2
1
0
336
Niveles del factor
A = Tamaño
B = Grosor
C = Grado de fritura
Bajo (-1)
Pequeño
Delgado
Poco frito
Alto (+1)
Grande
Gordo
Muy frito
En general para cualquier modelo vamos a tener (2k-1 efectos), por lo que en este caso nos encontramos con
7 efectos (23 -1)
A
B
(𝑘1) Efectos principales:
C
AB
AC
(𝑘2) Interacciones dobles
BC
ABC
(𝑘) Interacciones triples
3
b) Analizar los datos.
Previo a realizar este análisis de datos hemos contrastado que el factor bloque carecía de interés, ya que su
p-valor era grande, por lo que en lo que sigue de problema ignoraremos el factor bloque.
Para analizar los datos, lo primero que tenemos que hacer es estimar los efectos de los factores. Como ya
hemos comentado se trata de un diseño de orden 3, para el cual tenemos el siguiente diagrama de Pareto:
337
Se trata de un diagrama de Pareto bastante parsimonioso, no tenemos un corte claro de efectos principales
y efectos irrelevantes. Lo ideal es tener unos pocos efectos muy significativos y otros que no lo sean, así a la
hora de purgar y analizar el modelo nos resulta más fácil.
Por suerte, el modelo está gobernado por los efectos principales: la naturaleza normalmente es generosa, no
nos lo pone difícil: la mayoría de los sistemas están dominados por efectos de órdenes bajos como en este
caso.
Vemos que domina el factor A (tamaño), con carácter positivo, seguido del factor B (Grosor) y C (grado de
fritura) ambos con carácter negativo. Es decir, lo más influyente en el picor de los pimientos es su tamaño,
siendo los pimientos más grandes los que más harán sufrir a nuestras papilas gustativas.
c) Explique cómo influyen sobre la respuesta los distintos factores y señale cuáles son significativos al 5%.
Haga lo mismo al 10%. Simplifique el modelo dejando los términos significativos al 10%.
Como ya hemos visto el factor A (Tamaño) incide de manera positiva en la respuesta; es decir, a mayor
tamaño, mayor picor. En tanto, que los factores B (Grosor) y C (Grado de fritura) lo hacen de manera
negativa: cuanto más gruesos y más fritos estén los pimientos menos picantes estarán.
En cuanto a que factores son significativos:
-
Al 5%, tenemos 3 factores significativos: A, B y C. Esto lo podemos ver tanto en la tabla ANOVA (los
efectos significativos serán aquellos cuyo p-valor sea < 0,05) como en el diagrama de Pareto, siendo
los efectos significativos los que superan la línea de significación (línea azul).
338
-
Al 10%, si miramos la tabla ANOVA anterior nos quedaríamos con los 3 factores principales y la
interacción AB, ya que se p-valor es < 0,1. Cosa que podemos ver de nuevo en el diagrama de Pareto
cambiando en las opciones de panel el α a 10%
El enunciado nos dice que nos quedemos con los efectos significativos al 10% por lo que pasamos a depurar
el modelo, dejando únicamente los 3 factores principales y la interacción AB.
**Una vez que tenemos el modelo final, tendríamos que validar el modelo antes de continuar. En este
problema esta validación la tenemos en el apartado h).
d) Construya un modelo de regresión para predecir la respuesta en función de los factores. Coméntelo.
El modelo de regresión será:
Donde las variables codificadas x1,x2 y x3 representan a A, B y C respectivamente. El término x1x2 es la
interacción AB.
339
Para conocer el valor de estos estimadores, sabemos que:
β̂0 = µ
β̂1 =
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴)
2
β̂2 =
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐵)
2
β̂12 =
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴𝐵)
2
¿Cuál es el valor de estos efectos?
Para calcularlos vamos a ayudarnos del cubo que representa las ocho combinaciones de tratamientos. Las
combinaciones de los tratamientos en orden estándar se escriben como (1), a, b, ab, c, ac, bc y abc. Además
estos símbolos representan también el total de las n observaciones hechas con esa combinación de
tratamientos en particular.
Factores
codificados
Picor
Corrida
A
B
C
Rep. 1
Rep. 2
Rep. 3
Rep. 4
Rep. 5
Rep. 6
Etiquetas
1
2
3
4
5
6
7
8
-1
1
-1
1
-1
1
-1
1
-1
-1
1
1
-1
-1
1
1
-1
-1
-1
-1
1
1
1
1
1
3
2
2
1
2
0
0
1
2
1
2
0
1
1
2
2
3
0
2
1
2
0
0
0
2
0
1
1
1
0
1
1
3
0
1
0
3
0
1
1
3
0
2
0
2
1
0
(1)
a
b
ab
c
ac
bc
abc
Total
Valor =
∑ 𝑹𝒆𝒑
6
16
3
10
3
11
2
4
55
340
-
Factor A: Para calcula el efecto de A, sabemos que el efecto de A cuando B y C están en el nivel bajo
es [a - (1)]/n. De manera similar, el efecto de A cuando B está en el nivel alto y C está en el nivel bajo
es [ab -b]/n. El efecto de A cuando C está en el nivel alto y B está en el nivel bajo es [ac -c]/n. Por
último, el efecto de A cuando tanto B como e están en el nivel alto es [abc -bc]/n. Por lo tanto, el
efecto promedio de A es sólo el promedio de estos cuatro efectos, o:
Esta ecuación también puede desarrollarse como un contraste entre las 4 combinaciones de
tratamientos de la cara derecha del cubo que vemos en la imagen. Es decir, el efecto de A es sólo el
promedio de las cuatro corridas donde A está en el nivel alto (YA+) menos el promedio de las cuatro
corridas donde A está en el nivel bajo (YA-):
En definitiva:
1
1
[𝑎 − (1) + 𝑎𝑏 − 𝑏 + 𝑎𝑐 − 𝑐 + 𝑎𝑏𝑐 − 𝑏] =
[16 − 6 + 10 − 3 + 11 − 3 + 4 − 2]
𝐴=
4𝑛
4∗6
1
[27] = 1,125
=
4∗6
Por consiguiente:
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴)
2
-
= β̂1 = 0,5625
Factor B: De manera similar, el efecto de B es la diferencia en los promedios entre las cuatro
combinaciones de tratamientos de la cara frontal del cubo y las cuatro de la cara posterior.
𝐵=
1
1
[𝑏 + 𝑎𝑏 + 𝑏𝑐 + 𝑎𝑏𝑐 − (1) − 𝑎 − 𝑎 − 𝑎𝑐] =
[3 + 10 + 2 + 4 − 6 − 16 − 3 − 11]
4𝑛
4∗6
1
[−17] = −0,7083
=
4∗6
Por consiguiente:
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐵)
2
= β̂2 = −0,3541
341
-
Factor C: es la diferencia en los promedios entre las cuatro combinaciones de tratamientos de la
cara superior del cubo y las cuatro de la cara inferior, es decir:
1
1
𝐶 = 4𝑛 [𝑐 + 𝑎𝑐 + 𝑏𝑐 + 𝑎𝑏𝑐 − (1) − 𝑎 − 𝑎 − 𝑎𝑏] = 4∗6 [3 + 11 + 2 + 4 − 6 − 16 − 3 −
1
10] = 4∗6 [−15] = −0,625 →
-
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐶)
2
= β̂3 = −0,3125
Interacción AB: Una medida de la interacción AB es la diferencia entre los efectos promedio de A
con los dos niveles de B. Por convención, a la mitad de esta diferencia se le llama la interacción AB.
Utilizando símbolos:
Puesto que la interacción AB es la mitad de esta diferencia:
Así: 𝐴𝐵 =
1
1
4𝑛
[𝑎𝑏𝑐 − 𝑏𝑐 + 𝑎𝑏 − 𝑏 − 𝑎𝑐 − 𝑎 + (1)] =
6] = 4∗6 [−9] = −0,375 →
-
(𝐸𝑓𝑒𝑐𝑡𝑜 𝐴𝐵)
2
1
4∗6
[4 − 2 + 10 − 3 − 11 + 3 − 16 +
= β̂12 = −0,1875
̂ 0 que es igual a la
Constante: Tan sólo nos quedaría calcular la constante del modelo de regresión β
media, es decir:
55
55
β̂0 = 8 𝑐𝑜𝑟𝑟𝑖𝑑𝑎𝑠∗6𝑟é𝑝𝑙𝑖𝑐𝑎𝑠 = 48 = 1,14583 = β̂0
Podemos comprobar tanto el valor de los efectos como de los coeficientes de la regresión en los paneles de
Statgraphics:
%2
342
Ya tendríamos entonces nuestro modelo de regresión:
En el cual vemos que el factor A, como ya sabíamos es el más importante y tiende a aumentar la respuesta.
Este factor está seguido de los factores B y C, cuyo efecto es bastante parecido, además ambos minimizan la
respuesta; es decir, cuanto mayor sea el nivel de estos factores menor será el picor producido por los
pimientos, lo mismo que ocurre con la interacción AB, la cual es la menor en orden de magnitud, en torno a
1/3 del efecto de A.
e) Diga qué valoración media obtendría el picor de un pimiento de tamaño medio, grosor medio y frito en
un grado medio.
Nos vamos a libro de datos y en la última fila (en nuestro caso fila 49) escribimos 0 en cada uno de los
factores, ya que el 0 sería el valor medio entre el nivel alto (+1) y el valor bajo (-1). Si vamos a la tabla de los
valores estimados vemos que la respuesta predicha para este un pimiento de estas características es de:
1,14583. Teniendo en cuenta que la escala es 0 para nada picante y 3 para muy picante, si usted padece
intolerancia al picante será mejor que no compre pimientos de tamaño y grosor medio. Además ha de
preocupar dejarlos bien fritos.
f) Formule un consejo para los consumidores que no deseen padecer las molestias ocasionadas por el picor
de los pimientos de Padrón.
343
A la vista del diagrama de Pareto está claro que si lo que queremos es minimizar el picor, el factor A
(tamaño) debe estar en el nivel bajo para contrarrestar su efecto positivo; es decir, buscaremos pimientos
pequeños. Los otros dos factores, el B (Grosor) y el C (grado de fritura) al ser de carácter negativo nos
interesa que estén en el alto de forma que sigan minimizando la respuesta: pimientos gruesos y bien fritos.
La interacción AB va a ir en contra de la minimización, debido a que el factor A está en el nivel “-1” y B en el
“+1” su interacción será negativa (“-1”) pero al ser ésta interacción de carácter negativo su comportamiento
será positivo (-1)*(-1)= +1 y por tanto aumentará la respuesta. Sin embargo nos interesa más sacrificar el
signo de la interacción que el de cualquier otro factor, debido a que de los 4 este es el que tiene una
influencia menor en la respuesta.
En definitiva, si no deseamos padecer molestias por el picor de los pimientos debemos comprarlos
pequeños, gruesos y freírlos mucho. Si bien es verdad, que esto no nos va a garantizar la nulidad del picor
que experimentemos en nuestra boca, dado que como vemos en el panel de optimización de Statgraphics el
valor optimo esperado no es 0.
Además podemos ver como va aumentando el picor en función del nivel que tomen cada uno de los factores
en la siguiente gráfica:
En la que de nuevo podemos
comprobar que los valores
más bajos de picor se
encuentran en la zona azul
oscura. Es decir, pimientos
pequeños, gruesos y bien
fritos.
g) Haga algún comentario general sobre la necesidad de validar los modelos usados en Diseño de
Experimentos.
Antes de tomar cualquier decisión es necesario que validemos el modelo; es decir, tenemos que probar
formalmente que no hay diferencias en las medias de los tratamientos. En particular, se requiere que se
satisfagan ciertos supuestos. Estos supuestos son que el modelo:
344
Describe de manera adecuada las observaciones, y que los errores siguen una distribución normal e
independiente con media cero y varianza σ2 constante pero desconocida. Si estos supuestos se satisfacen, el
procedimiento del análisis de varianza es una prueba exacta de la hipótesis de que no hay diferencias en las
medias de los tratamientos.
Por el contrario, no es prudente confiar en el análisis de varianza hasta haber verificado estos supuestos.
Las violaciones de los supuestos básicos y la adecuación del modelo pueden investigarse con facilidad
mediante el examen de los residuales. Si el modelo es adecuado, los residuales deberán estar sin estructura;
es decir, no deberán contener patrones obvios.
h) Diga qué puede observarse en este caso al respecto.
Vamos a verificar la validez del modelo, para ello, como acabamos de comentar tenemos que comprobar si
los residuales no siguen ningún patrón obvio.
345
346
Como vemos ningún gráfico muestra patrones obvios. El único del que podemos dudar es del plot de
normalidad el cual presenta cierta curvatura. Si grabamos los residuos y hacemos el plot de normalidad con
ellos, vemos que el test de Shapiro–Wilk nos muestra un p-valor= 0,0656 muy próximo 0,05 -> Aceptamos
normalidad pero tenemos que tomar los datos con precaución.
Por tanto, podemos aceptar la validez del modelo.
347
Descargar