Subido por José Amaya

PRINCIPIOS DE DISEÑO EXPERIMENTAL

Anuncio
PRINCIPIOS DE DISEÑO EXPERIMENTAL
Dairo Javier Pérez Polo, M.Sc.
[email protected]
Docente catedrático
Universidad de Córdoba – Montería, Colombia
¿QUÉ ES UN DISEÑO DE EXPERIMENTAL?
Según Montgomery (2011), un diseño experimental es una prueba o serie de
pruebas en las cuales se hacen cambios deliberados en algunas variables que
puedan afectar un proceso o sistema, de tal forma que el investigador tenga la
posibilidad de observar las razones que explican los cambios en la respuesta
estudiada.
El proceso o sistema de un experimento se puede representar mediante el modelo
de la figura 1. Este proceso se puede visualizar como entradas o estímulos donde
se promueven cambios sobre algún insumo en un producto que tiene una o más
salidas (y) o variables respuesta. Algunas variables del proceso son controlables
(X1, X2, …, Xn), mientras que otras variables no son controlables (Z1, Z2, …, Zm).
Figura 1. Modelo general de un proceso o sistema
En experimentos agrícolas, las entradas pueden ser las variedades de un cultivo,
las dosis de un fertilizante y los arreglos y/o densidades de siembra. Estas entradas
producen un efecto sobre el material experimental, el cual se manifiesta en
respuestas que son registradas con variables de tipo cualitativa o cuantitativa. Estas
variables están asociadas con el crecimiento y desarrollo, respuesta fisiológica,
producción y sanidad.
Durante el experimento, la respuesta del material experimental se puede ver
afectada por factores controlables y no controlables. Los factores controlables se
pueden manejar con el establecimiento del experimento en condiciones de estricto
control ambiental y de agentes biológicos como laboratorios, invernaderos y cuartos
de crecimiento; también con la formación de bloques. Por otra parte, los factores no
controlables pueden obedecer a factores ambientales o no determinados por el
investigador, pero si son identificados y medida su respuesta puede usarse un
análisis de covarianza para determinar los efectos de este factor sobre la respuesta.
APLICACIÓN DEL DISEÑO EXPERIMENTAL
Estas son algunas de las aplicaciones del diseño experimental en las ciencias
agrícolas:



Obtención y liberación de genotipos mejorados
Optimización de recursos en sistemas productivos
Diseño o rediseño de nuevas tecnologías.
BREVE HISTORIA DEL DISEÑO EXPERIMENTAL
Han existido cuatro eras en el desarrollo del diseño de experimentos. La primera
era fue encabezada por el Estadístico y Biólogo, Sir Ronald A. Fischer enntre la
década de 1920 y principios de 1930, quien después de ser responsable de las
estadísticas y el análisis de datos en la Estación Agrícola Experimental de
Rothamsted (Londres, Inglaterra), se percató de fallas en la forma en que se
llevaban a cabo los experimentos. Después de la interacción con múltiples
científicos e investigadores de diversos campos, desarrolló las ideas que llevaron a
los principios del diseño de experimento, el concepto de diseño factorial y el análisis
de varianza, siendo esta última su más importante contribución.
La segunda era, o era industrial, se enfocó en la aplicación del diseño estadístico
en ambientes industriales en la década de 1930, donde se desarrolló la metodología
de superficie de respuestas por Box y Wilson.
La tercera era fue influenciada en 1970 por el interés creciente de la industria
occidental en el mejoramiento de la calidad. Los actores de esta era fueron Genichi
Taguchi y Kackar. Taguchi defendía el uso de experimentos diseñados, para lo que
denominó el diseño paramétrico robusto.
En la cuarta y última era, se desarrollaron nuevos enfoques para resolver problemas
experimentales en el mundo industrial, incluyendo alternativas a los métodos
técnicos de Taguchi que permiten que sus conceptos de ingeniería se lleven a la
práctica de manera eficaz y eficiente.
FASES DEL DISEÑO EXPERIMENTAL








Planteamiento del problema
Escogencia de los factores y niveles
Selección de la variable respuesta
Selección del diseño experimental
Ejecución del experimento
Análisis de datos
Interpretación de resultados
Conclusiones y recomendaciones
VOCABULARIO DEL DISEÑO EXPERIMENTAL
A continuación, se definen algunos términos fundamentales para el desarrollo del
curso, estos son:
Unidad experimental (UE): Es la parte más pequeña del material experimental a
la cual se le puede aplicar un tratamiento. Es por tanto, el objeto sobre el que se
realiza una medición u observación.
En agronomía, una UE puede ser una matera, una parcela, una caja de Petri, una
finca o una región geográfica. En medicina, puede ser una persona, un animal, un
hospital, un grupo de diez camas con enfermos, etc.
La UE puede subdividirse en unidades de muestreo (UM) o unidades
observacionales (UO). Si una parcela tiene varios cientos de plantas, la unidad de
muestreo podría ser un conjunto de diez plantas seleccionadas al azar o la cosecha
de tres surcos centrales de una unidad experimental de cinco surcos para estimar
el rendimiento.
Variables independientes: Son las variables explicativas, es decir, los factores o
elementos responsables de explicar las variables dependientes.
Variable dependiente o respuesta: Es la característica observada o medida en
cada unidad experimental.
En resumen, el cambio de los valores de una variable dependiente es el resultado
directo de la manipulación de los valores de una o varias variables independientes.
Una variable independiente puede ser un genotipo y la dependiente su rendimiento.
Factor: Es una variable independiente dentro de la investigación. Es un conjunto de
tratamientos que se pueden aplicar a las unidades experimentales, generalmente
se pueden denotar con las letras mayúsculas (A, B, C, …, Z) o con las iniciales de
los factores a probar. Los factores pueden ser cualitativos (variedades, razas,
métodos de aplicación de un producto, etc.) o cuantitativos (cantidad de fertilizante,
insecticida u hormona; temperatura, etc.).
Existen experimentos unifactoriales y multifactoriales. En los multifactoriales se
pueden evaluar simultáneamente dos factores, como genotipo y fertilización; o tres
factores como genotipo, fertilización y época de aplicación.
Niveles del factor: Un nivel es cada uno de los atributos o estados en que se
descompone un factor. Por lo general se denotan con la letra minúscula. Si el factor
es nitrógeno (N), los niveles serían las dosis de 0, 50 y 100 kg/ha: n0, n50 y n100.
Tratamiento: Es el procedimiento cuyo efecto se mide y se compara con otros
tratamientos. Un tratamiento es un nivel de un factor cuando el experimento es
unifactorial y la combinación de los niveles de un factor en estudios multifactoriales.
Testigo, tratamiento patrón o control: Es un tratamiento de referencia usado para
comparaciones con los tratamientos de interés. Existen diferentes tipos de testigo:
absoluto, relativo, positivo y negativo. El testigo absoluto se caracteriza por la
ausencia de un factor (dosis cero de un abono). El testigo relativo es un tratamiento
definido a partir de la información de otras investigaciones o de la tecnología
disponible en la zona de estudio; por ejemplo, variedades tradicionales,
espaciamiento común usado por los agricultores, plan de fertilización de los
productores, etc. El testigo positivo y negativo son tratamientos de comprobada
respuesta; por ejemplo: en un cultivo de bacterias en cajas de Petri, se usa como
testigo positivo un antibiótico para comprobar la eficacia de los tratamientos y como
testigo negativo una caja de Petri sin antibióticos.
Bloque: Es un grupo de unidades experimentales homogéneas, con el fin de reducir
el error experimental.
Dato: Es el resultado de las observaciones o mediciones hechas en cada UE y su
conjunto conforman la base de datos para hacer los cálculos estadísticos.
Residuales: Son las diferencias entre los valores de las repeticiones y su respectivo
promedio.
PRINCIPIOS BÁSICOS DE DISEÑO EXPERIMENTAL
La obtención de resultados validos en la experimentación depende de la aplicación
de algunos principios básicos, que ignorados por el investigador podrían conducir a
resultados atribuidos a causas distintas de los tratamientos. Estos principios son:
repetición, aleatorización y control local o bloqueo.
Repetición: Los tratamientos deben disponer de repeticiones, ya que sin los datos
que estas suministran, será imposible realizar pruebas de significancia e intervalos
de confianza sobre los tratamientos, siendo los resultados atribuidos a fuentes
distintas a los tratamientos (Pimentel-Gomes, 2009; Montgomery, 2011). Por
ejemplo, en un estudio sobre el comportamiento de dos variedades de algodón,
donde se estableció una parcela para cada material, los resultados señalan
diferencias sobre el rendimiento de las variedades, sin embargo, esta respuesta
más allá de la genética, puede ser atribuida a la fertilidad del suelo o cualquier otro
factor. Ahora, estos resultados se pueden mejorar si en lugar de una parcela por
cada variedad se establecen varias parcelas o repeticiones, haciendo posible
estimar y comparar el rendimiento promedio de cada variedad.
Entre otras aplicaciones de la repetición, se resalta su papel en la estimación del
error experimental y de los intervalos de confianza (Steel y Torrie, 1985). El error
experimental es la variación de la respuesta de unidades experimentales bajo el
mismo tratamiento (Steel y Torrie, 1985). En el ejemplo de las variedades de
algodón, el rendimiento de las repeticiones o parcelas de un material pueden ser:
2,9; 3,1; 3,2 y 2,7 t ha-1. Estos valores nunca serán exactamente iguales, ya que
según Steel y Torrie (1985) su variabilidad proviene de la variabilidad intrínseca del
material experimental y de la falta de uniformidad en el manejo del experimento.
Con el fin de ganar precisión en la estimación de la media de tratamientos e
intervalos de confianza más estrechos (mayor poder), se recomienda aumentar el
número de repeticiones. Así mismo, tratamientos con igual número de repeticiones
para una mayor potencia, es decir, la seguridad de encontrar diferencias
significativas entre tratamientos cuando la hipótesis alternativa es verdadera (Steel
y Torrie, 1985; Díaz, 2009).
Aleatorización: La asignación de los tratamientos a las unidades experimentales,
así como el orden de estos dentro del experimento, debe ser realizado mediante la
aleatorización; si este procedimiento es practicado por conveniencia del
investigador, los resultados del experimento pueden ser explicados por factores
distintos a los tratamientos (Pimentel-Gomes, 2009). En el experimento de algodón,
si las parcelas de cada variedad fueron establecidas en sitios diferentes, la
respuesta del rendimiento se puede explicar por la diferencia en la fertilidad del
suelo.
En experimentos agrícolas, existe una fuerte dependencia en el error experimental
de observaciones de parcelas adyacentes, situación prevenida con la aleatorización
de los tratamientos, dado que este procedimiento distribuye el error experimental de
forma independiente entre las unidades experimentales (Steel y Torrie, 1985). La
aleatorización también asegura la distribución homogénea entre los tratamientos de
las pequeñas variaciones de las unidades experimentales (Gutiérrez y De la Vara,
2012). El procedimiento de aleatorización se puede realizar con el apoyo de
números aleatorios, programas estadísticos o cualquier otro mecanismo que
determine el investigador.
La aleatorización puede experimentar algunas restricciones cuando se identifican
factores perturbadores, como en el caso del bloqueo.
Control local o bloqueo: En algunos casos, el investigador identifica un factor
perturbador que puede influir sobre la respuesta del experimento (Montgomery,
2011). En experimentos agrícolas, este factor puede estar asociado con la
heterogeneidad del suelo y el tiempo.
El bloqueo aumenta la precisión de la comparación de tratamientos, mediante la
agrupación de unidades experimentales en bloques de condiciones uniformes, que
varían entre los niveles del factor de bloqueo (Montgomery, 2011). En el caso del
ejemplo de algodón, se pueden establecer bloques de igual nivel de fertilidad, donde
se establecen parcelas con los niveles de los tratamientos.
En el bloqueo, la aleatorización es restringida a los bloques, es decir, los niveles de
los tratamientos son aleatorizados dentro de cada uno de estos.
PRINCIPIOS DEL ANÁLISIS DE VARIANZA
El análisis de varianza (ANAVA) es una técnica que descompone la variabilidad de
los datos de un experimento en diferentes fuentes (cuadrados medios), donde con
la aplicación de una prueba F se determina la relación entre la variabilidad de las
fuentes de interés y el error experimental, con la cual se toman decisiones que
conducen a aceptar o rechazar una hipótesis.
El ANAVA se clasifica de acuerdo al número de factores experimentados en análisis
de varianza de una o varias vías. En una vía, se experimenta un solo factor. En dos
vías, se analizan dos factores, siendo un factor experimental y el otro de bloqueo,
como en el diseño en bloques completos al azar. En tres vías, se analizan tres
factores, siendo uno experimental y dos de bloqueo, como en el caso del diseño
cuadrado latino; también aplica para un diseño completamente al zar con arreglo
trifactorial.
En el análisis de varianza existen dos modelos: tipo I y tipo II. En el modelo tipo I,
los tratamientos de una población son escogidos a conveniencia del investigador;
por ejemplo, en una región se disponen de 20 variedades de maíz, sobre las cuales
el investigador escoge para el estudio los materiales más susceptibles a un
patógeno y al menos un material tolerante como testigo. Por otra parte, en el modelo
tipo II (o de efectos aleatorios), los tratamientos son escogidos al azar de una
población; en el ejemplo de maíz, los materiales son escogidos al azar de la
población de las 20 variedades. La escogencia del modelo se traduce en el alcance
de las conclusiones, dado que en modelo tipo I estas se limitan a los tratamientos
seleccionados y en el modelo tipo II, a cualquier tratamiento de la población en
estudio.
En este documento se hará énfasis sobre el análisis de varianza simple o de una
vía, cuyo objetivo es la comparación de dos o más tratamientos y hace parte del
diseño completamente al azar (DCA). En este análisis de varianza, la hipótesis a
probar es la siguiente:
H 0 :  1   2   3  ...   n
Hi : i  0
La hipótesis nula (H0), establece que no existe ningún efecto de los tratamientos (τ i)
sobre la respuesta. En contraste, la hipótesis alternativa (Hi) establece que por lo
menos un tratamiento influyó sobre la respuesta. Existen otras formas de plantear
las hipótesis, donde se toma como referencia la media poblacional (μ) de los
tratamientos.
Antes de realizar el análisis de varianza es importante entender el arreglo de los
datos, los cuales se disponen bajo una estructura matricial, tal como se aprecia en
la siguiente tabla:
Repetición
1
2
.
.
.
j
.
.
.
r
Totales
Medias
Varianzas
T1
y11
y21
.
.
.
yj1
.
.
.
yr1
y1.
𝑦̅1.
𝑠12
T2
y12
y22
.
.
.
yj2
.
.
.
yr2
y2.
𝑦̅2.
𝑠22
Tratamientos
…
Ti
…
y1i
…
y2i
.
.
.
.
.
.
…
yij
.
.
.
.
.
.
…
yri
…
yi.
…
𝑦̅𝑖.
𝑠𝑖2
…
…
…
…
.
.
.
…
.
.
.
…
…
…
…
Tk
y1k
y2k
.
.
.
yjk
.
.
.
yrk
yk.
𝑦̅𝑘.
𝑠𝑘2
Como ejemplo de un análisis de varianza de una vía, se tomarán los datos (no
mostrados) de un estudio sobre la respuesta de la masa seca de albahaca (Ocinum
bacilicum L.) en función de cuatro tratamientos o mezclas de N y K (Combatt et al.
2020), cuya hipótesis a probar es la siguiente:
H 0 :  1   2   3  ...   14
Hi : i  0
En el análisis de varianza de la siguiente tabla, se descompone la variabilidad de
los datos en dos fuentes: cuadrado medio de los tratamientos (CMTrat.) y cuadrado
medio del error experimental (CMEE), cuyos valores fueron 2723,0 y 33,2,
respectivamente.
Fuente de
Grados de
variación
libertad
Tratamiento
3
Error experimental
8
Total
11
Fuente: Combatt et al. (2019).
Suma de Cuadrado
F
cuadrados
medio
2723,0
907,7
218,8*
33,2
4,1
2756,2
F0,05
4,07
Mediante una prueba F se determina la relación entre estos cuadrados medios
(218,8), la cual se confronta con el valor tabulado de esta distribución. En este caso,
el valor de la tabla con un nivel de significancia del 5% fue de 4,07. Ahora, esta
confrontación se debe realizar bajo la siguiente regla de decisión:
Rechazar H0, si F  F (v1,v 2)
Dónde:
 : Nivel de significancia;  1 : Grados de libertad de los tratamientos;  2 :
Grados de libertad del error experimental.
Con base en los resultados, se rechaza la hipótesis nula (H0), ya que
F  218,8  F0,05(3,8)  4,07 . Es decir, que por lo menos una combinación de N y K
produjo un efecto diferente sobre la masa seca de albahaca, o bien, la masa seca
de la albahaca respondió a los efectos de las combinaciones de las dosis de N y K.
En el capítulo de diseño completamente al azar se darán más detalles sobre el
cálculo de las fuentes de variación.
En cuanto a los niveles de significancia, en agronomía es común tomar como
referencia los niveles del 1% ( F0,05 ) y 5% ( F0, 01 ) para la toma de decisiones. Sin
embargo, al momento de utilizar los programas estadísticos, el ANAVA no reporta
los valores tabulados si no un p-valor, la cual es la mínima probabilidad de detectar
diferencias significativas en las pruebas. Los criterios para tomar una decisión con
base al p-valor se muestran a continuación:
p-valor
p>0,10
Decisión
Representación
No existen diferencias significativas en la
ns
prueba.
0,05≤p≤0,10
Diferencias al 10% en la prueba.
·
0,01<p<0,05
Diferencias significativas al 5% en la
*
prueba.
0,001<p< 0,01
Diferencias altamente significativas al 1%
**
en la prueba.
p<0,001
Diferencias altísimamente significativas al
***
0,1% en la prueba.
Fuente: Elaboración propia.
Supuestos del análisis de varianza
La validez de los resultados del análisis de varianza y de las pruebas posteriores,
como la comparación de medias y la estimación de intervalos de confianza,
dependen del cumplimiento de varias condiciones (Steel y Torrie, 1985; Díaz, 2009).
Estas condiciones reciben el nombre de supuestos del análisis de varianza y son
las siguientes: normalidad, homogeneidad de varianzas e independencia del error
experimental.
Normalidad: En este supuesto, los residuales de las observaciones se distribuyen
de forma normal (forma de campana). La normalidad de los residuales se puede
comprobar mediante la prueba de Shapiro-Wilks, Kolgomorov- Smirnov y Lilliefors.
H0: Los datos proceden de una distribución normal
Hi: Los datos no proceden de una distribución normal
1
k

W 
X n i 1  X i  
2 
n  1S  i 1

2
Con el ejemplo de albahaca se debe iniciar calculando la siguiente tabla para
k
calcular
 X
i 1
n i 1
 X i  :
ai
i
1
2
3
4
5
6
W
0,5475
0,3325
0,2347
0,1586
0,0922
0,0303
X
( ni ) 1
 X (i ) 
39,02
35,81
30,52
27,22
24,00
20,29
Suma
ai X ( ni )1  X (i ) 
21,36
11,91
7,16
4,32
2,21
0,61
47,58
1
47,582  0,82
12  1250,56
W1  W10,05  W0,95  0,979
Como W es menor que W 0,95=0,979, se acepta H0, lo que indica que los datos
proceden de una distribución normal.
Homogeneidad de varianzas (homocedasticidad): Como su nombre lo indica, es
la igualdad de las varianzas de los tratamientos experimentados. Esta condición no
siempre se cumple en experimentos agrícolas, afectando la estimación de los
intervalos de confianza y las pruebas de comparación de medias. Los
procedimientos sugeridos para verificar la homogeneidad de las varianzas son: la
prueba de Bartlett, Levene modificada y Hartley. A continuación, se describe el
procedimiento de la prueba de Bartlett para el ejemplo de albahaca:
H 0 :  12   22  ...   k2   2
H 1 :  12   2j para algún i ≠ j
 0,46 
  0,88
 1,21 
q
c
 02  2,3026  2,3026
k
q  N  k  log 10 S p2   (ni  1) log 10 S i2
i 1
k
S p2 
 n
i 1
 1 S i2
1
i
N k

2(5,42)  2(3,81)  2(5,95)  2(1,42)
 4,15
12  4
q  8  log 10 (5,42 )  2log 10 (3,81)  log 10 (5,95 )  log 10 (1,42 )  0,46
c  1


1 k
ni  11  N  k 1   1  1  1  4   1   1,21


3k  1  i 1
3(3)  (3  1)  8 

 (2 ,k 1)   (20,05,3)  7,81
Como  02  0,88   (20,05,3)  7,81 , se acepta H0, por lo tanto las varianzas de los
tratamientos son homogéneas.
Independencia de los residuos: En este supuesto, no debe existir dependencia o
correlación entre los residuales de observaciones de parcelas adyacentes o en el
orden de su recolección. Esta condición se alcanza cuando se cumple con el
principio de aleatorización y se puede verificar con la prueba de Durwin-Watson.
Los supuestos deben ser verificados antes de realizar el análisis de varianza.
Cuando alguno de estos es violado (normalidad e independencia), el investigador
puede aplicar transformaciones sobre los datos y nuevamente verificar los
supuestos. Si las transformaciones no son efectivas, el investigador puede recurrir
a pruebas no paramétricas, que tienen como desventaja una menor potencia,
también a técnicas permutaciones que se basan en remuestreo.
TAXONOMIA DE DISEÑO EXPERIMENTAL
Woodward et al. (1990) establecen una taxonomía de diseño experimental definida
por la combinación de tres arreglos de los tratamientos y tres asignaciones de
diseño, para un total de ocho diseños experimentales genéricos, tal como se aprecia
en la siguiente tabla:
Arreglo de los tratamientos
Factor Simple
Factorial Completo Factorial Incompleto
(FS)
(FC)
(FI)
Completamente
Completamente al Completamente al Completamente
al
aleatorio (CA)
azar con factorial azar con factorial azar con factorial
simple (CA-FS)
completo (CA-FC)
incompleto (CA-FI)
Bloque aleatorio Bloques completos Bloques completos Bloques completos al
(BA)
al
azar
con al azar con factorial azar con factorial
factorial
simple completo (BA-FC)
incompleto (BA-FI)
(BA-FS)
Parcelas divididas
Parcelas divididas Parcelas divididas con
------(PD)
con
factorial factorial
incompleto
completo (PD-FC)
(PD-FI)
Asignación de
diseño
Los arreglos de tratamientos pueden ser los siguientes:
Factorial simple (FS): Se refiere a un solo factor con varios niveles o tratamientos.
Factorial completo (FC): Consiste en todas las posibles combinaciones de dos o
más factores, donde cada factor tiene al menos dos niveles.
Factorial incompleto (FI): En este arreglo se excluyen algunas combinaciones de
tratamientos definidas en el arreglo factorial completo.
En cuanto a la asignación del diseño, se definen los siguientes:
Completamente al azar (CA): Los tratamientos son asignados aleatoriamente, sin
ninguna restricción, siendo las unidades experimentales consideradas un solo
bloque.
Bloques al azar (BA): Las unidades experimentales son agrupadas en dos o más
bloques homogéneos, donde la aleatorización de los tratamientos se restringe a
cada uno de los niveles del factor de bloqueo. Los bloques pueden representar los
niveles de un simple factor de bloqueo o la combinación de los niveles de dos o más
factores de bloqueo. En este sentido, si existen dos factores de bloque se habla de
un cuadrado latino y de tres de un grecolatino.
Parcelas divididas (PD): En este diseño, la aleatorización se realiza en dos pasos.
En el primer paso, se aleatorizan los niveles del primer factor, llamado parcela
principal; y en el segundo paso, dentro de cada nivel se aleatorizan los niveles del
segundo factor, llamado subparcela. El diseño de parcelas divididas puede ser
aplicado a un simple factor de bloqueo o múltiples bloques.
BIBLIOGRAFÍA
Combatt-Caballero, E., Pérez-Polo, D., Villalba-Arteaga, J., Mercado-Lázaro, J., &
Jarma-Orozco, A. (2020). Macronutrientes en el tejido foliar de albahaca
Ocimum basilicum L. en respuesta a la aplicación de nitrógeno y
potasio. Revista UDCA Actualidad & Divulgación Científica, 23(2).
Díaz, A. 2009. Diseño estadístico de experimentos. Segunda edición. Editorial
Universidad de Antioquia. Medellín.
Escobar, J., Amézquita, M., Muñoz, J., García, J. 2009. Manual de capacitación en
Biometría para la experimentación en frijol. Universidad Nacional de
Colombia sede Palmira.
Gutiérrez, H., De la Vara, R. 2012. Análisis y diseño de experimentos. Tercera
edición. McGraw Hill. México D.F.
Martínez, O. 2009. Técnicas estadísticas y diseño de experimentos para la
investigación agropecuaria. Produmedios. Bogotá.
Montgomery, D. 2011. Diseño y análisis de experimentos. Segunda edición. Limusa
– Wiley. México D.F.
Pimentel-Gomes, Frederico. (2009). Curso de estatística experimental. Piracicaba:
Biblioteca de Ciências Agrárias Luiz de Queiroz. 15ª edicao
Steel, R. y Torrie, J. 1988, Bioestadística: Principios y Procedimientos. Segunda
edición. McGraw Hill. México D.F.
Woodward, J., Bonett, D., Brecht, ML. (1990). Introduction to linear models and
experimental design. San Diego: Harcourt Brace Jovanovich.
Descargar