Está en la página 1de 65

Introducción

Diseño de experimentos – p. 1/65


Introducción

Historia

R.A. Fisher, en la década de los 20’s, fué el iniciador del


Diseño de Experimentos, con experimentos en el área de
agricultura en Inglaterra. De ahí se generalizaron al área de
Medicina. En la década de los 80’s tuvieron un auge en la
Industria, cuando surgió la escuela de Taguchi de Control de
Calidad de procesos industriales.

Montgomery define un experimento como una prueba, o serie


de pruebas, en las cuales se hacen cambios controlados a las
variables de entrada de un proceso o sistema, para observar e
identificar las razones de los cambios en la respuesta de
salida.

Diseño de experimentos – p. 2/65


Introducción

Los experimentos se realizan en muchas áreas de


investigación:
Veterinaria. Se desea saber cuál de cuatro dietas diferentes
A,B,C y D proporciona mayor ganancia de peso en cerdos.
Biología. Se desea saber cuál es el efecto en el crecimiento
de las plantas de centeno de la aplicación de ciertas dosis de
radiación en presencia de uno de tres radioprotectores.
Agricultura. Se desea saber cuál es el mejor fertilizante de un
grupo de cinco, en cuanto a rendimiento de plantas de maiz.
Industria. Se desea comparar la eficiencia de tres máquinas
de hilados. La eficiencia se mide como un índice entre el
tiempo que tarda la máquina en hilar una tela de cierto tamaño
entre el número de errores.

Diseño de experimentos – p. 3/65


Introducción

Medicina. Se desea investigar el funcionamiento de cierta


droga para aliviar el dolor de cabeza.
Pedagogía. Se quiere investigar el efecto de la T.V. en niños
de 5 a 10 años comparando sus conocimientos de los
programas de T.V. y algunos hechos históricos.

El experimento es un estudio comparativo, longitudinal,


prospectivo y experimental.

El diseño estadístico de experimentos es el proceso de


"planear" el experimento de tal manera que se puedan
analizar por métodos estadísticos los datos recolectados
y que resulten en conclusiones objetivas y válidas.

Diseño de experimentos – p. 4/65


Lineamientos para diseñar experimentos

1. Reconocimiento y establecimiento del problema.

Esto se hace preferentemente por un equipo


interdisciplinario con un estadístico en él.
■ En el ejemplo de agricultura.

Cuál de los cinco fertilizantes produce mayor rendimiento


en las plantas de maíz de cierto tipo definido?

Estos cinco fertilizantes modifican su acción según el tipo


de maíz?. Hay interacción?

Qué dosis de fertilizante es más efectiva para aumentar


el rendimiento?

Diseño de experimentos – p. 5/65


Lineamientos para diseñar experimentos

2. Definir factores, niveles. Equipo interdisciplinario.


■ Factor: es la característica cuyo efecto queremos
estudiar.
En el ejemplo, un solo factor: Fertilizante.
■ Nivel: es la categoría estudiada del factor.
En el ejemplo, cinco niveles: fertilizante A, B, C, D y E.
■ Tratamiento: Combinación de niveles de los factores
estudiados. Otro ejemplo,
Factor fertilizante: A,B,C,D,E.
Factor Cantidad de agua: 1,2,3.
Tratamientos: A1, B1,...,E3.

Diseño de experimentos – p. 6/65


Lineamientos para diseñar experimentos

Los tratamientos seleccionados deben ser de una naturaleza


tal que puedan ser reproducidos en gran escala.
Por ejemplo, no tiene sentido práctico estudiar el tratamiento
que es poner el fertilizante a mano en cada plantita de maiz.
A esto se le llama practicabilidad de los tratamientos.

También es importante considerar un tratamiento que es no


recibir ningún fertilizante o recibir el habitual, a éste se le
llama:
tratamiento testigo o control.

Diseño de experimentos – p. 7/65


Lineamientos para diseñar experimentos

3. Definir la unidad experimental (u.e.)


La unidad experimental es la subdivisión menor del
material experimental que puede recibir un tratamiento en
forma independiente.
Un aspecto importante es la representatividad de las u.e.
Esto es, las u.e. deberán ser reproducciones de
condiciones comerciales o de gran escala.
Así, una planta de maíz para comparar fertilizantes no es
representativa.

Diseño de experimentos – p. 8/65


Lineamientos para diseñar experimentos

En un experimento médico, si se tienen en un cuarto cinco


pacientes con bronquitis y a cada uno de ellos se les dá
tratamiento diferente (cada paciente es una u.e.) y si un
tratamiento no es efectivo, dicho paciente es un foco de
infección para los demás, por lo que contaminaria todo el
experimento.
La solución es un grupo de pacientes por cuarto como u.e. o
un paciente en cada cuarto como u.e.
Unidades experimentales grandes producen menos
variabilidad, sin embargo, el tamaño de las u.e. debe
considerarse en forma simultánea con el tamaño de muestra y
el costo.
Es más efectivo aumentar el tamaño de muestra que el
tamaño de las u.e.
El tamaño de muestra es el número de u.e. que reciben el
mismo tratamiento.

Diseño de experimentos – p. 9/65


Lineamientos para diseñar experimentos

4. Definir la variable de respuesta.


La variable de respuesta es lo que se va a medir en cada
unidad experimental.
Se debe estar seguro que dé información útil acerca del
fenómeno estudiado.
En el ejemplo, Kg. de maíz
No es raro que se mida más de una variable de interés
primario: kg. de maíz, kg. de hojas, etc. Esto se estudia
con técnicas de análisis multivariado.
Se debe tener cuidado en la toma de las mediciones para
eliminar sesgos introducidos por operaciones conscientes
o inconscientes.
En medicina, se recomienda que ni los sujetos (u.e.) ni los
médicos que toman las mediciones conozcan los
tratamientos asignados a cada u.e., a esto se le llama
método de doble ciego.
Diseño de experimentos – p. 10/65
Lineamientos para diseñar experimentos

5. Elección del diseño experimental.


El diseño experimental es la forma de asignar los
tratamientos a las unidades experimentales.
El diseño determina el modelo y el análisis estadístico a
seguir.

Aleatorización. Introducida por Fisher, sirve para


"controlar" factores de variación no incluída en el modelo
en forma explícita. Se busca eliminar sesgos sistemáticos y
justificar la independencia de los errores.

Diseño de experimentos – p. 11/65


Lineamientos para diseñar experimentos

Otro ejemplo en Agronomía:

Aleatorizamos dentro de cada bloque (una restricción a la


aleatorización). Cada uno de los tratamientos los tenemos en
cada una de las dos condiciones de terreno.

Diseño de experimentos – p. 12/65


Lineamientos para diseñar experimentos

5. Elección del diseño experimental.


Un bloque es un grupo de u.e. más o menos homogéneas.
El uso de bloques es la inclusión en el diseño (modelo) de
un factor que, aunque no es de interés, se sabe que puede
causar una fuerte variación en la u.e.
En general, los factores de bloqueo más importantes son
las posiciones en el tiempo y en el espacio.
El uso de bloques tiene como objetivo el control de factores
de variación en forma explícita en el modelo, disminuyendo
así la varianza de los errores.

Diseño de experimentos – p. 13/65


Lineamientos para diseñar experimentos

6. Determinación del número de repeticiones.


Las repeticiones (réplicas) son el número de u.e. a las que
se les aplica, en forma independiente, un tratamiento.
■ Dan una estimación de la varianza del error experimental
■ Incrementan la precisión del experimento. A mayor
número de repeticiones menor la varianza de los
estimadores.

7. Hacer el experimento y colectar datos.


El estadístico solo asesora.

8. Efectuar el análisis estadístico.

9. Obtención de conclusiones.
El estadístico auxilia.

Diseño de experimentos – p. 14/65


Error experimental

El error experimental describe la variación entre u.e. idéntica e


independientemente tratadas.

Se origina por:
1. Variación natural entre u.e.
2. Variabilidad en la medición de la respuesta
3. Incapacidad de reproducir las condiciones de los
tratamientos exactamente de una u.e. a otra
4. Interacción de tratamientos y u.e.
5. Cualquier otro factor externo que afecte las características
medidas

Lo que se busca es tener un diseño que minimice la varianza


del error experimental.

Diseño de experimentos – p. 15/65


Repaso

El objetivo de la inferencia estadística es obtener conclusiones


acerca de una población usando una muestra de esa
población.

Muestra aleatoria. Sean n variables aleatorias x1 , x2 , . . . , xn


independientes conjuntamente, todas con la misma función de
densidad f (x). Se dice que x1 , x2 , . . . , xn es una muestra
aleatoria de tamaño n de f (x). La densidad conjunta de las n
variables aleatorias es:
g(x1 , x2 , . . . , xn ) = f (x1 )f (x2 ) · · · f (xn )

Nota. x1 , x2 , . . . , xn son v.a.i.i.d. y forman una


muestra aleatoria de f (x)

Nota. En este curso, a diferencia del de Muestreo,


supondremos que trabajamos con poblaciones infinitas
o potencialmente infinitas, entonces la definición de
m.a.s. no aplica.

Diseño de experimentos – p. 16/65


Repaso

Estadística. Una función de la muestra que no contiene


parámetros desconocidos.

Estimador. Es una estadística usada para estimar un


parámetro desconocido de la población.

Estimación. Es un valor numérico particular de un estimador,


calculado en una muestra.

Hay algunas características que se requieren para ser un buen


estimador. Dos de las más importantes:

1. Insesgamiento. Un estimador es insesgado cuando su


valor esperado es el parámetro que está estimando.
Aunque es deseable el insesgamiento, esta propiedad por
si sola no garantiza un buen estimador.
2. Varianza mínima. El estimador de varianza mínima tiene
una varianza que es menor que la de cualquier otro
estimador del parámetro.
Diseño de experimentos – p. 17/65
Repaso

Suponga y1 , y2 , . . . , yn una m.a. de fY (y) con E(yi ) = µ y


V (yi ) = σ 2 .
Pn Pn 2
i=1 yi 2 i=1 (yi −ȳ)
Sean ȳ = n yS = n−1 dos estimadores.

µ Pn ¶ Ã n !
i=1 yi 1 X
E(ȳ) = E = E yi
n n i=1
n
1X
= E(yi )
n i=1
1
= nµ = µ
n

ȳ es un estimador insesgado de µ.

Diseño de experimentos – p. 18/65


Repaso

n
" #
¡ 2
¢ (yi − ȳ)2
X
E S = E
i=1
n−1
" n #
1 X
2 1
= E (yi − ȳ) = E [SS]
n−1 i=1
n − 1

Pn
donde SS = i=1 (yi − ȳ)2 es la Suma de Cuadrados
corregida de las observaciones.
" n #
X
E (SS) = E (yi − ȳ)2
i=1
n
" #
X
= E yi2 − nȳ 2
i=1
n
X
= E(yi2 ) − nE(ȳ 2 )
i=1

Diseño de experimentos – p. 19/65


Repaso

Por otro lado:


2
£ ¤
V (y) = E (y − E(y))
h i
2
= E y 2 − 2yE(y) + [E(y)]
£ 2¤ 2
= E y − 2E(y)E(y) + [E(y)]
£ 2¤ 2
= E y − [E(y)]
σ2 E y − µ2
£ 2¤
=

por lo tanto

E(y 2 ) = σ 2 + µ2

Diseño de experimentos – p. 20/65


Repaso

Y por otro:
n
à ! à n !
1 X 1 X
V (ȳ) = V yi = 2V yi
n i=1
n i=1
n
1 X
=iid 2
V (yi )
n i=1
2
1 2 σ
= nσ = .
n2 n

Entonces,
¡ 2¢ 2
V (ȳ) = E ȳ − [E(ȳ)]
¡ 2¢ 2
E ȳ = V (ȳ) + [E(ȳ)]
= σ 2 /n + µ2 .

Diseño de experimentos – p. 21/65


Repaso

Regresando,
n
X
E (SS) = E(yi2 ) − nE(ȳ 2 )
i=1
Xn
= (µ2 + σ 2 ) − n(µ2 + σ 2 /n)
i=1

= nµ + nσ 2 − nµ2 − σ 2
2

= (n − 1)σ 2

Por lo tanto,
2 1 1
(n − 1)σ 2 = σ 2
¡ ¢
E S = E (SS) =
n−1 n−1
S 2 es un estimador insesgado de σ 2 .

Diseño de experimentos – p. 22/65


Repaso

Distribución muestral. Es la distribución de probabilidad de


una estadística.
Se puede determinar la distribución muestral de una
estadística si conocemos la distribución de probabilidad de la
población de la que se extrajo la muestra.

Diseño de experimentos – p. 23/65


Distribuciones (algunas)

Diseño de experimentos – p. 24/65


Normal

Si y ∼ N (µ, σ 2 ) entonces:
1 − 2σ12 (y−µ)2
f (y) = √ e −∞ < y < ∞
σ 2π
−∞ < µ < ∞
σ2 > 0

0.4

NH10,1L
0.3

NH10,4L
0.2

NH10,9L
0.1

5 10 15 20

Diseño de experimentos – p. 25/65


Normal

Si y ∼ N (µ, σ 2 ) entonces:
y−µ
z= ∼ N (0, 1)
σ
Muchas técnicas estadísticas suponen que la variable
aleatoria en cuestión se distribuye normalmente. El Teorema
Central del Límite es muchas veces una justificación para
suponer normalidad.
Teorema Central del Límite.
Sean x1 , x2 , . . . , xn v.a.i.i.d de una función de probabilidad
fX (x) con media µ y varianza σ 2 .
Sea x̄ = x1 +x2 +...+x
n
n
, para un tamaño de muestra grande n,
la distribución de x̄ es aproximadamente:

n(x̄ − µ)
˙ (µ, σ 2 /n)
x̄∼N ó ∼N
˙ (0, 1)
σ

Diseño de experimentos – p. 26/65


Ji-cuadrada

Una distribución muestral que se puede definir a través de v.a.


normales es la distribución Ji-cuadrada χ2

Si z1 , z2 , . . . , zk son v.a.i.i.d. N (0, 1) entonces:

x = z12 + z22 + . . . + zk2


tiene una distribución χ2k .

La densidad tiene la forma:


1
f (x) = k/2 k xk/2−1 e−x/2 x > 0
2 Γ( 2 )

Diseño de experimentos – p. 27/65


Ji-cuadrada

0.15

0.125 ΧH5L
0.1
ΧH10L
0.075

0.05 ΧH15L
0.025

5 10 15 20 25 30

Diseño de experimentos – p. 28/65


Ji-cuadrada

La distribución es asimétrica con µ = k y σ 2 = 2k.

Un ejemplo de v.a. con distribución Ji-cuadrada es el


siguiente:

Suponga que y1 , y2 , . . . , yn es una m.a. de N (µ, σ 2 ), entonces:


Pn 2
SS i=1 (yi − ȳ) 2
= ∼ χn−1
σ2 σ2

Diseño de experimentos – p. 29/65


t-Student

Si z tiene distribución normal estándar y x tiene distribución χ2k


y z y x son independientes, entonces la v.a.
z
t= p ∼ tk
x/k
La función de densidad tiene la forma:
Γ[(k + 1)/2] 1
f (t) = √ −∞<t<∞
kπΓ(k/2) [(t2 /k) + 1](k+1)/2

La distribución es simétrica con µ = 0 y σ 2 = k/(k − 2) para


k > 2.

Diseño de experimentos – p. 30/65


t-Student

0.4

tH1L
0.3

tH2L
0.2

tH30L
0.1

-6 -4 -2 2 4 6

Diseño de experimentos – p. 31/65


t-Student

Un ejemplo de v.a. con distribución t es:

Si y1 , y2 , . . . , yn es una m.a. de N (µ, σ 2 ) entonces:


ȳ − µ
t= √ ∼ tn−1
S/ n
donde, sP
n
− ȳ)2
i=1 (yi
S=
n−1

Diseño de experimentos – p. 32/65


Distribución F

Si χ2u y χ2v son dos v.a. χ2 independientes con u y v g.l.


respectivamente, entonces

χ2u /u
F = 2 ∼ Fu,v
χv /v

Diseño de experimentos – p. 33/65


Distribución F

Como ejemplo de una estadística que se distribuye como F ,


suponga que tenemos dos poblaciones normales
independientes con varianza común σ 2 , es decir,
y11 , y12 , . . . , y1n1 es una m.a. de la primera población

y21 , y22 , . . . , y2n2 es una m.a. de la segunda población


entonces,
S12
2 ∼ Fn1 −1,n2 −1
S2
donde
Pn1 2
Pn2
i=1 (y1i − ȳ1 ) − ȳ2 )2
i=1 (y2i
S12 = y S22 =
n1 − 1 n2 − 1

Diseño de experimentos – p. 34/65


Distribución F

Sabemos que:
SS1 SS2
S12 = 2
y S2 =
n1 − 1 n2 − 1
y
SS1 (n1 − 1)S12 2
= ∼ χn1 −1
σ2 σ2
SS2 (n2 − 1)S22 2
= ∼ χn2 −1
σ2 σ2
Por lo tanto:

(n1 −1)S12
(n1 −1)σ 2
(n2 −1)S22
∼ Fn1 −1,n2 −1
(n2 −1)σ 2

Diseño de experimentos – p. 35/65


Pruebas de hipótesis

Diseño de experimentos – p. 36/65


Primero un ejemplo

Un ingeniero desea comparar la resistencia de una fórmula


modificada de cemento a la cual se le agrega látex durante el
mezclado. Se tienen diez observaciones de la resistencia para
la fórmula modificada y otras diez para la fórmula usual.

mezcla modificada mezca sin modificar


j kgf /cm2 (y1j ) kgf /cm2 (y2j )
1 16.85 17.50
2 16.40 17.63
3 17.21 18.25
4 16.35 18.00
5 16.52 17.86
6 17.04 17.75
7 16.96 18.22
8 17.15 17.90
9 16.59 17.96
10 16.57 18.15
Diseño de experimentos – p. 37/65
Primero un ejemplo

Factor: fórmula con dos niveles: modificada(1) y usual(2). Dos


tratamientos 10 repeticiones ȳ1 = 16.76 y ȳ2 = 17.92.
Diseño de experimentos – p. 38/65
Primero un ejemplo

Los promedios de resistencia son diferentes entre estas dos


muestras, sin embargo, no es obvio que esta diferencia sea lo
suficientemente grande para que implique que las dos
fórmulas son "realmente" diferentes.

Tal vez esta diferencia observada en los promedios de


resistencia es el resultado de fluctuaciones muestrales y que
las dos fórmulas son realmente iguales. Posiblemente otras
dos muestras podrían dar resultados opuestos.

Para probar si las dos fórmulas son iguales o no, se utiliza una
técnica de estadística inferencial llamada Prueba de Hipótesis,
la cual permite hacer la comparación de las dos fórmulas en
términos objetivos, con el conocimiento del riesgo asociado a
llegar a una conclusión errónea.

Diseño de experimentos – p. 39/65


Prueba de hipótesis con un ejemplo

Primero, necesitamos establecer un modelo para los datos:


yij = µi + ǫij i = 1, 2 j = 1, . . . , 10
donde
yij es la j-ésima observación del i-ésimo tratamiento
µi es la media de la respuesta en el tratamiento i, i = 1, 2
ǫij es el error asociado a la ij-ésima observación.
Suponga que ǫij ∼ N ID(0, σ 2 ) i = 1, 2 j = 1, . . . , 10.
Esto implica que
yij ∼ N ID(µi , σ 2 ) i = 1, 2 j = 1, . . . , 10.

Diseño de experimentos – p. 40/65


Prueba de hipótesis con un ejemplo

0.2

0.15
trat 1
0.1

trat 2
0.05

5 10 15 20 25 30

Diseño de experimentos – p. 41/65


Prueba de hipótesis con un ejemplo

Lo que interesa probar es:

H0 : µ1 = µ2 hipótesis nula
vs.
Ha : µ1 6= µ2 hipótesis alternativa dos colas
µ1 < µ2 ó µ1 > µ2

Para probar una hipótesis necesitamos una estadística de


prueba y especificar una región de rechazo o región crítica,
que es el conjunto de valores de la estadística de prueba que
llevan a rechazar la hipótesis nula.

Diseño de experimentos – p. 42/65


Prueba de hipótesis con un ejemplo

Se pueden cometer dos tipos de error al probar una hipótesis:

situación real (desconocida)


H0 es cierta H0 no es cierta
rechazar H0 error Tipo I
conclusión
estadística
no rechazar H0 error Tipo II

α = P (error tipo I) = P (rechazar H0 |H0 es cierta)

β = P (error tipo II) = P (no rechazar H0 |H0 no es cierta)

Diseño de experimentos – p. 43/65


Prueba de hipótesis con un ejemplo

El procedimiento general en pruebas de hipótesis es


especificar un valor de α, llamado nivel de significancia de la
prueba y diseñar el procedimiento de tal manera que β sea
pequeño.

Regresando al ejemplo.

ȳ1 = 16.764 ȳ2 = 17.992


S1 = 0.3164 S2 = 0.2479
S12 = 0.100 S22 = 0.061
n1 = 10 n2 = 10

Diseño de experimentos – p. 44/65


Construcción de la estadística de prueba

Suponga, por el momento, que las varianzas de las dos


poblaciones son iguales. Es decir,
y1j ∼ N ID(µ1 , σ 2 ) y2j ∼ N ID(µ2 , σ 2 ) j = 1, . . . , 10

ȳ1 ∼ N (µ1 , σ 2 /n1 ) ȳ2 ∼ N (µ2 , σ 2 /n2 )

Si las dos poblaciones son independientes, entonces:


µ µ ¶¶
1 1
ȳ1 − ȳ2 ∼ N µ1 − µ2 , σ 2 +
n1 n2
Si σ 2 es conocida y si H0 : µ1 = µ2 es cierta, entonces:

ȳ1 − ȳ2 −(µ1 − µ2 )


z0 = q ∼ N (0, 1)
1 1
σ n1 + n2

Diseño de experimentos – p. 45/65


Construcción de la estadística de prueba

Si no conocemos σ 2 , entonces se utiliza la estadística de


prueba:
ȳ1 − ȳ2
t0 = q ∼ tn1 +n2 −2
Sp n11 + n12
donde,
2 2
(n 1 − 1)S 1 + (n 2 − 1)S 2
Sp2 = (pooled)
n1 + n2 − 2

Diseño de experimentos – p. 46/65


Región de rechazo

Para determinar la región de rechazo, es decir, los valores de


la estadística de prueba que llevan a rechazar H0 , se fija
primero el nivel de significancia α.

Diseño de experimentos – p. 47/65


Región de rechazo

1−α/2
Se compara t0 con tn1 +n2 −2 porcentil (1 − α/2) de la
distribución t con n1 + n2 − 2 g.l.
1−α/2
Si |t0 | > tn1 +n2 −2 se rechaza H0 .

Esto es, si H0 es cierta entonces t0 ∼ tn1 +n2 −2 y


esperaríamos que el 100(1 − α)% de los valores de t0 cayeran
entre tα/2 y t1−α/2 .

Si una muestra produce un valor de t0 fuera de estos límites,


sería "extraño" si la hipótesis nula es cierta, por lo que es
evidencia de que H0 se debe rechazar.

Diseño de experimentos – p. 48/65


De vuelta al ejemplo

Haciendo los cálculos del ejemplo:

ȳ1 − ȳ2 16.76 − 17.92


t0 = q = q = −9.13
1 1 2
S p n1 + n2 0.284 10

Si fijamos α = 0.05 entonces rechazamos H0 si


|t0 | > t0.975
18 = 2.101

Como 9.13 > 2.101 entonces, rechazamos H0 al 5% de nivel


de significancia. Y concluímos que en promedio, la resistencia
de las dos fórmulas es diferente.

Diseño de experimentos – p. 49/65


p-value

Esta es una forma de reportar los resultados, es decir, la


hipótesis nula se rechazó o no se rechazó a un nivel de
significancia α especificado.

Sin embargo, esto no dá al investigador idea de si el valor


calculado de la estadística de prueba estaba en la frontera de
la región crítica o si estaba muy adentro de ésta. Para eliminar
esta deficiencia se utiliza el p-value.

El p-value (significancia observada) es la probabilidad, si la


hipótesis nula es cierta, de que la estadística de prueba
resulte en un valor tan extremo como el observado o más.

Diseño de experimentos – p. 50/65


Suposiciones de la prueba t

■ Ambas muestras provienen de poblaciones independientes


y que pueden ser descritas por distribuciones normales.
■ Las varianzas de ambas poblaciones son iguales.
■ Las observaciones son independientes.

Las suposiciones de independencia se pueden satisfacer a


través del diseño.

La suposición de normalidad se verifica a través de gráficas en


papel normal o la prueba de Kolmogorov-Smirnov, entre otras.

Diseño de experimentos – p. 51/65


Intervalos de confianza

Aunque las pruebas de hipótesis son una herramienta muy útil,


algunas veces no dan todo el panorama. A veces es preferible
dar un intervalo en el que esperamos que esté el verdadero
valor del parámetro. O puede suceder que el investigador ya
sabe que las medias µ1 y µ2 son diferentes, pero quiere saber
qué tan diferentes pueden ser.

Suponga que θ es un parámetro desconocido. Para construir


un intervalo de confianza para θ necesitamos dos estadísticas
L y U tales que:
P (L ≤ θ ≤ U ) = 1 − α
El intervalo (L, U ) es llamado intervalo del (1 − α)100% de
confianza para el parámetro θ.

Diseño de experimentos – p. 52/65


Intervalos de confianza

La interpretación de este intervalo es:

Si en un número grande de muestreos repetidos se construyen


intervalos de confianza para θ, entonces el (1 − α)100% de
éstos contendrán al verdadero valor de θ.

L y U son los límites de confianza, inferior y superior.


1 − α es el coeficiente de confianza.

Los intervalos de confianza tienen una interpretación


frecuentista, esto es, no sabemos si la aseveración es cierta
para esta muestra específica, pero sabemos que el método
usado para calcular el intervalo de confianza produce
aseveraciones correctas el (1 − α)100% de las veces.

Diseño de experimentos – p. 53/65


Intervalos de confianza

Para el caso que estamos tratando de dos poblaciones normales


independientes, el intervalo de confianza para µ1 − µ2 se construye de la
siguiente manera:

ȳ1 − ȳ2 − (µ1 − µ2 )


q ∼ tn1 +n2 −2
1 1
S p n1 + n2
 
(1−α/2) ȳ1 − ȳ2 − (µ1 − µ2 ) (1−α/2)
P −tn1 +n2 −2 ≤ q ≤ tn1 +n2 −2  = 1 − α
Sp n11 + n12

µ r
(1−α/2) 1 1
P ȳ1 − ȳ2 − tn1 +n2 −2 Sp + ≤ µ1 − µ2
n1 n2
r ¶
(1−α/2) 1 1
≤ ȳ1 − ȳ2 + tn1 +n2 −2 Sp + =1−α
n1 n2

Diseño de experimentos – p. 54/65


Intervalos de confianza

Un intervalo del (1 − α)100% de confianza para µ1 − µ2 es:


· r r ¸
(1−α/2) 1 1 (1−α/2) 1 1
(ȳ1 − ȳ2 ) − tn1 +n2 −2 Sp + , (ȳ1 − ȳ2 ) + tn1 +n2 −2 Sp +
n1 n2 n1 n2

Regresando al ejemplo del problema del cemento:


ȳ1 = 16.76 ȳ2 = 17.92
Sp = 0.284 n1 = n2 = 10
t0.975
18 = 2.101

El intervalo es: (−1.43, −0.89).


Note que si el valor 0 (cero) no está incluído en el intervalo
implica que los datos no sostienen la hipótesis de que µ1 = µ2
al 5% de nivel de significancia.

Diseño de experimentos – p. 55/65


Prueba de hipótesis cuando σ12 6= σ22

Si estamos probando
H0 : µ1 = µ2 vs. Ha : µ1 6= µ2
y no podemos suponer que las varianzas σ12 y σ22 son iguales,
la prueba t se modifica. La estadística de prueba es ahora:
ȳ1 − ȳ2
t0 = q 2 2
.
S1 S2
n1 + n2

Esta estadística no se distribuye exactamente como una t. Sin


embargo, se aproxima muy bien a una t si usamos como
grados de libertad:
³ 2 ´2
S1 S22
n1 + n2
ν= 2 2 2
(S1 /n1 ) (S22 /n2 )
n1 −1 + n2 −1

Diseño de experimentos – p. 56/65


Datos apareados

En algunos experimentos podemos mejorar grandemente la


precisión haciendo comparaciones con u.e. apareadas.

Ejemplo: Suponga que se tiene una máquina que prueba la


dureza de un metal al presionar una varilla con una punta en el
metal, aplicando una fuerza conocida.

Se determina la dureza del metal midiendo la profundidad de


la depresión causada por la punta.

Se tienen 2 puntas y se sospecha que las mediciones hechas


por las dos puntas producen lecturas diferentes, a pesar de
que la precisión (variabilidad) de las mediciones parecen
iguales.

Diseño de experimentos – p. 57/65


Datos apareados

Se lleva a cabo primero el siguiente experimento:

Se seleccionan 20 especímenes de metal. Diez de ellos se


medirán con la punta 1 y los otros 10 con la punta 2. La
asignación de los especímenes a las puntas es aleatorio.

Este es un diseño completamente al azar.

Punta 1 Punta 2
7,3,3,4,8, 6,3,5,3,8,
3,2,9,5,4 2,4,9,4,5
ȳ1 = 4.80 ȳ2 = 4.90
S12 = (2.39)2 S22 = (2.23)2

Diseño de experimentos – p. 58/65


Datos apareados

(n1 − 1)S12 + (n2 − 1)S22


Sp2 = = 5.3425
n1 + n2 − 2
ȳ1 − ȳ2
t0 = q = −0.09674
Sp n11 + n12
1−α/2
Si |t0 | > t18 rechazamos H0 : µ1 = µ2
1−α/2
t18 = 2.101 por lo tanto no rechazamos H0 .
p-value=0.924.

En este ejemplo puede haber una desventaja al hacerlo con


un diseño completamente al azar. Suponga que los
especímenes de metal fueron cortados de diferentes lotes que
fueron producidos con diferentes temperaturas o que no son
homogéneos en algun factor que puede afectar su dureza.

Esta falta de homogeneidad contribuirá a las mediciones de


dureza y tenderá a aumentar el error experimental, haciendo
que la verdadera diferencia entre las puntas sea difícil de
detectar.
Diseño de experimentos – p. 59/65
Datos apareados

Para solventar este problema, considere un diseño


experimental alternativo.

Suponga que cada especimen de metal es lo suficientemente


grande para que se puedan hacer 2 determinaciones de
dureza en él.

Este diseño consistirá en dividir cada especimen en dos


partes, luego se asigna aleatoriamente una punta a una de las
mitades y la otra punta a la otra mitad. El orden en el cual se
prueban las puntas es aleatorio también.

Diseño de experimentos – p. 60/65


Datos apareados

Especimen Punta 1 Punta 2 dj


1 7 6 1
2 3 3 0
3 3 5 -2
4 4 3 1
5 8 8 0
6 3 2 1
7 2 4 -2
8 9 9 0
9 5 4 1
10 4 5 -1

Diseño de experimentos – p. 61/65


Datos apareados

El modelo estadístico que describe los datos de experimento


es:
yij = µi + βj + ǫij i = 1, 2 j = 1, . . . , 10
donde

yij es la observación de dureza para la punta i en el


especimen j.

µi es la media verdadera de dureza de la punta i.

βj es el efecto del especimen j.

ǫij es el error experimental y suponemos que se distribuye


N (0, σ 2 )

Diseño de experimentos – p. 62/65


Datos apareados

Si
dj = y1j − y2j j = 1, . . . , 10
entonces
µd = E(dj ) = E(y1j − y2j ) = E(y1j ) − E(y2j )
= µ1 + βj − (µ2 + βj )
= µ1 − µ2 (se cancela el efecto de βj )

Entonces, H0 : µ1 = µ2 vs. Ha : µ1 6= µ2 es equivalente a


probar
H0 : µd = 0 vs. Ha : µd 6= 0
De aquí surge la prueba t para datos apareados. La
estadística de prueba es:

t0 = √
Sd / n

Diseño de experimentos – p. 63/65


Datos apareados

P ¯2
(dj −d)
donde d¯ = 1
Sd2
P
n j dj y = n−1 .

Haciendo cálculos, tenemos


d¯ = −0.10 Sd = 1.20 t0 = −0.26
1−α/2
Si |t0 | > tn−1 se rechaza H0 .

t0.975
9 = 2.262 p-value = 0.798

No se rechaza H0 .

Diseño de experimentos – p. 64/65


Comparación de los dos diseños

Completamente al azar Apareado (Bloques al azar)


18 g.l. 9 g.l.

Sp = 2.31 Sd = 1.20

µ1 − µ2 ∈ (−0.10 ± 2.18) µd ∈ (−0.10 ± 0.86)

Al hacer el experimento apareado se "perdieron" 9 g.l. lo que


implica que la prueba es menos sensible, sin embargo, se
redujo la estimación de la variabilidad lo que implica intervalos
de confianza más angostos, es decir, más precisión.

Diseño de experimentos – p. 65/65

También podría gustarte