Está en la página 1de 20

Capitulo 2 Experimentos Comparativos Simples

2.1 Introducción

En este capítulo se considerarán experimentos para comparar resultados de dos condiciones,


fórmulas o tratamientos. A menudo se conocen dichos experimentos como “experimentos
comparativos simples”. El análisis de éstos obligará a una revisión de conceptos estadísticos
básicos

Ejemplo 2.1: Se desea comparar la resistencia a la tracción de un cemento portland con la de un


nuevo cemento al que se le han añadido emulsiones de un cierto polímero. Los datos
observados de la resistencia a la tracción de 10 observaciones de cada cemento, se listan en la
Tabla 2.1.

muestra Nuevo Cemento Cemento Portland


(kg/cm2) (kg/cm2)
1 16.85 17.50
2 16.40 17.63
3 17.21 18.25
4 16.35 18.00
5 16.52 17.86
6 17.04 17.75
7 16.96 18.22
8 17.15 17.90
9 16.59 17.96
10 16.57 18.15
media 16.76 17.92

Tabla 2.1 Datos de Resistencia a la Tracción de Dos Cementos

Los datos sugieren que la resistencia del cemento Portland es mayor a la del nuevo cemento
pues la diferencia en los promedios parece ser significativa; sin embargo no es obvio que dicha
diferencia sea lo suficientemente grande para concluir que ambos cementos son diferentes. Es
posible que otras dos muestras arrojen resultados opuestos. Una técnica estadística llamada Test
de Hipótesis o de Significación puede emplearse para ayudar al investigador a comparar los dos
tipos de cementos. Antes de presentar el procedimiento del mencionado examen, es conveniente
recordar algunos conceptos elementales de estadística y de probabilidades.

2.2 Conceptos Estadísticos Básicos

Cada uno de los resultados del experimento anterior difiere de los otros. Esta fluctuación o
"ruido" implica la existencia de un error experimental. Si se asume que dicho error es inevitable
y no es controlable, entonces se está en presencia de un error estadístico y por lo tanto la
medición de la resistencia a la tracción es una variable aleatoria siendo susceptible de análisis
estadísticos.

Jaime Ortega PhD 6


Distribuciones de Probabilidad

En la teoría de la probabilidad y estadística, la distribución de probabilidad de una variable


aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la
probabilidad que dicho suceso ocurra. La distribución de probabilidad está definida sobre el
conjunto de todo el rango de valores (todos los posibles eventos) de la variable aleatoria. En
otras palabras: la estructura de probabilidad de una variable aleatoria, llámese ésta y, se describe
por su distribución de probabilidades. Si y es discreta, a la distribución de probabilidades de y,
p(y), se le llama función de probabilidad de y . Si y es contínua, la distribución de probabilidad
de y, f(y), es denominada función de densidad de y .

La figura 2.1 ilustra distribuciones hipotéticas de probabilidad. Nótese que en la distribución de


probabilidad discreta, es la altura de la función p(y) la que representa la probabilidad. En el caso
continuo, la probabilidad está representada por el área bajo la curva f(y), asociada a un
intervalo.

p(y=yj) = p(yj)
p(y)

y
yi yj

(a) Distribución Discreta

p (a < y < b)
p(y)

y
a b

(b) Distribución Continua

Fig. 2.1 Distribuciones de Probabilidad Continua y Discreta

Jaime Ortega PhD 7


Las propiedades de las distribuciones de probabilidad se pueden resumir de la siguiente manera:

y discreta:
0  p( y j )  1 para todo y j

p( y  y j )  p( y j ) para todo y j

 p( y
todos y j
j ) 1

(2.1)

y continua:
0  f ( y)
b
p ( a  y  b)  
a
f ( y )dy



f ( y )dy  1

(2.2)

Notar que la segunda propiedad expresada en la Ecuación 2.12 implica que la probabilidad
puntual es cero: 𝑝(𝑦 = 𝑎) = 𝑝(𝑦 = 𝑏) = 0

Media, Varianza y Valores Esperados

La media de una distribución de probabilidades es una medida de su tendencia central.


Matemáticamente, la esperanza de una variavle aletoria, E(y) se define de la siguiente manera:


  yf ( y )dy y continua
 

E ( y)  

yyp( y)
todo y discreta

(2.3)

A la larga, para ciertas distribuciones se cumple que : E(y)=. Donde  es un parámetro de la


función de distribución.

Ejemplo: Supóngase que la variable aleatoria y es el número que queda hacia arriba al lanzar un
1
dado legal. La función de probabilidad correspondiente es 𝑝(𝑦) = para y = 1, 2, 3, 4, 5, 6
6

Jaime Ortega PhD 8


Por consiguiente:
6
1 1 1 1 1 1
𝐸(𝑦) = ∑ 𝑝(𝑦) 𝑦𝑖 = 1 ( ) + 2 ( ) + 3 ( ) + 4 ( ) + 5 ( ) + 6 ( ) = 3.5
6 6 6 6 6 6
1

que quiere decir que 3.5 es el valor esperado, lo que significa que 3.5 es el valor central de la
distribución. Obsérvese que no es necesario que el valor esperado sea un valor posible de la
variable aleatoria. También se interpreta en el sentido que en 10 ejecuciones del experimento,
por ejemplo, se espera que la suma de los números obtenidos sea de (10)(3.5) = 351.

Nota: la Media de una Distribución de Probabilidades o valor esperado puede ser entendida
como un promedio ponderado, en el que los valores posibles se ponderan mediante sus
probabilidades correspondientes de ocurrencia (pesos o importancia).

La dispersión de una distribución de probabilidades se mide por la Varianza:


   y  u  f ( y )dy
2
y continua
 

 
2


   y  u  p( y )
2
y discreta
todo y
(2.4)

La Varianza se emplea de manera tan extensa que es conveniente definir un operador V tal que:

 
V ( y)  E ( y  u) 2   2
(2.5)

Si y es una variable aleatoria con media  y varianza  2 y c es una constante, entoces:

1 E (c )  c
2 E ( y)  
3 E (cy )  cE ( y )  c
4 V (c )  0
5 V ( y)   2
6 V (cy )  c 2V ( y )  c 2 2

1
1
La ecuación del ejemplo puede escribirse como: 𝐸(𝑦) = ∑6𝑦=1 𝑝(𝑦) 𝑦𝑖 = ( ) ∑6𝑦=1 𝑦𝑖
6

Cuando la probabilidad es constante, la media es conocida como media aritmética

Jaime Ortega PhD 9


En el caso de dos variables aleatorias, y1 y y2 con E( y1 )  1 y V ( y1 )   12 y
E( y2 )   2 y V ( y2 )   2
2 se tiene:

E ( y1  y 2 )  E ( y1 )  E ( y 2 )  1   2

y:

V ( y1  y 2 )  V ( y1 )  V ( y 2 )  2Cov( y1 , y 2 )

donde :

Cov( y1 , y 2 )  E  y1  1  y 2   2 
(2.6)

La Covarianza Cov ( y1 , y2 ) es una medida de la asociación linear de las dos variables. En el


caso que sean independientes, el valor de ésta es cero.

También se puede demostrar que:

V ( y1 - y2 )  V ( y1 )  V ( y2 ) - 2 Cov ( y1 , y2 )
(2.7)

Si y1 y y2 son independientes, entonces:

V ( y1  y2 )  V ( y1 )  V ( y2 )   12   22
(2.8)

E ( y1  y 2 )  E ( y1 )  E ( y 2 )  1   2
(2.9)

En general se cumple que:

y  E ( y1 )
E  1  
 y2  E ( y 2)
(210)
.... sin importar si y1 y y2 son independientes.

Jaime Ortega PhD 10


2.3 Muestreo y Distribuciones Muestrales

Muestras Aleatorias, Media Muestral y Varianza Muestral

El objetivo de la Inferencia Estadística es obtener conclusiones acerca de una o varias


características de una población mediante el empleo de muestras extraídas de la misma. La
mayoría de los métodos que aquí se estudiarán, asumen muestras aleatorias; es decir, si la
población contiene N elementos y ha de seleccionarse una muestra de n de ellos, entonces las
N!/( N  n)!n! posibles muestras tienen la misma probabilidad de ser elegidas.

Un estadígrafo es cualquier función matemática de las observaciones hechas sobre una muestra
que no contiene parámetros desconocidos. Conceptualmente, un estadígrafo (número índice) es
un parámetro que aporta mucha más información que la misma población. Sean
y1 , y2 , y3 ,........ yn representantes de una muestra, se define la Media Muestral como:

y i
y i 1

n
(2.11)

y la Varianza Muestral como:


n

( y i  y )2
S2  i 1

n 1
(2.12)

Estas cantidades son medidas de la tendencia central y de la dispersión de la muestra


respectivamente. En ocasiones, la cantidad S  S 2 , llamada Desviación Estándar, es
empleada como una medida de la dispersión pues tiene las mismas unidades de la variable de
interés, y.

Propiedades de la Media y Varianza Muestrales

La Media Muestral, y , es un estimador puntual de la Media Poblacional ; y la Varianza


Muestral, S 2 , es un estimador puntual de la Varianza Poblacional  2 . En general, un estimador
puntual de un parámetro desconocido, es un estadígrafo que corresponde a dicho parámetro.

Tres de las más importantes propiedades de los estimadores puntuales son:

1. Los estimadores puntuales son variables aleatorias.

Jaime Ortega PhD 11


2. Los estimadores puntuales son insesgados2. Esto significa que el valor esperado del
estimador puntual es igual al parámetro que esta siendo estimado. Puede demostrarse que
E(y)   y E(S 2 )   2

3. Los estimadores puntuales tienen varianza mínima. Esta propiedad establece que la
Varianza de un estimador puntual insesgado de un parámetro, es menor a la Varianza de
cualquier otro estimador de dicho parámetro.

Grados de Libertad

A la cantidad n-1 de la Eq. (2.12) se le llama grados de libertad de la suma de los cuadrados
(SC). Donde SC   ( yi  y ) 2 . Este resultado general permite afirmar que si y es una variable
aleatoria con Varianza  2 , SC   ( yi  y ) 2 y υ grados de libertad, entonces se cumple que:

 SC 
E  
2

  
(2.13)

El número de grados de libertad de una suma de cuadrados, es igual al número de elementos


independientes en dicha suma. El uso de (n-1) en lugar de n en el denominador confunde a
muchas personas. El número de grados de libertad de una suma de cuadrados, es igual al
número de elementos independientes en dicha suma. En aquellas raras ocasiones cuando se
2
conoce la media poblacional, , la formula de S tendrá n en el denominador. En Estadística, la
suma de los residuos (a diferencia de la suma de los errores, que no es conocida) es
necesariamente 0 ya que existen variables con valores superiores e inferiores a la media.

n  n 
 (yi  y n )   yi  n y n  0
i 1 i 1

Ahora imaginemos que se tienen 3 valores de y que se pueden modificar arbitrariamente, pero
con la condición de que la suma de los residuos sea 0. Se puede asignar cualquier cantidad a dos
de los tres valores de y, porque el otro va a estar dado por la fórmula, es decir que tienes dos
grados de libertad.

Esto también significa que los residuos están restringidos a encontrarse en un espacio de
dimensión n-1 (en este ejemplo, en el caso general a n-r) ya que, si se conoce el valor de n-1 de
estos residuos, la determinación del valor del residuo restante es inmediata. Así, se dice que "el
error tiene n-1 grados de libertad" (el error tiene n-r grados de libertal para el caso general).

2
En estadística se llama sesgo de un estimador a la diferencia entre su esperanza matemática y el valor del parámetro que
estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.

Jaime Ortega PhD 12


2
En aquellas raras ocasiones cuando se conoce la media poblacional, , la formula de S tendrá
n en el denominador.

Distribución Normal y Otras Distribuciones Muestrales

A menudo es posible determinar la distribución de probabilidad de un estadígrafo en particular


si se conoce la distribución de probabilidad de la población de la cual se extrajo la muestra. La
distribución de probabilidad de un estadígrafo se conoce como distribución muestral.

Una de las distribuciones más útiles3, es la Distribución Normal. Si y es una variable aleatoria
normal, entonces la distribución de probabilidades de y es:

1
f ( y)  e (1 / 2)[( y   ) /  ]   y  
2

 2
(2.14)

Donde  es la media de la Distribución y  2 la Varianza. La representación gráfica de la


Distribución Normal se presenta en la Fig. 2.2

Fig 2.2 Distribución Normal

3Caracteres morfológicos de personas, animales o plantas de una especie: tallas, pesos, envergaduras, diámetros, perímetros.
Caracteres fisiológicos: efecto de una misma dosis de un fármaco, o de una misma cantidad de abono.
Caracteres sociológicos: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen.
Caracteres psicológicos: cociente intelectual, grado de adaptación a un medio
Errores cometidos al medir ciertas magnitudes.
Valores estadísticos maestrales, por ejemplo: la media.
Otras distribuciones como la binomial o la de Poisson son aproximaciones normales.
En general cualquier característica que se obtenga como suma de muchos factores.

Jaime Ortega PhD 13


Frecuentemente se emplea la notación y ~ N(,  2 ) para indicar que y se distribuye "normal"
con media  y varianza  2 .

Un caso importante de la Distribución Normal es la Distribución Normal Estándar donde =0


y  2  1 . Si y ~ N(, 2), entonces la variable

y
z

(2.15)

sigue la Distribución Normal Estándar, esto es: z ~ N(0,1). Muchas técnicas de análisis
estadístico asumen que la variable aleatoria en estudio se distribuye "normal". Si se toman
muestras aleatorias de tamaño n de poblaciones que obedecen la distribución normal, la
distribución de la media muestral, y , será también normal con la misma media y desviación
estándar  / n .

Si la distribución de la población no fuese normal; la distribución de la media muestral, y , será


aproximadamente normal si se analizan muestras razonablemente grandes (n > 30). Este
resultado se conoce como el Teorema del Límite Central.

Teorema del Límite Central

Si y1 , y2 , y3 ,........ yn es una secuencia de n variables aleatorias independientes de idéntica


distribución, con E ( yi )   , V ( yi )   2 y x  y1  y 2 ....  y n , entonces la variable:

x  n
zn 
n 2
(2.16)

tiene aproximadamente una distribución N(0,1). En algunos casos, esta aproximación es


adecuada para pequeños valores de n (n<10). En otros, se requiere valores altos de n (n>100).
En experimentación, la utilidad de la suma de variables normales radica en el hecho que el error
experimental es la suma de errores de fuentes independientes; por tanto, la Distribución Normal
se constituye en un modelo plausible para el estudio de error experimental combinado.

El teorema central del límite es uno de los resultados fundamentales de la estadística. Este
teorema nos dice que si una muestra es lo bastante grande (generalmente cuando el tamaño
muestral (n) supera los 30, sea cual sea la distribución de la media muestral, seguirá
aproximadamente una distribución normal. Es decir, dada cualquier variable aleatoria, si
extraemos muestras de tamaño n (n>30) y calculamos los promedios muestrales, dichos
promedios seguirán una distribución normal. Un caso concreto del teorema central del límite es
la distribución binomial. A partir de n=30, la distribución binomial se comporta
estadísticamente como una normal, por lo que podemos aplicar los tests estadísticos apropiados
para esta distribución.

Jaime Ortega PhD 14


Ejemplo:

Se sabe que los diámetros de ejes fabricados por un cierto proceso se distribuyen “normal” con
media  = 2.5 cm y desviación estándar  = 0.009 cm. Indagar la distribución de la media
muestral de los diámetros de una muestra de nueve ejes escogidos al azar. Calcular la fracción
de dicha medias muestrales que se espera que exceda los 2.505 cm.

La distribución de la media muestral, y , será normal con media 2.5 cm y desviación estandar
 / n  0.009 / 9  0.003 cm .

Para calcular la probabilidad que y  2.505 ó P( y  2.505) es necesario emplear la variable


normal estándar. Es decir:

 y  2.500 2.505  2.500   y  2.500 


P( y  2.505)  P    P


 0.003   1.66  0.048
 0.003 0.003   

Distribución 
2

Una importante distribución de probabilidades definida en términos de variables aleatorias


normales, es la Distribución  (chi-cuadrado o ji-cuadrado de Pearson). Si
2

z1 , z2 , z3 ,....... zi .... zn son variables aleatorias normales e independientes con media 0 y varianza
1, entonces la variable

2k  z12  z22 ..... zi2 ..... zk2


(2.17)

sigue la Distribución Chi-cuadrado con k grados de libertad. La función de densidad Chi-


cuadrado es:

f ( 2 ) 
1
 
2 ( k / 2 ) 1
e 
2
/2
2  0
k
2 k / 2  
2
(2.18)

La Fig. 2.3 muestra curvas de densidad para 6, 12, 18, 24 y 30 grados de libertad.

Jaime Ortega PhD 15


Fig. 2.3 Distribuciones Chi Cuadrado

Para k = 2 la distribución es una distribución exponencial. Cuando k es suficientemente grande


se aproxima por la distribución normal:

La Distribución Chi-cuadrado es asimétrica con media   k y varianza  2  2k . Una


aplicación inmediata e importante de esta distribución es la siguiente: supóngase que
y1 , y2 , y3 ,....... yi .... yn es una muestra aleatoria de una población N(,  ). Entonces se cumple
2

que:
n

sc
 y i  y
2

 i 1
  n21
 2
 2

(2.19)

La Eq. 2.19 es muy importante pues ocurre repetidamente en experimentación.

La Eq. 2.12 puede escribirse como:

SC
S2 
n 1
(2.20)

Si las observaciones de la muestra son variables aleatorias independientes que se distribuyen


2
N(,  ), entoces la distribución de la Varianza Muestral S2 es una constante multiplicada por la
distribución Chi-cuadrado, si la población se distribuye normalmente.

 2  2
S 2     n 1
 n  1 
(2.21)

Jaime Ortega PhD 16


Si las variables aleatorias z y  k2 son independientes, entonces la variable:

z
tk 
 k2 / k
(2.22)

sigue la Distribución t de Student4 con k grados de libertad. La función de densidad de t es:

[( k  1) / 2] 1
f (t )  ( k 1) / 2
- < t < 
k (k / 2) [(t / k )  1]
2

(2.23)

Siendo la media   0 y la varianza  2  k /(k  2) para k  2. La figura 2.4 muestra


distribuciones t para 1, 10 y  grados de libertad.

↑k

Fig. 2.4 Distribución t de Student

Una consecuencia de la Eq. 2.22 es que si y1, y2 .... yi ,.... yn es una muestra aleatoria de una
población que se distribuye N (,  2 ) , entonces la cantidad

y 
S/ n
(2.24)

se distribuye t con n-1 grados de libertad.

4
En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de
estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño

Jaime Ortega PhD 17


La ultima distribución a considerar en este capítulo es la Distribución F. Si  u2 y  v2 son dos
variables aleatorias independientes chi-cuadrado, con u y v grados de libertad respectivamente,
entonces el radio

 u2 / u
F
 v2 / v
(2.25)

sigue la distribución F con (u,v)grados de libertad. Una aplicación inmediata de la Eq. 2.25 es la
siguiente: Si y11, y12 ,..... y1,n1 y y 21, y 22 ,..... y 2,n2 son muestras aleatorias independientes de n1 y
n2 elementos, de varianza común  2 , de dos poblaciones normales, entonces el radio:

S12
S22
(2.26)

Sigue la distribución F con n-1, n-2 grados de libertad.

2.4 Análisis de Medias y Diseño Aleatorio

En esta sección se estudiará la forma en la cual datos de experimentos comparativos pueden ser
analizados empleando procedimientos de " test de hipótesis " e intervalos de confianza. A lo
largo de toda la sección se asumirá el empleo de un diseño experimental totalmente aleatorio.

2.4.1 Test de Hipótesis (Docimasia)

Una hipótesis estadística es una afirmación acerca de los parámetros de una distribución de
probabilidad. Por ejemplo, en el caso de cemento portland (Sección 2.1), se puede afirmar que
las resistencias medias a la tracción de los dos cementos son iguales. Tal afirmación o hipótesis
puede enunciarse de la siguiente manera:

Ho : 1   2
H1: 1   2

(2.27)

donde 1 y 2 son las resistencias medias de los dos cementos, Ho es la hipótesis nula, y H1
es la hipótesis alternativa.

Para probar la hipótesis, el procedimiento consiste en tomar muestras aleatorias, calcular


estadígrafos apropiados, y rechazar o aceptar la hipótesis nula Ho . En este procedimiento se
cometen dos tipos de error:

Jaime Ortega PhD 18


  (error tipo I)  P ( rechazar Ho / Ho es verdadera )
  (error tipo II)  P (no rechazar Ho / Ho is falsa )
(2.28)

El procedimiento general consiste en especificar un valor de probabilidad de ocurrencia del


error del tipo I o nivel de significación de tal manera que la probabilidad de ocurrencia del error
del tipo II sea lo suficientemente pequeño. Ahora bien, si se trabaja con muestras normales
independientes, entonces la distribución de y1  y2 es N [1   2 , 2 (1 / n1  1 / n2 )] . Por tanto, si
se conoce 2 , entonces la variable:

y1  y2
Zo 
1 1
 
n1 n2
(2.29)

se distribuye N(0,1); sin embargo, si la varianza muestral no se conoce, ésta debe ser
reemplazada por un estimador S p . Por consiguiente y según la Eq. 2.24 la variable:

y1  y 2
to 
1 1
Sp 
n1 n2
(2.30)

se distribuye t con n1  n2  2 grados de libertad. El estimador S p , se calcula mediante:

(n  1) S12  (n2  1) S 22
Sp 
n1  n2  2
(2.31)
Para ilustrar el procedimiento, considere los datos de la Tabla 2.1. A partir de dichos datos se
obtiene lo siguiente:

Nuevo Cemento Cemento Portland


y1  16. 76 kg / cm2 y 2  17. 92 kg / cm2
S12  0.100 S12  0. 061
S1  0. 316 S1  0. 247
n1  10 n1  10

Substituyendo en la Eq. 2.31 se tiene:

9(0.100)  9(0.061)
S p2   0.081  S p  0.284
10  10  2

Jaime Ortega PhD 19


Substituyendo este valor en la Eq. 2.30 se obtiene:

16. 76  17. 92
to   9.13
0. 248 1 / 10  1 / 10

Ahora, supóngase que se desea un error del primer tipo del orden de   0. 05 (5%) y por
tanto un intervalo de confianza de la media poblacional,  , de 0.95 (95%). En términos
gráficos, lo dicho arriba se puede representar como se muestra en la Figura 2.5

Mediante tablas, se ve que t /2 con n1  n2  2  18 grados de libertad es igual 2.101. Dado que
to  9.13  t0.025, 18 se puede concluir que la hipótesis nula, Ho , no es verdadera y por tanto debe
ser rechazada. En otras palabras, las resistencias medias a la tracción de ambos cementos son
diferentes.

2.4.2 Elección del Tamaño de la Muestra

Uno de los aspectos mas importantes en el Diseño Experimental es la selección del tamaño
apropiado de la muestra. El tamaño de la muestra y la probabilidad de ocurrencia del error del
tipo II están relacionados. Supóngase que está examinando la siguiente hipótesis:

H o : 1   2

H 1 : 1   2

y que las medias no son iguales; es decir,   1  2 . Dado que Ho  1   2 no es verdad, el


investigador estará interesado en erróneamente fallar en rechazar la hipótesis nula dado que esta
es falsa, es decir, en valorar el error . La probabilidad de  depende de . Un gráfico de P()
versus d  1   2 / 2 , para un tamaño total de muestras, n  (n1  n2 ) , y un valor de  =

Jaime Ortega PhD 20


0.05, se muestra en la Fig. 2.5. Las curvas mostradas en dicho gráfico reciben el nombre de
"curvas características operacionales".

El parámetro d implica conocer las medias y varianza poblacionales que son generalmente
desconocidas. Sin embargo, es el investigador el que puede definir diferencias criticas. Por otro
lado,  puede ser evaluado a partir de la precisión del instrumento. Por ejemplo, en el caso del
cemento Portland, se desea determinar, con alto grado de probabilidad, diferencias
significativas hasta de 0.5 Kg/cm2 . Así mismo, se sabe que la precisión del instrumento es de
0.25 Kg/cm2. Con estos valores, se tiene que d = 1. Asumiendo un valor muy bajo de
ocurrencia del error II se ve que n =30 y por tanto n1  n2  15. Las curvas características
operacionales deben ser obtenidas antes de empezar la serie de experimentos.

Fig. 2.6

2.4.3 Intervalos de Confianza

A menudo, es necesario conocer el o los intervalos dentro de los cuales se espera encontrar el o
los valores de los parámetros estudiados. A estos intervalos se les conoce como intervalos de
confianza. En muchos procesos, el investigador sabe de antemano que las medias poblacionales
difieren y por tanto probar que 1   2 es de poco interés. En su lugar, es de mayor utilidad
conocer el intervalo de confianza de 1   2

Definición:

Supóngase que  es el parámetro en estudio. Para obtener el intervalo de confianza de  se


requiere encontrar dos estadígrafos L y U tal que se cumpla;

P( L    U )  1  
(2.26)
El intervalo:

L   U
(2.27)

Jaime Ortega PhD 21


es el intervalo de confianza de .

Ejemplo: se desea encontrar un intervalo de la diferencia de medias del problema del cemento
Portland. En virtud de la Eq. 2.19, el estadígrafo:

 y1  y 2   1   2 

1 1
Sp 
n1 n 2
(2.28)

se distribuye t con n1  n2  2 grados de libertad (tn1 n2 2 ) . Por lo tanto, el intervalo será:

 
 

P  t / 2, n1  n2  2 
 y1  y 2   1   2  
 t / 2, n1  n2  2   1  
 1 1 
 Sp  
 n1 n 2 

Lo que re-ordenando da:

 1 1 
P  y1  y 2   t / 2, n1  n2 2 S p   1   2   y1  y 2   t / 2, n1  n2 2 S p
1 1
   1
 n1 n 2 n1 n2 

Para un nivel de significación del 95 %, substituyendo los valores de la página 18 se tiene:

1. 43  1   2  0.89

En otras palabras, el intervalo del 95 % confianza de la diferencia de medias es:

1   2  1.16 Kg / cm2  0. 27 Kg / cm2

Nótese que la diferencia 1   2  0 no esta incluida en el intervalo y por tanto no apoya la


hipótesis de 1   2 !.

Jaime Ortega PhD 22


2.4.4 El Caso de  12   22

Si se esta examinando la hipótesis de la Eq. 2.21 y no se puede asumir que las varianzas
poblacionales sean iguales, entonces la variable de la Eq. 2.24 se convierte en:

y1  y 2
to 
S12 S 22

n1 n2
(2.29)

la misma que no se distribuye t. Sin embargo, uno puede aproximarse a la distribución t


utilizando el estadígrafo:

2
 S12 S 22 
  
v  n1 n2 

S12 / n1
2


 
S 22 / n2
2

n1  1 n2  1
(2.30)

2.4.5 El Caso de 1 y  2 Conocidos

En este caso se empleara el estadígrafo

y1  y2
zo 
 12  22

n1 n2
(2.31)

El mismo que se distribuye N(0,1) siempre que las poblaciones sean normales o las muestras lo
suficientemente grandes tal que se cumpla el teorema del Limite Central.

2.5 Inferencias Acerca de Diferencias en las Medias. Diseño de Pares de Comparación

En algunos experimentos comparativos es posible incrementar la precisión haciendo


comparaciones mediante "pares correspondientes" de material experimental. Por ejemplo, la
dureza de un metal se mide mediante de la hendidura que deja la punta del durómetro en la
muestra al aplicarse una determinada carga. Supóngase que se tienen disponibles dos puntas
"idénticas" para una misma maquina. Sin embargo, se sospecha que dichas puntas dan lecturas
diferentes. Para probar o rechazar tal afirmación, un experimento puede diseñarse de la
siguiente manera: se seleccionan al azar 20 piezas de metal y la mitad de éstas se prueban con la
punta 1y la otra mitad con la punta 2. Dado que este es un experimento totalmente aleatorio, se
puede utilizar las técnicas descritas en la Sección 2.4. Sin embargo, por una serie de factores

Jaime Ortega PhD 23


desconocidos (barras diferentes, gradientes de temperatura en las barras, etc) podría existir falta
de homogeneidad en el material lo que contribuiría a incrementar el error experimental y por
tanto a conclusiones erróneas acerca de las mencionadas puntas.

Para evitar la posibilidad arriba señalada, considere un diseño experimental alternativo: (a)
tómese muestras lo suficientemente grandes tal que se hagan dos mediciones en la misma: una
con la punta 1 y otra con la punta 2 y (b) divídase al azar cada muestra en dos porciones de
iguales dimensiones. Después de llevar a cabo el experimento, se construye la siguiente tabla:

Muestra Punta 1 (en m) Punta 2 (en m)


1 7 6
2 3 3
3 3 5
4 4 3
5 8 8
6 3 2
7 2 4
8 9 9
9 5 4
10 4 5

Es posible proponer un modelo estadístico que describe los datos del experimento de la
siguiente manera:

i  1,2
yij   i   j   ij 
 j  1,2,.....10
(2.32)

Donde
yij es la lectura de la punta i en la muestra j

 i es la dureza media verdadera dada por la punta i


 j es un efecto en la dureza debido a la muestra j

 ij es el error experimental con media cero y varianza  i2

Si se calculan las j-ésimas diferencias apareadas se tiene

d j  y1 j  y2 j j  1, 2,.......10
(2.33)

Siendo el valor esperado de las diferencias

d  E (d j )  E ( y1 j  y2 j )  E ( y1 j )  E ( y2 j )  1  2

Jaime Ortega PhD 24


Por tanto, es posible hacer inferencias acerca de la diferencia de las medias, 1   2 , mediante
inferencias acerca de la media de las diferencias,  d . En otras palabras, examinar Ho : 1   2
es equivalente a proponer
Ho :  d  0
H1:  d  0

El estadígrafo para esta hipótesis será:

d
to 
Sd / n
(2.34)
que se distribuye t con n-1 grados de libertad.

donde
 n 
  (d j  d ) 2 
1 n
 j 1 
d d j
n j 1
y S d2  
n 1 
 
 

Substituyendo los valores numéricos se tiene to  0. 26. En tablas se ve que t0.25, 9  2. 262 .
Como to  t0.25, 9 no hay evidencia que indique que ambas puntas producen diferentes valores
de dureza.

Jaime Ortega PhD 25

También podría gustarte