Está en la página 1de 20

Capitulo 2

Experimentos Comparativos Simples

2.1 Introducción

En este capítulo se considerarán experimentos para comparar resultados de dos condiciones,

o tratamientos. A menudo se conocen dichos experimentos como “experimentos

comparativos simples”. El análisis de éstos obligará a una revisión de conceptos estadísticos

básicos

fórmulas

Ejemplo 2.1: Se desea comparar la resistencia a la tracción de un cemento portland con la de un nuevo cemento al que se le han añadido emulsiones de un cierto polímero. Los datos observados de la resistencia a la tracción de 10 observaciones de cada cemento, se listan en la Tabla 2.1.

muestra

Nuevo Cemento (kg/cm 2 )

Cemento Portland (kg/cm 2 )

1

16.85

17.50

2

16.40

17.63

3

17.21

18.25

4

16.35

18.00

5

16.52

17.86

6

17.04

17.75

7

16.96

18.22

8

17.15

17.90

9

16.59

17.96

10

16.57

18.15

media

16.76

17.92

Tabla 2.1

Datos de Resistencia a la Tracción de Dos Cementos

Los datos sugieren que la resistencia del cemento Portland es mayor a la del nuevo cemento pues la diferencia en los promedios parece ser significativa; sin embargo no es obvio que dicha diferencia sea lo suficientemente grande para concluir que ambos cementos son diferentes. Es posible que otras dos muestras arrojen resultados opuestos. Una técnica estadística llamada Test de Hipótesis o de Significación puede emplearse para ayudar al investigador a comparar los dos tipos de cementos. Antes de presentar el procedimiento del mencionado examen, es conveniente recordar algunos conceptos elementales de estadística y de probabilidades.

2.2 Conceptos Estadísticos Básicos

Cada uno de los resultados del experimento anterior difiere de los otros. Esta fluctuación o "ruido" implica la existencia de un error experimental. Si se asume que dicho error es inevitable y no es controlable, entonces se está en presencia de un error estadístico y por lo tanto la medición de la resistencia a la tracción es una variable aleatoria siendo susceptible de análisis estadísticos.

Distribuciones de Probabilidad

En la teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable aleatoria la probabilidad que dicho suceso ocurra. La distribución de probabilidad está definida sobre el conjunto de todo el rango de valores (todos los posibles eventos) de la variable aleatoria. En otras palabras: la estructura de probabilidad de una variable aleatoria, llámese ésta y, se describe por su distribución de probabilidades. Si y es discreta, a la distribución de probabilidades de y, p(y), se le llama función de probabilidad de y . Si y es contínua, la distribución de probabilidad de y, f(y), es denominada función de densidad de y .

La figura 2.1 ilustra distribuciones hipotéticas de probabilidad. Nótese que en la distribución de probabilidad discreta, es la altura de la función p(y) la que representa la probabilidad. En el caso continuo, la probabilidad está representada por el área bajo la curva f(y), asociada a un intervalo.

p(y)

p(y=y j ) = p(y j ) y i y j
p(y=y j ) = p(y j )
y i
y j

(a) Distribución Discreta

y

p(y)

p (a < y < b) a b y
p (a < y < b)
a
b y

(b) Distribución Continua

Fig. 2.1

Distribuciones de Probabilidad Continua y Discreta

Las propiedades de las distribuciones de probabilidad se pueden resumir de la siguiente manera:

y

discreta:

y

continua:

0

p

(

y

j

)

p

(

y

p

todos

y

j

(

y

j

y

j

)

)

1

p

1

(

y

j

)

0

p

f

(

(

a

y

y

)

b



f

(

y

)

dy

para todo

para todo

y

y

j

j

)

1

b

a

 

(2.1)

f

(

y dy

)

 

(2.2)

Notar que la segunda propiedad expresada en la Ecuación 2.12 implica que la probabilidad puntual es cero: ( = ) = ( = ) = 0

Media, Varianza y Valores Esperados

La media de una distribución de probabilidades es una medida de su tendencia central. Matemáticamente, la esperanza de una variavle aletoria, E(y) se define de la siguiente manera:

E

(

y

)




yf

(

y dy

)

todo y

(

yp y

)

continua

y

y

discreta

(2.3)

A la larga, para ciertas distribuciones se cumple que : E(y)=. Donde es un parámetro de la función de distribución.

Ejemplo : Supóngase que la variable aleatoria y es el número que queda hacia arriba al lanzar un dado legal. La función de probabilidad correspondiente es () = 6 para y = 1, 2, 3, 4, 5, 6

1

Por consiguiente:

() =

6

∑ () = 1 ( 6 ) + 2 ( 6 ) + 3 ( 6 ) + 4 ( 6 ) + 5 ( 6 ) + 6 ( 6 ) = 3.5

1

1

1

1

1

1

1

que quiere decir que 3.5 es el valor esperado, lo que significa que 3.5 es el valor central de la distribución. Obsérvese que no es necesario que el valor esperado sea un valor posible de la variable aleatoria. También se interpreta en el sentido que en 10 ejecuciones del experimento, por ejemplo, se espera que la suma de los números obtenidos sea de (10)(3.5) = 35 1 .

Nota: la Media de una Distribución de Probabilidades o valor esperado puede ser entendida como un promedio ponderado, en el que los valores posibles se ponderan mediante sus probabilidades correspondientes de ocurrencia (pesos o importancia).

La dispersión de una distribución de probabilidades se mide por la Varianza:

2



y

todo y

y

u

2

f

u

2

(

y dy

)

y

continua

p

(

y

)

y

discreta

(2.4)

La Varianza se emplea de manera tan extensa que es conveniente definir un operador V tal que:

V(y) E (y u)

2

2

(2.5)

Si y es una variable aleatoria con media y varianza 2 y c es una constante, entoces:

1 La ecuación del ejemplo puede escribirse como:

1

2

3

4

5

6

E

(

c

)

c

E

E

(

(

y

)

cy

)

(

cE y

V

(

c

)

0

V

(

y

)

2

V cy

(

)

2

c V

(

)

y

c

)

c

2

2

() = ∑

6

=1

() = (

6 )

1

6

=1

Cuando la probabilidad es constante, la media es conocida como media aritmética

En

el

caso

E(y )

2

2

de

dos

variables

aleatorias,

yV(y )

2

2

2 se tiene:

E

(

y

)

 

y

1 2

E

(

y

1

)

y:

V

(

y

)

 

y

1 2

donde :

V

(

(

Cov y

1

,

y

2

)

E

y

1

)

y

1

y 1

E

(

V

(

1

y

y

2

)

y 2

1

con

2

y

2

)



y

2

(

Cov y

2

2

1

,

E(y )

1

1

y

2

)

2

yV(y )

1

1

y

(2.6)

La Covarianza Cov(y1, y2 ) es una medida de la asociación linear de las dos variables. En el caso que sean independientes, el valor de ésta es cero.

También se puede demostrar que:

V (y1 - y2 ) V (y1 ) V (y2 ) -2Cov(y1 , y2 )

Si y 1 y y 2 son independientes, entonces:

En general se cumple que:

V(y y ) V(y ) V(y )

1

2

1

2

1

2

2

2

E(y y ) E(y )E(y )

1

2

1

2

1

2

E   y   

1

y

2

E

(

y

1

)

E

(

y

2)

sin importar si y 1 y y 2 son independientes.

(2.7)

(2.8)

(2.9)

(210)

2.3

Muestreo y Distribuciones Muestrales

Muestras Aleatorias, Media Muestral y Varianza Muestral

El objetivo de la Inferencia Estadística es obtener conclusiones acerca de una o varias características de una población mediante el empleo de muestras extraídas de la misma. La mayoría de los métodos que aquí se estudiarán, asumen muestras aleatorias; es decir, si la población contiene N elementos y ha de seleccionarse una muestra de n de ellos, entonces las N!/(N n)!n! posibles muestras tienen la misma probabilidad de ser elegidas.

Un estadígrafo es cualquier función matemática de las observaciones hechas sobre una muestra que no contiene parámetros desconocidos. Conceptualmente, un estadígrafo (número índice) es un parámetro que aporta mucha más información que la misma población. Sean

y1 , y2 , y3 ,

yn

representantes de una muestra, se define la Media Muestral como:

n

y

i

y 

n

y la Varianza Muestral como:

S

2

n

(

i 1

y

i

y

)

2

n 1

(2.11)

(2.12)

Estas cantidades son medidas de la tendencia central y de la dispersión de la muestra

de la tendencia central y de la dispersión de la muestra respectivamente. En ocasiones, la cantidad

respectivamente. En ocasiones, la cantidad S S 2 , llamada Desviación Estándar, es empleada como una medida de la dispersión pues tiene las mismas unidades de la variable de interés, y.

Propiedades de la Media y Varianza Muestrales

La Media Muestral, y , es un estimador puntual de la Media Poblacional ; y la Varianza

2 . En general, un estimador

puntual de un parámetro desconocido, es un estadígrafo que corresponde a dicho parámetro.

Muestral, S2 , es un estimador puntual de la Varianza Poblacional

Tres de las más importantes propiedades de los estimadores puntuales son:

1. Los estimadores puntuales son variables aleatorias.

2.

Los estimadores puntuales son insesgados 2 . Esto significa que el valor esperado del estimador puntual es igual al parámetro que esta siendo estimado. Puede demostrarse que

E(y) y

2

E(S )

2

3. Los estimadores puntuales tienen varianza mínima. Esta propiedad establece que la Varianza de un estimador puntual insesgado de un parámetro, es menor a la Varianza de cualquier otro estimador de dicho parámetro.

Grados de Libertad

A la cantidad n-1 de la Eq. (2.12) se le llama grados de libertad de la suma de los cuadrados

(SC). Donde SC (yi y)2 . Este resultado general permite afirmar que si y es una variable

aleatoria con Varianza

2

,

SC



(y

i

y)

2 y υ grados de libertad, entonces se cumple que:

E

SC  

2

(2.13)

El número de grados de libertad de una suma de cuadrados, es igual al número de elementos independientes en dicha suma. El uso de (n-1) en lugar de n en el denominador confunde a muchas personas. El número de grados de libertad de una suma de cuadrados, es igual al número de elementos independientes en dicha suma. En aquellas raras ocasiones cuando se conoce la media poblacional, , la formula de S 2 tendrá n en el denominador. En Estadística, la suma de los residuos (a diferencia de la suma de los errores, que no es conocida) es necesariamente 0 ya que existen variables con valores superiores e inferiores a la media.

n

i 1

(

y

i

y

n

)

n

i

1

y

i

n y

n

0

Ahora imaginemos que se tienen 3 valores de y que se pueden modificar arbitrariamente, pero con la condición de que la suma de los residuos sea 0. Se puede asignar cualquier cantidad a dos de los tres valores de y, porque el otro va a estar dado por la fórmula, es decir que tienes dos grados de libertad.

Esto también significa que los residuos están restringidos a encontrarse en un espacio de dimensión n-1 (en este ejemplo, en el caso general a n-r) ya que, si se conoce el valor de n-1 de estos residuos, la determinación del valor del residuo restante es inmediata. Así, se dice que "el error tiene n-1 grados de libertad" (el error tiene n-r grados de libertal para el caso general).

2 En estadística se llama sesgo de un estimador a la diferencia entre su esperanza matemática y el valor del parámetro que estima. Un estimador cuyo sesgo es nulo se llama insesgado o centrado.

En aquellas raras ocasiones cuando se conoce la media poblacional, , la formula de S 2 tendrá n en el denominador.

Distribución Normal y Otras Distribuciones Muestrales

A

menudo es posible determinar la distribución de probabilidad de un estadígrafo en particular

si

se conoce la distribución de probabilidad de la población de la cual se extrajo la muestra. La

distribución de probabilidad de un estadígrafo se conoce como distribución muestral.

Una de las distribuciones más útiles 3 , es la Distribución Normal. Si y es una variable aleatoria normal, entonces la distribución de probabilidades de y es:

f

(

y

)

1

 2 
2

e

(1/ 2)[(

y

) /]

2

 

y

(2.14)

Donde es la media de la Distribución y Distribución Normal se presenta en la Fig. 2.2

2 la Varianza. La representación gráfica de la

Fig. 2.2 2 la Varianza. La representación gráfica de la Fig 2.2 Distribución Normal 3 Caracteres

Fig 2.2 Distribución Normal

3 Caracteres morfológicos de personas, animales o plantas de una especie: tallas, pesos, envergaduras, diámetros, perímetros. Caracteres fisiológicos: efecto de una misma dosis de un fármaco, o de una misma cantidad de abono. Caracteres sociológicos: consumo de cierto producto por un mismo grupo de individuos, puntuaciones de examen. Caracteres psicológicos: cociente intelectual, grado de adaptación a un medio Errores cometidos al medir ciertas magnitudes. Valores estadísticos maestrales, por ejemplo: la media. Otras distribuciones como la binomial o la de Poisson son aproximaciones normales. En general cualquier característica que se obtenga como suma de muchos factores.

Frecuentemente se emplea la notación y ~ N(,

con media y varianza

2

.

2 ) para indicar que y se distribuye "normal"

Un caso importante de la Distribución Normal es la Distribución Normal Estándar donde =0

2

y

1 . Si y ~ N(, 2 ), entonces la variable

z

y

(2.15)

sigue la Distribución Normal Estándar, esto es: z ~ N(0,1). Muchas técnicas de análisis estadístico asumen que la variable aleatoria en estudio se distribuye "normal". Si se toman muestras aleatorias de tamaño n de poblaciones que obedecen la distribución normal, la

distribución de la media muestral, y , será también normal con la misma media y desviación

estándar /

n .
n .

Si la distribución de la población no fuese normal; la distribución de la media muestral, y , será aproximadamente normal si se analizan muestras razonablemente grandes (n > 30). Este resultado se conoce como el Teorema del Límite Central.

Teorema del Límite Central

y1 , y2 , y3 ,

Si

distribución, con

yn

es una secuencia de n variables aleatorias independientes de idéntica

E(y )

i

, V(y )

i

2 y x  y  y 1 x   n z n 
2 y
x  y
 y
1
x
 
n
z n 
n
2

2

y

n

, entonces la variable:

(2.16)

tiene aproximadamente una distribución N(0,1). En algunos casos, esta aproximación es adecuada para pequeños valores de n (n<10). En otros, se requiere valores altos de n (n>100). En experimentación, la utilidad de la suma de variables normales radica en el hecho que el error experimental es la suma de errores de fuentes independientes; por tanto, la Distribución Normal se constituye en un modelo plausible para el estudio de error experimental combinado.

El teorema central del límite es uno de los resultados fundamentales de la estadística. Este teorema nos dice que si una muestra es lo bastante grande (generalmente cuando el tamaño muestral (n) supera los 30, sea cual sea la distribución de la media muestral, seguirá aproximadamente una distribución normal. Es decir, dada cualquier variable aleatoria, si extraemos muestras de tamaño n (n>30) y calculamos los promedios muestrales, dichos promedios seguirán una distribución normal. Un caso concreto del teorema central del límite es la distribución binomial. A partir de n=30, la distribución binomial se comporta estadísticamente como una normal, por lo que podemos aplicar los tests estadísticos apropiados para esta distribución.

Ejemplo:

Se sabe que los diámetros de ejes fabricados por un cierto proceso se distribuyen “normal” con media = 2.5 cm y desviación estándar = 0.009 cm. Indagar la distribución de la media muestral de los diámetros de una muestra de nueve ejes escogidos al azar. Calcular la fracción de dicha medias muestrales que se espera que exceda los 2.505 cm.

La distribución de la media muestral, y , será normal con media 2.5 cm y desviación estandar

/

normal con media 2.5 cm y desviación estandar  / n  0.009/ 9  0.003

n 0.009/

media 2.5 cm y desviación estandar  / n  0.009/ 9  0.003 cm .

9 0.003cm .

Para calcular la probabilidad que y 2.505 ó P(y 2.505) es necesario emplear la variable normal estándar. Es decir:

P

(

y

2.505)

P

  y 2.500

2.505

2.500    P

0.003

0.003

y 2.500

0.003  

1.66

0.048

Distribución

2

Una importante distribución de probabilidades definida en términos de variables aleatorias normales, es la Distribución 2 (chi-cuadrado o ji-cuadrado de Pearson). Si

son variables aleatorias normales e independientes con media 0 y varianza

1, entonces la variable

z1,z2 ,z3,

zi

zn

2

k

z

2

1

z

2

2

2

zi

2

zk

(2.17)

sigue la Distribución Chi-cuadrado con k grados de libertad. La función de densidad Chi- cuadrado es:

f (

2

)

1

2

k / 2

  k

2

2

(

k

/ 2)

1

e

2

/ 2

2

0

(2.18)

La Fig. 2.3 muestra curvas de densidad para 6, 12, 18, 24 y 30 grados de libertad.

Fig. 2.3 Distribuciones Chi Cuadrado Para k = 2 la distribución es una distribución exponencial.

Fig. 2.3 Distribuciones Chi Cuadrado

Para k = 2 la distribución es una distribución exponencial. Cuando k es suficientemente grande se aproxima por la distribución normal:

Una

aplicación inmediata e importante de esta distribución es la siguiente: supóngase que

es una muestra aleatoria de una población N(, 2 ). Entonces se cumple

La

Distribución

yi

Chi-cuadrado

yn

es

asimétrica

con

media

k

y varianza

2

2k

.

y1, y2 , y3,

que:

n

i 1

y

i

y

2

sc

2

2

2

n

1

(2.19)

La Eq. 2.19 es muy importante pues ocurre repetidamente en experimentación.

La Eq. 2.12 puede escribirse como:

2

S

SC

n 1

(2.20)

Si las observaciones de la muestra son variables aleatorias independientes que se distribuyen N(, 2 ), entoces la distribución de la Varianza Muestral S 2 es una constante multiplicada por la distribución Chi-cuadrado, si la población se distribuye normalmente.

S

2

 

2

n

1

2

n 1

(2.21)

Si las variables aleatorias

z

y

2 son independientes, entonces la variable:

k

z t  k  2 / k k
z
t
k
2
/ k
k

(2.22)

sigue la Distribución t de Student 4 con k grados de libertad. La función de densidad de t es:

f

t

( )

[(

k

1)/ 2]

1

k   ( k
k
 (
k

/ 2) [(

t

2

/

k

)

1]

(k

1) / 2

-

< t <

Siendo la media

distribuciones t para 1, 10 y grados de libertad.

0

y la varianza

2

k k

/(

 

(2.23)

2) para

k

2.

La

figura

2.4

muestra

↑k
↑k

Fig. 2.4 Distribución t de Student

Una consecuencia de la Eq. 2.22 es que si y1, y2

población que se distribuye

yi ,

(

N 

,

2

)

, entonces la cantidad

y

S / n
S
/
n

yn

se distribuye t con n-1 grados de libertad.

es una muestra aleatoria de una

(2.24)

4 En probabilidad y estadística, la distribución-t o distribución t de Student es una distribución de probabilidad que surge del problema de estimar la media de una población normalmente distribuida cuando el tamaño de la muestra es pequeño

La ultima distribución a considerar en este capítulo es la Distribución F. Si

variables aleatorias independientes chi-cuadrado, con u y v grados de libertad respectivamente, entonces el radio

son dos

u 2

y

v 2

F

2

u

/

u

2

v

/

v

(2.25)

sigue la distribución F con (u,v)grados de libertad. Una aplicación inmediata de la Eq. 2.25 es la

siguiente: Si y11, y12 , y1,n1

2 son muestras aleatorias independientes de n1 y

n2 elementos, de varianza común

y

y

21,

y

22

,

y

2, n

2

, de dos poblaciones normales, entonces el radio:

S

2

1

S

2

2

(2.26)

Sigue la distribución F con n-1, n-2 grados de libertad.

2.4

Análisis de Medias y Diseño Aleatorio

En esta sección se estudiará la forma en la cual datos de experimentos comparativos pueden ser analizados empleando procedimientos de " test de hipótesis " e intervalos de confianza. A lo largo de toda la sección se asumirá el empleo de un diseño experimental totalmente aleatorio.

2.4.1

Test de Hipótesis (Docimasia)

Una hipótesis estadística es una afirmación acerca de los parámetros de una distribución de probabilidad. Por ejemplo, en el caso de cemento portland (Sección 2.1), se puede afirmar que las resistencias medias a la tracción de los dos cementos son iguales. Tal afirmación o hipótesis puede enunciarse de la siguiente manera:

H

o

:

H :

1

1

1

2

2

(2.27)

donde 1 y 2 son las resistencias medias de los dos cementos, Ho es la hipótesis nula, y H1 es la hipótesis alternativa.

Para probar la hipótesis, el procedimiento consiste en tomar muestras aleatorias, calcular estadígrafos apropiados, y rechazar o aceptar la hipótesis nula Ho . En este procedimiento se cometen dos tipos de error:

(error tipo I)

(error tipo II)

P

P

(

rechazar

H

o

(no rechazar

/

H

H

o

o

/

es verdadera)

H

is falsa )

o

(2.28)

El procedimiento general consiste en especificar un valor de probabilidad de ocurrencia del error del tipo I o nivel de significación de tal manera que la probabilidad de ocurrencia del error del tipo II sea lo suficientemente pequeño. Ahora bien, si se trabaja con muestras normales

independientes, entonces la distribución de y1 y2 es N[1 2 ,2 (1/ n1 1/ n2 )]. Por tanto, si se conoce 2 , entonces la variable:

Z o

y  y 1 2 1 1   n n 1 2
y
 y
1
2
1
1
 
n
n
1
2

(2.29)

se distribuye N(0,1); sin embargo, si la varianza muestral no se conoce, ésta debe ser reemplazada por un estimador Sp . Por consiguiente y según la Eq. 2.24 la variable:

t

o

y  y 1 2 1 1 S  p n n 1 2
y
y
1
2
1
1
S
p n
n
1
2

(2.30)

se distribuye t con n1 n2 2 grados de libertad. El estimador Sp , se calcula mediante:

S p

(

 

1)

S

2

(

 

1)

S

2

n

1

n

2

2

 

n

1

n

2

2

 

(2.31)

Para ilustrar el procedimiento, considere los datos de la Tabla 2.1. A partir de dichos datos se obtiene lo siguiente:

Nuevo Cemento

y

S

S

1

2

1

1

n

1

16 76

.

0 100

.

0 316

.

10

kg / cm

2

Substituyendo en la Eq. 2.31 se tiene:

S

2

p

9(0.100)

9(0.061)

10

10

2

Cemento Portland

0.081

y

2

S

2

1

S

1

n

1

S

p

17 92

.

0 061

.

0 247

.

10

kg / cm

0.284

2

Substituyendo este valor en la Eq. 2.30 se obtiene:

t o

16 76

.

17 92

.

en la Eq. 2.30 se obtiene: t o  16 76 .  17 92 .

0 248

.

1

/

10

1

/

10

 .

9 13

Ahora, supóngase que se desea un error del primer tipo del orden de 0.05 (5%) y por tanto un intervalo de confianza de la media poblacional, , de 0.95 (95%). En términos gráficos, lo dicho arriba se puede representar como se muestra en la Figura 2.5

arriba se puede representar como se muestra en la Figura 2.5 Mediante tablas, se ve que

Mediante tablas, se ve que t/2 con n1 n2 2 18 grados de libertad es igual 2.101. Dado que

se puede concluir que la hipótesis nula, Ho , no es verdadera y por tanto debe En otras palabras, las resistencias medias a la tracción de ambos cementos son

ser rechazada.

diferentes.

t

o

9 13t

.

,

0 025 18

.

2.4.2 Elección del Tamaño de la Muestra

Uno de los aspectos mas importantes en el Diseño Experimental es la selección del tamaño apropiado de la muestra. El tamaño de la muestra y la probabilidad de ocurrencia del error del tipo II están relacionados. Supóngase que está examinando la siguiente hipótesis:

H o

H

1

:

:

1

1

2

2

y que las medias no son iguales; es decir, 1 2 . Dado que Ho 1 2 no es verdad, el investigador estará interesado en erróneamente fallar en rechazar la hipótesis nula dado que esta es falsa, es decir, en valorar el error . La probabilidad de depende de . Un gráfico de P()

, para un tamaño total de muestras, n (n1 n2 ), y un valor de =

versus d

2

/ 2

1

0.05, se muestra en la Fig. 2.5. Las curvas mostradas en dicho gráfico reciben el nombre de "curvas características operacionales".

El parámetro d implica conocer las medias y varianza poblacionales que son generalmente desconocidas. Sin embargo, es el investigador el que puede definir diferencias criticas. Por otro lado, puede ser evaluado a partir de la precisión del instrumento. Por ejemplo, en el caso del cemento Portland, se desea determinar, con alto grado de probabilidad, diferencias significativas hasta de 0.5 Kg/cm 2 . Así mismo, se sabe que la precisión del instrumento es de 0.25 Kg/cm 2 . Con estos valores, se tiene que d = 1. Asumiendo un valor muy bajo de ocurrencia del error II se ve que n =30 y por tanto n1 n2 15. Las curvas características operacionales deben ser obtenidas antes de empezar la serie de experimentos.

Fig. 2.6
Fig. 2.6

2.4.3 Intervalos de Confianza

A menudo, es necesario conocer el o los intervalos dentro de los cuales se espera encontrar el o los valores de los parámetros estudiados. A estos intervalos se les conoce como intervalos de confianza. En muchos procesos, el investigador sabe de antemano que las medias poblacionales difieren y por tanto probar que 1 2 es de poco interés. En su lugar, es de mayor utilidad conocer el intervalo de confianza de 1 2

Definición:

Supóngase que es el parámetro en estudio. Para obtener el intervalo de confianza de se requiere encontrar dos estadígrafos L y U tal que se cumpla;

El intervalo:

Jaime Ortega PhD

P(L U) 1

L U

(2.26)

(2.27)

21

es el intervalo de confianza de .

Ejemplo: se desea encontrar un intervalo de la diferencia de medias del problema del cemento Portland. En virtud de la Eq. 2.19, el estadígrafo:

 y  y        1 2 1 2
y
y
1
2
1
2
1
1
S
p
n
n
1
2

se distribuye t con n1 n2 2 grados de libertad (tn

1n 2 2

) . Por lo tanto, el intervalo será:

P

t

/ 2,

n

1

n

2

2

   y  y         1
y
y
1
2
1
2
 t
/ 2,
n
n
2
1
2
1
1
S
p
n
n
1
2

 

1

Lo que re-ordenando da:

P

 

y

1

y

2

t

/ 2,

n

1

n

2

2

S

p

1 1  n n 1 2
1
1
n
n
1
2

1

2

y

1

y

2

t

/ 2,

n

1

n

2

2

S

p

1 1     n n 1 2 
1
1
n
n
1
2

(2.28)

1

Para un nivel de significación del 95 %, substituyendo los valores de la página 18 se tiene:

1.431 2 0.89

En otras palabras, el intervalo del 95 % confianza de la diferencia de medias es:

Nótese que la diferencia hipótesis de 1 2 !.

Jaime Ortega PhD

1

2

1

2

0

116

.

Kg / cm2

0 27

.

Kg / cm2

no esta incluida en el intervalo y por tanto no apoya la

22

2.4.4

El Caso de

2

1

2

2

Si se esta examinando la hipótesis de la Eq. 2.21 y no se puede asumir que las varianzas poblacionales sean iguales, entonces la variable de la Eq. 2.24 se convierte en:

t o

y  y 1 2 2 2 S 1 S 2  n 1 n
y
 y
1
2
2
2
S 1
S 2
n 1
n
2

(2.29)

la misma que no se distribuye t. Sin embargo, uno puede aproximarse a la distribución t utilizando el estadígrafo:

2.4.5

El Caso de1 y 2 Conocidos

v

S

n

2

1

1

S

n

2

2

2

2

S

2

1

/

n

1

2

n 1

1

S

2

2

/

n

2

2

n 1

2

En este caso se empleara el estadígrafo

z o

y  y 1 2 2  2  1  2 n 1 n
y
 y
1
2
2
2 
1
2
n
1 n
2

(2.30)

(2.31)

El mismo que se distribuye N(0,1) siempre que las poblaciones sean normales o las muestras lo suficientemente grandes tal que se cumpla el teorema del Limite Central.

2.5

Inferencias Acerca de Diferencias en las Medias. Diseño de Pares de Comparación

En algunos experimentos comparativos es posible incrementar la precisión haciendo comparaciones mediante "pares correspondientes" de material experimental. Por ejemplo, la dureza de un metal se mide mediante de la hendidura que deja la punta del durómetro en la muestra al aplicarse una determinada carga. Supóngase que se tienen disponibles dos puntas "idénticas" para una misma maquina. Sin embargo, se sospecha que dichas puntas dan lecturas diferentes. Para probar o rechazar tal afirmación, un experimento puede diseñarse de la siguiente manera: se seleccionan al azar 20 piezas de metal y la mitad de éstas se prueban con la punta 1y la otra mitad con la punta 2. Dado que este es un experimento totalmente aleatorio, se puede utilizar las técnicas descritas en la Sección 2.4. Sin embargo, por una serie de factores

Jaime Ortega PhD

23

desconocidos (barras diferentes, gradientes de temperatura en las barras, etc) podría existir falta de homogeneidad en el material lo que contribuiría a incrementar el error experimental y por tanto a conclusiones erróneas acerca de las mencionadas puntas.

Para evitar la posibilidad arriba señalada, considere un diseño experimental alternativo: (a) tómese muestras lo suficientemente grandes tal que se hagan dos mediciones en la misma: una con la punta 1 y otra con la punta 2 y (b) divídase al azar cada muestra en dos porciones de iguales dimensiones. Después de llevar a cabo el experimento, se construye la siguiente tabla:

Muestra

Punta 1 (en m)

Punta 2 (en m)

1

7

6

2

3

3

3

3

5

4

4

3

5

8

8

6

3

2

7

2

4

8

9

9

9

5

4

10

4

5

Es posible

siguiente manera:

proponer un modelo estadístico que describe los datos del experimento de la

y ij

i

j

ij

i 1,2

j 1,2,

10

(2.32)

Donde

y

ij

i

j

ij

es la lectura de la punta

i

en la muestra

j

es la dureza media verdadera dada por la punta

i

es un efecto en la dureza debido a la muestra j

es el error experimental con media cero y varianza

2

i

Si se calculan las j-ésimas diferencias apareadas se tiene

d j y1j y2 j

j 1,2,

10

Siendo el valor esperado de las diferencias

(2.33)

d E(d j ) E(y1j y2 j ) E(y1j ) E(y2 j ) 1 2

Jaime Ortega PhD

24

Por tanto, es posible hacer inferencias acerca de la diferencia de las medias, 1 2 , mediante inferencias acerca de la media de las diferencias, d . En otras palabras, examinar Ho: 1 2

es equivalente a proponer

El estadígrafo para esta hipótesis será:

H :  d  0 o H :   0 1 d d
H
:
 d
 0
o
H :
 0
1
d
d
t
o
S
/
n
d

que se distribuye t con n-1 grados de libertad.

(2.34)

donde

1 d  n
1
d 
n

n

d

j 1

j

y S

2

d

 

 

n

j 1

2

(

d

j

d

)

n 1

Substituyendo los valores numéricos se tiene to 0.26.

Como

de dureza.

En tablas se ve que t0.25, 9 2.262.

0.25, 9 no hay evidencia que indique que ambas puntas producen diferentes valores

t

o

t

Jaime Ortega PhD

25