Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estadistica Por Marco Alfaro PDF
Estadistica Por Marco Alfaro PDF
por
Junio, 2000
0. INTRODUCCIN A LA ESTADSTICA.
1
I. ESTADSTICA DESCRIPTIVA.
I.1. DEFINICIONES.
Una Variable estadstica es Discreta, si el conjunto de valores posibles se puede poner en la forma
R = { a1, a2, ... , ak }
2
ri
fi =
n
se tiene entonces la relacin :
k
fi = 1
i =1
Ejemplo: Sea la muestra
M = { 0, 3, 1, 1, 2, 1, 2, 2 } , n=8
a1 = 0 , a2 = 1 , a3 = 2 , a4 = 3 , k = 4
r1 = 1 , r2 = 3 , r3 = 3 , r4 = 1
f1 = 1/8 , f2 = 3/8 , f3 = 3/8 , f4 = 1/8
X a1 a2 ........... ak
ri r1 r2 ........... rk
fi f1 f2 ........... fk
f2
f1
fk
a1 a2 ak
Una variable estadstica es continua si toma sus valores en un conjunto continuo, es decir, un
intervalo del eje real.
Para reducir una muestra M = { x1, x2, ... , xn } de una variable continua, se definen clases, que
son intervalos disjuntos que cubren el dominio de definicin de la variable,
Ejemplo : Leyes de Cu de un conjunto de testigos, eligiendo clases iguales de magnitud 0.1
Se define, anlogamente :
ri = numero de datos de la muestra que caen en la clase ci
fi = frecuencia relativa de la clase ci ( ci = ri / n)
ci = magnitud de la clase ci
3
Histograma
fi
f2
Fig.1
f1
fk
ri = n
i =1
, f
i =1
i =1
Para caracterizar una variable estadstica se utiliza tambin el diagrama acumulado F(x) que
representa la frecuencia relativa acumulada en el histograma hasta el punto x.
La figura 2 nos muestra como se construye el diagrama acumulado a partir del histograma.
0.30
0.20 0.20
0.10 0.10
0.05 0.05
0 1 2 3 4 5 6 7 x
F(x)
1.0
0.85
0.8
0.65
0.6
Fig.2
0.4
0.35
0.2
0.15
0.05
0 1 2 3 4 5 6 7 x
4
En trminos intuitivos F(x) representa el porcentaje de valores de la muestra que la muestra que
son inferiores a x.
Adems del histograma y del diagrama acumulado, existen varios parmetros que caracterizan el
comportamiento de una muestra.
ii) La Mediana : Supongamos que la muestra M = { x1, x2, ..., xn } ha sido ordenada
de menor a mayor obtenindose la muestra ordenada M = { y1, y2, ..., yn } con y1 y2 ...... yn ,
se define la mediana por :
Si n es impar : M = y n +1
2
y n + y n+2
Si n es par : M= 2 2
2
Ejemplo :
Se dispone de la muestra, con datos de leyes de Cu siguientes :
M = { 0.95 , 1.02 , 0.90 , 4.03 , 1.10 } M = {0.90 , 0.95 , 1.02 , 1.10 , 4.03} = {y1, y2, y3, y4,
y5} luego la mediana es M = y3 = 1.02.
La mediana tiene la propiedad siguiente : el 50 % de los datos es menor que M y el 50% de los
datos es mayor que M, es decir M divide la muestra en dos partes iguales. La mediana esta menos
afectada por valores extremadamente altos ( o extremadamente pequeos ) que la media, en el
ejemplo anterior la media es : x = 1.60 valor muy afectado por el dato 4.03
La mediana se puede determinar grficamente utilizando el diagrama acumulado F(x). Segn lo
anterior la mediana es el valor xM para el cual se cumple la relacin F(xM) = 0.5
5
F(x)
1.0
0.8
0.6
0.50 Fig.3
0.4
0.2
XM X
b) Parmetros de dispersin :
Adems de poder encontrar la media de una muestra, resulta importante medir la variacin de los
datos con respecto a este valor central.
La variacin de los datos con respecto a la media esta caracterizada por las diferencias :
(x1 x), (x 2 x),....., (x n x). Para encontrar un indicador de la variacin, se pueden promediar
estas diferencias :
x1 x + x 2 x + .... + x n x
= , pero
n
x + x + .... + x n
= 1 2 x = 0
n
Luego la desviacin promedio es siempre nula. Esto proviene del hecho que las desviaciones
positivas se cancelan con las desviaciones negativas. Para definir una medida de la variacin se
2 =
( x1 x )2 +( x2 x )2 + + ( xn x )2
n
n
1
o bien : 2 =
n i =1
(x i x) 2
= 2
6
La desviacin tpica est expresada en las mismas unidades de la variable estadstica, tambin
constituye una medida de dispersin.
F(x)
1.0
0.8
Fig.4
0 x0.8 x
Percentil de orden 0.8
El percentil x divide la muestra de datos en dos partes : el % de los valores es menor que x y
el ( 1 - )% de los valores es mayor que x. Existen tres percentiles importantes llamados
cuartiles :
R = x0.75 x0.25
7
Histograma con poca dispersin Histograma con mayor dispersin
x x
F(x) F(x)
1 1
0.75 0.75
0.25
0.25
0 x 0 x
R R
Recorrido pequeo Recorrido mayor
Fig.5
Otras medidas que se utilizan para caracterizar el comportamiento de una muestra son el
Coeficiente de Simetra y el Coeficiente de Kurtosis.
d) El Coeficiente de Simetra .
El coeficiente de simetra , sirve para caracterizar comportamientos tales como :
<0 >0 =0
Fig.6
8
Se puede demostrar que :
< 0 asimetra negativa.
> 0 asimetra positiva.
= 0 asimetra nula (simetra).
m = media de la muestra = x .
Fig.7
Al comparar un cierto histograma con la funcin f(x), se pueden presentar los casos siguientes :
El Coeficiente de Kurtosis se define se por:
4 1 n
E=
4
3 en que 4 = (x i x)4
n i =1
Se puede demostrar que :
- E > 0 Histograma mas puntiagudo que la ley de Gauss.
9
II. VARIABLES ESTADISTICAS BIDIMENSIONALES.
A menudo se realizan experimentos cuyos resultados dan lugar a un par de nmeros o a una serie
de nmeros.
Ejemplo :
( X , Y ) , en que X = ley de Cu , Y = ley de S.
O bien :
( X , Y , Z ) , en que X = ley de Pb , Y = ley de Zn , y Z = ley de Au
La agrupacin de la muestra se hace mediante una tabla del tipo tabla de contingencia :
Fig.8
10
Fig.9
La figura 9 muestra la nube de correlacin ley de U3O8 radiactividad para 74 muestras, del
yacimiento Saelices (Espaa).
La figura 10 resume los casos que se podran encontrar al estudiar dos variables estadsticas X e
Y:
Fig.10
II.1 LA COVARIANZA.
Supongamos que nuestra muestra. M = { (x1 , y1), (x2 , y2), ..., (xn , yn) } la escribimos en
columnas, agregando una columna de productos xi*yi :
11
X Y X*Y
x1 y1 x1*y1
x2 y2 x2*y2
xn yn xn*yn
Promedio X Promedio Y Promedio X*Y
X Y X*Y
1 1 1
2 2 4
2 3 6
3 4 12
x=2 y = 2 .5 x y = 5.75
n i =1
12
iii) Si la correlacin es negativa : -1 < 0
iv) Si la correlacin es nula : =0
v) Si = 1, entonces y = x + , con > 0
vi) Si = -1, entonces y = - x + , con > 0
Correlacin significativa
0
- 1.0 - 0.5 0.5 1.0
Correlacin debil
Fig.11
En general m(x) es una funcin de x. Si esta funcin es una recta se dice que la regresin es lineal
(ver fig.12a ). Cuando no existe correlacin entre x e y, la curva de regresin es una constante.
(ver fig. 12b )
(a) (b)
Fig.12
13
III. CALCULO DE PROBABILIDADES.
En los prrafos anteriores hemos estudiado las situaciones aleatorias desde un punto de vista
descriptivo. Se hace necesario introducir un modelo matemtico. La exposicin axiomtica
moderna es el nico mtodo riguroso para construir la teora del clculo de probabilidades.
Antes de enunciar los axiomas de las probabilidades necesitamos introducir el concepto de
sucesos o eventos aleatorios :
Sucesos :
Sea un experimento aleatorio. Se llama espacio muestral al conjunto de todos los resultados
posibles. Se designa por la letra .
Ejemplos :
(i) al tirar un dado = { 1, 2, 3, 4, 5, 6 }
(ii) al tirar una moneda ={ cara, sello }
Sea un experimento aleatorio y sea A un suceso, entonces al hacer un experimento solo caben
dos alternativas :
Ocurre el suceso A.
No ocurre el suceso A.
De acuerdo a lo anterior se definen otros tipos de sucesos :
a) Suceso Seguro : Es aquel que siempre ocurre. Es fcil ver que suceso seguro y espacio
muestral son lo mismo. Lo designaremos con la letra .
b) Suceso Imposible : Es aquel que nunca ocurre. Lo representaremos por la letra . Por
ejemplo al tirar un dado = sacar el nmero 7
A= A ; = ; =
14
f) Suceso Unin : Sean A y B sucesos, se define la unin de A y B como el suceso D que
ocurre cuando A B ambos a la vez. Se escribe D = A B.
Ejemplo: Si A = { 1, 2 } , B = { 2, 4, 6 } entonces A B = { 1, 2, 4, 6 }.
Se tiene la relacione lgica : A A =
Los conceptos anteriores pueden visualizarse mediante los diagramas de Venn de la teora de
conjuntos :
A A
A A
A
B B B
A A AB AB AB=
Fig.13
Se llama probabilidad de un suceso A a un numero real P(A) que satisface los axiomas siguientes:
Axioma 1 : P(A) 0
Axioma 2 : P() = 1
Observacin : El sistema de axiomas anteriores es incompleto; no nos dice como se calcula una
probabilidad, de modo que se puede adoptar la definicin de probabilidad al fenmeno que se
quiere estudiar.
k
i) P ( A) = = N de casos favorables a A / N de casos totales
n
nA
ii) P ( A) = lim
n n
En que nA es el numero de veces que ocurre A en una serie de n repeticiones del experimento.
15
iii) En los casos de probabilidades geomtricas, se calcula P(A) como una razn de
longitudes, de reas o de volmenes.
Ejemplo: Si se tira en S un s
punto al azar ( es decir sin
apuntar ), la probabilidad S
de que impacte en s es : P(A) = s / S
Las tres maneras de calcular una probabilidad que hemos visto satisface los axiomas.
- Propiedad 1 : P( ) = 0
- Propiedad 2 : P ( A ) = 1 P( A )
- Propiedad 3 : P( A B ) = P( A ) + P( B ) P( A B ) ; (AB)
Sea B un suceso del cual sabemos que ha ocurrido. La probabilidad condicional de un suceso A
dado que ha ocurrido B, escrita P( A B ), se define por :
P( A B )
P( A B ) = (1)
P( B ) B
A
P( A B)
P ( B A) = (2)
P ( A)
P ( A B ) = P ( A) P ( B A) = P ( B ) P ( A B) (3)
A = La primera carta es un as
B = La segunda carta es un as
P( A B ) = P( A )*P( B A ) = (4 / 52)*(3 / 51) = 0,0045
La formula (3) se puede generalizar para ms sucesos, por ejemplo, con tres sucesos A, B, C :
16
Y para n sucesos A1, A2,....., An :
P( A B ) = P( A ) (6)
Solucin :
= { ABC, ACB, BAC, BCA, CAB, CBA }
S = { ABC, ACB, CAB }
T = { ACB, CAB, CBA }
S T = { ACB, CAB }
Luego : P( S ) = 3/6 = 1/2 = P( T )
P(S T ) = 2/6 = 1/3
P( S T ) = P(S T ) / P( T ) = (1/3) / (1/2) = 2 / 3
17
IV. VARIABLES ALEATORIAS
Ejemplos:
a) X = resultado de tirar un dado
b) Y = estatura de un individuo elegido al azar
c) Z = resultado de tirar una moneda. Z no es una variable aleatoria porque su resultado (C
S) no es un numero.
Se puede observar que una variable aleatoria es la transposicin terica de una variable
estadstica.
Rango de una Variable Aleatoria : Se llama rango R de una variable aleatoria X al conjunto de
todos los valores que puede tomar X.
Ejemplo:
a) X = resultado de tirar un dado R = { 1, 2, 3, 4, 5, 6 }
b) X = terminacin de la lotera R = { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 }
c) X = duracin de una ampolleta R = { t : t 0 }
R = {x:a x b} x
a b
( a y b pueden ser eventualmente - y + ).
a) p ( xi ) 0
b) p(x 1 ) + p(x 2 ) + .... + p(x i ) + .... = 1 p(x ) = 1
i
i
Ejemplo :Se tiran 3 monedas diferentes al aire. Sea X = numero de caras . Encontrar R y
p(xi).
18
Solucin : Los casos posibles del experimento son :
Luego R = { 0, 1, 2, 3 }
p( 0 ) = P( X = 0 ) = 1 / 8
p( 1 ) = P (X = 1 ) = 3 / 8
p( 2 ) = P (X = 2 ) = 3 / 8
p( 3 ) = P (X = 3 ) = 1 / 8
a) f(x) 0
1
b) f(x)dx = 1
x
b
P( a X b )
c) f(x)dx = P(a X b)
a
a b x
Ejemplo : Sea X el ngulo que forma un lpiz con una recta fija. X es una variable aleatoria
continua con funcin de densidad f(x) como muestra la figura :
X
L
19
calculamos P( /4 X /2 ) : f(x)
1/2
/2
P( X ) =
1 1
4 2
/4
2
dx =
8
0 2
x
F( x ) = P( X x )
dF(x)
f(x) =
dx
Propiedades de F( x ) : F( x ) satisface las propiedades siguientes :
a) F( - ) = P( X - ) = P( ) = 0
b) F( + ) = P( X + ) = P( ) = 1
c) F( x ) es una funcin que no decrece, es decir : si a b, entonces F( a ) F( b )
F(x)
1
Fig.14
x
0
20
Ejemplo : Sea X = resultado de tirar un dado. Fig.15
E(X) = 3.5 1 2 3 4 5 6 x
E(X)
La significacin de este resultado es la siguiente : si se repite un numero n grande de veces el
experimento de tirar un dado y se registran las observaciones de X en una muestra, se obtendr,
por ejemplo : M = { 6, 3, 5, 5, ....., 2 }, y en condiciones ideales debera tenerse :
x = 6 + 3 + 5 + 5 + ......+ 2 = 3.5
n
Definicin :
x
x1 x2 xi
b) Sea X una variable aleatoria continua, con funcin de densidad f(x), se define la
esperanza matemtica de X como :
f(x) Fig.17
E(X) = x f(x)dx
x
x f(x)dx
xG =
= E(X)
Centro de Gravedad
f(x)dx
f(x)
es igual a 1
G
Fig.18
E(x) = xG
Ejemplo : sea f( x ) como en la figura 19,
21
Entonces :
b
1 1
b Fig.19
E(X) = x
b a a
dx = xd x
a
ba
f(x)
b
1 x 2
b a 2
b+a 2
E(X) = = = 1/(b-a)
b a 2 a 2(b a) 2
a b
E(x)
b b
1 1
E(X 2 ) = x 2
b a a
dx = x 2dx
a
ba
b
1 x3 3 3 (b a) ( b2 + ab + a 2) ( b2 + ab + a 2)
E( X 2) = = b a = =
b a 3 a 3 (b a) 3 (b a) 3
Las siguientes son las propiedades de la esperanza matemtica, las cuales se pueden probar apartir
de la definicin :
Propiedad 1 : E( C ) = C
Propiedad 2 : E( X + C ) = E( X ) + C
Propiedad 3 : E( X * C ) = C * E( X )
E( X + ) = E(X ) + ( y = cte. )
La Esperanza matemtica constituye una medida de tendencia central de una distribucin terica
de probabilidades. Por analoga de lo que vimos en Estadstica Descriptiva, definiremos una
medida de dispersin terica : La Varianza.
22
V(X) = E(X m ) 2 (1)
Donde m = E( X ). Se puede demostrar, al desarrollar (X m) 2 = X 2 2mX + m 2 que :
V(X) = E(X 2 ) m 2 (2)
f1(x)
X
f2(x)
a a b
b
V( X' ) = (b' a')2 / 12
V( X ) = (b a)2 / 12
V( X ) < V( X' )
La varianza es una medida de la dispersin de los valores que toma la variable aleatoria, con
respecto a la esperanza matemtica.
Observacin :
a) El numero positivo V(X) se expresa en unidades cuadradas de X. Por esta razn se define
la desviacin tpica de X como :
x = V(X)
b) Se utilizan otros smbolos para designar la varianza, tales como x2, D2(X), Var(X), 2,...
Propiedades de la Varianza.
Las siguientes son las propiedades de la varianza, las cuales se pueden probar apartir de la
definicin :
23
Propiedad 1 : V( C ) = 0 ,en que C es una constante ( en otras palabras,
una constante no tiene dispersin )
Densidad de X Densidad de Y = X + 2
0 x
E(X) 1 2 E(X+2) 3
Fig.21
1
0.25
0 1 0 4
V( X ) = 1/12 V( Y ) = 16*V( X ) = 16/12 = 4/3
Fig.22
V( X + ) = 2 V(X) ( y = ctes. )
24
IV.4 VARIABLES ALEATORIAS MULTIDIMENSIONALES
Definicin :
a) Sea ( X , Y ) una variable bidimensional discreta ( es decir ambas son discretas ), a cada
resultado posible ( xi , yj ) le asociamos un valor :
p( xi , yj ) = P( X = xi , Y = yj )
p(x , y ) = 1
i j
i j p( xi , yj )
yj
y
xi
x
a) Sea ( X , Y ) una variable aleatoria bidimensional continua (es decir ambas son
continuas), entonces existe una funcin f(x , y) llamada densidad de probabilidad
conjunta que satisface las condiciones :
i) f(x, y) 0
ii) f(x, y )dxdy = 1
25
f ( x,y) f ( x,y )
Volumen
D
y
x y x
Volumen bajo la
funcin f(x,y) es igual a
1.
f (x, y)dxdy
D
representa la
x1 x2 x3 x4
X
3/8 0 1 2 3
Y
y2 3 1/8 0 0 1/8
0
1 1 1/8
2 3
3 y
1/8
x
Fig.25
Ejemplo 2 : Dos personas deciden juntarse entre las 0 hrs y 1 hrs. Cada una decide no esperar ms
de 10 minutos a la otra. Si estas personas llegan al azar entre las 0 h y 1 h cual es la probabilidad
de que se encuentren ?
26
Solucin : Sea X = instante en que llega la 1 persona
Y = instante en que llega la 2 persona
Variacin de X : 0 x 60
Variacin de Y : 0 y 60
f (x , y) = 1 / 360
Fig.26
La altura h vale 1/3600
porque el volumen bajo h
f ( x , y ) es 1. 60
y
60
x
Conjunto de resultados posibles
x y 10 y y x 10
y = x + 10
60
f(x,y)
y = x - 10
D
60
1/3600 y
D
10
60
0 10 60
x volumen
Fig.27
27
IV.1. LEYES MARGINALES DE PROBABILIDAD
tomando probabilidades :
p( x i ) = p(x i , y j )
j
q( y j) = P(Y = y j) = p(x i , y j )
i
se llama funcin de probabilidad marginal de Y.
g(y ) = f(x, y )dx densidad marginal de Y.
28
x x1 x2 x3 x4 q(yj)
y 0 1 2 3
y1 3 3 6
1 0 8 8 0 8
y2 1 1 2
3 8 0 0 8 8
p(xi) 1 3 3 1
8 8 8 8
Se tiene : P( X = 1 , Y = 1 ) = 3/8
P( X = 1 ) = 1/8 , P( Y = 1 ) = 6/8 = 3/4
E(X Y ) =
x f(x)dx y g(y)dy = E(X) E(Y)
Definiremos a continuacin una nueva cantidad que nos dar, en cierto sentido, una medida de la
dependencia entre dos variables aleatorias X e Y.
29
C xy = E(XY) E(X) E(Y)
( a veces se utilizan otras notaciones para la covarianza, tales como : cov(x,y), xy, xy, kxy )
Propiedades de la Covarianza.
c) Se puede demostrar que si ( en promedio ) X crece, Y tambin crece, entonces Cxy > 0 y
que si ( en promedio ) al crecer X, Y decrece, entonces Cxy < 0.
Fig.28
Deseamos encontrar una expresin para la varianza de la suma de variables aleatorias : Z = X+Y:
V(Z) = V(X + Y) = E(X + Y) 2 [E(X + Y)]
2
V( X + Y ) = V( X ) + V( Y ) (2)
La propiedad (2) se puede generalizar para n variables X1, X2, ......., Xn independientes entre
ellas:
30
El coeficiente de correlacin entre dos variables aleatorias X e Y.
Se puede observar que xy esta ntimamente relacionado con la covarianza, sin embargo xy es un
numero sin dimensin.
Propiedades de xy :
xy = 0
-1 xy 1
y y
x x
xy = 1 xy = -1
Fig.29
31
Fig.30
32
V. MODELOS PROBABILISTICOS.
La variable aleatoria de Bernulli es una de las mas simples. Por definicin X es una variable de
Bernulli ( X sigue la ley de Bernulli ) si X toma solamente dos valores a y b, con probabilidades
p
1-p
Fig.31
a x
b
respectivamente 1 p y p ( 0 p 1 ) :
1/2 1/2
Fig.32
x
0 1
El experimento se detiene cuando ocurre por primera vez el suceso A. Sea X = numero de
repeticiones necesarias .
33
Las probabilidades asociadas son :
P( X = 1 ) = P( A ) = p
P( X = 2 ) = P( BA ) = P( B ) * P( A ) = (1 p)*p ( por la independencia )
P( X = 3 ) = P( BBA ) = P( B ) * P( B ) * P( A ) = (1 p)2*p.
P(X = k) = (1 p) k 1 p Fig.33
p(1 p)
2
p(1 p)
0 3 4 x
1 2
1 p
V(X) = 2
p
Ejemplo : se tira una moneda hasta que aparezca por primera vez cara. Entonces X = numero
de lanzamientos necesarios sigue una ley geomtrica con parmetros p = . En particular
E( X ) = 2.
1/2
1/4
1/8
1/16
1/32
x
1 2 3 4 5
Fig.34
34
El espacio muestral asociado al experimento es :
n n n n
i) n = 1 = { B, A }
X=0 X=1
P( X = 0 ) = 1 p
Los trminos corresponden al desarrollo de [ (1 p) + p ]1
P( X = 1) = p
P( X = 0 ) = P( BB ) = P(B)*P(B) = (1 - p)2
Los trminos corresponden al
P( X = 1 ) = P( AB, BA ) = P(AB)*P(BA) = 2p*(1 - p)
desarrollo de [(1 p) + p]2
P( X = 2 ) = P( AA ) = p2
P( X = 0) = (1 p)3
P( X = 1) = 3p(1 p)2 Los trminos corresponden al
P( X = 2) = 3p2(1 p) desarrollo de [(1 p) + p]3
P( X = 3) = p3
iii) Para un valor de n ms general, se tiene la formula siguiente, deducida del teorema del
binomio :
n nk
P k = P(X = k) = p (1 p)
k k = 0, 1, ...., n
k
en particular : P0 = P( X = 0 ) = (1 p)n
Pn = P( X = n ) = pn
Se puede probar que si X sigue una ley binomial con parmetros n y p, entonces :
35
E(X) = n p
V(X) = n p (1 p)
Ejemplo : Sea una familia de n = 4 hijos, entonces X = numero de hijos varones es una
variable binomial de parmetros n = 4 , p = 0.5. Adems : P( X = 4) = (0.5)4 = 1 / 16
n
n
En la formula P k = P(X = k) = p k (1 p) n k , el valor de se calcula por :
k
k
n = n!
k k!(n k)!
Ejemplo : Se sabe que la probabilidad de que un camin este averiado a la entrada de un turno es
p = 0.1. Si la empresa dispone de 30 camiones cual es la probabilidad de que haya exactamente
5 camiones averiados ?
Es frecuente encontrar en la practica situaciones en que se aplica la Ley Binomial con p muy
pequeo y n muy grande. Por ejemplo, se ha determinado que la probabilidad de que aparezca
una pieza defectuosa es p = 0.01 y se renen las piezas en cajas de 200 piezas, la probabilidad de
que en la caja existan r piezas defectuosas es :
Este valor se puede calcular de manera exacta o bien se puede calcular de manera aproximada
utilizando el siguiente teorema :
n k e
lim p k (1 p) n k =
np=
n k k!
36
El limite anterior significa que n tiende a infinito manteniendo constante e igual a el producto
n*p ( esto implica que p debe ser pequeo ). Se tiene entonces :
k e
Pk = P(X = k ) = k = 0, 1, 2,.....
k!
P2
P1
P0
Fig.35
x
0 1 2 3
Lo anterior significa que la Ley de Poisson aproxima bien a la binomial cuando n es grande y p
pequeo; se considera que la aproximacin es buena si p < 0.1 y si n*p < 5.
Se puede demostrar que la esperanza matemtica y la varianza de la Ley de Poisson estn dadas
por :
E( X ) =
V( X ) =
Sea un lote de N piezas, de las cuales D = p*N son defectuosas (luego N D = N p*N =N(1- p)
son aceptables) Se sacan al azar, una a una y sin devolver al lote, n piezas :
37
p*N defectuosas
Muestreo
? (nN)
N p*N sin reemplazamiento
no defectuosas
Fig.36
n piezas
N piezas
Sea X = numero de piezas defectuosas en la muestra de n piezas .
Los valores que toma X son los que define la desigualdad :
D N D
a) P(X = k) = k n k
N
n
b) E(X) = n p
n p(1 p) (N n)
c) V(X) =
N 1
Ejemplo : en un estanque hay 20 peces de los cuales 8 son coloreados. Se pescan 10 peces,
calcular la probabilidad de que existan 5 peces coloreados.
8 20 8
8 12
P(X = 5) = 5 10 5 = 5 5 = 0.24
20 20
10
10
Sea X una variable aleatoria continua. Se dice que X sigue una ley uniforme si su densidad f(x)
esta dada por :
38
1
si x [a , b]
ba
f(x) =
0 si x [a , b]
f(x) Fig.37
1
ba
x
a b
E(x)
Ejemplo : Sea X el ngulo que forma un lpiz arrojado al azar con una recta fija ( ver pagina 19 )
entonces X sigue una ley uniforme en el intervalo [0 , 2].
12
Se dice que X sigue una ley exponencial con parmetros si su densidad esta dada por :
e x si x > 0
f(x) =
0 si x 0
f(x)
Fig.38
0 x
39
B.3. La variable aleatoria Gamma.
( p) = e x x p 1dx
0
la cual presenta la propiedad, siendo p un entero > 0 :
( p ) = ( p 1 )!
Se dice que una variable aleatoria X sigue una ley Gamma con parmetros a y p si su densidad es
:
a p e ax y p 1
si x > 0
( p )
f(x) =
0 si x 0
( p > 0 , a > 0 ).
Fig.39
0 x
p
E(X) =
a
p
V(X) = 2
a
( p) ( q )
1
B(p, q) = = x p1 (1 x) q 1 dx
(p + q ) 0
Se dice que una variable aleatoria X sigue una ley Beta con parmetros p y q si su densidad es :
40
x p1 (1 x) q 1
si 0 < x < 1
B(p, q)
f(x) =
0 si x 0 x 1
(p>0 , q>0)
p
V(X) =
(p + q) (p + q + 1)
2
41
= 0.5
Fig.40
= 1.0
x
m
Conviene recordar las siguientes reas bajo la curva de la ley de Gauss ( Fig.41 ) :
68 % 95 %
m- m+ m - 2 m + 2
99.7 %
m -3 m + 3
Fig.41
P( m- X m+ ) = 0,68
P( m-2 X m+2 ) = 0,95
P( m-3 X m+3 ) = 0,997
Las variables aleatorias normales aparecen con gran frecuencia en Estadstica. Por ejemplo los
errores de mediciones siguen como regla una variable aleatoria normal.
Un mtodo mecnico para generar una variable aleatoria gaussiana consiste en la maquina de
Galton, compuesta por un conjunto de bolillas que son desviadas en su trayectoria por una serie
de clavos, depositndose en los recipientes inferiores ( Fig.42 )
42
Fig.42
Definicin : Se dice que una variable aleatoria X sigue una Ley Lognormal si su logaritmo
(neperiano, en base e) sigue una ley normal. A partir de esta definicin se puede demostrar que la
funcin de densidad tiene por expresin :
1 lnx m 2
1
f(x ) = e 2
si x > 0
x 2
f(x ) = 0 si x 0
43
f(x)
Fig.43
x
0
La ley lognormal se presenta con frecuencia en el estudio de histogramas asociados con leyes de
muestras provenientes de yacimientos mineros.
2
2 = V ( X ) = M 2 e 1
44
VI. LA LEY DE LOS GRANDES NUMEROS Y EL TEOREMA DEL LIMITE
CENTRAL
La ley de Los grandes nmeros y el teorema del limite central constituyen uno de los resultados
ms importantes del calculo de probabilidades.
n=1
n=1
n=2
n=2
n=3
n=3
0 1 2 3 x
Ejemplo : Supongamos que se tiene una sucesin X1, X2,......, Xn de variables aleatorias
independientes tales que cada Xi sigue la ley de probabilidad siguiente :
45
0 1
Es fcil de ver que la variable aleatoria Z = X1 + X2 +.....+ Xn toma los valores 0, 1, 2,....., n con
probabilidades :
n 1 n
p k = P( X = k ) = k = 0, 1, 2,..., n
2
k
El grfico de pk para n = 10 es :
Fig.45
200
10
2
100
10
2
0 1 2 3 4 5 6 7 8 9 10
Como puede observarse el Teorema del Limite Central explica porqu en tantas aplicaciones
aparecen distribuciones normales, ya que expresa que la suma de variables aleatorias, en
condiciones muy generales, tienden hacia la ley de Gauss. El ejemplo ms clsico e importante es
el de Los errores de medida, en que, al suponerse que el error total resulta de la suma de un gran
numero de errores, explica que la ley de Gauss aparezca naturalmente para la representacin de
tales errores.
El Teorema del Limite Central explica tambin porqu en la mquina de Galton las bolillas se
depositan segn una ley de Gauss.
46
VII. LA INFERENCIA ESTADSTICA.
Teora de Muestras
Para utilizar Los modelos probabilstico que hemos presentado en Los captulos anteriores es
necesario entrar en el mundo emprico y hacer algunas mediciones. Por ejemplo, en muchos casos
es apropiado hacer hiptesis acerca de una variable aleatoria X, lo que conduce a un tipo
determinado de distribucin : normal, lognormal, gamma,...Sabemos que cada una de estas leyes
de probabilidad depende de uno o ms parmetros desconocidos, luego debemos obtener algunos
valores experimentales de X y despus utilizar estos valores de alguna manera apropiada para
estimar estos parmetros.
Definicin : Sea X una variable aleatoria con una ley de probabilidad. Sean X1, X2,......, Xn , n
variables aleatorias independientes en que cada una de ellas tiene la misma ley de probabilidad
que X. Llamaremos a ( X1, X2,......, Xn ) una muestra aleatoria de tamao n de la variable aleatoria
X.
TEORIA PRACTICA
Antes de realizar Despus de realizar
las mediciones las mediciones
47
En general, Los valores numricos tomados por la muestra ( X1, X2,......, Xn ) se denotarn por
(x1, x2,......, xn).
Estadsticos : una vez definidos Los valores x1, x2,......, xn de la muestra, los utilizaremos de
alguna manera para hacer alguna inferencia acerca de la variable aleatoria X. En la prctica se
trata de resumir este conjunto de valores por caractersticas ms simples ( por ejemplo su
promedio aritmtico, valor ms grande, valor ms pequeo, etc...).
Se llama estadstico a una funcin H( X1, X2,......, Xn ) de la muestra aleatoria X1, X2,......, Xn
En general conviene estudiar Z y no z dado que este ltimo es un nmero, mientras que Z es una
variable aleatoria que puede tomar muchos valores y tiene en particular una esperanza matemtica
E(Z) y una varianza V(Z).
Experimento
mediciones
X 1 + X 2 + ... + X n x + x 2 + ... + x n
a) X= x= 1
n n
n n
b) S2 = 1
n
i =1
(X i X )2 s2 = 1
n ( x x)
i =1
i
2
TEORIA : PRACTICA :
VARIABLES ALEATORIAS NUMEROS
48
X se llama promedio muestral, S2 varianza muestral, K valor ms pequeo observado o mnimo,
M valor ms grande o mximo.
49
VIII. ESTUDIO DE ALGUNOS ESTADISTICOS.
a) El estadstico X
Las propiedades ms importantes de X son las siguientes, en este caso de una muestra aleatoria
(X1, X2,...., Xn) tal que E(X1) = E(X2) =....= E(Xn) = m , V(X1) = V(X2) =....= V(Xn) = 2 :
i) E( X ) = m
2
ii) V (X ) =
n
X m
iv) Para n grande, la variable Z = sigue una ley de Gauss de esperanza 0 y varianza
n
1.
b) El estadstico S2n
n 1 2
i) E (S 2 n ) =
n
n
ii)
1
S 2n =
n (X
i =1
2
i m) ( X m)
2
50
n
S2 n 1 =
n
n 1
S 2n =
1
n 1
(X
i =1
i X)
2
51
IX. LA ESTIMACION PUNTUAL.
Por ejemplo, supongamos que queremos estimar la esperanza matemtica m de una variable X. Se
pueden definir muchos estimadores del valor de m desconocido :
n
i)
1
m =
n X
i =1
i
1
ii) m = ( X1 + X n )
2
1
iii) m = (M + K ) ( M y K son el valor mximo y el mnimo de la muestra )
2
iv) m = X 1 + X 2 + ..... + X n
Observaciones :
a) Es evidente que al proponer m como estimador del valor verdadero m, no esperamos que
m sea exactamente igual a m. Recordemos que m es una variable aleatoria y por lo tanto
puede tomar muchos valores, luego m tendr una cierta distribucin de probabilidades y
en particular una esperanza y una varianza.
c) Veamos los valores numricos que toman estos cuatro estimadores en una muestra de
tamao 12 obtenida al tirar un dado no cargado :
30
i).- m o = = 2,5
12
1
ii).- m o = (1 + 2) = 1,5
2
52
1
iii).- m o = (6 + 1) = 3,5
2
iv).- m o = 30
En este ejemplo particular, debido a que el valor terico es m = 3,5, el mejor estimador de la
esperanza resulta ser (M + K)/2, pero este resultado podra deberse al azar; sin embargo el lector
puede repetir muchas veces el experimento ( tirar 12 veces un dado ) y comprobar que en
promedio, el estimador que ms se acerca al valor verdadero es mo = (M + K )/2.
En adelante trataremos de precisar los conceptos que hemos discutido y resolver estas
interrogantes.
Definicin: Sea X una variable aleatoria con una distribucin de probabilidades la cual depende
de un parmetro desconocido . Sea (X1, X2,..., Xn) una muestra aleatoria de X y sean (x1, x2,...,
xn) los valores muestrales correspondientes. Llamaremos estimador de a una funcin de la
muestra :
= H(X1, X2,..., Xn)
y llamaremos estimacin de al valor numrico de esta funcin para los valores x1, x2,..., xn , es
decir :
o = H(x1, x2,..., xn)
Segn esta definicin, vemos que un estimador es un estadstico, luego es una variable aleatoria.
E( ) =
m = X1 + X2 +....+ Xn
53
Ley de probabilidad de un Ley de probabilidad de
estimador insesgado. un estimador sesgado.
1 2
E( 1 ) = E( 2 ) =
Fig.46
Tenemos entonces un primer criterio para los estimadores : restringirse a estimadores insesgados.
V( * ) V( )
es decir, entre todos los estimadores insesgados, * es aquel que tiene varianza mnima.
*
E( * ) = E( ) = V( * ) < V( )
valores de *
valores que toma
Fig.47
Observacin : Sabemos que la varianza de una variable aleatoria mide su variabilidad respecto a
su valor esperado. Por lo tanto es intuitivamente atractivo exigir que un estimador insesgado
tenga varianza pequea porque de esta manera la variable aleatoria tiende a aproximarse a su
valor esperado . Luego si * y son dos estimadores insesgados con funciones de densidad
como la figura 47, preferimos * a porque V( * ) < V( ).
54
V( 1 ) < V( 2 )
Fig.48
La decisin no seria tan evidente en el caso de la figura 48 en que 2 es insesgado mientras que
1 no lo es. En este caso se preferira 1 porque a pesar de ser sesgado, sus valores seran ms
prximos a que los valores que proporciona 2 .
Estimadores Convergentes
P( = ) 1
LimV () = 0
n
Ejemplo :
n
a)
1
La media muestral m 1 =
n X
i =1
i es un estimador convergente de la esperanza
2
matemtica m, porque V(m 1 ) = , valor que tiende hacia 0 cuando n .
n
( X1 + X n )
b) b) El estimador m 2 = no es un estimador convergente de m, porque
2
2
V(m 2 ) = , valor que no tiende hacia 0 cuando n .
2
55
IX.2 METODOS PARA CONSTRUIR ESTIMADORES
Hasta ahora solo hemos considerado criterios con los cuales podemos juzgar un estimador; es
decir dado un estimador podemos verificar si es insesgado, convergente, calcular su varianza y
comparar con otros estimadores. Sin embargo no disponemos de un mtodo que proporcione
estimadores. Existen varios procedimientos para obtener estimadores, uno de ellos es el mtodo
de los momentos que consiste en estimar el parmetro desconocido por el momento muestral
asociado.
Ejemplo:
i) Esperanza matemtica :
n
m = E(X)
1
m =
n X
i =1
i
ii) Varianza :
n
= V(X)
2 1
2 =
n (X
i =1
i X)
2
Se puede demostrar que el mtodo de los momentos proporciona estimadores convergentes que
no siempre son insesgado y que no siempre son ptimos.
Uno de los mtodos ms utilizados en Estadstica es el mtodo de la mxima verosimilitud el cual
proporciona, bajo condiciones generales, estimadores ptimos.
Ejemplo :
En una urna hay 4 fichas que pueden ser blancas o negras pero se desconoce la proporcin : no se
conoce el parmetro p = ( nmero de fichas blancas )/4. Supongamos que hacemos dos
extracciones con devolucin y que obtenemos la primera blanca y la segunda negra. Con estos
datos estimar el valor de p.
Sea A el suceso que ocurri : A = La primera es blanca y la segunda es negra . La probabilidad
de A vara con p. El cuadro siguiente resume las diferentes alternativas :
p = 0 p = p = p = p = 1
Proporcin p 0 B 1 B 2 B 3 B 4 B
4 N 3 N 2 N 1 N 0 N
Probabilidad *= 2/4 * 2/4 = *=
del suceso que 0 3/16 4/16 3/16 0
ocurri : P(A)
56
1
Estimaremos el valor de p por p o = porque este valor maximiza la probabilidad del suceso que
2
ocurri, esto equivale a admitir que lo que ocurri era lo ms probable. En el caso general
supongamos una muestra aleatoria ( X1, X2,..., Xn ) la cual una vez realizado el experimento toma
el valor ( x1, x2,..., xn ). La probabilidad del suceso que ocurri es ( suponiendo que la variable es
discreta ) :
= P( X1 = x1, X2 = x2,...., Xn = xn )
= p(x1) * p(x2) *....*p(xn)
en que p(xi) = P( Xi = xi ).
en trminos matemticos, se toma como estimacin de la solucin de la ecuacin = 0 , sin
embargo resulta ms simple ( lo cual es equivalente ) de resolver la ecuacin :
Ln( )=0
x e
Ejemplo 1 : En la ley de Poisson : p ( x) = estimar el parmetro :
x!
x1 e x 2 e n e e n xi
x
= ..... =
x1! x2 ! xn ! x1! x 2 !.... x n !
Ln = n + ( xi )Ln Ln( x1!x 2 !.... x n !)
n
Ln( ) = n + xi
=0
i =1
1
o =
n x i = X
xi
= e x1 e x 2 .... e x n = n e
Ln n
Ln = n Ln xi = xi = 0
57
n 1
o = =
n X
xi
i =1
Propiedad 2 : Los estimadores de mxima verosimilitud en el caso de ser insesgado son los
mejores estimadores posibles del parmetro .
Los ejemplos que se dan a continuacin corresponden a los modelos de variables aleatorias
estudiados anteriormente ( ver pginas 38 51 )
sin embargo estos estimadores son sesgados. Conviene utilizar los estimadores insesgados
siguientes :
n n +1
a `= a , b`= b
n +1 n
58
f.- Ley exponencial con parmetro :
= 1 x
2
sin embargo es sesgado; si n es pequeo conviene utilizar :
n
12 =
1
n 1
(x x)
i =1
i
2 , que es insesgado.
n
y un estimador insesgado para es .
2 2
1 =
1
n 1
i =1
(ln X i m ) 2
59
X. ESTIMACIN POR INTERVALOS DE CONFIANZA.
Hasta ahora nos hemos ocupado de la estimacin puntual de un parmetro desconocido , es decir
la obtencin de un valor o que estime de manera razonable el valor desconocido a partir de un
conjunto de valores ( x1, x2,....,xn ). Somos conscientes de que en realidad o es una
aproximacin y aparece la pregunta siguiente : en qu medida el valor aproximado puede
desviarse del valor verdadero ?.
En particular nos preguntamos si es posible encontrar una magnitud d tal que se pueda afirmar
con certeza ( es decir con una probabilidad cercana a la unidad ) que se verifica la desigualdad
:
d
o - d o + d d
o - d o o + d
Fig.49
Ejemplo :Supongamos que nos preguntan la edad E de una persona. Primero hacemos una
estimacin puntual, por ejemplo E o = 32 aos y luego hacemos afirmaciones del tipo :
Cada afirmacin tiene una medida de la seguridad de que E est comprendido en el intervalo.
Al escribir 27 E 37 ( E = 32 5 ) con seguridad 1- diremos que E o = 32 es el valor
estimado de E y que d = 5 es el error asociado al nivel de seguridad 1-. Para que nuestra
afirmacin sea buena, 1- debe ser grande ( prximo a 1 ), sin embargo, a medida que 1- crece,
la magnitud del error ( d ) crece.
Sea X1, X2,...., Xn una muestra aleatoria de una variable X que sigue una ley normal de esperanza
m desconocida y varianza 2 conocida.
60
Se puede probar que la variable aleatoria :
0.95 Ley de Z
Xm
Z=
Fig.50
n
Xm
P ( 2 2) = 0.95
n
2 2
P(X mX+ ) = 0.95
n n
La ultima relacin nos dice que la probabilidad de que el intervalo X 2 n , X + 2 n
contenga el valor desconocido m es 0.95. A tal probabilidad la llamaremos probabilidad de
confianza del intervalo.
X n , X + n Intervalo del 68 % de confianza
X 1.64 n , X + 1.64 n Intervalo del 90 % de confianza
X 3 n , X + 3 n Intervalo del 99.7 % de confianza
Ejemplo : Se tiene una muestra aleatoria ( X1, X2, X3, X4 ) proveniente de una ley de Gauss con
m=0 ( que se supone desconocido ) y 2=1 ( que se supone conocido ). Los valores numricos
resultantes fueron : ( 0.9, -0.6, -0.4, 0.9 ). Encontrar el intervalo del 68 % de confianza y el del 95
% de confianza.
0.2 1 4 , 0.2 + 1 4 = 0.3 , 0.7
X n , X + n
= Intervalo del 68 % de confianza.
* Observacin : En forma ms exacta, esta ecuacin se escribe :P( -1.96 Z 1.96 ) = 0.95
61
0.2 2 4 , 0.2 + 2 4 = 0.8 , 1.2
X 2 n , X + 2 n
= Intervalo del 95 % de confianza.
Representemos en un grfico los intervalos obtenidos en las cuatro repeticiones del experimento :
Valor desconocido
-2 -1 0 1 2
68 %
I1
95 %
I2
I3
I4
Fig.51
B. La Ley de Student.
Sean X0, X1,...., Xn , n +1 variables aleatorias gaussianas e independientes tales que E(Xi) = 0 ,
V(Xi) = 2 . Se dice que la variable aleatoria :
62
Xo
T=
1 n
Xi
2
n i =1
sigue una Ley de Student con parmetros n ( o con n grados de libertad ). Se demuestra que la
densidad de T es :
n +1
n +1
2 t2 2
f(t ) = 1 + , - < t <
n n
n
2
Gauss
Fig.52
Student
0 t
P( - t T t ) = 1-
n la pgina siguiente se tiene un extracto de una tabla de la ley de Student para 1- = 0.95.
63
Tabla de la Ley de Student
0.95
P( -t T t ) = 0.95
-t 0 t
1- = 0.95
n t
1 12.706
2 4.303
3 3.182
4 2.776
5 2.571
6 2.447
7 2.365
8 2.306
9 2.262
10 2.228
11 2.201
12 2.179
13 2.160
14 2.145
15 2.131
16 2.120
17 2.110
18 2.101
19 2.093
20 2.086
21 2.080
22 2.074
23 2.069
24 2.064
25 2.060
26 2.056
27 2.052
28 2.048
29 2.045
30 2.042
40 2.021
60 2.000
120 1.980
n > 120 1.960
64
C. Intervalo de confianza para la esperanza matemtica de una ley de Gauss en que es
desconocido.
Xm Xm
T= =
n
(X
i =1
i X)2 n
n (n 1)
(X i X) 2
( en que es el estimador : = i =1
, ver pgina 59 )
n 1
sigue una ley de Student con n -1 grados de libertad.
En las tablas de la ley de Student con n -1 grados de libertad encontramos el valor t tal que ( ver
pgina 64 ) :
P( - t T t ) = 0.95
Xm
P( - t t ) = 0.95
n
P X - t m X + t = 0.95
n n
X t n , X + t n es el intervalo del 95 % de confianza para m.
(280 269) 2 + (240 269) 2 + (270 269) 2 + (285 269) 2 + (270 269) 2
= = 17.64
4
65
2.776 17.64 2.776 17.64
El intervalo es 269 , 269 +
5 5
21.9 21.9
es decir [ 247.1 , 290.9 ]
247.1 269 290.9
A veces se escribe lo anterior como : m = 269 21.9
( con 95 % de confianza ), con un error relativo : = 100*21.9/269 = 8.1 %
Ejemplo 2 : Dos examinadores A y B efectuaron una correccin doble sobre 30 pruebas. Las
notas figuran en la tabla siguiente :
A B A B A B
13 14 15 17 17 16
15 16 16 17 15 15
12 13 15 15 16 18
16 16 17 18 18 20
18 17 16 16 14 15
15 15 13 14 16 15
14 15 15 16 15 15
18 17 11 12 17 19
17 16 14 14 14 16
20 17 15 18 15 16
1.25 1.25
0.53 2.045 , 0.53 + 2.045 = 1.00 , 0.06
30 30
0.47 0.47
Ejemplo 3 : La tabla siguiente muestra los resultados de anlisis de oro ( en gr/ton ) para 10
muestras enviadas a dos laboratorios qumicos diferentes :
66
Laboratorio 6.5 5.6 6.6 6.1 5.8 6.0 6.1 6.3 6.1 6.6
CIMM
Laboratorio 5.4 5.8 5.4 5.8 5.7 5.4 5.7 6.0 5.3 6.0
Bondar
Diferencia 1.1 -0.2 1.2 0.3 0.1 0.6 0.4 0.3 0.8 0.6
Z
0.434 0.434
0.52 2.262 , 0.52 + 2.262 = 0.21 , 0.83
10 10
0.31 0.31
Debido a que el valor 0 no pertenece al intervalo, podemos concluir que el laboratorio CIMM
proporciona leyes significativamente ms altas que las que proporciona el laboratorio Bondar.
Para encontrar el intervalo de confianza para la varianza 2 de una ley de Gauss, es necesario
introducir otra ley de probabilidad.
D. La ley de Chi-cuadrado.
Sea X1, X2,....,Xn una sucesin de variables aleatorias independientes tales que cada Xi sigue una
ley de Gauss con esperanza E(Xi) = 0 y varianza V(Xi) = 1. Se dice que una variable aleatoria :
Z = X12 + X22 +.....+ Xn2 sigue una ley de chi-cuadrado con parmetro n ( o con n grados de
libertad ).
Los mtodos de calculo de probabilidad permiten demostrar que Z tiene la densidad siguiente :
n
1
z 2 e z 2
si z > 0
n
2 n 2
2
(1) f(z) =
0 si z 0
67
n=1
z
0
Fig.53
Las reas bajo la curva f(z) se encuentran tabuladas. A veces se utiliza la notacin 2n para indicar
la ley de chi-cuadrado con parmetro n.
(X i X) 2 (X i X)
2
P = 0.95
b a
68
Ley de 2n
Valores de a y b para el intervalo
de confianza para 2
0.025 0 95 0.025
0 a b
n a b
2 0.0506 7.3778
3 0.216 9.348
4 0.484 11.143
5 0.831 12.832
6 1.237 14.449
7 1.690 16.013
8 2.180 17.535
9 2.700 19.023
10 3.247 20.483
11 3.816 21.920
12 4.404 23.337
13 5.009 24.736
14 5.629 26.119
15 6.262 27.488
16 6.908 28.845
Ejemplo :Los valores siguientes provienen de una ley de Gauss. Encontrar el intervalo del 95 %
de confianza para 2 :
M = ( 0.25, -0.74, 0.05, 1.13, 1.06, -0.86, -0.22, -1.12, 0.72, 0.95 )
10
6.327
x = 0.122 , (x
i =1
i x ) 2 = 6.327 , n = 10 , =
9
= 0.703
Hasta ahora todos los intervalo de confianza que hemos estudiado corresponden a parmetros de
una ley de Gauss. En el caso de una variable no gaussiana, la solucin es aproximada tal como
veremos a continuacin.
69
E. Intervalo de confianza para la esperanza matemtica de una variable aleatoria no
necesariamente gaussiana.
P X - 2 m X + 2 0.95 (1)
n n
La diferencia con los casos anteriores es que los intervalos de confianza eran exactos mientras
que en (1) se tiene una igualdad aproximada.
P( 2 V() + 2 V () ) 0.95
70
x(1 - x) x(1 - x)
P x - 2 p x + 2 0.95
n n
0.469 0.533
O sea que la probabilidad p = probabilidad de que una persona prefiera Pepsi bien podra ser
inferior a 0.5 !
71
XI. TEST DE HIPTESIS ESTADSTICAS.
a) Una fbrica de ampolletas elctricas debe decidir cul de dos mtodos A B da una
vida mayor a las lmparas.
b) Las estadsticas de la Polla chilena desde 1934 a la fecha dan los resultados siguientes
para las terminaciones ( n = 820 sorteos ) :
97
Fig.55 87 83 84 88
78 80 80
71 72 0 sali 71 veces
1 sali 87 veces
9 sali 88 veces
0 1 2 3 4 5 6 7 8 9
S1
P(S1) = = nivel de significacin
Justificacin de la regla
Debemos conclur una de las dos alternativas siguientes :
i) O bien la hiptesis H0 es cierta y se ha producido un suceso S1 de probabilidad
muy pequea ( 0.05 ).
ii) O bien la hiptesis es falsa y debemos rechazarla.
Ejemplo : Un fabricante asegura que sus ampolletas tienen una vida media mo = 2400 horas. Se
supone que es conocido y vale = 300 horas y que la duracin de una ampolleta es gaussiana.
Se toma una muestra de n = 200 ampolletas y esta muestra ha dado x = 2320 horas.
Se puede considerar este resultado compatible con la hiptesis que la vida de las lmparas tenga
un valor medio mo = 2400 horas ?
72
ii) Se supone que H0 : m = mo = 2400 es verdadera, luego se cumple la relacin (ver
pgina 61 ) :
P X 2 mo X + 2 = 0.95
n n
la cual es equivalente a :
P m o 2 X mo + 2 = 0.95
n n
Fig.56
Estudiemos el problema desde el punto de vista de los intervalos de confianza : el intervalo del 95
% para el valor m desconocido es :
2 2
X , X + [2320 60,2320 + 60] = [2260,2380]
n n
73
m o 2 n mo + 2 n
(III) Se procede a la extraccin de la muestra ( X1, X2,....., Xn ) anotando el valor de x ,
realizacin de X.
(IV) Conclusin :
a) Si x I se acepta la hiptesis H0
b) Si x I se rechaza la hiptesis H0
Observacin :
i) No se deben invertir los pasos II y III, es decir el intervalo de aceptacin debe ser fijado
antes de hacer el experimento.
ii) A menudo se elige un riesgo = 0.05.
iii) La decisin de un test de hiptesis no es nunca definitiva y puede ser puesta en tela de
juicio luego de otra experiencia.
iv) Al hacer un test de hiptesis se pueden cometer dos tipos de errores, tal como muestra la
tabla siguiente :
74
Ley de X cuando m = mo
/2 /2
1-
mo
I
Ley de X cuando m = m
m
I
Fig.57
(m)
Se llama curva de potencial al grfico (m) versus m. En el caso anterior la curva de potencial
sera :
(m)
1.0 Fig.58
m
mo
Observaciones :
a) La curva de potencia indica, para cada valor de m, la probabilidad para que la receta
anterior conduzca al rechazo de la hiptesis H0 : m = mo cuando el verdadero valor del
parmetro es m.
75
potencia que tiene el test para descubrir la falsedad de la hiptesis H0. Luego la curva de potencia
ideal sera:
1.0 Fig.59
mo m
0.05 0.05
mo mo
m o 1.64 n m o + 1.64 n
Fig.60
El ejemplo anterior nos muestra que existe una ntima relacin entre el intervalo de confianza
para un parmetro y el test de una hiptesis relativa al mismo.
En general, dada una variable aleatoria X cuya ley de probabilidad depende de un parmetro ,
encontramos dos funciones T1 y T2 ( las cuales dependen de X1, X2,....., Xn ; ver pginas 61 70 )
tales que :
P( T1 T2 ) = 1 -
76
La informacin que proporciona un intervalo de confianza tiene una analoga perfecta con la que
da un test, como se ve en el siguiente cuadro :
Existen otros test de hiptesis que no se refieren a parmetros de una ley de probabilidad, que son
los test de bondad del ajuste, los cuales estudiaremos a continuacin
Los test de bondad del ajuste se refieren a la comparacin de una observacin de datos con una
ley de probabilidad terica.
El ejemplo (b) de la pgina 61 referente a 820 terminaciones de la Polla nos proporciona un caso:
supongamos que queremos comparar las frecuencias observadas con las frecuencias tericas
correspondientes al modelo siguiente :
P0 P1 P9 n = 829
P0 = P1 =.....= 0.1
0 1 2 3 4 5 6 7 8 9
Fig.61
77
El test de Chi - cuadrado : 2
Sean x1, x2,...., xn los resultados de n observaciones de una variable aleatoria X. Los datos se han
agrupado de la manera siguiente :
ak ok ck ok
Total n Total n
Ei = n f(x)dx
ci
i = 1, 2,...., k caso continuo
El test de 2 se basa en la comparacin entre los valores observados oi y los valores tericos Ei,
utilizando el resultado siguiente :
Teorema : La variable aleatoria
k
D=
i =1
(Oi Ei) 2
Ei
(1)
Fig.62
0 95
0 DMx d
D vara entre 0 y DMximo con un 1 - = 0.95 de probabilidad. Esto nos induce la siguiente regla
de decisin :
* Este teorema es valido si X sigue la ley inferida, es decir si la hiptesis a comprobar es verdadera; es el
nmero de parmetros desconocidos.
78
Sea Do el valor numrico calculado segn la formula (1), entonces :
El valor de DMximo se calcula segn las tablas de la ley 2 k - - 1. La tabla siguiente proporciona
este valor para 1 - = 0.95.
Ley 2n
Fig.63
0 DMx
1 - = 0.95
n Dmx
1 3.841
2 5.991
3 7.815
4 9.488
5 11.070
6 12.592
7 14.067
8 15.507
9 16.919
10 18.307
Conclusin : como D0 DMx , se acepta la hiptesis que las terminaciones de la Polla son
equiprobables, al nivel de significacin = 0.05.
79
En algunos casos en que el dominio de la variable aleatoria X es infinito, se debe tomar un
intervalo de agrupacin extremo tambin infinito, tal como muestra el ejemplo siguiente.
Ejemplo : Un barrio de Londres sufri durante los bombardeos de la segunda guerra mundial 537
impactos. La zona ha sido dividida en 576 cuadrados de 500m x 500m. Se estudi la variable
aleatoria X = nmero de impactos por cuadrado, obtenindose el cuadro :
N Frec.
Impactos Observada
0 229
1 211
2 93
3 35
4 7
5 7
Total 576
Lo anterior significa que de los n = 576 cuadrados : 229 recibieron 0 impactos, 211 recibieron
exactamente 1 impacto,...., y 1 cuadrado recibi exactamente 5 impactos.
Se pide comprobar si X sigue una ley de Poisson.
Como la ley de Poisson puede tomar, en teora, valores mayores que 5 hemos tomado un intervalo
infinito al final ( de no ser as, la suma 227 + 211 + 98 +.... sera inferior a n = 576 ). Se tiene as
el cuadro :
80
N Frec. Frec.
Impactos Observada Terica
0 229 227
1 211 211
2 93 98
3 35 31
4 7 7
5 ms 1 2
Total 576 576
Conclusin : Se acepta la hiptesis que los datos provienen de una ley de Poisson, al nivel =
0.05 porque D0 DMx .
Se puede demostrar la propiedad siguiente de la ley de Poisson : si los impactos son al azar ( es
decir sin apuntar ), entonces la variable X = nmero de impactos por cuadrado , sigue una ley
de Poisson. Al aceptar nuestra hiptesis concluimos que los bombardeos no apuntaban a zonas
especficas dentro del barrio.
El test de Kolmogorov - Smirnov sirve para comprobar la hiptesis de que una variable aleatoria
X sigue una ley de probabilidad especificada.
El test se basa en la comparacin de las funciones de distribucin terica y emprica ( ver pginas
3 - 4 y 15 - 16 ) :
El test toma como medida de disconformidad de las distribuciones empricas F*(x) al mdulo de
la mayor diferencia observada entre F*(x) y F(x) ( ver figura 64 ), es decir a :
D = Mx F*(x) - F(x)
81
Fig.64
Se demuestra que si los datos observados corresponden a una variable aleatoria con funcin de
distribucin F(x), entonces D sigue una ley de Kolmogorov Kn :
Ley de D
Fig.65
0.95
0 DMx d
82
Valor crtico para el test de
Kolmogorov - Smirnov
1 - = 0.95
Numero de DMx
datos n
5 0.56
10 0.41
15 0.34
20 0.29
25 0.26
30 0.24
40 0.21
n > 40 1.36 n
Se tiene entonces que D0 = 0.013. En la tabla anterior encontramos D Mx = 1.36 820 = 0.0475
Conclusin : como D0 Dmx, aceptamos la hiptesis que los nmeros son equiprobables.
83
A B Total
Contaminad. No Contam.
C 10 117 127 n = 274
No Vacunad.
D 3 144 147
Vacunadas
Total 13 261 274
H0 : A y B son independientes de C y D
versus
H1 : A y B no son independientes de C y D
H0 : P( A C ) = P(A)*P(C) , P( A D ) = P(A)*P(D)
P( B C ) = P(B)*P(C) , P( B D ) = P(B)*P(D)
versus
H1 : Las relaciones anteriores no son verdaderas
El nmero esperado de observaciones en las celdas es : n*P(A C), n*P(A D), n*P(B C),
n*P(B D) y segn la hiptesis ser : n*P(A)*P(C), n*P(A)*P(D), n*P(B)*P(C), n*P(B)*P(D).
Como ninguna de estas probabilidades es conocida, deben ser estimadas a partir de los datos :
*
P(C) = 127/274 , P(D) = 1 P(C) = 147/274
* Observacin : Solo se han estimado dos parmetros desconocidos : P(A) y P(C). Las otras : P(B) y P(D)
fueron calculadas a partir de P(A) y P(C).
84
A B Total A B Total
Cont. No Cont. Cont. No Cont.
C 10 117 127 C 6.03 120.97 127
No Vac. No Vac.
D 3 144 147 D 6.97 140.03 147
Vac. Vac.
Total 13 261 274 Total 13 261 274
(O AC E AC ) 2 (O AD E AD ) 2 (O BC E BC ) 2 (O BD E BD ) 2
D= + + +
E AC E AD E BC E BD
2
Ley 1
Fig.66 1 - = 0.95
0 95
0 DMx = 3.841 d
Se tiene entonces ( ver pgina 79 ) : P( D 3.841 ) = 0.95 ; lo que nos induce la regla de decisin
siguiente :
ii).- Rechazar H0 si :
D0 > DMx = 3.841
Conclusin : Como D0 > DMx se rechaza la hiptesis H0, lo que equivale a aceptar que A y B
dependen de C y D, es decir la vacuna produce resultados significativos.
85
A1 A2 .... Aq Total A1 A2 .... Aq Total
B1 O11 O12 .... O1q n1 B1 E11 E12 .... E1q n1
B2 O21 O22 .... O2q n2 B2 E21 E22 .... E2q n2
Br Or1 Or2 .... Orq n r Br Er1 Er2 .... Erq n r
Total n 1 n q .... n q n Total n 1 n q .... n q n
En este caso k = q x r
= q - 1 + r - 1 = q + r - 2 = nmero de parmetros desconocidos ( los parmetros
desconocidos son : P(A1), P(A2),..., P(Aq-1) y P(B1), P(B2),..., P(Br-1) porque P(Aq) y P(Bq) se
calculan mediante 1 - suma de probabilidades ).
r q
D=
i =1 j =1
(Oij Eij) 2
Eij
sigue una ley 2k- - = 2qr-q-r+1 = 2(q-1)(r-1)
En las tablas de la ley de chi-cuadrado con (q-1)(r-1) grados de libertad ( pgina 80 ) encontramos
el valor DMx. Se tiene la regla de decisin siguiente :
86
XII. ANALISIS DE LA VARIANZA.
El anlisis de la varianza se ocupa de las tcnicas estadsticas para estudiar inferencias respecto de
medias de dos o ms muestras.
H0 : m1 = m2 =....= mr
versus
H1 : no todas las esperanzas son iguales
Notaciones .
Sea xij el dato I de la muestra Mj. Las r muestras aleatorias se pueden ordenar en la tabla
siguiente:
Muestras
M1 M2 ..... Mr
x11 x12 ..... x1r
x21 x22 ..... x2r
N = n1 + n2 +.....+ nr
n1 x 1 + ..... + n r x 2
x=
n1 + ..... + n r
Ejemplo : En una parte de un yacimiento con tres tipos de rocas R1, R2, R3 se han tomado 3, 4, 5
muestras respectivamente.
Fig.67
87
Tipo de Roca
R1 R2 R3
0.56 0.70 0.77
Leyes de Cobre 0.53 0.61 0.73
0.68 0.67 0.63
0.62 0.74
0.68
x = 0.66
N = 12
Para comprobar este tipo de hiptesis se utiliza el resultado siguiente : si las r muestras son
muestras aleatorias de una misma variable X gaussiana, entonces la variable aleatoria :
r nj
(x
j =1 i =1
2
j - x) (r - 1)
D= (1)
r nj
(x
j =1 i =1
2
ij - x j ) (N - r)
sigue una ley F(r-1 , N-r) llamada ley de F de Snedecor con (r-1 , N-r) grados de libertad.
1 - = 0.95
0.95
0 DMx d
Fig.68
88
i).- Aceptar H0 ( m1 = m2 =.....= mr ) si D0 DMx.
Esta regla se justifica porque si la Hiptesis es verdadera, entonces debera tenerse que
x1 x 2 ..... x r x luego el numerador de la expresin (1) sera pequeo. En el caso de
ser falsa la hiptesis, el numerador sera grande.
La tabla siguiente proporciona los valores de DMximo en funcin de n1 y n2 correspondientes a la
ley F(n1 , n2) para 1 - =0.95.
F(n1 , n2)
0.95
0 DMx d
Fig.69
n2 n1 1 2 3 4 5
1 161 200 216 225 230
2 18.51 19.00 19.16 19.25 19.30
3 10.13 9.55 9.28 9.12 9.01
4 7.71 6.94 6.59 6.39 6.26
5 6.61 5.79 5.41 5.19 5.05
6 5.99 5.14 4.76 4.53 4.39
7 5.59 4.74 4.35 4.12 3.97
8 5.32 4.46 4.07 3.84 3.69
9 5.12 4.26 3.86 3.63 3.48
10 4.96 4.10 3.71 3.48 3.33
Calculemos primero DMx. Debemos utilizar la tabla anterior : F(r1 , Nr) = F(2 , 9) = F(n1 , n2)
DMx = 4.26.
Calculemos D0 segn la frmula (1). Encontremos el denominador :
r nj
Denominador =
j =1 i =1
(x ij x j ) 2 (N r)
= [ (0.56 0.59) + (0.53 0.59) + (0.68 0.59) + (0.70 0.65) + (0.61 0.65) +
(0.67 0.65) + (0.62 0.65) + (0.77 0.71) + (0.73 0.71) + (0.63 0.71) +
(0.74 0.71) + (0.68 0.71) ]/9 = 0.00336
89
r nj
Numerador =
j =1 i =1
(x 2
j - x) (r - 1)
= [ (0.59 0.66) + (0.59 0.66) + (0.59 0.66) + (0.65 - 0.66) + (0.65 0.66) +
(0.65 0.66) + (0.65 0.66) + (0.71 0.66) + (0.71 0.66) + (0.71 0.66) +
(0.71 0.66) + (0.71 0.66) ]/2 = 0.01380
D0 = 4.11
Conclusin : Debemos aceptar H0 porque result D0 DMx sin embargo el valor de D0 es muy
prximo a DMx.
r nj
Consideremos ahora la cantidad : (x
j =1 i =1
ij x)2
[( x x j ) + (x j x ) ]
r nj 2
= ij
j =1 i =1
r nj r nj r nj
= (xj =1 i =1
ij x j ) + ( x j x ) + 2 ( xi j x j ) (x j x )
2
j =1 i =1
2
j =1 i =1
r nj
es fcil de ver que : 2 ( xi
j =1 i =1
j x j ) ( x j x) = 0
r nj
El trmino ( x
j =1 i =1
ij x) 2 se llama suma total de cuadrados ( abreviado : SST ). El termino
r nj
( x
j =1 i =1
ij x j ) 2 se llama suma de cuadrados entre grupos ( abreviado : SSW ). El trmino
r nj
(x
j =1 i =1
j x ) 2 se llama suma de cuadrados entre grupos. Luego tenemos que :
SSA (r 1)
D=
SSW (N r)
90
XIII. LA REGRESIN.
A menudo estamos interesados en una posible relacin entre dos o ms variables. Podemos
sospechar que cuando una de las variables cambia, la otra tambin cambia de manera previsible.
Es importante expresar tal relacin mediante una ecuacin matemtica que relacione las variables.
Esta ecuacin nos servir para predecir el valor de una variable partiendo del valor de la(s) otra(s)
variable(s).
Si la relacin que existe entre la variable x y la variable y es una lnea recta, las variables estn
relacionadas por :
y = x +
En una situacin no determinstica es razonable postular que esta relacin est afectada por
errores experimentales o perturbaciones aleatorias. De acuerdo a lo anterior podemos formular el
siguiente modelo estadstico :
Modelo estadstico :
Yi = + Xi + ei , i = 1, 2,....,n
en que :
(a).- x1, x2,....,xn son los valores de la variable x que han sido tomados para el estudio.
(b).- e1, e2,...., e3 son los errores aleatorios de la relacin lineal. Estos errores son
desconocidos y se asume que son variables aleatorias independientes, gaussianas, con esperanza
nula y varianza desconocida 2.
Si asumimos en forma tentativa que la formulacin del modelo es correcta, se puede proceder a la
estimacin de los parmetros y . El mtodo de los mnimos cuadrados constituye un mtodo
eficiente para estimar los parmetros de la regresin.
Supongamos que se ha graficado la recta y = a + bx. En el punto xi, el valor que predice la recta
para y es a + bxi, mientras que el valor observado es yi.
91
como medida de la discrepancia global. Si el ajuste es bueno, D debera ser pequeo. El principio
del mtodo de los mnimos cuadrados es entonces : determinar los parmetros desconocidos de
manera de minimizar D. Los valores encontrados se denotan y .
Fig.70
Antes de encontrar las expresiones para y veamos las notaciones que utilizaremos :
x y
1 1
x= i , y= i
n n
S 2x = (x i x) 2 = x i
2
nx 2 , S 2y = (y i y) 2 = y i
2
ny 2
S xy = (x i x)(y i y ) = x i yi x y n
Escribiendo D en la forma :
D=
(y a bx ) = ((y y) b(x x) + (y a bx))
i i
2
i i
2
2
S xy 2 S 2xy
2
D = n (y a bx ) + b S x + S y 2
2
(1)
S x
S x
S xy
Lo cual es mnimo si : y a bx = 0 , bS x =0
Sx
S xy
Luego : = , = y x (2)
S 2x
92
Produccin Costo
x y
1.5 2.5
2.0 3.1
3.0 3.8
1.5 2.1
3.5 4.3
3.0 3.2
4.5 4.8
4.0 3.9
4.0 4.4
2.5 3.0
Nota : Tanto la produccin como el costo han sido multiplicados por constantes.
La primera etapa lgica es dibujar los datos. Este grfico nos indicara si el modelo lineal es
adecuado.
Fig.71
x = 2.95 , y = 3.51
7.91
= = 0.77
S 2x = 10.23 , S 2y = 6.85 10.23
= 3.51 0.77 2.9501.24
S xy = 7.91
y = 1.24 + 0.77 x
S 2xy
Volvamos a las ecuaciones de la pgina anterior. El valor mnimo de D es : D Min = S 2y
S 2x
y utilizando la expresin (2) para :
D Min = S 2y 2 S 2x
93
se llama suma de cuadrados debida al error a :
n
SSE = S y 2 S 2x =
2
( y
i =1
i x i ) 2
En el ejemplo anterior :
SSE = 6.85 (0.77) 2 10.23 = 0.785
Estas propiedades nos sirven para establecer algunas inferencias respecto del modelo lineal.
94
1 x2
t S +
n S 2x
1 (x * x) 2
+ x * t S +
n S 2x
1 (3.5 2.95) 2
394 2.306 0.313 + 3.94 0.26
10 10.23
Observacin Importante : Se debe tener mucho cuidado al utilizar el modelo lineal para valores x*
que estn fuera del rango de valores x observados. La figura 72 ilustra esta situacin :
95
y
y = + x
Fig.72
Relacin verdadera
0 1 5 8 x
Dominio de validez
del modelo
Estudio de Residuos.
Una de las tcnicas ms importantes para criticar el modelo es el estudio de los residuos,
definidos por :
e i = y i y i i = 1, 2,...,n.
Ejemplo : En el caso anterior, se tiene el cuadro siguiente. Para validar el modelo sera necesario
hacer un test sobre la normalidad de los e i . Sin embargo resulta ms simple estudiar el grfico
residuo valor de prediccin, es decir e i versus y i , el cual, en el ejemplo, es el que aparece en la
figura 73.
xi yi y i e i
96
Fig.73
Si los puntos forman una franja horizontal con respecto a cero, como la figura 73, entonces el
modelo es aceptable.
Fig.74
Si el ancho de la franja crece (o decrece) con y , como en la figura 74, entonces la varianza 2 no
es constante.
Fig.75
Si se observa un comportamiento sistemtico, como en la figura 75, entonces hay que considerar
un modelo cuadrtico u otro de tipo no lineal.
En algunos casos, en los cuales se conoce el orden de medicin, es interesante estudiar el grfico
residuos versus orden en el tiempo.
97
Fig.76
y i = ( + x i ) + ( y i x i )
En una situacin ideal en la cual los puntos estn exactamente en una recta, los residuos son nulos
y la ecuacin + x i toma totalmente en cuenta los valores de y : se dice que la relacin lineal
explica los valores de y.
Como medida global de la discrepancia respecto de la linealidad se utiliza la suma de cuadrados
debida al error (ver pgina 94) :
n
SSE = (y
i =1
i x i ) 2 = S2y 2S2x
n
en que : S2y = (y
i =1
i y) 2 es una suma de cuadrados que representa la variacin total de los
El termino 2S2x se llama suma de cuadrados debida a la regresin lineal. Si la recta proporciona
un buen ajuste. entonces este trmino comprende la mayor parte de S2y y deja solo una pequea
parte para SSE. En la situacin ideal en que los puntos estn en una recta, SSE es cero.
Como ndice del ajuste lineal se utiliza la cantidad :
98
2S2x S2xy
r2 = = (se utiliz frmula (2) pgina 92)
S2y S2x S2y
Esto significa que el 89 % de la variacin de y es explicada por la relacin lineal, lo cual hace
satisfactorio al modelo en este aspecto.
Cuando el valor de r2 es pequeo, se debe concluir que la relacin lineal no constituye un buen
ajuste para los datos. Esto puede deberse a dos causas :
Fig.77
99
El Test F.
Para comprobar la falta de ajuste (por ejemplo la situacin (b) de la figura 77), se utiliza el test F
el cual requiere disponer de varios valores de y para un mismo valor de x (ver figura 78).
Fig.78
En este caso los datos se ordenan segn la tabla siguiente, similar a la tabla del anlisis de la
varianza :
Valores Valores Promedios
diferentes de x repetidos de y
x1 y11 y12 ...... y1n1 y1
x2 ...... y2n2 y2
k ni
SSP = ( y
i =1 j = 1
ij yi )2
(SSE SSP) (k 2)
D= (*)
SSP (n k)
Ley de D
Fig.79
0.95
0 DMx d
100
Regla de decisin :
x 2 2 2 3 3 4 5 5 6 6 6
y 4 3 8 18 22 24 24 18 13 10 16
x y y SS
2 4, 3,8 5 14
k=5 3 18, 22 20 8
4 24 24 0
5 24, 18 21 18
6 13, 10, 16 13 18
SSP = 14 + 8 + 0 + 18 + 18 = 58
Por otra parte : x = 4 , y = 14.55 , S 2x = 28 , S 2y = 571 , S xy = 50
DMx = 4.76
Conclusin : se rechaza el ajuste lineal. Hay que considerar adems que r 2 = S2xy S2x S2y = 0.156 ,
que es un valor muy pequeo.
En este ejemplo una relacin cuadrtica resulta mejor que una relacin lineal (Fig.80.).
Fig.80
101
XIII.2. RELACIONES NO LINEALES
En la prctica existen muchos casos en los cuales no es posible ajustar una recta, esto puede
detectarse por el grfico de los valores observados y por el clculo de un r2 pequeo. En el caso
no lineal, los mtodos estadsticos de ajuste son ms complicados. Sin embargo, en algunos casos
es posible transformar las variables de manera de obtener una relacin aproximadamente lineal; el
modelo lineal debe aplicarse entonces sobre las variables transformadas.
Fig.81
Fig.82
102
x = 74 , y' = 8.60 , S 2x = 6440 , S 2y' = 98.41 , S xy' = 766 , = 0.119 , = 0.206 , r 2 = 0.926
La tabla siguiente nos muestra algunos modelos no lineales y las transformaciones para obtener
una relacin lineal :
La Regresin Multivariable.
Los conceptos estudiados es este captulo pueden ser extendidos a situaciones en las cuales existe
ms de una variable independiente.
Supongamos, que la variable y depende de las variables x, x, x ( la generalizacin a p
variables es inmediata). Por analoga con el modelo lineal simple, se puede formular el modelo
siguiente :
Yi = + 1xi + 2xi + 3xi + ei i = 1, 2,...,n
En que xi, xi, xi son los valores de las variables independientes en el experimento i, siendo yi
la respuesta correspondiente. Se asume que los errores ei son variables aleatorias gaussianas
independientes, de esperanza nula y varianza 2 desconocida. Las constantes , 1, 2, 3 son
desconocidas.
Debido a la presencia de ms de dos variables, este modelo se llama regresin lineal mltiple.
Para estimar los parmetros , 1, 2, 3 se utiliza el mtodo de los mnimos cuadrados,
minimizando la cantidad :
n
D= (y
i =1
i 1 x i ' 2 x i " 3 x i ' ' ' ) 2
103
1S 2 + 2S x'x" + 3S x'x''' = S x'y
x'
n n
S x'x" = ( x 'x' )(x "x" ) = x 'x " nx' x"
i =1
i i
i =1
i i
etc.
Ejemplo : En la Oficina Salitrera de Pedro de Valdivia se observan durante 10 meses las variables
siguientes, en la planta de concentracin :
y = Recuperacin de la planta en %.
x = Temperatura del proceso.
x = Porcentaje de caliche vaciado.
x= Porcentaje de material con granulometra > 0.5 pulgadas.
La ecuacin de regresin nos indica que la nica variable (de las consideradas) que hace subir la
recuperacin de la planta es la temperatura. Se pusieron calderas y se comprob que la
recuperacin subi significativamente.
Los residuos y i y i = y i 1 x i ' 2 x i " 3 x i ' ' ' son los que figuran en la tabla siguiente :
104
yi yi ei
60.2 59.10 1.10
55.0 56.52 -1.52
56.2 55.66 0.54
60.9 62.44 -1.54
64.6 62.87 1.73
64.1 63.73 0.37
62.2 60.35 1.85
63.1 64.32 -1.22
59.1 60.01 -0.91
59.4 59.91 -0.51
De manera anloga a la regresin simple, el estudio de los residuos sirve para validar el modelo.
Ver pginas 99 101.
En el caso multivariable, como ndice del ajuste lineal, se utiliza el coeficiente de determinacin
r2, definido por :
S2
r = 2 2
2 yy
Sy S
y
r2 = 0.833 , = 0.913
Utilizando la tabla anterior :
Del anlisis de los residuos ei y del valor de r2, concluimos en este caso que el modelo lineal
mltiple es satisfactorio.
105
La Regresin Polinmica.
que es un caso particular del modelo lineal mltiple, con : x = x , x = x2 ,......, x(p) = xp.
Por ejemplo, si se desea ajustar la parbola + 1x + 2x2,
n
D= (y
i =1
i 1x i 2 x i ) 2
2
x i + 1 x i + 2 x i 3 = x i y i
2
x i + 1 x i + 2 x i 4 = x i y i
2 3 2
n + 1 x i + 2 x i 2 = y i
106
XIV. ESTADISTICA NO PARAMETRICA.
Casi todos los mtodos estadsticos que hemos estudiado suponen que las variables que interesan
son gaussianas. Estos mtodos requieren, en general, el conocimiento de dos parmetros : la
esperanza matemtica y la varianza.
Ahora consideremos situaciones en las cuales no podemos hacer suposiciones referentes a los
parmetros de las variables, de aqu el trmino Estadstica no Parmetrica. Aplicaremos los
mtodos no parmetricos en las ocasiones en las cuales no tenemos motivos para suponer que las
variables son normales. Sin embargo como regla, los mtodos no parmetricos tienen menor
eficacia que los correspondientes mtodos paramtricos.
Ejemplo : Dos formaciones geolgicas se comparan segn la ley de oro en gr/ton. Se obtuvieron
los datos siguientes :
Datos Formacin 1 : M1 = ( 4.7, 6.4, 4.1, 3.7, 3.9 )
Datos Formacin 2 : M2 = ( 7.6, 11.1, 6.8, 9.8, 4.9, 6.1, 15.1 )
Se construye ahora la muestra ordenada M1 M2, identificando los valores que pertenecen a M1
y M2 :
Datos de M1
M1 M2 3.7 3.9 4.1 4.7 4.9 6.1 6.4 6.8 7.6 9.8 11.1 15.1
Rango 1 2 3 4 5 6 7 8 9 10 11 12
c) Regla de decisin :
Si la primera muestra presenta una desviacin sistemtica hacia los grandes valores, entonces
los valores xi(1) de la muestra M1 estarn al final de la serie M1 M2 y el valor de W ser
anormalmente grande. Si la muestra M1 presenta una desviacin sistemtica hacia los pequeos
107
valores, entonces los valores de la muestra M1 estarn al comienzo de la serie M1 M2 y el
valor de W ser anormalmente pequeo. En estos dos casos la hiptesis de homogeneidad de las
muestras debe ser rechazada.
En resumen la regla de decisin al nivel 1 - es :
La tabla siguiente proporciona los valores de WMn y WMx para el nivel 1 - = 0.95.
n1 n2 WMn WMx
3 5 6 21
3 6 7 23
3 7 7 26
3 8 8 28
3 9 8 31
3 10 9 33
3 11 9 36
3 12 10 38
3 13 10 38
3 14 11 43
3 15 11 46
4 5 11 29
4 6 12 32
4 7 13 35
4 8 14 38
4 9 14 42
4 10 15 45
4 11 16 48
4 12 17 51
4 13 18 54
4 14 19 57
4 15 20 60
5 5 17 38
5 6 18 42
5 7 20 45
5 8 21 49
5 9 22 53
5 10 23 57
5 11 24 61
5 12 26 64
5 13 27 68
5 14 28 72
5 15 29 76
Ejemplo : Comprobar si los datos de las formaciones geolgicas evidencian que la formacin 2 es
ms rica que la formacin 1.
108
Solucin : n1 = 5 , n2 = 7 WMn = 20 , WMx = 45 (segn tabla adjunta) y como Wo = 17,
entonces se debe rechazar la hiptesis de que las muestras son homogneas, luego la formacin
geolgica 2 es ms rica que la formacin 1.
Un test no parmetrico excepcionalmente simple e intuitivo es el test de los signos. Este test
requiere disponer de dos muestras M1 y M2 de igual extensin y tomadas de a pares.
La hiptesis a comprobar es H0 : Las dos muestras corresponden a la misma variable aleatoria.
Se comprueba que no existe diferencia entre ambas muestras al examinar los signos de las
diferencias entre las parejas, los cuales deberan estar distribuidos uniformemente :
P( + ) = P( - ) =
Como regla de decisin se puede utilizar el test de 2; por lo menos se necesitan 10 parejas de
nmeros para que la comprobacin sea razonablemente sensitiva.
Ejemplo : La tabla siguiente muestra al nmero de obreros ausentes en dos turnos de una empresa
durante 16 das.
Tenemos 15 parejas de datos : no consideramos el da 7 porque los dos valores coinciden.
Se tiene entonces que de las 15 diferencias, en teora 7.5 seran ( + ) y 7.5 seran ( - ) :
109
de la tabla de la pgina 84 deducimos al nivel 0.95 que DMx = 3.841. Por otra parte :
(5 7.5) 2 (10 7.5) 2
D0 = + = 1.67
7.5 7.5
Conclusin : Los datos no justifican la inferencia de que existe una diferencia en el ausentismo de
los dos turnos.
Ejemplo : Supongamos que tenemos 10 alumnos A, B, C,....,J clasificados por 2 profesores por
orden de capacidad. Los resultados de la clasificacin se presentan como sigue :
Alumno A B C D E F G H I J
Profesor 1 2 1 3 4 6 5 8 7 10 9
Profesor 2 3 2 1 4 6 7 5 9 10 8
di 1 1 -2 0 0 2 -3 2 0 -1
(lo anterior significa por ejemplo : para el profesor 1 el alumno A es el segundo en capacidad,
mientras que para el profesor 2 es el tercero en capacidad).
10
Se tiene que
i =1
d i 2 = 12 + 12 + (2) 2 + ..... + (1) 2 = 24 , n = 10
6.24
=1 = 0.85
10.99
En este prrafo nos hacemos la pregunta siguiente : cmo verificar la significancia del
coeficiente de correlacin ?
Para responder esta pregunta se puede encontrar el intervalo del 95 % de confianza para el cual
se determina segn el baco del anexo.
110
Ejemplo : En el ejemplo anterior, con n = 10 encontrar 0 = 0.855. Encontrar el intervalo de
confianza.
Fig.83
En el baco del anexo, se entra con el valor 0.855 y en las curvas para n = 10 se determinan los
puntos A y A los cuales proporcionan el intervalo del 95 % de confianza para : 0.45 0.95.
Podemos conclur que el grado de acuerdo entre los dos profesores es significativo.
111
Anexo : Abaco para determinar el
intervalo de confianza para el
coeficiente de correlacin
112
Bibliografa
113