Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ApuntesEstadistica PDF
ApuntesEstadistica PDF
ESTADISTICA
Indice general
1. Estadstica descriptiva
1.1. Notacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2. An
alisis combinatorio
11
2.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3. Algebra
de sucesos
19
23
. . . . . . . . . . . . . . . . . . . . . . . . . . 24
i
37
53
65
85
iii
99
. . . . . . . 108
. . . . . . . . . . . . . . . . . . . . . . . 113
127
133
143
12.5. Estadstico
. . . . . . . . .
s/ n
12.5.1. Poblacion Madre Normal . .
. . . . . . . . . . . . . . . . . . . . . . 146
. . . . . . . . . . . . . . . . . . . . . . 146
. . . . . . . . . . . . . . . . . . . . . . 147
. . . . . . . . . . . . . . . . . . . . . . 147
. . . . . . . . . . . . . . . . . . 155
159
. . . . . . . . . 180
187
197
219
. . . . . . . . . . . . . . . . . . . . . . 223
251
. . . . . . . . . . . . . . . . . . . . . . . . . 256
A. Tablas estadsticas
271
B. Resumen de distribuciones
303
viii
Estadstica
descriptiva
1
Indice
1.1. Notaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Representaci
on gr
afica . . . . . . . . . . . . . . . . . . . . . . .
1.4.1.1.
1.4.1.2.
Cuantiles . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2.1.
1.4.2.2.
Desviacion media . . . . . . . . . . . . . . . . . . . .
1.4.2.3.
Coeficiente de variaci
on de Pearson . . . . . . . . . .
1.4.2.4.
Recorrido . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . .
Estadstica
La estadstica descriptiva tiene por objeto describir y analizar un determinado con-
1.1.
Notaci
on
ni = N
1 Estadstica descriptiva
i
X
nk
k=1
siendo Nr = N
Se llama frecuencia relativa de la observacion xi al valor
fi =
siendo
r
X
ni
N
fi = 1
i=1
i
X
fk
k=1
siendo Fr = 1
1.2.
xi
ni
x1
x2
..
.
1
..
.
xN
Estadstica
xi
ni
x1
n1
x2
..
.
n2
..
.
xr
nr
[L0 ,L1 )
[L1 ,L2 )
z
}|
{z
}|
{
x1 , x2 , x3 , x4 , x5 , x6 , x7 , x8 , x9 , x10 ,
..
.
[Lr1 ,Lr )
Li1 Li
ni
L0 L1
n1
L1 L2
..
.
n2
..
.
Lr1 Lr
nr
Li1 + Li
2
1.3.
Representaci
on gr
afica
Hay muchas formas de representar graficamente una tabla, aqu veremos solo algunas
de ellas.
1 Estadstica descriptiva
5
Polgono de frecuencias
Diagrama de barras
n 6
n 6
n2
n4
nr
n2
n3
n1
n1
"
"
"
aa ""
a"
%%
%
x1
x2
xr
x1 x2
x3
x4
Histograma
Histograma
h 6
n 6
h2
n2
h3
n3
n2
A2
n3
h1
A3
n1
n1
A1
-
L0
L1
ai = Li Li1 ,
1.4.
L2 L3
hi =
L0
ni
ai
L1
L2 L3
Ai = ai ni
Medidas num
ericas descriptivas
Una vez que se han recogido y graficado los datos, es conveniente definir algunas
medidas numericas para describirlos. Existen dos medidas de especial interes para cualquier conjunto de datos: la localizacion de su centro y su variabilidad. Ademas, hay otras
medidas tambien importantes como la localizacion de los extremos y la forma en que se
distribuyen los datos.
Estadstica
1.4.1.
Medidas de posici
on
1.4.1.1.
x =
r
x1 n1 + x2 n2 + + xr nr
1 X
xi ni
=
n1 + n2 + + nr
N i=1
N
xA = n1 n2
nr
+
++
x1 x2
xr
Media ponderada
xp =
x1 p1 + x2 p2 + + xr pr
p1 + p2 + + pr
Se cumple: xA xG x xQ
Mediana (Me)
La mediana es la medida de tendencia central que, supuestos los valores de la muestra
ordenados en forma creciente, deja igual n
umero de observaciones por debajo y por
encima de ella. As, suponiendo que los valores de la muestra son x1 x2 xN
1 Estadstica descriptiva
Me =
xN
[ 2 ]+1
Si
/N
2
1 xN + xN
Si
N
+1
2
2
2
2
Cuantiles
Ya hemos visto que la mediana divide el conjunto de datos en dos partes de igual
tama
no. Para obtener medidas de localizacion mas finas, solo es cuestion de dividir el
conjunto de datos en mas de dos partes. De esta forma se definen los p-cuantiles, siendo p
la proporcion de datos que deja el cuantil a su izquierda. Si tenemos la muestra ordenada
de forma creciente, x1 x2 xN , el p-cuantil viene dado por
xp =
[N p]+1
Si Np
/N
1 (x + x
Np
N p+1 ) Si Np N
2
donde los corchetes, [ ], indican la parte entera. Los casos particulares de cuantiles mas
utilizados son
Cuartiles (Q1/4 , Q2/4 , Q3/4 )
Son los 3 valores de la muestra que dividen las observaciones en 4 partes iguales.
Deciles (D1/10 , D2/10 , . . . , D9/10 )
Son los 9 valores de la muestra que dividen las observaciones en 10 partes iguales.
Centiles o percentiles (P1/100 , P2/100 , . . . , P99/100 )
Son los 99 valores de la muestra que dividen las observaciones en 100 partes iguales.
Estadstica
1.4.2.
Medidas de dispersi
on
1.4.2.1.
Varianza y desviaci
on tpica
La desviacion tpica se define como la raz cuadrada de la varianza y tiene las mismas
dimensiones que los datos originales.
s=
1.4.2.2.
v
u
u
s2 = t
1 X
(xi x)2 ni
N 1 i=1
Desviaci
on media
r
1 X
|xi p| ni
N i=1
Coeficiente de variaci
on de Pearson
Recorrido
1 Estadstica descriptiva
Rango intercuartlico
Rango semicuartlico
1.4.3.
RI = Q3/4 Q1/4
RSI =
Q3/4 Q1/4
RI
=
2
2
Medida de asimetra
P
(xi x)3
sera nula, mientras que con datos asimetricos esta suma crecera con el grado de asimetra.
Para obtener una medida adimensional del grado de asimetra se define el coeficiente de
asimetra o deformacion como
P
n (xi x)3
CA =
(n 1)(n 2)s3
(n 3 y s 6= 0)
1.4.4.
Medida de apuntamiento
(n 4 y s 6= 0)
10
Estadstica
Analisis
combinatorio
2
Indice
2.1. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
2.1.0.1.
Sin repeticion
. . . . . . . . . . . . . . . . . . . . . .
13
2.1.0.2.
Con repeticion . . . . . . . . . . . . . . . . . . . . . .
14
2.2. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
14
2.2.0.3.
Sin repeticion
. . . . . . . . . . . . . . . . . . . . . .
14
2.2.0.4.
Con repeticion . . . . . . . . . . . . . . . . . . . . . .
15
2.3. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
2.3.0.5.
Sin repeticion
. . . . . . . . . . . . . . . . . . . . . .
15
2.3.0.6.
Con repeticion . . . . . . . . . . . . . . . . . . . . . .
16
11
12
El principal objetivo de la combinatoria o, por lo menos en el que estamos aqu mas
interesados es el de hallar el cardinal de un conjunto finito o, dicho de otro modo, contar.
Una posible definicion matematica de la accion que supone contar es la de establecer una
biyeccion entre el conjunto que se desea contar y los n
umeros naturales, de modo que
podamos enumerar los elementos como el uno, el dos, etc.
Es facil, por ejemplo, contar el n
umero de cuadrados perfectos que hay entre 100
y 1000. Basta observar que 100 = (9 + 1)2 y que el mayor cuadrado perfecto menor que
1000 es 961 = 312 = (9 + 22)2 . Hemos establecido una biyeccion entre el conjunto que
deseabamos contar y los naturales entre el 1 y el 22. Hay, por tanto, 22 cuadrados perfectos
entre 100 y 1000.
Sin embargo, la mayor parte de las veces, no es evidente o siquiera posible como
establecer tal biyeccion. Un primer procedimiento accesible en estos casos es el denominado
constructivo. Se trata de recorrer los pasos necesarios para formar todos los elementos del
conjunto anotando las alternativas que puedan elegirse en cada uno.
Veamos un ejemplo: De cuantas maneras se pueden sentar tres chicas y tres chicos
en seis butacas consecutivas de un cine de forma que no haya dos chicas ni dos chicos
seguidos?
Hay que ocupar seis sitios. Los indicaremos graficamente as:
La primera butaca puede ser ocupada por cualquiera de las seis personas.
|{z}
6
Elegida la primera persona hay 3 elecciones posibles, entre las personas de sexo
contrario, para ocupar el segundo lugar.
|{z}
6
|{z}
3
La tercera butaca ha de ser ocupada por una de las 2 personas que quedan del mismo
sexo de la primera y la cuarta por una de las dos del sexo de la segunda.
|{z}
6
|{z}
3
|{z}
2
|{z}
2
|{z}
3
|{z}
2
|{z}
2
|{z}
1
|{z}
1
2 An
alisis combinatorio
13
En algunas ocasiones hay que resolver problemas que pueden reducirse a un peque
no
n
umero de patrones o formas de contar. Estos patrones se estudian en la educacion secundaria y haremos aqu solamente un breve recordatorio. Sin embargo, la mayor parte de las
veces tendremos problemas que no corresponden exactamente a alguno de estos patrones.
Lo mas recomendable suele ser recurrir antes a la logica y al metodo constructivo que a
buscar hipoteticas formulas que resuelvan nuestro problema concreto.
Entre estos patrones fundamentales que pueden resumirse esquematicamente en la
tabla del final del captulo se encuentran los siguientes:
2.1.
Permutaciones
Supongamos un conjunto de n elementos. Se llaman permutaciones de estos n elementos a las distintas ordenaciones que podemos hacer con ellos.
2.1.0.1.
Sin repetici
on
|{z}
n1
|{z}
n2
...
|{z}
3
|{z}
2
Pn = n (n 1) (n 2) 3 2 1 = n!
|{z}
1
14
Estadstica
2.1.0.2.
Con repetici
on
Supongamos ahora que no todos los n elementos del conjunto son distintos, sino que
hay r grupos de elementos iguales entre s (o indistinguibles), digamos n1 de una clase,
n2 de otra, hasta nr de la u
ltima clase. Esta claro que n1 + n2 + . . . + nr = n. Cuantas
ordenaciones podramos distinguir?
Un ejemplo tpico de este problema podra ser el siguiente: disponemos de una bolsa
en la que hay 11 bolas iguales; cuatro de ellas tienen un 1 escrito, otras tres un 2 y las
cuatro restantes un 3. Sacando las once bolas una tras otra y anotando las cifras que
aparecen Cuantos n
umeros distintos podemos obtener?
Otro ejemplo clasico: Cuantas palabras distintas pueden formarse empleando las 8
letras del vocablo CASCARAS?
Pensemos en el problema general. Si los n elementos fueran distintos tendramos n!
permutaciones posibles. Dada una cualquiera de ellas, podramos sacar de la ordenacion
los n1 elementos del primer grupo, reordenarlos arbitrariamente y volver a rellenar los
huecos que hubieran dejado libres sin que fueramos capaces de distinguir la permutacion
original del resultado final de esta operacion. Lo mismo es cierto para los n2 elementos del
segundo grupo, los n3 del tercero, hasta los nr del u
ltimo. Puesto que hay ni ! ordenaciones
parciales posibles de los elementos del grupo i-esimo, tenemos que:
P Rnn1 ,n2 ,...,nr =
2.2.
2.2.0.3.
n!
n1 ! n2 ! nr !
Variaciones
Sin repetici
on
|{z}
n1
...
{z
r
|{z}
nr+2
|{z}
nr+1
}
2 An
alisis combinatorio
15
2.2.0.4.
n!
(n r)!
Con repetici
on
Supongamos ahora que cada elemento del conjunto original pueda ser repetido al
crear una ordenacion de tama
no r. Se hablara entonces de variaciones con repeticion de
r elementos tomados de entre n, V Rn,r .
Pensemos, por ejemplo, en las palabras de 8 letras que pueden formarse con el
alfabeto espa
nol. Hay que tomar 8 decisiones (cual es la primera letra, cual la segunda,
etc.) teniendo 27 posibilidades de eleccion cada vez (las 27 letras del alfabeto). El n
umero
total de palabras es, entonces 27
27 27} = 278 .
| 27 {z
8veces
Es facil observar que, en general:
V Rn,r = nr
2.3.
Combinaciones
Una combinaci
on de r elementos tomados de entre n es cualquier subconjunto de
tama
no r de un conjunto de n elementos. Es importante resaltar que en una combinacion
no interviene el orden de los elementos: si sacamos tres bolas de una bolsa que contiene
diez, numeradas del uno al diez, podemos obtener las permutaciones distintas {1, 2, 7} y
{7, 1, 2} que, sin embargo, son un mismo subconjunto de tama
no 3 (el obtenido por union
de {1}, {2} y {3}). Son, por tanto, la misma combinacion.
2.3.0.5.
Sin repetici
on
Siguiendo la idea del ejemplo anterior, una manera sencilla de contar las combinaciones de r elementos tomados entre n (Cn,r ) es observar que, de las n!/(nr)! variaciones
posibles, r! de ellas son ordenaciones distintas de los mismos elementos y, por tanto, la
misma combinacion. El n
umero total de combinaciones sera entonces:
Cn,r
n!
=
=
(n r)! r!
n
r
16
Estadstica
2.3.0.6.
Con repetici
on
Supongamos ahora que tenemos la libertad de repetir los elementos del conjunto
para formar un subconjunto de tama
no r, obtendremos una combinacion con repeticion
de r elementos tomados de entre n. En una de estas combinaciones cada uno de los n
elementos del conjunto puede aparecer 0, 1, 2, 3, . . ., hasta r veces. Cada combinacion
puede ser descrita por una n-upla de n
umeros que indica cuantas veces aparece el elemento
1, el 2, y as hasta el n. Evidentemente, la suma de las cifras de cada n-upla es r, puesto
que cada combinacion consta de r elementos. El n
umero total de n-uplas tales que la
suma de sus elementos sea r es el n
umero de posibles combinaciones con repeticion y lo
que deseamos calcular.
Olvidemonos por el momento de las combinaciones y pensemos en los siguientes
problemas:
Introducimos r bolas identicas en n cajas. Cuantas configuraciones finales distintas
podramos reconocer?
Cuantas soluciones distintas tiene la ecuacion k1 + k2 + + kn = r si cada ki debe
ser un n
umero natural o 0?
Estos dos problemas aparentemente distintos son, en realidad, equivalentes. Supongamos r bolas iguales y n cajas. Las introducimos y contamos cuantas bolas han cado en
la primera caja, cuantas en la segunda, la tercera y la cuarta. Cada configuracion nos da
una n-upla de n
umeros (k1 , k2 , . . . , kn ) que resuelve el segundo problema.
Observese, llegados a este punto, que el n
umero de configuraciones distintas que
obtenemos al introducir r bolas en n cajas y el n
umero de combinaciones que buscabamos
P
coinciden: ambas son el n
umero de n-uplas (k1 , k2 , . . . , kn ) tales que la suma ni=1 ki = r.
Vamos a calcular este n
umero empleando un sencillo y original argumento para el problema
de las bolas y las cajas.
Supongamos las n cajas colocadas una a continuacion de la otra y pegadas entre s.
Representaremos las bolas mediante asteriscos y las cajas como los n espacios comprendidos entre n + 1 barras (las paredes de las cajas). Por ejemplo, la secuencia | |||| || |
indica una manera de introducir 6 bolas en 7 cajas con el resultado de 3 en la primera,
2 en la quinta y 1 en la septima. Cada secuencia que representemos empieza y termina
por una barra vertical, pero las restantes n 1 barras y r asteriscos aparecen en un orden
2 An
alisis combinatorio
CRn,r
17
(n + r 1)!
=
=
(n 1)! r!
n+r1
r
Otro ejemplo clasico que puede reducirse al de introducir r bolas en n cajas: Cuantas
derivadas parciales de orden r diferentes existen para una funcion analtica de n variables
f (x1 , x2 , . . . , xn )?
Por ser una funcion analtica, las derivadas parciales de orden r no dependen del
orden de la derivacion, sino solo del n
umero de veces que cada variable aparece. Si identificamos cada variable con una celda, cada configuracion obtenida al introducir r bolas nos
da, de nuevo, una derivada posible de orden r. Hay, por tanto CRn,r derivadas distintas
de f .
interviene
el
orden
B
B
B
B
B
si B
no
B
B
BN
puedo
repetir
puedo
repetir
A
A
A
(n + r 1)!
r! (n 1)!
r
3 V Rn,r = n
no
Pn = n!
n!
n1 ! n2 ! nr !
3 Vn,r = n (n 1) (n r + 1)
no
Q
Q
si QQ
s
n!
r! (n r)!
n+r1
cojo
todos
CRn,r =
me dicen
cuantas veces
A
Q
se repite
AU
Q
si QQ
cada uno
s
si A
A
A
no
Q
Q
si QQ
s
3 Cn,r =
no
COMBINATORIA
18
Estadstica
Algebra
de sucesos
3
Indice
3.1. Experimento aleatorio
. . . . . . . . . . . . . . . . . . . . . . .
20
3.2. Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
20
21
21
3.3.2. Intersecci
on de sucesos . . . . . . . . . . . . . . . . . . . . . . .
21
. . . . . . . . . . . .
21
22
22
. . . . . . . . . . . . . . . . . . . . . .
19
20
Estadstica
3.1.
Experimento aleatorio
Por experimento entenderemos cualquier accion que pueda dar lugar a resultados
identificables. Suponemos que podemos repetir el experimento gran n
umero de veces bajo
las mismas condiciones, y que todos los posibles resultados son conocidos antes de la
realizacion del mismo.
Si los resultados del experimento pueden ser distintos y no se sabe cual de ellos
aparecera al final, el experimento se llamara aleatorio. Si el resultado del experimento es
conocido de antemano, se llamara determinista.
3.2.
Sucesos
Si el u
nico resultado que interesa del experimento es el mismo espacio muestral E,
estamos ante el suceso seguro; mientras que si el resultado deseado es no obtener ninguno
de los sucesos contenidos en E, tenemos el suceso imposible.
3 Algebra
de sucesos
3.3.
3.3.1.
21
n
[
Si
i=1
es otro suceso
3.3.2.
Intersecci
on de sucesos
n
\
i=1
Si
es otro
i=1
Si n sucesos
son disjuntos dos a dos y la union de todos ellos es el espacio muestral,
!
Si = E , se dice que los sucesos Si forman una particion del espacio muestral E.
[
dos a dos y tales que
Si = E.
i=1
3.3.3.
Propiedades de la uni
on y la intersecci
on
Conmutativa
S1 S2 = S2 S1
S1 S2 = S2 S1
Asociativa
S1 (S2 S3 ) = (S1 S2 ) S3
S1 (S2 S3 ) = (S1 S2 ) S3
Distributiva
22
Estadstica
3.3.4.
Diferencia de sucesos
por los elementos de S1 que no pertenecen a S2 . Es decir, el suceso que tiene lugar cuando
sucede S1 y no sucede S2 . La operacion diferencia no goza de la propiedad conmutativa,
pues, en general, S1 S2 6= S2 S1 .
3.3.5.
Suceso complementario
es la diferencia entre el
El complementario de un suceso S, que notaremos por S,
espacio muestral, E, y el suceso S, es decir S = E S. Es el suceso compuesto por los
elementos de E que no pertenecen a S.
=S
Se comprueba facilmente que S S = E, S S = y S
Leyes de De Morgan
n
[
Si
i=1
n
\
i=1
Si
n
\
Si
i=1
n
[
i=1
Si
Teora de
la probabilidad
Indice
4.1. Concepto de probabilidad . . . . . . . . . . . . . . . . . . . . .
24
4.1.1. Probabilidad cl
asica . . . . . . . . . . . . . . . . . . . . . . . .
24
24
4.1.3. Axiom
atica del calculo de probabilidades . . . . . . . . . . . .
4.1.3.1. Algebra
de sucesos . . . . . . . . . . . . . . . . . . . .
26
26
4.1.4. Axiom
atica de Kolmogorov . . . . . . . . . . . . . . . . . . . .
28
29
31
32
33
33
34
23
24
Estadstica
4.1.
4.1.1.
Concepto de probabilidad
Probabilidad cl
asica
= 1 P (S)
Si S es el suceso complementario de S, entonces P (S)
La probabilidad clasica supone que el n
umero de casos posibles sea finito.
4.1.2.
Probabilidad frecuentista
La objetividad de la probabilidad
4 Teora de la probabilidad
25
n
X
ni =
i=1
n
X
i=1
n
[
Si , entonces
i=1
n
ni X
=
f (Si )
N
i=1
P (S) =
n
X
P (Si )
i=1
26
Estadstica
4.1.3.
Axiom
atica del c
alculo de probabilidades
Las limitaciones de las teoras clasica y frecuentista de la probabilidad hacen imposible la formalizacion matematica de la asignacion de un modelo matematico a la probabilidad, consiguiendose este con el planteamiento axiomatico de Kolmogorov (1933), al
poner en relacion la teora de la probabilidad con la de conjuntos y con la teora de la
medida.
El planteamiento de Kolmogorov presenta la limitacion de no proporcionar un metodo practico de obtencion de probabilidades de sucesos en el mundo real. Para salvar esta
importante limitacion, Kolmogorov establece la conexion del modelo matematico con el
mundo real recurriendo a la base emprica de la teora frecuentista, al considerar que si un
experimento aleatorio se repite gran n
umero de veces, la frecuencia relativa de un suceso
diferira ligeramente de la probabilidad del suceso.
4.1.3.1.
Algebra
de sucesos
espacio muestral E. Sin embargo, existen otras muchas preguntas en las que se formulan
sucesos compuestos, como la obtencion de : {n
umero par}, {n
umero distinto de 5}, etc.
en el espacio muestral E, aunque proceden de los elementos constitutivos de el. Esto tiene
como consecuencia que el n
umero de sucesos que pueden plantearse en un experimento
aleatorio es superior al de sucesos elementales integrantes de E, y son generados desde
E mediante las operaciones de union, interseccion y complementariedad, constituyendo
todos ellos un nuevo conjunto denominado algebra.
Lo anterior puede formalizarse de la siguiente manera : sea E el espacio muestral integrado por sucesos elementales. Sea A una coleccion de subconjuntos de E, cumpliendose
las siguientes condiciones :
1. El espacio muestral, E, pertenece a A.
Como
2. Si un suceso S pertenece a A, tambien pertenece su complementario S.
consecuencia, el conjunto vaco, , pertenece a A.
4 Teora de la probabilidad
27
\
[
Si tambien pertenecen a A, la coleccion recibe
Si y
pertenecientes a A, entonces
i=1
i=1
1
2
3
{ning
un elemento}={}
{1}
{2}
{3}
cc
c+
+c
++
{ning
un elemento}={}
{2 caras}={c c}
{como mnimo una cara}={{c c} {c +} {+ c}}
{como maximo una cara}={{c +} {+ c} {+ +}}
{1 cara}={{c +} {+ c}}
{no obtener una cara}={{c c} {+ +}}
{0 caras}={++}
{cualquier elemento}={E}
28
Estadstica
4.1.4.
Axiom
atica de Kolmogorov
A2. P (E) = 1
A3. Dada una sucesion numerable de sucesos S1 , S2 , . . . , Sn , . . ., disjuntos dos a dos,
se verifica que
P(
i=1
Si ) =
P (Si )
i=1
1
2
3
{ning
un elemento}={}
{1}
{2}
{3}
P
0
3/12
4/12
5/12
9/12
8/12
7/12
1
4 Teora de la probabilidad
29
{ning
un elemento}={}
{2 caras}={c c}
++
{no obtener una cara}={{c c} {+ +}}
{0 caras}={++}
{cualquier elemento}={E}
4.2.
P
0
1/4
3/4
3/4
2/4
2/4
1/4
1
Teoremas del c
alculo de probabilidades
X
[
P (Si ), es decir
al suceso imposible (Si = ). Seg
un el tercer Axioma P
Si =
P () =
i=1
i=1
i=1
i=1
[
X
P
Si =
P (Si )
i=1
i=1
es decir,
P
i=1
Si
=P
"
n
[
i=1
Si
i=n+1
Si
!#
=P
"
n
[
i=1
Si
!#
X
i=1
P (Si ) =
n
X
P (Si )
i=1
30
Estadstica
S2 = (S1 S2 ) (S1 S2 )
por el teorema 2,
por tanto,
P (S1 S2 ) = P (S1 ) + P (S2 ) P (S1 S2 )
Para n sucesos :
!
n
n
n
n
X
X
[
X
P (Si Sj Sk ) +
P
Si =
P (Si )
P (Si Sj ) +
i=1
i=1
i<j
i<j<k
+ + (1)n+1 P (S1 S2 Sn )
TEOREMA 4. Si un suceso S1 esta contenido en otro S, (S1 S), se verifica que
P (S1 ) P (S)
Descomponemos el suceso S en la union de dos sucesos disjuntos
S = (S1 S) (S1 S)
por el teorema 2,
P (S) = P (S1 S) + P (S1 S)
Por el Axioma 1, P (S1 S) 0, por tanto P (S) P (S1 S), pero S1 S = S1 ,
P (E) 1
= 1 P (S)
TEOREMA 6. La probabilidad del suceso complementario S es P (S)
Siendo S y S disjuntos y tales que S S = E, se tiene que
= 1 P (S)
= 1 P (S)
P (E) = P (S) + P (S)
4 Teora de la probabilidad
4.3.
31
Probabilidad condicional
reduce a E = {2, 4, 6}. En esta situacion, el conocimiento del suceso {par} condiciona la
Dados dos sucesos S1 y S, el suceso S1 esta condicionado por el suceso S si la probabilidad de que suceda S1 depende de que haya sucedido S, y la probabilidad condicional
se define como
P (S1 /S) =
P (S1 S)
P (S)
Seg
un la definicion de probabilidad condicional,
PS (S1 ) = P (S1 /S) =
P (S1 S)
P (S)
32
Estadstica
2 PS (ES ) = 1
PS (ES ) = P (ES /S) =
3 PS
Si
i=1
P (ES S)
P (S)
=
=1
P (S)
P (S)
i=1
Si
i=1
por tanto,
PS
i=1
Si
X
i=1
=P
P (Si S)
P (S)
Si /S
i=1
S =
P
=
"
(Si S)
i=1
Si
i=1
P (S)
X
P (Si S)
i=1
P (S)
P
=
"
[
P (Si /S) =
i=1
i=1
(Si S)
P (S)
PS (Si )
i=1
La definicion de probabilidad condicional se extiende facilmente a mas de dos sucesos. Por ejemplo, para tres sucesos S1 , S2 y S3 , tenemos
4.3.1.
P (S1 /S2 S3 ) =
P (S1 S2 S3 )
P (S2 S3 )
P (S1 S2 /S3 ) =
P (S1 S2 S3 )
P (S3 )
Regla de la multiplicaci
on
P (S1 S2 )
P (S1 S2 ) = P (S1 )P (S2 /S1 )
P (S1 )
P (S1 S2 S3 )
P (S1 S2 S3 )
=
P (S1 S2 )
P (S1 )P (S2/S1 )
4 Teora de la probabilidad
33
4.3.2.
P (A) =
n
X
P (A/Si )P (Si )
i=1
n
[
i=1
Si
n
[
(A Si )
i=1
Tomando probabilidades, y teniendo en cuenta que los sucesos {A Si } son disjuntos dos
a dos,
P (A) = P
"
n
[
(A Si ) =
i=1
4.3.3.
n
X
i=1
P (A Si ) =
n
X
P (A/Si )P (Si )
i=1
Teorema de Bayes
P (Si /A) =
P (A/Si )P (Si )
n
X
P (A/Si )P (Si )
i=1
P (A Si )
P (Si )
P (Si /A) =
P (A Si )
P (A)
Por tanto,
P (A Si ) = P (Si /A)P (A) = P (A/Si )P (Si ) P (Si /A) =
P (A/Si )P (Si )
P (A)
34
Estadstica
P (A/Si )P (Si )
n
X
P (A/Si )P (Si )
i=1
4.4.
Independencia de sucesos
4 Teora de la probabilidad
35
36
Estadstica
Variable aleatoria
unidimensional
Indice
5.1. Variable aleatoria . . . . . . . . . . . . . . . . . . . . . . . . . .
38
5.1.1. Definici
on matem
atica . . . . . . . . . . . . . . . . . . . . . . .
38
5.1.2. Definici
on intuitiva . . . . . . . . . . . . . . . . . . . . . . . . .
39
40
5.2.1. Funci
on de probabilidad . . . . . . . . . . . . . . . . . . . . . .
40
5.2.2. Funci
on de distribucion . . . . . . . . . . . . . . . . . . . . . .
41
42
5.3.1. Funci
on de distribucion y funcion de densidad . . . . . . . . . .
42
44
46
46
48
49
50
37
38
Estadstica
5.1.
5.1.1.
Variable aleatoria
Definici
on matem
atica
= {, A1 , A4 , A2 A3 , A1 A2 A3 , A4 A2 A3 , A1 A4 , E} = {S1 , . . . , S8 }
Y : E
X: E
A1 2
A1 2
A3 5
A3 1
A2 1
A4 0
A2 1
A4 0
En el primer caso,
Y 1 ((4, 5]) = {Ai E/4 < Y (Ai ) 5} = A3
/
por tanto, Y no es una variable aleatoria de este espacio probabilstico (E, , P ). En
cambio, si consideramos la algebra completa, Y s es una variable aleatoria para este
nuevo espacio probabilstico.
En el segundo caso, es facil comprobar que
X 1 (b) = {Ai E/X(Ai ) b} b B
El hecho de que X sea una v.a. de (E, , P ) esta directamente relacionado con la
intencion con la que se creo el algebra . Al tomar como sucesos que definen los
sucesos A1 , A4 y A2 A3 , estamos diciendo que lo que nos interesa del experimento es el
n
umero de caras, lo que esta de acuerdo con la filosofa de X.
Si el n
umero de valores que toma la variable aleatoria es finito o infinito numerable,
se dice que es una variable aleatoria discreta. Si toma un n
umero infinito no numerable
39
de valores se dice que es continua. Ademas, una v.a. puede ser discreta en un conjunto
numerable de puntos y continua en el resto. En este caso, se dice que es mixta.
5.1.2.
Definici
on intuitiva
n
umero menor o igual que x.
suceso (puesto que cualquier union de sucesos elementales lo es) en un intervalo o punto de
la recta real. P ({X x}) sera entonces la probabilidad de que ocurra el suceso definido
escribiremos P (X x).
esta formado por seis sucesos elementales E = {Si }i=1,...,6 donde Si valor obtenido en
S2
{20 X 35} = S2
{20 < X 35} = S2
{X 5} = . Suceso imposible.
40
Estadstica
{X = 40} = S4 . El suceso representado es que salga un 4.
{X = 35} = . Suceso imposible.
Las probabilidades asociadas seran: P (X 35) = 1/2, P (20 X 35) = 1/3,
Para el mismo experimento podramos haber definido una variable asignando 0 a los
5.2.
5.2.1.
Funci
on de probabilidad
Una vez que hemos definido una variable aleatoria, X, podemos definir una funcion,
llamada funci
on de probabilidad asociada a X, de la siguiente forma
f : R [0, 1]
x f (x) = P (X = x)
En general, para que una funcion, f , sea la funcion de probabilidad asociada a una
variable aleatoria X, debe cumplir :
i) f (x) 0 x R
ii)
f (x) = 1
donde la suma en x en la segunda condicion se realiza sobre todos los posibles valores que
puede tomar la variable aleatoria.
5.2.2.
41
Funci
on de distribuci
on
x F (x) = P (X x)
2 F (+) = 1
F (+) = lm F (x) = lm P (X x) = P (E) = 1
x+
x+
A = {X x2 }
B = {X x1 }
C = {x1 < X x2 }
4 F es monotona creciente
Sean x1 < x2 , por la propiedad anterior,
F (x2 ) = F (x1 ) + P (x1 < X x2 ) F (x1 )
5 F es continua por la derecha
Tenemos que comprobar que, dado > 0, se cumple
lm (F (x + ) F (x)) = 0
42
Estadstica
pero
lm (F (x + ) F (x)) = lm P (x < X x + ) = P () = 0
y, esta probabilidad puede ser cero o no. Por tanto, la funcion de distribucion, en general,
no es continua por la izquierda. De hecho,
F (x) F (x ) = lm(F (x) F (x )) = P (X = x)
0
P (X = xi )
0.1
0.4
0.2
0.3
0.1
F (x) =
0.5
0.7
5.3.
5.3.1.
x<1
F (x)
6
1
1x<2
0.7
2x<3
0.5
3x<4
0.1
r
r
x4
Dada una v.a. continua, X, se llama funcion de distribucion a la funcion absolutamente continua, F , definida como
F : R [0, 1]
x F (x) = P (X x)
43
f (t) dt
x R
Z
x+
f (t) dt
Z
f (t) dt = lm
0
x+
f (t) dt
x
x+
f (t) dt =
x
lm (F (x + ) F (x)) = lm( ) = 0
x+
f (t) dt
44
Estadstica
x+
f (t) dt = f (x0 )
x
F (x + ) F (x)
1
= lm f (x0 ) = f (x0 )
0
0
forma analoga.
f (x) =
3 2
2x
x [1, 1]
resto
La funcion de distribuci
on asociada
Z x
Z x es
Si x < 1 F (x) =
f (t) dt =
0 dt = 0
Z
Z
Z x
x
1
1
3 2
t dt = [x3 + 1]
Si 1 x < 1 F (x) =
f (t) dt =
0 dt +
2
1 2 Z
Z x
Z 1 Z 1
x
3 2
Si x 1 F (x) =
f (t) dt =
0 dt +
t dt +
0 dt = 1
1 2
1
F (x) 6
1 3
F (x) =
[x + 1]
5.4.
x < 1
1 x < 1
x1
-1
Una v.a. mixta viene caracterizada por su funcion de distribucion, definida de igual
forma que en los casos anteriores, que es continua por la derecha, con un n
umero de
discontinuidades a lo sumo numerable, pero que no es escalonada. Es decir, en algunos
puntos es discreta (puntos de discontinuidad) y en el resto es continua. Por ejemplo, la
v.a. X con funcion de distribucion
45
(x + 1)2 + 1/4
F (x) =
5/8
x + 1/4
x < 1
1 x < 1/2
1/2 x < 1/2
1/2 x < 3/4
x 3/4
F (x) 6
1
3/4
1/2
1/4
-1
-1/2
1/2
3/4
P (X = 1)+
1/2
1
1/2
1/2
0 dx+P (X = 1/2)+
3/4
1/2
1 dx = 1
46
Estadstica
5.5.
mostrado el dado. Y1 = 2X es una nueva variable aleatoria que asigna un valor doble al
definido anteriormente para cada suceso elemental. Sin embargo Y2 = X + X no tiene la
misma interpretacion. En este caso el dado es lanzado dos veces, sumandose la puntacion
obtenida en cada tirada. Los posibles valores de Y1 son {2, 4, 6, 8, 10, 12} mientras que
los de Y2 son {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}. Para evitar confusiones es conveniente asignar
subndices distintos a las variables que representan cada resultado de un determinado
experimento que se repite varias veces, aun cuando cada una de ellas este definida de la
misma forma. En el caso de lanzar un dado dos veces podemos considerar la variable X
definida anteriormente y obtener los posibles resultados como X1 + X2 donde cada Xi
tiene la misma distribucion de probabilidad que la X.
5.5.1.
Sea X una v.a. con funcion de probabilidad f (x) y funcion de distribucion F (x)
e, Y = u(X) otra v.a. con funcion de probabilidad g(y) y funcion de distribucion G(y).
Es decir, tenemos una funcion que relaciona a x e y, y = u(x) x = u1 (y) = w(y).
Entonces
47
-2
-1
P (X = xi )
0.1
0.2
0.2
0.4
0.1
La funcion de distribucion de X es
0.1
0.3
F (x) =
0.5
0.9
x < 2
2 x < 1
1 x < 0
0x<1
1x<2
x2
-4
-2
P (Y = yi )
0.1
0.2
0.2
0.4
0.1
Y, la funcion de distribucion de Y es
G(y) = P (Y y) = P (2X y) = P (X y/2) = F (y/2)
es decir
0.1
0.3
G(y) =
0.5
0.9
y < 4
4 y < 2
2 y < 0
0y<2
2y<4
y4
es decir
g(y) = P (Y = y) = P (X 2 = y) = P ( (X = y ) (X = + y ) ) =
= P (X = y ) + P (X = + y )
48
Estadstica
yi
P (Y = yi )
0.2
0.6
0.2
Y, la funcion de distribucion de Y es
G(y) = P (Y y) = P (X 2 y) = P ( y X + y) =
= P (X = y) + P ( y < X + y) =
= f ( y) + F (+ y) F ( y)
es decir
0.2
G(y) =
0.8
5.5.2.
y<0
0y<1
1y<4
y4
Sea X una v.a. con funcion de densidad f (x) y funcion de distribucion F (x) e,
Y = u(X) otra v.a. con funcion de densidad g(y) y funcion de distribucion G(y). Es decir,
tenemos una funcion que relaciona a x e y, y = u(x) x = u1 (y) = w(y). Entonces
G(y) = P (Y y) = P (u(X) y) = P (X u1 (y)) = P (X w(y)) = F [w(y)]
g(y) = G (y) = F [w(y)] |w (y)| = f [w(y)] |w (y)|
Igual que en el caso de las v.a. discretas, hay que tener cuidado cuando la funcion
u no es biyectiva. Veamos un par de ejemplos para aclarar esto u
ltimo.
Ejemplo.- Sea X una v.a. con funciones de densidad y distribucion
f (x) =
3 2
2x
1 x 1
resto
F (x) =
x < 1
[x3 + 1]
1 x < 1
x1
49
g(y) =
3 2
y
16
2 y 2
G(y) =
resto
y < 2
[(y/2)3 + 1]
2 y < 2
y2
G(y) = P (Y y) = P (X 2 y) = P ( y X + y ) = F (+ y ) F ( y )
1
= f (+ y )
g(y) = G (y) = F (+ y ) 21 y F ( y ) 21
+ f ( y ) 21 y
y
2 y
es decir,
g(y) =
5.5.3.
2 y
0y1
G(y) =
resto
Transformaci
on integral
y y
y<0
0y<1
y1
50
Estadstica
x
1
f (x) =
F (x) =
0 resto
y distribucion
0
1 2
[x
3
x<1
1]
1x<2
x2
= P 3y + 1 X + 3y + 1 = F + 3y + 1 F 3y + 1 =
= F + 3y + 1
3
3
g(y) = F 3y + 1 23y+1
=f
3y + 1 23y+1
=
=
es decir,
2p
3
3y + 1
=1
3
2 3y + 1
g(y) =
5.6.
0y1
0 resto
0
G(y) =
y
y<0
0y<1
y1
Distribuciones truncadas
P ((X A) (X S))
P (X S)
51
P ((X x) (X S))
P (X S)
Ejemplo.- Sea X una v.a. definida en el intervalo E = [xi , xf ] y con funcion de distribucion
F . Dados los sucesos S = {x0 < X x1 } y A = {X x} (Fig. 5.1), entonces la funcion
de distribucion truncada es
P ((X A) (X S))
=
P (X S)
FT (x) = P (X A/X S) =
=
F (x) F (x0 )
,
F (x1 ) F (x0 )
x0 < x x1
P (X = x)
,
F (x1 ) F (x0 )
x0 < x x1
xi
f (x)
,
F (x1 ) F (x0 )
x0 < x x1
x0
x1
A
S
E
xf
52
Estadstica
Momentos de una
variable aleatoria
unidimensional
Indice
6.1. Esperanza matem
atica . . . . . . . . . . . . . . . . . . . . . . .
54
55
56
57
58
. . . . . . . . . . . . . . .
. . . . . . .
60
6.7. Funci
on generatriz de momentos . . . . . . . . . . . . . . . . .
61
6.8. Funci
on caracterstica . . . . . . . . . . . . . . . . . . . . . . . .
62
64
53
54
Estadstica
6.1.
Esperanza matem
atica
xi P (X = xi )
v.a. discreta
= E[X] =
xf (x) dx
v.a. continua
E[T (X)] =
T (xi ) P (X = xi )
v.a. discreta
E[T (X)] =
T (x)f (x) dx
v.a. continua
Entonces
pero,
xn
2n1
P (X = xn )
2n
X
1/2
1
=
=1
P (X = xn ) =
n
2
1 1/2
n=1
n=1
E[X] =
xn P (X = xn ) =
n=1
n1
n=1
X1
1
=
=
2n
2
n=1
f (x) =
Entonces
pero
f (x) dx =
E[X] =
x<1
1
x2
x1
+
xf (x) dx =
1
dx = 1
x2
+
1
dx =
x2
55
X
i
si
|xi |P (X = xi ) <
X
i
xi P (X = xi ) = E[X] <
6.2.
Como casos particulares de funcion de una v.a. se pueden tomar las funciones
T1 (X) = X k y T2 (X) = (X )k con k N. De esta forma, se define el
momento de orden k centrado en el origen de X como
mk = E[X k ] =
xi k P (X = xi )
v.a. discreta
mk = E[X ] =
xk f (x) dx
v.a. continua
Mk = E[(X ) ] =
X
i
(xi )k P (X = xi )
v.a. discreta
m1 = E[X] =
M1 = E[X ] = E[X] = 0
(x )k f (x) dx
v.a. continua
56
Estadstica
Ademas, podemos relacionar los momentos centrados en la media con los momentos
X
i
"
k
0
xi k
k
1
mk
xi k1 +
k
1
"
=
6.3.
k
0
!
k
0
Mk +
k
1
X
i
(xi ) +
1
!
xi k2 2 + + (1)k
mk1 +
mk = E[X k ] = E[(X + )k ] =
X
k P (X = xi ) =
2 mk2 + + (1)k
(xi + )k P (X = xi ) =
(xi )
k1
Mk1 +
++
k
k
Mk2 + +
P (X = xi ) =
k
k
Varianza y desviaci
on tpica
= Var(X) = M2 = E[(X ) ] =
X
i
(xi )2 P (X = xi )
v.a. discreta
(x )2 f (x) dx
v.a. continua
X
i
xi 2 P (X = xi ) + 2 2
X
i
Var(aX + b) = a2 Var(X)
57
Generalmente, resulta mas practico utilizar una medida de la dispersion de los datos
en las mismas unidades que los propios datos, por ello, se define la desviacion tpica como
=
6.4.
p
Var(X)
Mediana (Me) : es el punto que divide la distribucion en dos partes de igual probabilidad
v.a. discreta
P (X xn ) 1/2
P (X x ) 1/2
n
v.a. continua
v.a. discreta
v.a. continua
(0 < p < 1)
n
4
(n = 1, 2, 3)
n
10
(n = 1, . . . , 9)
n
100
(n = 1, . . . , 99)
58
Estadstica
6.5.
(x > 0)
v.a. continua
y, es facil comprobar, que los momentos de orden impar centrados en la media son todos
nulos,
M2n+1 = E[(X )2n+1 ] = 0
n = 0, 1, 2, . . .
Sabemos que M1 = 0 para toda v.a., por tanto, utilizamos el siguiente momento
mas facil de calcular, que es M3 . As, definimos el coeficiente de asimetra o sesgo, como
el escalar adimensional
59
CA =
M3
M3
= 3/2 = " i
3
M2
X
i
M3
M3
CA = 3 = 3/2 = Z
M2
(xi )3 P (X = xi )
(xi )2 P (X = xi )
#3/2
v.a. discreta
(x )3 f (x) dx
3/2
2
(x ) f (x) dx
v.a. continua
de forma que si
Respecto al grado de achatamiento o apuntamiento, parece logico utilizar un coeficiente que tenga en cuenta la dispersion de los datos en torno a la media. En una
distribucion Normal, se cumple
M4
=3
M22
60
Estadstica
CAp =
M4
M4
3 = 2 3 = " i
4
M2
X
i
(xi )4 P (X = xi )
(xi )2 P (X = xi )
v.a. discreta
M4
M4
CAp = 4 3 = 2 3 = Z
+
M2
de forma que si
#2 3
(x )4 f (x) dx
2 3
(x )2 f (x) dx
v.a. continua
6.6.
Sea X una v.a. y g(X) una funcion tal que g(X) 0. Entonces, k > 0 se cumple
P (g(X) k)
E[g(X)]
k
La demostraci
ya que
Z + on es muy sencilla,
Z
Z
E[g(X)] =
g(x)f (x) dx =
g(x)f (x) dx +
g(X)k
g(X)k
g(x)f (x) dx k
g(X)k
g(X)<k
g(x)f (x) dx
f (x) dx = kP (g(X) k)
61
E[g(X)]
k
E[(X )2 ]
=
k2 2
2
=
k2 2
1
P ( k < X < + k) 1 2
k
P (|X | < k) 1
6.7.
Funci
on generatriz de momentos
La funci
on generatriz de momentos asociada a una v.a. X se define como
X
exi P (X = xi ) v.a. discreta
g() = E[eX ] =
i
g() = E[e
]=
ex f (x) dx
v.a. continua
2 2
n n
1 + x + x + + x + f (x) dx =
2!
n!
2
n
= 1 + m1 + m2 + + mn +
2!
n!
es decir, si g() admite desarrollo de Taylor en torno a 0, entonces
dr g()
mr =
dr =0
zarla, hay que saber si la serie o la integral converge. Para evitar este problema, se define
la funcion caracterstica, que estudiamos en el siguiente apartado.
62
Estadstica
6.8.
Funci
on caracterstica
La funci
on caracterstica asociada a una v.a. X se define como
X
(t) = E[eitX ] =
eitxk P (X = xk ) v.a. discreta
k
itX
(t) = E[e
]=
eitx f (x) dx
v.a. continua
E[|sen(tX)|] =
|cos(tx)| f (x) dx
|sen(tx)| f (x) dx
f (x) dx = 1 < +
f (x) dx = 1 < +
|(t)| = |E[e
itX
]| E[ |e
|] =
itx
|e | f (x) dx =
f (x) dx = 1
4 (t) = (t)
(t) = E[ei(t)X ] = E[cos(tX) isen(tX)] = E[cos(tX)] iE[sen(tX)] = (t)
5 Si (t) es la funcion caracterstica asociada a una v.a., X, con funcion de distribucion
F , y a < b son dos puntos de continuidad de F , entonces
Z T iat
1
e
eibt
F (b) F (a) =
lm
(t) dt
2 T T
it
siempre que (t) sea integrable. En particular,
1
lm lm
F (b) = F (b) 0 = F (b) F () =
2 z T
eizt eibt
(t) dt
it
eitx (t) dt
v.a. continua
63
i2
ik
m2 t2 + + mk tk +
2!
k!
(t) = E[eitX ]
= (0) = 1
(t) = E[iXeitX ]
= (0) = E[i2 X 2 ] = i2 m2
dr (t)
dr (0)
r r itX
=
E[i
X
e
]
=
= E[ir X r ] = ir mr
r
r
dt
dt
es decir,
1 dr (t)
mr = r
i dtr t=0
n
Y
Xi (t)
i=1
Es necesario resaltar que, a lo largo de este apartado, hemos visto como dada una v.a.
se puede calcular su funcion caracterstica e incluso, a partir de la funcion caracterstica
podemos calcular el valor de la funcion de distribucion asociada, en un punto. En cambio,
en ning
un momento hemos dado un criterio para saber, dada una funcion cualquiera, (t),
si es la funcion caracterstica asociada a alguna v.a. Veamos con un par de ejemplos, que
la cosa no es sencilla.
1
t R
1 + t4
Esta funcion verifica las siguientes propiedades tpicas de una funcion caracterstica :
64
Estadstica
esta definida en todo R
(0) = 1
(t) = (t)
es uniformemente continua en R
|(t)| 1
Supongamos que (t) es la funcion caracterstica de una v.a. X. Claramente, (t)
1
t R
2 eit
Supongamos que (t) es la funcion caracterstica de una v.a., X, discreta. Como
(t) es un sumatorio de una serie de terminos, vamos a suponer que se trata de una serie
de potencias. As,
(t) =
X
x
1
1/2
1er termino X 1 ixt
e P (x) =
=
=
e
=
x+1
2 eit
1 razon
2
1 12 eit
x=0
itx
es decir, se trata de una v.a. discreta que toma todos los valores enteros no negativos,
1
x, con P (X = x) = x+1 . Si calculamos ahora la funcion caracterstica de esta v.a.,
2
comprobamos facilmente que es (t).
6.8.1.
Y (t) = E[e
it(aX+b)
] = E[e
= eitb
]=
eit(ax+b) f (x) dx =
Variable aleatoria
bidimensional y
n-dimensional
Indice
7.1. Variable aleatoria bidimensional
. . . . . . . . . . . . . . . . .
66
66
7.2.1. Funci
on de probabilidad . . . . . . . . . . . . . . . . . . . . . .
67
7.2.2. Funci
on de distribucion . . . . . . . . . . . . . . . . . . . . . .
67
69
7.3.1. Funci
on de distribucion y funcion de densidad . . . . . . . . . .
69
72
72
73
75
76
78
80
7.7. Funci
on caracterstica de una variable aleatoria bidimensional 81
7.8. Transformaci
on de variables aleatorias bidimensionales . . . .
82
82
82
83
83
84
65
66
Estadstica
7.1.
{Y y}
7.2.
Una v.a. bidimensional, (X, Y ), es discreta cuando las v.a. que la componen, X e
Y , son discretas.
7.2.1.
67
Funci
on de probabilidad
Dada una v.a. bidimensional (X, Y ), la funcion de probabilidad conjunta viene dada
por
P (X = xi , Y = yj ) = pij
1 i, j +
debiendose cumplir
pij 0 i, j
P (X = xi , Y = yj ) =
i=1 j=1
X
X
pij = 1
i=1 j=1
P (X = xi , Y = yj ) = pi
1 i +
P (X = xi , Y = yj ) = pj
1 j +
j=1
v.a. Y
P (Y = yj ) =
X
i=1
P (X = xi ) =
i=1
7.2.2.
P (Y = yj ) = 1
j=1
Funci
on de distribuci
on
Dada una v.a. bidimensional (X, Y ), la funcion de distribucion conjunta viene dada
por
F (xn , ym ) = P (X xn , Y ym ) =
n X
m
X
P (X = xi , Y = yj ) =
i=1 j=1
n X
m
X
pij
i=1 j=1
68
Estadstica
Si y1 < y2
F (x, y1 ) F (x, y2 ) x
n X
X
pij =
n
X
i=1
i=1 j=1
pij =
i=1 j=1
m
X
j=1
P (X = xi , Y = yj ) =
i=1 j=1
pi = P (X xn ) xn
v.a. Y
X
m
X
n X
m
X
X
P (X = xi , Y = yj ) =
i=1 j=1
pj = P (Y ym ) ym
P (Y = yj )
-1
0.01
0.07
0.04
0.12
0.05
0.02
0.11
0.18
0.32
0.14
0.04
0.50
0.06
0.13
0.01
0.20
P (X = xi )
0.44
0.36
0.20
3 X
4
X
Se cumple,
XX
i
P (X = xi , Y = yj ) =
i=1 j=1
69
P (X = xi )
Se cumple,
X
P (X = xi ) =
i=1
v.a. Y
3
X
yj
-1
P (Y = yj )
Se cumple,
X
P (Y = yj ) =
7.3.
4
X
j=1
Una v.a. bidimensional, (X, Y ), es continua cuando las v.a. que la componen, X e
Y , son continuas.
7.3.1.
Funci
on de distribuci
on y funci
on de densidad
Dada una v.a. bidimensional (X, Y ), la funcion de distribucion conjunta viene dada
por
F (x, y) = P (X x, Y y) x, y R
La funcion de distribucion conjunta verifica algunas de las propiedades tpicas de la
funcion de distribucion unidimensional:
(i) F (, ) = F (x, ) = F (, y) = 0
(ii) F (+, +) = 1
70
Estadstica
F (x, y1 ) F (x, y2 ) x R
Si y1 < y2
En el caso de v.a. unidimensionales continuas, a la funcion de distribucion esta asociada la funcion de densidad, que se obtiene derivando la primera. Para las v.a. bidimensionales continuas tambien hay una funcion de densidad conjunta, f (x, y), asociada a la
funcion de distribucion conjunta, de tal forma que
F (x, y) = P (X x, Y y) =
Veamos algunas relaciones importantes
1
f (x, y) 0 x, y R
f (x, y) dxdy
f (x, y) dydx = 1
P (a X b, c Y d) =
b
a
f (x, y) dydx
c
2 F (x, y)
2 F (x, y)
=
= f (x, y) x, y R
x y
y x
f (x, y) dydx =
siendo
fX (x) =
f (x, y) dy x R
fX (x) dx = 1
fX (x) dx
71
v.a. Y
FY (y) = F (+, y) = P (X +, Y y) =
f (x, y) dxdy =
fY (y) dy
siendo
Z
fY (y) =
f (x, y) dx y R
fY (y) dy = 1
f (x, y) dydx =
2
(x + 6y) dydx =
7
2
(x + 3) dx = 1
7
x
0
f (x, y) dydx =
y
0
2
(x + 6y) dydx =
7
2
2 1
1
(xy + 3y 2) dx = ( x2 y + 3xy 2) = xy(x + 6y) 0 x, y 1
7
7 2
7
f (x, y) dy =
2
2
(x + 6y) dy = (x + 3) 0 x 1
7
7
f (x, y) dx =
2
1
(x + 6y) dx = (1 + 12y) 0 y 1
7
7
f (x, y) dydx =
fX (x) dx =
72
Estadstica
=
1
2
(x + 3) dx = x(x + 6) 0 x 1
7
7
f (x, y) dxdy =
fY (y)dy =
2 1
1
2 1
( + 6y) dy = ( y + 3y 2) = y(1 + 6y) 0 y 1
7 2
7 2
7
fX (x) dx =
7.4.
fY (y) = FY (y) 0 y 1
fY (y) dy = 1
Junto con las distribuciones marginales tenemos otras de gran importancia, las distribuciones condicionales, que surgen cuando en la distribucion conjunta se establece una
condicion sobre una de las variables. La distribucion condicional expresa el comportamiento probabilstico de una variable aleatoria, cuando la otra esta sujeta a ciertas condiciones.
Partimos de la definicion de probabilidad condicional de dos sucesos
P (A/B) =
P (A B)
P (B)
7.4.1.
Sea (X, Y ) una v.a. bidimensional discreta con funcion de probabilidad conjunta
P (X = xi , Y = yj ) = pij
Definimos la funcion de distribucion de la variable Y condicionada por la variable
X, {Y|X } como
P (X = xn , Y ym )
F (ym |xn ) = P (Y ym |X=xn ) =
=
P (X = xn )
m
X
pnj
j=1
pn
73
P (X xn , Y = ym )
F (xn |ym ) = P (X xn |Y =ym ) =
=
P (Y = ym )
n
X
pim
i=1
pm
P (xr < X xs , Y ym )
P (Y ym |xr <Xxs ) =
=
P (xr < X xs )
s
m
X
X
pij
i=r+1 j=1
s
X
pi
i=r+1
P (X xn , Y ym )
P (Y ym |Xxn ) =
=
P (X xn )
n X
m
X
pij
i=1 j=1
n
X
pi
i=1
7.4.2.
Sea (X, Y ) una v.a. bidimensional discreta con funcion de densidad conjunta
f (x, y)
x, y +
74
Estadstica
P (x < X x + , Y y)
= lm
= lm
0
0
P (x < X x + )
x+
f (x, y) dydx
x+
fX (x) dx
Z
= lm
x+
x+
f (x, y) dx
dy
2
f (x, y) dy
fX (x)
fX (x) dx
f (x, y)
dy =
fX (x)
f (y|x) dy y R
f (x, y)
dx =
fY (y)
f (x|y) dx x R
f (x, y)
x R
fY (y)
es decir, f (x|y) es la funcion de densidad de la variable aleatoria X condicionada por el
f (x|y) =
f (x, y) dydx
fX (x) dx
P (a X b, Y y)
=
P (Y y|aXb ) =
P (a X b)
75
f (x, y) dydx
Z b
fX (x) dx
7.5.
pij = pi pj
i, j
v.a. discreta
76
Estadstica
7.6.
Dada una v.a. bidimensional (X, Y ), se pueden definir los momentos de orden r y s
centrados en el origen o centrados en las medias.
Momento de orden r y s centrado en el origen
mrs = E[X r Y s ] =
XX
xri yjs P (X = xi , Y = yj )
i j
xr y s f (x, y) dxdy
X = m10 = E[X] =
Y = m01 = E[Y ] =
XX
X
x
P
(X
=
x
,
Y
=
y
)
=
xi pi
i
i
j
i
i j
xf (x, y) dxdy =
xfX (x) dx
XX
X
y
P
(X
=
x
,
Y
=
y
)
=
yj pj
j
i
j
j
i j
yf (x, y) dxdy =
yfY (y) dy
Como puede comprobarse, los momentos de primer orden centrados en el origen m10
y m01 son, respectivamente, las medias, X y Y , de las distribuciones marginales X e Y .
77
x
P
(X
=
x
,
Y
=
y
)
=
x2i pi
i
j
i
i
i j
m20 = E[X 2 ] =
m02 = E[Y 2 ] =
x f (x, y) dxdy =
x2 fX (x) dx
XX
X
2
y
P
(X
=
x
,
Y
=
y
)
=
yj2 pj
i
j
j
j
i j
m11 = E[XY ] =
y f (x, y) dxdy =
y 2 fY (y) dy
XX
xi yj P (X = xi , Y = yj )
i
j
Mrs = E[(X X )r (Y Y )s ] =
XX
(xi X )r (yj Y )s P (X = xi , Y = yj )
i j
(x X )r (y Y )s f (x, y) dxdy
M10 = E[X X ] =
M01 = E[Y Y ] =
XX
X
(x
)
P
(X
=
x
,
Y
=
y
)
=
(xi X ) pi = 0
i
X
i
j
i
i j
(x X )f (x, y) dxdy =
(x X )fX (x) dx = 0
XX
X
(yj Y ) P (Y = xi , Y = yj ) =
(yj Y ) pj = 0
i
j
i
(y Y )f (x, y) dxdy =
(y Y )fY (y) dy = 0
78
Estadstica
2 =M
2
X
20 = E[(X X ) ] =
Y2 = M02 = E[(Y Y )2 ] =
XX
X
2
(x
)
P
(X
=
x
,
Y
=
y
)
=
(xi X )2 pi
i
X
i
j
i
i j
(x X )2 f (x, y) dxdy =
(x X )2 fX (x) dx
XX
X
2
(y
)
P
(Y
=
x
,
Y
=
y
)
=
(yj Y )2 pj
j
Y
i
j
i
i j
(y Y ) f (x, y) dxdy =
(y Y )2 fY (y) dx
XX
(xi X )(yj Y ) P (X = xi , Y = yj )
i j
Como puede comprobarse, los momentos de segundo orden centrados en las medias
2
M20 y M02 son, respectivamente, las varianzas, X
y Y2 , de las distribuciones marginales
X e Y.
El momento de segundo orden centrado en las medias M11 se denomina covarianza
de la v.a. bidimensional (X, Y ) y la notaremos por XY o Cov(X, Y ).
7.6.1.
2 Covarianza
XY
79
Ahora, veamos algunas propiedades de las varianzas y la covarianza. Sea (X, Y ) una
v.a. bidimensional
1 Var(aX + b) = a2 Var(X)
2 Var(aX + bY ) = a2 Var(X) + b2 Var(Y ) + 2abCov(X, Y )
E[aX + bY ] = aE[X] + bE[Y ] = aX + bY
Var(aX + bY ) = E [((aX + bY ) E[(aX + bY )])2 ] =
= E [((aX + bY ) (aX + bY ))2 ] =
= E [((aX aX ) + (bY bY ))2 ] =
= E [(aX aX )2 + (bY bY )2 + 2(aX aX )(bY bY )] =
= a2 E[(X X )2 ] + b2 E[(Y Y )2 ] + 2abE[(X X )(Y Y )] =
= a2 Var(X) + b2 Var(Y ) + 2abCov(X, Y )
3 Si X e Y son independientes, entonces Cov(X, Y ) = 0
Si X e Y son independientes, entonces
f (x, y) = fX (x)fY (y)
Z + Z +
Z
E[XY ] =
xyf (x, y) dydx =
Z
Z
xfX (x) dx
yfY (y) dy
= E[X]E[Y ]
80
Estadstica
7.6.2.
Coeficiente de correlaci
on lineal
En el captulo 6, vimos que la varianza de una v.a. unidimensional nos da una idea
del grado de dispersion de los valores que toma la variable respecto a su media. Es decir,
la varianza es una medida de dispersion. Sin embargo, lo que generalmente se utiliza es
la raz cuadrada de la varianza, o sea la desviacion tpica, y as trabajar con las mismas
unidades que la media.
La covarianza, en cambio, es un momento que se refiere a una v.a. bidimensional,
(X, Y ), y da una idea del grado de asociacion lineal que existe entre ambas variables.
As, si Cov(X, Y ) > 0, hay una relacion lineal positiva entre X e Y en el sentido de, a
valores grandes de X le corresponden valores grandes de Y y viceversa; mientras que si
Cov(X, Y ) < 0, hay una relacion lineal negativa entre X e Y en el sentido de, a valores
grandes de X le corresponden valores peque
nos de Y , y viceversa. Si Cov(X, Y ) = 0, no
hay relacion lineal entre ellas.
Para medir el grado de relacion lineal entre dos variables, conviene trabajar con un
parametro adimensional. Para ello, se define el coeficiente de correlacion lineal,, como
= p
Cov(X, Y )
Var(X)Var(Y )
XY
X Y
2
Cov2 (X, Y )
= 2XY2
Var(X)Var(Y )
X Y
El concepto de asociacion lineal se estudiara mas adelante, por lo que, ahora, solo
nos detenemos en observar que
1 1
0 2 1
7.7.
81
Funci
on caracterstica de una variable aleatoria
bidimensional
Sea (X, Y ) una v.a. bidimensional con funcion de probabilidad conjunta dada por
P (X = x, Y = y) si es discreta, o funcion de densidad conjunta f (x, y) si es continua. Se
define la funcion caracterstica conjunta como,
XX
eit1 x+it2 y P (X = x, Y = y)
x y
mrs,s = E[X
rs
1 r (t1 , t2 )
Y ]= r
i t1rs ts2 t1 =0,t2 =0
s
82
Estadstica
Si, ademas, X e Y son independientes, entonces
7.8.
Transformaci
on de variables aleatorias bidimensionales
7.8.1.
Una funci
on de dos variables aleatorias
Sean X e Y dos variables aleatorias con distribucion conjunta conocida f (x, y).
Consideremos una nueva variable aleatoria Z definida mediante la funcion Z = g(X, Y ).
Definamos z R el subconjunto de R2
Dz (x, y) R2 tales que g(x, y) z
distribucion de la variable Z es
FZ (z) = P (Z z) = P ((X, Y ) Dz ) =
7.8.2.
Z Z
f (x, y) dxdy
Dz
Supongamos ahora que dadas X e Y con distribucion conjunta conocida f (x, y),
queremos calcular la distribucion de un par de variables Z y W dadas por
Z = g(X, Y )
W = h(X, Y )
Definamos en subconjunto de R2
Dzw (x, y) R2 tales que g(x, y) z , h(x, y) w
Z Z
Dzw
f (x, y) dxdy
7.8.3.
P (X = xi , Y = yj ) = pij
definimos la transformacion biunvoca
U = u(X, Y )
V = v(X, Y )
La funcion de probabilidad conjunta de la nueva v.a. bidimensional (U, V ) sera
P (U = ur , V = vs ) = P ((X, Y ) S) =
7.8.4.
(xi ,yj )S
P (X = xi , Y = yj ) 1 r, s +
f (x, y)
definimos la transformacion biunvoca
U = u(X, Y )
V = v(X, Y )
La funcion de densidad conjunta de la nueva v.a. bidimensional (U, V ) sera
g(u, v) = f (x(u, v), y(u, v))|J|
u, v +
=
y
v
x
v
u
x
v
x
1
v
y
u
y
83
84
Estadstica
7.9.
v.a. continua
P (Xr = xr ) =
X
x1
fXr (xr ) =
X X
xr1 xr+1
P (X1 = x1 , . . . , Xn = xn )
v.a. discreta
xn
Distribuciones de
probabilidad
discretas
Indice
8.1. Distribuci
on de Bernoulli, B(1, p) . . . . . . . . . . . . . . . . .
86
8.2. Distribuci
on Binomial, B(n, p)
. . . . . . . . . . . . . . . . . .
86
88
89
8.3. Distribuci
on de Poisson, P() . . . . . . . . . . . . . . . . . . .
89
90
91
92
8.4. Distribuci
on Hipergeom
etrica, H(n, N, A)
. . . . . . . . . . .
92
8.5. Distribuci
on Geom
etrica, G(p) . . . . . . . . . . . . . . . . . .
94
8.6. Distribuci
on Binomial Negativa, BN(r, p) . . . . . . . . . . . .
95
96
85
86
Estadstica
8.1.
Distribuci
on de Bernoulli, B(1, p)
es
P (X = x) = px q 1x
1
X
x = 0, 1
P (X = x) = P (X = 0) + P (X = 1) = p + q = 1
x=0
Esperanza y Varianza
E[X]
1
X
x=0
xP (X = x) = 0 P (X = 0) + 1 P (X = 1) = p
1
X
x=0
x2 P (X = x) p2 =
= 02 P (X = 0) + 12 P (X = 1) p2 = p p2 = p(1 p) = pq
E[X] = p
Var(X) = pq
Funcion Caracterstica
(t) = E[eitX ] =
1
X
x=0
(t) = q + p eit
8.2.
Distribuci
on Binomial, B(n, p)
Si realizamos un experimento de Bernoulli n veces, siempre en las mismas condiciones, y nos interesamos por el n
umero de exitos obtenidos, tenemos una distribucion
Binomial B(n, p), con funcion de probabilidad
!
n
P (X = x) =
px q nx
x
x = 0, 1, 2, . . . , n
n
X
P (X = x) =
x=0
n
X
n
x
x=0
87
px q nx = (p + q)n = 1
Funcion Caracterstica
itX
(t) = E[e
]=
n
X
itx
e P (X = x) =
n
X
x=0
x=0
n
x
(0)
= np
i
E[X] = np
Varianza
(t) = npi2 eit [(p eit + q)n1 + (n 1)p eit (p eit + q)n2]
(0) = npi2 [1 + (n 1)p] = i2 [np + (np)2 np2 ]
E[X 2 ] =
(0)
= np + (np)2 np2
i2
n
x1
y = 0, 1, 2, . . . , n.
px1 q nx+1 =
n!
p
q
n!
px q nx >
px1 q nx+1 =
>
=
x! (n x)!
(x 1)! (n x + 1)!
x
nx+1
88
Estadstica
x < (n + 1)p
Por otra parte,
P (X = x) > P (X = x + 1) =
n
x
px q nx >
n
x+1
px+1 q nx1 =
n!
n!
q
p
px q nx >
px+1 q nx1 =
>
=
x! (n x)!
(x + 1)! (n x 1)!
nx
x+1
(n + 1)p 1 < x
Por tanto,
(n + 1)p 1 < x < (n + 1)p
es decir, la moda es el n
umero entero, x, no negativo, que se encuentra entre los
valores (n + 1)p 1 y (n + 1)p. Si (n + 1)p es un n
umero entero no negativo, entonces
x1 = (n + 1)p 1
x2 = (n + 1)p
8.2.1.
Teorema de adici
on para distribuciones Binomiales
Y = X1 + + Xr B(n1 + + nr , p)
Para demostrarlo, utilizamos las funciones caractersticas de las variables Xk , y el
hecho de que son independientes,
Xk (t) = (q + p eit )nk
k = 1, 2, . . . , r
8.2.2.
89
Distribuci
on de la proporci
on
Y (t) = E[e
it X
n
] = E[e
i nt X
] = E[e
]=
X ( nt )
1
1
X
= E[X] = np = p
E[Y ] = E
n
n
n
Var(Y ) = Var
8.3.
X
n
n
i nt
= q +pe
1
1
pq
Var(X)
=
npq
=
n2
n2
n
Distribuci
on de Poisson, P()
P (X = x) =
x=0
X
x
x=0
x!
=e
x
e
x!
X
x
x=0
x!
x = 0, 1, 2, . . .
= e e = 1
Funcion Caracterstica
itX
(t) = E[e
]=
itx
e P (X = x) = e
X
(eit )x
x=0
x=0
(t) = e(e
it 1)
x!
it
= e ee = e(e
it 1)
90
Estadstica
Esperanza
(t) = ieit e(e
it 1)
= (0) = i = E[X] =
(0)
=
i
E[X] =
Varianza
(t) = i2 eit e(e
E[X 2 ] =
it 1)
[1 + eit ] = (0) = i2 ( + 2 )
(0)
= + 2 = Var(X) = E[X 2 ] (E[X])2 = + 2 2 =
i2
Var(X) =
Moda
Supongamos que la moda es x, entonces,
x
x1
P (X = x) > P (X = x 1) =
e >
e
= x <
x!
(x 1)!
P (X = x) > P (X = x + 1) =
x+1
x
e >
e
= x > 1
x!
(x + 1)!
Por tanto,
1<x<
es decir, la moda es el n
umero entero, x, no negativo, que se encuentra entre 1 y
. Si es un n
umero entero no negativo, entonces la distribucion tiene dos modas :
x1 = 1
x2 =
8.3.1.
Teorema de adici
on para distribuciones de Poisson
Y = X1 + + Xn P(1 + + n )
Para demostrarlo, utilizamos las funciones caractersticas de las variables Xk , y el
hecho de que son independientes,
Xk (t) = ek (e
it 1)
91
k = 1, 2, . . . , n
it 1)
en (e
it 1)
it 1)
8.3.2.
Probabilidad condicional
P (X1 = x, X1 + X2 = y)
P (X1 = x, X2 = y x)
P X1 = x|X1 +X2 =y =
=
=
P (X1 + X2 = y)
P (X1 + X2 = y)
P (X1 = x)P (X2 = y x)
=
=
P (X1 + X2 = y)
x1 yx
y!
2
=
=
x! (y x)! (1 + 2 )y
y
x
yx
x
1 1 2
e
e2
x!
(yx)!
(1 +2 )y (1 +2 )
e
y!
!
1
1 + 2
x
2
1 + 2
yx
1
,
1 +2
es decir
X1|X1 +X2
B n = y, p =
1
1 + 2
92
Estadstica
8.3.3.
Aproximaci
on de una Binomial por una Poisson
0
n
n
p0
lm
n
p0
x
n!
= lm
n x! (n x)! nx
n
x
px q nx = lm
nx
1
n
!
nx
x
1
=
n
n
x
1
x
n!
lm
=
x! n nx (n x)!
1
lm 1
x
n(n 1) [n (x 1)] n
=
lm
x! n
nx
lm 1
n
n
n
x =
n
n
x
n
x =
lm 1
=
x! n
n
! n
x
1
= e = P (P() = x)
=
lm 1 + n
x! n
x!
8.4.
Distribuci
on Hipergeom
etrica, H(n, N, A)
En urna hay N bolas de las cuales, A son blancas y N A son negras. La probabilidad
de sacar una bola blanca es p = A/N. Extraemos n bolas, bien sacando todas a la vez o
bien una a una sin reemplazamiento, y definimos la v.a. X como el n
umero de bolas
blancas entre las n extradas, entonces,
A
x
P (X = x) =
93
!
N A
N
n
nx
!
x = 0, 1, 2, . . . , n
!
=
!
x
n
x
N
N
x=0
x=0
n
N
n
=1
Esperanza
!
A
E[X] =
n
X
xP (X = x) =
n
X
nx
!
N
A!
=
x
x! (A x)!
x=1
n1
X
y=0
=A
A1
x1
!
N
n
A1
y
!
N
n
N A
nx
!
nx
!
n
X
x=1
x=1
=A
N
n
N A
n
X
=A
x=0
x=0
n
X
N A
=A
n1
A
=
n
X
N A
N
x=1
nx
!
N A
nx
!
N
(A 1)!
(x 1)! (A x)!
A1
n1
X
(N 1) (A 1)
y=0
(N 1) (A 1)
(n 1) y
!
N 1
(n 1) y
!
N
n
=n
A
= np
N
94
Estadstica
E[X] = n
A
= np
N
Varianza
N n A
Var(X) =
n
N 1 N
8.5.
A
(N n)np(1 p)
1
=
N
N 1
Distribuci
on Geom
etrica, G(p)
P (X = x) =
x=0
pq = p
x=0
qx = p
x=0
Funcion de distribucion
F (x) =
x
X
k=0
P (X k) =
x = 0, 1, 2, . . .
1
1
=p =1
1q
p
x
X
p qk = p
k=0
1 qxq
= 1 q x+1
1q
Funcion Caracterstica
(t) = E[eitX ] =
eitx P (X = x) = p
x=0
X
x=0
(t) =
(q eit )x =
p
1 q eit
p
1 q eit
Esperanza
(t) = ipq
eit
1
q
(0)
q
(0)
=
ipq
=
i
=
E[X]
=
=
(1 q eit )2
(1 q)2
p
i
p
E[X] =
q
p
95
Varianza
(t) = i2 pq eit
(0) = i2 pq
E[X 2 ] =
(1 q)2 + 2q(1 q)
2 q
=
i
(p + 2q)
(1 q)4
p2
q
(0)
= 2 (p + 2q)
2
i
p
qp + q 2
q(p + q)
q
qp + 2q 2 q 2
=
=
= 2
2
2
2
2
p
p
p
p
p
Var(X) =
8.6.
q
p2
Distribuci
on Binomial Negativa, BN(r, p)
P (X = x) =
En general, si a R y n N, se define
!
a
= (1)n
n
pr q x
x = 0, 1, 2, . . .
a+n1
n
r
x
pr q x =
r
x
pr (q)x
X
X
r
P (X = x) =
pr (q)x = pr (1 q)r = 1
x
x=0
x=0
x = 0, 1, 2, . . .
96
Estadstica
Funcion Caracterstica
itX
(t) = E[e
]=
itx
e P (X = x) = p
x=0
X
x=0
(t) =
p
1 q eit
r
x
it x
(q e ) =
p
1 q eit
r
r
Esperanza
(t) = ipr qr
eit
1
q
(0)
q
r
=
(0)
=
ip
qr
=
i
r
=
E[X]
=
= r
it
r+1
r+1
(1 q e )
(1 q)
p
i
p
q
E[X] = r
p
Varianza
(t) = i2 pr qr eit
(0) = i2 pr qr
p + (r + 1)q
(1 q)r+1 + (r + 1)q(1 q)r
= i2 qr
2r+2
(1 q)
p2
(0)
p + (r + 1)q
E[X ] =
= qr
2
i
p2
2
=
=
= 2r
2
2
2
2
p
p
p
p
p
Var(X) =
8.6.1.
q
r
p2
Teorema de adici
on para distribuciones Binomiales Negativas
Y = X1 + + Xn BN(r1 + + rn , p)
97
pr k
(1 q eit )rk
k = 1, 2, . . . , n
pr n
pr 1
=
(1 q eit )r1
(1 q eit )rn
pr1 ++rn
(1 q eit )r1 ++rn
98
Estadstica
Distribuciones de
probabilidad
continuas
Indice
9.1. Distribuci
on Uniforme, U(a, b) . . . . . . . . . . . . . . . . . . 100
9.2. Distribuci
on Normal, N(, ) . . . . . . . . . . . . . . . . . . . 101
9.2.1. Teorema de adici
on para distribuciones Normales . . . . . . . . 103
9.2.2. Distribucion Normal est
andar . . . . . . . . . . . . . . . . . . . 104
9.3. Distribuci
on Log-Normal, Log-N(, ) . . . . . . . . . . . . . . 105
9.4. Distribuci
on 2 de Pearson, 2n . . . . . . . . . . . . . . . . . . 107
9.4.1. Teorema de adici
on para distribuciones 2 de Pearson . . . . . 108
9.5. Distribuci
on t-Student, tn . . . . . . . . . . . . . . . . . . . . . 109
9.6. Distribuci
on F-Snedecor, Fn,m
. . . . . . . . . . . . . . . . . . 110
9.7. Distribuci
on Exponencial, Exp()
. . . . . . . . . . . . . . . . 111
99
100
Estadstica
9.1.
Distribuci
on Uniforme, U(a, b)
Una v.a. X se dice que sigue una distribucion Uniforme, X U(a, b), si su funcion
de densidad es de la forma
f (x) =
1
ba
si a < x < b
a
f (x) dx =
1
dx = 1
ba
Funcion de Distribucion
Z +
Z
F (x) =
f (x) dx =
x
a
xa
1
dx =
ba
ba
ax<b
Esperanza y Varianza
E[X] =
xf (x) dx =
E[X ] =
x
b+a
=
ba
2
+
2
x f (x) dx =
x2
b2 + a2 + ab
=
ba
3
b2 + a2 + ab
E[X] =
Funcion Caracterstica
Z
itX
(t) = E[e ] =
b+a
2
1
e f (x) dx =
ba
itx
Var(X) =
(t) =
b+a
2
eibt eiat
i(b a)t
(b a)2
12
(b a)2
12
2
eitx dx =
eibt eiat
i(b a)t
t R
9.2.
101
Distribuci
on Normal, N(, )
Una v.a. X se dice que sigue una distribucion Normal, X N(, ), si su funcion
de densidad es de la forma
1
f (x) =
2
e 2
2
x +
Z +
Z +
2
1
1
1 2
12 ( x
)
f (x) dx =
dx =
e
e 2 u du =
2
2
Z +
Z +
2
1
1
1 2
=
e 2 u du =
z 1/2 ez dz = (1/2) = 1
0
2 0
Funcion Caracterstica
itX
(t) = E[e
]=
1
=
2
1
=
2
1
2 2
1
2 2
eitx e 2 (
1
[(x)2 22 itx] dx = 1
2
h
(x(+2 it))
12
x 2
) dx =
+2 (+2 it)2
dx =
2 (+ 2 it)2
2 2
1
e f (x) dx =
2
itx
x ( + 2 it)
dx =
e 22 [x
1
2 2(+ 2 it)x+2
] dx =
102
Estadstica
4 t2 2 2 it
2 2
12 u2
2 2
1 2 2
eit 2 t
2 = eit 2 t
du =
2
(t) = eit 2
2 t2
Esperanza
1
(t) = (i 2 t)eit 2
2 t2
= (0) = i = E[X] =
(0)
=
i
E[X] =
Varianza
1
2 t2
= (0) = 2 + i2 2
(0)
= 2 + 2
i2
M3 =
D=
(0)
(0)
=
= 3 2 + 3
3
i
i
3
0
m3
3
1
m2 +
3
2
m1 2
M3
=0
3
3
3
3 = 0
103
Coeficiente de curtosis
(iv (0) = 3 4 6i2 2 2 + i4 4
m4 =
M4 =
C=
(iv (0)
= 3 4 + 6 2 2 + 4
i4
4
0
m4
4
1
m3 +
m2 2
4
3
m1 3 +
4
4
4 = 3 4
M4
3 =0
4
9.2.1.
Teorema de adici
on para distribuciones Normales
q
2 2
2
2
Y = b + a1 X1 + + an Xn N b + a1 1 + + an n , a1 1 + + an n
Para demostrarlo, utilizamos las funciones caractersticas de las variables Xk , y el
hecho de que son independientes,
1
2 2
Xk (t) = eik t 2 k t
k = 1, 2, . . . , n
Y (t) = E[eitY ] = E ei(b+a1 X1 ++an Xn )t = E eibt eia1 tX1 eian tXn =
= eibt E[eia1 tX1 ] E[eian tXn ] =
= eibt X1 (a1 t) Xn (an t) =
1
2 2 2
2 2 2
2 2
104
Estadstica
Pero, esta es la funcion caracterstica de una distribucion Normal con media =
suma de n variables aleatorias independientes es Normal, entonces cada una de las variables sigue una distribucion Normal. Por otra parte, la distribucion Normal nunca puede
obtenerse exactamente como suma de variables aleatorias no Normales.
9.2.2.
Distribuci
on Normal est
andar
x +
Funcion caracterstica
1 2
(t) = e 2 t
t R
Como = 0, los momentos respecto a la media coinciden con los momentos respecto
al origen, es decir, Mk = mk k.
Como la distribucion es simetrica, los momentos de orden impar son todos nulos,
m2k+1 = 0 k = 0, 1, 2, . . .
Los momentos de orden par verifican
m2k =
(2k)!
2k k!
k = 0, 1, 2, . . .
En general, siempre podemos pasar de una N(, ) a una N(0, 1) (lo que se llama
tipificar la variable N(, )) y viceversa, por medio de una transformacion lineal.
2
N(, ) N(0, 1)
Sea Y N(, ), entonces la nueva v.a.
X=
Y
N(0, 1)
105
N(0, 1) N(, )
9.3.
Distribuci
on Log-Normal, Log-N(, )
1
1
= fX (Ly)
y
y
1 Ly 2
1
e 2 ( )
y 2
y0
g(y) dy =
y 2
12 ( Ly
)
dy =
1 x 2
1
e 2 ( ) dx = 1
2
106
Estadstica
Esperanza
E[Y ] =
1
=
2
1
=
2
12 ( x
)
e 2 (
1
Ly 2
) dy =
1
e dx =
2
x
e 22 [(x)
1
2 2 2 x
] dx =
2 ))2 +2 (+ 2 )2
] dx =
e+ 2
=
2
e 22 [(x(+
e 22 ( (+
=
2
1
1
yg(y) dy =
2
2 )2 )
12
x(+ 2 )
dx =
2
1 2
e+ 2
2 = e+ 2
2
e 2 u du =
1
+ 2
2
E[Y ] = e
Varianza
2
E[Y ] =
1
y g(y) dy =
2
2
1
=
2
12 ( x
)
1
=
2
ye 2 (
1
Ly 2
) dy =
1
e dx =
2
2x
e 22 [(x(+2
1
e 22 [(x)
1
2 4 2 x
2 ))2 +2 (+2 2 )2
] dx =
e 22 ( (+2
=
2
2
e2+2
=
2
2 )2 )
12
x(+2 2 )
2
dx =
21 u2
e2+2
2
2 = e2+2
du =
2
2
Var(Y ) = e 1 e2 +
] dx =
107
Distribuci
on 2 de Pearson, 2n
9.4.
f (x) =
2n/2
n x 2 1 e 2
x0
f (x) dx =
2n/2
1
2n/2
n
2
x 2 1 e 2 dx =
n
2 2 1 u 2 1 eu 2 du =
n
1
n
=1
2
Funcion caracterstica
itX
(t) = E[e
]=
+
itx
e f (x) dx =
1
2n/2
n
2
1
2n/2
n
x 2 1 e( 2 it)x dx =
eitx x 2 1 e 2 dx =
108
Estadstica
1
2n/2
n
2
1
= n
1
1 2it
2
1 2it
n2
n2 1
n
2
u 2 1 eu
1
1 2it
2
du =
1 2it
n2
(t) = (1 2it)n/2
Esperanza
(t) = in(1 2it)1n/2 = (0) = in = E[X] =
(0)
=n
i
E[X] = n
Varianza
(t) = i2 n(n + 2)(1 2it)2n/2 = (0) = i2 n(n + 2)
E[X 2 ] =
(0)
= n2 + 2n
2
i
9.4.1.
Teorema de adici
on para distribuciones 2 de Pearson
Y = X1 + + Xr 2n1 ++nr
Para demostrarlo, utilizamos las funciones caractersticas de las variables Xk , y el
hecho de que son independientes,
Xk (t) = (1 2it)nk /2
k = 1, 2, . . . , r
109
n1 ++nr
2
9.5.
Distribuci
on t-Student, tn
n+1
n+1
2
x2
2
n 1 +
f (x) =
n
n
2
xR
f (x) dx = 1 =
n
n+1
+
n
2
x2
2
1+
dx =
n
+
1
n
110
Estadstica
Esperanza
n+1
n+1
Z +
Z +
2
x2
2
n
E[X] =
dx = 0
xf (x) dx =
x 1+
n
n
2
E[X] = 0 (n > 1)
Varianza
E[X 2 ]
n+1
n+1
Z +
Z +
2
x2
2
2
2
n
=
dx =
x f (x) dx =
x 1+
n
n
2
n+1
n1
Z +
2
x2
n
2
n
1+
=
dx =
n 1
n
n
2
n+1
n2
n
n
n
2
2
n
=
=
n1
n1
n2
n
2
2
n
n2
Var(X) =
9.6.
n
n2
(n > 2)
Distribuci
on F-Snedecor, Fn,m
111
sigue una distribucion F-Snedecor con n y m grados de libertad, Fn,m , con funcion de
densidad
n
f (x) =
n+m
m
2
n m
2
2
n/2
m/2
x 2 1 (m + nx)
n+m
2
x0
m
m2
(m > 2)
Varianza
Var[X] =
Si
9.7.
X Fn,m
2m2 (n + m 2)
n (m 2)2 (m 4)
(m > 4)
1
Fm,n
X
Distribuci
on Exponencial, Exp()
Una v.a. X se dice que sigue una distribucion Exponencial de parametro > 0,
X Exp(), si su funcion de densidad es de la forma
f (x) = ex
x0
112
Estadstica
f (x) dx =
ex dx = 1
Funcion de distribucion
F (x) =
f (x) dx =
ex dx = 1 ex
Funcion caracterstica
itX
(t) = E[e
]=
+
itx
e f (x) dx =
(t) =
e(it)x dx =
it
it
Esperanza
(t) =
i
i
(0)
1
(0)
=
=
E[X]
=
=
2
( it)
E[X] =
Varianza
(t) =
2i2
( it)3
(0) =
2i2
2
113
2
(0)
= 2
2
i
2
1
1
2 = 2
2
9.7.1.
1
2
Teorema de adici
on para distribuciones Exponenciales
Y = X1 + + Xn Er(n, )
Para demostrarlo, utilizamos las funciones caractersticas de las variables Xk , y el
hecho de que son independientes,
Xk (t) =
it
k = 1, 2, . . . , n
=
= X1 (t) Xn (t) =
it
it
it
n
9.8.
Distribuci
on de Erlang Er(n, )
Una v.a. X se dice que sigue una distribucion de Erlang de parametros n y > 0,
X Er(n, ), si su funcion de densidad es de la forma
f (x) =
n
f (x) dx =
(n)
n n1 x
x
e
(n)
+
n1 x
1
=
(n)
n
dx =
(n)
un1 eu du =
x0
Z
u n1
eu
1
(n) = 1
(n)
1
du =
114
Estadstica
itX
(t) = E[e
]=
n
=
(n)
n
e f (x) dx =
(n)
itx
u
it
n1
1
n
(n) =
=
(n) ( it)n
xn1 e(it)x dx =
n
1
1
du =
it
(n) ( it)n
it
(t) =
un1 eu du =
n
it
n
Esperanza
(t) =
nn i
ni
(0)
n
(0)
=
=
E[X]
=
=
n+1
( it)
E[X] =
Varianza
(t) =
n(n + 1)n i2
( it)n+2
(0) =
n(n + 1)i2
2
115
n(n + 1)
(0)
=
2
i
2
9.8.1.
n(n + 1) n2
n
2 = 2
2
n
2
Teorema de adici
on para distribuciones de Erlang
Y = X1 + + Xr Er(n1 + + nr , )
Para demostrarlo, utilizamos las funciones caractersticas de las variables Xk , y el
hecho de que son independientes,
Xk (t) =
it
nk
k = 1, 2, . . . , r
it
n1
it
nr
it
n1 ++nr
9.9.
Relaci
on entre las distribuciones de Poisson, Exponencial y Erlang
En la seccion 8.3, definimos la v.a. de Poisson, P(), como la variable que cuenta
el n
umero de eventos que ocurren por unidad de tiempo o espacio, siendo el n
umero
medio de estos eventos que ocurren por unidad de tiempo o espacio. Logicamente, el
n
umero medio de eventos que ocurren en t unidades de tiempo o espacio sera ( t), por
tanto, la v.a. que cuenta el n
umero de eventos que ocurren en t unidades de tiempo o
espacio sigue una distribucion de Poisson, P( t), de parametro ( t). As, sean
116
Estadstica
X P()
N
umero de eventos de Poisson que ocurren en una unidad de
tiempo
P (X = x) = P (ocurran x eventos en una unidad de tiempo) =
=
x
e
x!
x = 0, 1, 2, . . .
Xt P(t) N
umero de eventos de Poisson que ocurren en t unidades de
tiempo
(t)x t
e
x!
x = 0, 1, 2, . . .
(t)0
= 1 et
0!
117
Como los sucesos de Poisson ocurren de forma independiente, una vez que ocurre un
suceso de Poisson, ese instante es el origen de tiempos para el suceso siguiente, es decir
9.10.
Distribuci
on de Weibull, W(r, )
Se dice que la variable aleatoria Y sigue una distribucion de Weibull de parametros r > 0
y , Y W(r, ), si es
Y = X 1/r
118
Estadstica
gY (y) = r y r1ey
y0
Esperanza
E[Y ] = E[X
1/r
]=
+
1/r
fX (x) dx =
1+
1
r
1+ r
r1
E[Y ]
= E[X
]=
2
r
1+ r
1
r
+
2/r
fX (x) dx =
1+
x1/r ex dx =
1
1+
r
Varianza
2/r
E[Y ] = 1/r 1 +
x2/r ex dx =
r2
2
1+
r
2
Var(Y ) = E[Y 2 ] (E[Y ])2 = r 1 + 2r 2 1 + 1r
Var(Y ) = 2/r 1 + 2r 2 1 + 1r
9.11.
Distribuci
on Gamma, G(p, q)
Una v.a. X se dice que sigue una distribucion Gamma de parametros p > 0 y q > 0,
X G(p, q), si su funcion de densidad es de la forma
q p p1 qx
x e
x0
(p)
Como se puede comprobar, la distribucion de Erlang es un caso particular de la
f (x) =
q
q it
p
119
9.11.1.
p
q
Var[X] =
p
q2
Teorema de adici
on para distribuciones Gamma
Y = X1 + + Xn G(p1 + + pn , q)
Para demostrarlo, utilizamos las funciones caractersticas de las variables Xk , y el
hecho de que son independientes,
Xk (t) =
q
q it
pk
k = 1, 2, . . . , n
q
q it
p1
q
q it
pn
q
q it
p1 ++pn
120
Estadstica
9.12.
Distribuci
on Beta, B(p, q)
Una v.a. X se dice que sigue una distribucion Beta de parametros p > 0 y q > 0,
X B(p, q), si su funcion de densidad es de la forma
f (x) =
1
xp1 (1 x)q1
(p, q)
0x1
1
f (x) dx =
(p, q)
1
0
1
(p, q) = 1
(p, q)
xp1 (1 x)q1 dx =
Esperanza
E[X] =
1
xf (x) dx =
(p, q)
xp (1 x)q1 dx =
1
(p + 1, q) =
(p, q)
(p + q) (p + 1)(q)
(p + q)
p
p(p)
=
=
(p)(q) (p + q + 1)
(p) (p + q)(p + q)
p+q
E[X] =
p
p+q
Varianza
2
E[X ] =
1
x f (x) dx =
(p, q)
2
1
0
xp+1 (1 x)q1 dx =
1
(p + q) (p + 2)(q)
(p + 2, q) =
=
(p, q)
(p)(q) (p + q + 2)
(p + 1)p
(p + 1)p(p)
(p + q)
=
(p) (p + q + 1)(p + q)(p + q)
(p + q + 1)(p + q)
(p + 1)p
Var(X) = E[X ] (E[X]) =
(p + q + 1)(p + q)
2
p
p+q
2
pq
(p + q + 1) (p + q)2
Var(X) =
9.12.1.
121
pq
(p + q + 1) (p + q)2
Transformaciones
1+
n 1
X
B(m/2, n/2)
m
nX
B(n/2, m/2)
m + nX
9.13.
En la figura 9.13 se muestra un croquis de las relaciones que existen entre las distintas
distribuciones continuas estudiadas en este captulo.
122
Estadstica
eX
=0
=1
N( ,)
Log-N( , )
Ln X
= pq
2 = p2 q
N(0,1)
X1
q
2
X1 + X2
B(p,q)
X + + Xn
G(p,q)
/2
p=n
q=
/2
q=1
p=n
2
n
tn
p=1
q=1
Er(n, )
n=2
n=1
m m
n2 n
2
m=1
X1 +
+ Xn
Exp()
U(0,1)
Ln X
Fm,n
1/r
a + (b-a) X
caso particular
transformacion
distribucion limite
W(r, )
a=0
b=1
U(a,b)
9.14.
123
Distribuci
on Normal Bidimensional
Una v.a. bidimensional (X, Y ) se dice que sigue una distribucion Normal Bidimensional, si su funcion de densidad conjunta, definida en R2 , es de la forma
f (x, y) =
2X Y
(
1
p
1 2
1
exp
2(1 2 )
"
x X
X
2
x X
X
y Y
Y
y Y
Y
2 #)
siendo
X = E[X]
2
X
= Var(X)
Y = E[Y ]
Y2 = Var(Y )
= p
Cov(X, Y )
XY
p
=
X Y
Var(X) Var(Y )
Funcion caracterstica
1
2 2
2 2
= X N(X , X )
= Y N(Y , Y )
f (x, y) dy =
X 2
12 (
21 (
xX 2
)
X
yY
Y
xR
)2
yR
Y 2
Es decir, si (X, Y ) es una v.a. Normal Bidimensional, entonces X e Y son v.a.
fY (y) =
f (x, y) dy =
124
Estadstica
"
(x2 2xy+y 2 )
p
e 2(12 )
+
2 1 2
#
1
2
2
(x +2xy+y )
e 2(12 )
+ p
2
2 1
(x, y) R2
fY (y) =
x2
1
f (x, y) dy = e 2
2
xR
y2
1
f (x, y) dy = e 2
2
yR
2 1 2
1
f (x, y)
p
=
e 2Y (1 )
f (y|x) =
fX (x)
2Y 1 2
i2
x X + X (yY )
Y
i2
y Y + Y (xX )
X
Por tanto,
Y |X N(, ) con
(y Y )
= X +
= X
= Y
p
1 2
= Y +
(x X )
X|Y N(X , X )
Y |X N(Y , Y )
1 2
125
2 2 +2ab
X Y
X
2 )t2
+b2 Y
1
1
e 2
2 X
xX
X
xX
X
2
2
2
y
+ Y
Y
1
1
e 2
2 Y
yY
Y
2
= fX (x) fY (y)
126
Estadstica
10
Convergencia de
sucesiones de
variables aleatorias
Indice
10.1. Convergencia en ley . . . . . . . . . . . . . . . . . . . . . . . . . 128
10.2. Problema central del lmite . . . . . . . . . . . . . . . . . . . . 129
10.2.1. Teorema de Levy-Lindeberg . . . . . . . . . . . . . . . . . . . . 129
10.2.2. Teorema de Lindeberg . . . . . . . . . . . . . . . . . . . . . . . 129
10.3. Aproximaciones a la distribuci
on Normal . . . . . . . . . . . . 130
10.3.1. Distribucion Binomial . . . . . . . . . . . . . . . . . . . . . . . 130
10.3.2. Distribucion de Poisson . . . . . . . . . . . . . . . . . . . . . . 131
10.3.2.1. Correccion de Yates . . . . . . . . . . . . . . . . . . . 131
10.3.3. Distribucion 2 de Pearson . . . . . . . . . . . . . . . . . . . . 132
10.3.4. Distribucion t-Student . . . . . . . . . . . . . . . . . . . . . . . 132
127
128
Estadstica
10.1.
Convergencia en ley
Sea {Fn } una sucesion de funciones de distribucion. Se dice que {Fn } converge en
ley o en distribuci
on a la funcion de distribucion F , si
x CF
lm Fn (x) = F (x)
{Fn } F
Ejemplo.- Sea
0 x<0
1
0 x0
nx 0 x <
Fn (x) =
= lm Fn (x) = G(x) =
n
n
1 x>0
1 x 1
n
pero, G no es una funcion de distribucion (no es continua por la derecha en x = 0), por
tanto, {Fn } no converge en ley a G. En cambio, si consideramos
(
0 x<0
F (x) =
1 x0
F es funcion de distribucion, y {Fn } converge en ley a F , pues
lm Fn (x) = F (x) x R {0}
pero 0
/ CF , por tanto
lm Fn (x) = F (x) x CF
Consideremos ahora una sucesion de v.a., {Xn }, con funciones de distribucion {Fn }
caracterstica . Entonces
{Xn } X
Si {Fn } converge en ley a F , entonces {n } converge puntualmente a , es decir
lm n (t) = (t) t R
10.2.
129
Dada una sucesion de v.a., {Xn }, definidas sobre el mismo espacio probabilstico, se
Xk E
" n
X
Xk
k=1
v
!
u
n
X
u
tVar
Xk
k=1
N(0, 1)
k=1
10.2.1.
Teorema de Levy-Lindeberg
n
X
Xk =
k=1
"
#
n
n
X
X
E[Xk ] = n
Xk =
E
k=1
k=1
n
n
X
X
Xk =
Var(Xk ) = n 2
Var
k=1
y, se cumple
n
X
k=1
Xk E
" n
X
k=1
Xk
v
!
u
n
X
u
tVar
Xk
k=1
n
X
k=1
Xk n
N(0, 1)
k=1
o, lo que es lo mismo
n
X
k=1
10.2.2.
L
Xk N(n, n )
Teorema de Lindeberg
130
Estadstica
i) Yn =
n
X
Xi
i=1
iv) lm
n
X
Mk (Xi )
i=1
k (Yn )
= lm
n
X
i=1
E[(Xi i )k ]
hp
ik = 0
Var(Yn )
10.3.
Aproximaciones a la distribuci
on Normal
10.3.1.
Distribuci
on Binomial
n
X
k=1
Xk B(n, p) =
"
#
n
X
Xk = np
E
k=1
Xk = npq
Var
k=1
y, se cumple
n
X
k=1
Xk E
" n
X
k=1
Xk
v
!
u
n
X
u
tVar
Xk
B(n, p) np L
N(0, 1)
npq
k=1
= N(np, npq )
= N(0, 1) = B(n, p)
npq
En la practica, esta aproximacion es buena cuando np(1 p) > 5.
10.3.2.
131
Distribuci
on de Poisson
P()
= N(, )
10.3.2.1.
Correcci
on de Yates
Cuando una variable aleatoria discreta se aproxima por una variable aleatoria continua, como es el caso de la Binomial o la Poisson por la Normal, surge un problema a la
hora de calcular probabilidades. Por ejemplo, sabemos que
P (x1 B(n, p) x2 ) 6= P (x1 < B(n, p) x2 )
P (B(n, p) = x) 6= 0
sin embargo,
P x1 N(np,
P N(np,
npq ) = x = 0
Para resolver este problema se aplica la correccion de Yates, que consiste en ampliar
o reducir el intervalo de integracion de la v.a. continua, para asegurar la inclusion o
exclusion de los lmites de la v.a. discreta. De forma general, si X es una v.a. discreta, e
Y una v.a. continua tal que X
= Y , entonces
P (X = x) P (x 0.5 Y x + 0.5)
P (x1 < X x2 ) P (x1 + 0.5 Y x2 + 0.5)
P (x1 X x2 ) P (x1 0.5 Y x2 + 0.5)
P (x1 < X < x2 ) P (x1 + 0.5 Y x2 0.5)
P (x1 X < x2 ) P (x1 0.5 Y x2 0.5)
132
Estadstica
10.3.3.
Distribuci
on 2 de Pearson
10.3.4.
22n
=N
2n 1, 1
Distribuci
on t-Student
Teniendo en cuenta que una distribucion t-Student con n grados de libertad se define
como el cociente
N(0, 1)
tn = r
2n
n
2
y, que la distribucion n se puede aproximar por una Normal, cuando n 30 se puede
utilizar la siguiente aproximacion
r
n
tn
= N 0,
n2
11
Regresion
y correlacion
Indice
11.1. Introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2. Regresi
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
11.2.1. Metodo de los mnimos cuadrados . . . . . . . . . . . . . . . . 134
11.2.2. Metodo de la distribucion condicional . . . . . . . . . . . . . . 136
11.2.3. Regresion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 137
11.2.3.1. Metodo de los mnimos cuadrados . . . . . . . . . . . 137
11.2.3.2. Metodo de la distribucion condicional . . . . . . . . . 138
11.3. Correlaci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
11.3.1. Coeficiente de correlaci
on lineal . . . . . . . . . . . . . . . . . . 140
133
134
Estadstica
11.1.
Introducci
on
Sea (X, Y ) una v.a. bidimensional. Algo que nos podemos preguntar es si existe
alg
un tipo de relacion entre las dos variables que forman el par, es decir, si existe alguna
funcion que las relaciona. Por supuesto, el hecho de que exista alguna relacion entre ellas
implica que no son independientes.
Tenemos pues dos objetivos,
1.- Determinar la funcion Y = h1 (X) que mejor expresa el comportamiento de la v.a. Y
para cada valor que pueda tomar X. Esta funcion se conoce como curva de regresi
on
de Y sobre X. Igualmente, se puede determinar la funcion X = h2 (Y ) que mejor
expresa el comportamiento de la v.a. X para cada valor que pueda tomar Y . Esta
funcion se conoce como curva de regresion de X sobre Y .
2.- Medir el grado de asociacion que pueda existir entre las dos v.a. Este parametro se
conoce como coeficiente de correlacion.
La regresion tiene dos significados. Uno, surge de la distribucion conjunta de las dos
v.a., y es el que vamos a estudiar en este captulo. El otro, que estudiaremos mas adelante,
es emprico, y nace de la necesidad de ajustar una funcion a un conjunto de datos.
11.2.
Regresi
on
11.2.1.
M
etodo de los mnimos cuadrados
11 Regresi
on y correlaci
on
135
b
X
Se pide, calcular los valores de a y b que mejor ajustan este tipo de relacion.
ECM = E (Y h1 (X))
2
"
2 #
b
= E Y aX
X
ECM
b
2
=
E
2(Y
aX
)(X)
=
2
E[XY
]
+
aE[X
]
+
b
=0
X
a
1
b
1
Y
ECM
+ a + bE
= E 2(Y aX )( ) = 2 E
=0
b
X
X
X
X2
entonces,
aE[X 2 ] + b = E[XY ]
Y
1
a + bE
=E
2
X
X
E[X ] =
E[XY
]
E
E[X 2 ]
b=
1 E[X 2 ]E
X2
4
x f (x, y) dxdy =
9
2
1
Y
E[XY ]E
E
X
X2
a
=
1 E[X 2 ]E
X2
x=0
x4 (x + y) dydx =
y=0
28
45
Z + Z +
Z
Z 3
1
4 1
8
1
E
=
f
(x,
y)
dxdy
=
(x
+
y)
dydx
=
2
X2
9 x=0 y=0
3
x
Z + Z +
Z
Z 3
y
Y
8
4 1
E
=
xy(x + y) dydx =
f (x, y) dxdy =
X
9 x=0 y=0
3
x
E[XY ] =
Por tanto,
4
xyf (x, y) dxdy =
9
1
x=0
x3 y(x + y) dydx =
y=0
7
5
136
Estadstica
144
a=
89
b = 35
89
y, la relacion entre las dos variables es de la forma
Y =
11.2.2.
144
35
X+
89
89X
M
etodo de la distribuci
on condicional
El criterio de este metodo consiste en definir la funcion h1 de tal forma que asigne
yf (y|x) dy
Ejemplo 2.- Dada la v.a. bidimensional (X, Y ) con funcion de densidad conjunta
f (x, y) = x + y
0 x, y 1
f (x, y) dy =
(x + y) dy = x +
f (x, y)
2(x + y)
=
fX (x)
2x + 1
1
2
0x1
0y1
Ahora,
h1 (x) = E [Y |X=x ] =
yf (y|x) dy =
2y(x + y)
3x + 2
dy =
2x + 1
6x + 3
3X + 2
6X + 3
11 Regresi
on y correlaci
on
11.2.3.
137
Regresi
on Lineal
M
etodo de los mnimos cuadrados
ECM
entonces,
a + bE[X] = E[Y ]
E[XY ] E[X]E[Y ]
Cov(X, Y )
a = E[Y ] bE[X]
Cov(X, Y )
XY
= 2
Var(X)
X
a = E[Y ] bE[X] = Y bX
o, expresado de otra forma
Y = a + bX = Y bX + bX = Y + b(X X ) =
Y Y =
XY
(X X )
2
X
138
Estadstica
Cov(X, Y )
XY
= 2
Var(Y )
Y
b =
a = E[X] b E[Y ] = X b Y
o, expresado de otra forma
X = a + b Y = X b Y + b Y = X + b (Y Y ) =
X X =
XY
(Y Y )
Y2
tienen el mismo signo, por tanto, o las dos rectas son crecientes o las dos rectas son
decrecientes, siempre que Cov(X, Y ) 6= 0.
El punto de interseccion de las dos rectas de regresion se denomina centro de gravedad
de la v.a. bidimensional (X, Y ).
11.2.3.2.
M
etodo de la distribuci
on condicional
Si al aplicar el metodo de la distribucion condicional para obtener la curva de regresion de Y sobre X obtenemos una recta, entonces
y = E[Y |X=x ] = a + bx
Es decir,
E[Y |X=x ] =
yf (y|x) dy =
1
=
fX (x)
Entonces,
f (x, y)
dy =
fX (x)
yf (x, y) dy = a + bx
11 Regresi
on y correlaci
on
139
Z + Z +
Z +
Z +
yf (x, y) dydx =
afX (x) dx +
bxfX (x) dx
Y, despejando,
axfX (x) dx +
E[Y ] = a + bE[X]
bx2 fX (x) dx
Cov(X, Y )
E[XY ] E[X]E[Y ]
a = E[Y ] bE[X]
11.3.
Correlaci
on
140
Estadstica
G =
R2
Y2
11.3.1.
Coeficiente de correlaci
on lineal
Y = h1 (X) = Y +
La varianza residual sera
R2 = E (Y h1 (X))
2
=E
"
XY
Y Y 2 (X X )
X
2 #
2
XY
2
= E (Y Y )2 + XY
E
(X
)
2 2 E[(Y Y )(X X )] =
X
4
X
X
= Y2 +
2
2
XY
XY
XY
2
2
XY
X
Y
4
2
2
X
X
X
2
=
1 R
Y2
v
u
u
u
t
Y2
2
XY
2
X
Y2
XY
Cov(X, Y )
=p
X Y
Var(X) Var(Y )
11+
2
XY
=
2 2
X
Y
que, como se puede comprobar, coincide con el estudiado en la seccion 7.6.2. Ademas, el
coeficiente de determinacion lineal viene dado por
11 Regresi
on y correlaci
on
141
2
Cov2 (X, Y )
XY
= 2 2 =
X Y
Var(X) Var(Y )
2
1 1
nen el mismo signo, pues este solo depende del signo de Cov(X, Y ). Si Cov(X, Y ) >
XY
XY
y b = 2 , entonces,
2
X
Y
=
Como
b b
b=
XY Y
Y
XY
=
=
2
X
X Y X
X
b =
X
XY Y
XY
=
=
2
Y
X Y Y
Y
Y
(X X )
X
X X =
X
(Y Y )
Y
142
Estadstica
12
Distribuciones
de muestreo
Indice
12.1. Introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
12.2. Definici
on de estadstico . . . . . . . . . . . . . . . . . . . . . . 145
12.3. Estadstico media muestral . . . . . . . . . . . . . . . . . . . . . 145
12.3.1. Poblaci
on Madre Normal . . . . . . . . . . . . . . . . . . . . . 145
12.3.2. Poblaci
on Madre no Normal . . . . . . . . . .
(n 1)s2
12.4. Estadstico
. . . . . . . . . . . . . .
2
x
. . . . . . . . . . . . . . . .
12.5. Estadstico
s/ n
12.5.1. Poblaci
on Madre Normal . . . . . . . . . . .
. . . . . . . . . . 146
. . . . . . . . . . 146
. . . . . . . . . . 147
. . . . . . . . . . 147
12.5.2. Poblaci
on Madre no Normal . . . . . . . . . . . . . . . . . . . . 148
12.6. Estadstico varianza muestral . . . . . . . . . . . . . . . . . . . 148
12.6.1. Poblaci
on Madre Normal . . . . . . . . . . . . . . . . . . . . . 148
12.6.2. Poblaci
on Madre no Normal . . . . . . . . . . . . . . . . . . . . 149
12.7. Estadstico desviaci
on tpica muestral . . . . . . . . . . . . . . 150
12.8. Estadstico diferencia de medias muestrales . . . . . . . . . . . 152
12.9. Estadstico cociente de varianzas muestrales . . . . . . . . . . 153
12.10.Estadstico proporci
on muestral . . . . . . . . . . . . . . . . . . 154
12.11.Estadstico elemento que ocupa el lugar r . . . . . . . . . . . . 155
12.11.1.Estadstico m
aximo valor de una muestra . . . . . . . . . . . . 155
12.11.2.Estadstico mnimo valor de una muestra . . . . . . . . . . . . 156
12.11.3.Estadstico recorrido de una muestra . . . . . . . . . . . . . . . 156
12.11.4.Estimacion de cuantiles . . . . . . . . . . . . . . . . . . . . . . 157
143
144
Estadstica
12.1.
Introducci
on
12 Distribuciones de muestreo
12.2.
145
Definici
on de estadstico
P.M. intacta (extraccion con reemplazamiento). Los posibles valores de cada una de las
extracciones, xi , es una variable aleatoria, Xi . Por tanto, con este procedimiento hemos
construido una variable aleatoria n-dimensional X = (X1 , X2 , . . . , Xn ), donde todas las
v.a. son independientes e identicamente distribuidas con la misma distribucion que la
v.a. asociada a la P.M. Es decir, si la P.M. sigue una distribucion N(, ), entonces cada
Xi N(, ).
12.3.
12.3.1.
n
1X
xi
i=1
Poblaci
on Madre Normal
Dada una m.a.s., {x1 , . . . , xn }, de una P.M. N(, ), sabemos que xi N(, )
y que las n v.a. son independientes. Entonces, la v.a. x tambien sigue una distribucion
Normal, por ser combinacion lineal de v.a. Normales. Ademas,
"
#
n
n
n
1X
1X
1X
E[
x] = E
xi =
E[xi ] =
=
n i=1
n i=1
n i=1
Var(
x) = Var
n
1X
xi
n i=1
n
n
1 X
1 X 2 2
= 2
Var(xi ) = 2
=
n i=1
n i=1
n
146
Estadstica
x N (, / n )
12.3.2.
Poblaci
on Madre no Normal
Dada una m.a.s., {x1 , . . . , xn } de una P.M. ?(, ) sabemos que xi ? (, ) y que
xi E
" n
X
xi
i=1
v
!
u
n
X
u
tVar
xi
n
x n
x
=
= N(0, 1)
/ n
n 2
i=1
Por tanto,
si n > 30 = x
= N (, / n )
si n < 30 = x ? (, / n )
12.4.
Estadstico
(n 1)s2
2
Dada una m.a.s., {x1 , . . . , xn }, de una P.M. N(, ), definimos la varianza mues-
tral, s2 , como
1 X
(xi x)2
s =
n 1 i=1
2
Entonces,
12 Distribuciones de muestreo
147
n
n
(n 1)s2
1 X
1 X
2
(xi x) = 2
[(xi ) (
x )]2 =
=
2
2 i=1
i=1
" n
#
n
n
X
X
1 X
2
2
(xi ) +
(
x ) 2(
x )
(xi ) =
=
2 i=1
i=1
i=1
#
" n
1 X
=
(xi )2 + n(
x )2 2n(
x )2 =
2 i=1
#
" n
1 X
=
(xi )2 n(
x )2 =
2 i=1
2
n
X
xi
i=1
/ n
2
Pero,
xi N(, )
2
n
X
xi
xi
N(0, 1) =
2n
=
i=1
x
N(0, 1) =
x N(, / n ) =
/ n
/ n
2
21
s/ n
12.5.
Estadstico
12.5.1.
Poblaci
on Madre Normal
N(0, 1)
=
x N ,
n
/ n
148
Estadstica
(n 1)s2
2n1
2
entonces, dividiendo,
Por tanto,
N(0, 1)
x
/ n
r
=r 2
= tn1
2
s/ n
n1
(n 1)s 1
2
n1
n1
x
tn1
s/ n
12.5.2.
Poblaci
on Madre no Normal
x
= N(0, 1)
s/ n
si n < 30 =
12.6.
s =
12.6.1.
1
n1
n
X
i=1
(xi x
)2
Poblaci
on Madre Normal
entonces,
2
(n 1)s2
2
2
n1 = s =
X
X=
2
n1
E[s2 ] =
2
2
E[X] =
(n 1) = 2
n1
n1
Var(s2 ) =
4
4
2 4
Var(X)
=
2(n
1)
=
(n 1)2
(n 1)2
n1
12 Distribuciones de muestreo
149
Por tanto,
r
2
2
si n > 100 = s = N ,
2
si n < 100 = s ?
12.6.2.
2
n1
2
n1
Poblaci
on Madre no Normal
Aunque la P.M. no sea Normal, utilizando el desarrollo del apartado 12.4, llegamos
a
n
n
1 X
(xi )2
(
x )2
s =
n 1 i=1
n1
2
y, por tanto
1 X
n
E[s ] =
E[(xi )2 ]
E[(
x )2 ]
n 1 i=1
n1
2
Pero,
2
n
entonces,
n 2
n
2
= 2
E[s ] =
n1
n1 n
Operando se puede demostrar tambien que
2
Var(s ) =
CAp
2
+
n1
n
150
Estadstica
12.7.
Estadstico desviaci
on tpica muestral
s=
"
1
n1
n
X
i=1
(xi x
)
#1/2
n1 2
s 2n1
2
fX (x) =
n3
x
1
x 2 e 2 ,
n1
n1
2 2
2
x>0
2
X, es decir, Y = s2 . Entonces
n1
n3
2
n1
n1
n1
1
gY (y) =
e 22 y
y
, y>0
2
n1
n1
2
2
2
2
y, operando
1
hT (t) =
n1
n1
2 2
2
n1 2
t
2
n3
2
n1 2
e 22 t
n1
n1 2
2
n1 2
2
tn2 e 22 t ,
hT (t) =
n1
n1
2
Entonces,
n1
2t ,
2
t>0
t>0
12 Distribuciones de muestreo
151
n1
n1 2
Z
Z
2
n1 2
2
E[T ] =
t hT (t) dt =
tn1 e 22 t dt =
n1
0
0
n1
2
n1
n1 2
Z
2
2
=
n1
0
n1
2
r
r
1
2
n
1
n1
!n1
1
2u
n 1 du =
eu
2 u
n1
2
Z
u 2 1 eu du =
n
2
2
n1
n1
n1
u=
2
E[T 2 ] = E[s2 ] = 2
Y, por u
ltimo, la varianza de T viene dada por
2
Var(T ) = E[T ] (E[T ]) =
1 n 1
2
si n > 100 = s = N ,
si n < 100 = s ?
1
2(n 1)
n
2
2
2
n1
2
v
u
2 n
u
2
2
u
2 , u1
2
t
n
1
n1
n1 2 n1
2
2
n
152
Estadstica
12.8.
1X
x =
xi
n i=1
1 X
=
(xi x)2
n 1 i=1
s2x
1 X
1 X
y =
yi s2y =
(yi y)2
m i=1
m 1 i=1
x y =
1X
1 X
xi
yi
n i=1
m i=1
Si x y y son conocidos
x N (x , x / n )
y N (y , y / m )
(
x y) (x y )
r
N (0, 1)
x2 y2
+
n
m
Si x y y son desconocidos
si x2 = y2 = 2
(
x y) (x y )
r
N (0, 1)
1
1
n m
2
2
(n 1)sx + (m 1)sy 2
n+m2
2
donde
Sp =
(
x y) (x y )
r
tn+m2
1
1
Sp
+
n m
(n 1)s2x + (m 1)s2y
n+m2
12 Distribuciones de muestreo
153
si x2 6= y2
(
x y) (x y )
r
= t
s2x s2y
+
n
m
donde,
s2y
s2x
A=
, B=
n
m
(A + B)2
=
A2
B2
+
n1 m1
12.9.
1X
xi
x =
n i=1
s2x
1 X
=
(xi x)2
n 1 i=1
1 X
1 X
y =
yi s2y =
(yi y)2
m i=1
m 1 i=1
s2x
=
s2y
Del apartado 12.4 sabemos que
1 X
(xi x)2
n 1 i=1
m
1 X
(yi y)2
m 1 i=1
(n 1)s2x
2n1
x2
(m 1)s2y
2m1
y2
entonces, como
2n1 /(n1)
2m1 /(m1)
Fn1,m1 ,
s2x /x2
Fn1,m1
s2y /y2
154
Estadstica
12.10.
Estadstico proporci
on muestral
X n
umero de exitos de la muestra
pb proporcion de exitos de la muestra
Entonces,
X=
n
X
i=1
"
1X
X
xi B(n, p) y pb =
xi =
n i=1
n
#
n
n
1X
1X
1
E[b
p] = E
xi =
E[xi ] = np = p
n i=1
n i=1
n
n
Var(b
p) = Var
1X
xi
n i=1
n
1 X
1
p(1 p)
Var(x
)
=
np(1
p)
=
i
n2 i=1
n2
n
xi E
" n
X
i=1
xi
v
!
u
n
X
u
tVar
xi
i=1
Por tanto,
si n > 30 = pb
= N p,
si n < 30 = pb ?
p,
nb
p np
pb p
N(0, 1)
=r
np
p(1 p)
n
p(1 p)
n
p(1 p)
n
p
y X
= N np, np(1 p)
y X B(n, p)
12 Distribuciones de muestreo
12.11.
155
n r elementos
1 elemento
ur
ur + dur
ur+1
n
g(ur )dur = [P (X < ur )]r1 P (ur < X ur + dur ) [P (X > ur )]nr P Rr1,1,nr
g(ur )dur =
Por tanto,
g(ur ) =
12.11.1.
n!
[F (ur )]r1 f (ur )dur [1 F (ur )]nr
(r 1)! 1! (n r)!
n!
[F (ur )]r1 f (ur ) [1 F (ur )]nr
(r 1)! 1! (n r)!
ur R
Estadstico m
aximo valor de una muestra
Sea X la v.a. continua asociada a una P.M. con funciones de distribucion y densidad
F (x) y f (x), respectivamente. Extraemos una m.a.s. {x1 , . . . , xn } y la ordenamos en forma
creciente, quedando de la forma {u1 , . . . , un }, con u1 u2 ur un
un R
156
Estadstica
12.11.2.
Sea X la v.a. continua asociada a una P.M. con funciones de distribucion y densidad
F (x) y f (x), respectivamente. Extraemos una m.a.s. {x1 , . . . , xn } y la ordenamos en forma
creciente, quedando de la forma {u1 , . . . , un }, con u1 u2 ur un
12.11.3.
u1 R
Sea X la v.a. continua asociada a una P.M. con funciones de distribucion y densidad
F (x) y f (x), respectivamente. Extraemos una m.a.s. {x1 , . . . , xn } y la ordenamos en forma
creciente, quedando de la forma {u1 , . . . , un }, con u1 u2 ur un
As, se define el recorrido de una muestra como
R = max{xi } min{xi } = un u1
Utilizando el mismo razonamiento que en la Sec. 12.11, se puede obtener la funcion
de densidad conjunta, g(ui , uj ), del lugar que ocupan dos elementos de la muestra, con
i<j
g(ui, uj )dui duj = [P (X < ui )]i1 P (ui < X ui + dui ) [P (ui < X < uj )]ji1
n
P (uj < X uj + duj ) [P (X > uj )]nj P R i1,1,ji1,1,nj
Por tanto,
g(ui , uj ) =
n!
[F (ui )]i1 f (ui )
(i 1)! (j i 1)! (n j)!
[F (uj ) F (ui )]ji1 f (uj ) [1 F (uj )]nj
ui uj
n!
[F (un ) F (u1 )]n2 f (u1 )f (un )
(n 2)!
u1 un +
12 Distribuciones de muestreo
157
por lo que
g(u1 , R) = n(n 1) [F (R + u1 ) F (u1)]n2 f (u1 )f (R + u1 )
y la funcion de densidad de R sera la marginal de g(u1, R), es decir
gR (R) =
g(u1, R) du1 =
GR (R) =
12.11.4.
R
0
Z
g(u1 , R) du1
=n
Estimaci
on de cuantiles
Sea X la v.a. continua asociada a una P.M. con funciones de distribucion y densidad
F (x) y f (x), respectivamente. Extraemos una m.a.s. {x1 , . . . , xn } y la ordenamos en
forma creciente, quedando de la forma {u1 , . . . , un }, con u1 u2 ur un .
Definimos el estimador, x
bp , del p-cuantil poblacional, xp , como el p-cuantil de la muestra,
es decir
x
bp =
[np]+1
Si np
/Z
1 (u + u
np
np+1 ) Si np Z
2
donde los corchetes, [ ], indican la parte entera. Si f (xp ) > 0, el estimador p-cuantil tiene
una distribucion asintoticamente Normal, con
E[b
xp ] xp
Var(b
xp )
p(1 p)
nf 2 (xp )
Ejemplo.- Dada una P.M. N(, ) con funcion de densidad dada por
(
2 )
1 x
1
exp
f (x) =
xR
2
2
Un estimador de la mediana poblacional, Me, sera la mediana muestral, x
e. Si la
158
Estadstica
E[e
x] Me =
0.5 0.5
2
2 =
2n
1
n
2
donde hemos utilizado el hecho de que en una distribucion Normal, Me = . As,
r
x
e
= N ,
2n
Var(e
x)
p(1 p)
=
nf 2 (Me)
13
Estimacion puntual
y estimacion
por intervalo
Indice
13.1. Introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
13.2. Propiedades deseables de los estimadores puntuales
. . . . . 163
. . . . . . . . . . . . . . . . . . . . . 173
13.4. Estimaci
on por intervalo de confianza . . . . . . . . . . . . . . 174
13.4.1. Intervalo de confianza para la media . . . . . . . . . . . . . . . 176
13.4.1.1. P.M. N(, ) con conocido . . . . . . . . . . . . 176
159
160
13.4.3. Intervalo de confianza para la diferencia de medias . . . . . . . 180
13.4.3.1. P.M. Normales con x y y conocidas . . . . . . . . . 181
13.4.3.2. P.M. Normales con x2 = y2 = 2 desconocida . . . 181
13.4.3.3. P.M. Normales con x2 6= y2 desconocidas . . . . . . 182
13 Estimaci
on puntual y estimaci
on por intervalo
13.1.
161
Introducci
on
En el captulo anterior hemos calculado la distribucion de algunos estadsticos y mencionado brevemente que los estadsticos se utilizan para estimar los valores de parametros
desconocidos de una poblacion. En este captulo se examinara con detalle el concepto de
estimacion de parametros mediante la especificacion de las propiedades deseables de los
estimadores (estadsticos), y el desarrollo de tecnicas apropiadas para implementar el proceso de estimacion. Se utilizara el punto de vista de la teora de muestras, que considera
a un parametro poblacional como una cantidad fija (nunca una v.a.), pero desconocida.
La estimacion de un parametro de la poblacion involucra el uso de los datos muestrales en conjuncion con alg
un estadstico. Existen dos formas de realizar la estimacion:
la estimacion puntual y la estimacion por intervalo. En la primera, se busca un estimador
que, con base en los datos muestrales, de origen a una estimacion univaluada del valor
del parametro poblacional, y que recibe el nombre de valor estimado. Para la segunda, se
determina un intervalo en el que, en forma probable, se encuentra el valor del parametro.
Este intervalo recibe el nombre de intervalo de confianza.
Antes de entrar en materia, vamos a ver algunas definiciones que seran de utilidad.
En general, el planteamiento del problema es el siguiente
En una P.M. definida por su funcion de distribucion F (x, ) existe un parametro, ,
cuyo valor es desconocido.
Para poder asignar un valor a dicho parametro , extraemos una muestra aleatoria
de tama
no n, X = {x1 , . . . , xn }.
N DE VEROSIMILITUD DE LA MUESTRA
FUNCIo
Puesto que las n variables aleatorias de la muestra constituyen una v.a. n-dimensional,
{x1 , . . . , xn }, se llama funcion de verosimilitud de la muestra a la funcion de densidad de
dicha v.a. n-dimensional, y se denota por L(x1 , . . . , xn , ).
162
Estadstica
Si la P.M. es una v.a. discreta, sea como sea la muestra aleatoria, con o sin reemplazamiento,
ESTIMADOR
El estadstico que se utiliza para obtener una estimacion puntual es un estimador.
Por ejemplo, el estadstico varianza muestral, s2 , que es una funcion de la muestra aleatoria, es un estimador de 2 .
ESTIMADOR SUFICIENTE
Estimador suficiente es el que proporciona la maxima informacion posible sobre el
parametro poblacional, , una vez determinado el tama
no n de la muestra.
ESTIMADOR CONSISTENTE
b es un estimador consistente del parametro si
Se dice que un estadstico, ,
b | ) = 1
P (|
cuando
ESTIMADOR INSESGADO
b =
E[]
b = + b()
E[]
ESTIMADOR EFICIENTE
Si se consideran todos los posibles estimadores insesgados de un parametro poblacional, , aquel que tenga la varianza mas peque
na se dira que es el estimador mas eficiente.
13 Estimaci
on puntual y estimaci
on por intervalo
13.2.
163
13.2.1.
Estimador suficiente
50
X
xi
i=1
50
X
xi = 35
i=1
exitos. Es decir, no necesito conocer de forma pormenorizada el valor de cada uno de los
elementos de la muestra.
En el segundo caso, sin embargo, el hecho de que t2 = 1 significa que en la muestra ha
aparecido al menos un exito entre los 50 casos muestreados. En este caso, el conocimiento
164
Estadstica
13.2.2.
Estimador consistente
Como hemos visto en el ejemplo anterior, los valores obtenidos con las muestras nos
van a servir para estimar el verdadero valor del parametro desconocido. As pues, es
razonable pensar que un buen estimador debe ser capaz de aproximarse mejor al valor
del parametro a medida que aumenta el tama
no de la muestra. Siguiendo con el ejemplo
de la P.M. binomial, si en vez de una muestra de tama
no n = 50, saco una muestra de
tama
no n = 5000, es de esperar que la proporcion de exitos en esta segunda muestra se
aproxime mas al verdadero valor de p que los 35/50 obtenidos con la primera muestra.
Sea T (X) un estimador de , y sean T1 (X), . . . , Tn (X) una secuencia de estimadores
que representan a T con distintos tama
nos de muestra 1, . . . , n, respectivamente. Se dice
que T es un estimador consistente para si
lm P (|Tn | ) = 1
Ejemplo.- Tenemos una P.M. con distribucion no Normal y media desconocida, es decir,
= . Extraemos muestras de distintos tama
nos, y construimos los estadsticos
n
1X
Tn (X) = xn =
xi
n i=1
n = 1, 2, 3, . . .
n
,
tomando k =
P (|
xn | ) 1
2
= lm P (|
xn | ) = 1
n
n2
13 Estimaci
on puntual y estimaci
on por intervalo
13.2.3.
165
Error cuadr
atico medio
la poblacion, , es conveniente que el valor esperado del estimador coincida con el valor
del parametro que va a estimar. Para que las diferencias negativas no se cancelen con las
positivas, se define el Error Cuadratico Medio (ECM) como,
i
h
b )2
ECM = E (
Es decir,
i
2
h
b + E[]
b
b )2 = Var()
ECM = E (
166
Estadstica
Ejemplo.- De una P.M. se extrae una m.a.s. {x1 , . . . , xn }, de la cual se sabe que E[xi ] =
y Var(xi ) = 2 i = 1, n. Consideramos dos estimadores de la media
n
X
b 1 = x = 1
xi
n i=1
n
Entonces
n
1X
E[1 ] =
E[xi ] =
n i=1
b2 =
1 X
xi
n + 1 i=1
b 1) =
= ECM(
b 1) = 1
Var(
Var(x
)
=
i
n2 i=1
n
n
1 X
n
E[2 ] =
E[xi ] =
n + 1 i=1
n+1
1
n
Var(xi ) =
2
Var(2 ) = (n + 1)2
2
(n
+
1)
i=1
2
n
b 2) =
= ECM(
2 + n 2
(n + 1)2
Si n = 10 y 2 = 100, entonces,
b 1 ) = 10
ECM(
2
b 2 ) = + 1000
ECM(
121
b 1 ) > ECM(
b 2)
210 = ECM(
b 1 ) < ECM(
b 2)
210 = ECM(
Por esta razon, se deben examinar criterios adicionales para la seleccion de los estimadores de , aun cuando el error cuadratico medio es el concepto mas importante.
13.2.4.
que
Estimador insesgado
13 Estimaci
on puntual y estimaci
on por intervalo
167
para todos los posibles valores de . De esta forma, para cualquier estimador insesgado,
b se cumple que ECM=Var().
b Como vimos en el captulo anterior, sea como sea la
,
P.M., la esperanza de la media muestral coincide con la media poblacional. Por tanto, la
cuestion esta sobrevalorando, en media, el valor de ; o puede ser negativo, lo cual implica
que el estimador en cuestion esta infravalorando, en media, el valor de .
Ejemplo.- De una P.M. N(, ) extraemos una m.a.s., {x1 , . . . , xn }, y construimos dos
estimadores de la varianza,
b 1 = s2 =
1 X
(xi x)2
n 1 i=1
X
b2 = 1
(xi x)2
n i=1
b 1 ] = E[s2 ] =
E[
2
E[2n1 ] = 2
n1
n1 2
1
n1 b
E[1 ] =
= 2 2
n
n
n
P
2
2
b 1 = s = (xi x) /(n 1) es un estimador
Por tanto, la varianza muestral,
b 2 = P(xi x)2 /n es un
insesgado de la varianza de la poblacion, 2 . En cambio,
b 2 es b() = /n < 0, es decir, el estimador
estimador sesgado de 2 . Ademas, el sesgo de
b 2] =
E[
Esta es la razon por la cual se define la varianza muestral con el dividendo igual a n 1
13.2.5.
Estimador eficiente
Sin perder de vista el hecho de que estamos buscando aquellos estimadores con ECM
b
mnimo, si consideramos los estimadores insesgados, para ellos se cumple ECM=Var().
Por tanto, el problema se reduce a encontrar un estimador insesgado que tenga varianza
b es un estimador insesgado de varianza
mnima. En general, se dice que el estimador
168
Estadstica
b = ), y Var()
b es menor que la varianza de
mnima uniforme de , si es insesgado (E[]
cualquier otro estimador de para todos los posibles valores de .
los estimadores son sesgados, las eficiencias relativas se calculan con los respectivos errores
cuadraticos medios.
Pero, dicho todo esto, seguimos teniendo un problema. Una vez que tenemos un
estimador y conocemos su varianza, como podemos saber si existe otro estimador con
una varianza mas peque
na? Para resolverlo, recurrimos al siguiente teorema.
13.2.5.1.
Dada una P.M. con funcion de densidad f (x, ) y una muestra aleatoria simple de
b es un estimador de , entonces se cumple
tama
no n, {x1 , . . . , xn }, si
b
Var()
(1 + b ())2
Ln L(x1 , . . . , xn , )
2 =
(1 + b ())2
(1 + b ())2
"
#
2
=
2
Ln f (x, )
Ln f (x, )
nE
nE
2
La primera expresion a la derecha de la desigualdad se conoce como cota de CramerRao. El resto de igualdades representan distintas versiones, generalmente mas sencillas
13 Estimaci
on puntual y estimaci
on por intervalo
169
X
b = x = 1
xi
n i=1
"
1
Ln f (x, )
2 # =
1
Ln f (x, )
nE
2
entonces
Ln f (x, ) = Ln
1
(x )2
2 2
Ln f (x, )
1
= 2 (x )
1
2 Ln f (x, )
= 2
2
Por tanto,
2 Ln f (x, )
1
1
E
=E 2 = 2
2
CCR =
Es decir,
2
1
=
n
2 Ln f (x, )
nE
2
Var(
x) = CCR
170
Estadstica
13.3.
M
etodos de estimaci
on puntual
En las secciones anteriores hemos comentado ampliamente las propiedades que debe
tener un buen estimador. Incluso hemos visto, a traves de los ejemplos, que un estimador de la media poblacional podra ser la media muestral, un estimador de la varianza
poblacional podra ser la varianza muestral, y un estimador de la proporcion de exitos
de la poblacion podra ser la proporcion de exitos de la muestra. Pero, que ocurre si el
parametro de la poblacion no es ni su media, ni su varianza ni su proporcion de exitos?
Por ejemplo, si la P.M. tiene una funcion de densidad
f (x, ) =
x 0, > 0
(1 + x)1+
En este caso, no es ninguno de los parametros conocidos, por tanto, en un
principio, no tenemos ninguna pista sobre como podra ser un estimador de . En esta
seccion vamos a dar dos metodos para obtener un estimador de cualquier parametro
poblacional .
13.3.1.
M
etodo de m
axima verosimilitud
La idea en la que se basa este metodo es muy sencilla y, ademas, bastante logica. Si
de una poblacion cualquiera he obtenido una muestra en particular, es razonable pensar
que la muestra obtenida es la que mayor probabilidad tena de salir. Veamos esta idea
con un ejemplo
Ejemplo.- Una urna contiene bolas rojas y blancas con una proporcion de bolas rojas, p,
desconocida. Extraemos 10 bolas con reemplazamiento (m.a.s. de tama
no n = 10) con el
resultado de 3 bolas rojas y 7 blancas. Parece logico pensar que el hecho de que en la
muestra aparezcan 3 bolas rojas de 10 es porque, seg
un la proporcion real de bolas rojas
que hay en la urna, es mas probable que salgan 3 rojas a que salgan 5 o 9. Es decir, la
muestra que ha salido es la que mayor probabilidad tena de salir. Vamos a trasladar este
razonamiento a n
umeros. La probabilidad de que salga la muestra que ha salido (o sea,
la funcion de verosimilitud de la muestra) es
10
L(p) = p3 (1 p)7 P R3,7
= p3 (1 p)7
10!
3! 7!
13 Estimaci
on puntual y estimaci
on por intervalo
171
Para calcular el valor de p que hace que esta probabilidad sea maxima, basta con
derivar respecto de p e igualar a 0.
10!
L(p) 2
10!
= 3p (1 p)7 7p3 (1 p)6
= p2 (1 p)6 [3 10p]
=0
p
3! 7!
3! 7!
p=1
2 L(p)
p = 3/10 ademas,
<0
2 p p=3/10
(1 + x)1+
x 0, > 0
b de . La
extraemos una m.a.s. de tama
no n, {x1 , . . . , xn }, para calcular un estimador, ,
funcion de verosimilitud de la muestra es
n
Y
i=1
(1 + xi )1+
172
Estadstica
Antes de derivar, tomamos logaritmos
n
n
Y
X
1+
Ln L(x1 , . . . , xn , ) = Ln Ln (1 + xi )
= nLn (1 + )
Ln (1 + xi )
n
i=1
i=1
Ln L(x1 , . . . , xn , )
n X
b=
=
Ln (1 + xi ) = 0 =
n
X
i=1
n
Ln (1 + xi )
i=1
2 Ln L(x1 , . . . , xn , )
n
=
<0
2
b2
b
n
n
X
Ln (1 + xi )
i=1
Hay que se
nalar que no siempre es posible aplicar el metodo de maxima verosimilitud
para calcular un estimador (ver Sec. 13.3.2).
13.3.2.
En esta seccion vamos a enumerar una serie de propiedades o teoremas que verifican
los estimadores de maxima verosimilitud (EMV), comenzando con una definicion sobre
las condiciones en las que se puede aplicar el metodo de maxima verosimilitud.
Condiciones de regularidad de Fisher-Wolfowitz
1.- La P.M. de la que procede la muestra tiene un campo de variacion que no
depende del parametro , y, por tanto, la muestra tampoco.
2.- La funcion de verosimilitud de la muestra admite, por lo menos, las derivadas
de primer y segundo orden respecto del parametro .
3.- Las operaciones de derivacion e integracion (o suma, en el caso de v.a. discretas)
son intercambiables.
Bajo condiciones de regularidad, los EMV son consistentes.
b entonces el EMV de es fun Si un parametro posee un estimador suficiente, ,
b Esto no implica que todos los EMV sean suficientes, pues no todos los
cion de .
parametros poblacionales poseen un estimador suficiente.
13 Estimaci
on puntual y estimaci
on por intervalo
173
Los EMV no siempre son insesgados, pero s son asintoticamente insesgados, es decir
lm b() = 0
siendo
I() = E
"
Ln L(x1 , . . . , xn , )
2 #
13.3.3.
M
etodo de los momentos
1X r
mr =
x
n i=1 i
Ejemplo.- De una P.M. con funcion de densidad
f (x, ) =
(1 + x)1+
x 0, > 0
b de .
extraemos una m.a.s. de tama
no n, {x1 , . . . , xn }, para calcular un estimador, ,
Los momentos de primer orden de la poblacion y la muestra son,
Z +
Z +
1
E[P.M.] =
xf (x, ) dx =
x
dx =
( > 1)
1+
(1 + x)
1
0
n
1X
xi
m1 =
n i=1
174
Estadstica
e, igualando,
1
1X
b= n
xi =
=
n
X
1
n i=1
+1
xi
i=1
Como se puede comprobar, el estimador obtenido por el metodo de maxima verosimilitud puede no coincidir con el obtenido por el metodo de los momentos.
13.4.
Estimaci
on por intervalo de confianza
N.S. = 100 %
De esta forma, tenemos distintos niveles de significacion, seg
un el grado de confianza
obtenido. Algunos de ellos tienen nombre propio, por ejemplo
Confianza Casi Significativa
Confianza = 1 = 95 %
N.S. = = 5 %
13 Estimaci
on puntual y estimaci
on por intervalo
175
Confianza Significativa
Confianza = 1 = 99 %
N.S. = = 1 %
Por u
ltimo, se habla de seguridad estadstica cuando se trabaja con un intervalo de
confianza del tipo
b 3b < < b + 3b
b
siendo b la desviacion tpica del estadstico .
b En cualquier caso, se
3.- Cuando sea posible, se definira la distribucion de la v.a. .
b y 2 =Var().
b
contara con la media y la varianza del estimador, b =E()
b | k) = 1
P (|
el teorema de Chebychev.
176
Estadstica
13.4.1.
1X
x =
xi
n i=1
13.4.1.1.
es decir
x
P z/2 < < z/2 = 1
/ n
siendo z/2 , el n
umero real que deja un area de /2 unidades a su derecha en una N(0, 1)
(Fig. 13.1).
Por tanto, una estimacion puntual de la media poblacional , se obtiene seleccionando una muestra aleatoria simple de tama
no n, y calculando su media x. Mientras que
un intervalo de confianza del (1 )100 % para la media poblacional viene dado por
e = z/2
n
Si e es un dato del problema, podemos determinar el tama
no de la muestra adecuado
al nivel de confianza pedido, por medio de la expresion
2
z/2
n=
e
13 Estimaci
on puntual y estimaci
on por intervalo
177
t/2
x
< < t/2
s/ n
= 1
s
s
P x t/2 < < x + t/2 = 1
n
n
siendo t/2 , el n
umero real que deja un area de /2 unidades a su derecha en una tn1
(Fig. 13.2).
Por tanto, un intervalo de confianza del (1 )100 % para la media poblacional
s
s
x t/2 < < x + t/2
n
n
178
Estadstica
x k < < x + k
n
n
1 k
13 Estimaci
on puntual y estimaci
on por intervalo
179
siendo k = 1/k 2 . Por tanto, un intervalo de confianza del (1 k )100 % para la media
poblacional viene dado por
x k < < x + k
n
n
13.4.1.5.
x
= N(0, 1)
s/ n
Es el u
nico caso en el que no poseemos herramientas suficientes para obtener un
intervalo de confianza valido para la media. En cualquier caso, como estimacion puntual
de , siempre es valida la media muestral, sea cual sea el tama
no de la muestra.
13.4.2.
13.4.2.1.
1 X
s =
(xi x)2
n 1 i=1
2
(n 1)s2
2n1
2
180
Estadstica
(n 1)s
(n 1)s
< 2 <
2
/2
21/2
= 1
donde 21/2 y 2/2 son los valores de la distribucion 2n1 que dejan areas de 1 /2 y
/2, respectivamente, a su derecha (Fig. 13.3)
(n 1)s2
(n 1)s2
2
<
<
2/2
21/2
13.4.3.
13 Estimaci
on puntual y estimaci
on por intervalo
181
x y =
1X
1 X
xi
yi
n i=1
m i=1
Para obtener un intervalo de confianza, debemos tener en cuenta si las varianzas son
conocidas.
13.4.3.1.
En este caso,
(
x y) (x y )
q
N(0, 1)
y2
x2
+
n
m
x2 y2
+
z/2 < x y < (
x y) +
n
m
x2 y2
+
z/2
n
m
siendo
Sp =
(n 1)s2x + (m 1)s2y
n+m2
(
x y) Sp
1
1
+ t/2 < (x y ) < (
x y) + Sp
n m
1
1
+ t/2
n m
siendo t/2 , el n
umero real que deja un area de /2 unidades a su derecha en una tn+m2 .
182
Estadstica
13.4.3.3.
siendo
s2y
s2x
(A + B)2
A=
, B=
=
B2
A2
n
m
+
n1 m1
Entonces, un intervalo de confianza del (1 )100 % para la diferencia de medias es
(
x y)
s2x s2y
+ t/2 < (x y ) < (
x y) +
n
m
s2x s2y
+ t/2
n
m
siendo t/2 , el n
umero real que deja un area de /2 unidades a su derecha en una t
13.4.4.
s2x
s2y
1
n1
=
1
m1
n
X
(xi x)2
i=1
m
X
i=1
(yi y)2
s2 / 2
f1/2 (n 1, m 1) < x2 x2 < f/2 (n 1, m 1)
sy /y
=1
13 Estimaci
on puntual y estimaci
on por intervalo
183
s2x
1
x2
1
s2x
<
<
s2y f/2 (n 1, m 1)
y2
s2y f1/2 (n 1, m 1)
=1
s2x
s2x
1
x2
<
f/2 (m 1, n 1)
<
s2y f/2 (n 1, m 1)
y2
s2y
= 1
s2x
s2x
x2
1
<
f/2 (m 1, n 1)
<
s2y f/2 (n 1, m 1)
y2
s2y
13.4.5.
184
Estadstica
X n
umero de exitos de la muestra
pb proporcion de exitos de la muestra
1X
pb =
xi
n i=1
Si el tama
no de la muestra es suficientemente grande, entonces
pb N p,
y,
p(1 p)
n
pb p
= 1
r
P
z
<
<
z
/2
/2
p(1 p)
n
Por tanto,
P
pb
p(1 p)
z/2 < p < pb +
n
p(1 p)
z/2
n
= 1
pero esto no sirve de mucho pues como no conocemos el valor de p, no se pueden calcular
los lmites del intervalo. Para resolver este problema se puede proceder de dos formas.
13 Estimaci
on puntual y estimaci
on por intervalo
185
pb(1 pb)
z/2 < p < pb +
n
pb(1 pb)
z/2
n
Otro metodo consiste en utilizar como valor aproximado del producto p(1 p), su
maximo valor posible. As,
y = p(1 p) y = 1 2p = 0 p =
1
1
p(1 p) =
2
4
pb
13.5.
1
z/2 < p < pb +
4n
1
z/2
4n
b MV es su estimador de maxima
Si es cualquier parametro de una poblacion,
b MV es asintotiverosimilitud y bMV es su estimacion de maxima verosimilitud entonces,
b MV ]
b MV = E[
MV
b MV )
= Var(
1
LnL(x1 , . . . , xn ; )
b
2
=MV
2
MV
= N(0, 1)
b MV
entonces
P
z/2
b MV b
MV
<
< z/2
b MV
=1
186
Estadstica
es decir,
bMV z/2 b MV < < bMV + z/2 b MV
xi
1
n
b
MV = P =
xi
x
bMV )
Var(
1
LnL
2
2
bMV
=
xi
xi = 0
1
1
=
n
n
x2
2
=bMV
iii) Si el tama
no de la muestra es suficientemente grande, un intervalo de confianza del
(1 ) % para el parametro de una poblacion Exponencial es
1
1
1
1
z/2 < < + z/2
x
x n
x
x n
14
Teora de muestras
de poblacion finita
Indice
14.1. Introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
14.2. Distribuciones de muestreo
. . . . . . . . . . . . . . . . . . . . 189
187
188
Estadstica
14.1.
Introducci
on
Por tanto, en este caso, no importa como se haya extrado la muestra, pues siempre
podremos considerar que {x1 , . . . , x1000 } son independientes y estan identicamen-
189
1X
xi
Media Muestral x =
n i=1
n
1 X
Varianza Muestral s =
(xi x)2
n 1 i=1
2
14.2.
Distribuciones de muestreo
14.2.1.
1X
x =
xi
n i=1
190
Estadstica
Por tanto,
E[] =
m
X
zi P ( = zi ) =
i=1
n
N 1
1
N
n
n1
m
X
zi =
i=1
(X1 + + XN )
n
! (z1 + + zm ) =
N 1
n1
!
N
1X
Xi =
n i=1
N
N
1 X
n1X
Xi =
Xi =
N n i=1
N i=1
Es decir,
E[
x] =
Para calcular la varianza,
Var() = E ( )2 = E[ 2 ] (E[])2
Pero
E[ ]
m
X
zi2 P (
= zi ) =
i=1
n
1
1
! 2
n
N
n
(E[])
"
N 1
n1
m
X
zi2 =
i=1
N
X
Xi2 + 2
N 2
i=1
n2
X
i<j
N
X
n1
1 X 2
Xi + 2
Xi Xj
nN i=1
Nn(N 1) i<j
= 2 =
N
1 X
Xi
N i=1
!2
1
= 2
N
N
X
i=1
Xi2 + 2
X
i<j
Xi Xj
Xi Xj =
191
Entonces
Var() =
X
N
1
1
2
nN
N
Xi2
+2
i=1
1
n1
2
Nn(N 1) N
X
Xi Xj =
i<j
X
N nX 2
N n
=
Xi Xj =
X
2
nN 2 i=1 i
nN 2 (N 1) i<j
"
#
N
N n
2 X
N 1X 2
=
X 2
Xi Xj =
n(N 1)
N 2 i=1 i
N i<j
N n
=
n(N 1)
"
1
1
2
N
N
X
N
i=1
"
N
1
N n
1 X 2
Xi 2
=
n(N 1) N i=1
N
#
X
2
Xi Xj =
Xi2 2
N i<j
N
X
Xi2 + 2
i=1
Xi Xj
i<j
!#
#
"
N
N
N n 1 X
N n
1 X 2
2
2=
Xi X =
Xi X
=
n(N 1) N i=1
n(N 1) N i=1
=
Es decir,
N n 2
n(N 1)
N n 2
n(N 1)
Ademas, cuando N es grande con respecto a n, entonces
Var(
x) =
14.2.2.
N n
n(N 1)
1 X
(xi x)2
s =
n 1 i=1
2
N n
N 1
1 y la varianza del
192
Estadstica
Si llamamos = s2 y {z1 , . . . , zm } a los posibles valores que puede tomar , entonces
!
N
m=
n
z1 =
z2 =
..
.
zm =
1 X
(Xi x1 )2
n1
x1 =
1 X
(Xi x2 )2
n1
x2 =
1X
Xi
n
P ( = z1 ) =
1X
Xi
n
P ( = z2 ) =
N
n
1X
1 X
(Xi xm )2 xm =
Xi P ( = zm ) =
n1
n
Entonces,
1 X 2
1 X
2
2
(Xi xi ) =
Xi n
xi
zi =
n1
n1
1
N
n
1
N
n
!
!
!
E[] =
m
X
zi P ( = zi ) =
i=1
z1 + + zm
=
!
N
n
1
!
n1
N
1
"
N 1
"
N 1
n1
193
1
!
n1
N
n1
1
n 2
n
N 1
n1
N
X
N
X
Xi2
i=1
N
X
i=1
m
X
x2i
i=1
Xi2
Xi2 + 2
i=1
N 2
n2
Xi Xj
i<j
!#
n(n 1) 1 1 X
n 1 n1X 2
Xi 2
Xi Xj =
N n 1 n i=1
N(N 1) n 1 n i<j
N
X
1 X 2
2
N
Xi
Xi Xj =
2
N i=1
N(N 1) i<j
N 1
Por tanto,
E[s2 ] =
14.2.3.
N
2
N 1
Estadstico proporci
on muestral
Tenemos una P.M. B(1, p) de N elementos, {X1 , . . . , Xi }, entre los cuales hay A
A
N
2 = Var(P.M.) = p(1 p)
194
Estadstica
Sacamos una muestra aleatoria sin reemplazamiento, {x1 , . . . , xn }, entre los cuales
a
n
1 si es exito
xi =
entonces
0 si es fracaso
n
1X
xi = x
pb =
n i=1
es decir, la proporcion muestral no es mas que la media muestral por lo que podemos
aplicar los resultados de la seccion 14.2.1. As
E[b
p] = E[
x] = = p
Var(b
p) = Var(
x) =
Por tanto,
N n 2
N n
=
p(1 p)
n(N 1)
n(N 1)
r
N n
pb ? p, p(1 p)
n(N 1)
14.3.
Intervalos de confianza
14.3.1.
1X
x =
xi
n i=1
195
N n
n(N 1)
N n
k < < x +
n(N 1)
N n
k
n(N 1)
1 k
siendo k = 1/k 2 . Por tanto, un intervalo de confianza del (1 k )100 % para la media
poblacional viene dado por
x
14.3.1.2.
N n
k < < x +
n(N 1)
N n
k
n(N 1)
N 1
.
N
x s
N n
k < < x + s
nN
N n
k
nN
1 k
siendo k = 1/k 2 . Por tanto, un intervalo de confianza del (1 k )100 % para la media
poblacional viene dado por
x s
14.3.2.
N n
k < < x + s
nN
N n
k
nN
Dada un P.M. con una proporcion de exitos p, como estimador puntual de dicho
parametro se utilizara la proporcion de exitos de la muestra, pb.
196
Estadstica
Seg
un lo dicho en el apartado 14.2.3
pb ?
p,
N n
p(1 p)
n(N 1)
pb
N n
k < p < pb +
p(1 p)
n(N 1)
N n
k
p(1 p)
n(N 1)
1 k
pero esto no sirve de mucho pues como no conocemos el valor de p, no se pueden calcular
los lmites del intervalo. Para resolver este problema, se puede proceder de dos formas.
Una solucion consiste en aproximar el valor de p por el valor de la proporcion
muestral. Por tanto, un intervalo de confianza del (1 k )100 % para la proporcion
de exitos de la poblacion es
r
r
N n
N n
pb pb(1 pb)
k < p < pb + pb(1 pb)
k
n(N 1)
n(N 1)
Otro metodo consiste en utilizar como valor aproximado del producto p(1 p), su
maximo valor posible. As,
y = p(1 p) y = 1 2p = 0 p =
1
1
p(1 p) =
2
4
pb
1 N n
k < p < pb +
4 n(N 1)
1 N n
k
4 n(N 1)
Contraste
de hipotesis
15
Indice
15.1. Introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
15.2. Las hip
otesis nula y alternativa . . . . . . . . . . . . . . . . . . 199
15.3. Metodologa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
15.4. Nivel de significaci
on y regi
on crtica
. . . . . . . . . . . . . . 204
15.7.2.1. Poblaci
on Madre Normal . . . . . . . . . . . . . . . . 211
15.7.2.2. Poblaci
on Madre no Normal . . . . . . . . . . . . . . 213
15.8. Comparaci
on de medias
. . . . . . . . . . . . . . . . . . . . . . 213
197
198
Estadstica
15.1.
Introducci
on
Con frecuencia, los problemas a los que nos enfrentamos no se refieren solo a la
estimacion de un parametro poblacional. Se nos puede plantear el problema de rechazar o
aceptar cierta hipotesis realizada sobre una poblacion, en base al estudio de una muestra
mas peque
na. Los procedimientos que conducen a la aceptacion o rechazo de una hipotesis
estadstica se enmarcan dentro de la llamada Teora de la Decision.
Una Hipotesis Estadstica es una afirmacion o conjetura acerca de una o mas poblaciones. Nunca se sabe con absoluta certeza la veracidad o falsedad de una hipotesis
estadstica, a no ser que se examine la poblacion entera. Esto, por supuesto, es poco
practico en la mayora de las ocasiones. En su lugar, se toma una muestra aleatoria de la
poblacion de interes, y se utilizan los datos de dicha muestra para obtener evidencias que
confirmen o no la hipotesis propuesta. La evidencia de la muestra que es inconsistente con
la hipotesis planteada conduce a un rechazo de la misma, mientras que la evidencia que
la apoya, conduce a su no rechazo.
Debe quedar claro que el dise
no de un procedimiento de decision debe llevarse a
cabo con la idea de la probabilidad de una conclusion equivocada. Por ejemplo, supongamos que la hipotesis planteada es que la fraccion, p, de artculos defectuosos en un
cierto proceso es de 0.10. El experimento consiste en observar una muestra aleatoria del
producto en cuestion. Supongamos, ademas, que se estudian 100 artculos y se encuentran 12 defectuosos. Es razonable concluir que esta evidencia no refuta la hipotesis de
que p = 0.10, y entonces esto puede conducir a su aceptacion. Sin embargo, tampoco
rebate que p = 0.12 o tal vez, incluso, que p = 0.15. Por tanto, debemos acostumbrarnos
a entender que la aceptaci
on de una hip
otesis implica tan s
olo que los datos no
proporcionan evidencia suficiente para rechazarla. Por otra parte, el rechazo
de una hip
otesis implica que la evidencia de la muestra la refuta. Dicho de otra
forma, el rechazo de una hip
otesis significa que la probabilidad de que dicha
hip
otesis sea cierta es muy peque
na. Por ejemplo, en la hipotesis de proporcion de
defectos, de una muestra de 100 artculos, 20 son defectuosos. Esto es una evidencia para
rechazar la hipotesis, pues si en realidad fuese p = 0.10, la probabilidad de obtener 20 o
mas artculos defectuosos es aproximadamente 0.0035. Con el peque
no riesgo de llegar a
una conclusion equivocada, parece logico rechazar la hipotesis de que p = 0.10.
Generalmente, en este tipo de problemas, si queremos respaldar un argumento, lo
que debemos intentar es rechazar el argumento contrario. Es decir, si queremos mostrar
una evidencia contundente a favor del argumento de que tomar cafe aumenta el riesgo de
15 Contraste de hip
otesis
199
infarto, la hipotesis a probar debe ser de la forma no hay aumento en el riesgo de infarto
al tomar cafe. Como resultado, el argumento se alcanza va rechazo. De igual forma, para
respaldar la afirmacion de que un tipo de medidor es mas preciso que otro, se prueba con
la hipotesis de que no hay diferencia en la exactitud de los dos tipos de medidores.
15.2.
Las hip
otesis nula y alternativa
Una hipotesis como la hipotesis nula anterior, p = 0.5, que especifica un valor
exacto del parametro se denomina simple, mientras que una hipotesis como cualquiera
de las hipotesis alternativas anteriores que no especifican un valor exacto del parametro
se denomina compuesta. Conviene observar que, seg
un lo dicho anteriormente no hay
diferencia entre el test H0 : p = 0.5 ; H1 : p > 0.5 y el test H0 : p 0.5 ; H1 : p > 0.5.
En ambos, aceptar H0 significa que no hay evidencia suficiente para creer que p > 0.5
y por tanto que H1 sea cierta. Rechazar la hipotesis nula significara, por el contrario,
que la proporcion p es superior a 0.5. As, por simplicidad, la hip
otesis nula se toma
siempre simple.
La hipotesis alternativa se clasifica como unilateral si conocemos en que direccion
puede ser falsa H0 (los casos H1 : p > 0.5 o H1 : p < 0.5) y bilateral si no podemos saber
la direccion (H1 : p 6= 0.5)
200
Estadstica
iguales que 8, y los que son mayores que 8. Todos los posibles valores mayores que 8
constituyen la llamada Region Crtica o de Rechazo, y todos los valores menores o iguales
que 8 constituyen la Region de Aceptacion. El u
ltimo valor que se tiene en la region de
aceptacion antes de pasar a la region crtica (en este caso el 8), recibe el nombre de Valor
Crtico. Por tanto, si x > 8, se rechaza H0 en favor de la hipotesis alternativa H1 . Si x 8
se acepta H0 , siendo x el valor de X observado en la muestra.
Se dice que se ha cometido un error tipo II, cuando se acepta la hipotesis nula siendo
esta falsa.
15 Contraste de hip
otesis
201
= P (error tipo I) = P Rechazar H0
=
H0 es cierta
X
20
= P X > 8
P [B(20, 1/4) = x] = 0.0409
=
p = 1/4
x=9
Se dice, entonces, que la hipotesis nula, p = 1/4, se esta probando con un nivel de
significacion de = 0.0409. Este nivel de significacion es bastante peque
no, por tanto,
es poco probable que se cometa un error tipo I. Es decir, es poco probable que mas de
8 individuos se mantengan inmunes al virus durante 2 o mas a
nos utilizando una nueva
vacuna que, en realidad, es equivalente a la que ya existe en el mercado.
La probabilidad de cometer un error tipo II, representado por , es imposible de
calcular a no ser que se tenga una hipotesis alternativa especfica. Si se prueba la hipotesis
nula de que p = 1/4 en contraposicion con la hipotesis alternativa de que p = 1/2, entonces
estamos en condiciones de calcular la probabilidad de aceptar H0 cuando en realidad es
falsa. Simplemente hay que calcular la probabilidad de obtener 8 o menos individuos en
el grupo de prueba que sobrepasen el periodo de 2 a
nos, cuando p = 1/2. Es decir,
= P (error tipo II) = P Aceptar H0
=
H0 es falsa
X
8
= P X 8
=
P [B(20, 1/2) = x] = 0.2517
p = 1/2
x=0
Esta
es una probabilidad bastante grande, lo que indica un procedimiento de prueba
con el cual es muy probable que se rechace la nueva vacuna cuando, en realidad, es
superior a la que se utiliza en la actualidad. En una situacion ideal, sera preferible utilizar
un procedimiento con el que ambos tipos de error fuesen peque
nos. Siempre es posible
disminuir el valor de , incrementando el tama
no de la region crtica. Por ejemplo, veamos
que ocurre con y cuando tomamos como valor crtico 7. Ahora, al probar p = 1/4
contra la hipotesis alternativa de que p = 1/2, se encuentra que
202
Estadstica
= P (error tipo I) = P
= P
Rechazar H0
=
H0 es cierta
X
20
X > 7
P [B(20, 1/4) = x] = 0.1018
=
p = 1/4
x=8
= P (error tipo II) = P Aceptar H0
=
H0 es falsa
= P
X
7
X 7
=
P [B(20, 1/2) = x] = 0.1316
p = 1/2
x=0
npq =
100
1 3
= 4.33
4 4
36.5 25
X
=
= 2.66
4.33
entonces
= P (error tipo I) = P
= P X > 36
p = 1/4
=
Rechazar H0
H0 es cierta
15 Contraste de hip
otesis
203
5
entonces
= P (error tipo II) = P Aceptar H0
=
H0 es falsa
= P
X 36
P (Z < 2.70) = 0.0035
p = 1/2
En la figura 15.1 se muestra un esquema de los errores tipo I y tipo II correspondientes al ejemplo anterior.
15.3.
Metodologa
204
Estadstica
3. Definir la region crtica del test, es decir, especificar que valores del estadstico consideramos inadmisibles para asumir H0 . Esta especificacion se cuantifica en terminos
de probabilidades: nos interesa saber cuando la diferencia entre el valor esperado
del estadstico bajo la hipotesis H0 y su valor obtenido para la muestra (lo que se
conoce como disparo) es demasiado grande para poder atribuirse al azar.
b y
4. Tomar una muestra, calcular el valor que toma el estadstico en la muestra, ,
tomar una decision seg
un su valor caiga o no en la region crtica.
Lo que debe especificarse al definir un contraste de hipotesis es, por tanto, el estadstico que vamos a utilizar y la region crtica. En gran parte de los casos, la eleccion del
estadstico o es evidente (la media muestral, por ejemplo, si las hipotesis se refieren al valor medio de una cantidad) o este resulta ser estandar, y por tanto conocido de antemano
para un determinado tipo de problema (como el estadstico de Pearson que estudiaremos
posteriormente en los contrastes de bondad del ajuste).
La eleccion de la region crtica se hace de acuerdo al interes que tengamos en minimizar el error de tipo I. Para reducir la posibilidad de un error de tipo II deberemos jugar
con el tama
no de la muestra.
15.4.
Nivel de significaci
on y regi
on crtica
para rechazar H0 . Llamemos a esta region Dc , de tal modo que rechazaremos H0 si el valor
b obtenido en el muestreo b Dc .
de
Recordando la definicion del nivel de significacion:
Podemos reescribir:
= P Rechazar H0
H0 es cierta
=P
b
Dc
H0 es cierta
Recordemos que es posible calcular esta probabilidad ya que conocemos la distrib bajo la suposicion de que H0 es cierta. As, fijado de antemano
bucion del estadstico
15 Contraste de hip
otesis
205
Si b Dc se rechaza la hipotesis H0
En general, en este curso vamos a trabajar solo con tres tipos de contrastes, para
los cuales la relacion entre el nivel de significacion y la region crtica es (Fig. 15.2):
Contraste bilateral
Contraste
H0 : = 0
H1 : 6= 0
Calculo de la Region Crtica
/2 = P
/2 = P
Decision
< a1
= a1
= 0
b > a2
= a2
= 0
RC = (, a1)(a2, +)
= 0
RC = (a, +)
206
Estadstica
Decision
Si b > a = Rechazo H0 en favor de H1
Si b < a = No Rechazo H0
= 0
RC = (, a)
Decision
Este mecanismo basado en la fijacion de un nivel de significacion no es completamente satisfactorio y, en la actualidad, se prefiere el enfoque basado en lo que se conoce
como Valor-p de un contraste. Antes de definirlo conviene detenerse en las limitaciones
del enfoque anterior.
El resultado del test depende enormemente de la eleccion del nivel . As, es posible
rechazar H0 con un = 0.05 y, sin embargo no hacerlo si = 0.045. De hecho, con este
enfoque, no queda constancia del grado de evidencia que la muestra indica a favor o en
contra de H0 . En la figura 15.3 se muestran dos disparos que conduciran al rechazo de
H0 aunque, claramente, la evidencia de este rechazo es muy distinta.
15.5.
Valor-p
15 Contraste de hip
otesis
207
Figura 15.2: Region crtica para un nivel de significacion . (a): contraste bilateral, (b):
contraste unilateral por la derecha, (c): contraste unilateral por la izquierda. En todos los
b cuando H0 es cierta, es decir cuando
casos se ha dibujado la distribucion del estadstico
= 0
208
Estadstica
Rechazo
b
b
Contraste bilateral
Valor-p = P ||
H0 es cierta
b b
Valor-p = P
b b
Valor-p = P
H0 es cierta
H0 es cierta
2. Si Valor-p 0.01 se considera que la evidencia es mas que suficiente para rechazar
H0 en favor de H1 .
15 Contraste de hip
otesis
15.6.
209
Potencia de un contraste
probabilidad de aceptar H0 cuando esta es cierta y, por tanto, esta relacionada con el
nivel de significacion mediante la igualdad:
(0 ) = 1
Para cualquier otro valor de se obtiene la probabilidad de error de tipo II si la
hipotesis alternativa H1 especifica dicho valor para el parametro.
Se define la funci
on o curva de potencia de un contraste como (Fig 15.4.b)
P otencia() = 1 () = P
Rechazar H0
= P Rechazar H0
H0 es falsa
Observese que para dos contrastes con igual nivel de significacion, el de mayor potencia es aquel en el que es menos probable cometer un error de tipo II.
Como se ha visto en el ejemplo anterior una posible manera de aumentar la potencia
de un contraste es aumentar el tama
no muestral.
15.7.
Vamos a establecer en esta seccion una serie de contrastes relacionados con el valor
de la media de una poblacion. Los estadsticos que vamos a emplear han sido estudiados
en el captulo dedicado a las distribuciones en el muestreo.
210
Estadstica
15.7.1.
Varianza conocida
Supongamos una P.M. de media y varianza conocida. Sabemos que la distribucion en el muestreo del estadstico media muestral
n
es
x
15.7.1.1.
N , / n
? (, /n )
1X
x =
xi
n i=1
si la poblacion madre es normal N(, ) o n 30
si la poblacion madre es ? (, )
Poblaci
on Madre Normal o n 30
Contraste bilateral
H0 : = 0
H1 : 6= 0
Empleando la notacion zp para el cuantil 1 p de una normal estandar N(0, 1) (es
x 0
< z/2 = 1
P z/2 <
/ n
y deberemos aceptarla en caso contrario. El nivel crtico del test, o Valor-p, sera
x 0
Valor-p = P |N(0, 1)| >
/ n
H0 : = 0
H1 : > 0
El contraste es completamente analogo al anterior salvo que ahora la region de
aceptacion no esta limitada por la izquierda. Tenemos ahora que
x 0
< z = 1
P
/ n
15 Contraste de hip
otesis
211
y, por tanto, una region de aceptacion (, 0 + z / n). El nivel crtico del test,
o Valor-p, sera ahora
x 0
sera ahora
x 0
(z + z )2 2
si la prueba es unilateral
(z + z )2 2
/2
si la prueba es bilateral
2
15.7.2.
Varianza desconocida
15.7.2.1.
Poblaci
on Madre Normal
x
tn1
s/ n
212
Estadstica
H0 : = 0
H1 : 6= 0
Empleando la notacion tp para el cuantil 1 p de una t de Student con n-1 grados
y deberemos aceptarla en caso contrario. El nivel crtico del test, o Valor-p, sera
x 0
Valor-p = P |tn1 | >
s/ n
H0 : = 0
H1 : > 0
Tenemos ahora que
x 0
< t = 1
P
s/ n
y, por tanto, una region de aceptacion (, 0 + t s/ n). El nivel crtico del test,
o Valor-p, sera ahora
Valor-p = P
tn1
x 0
>
s/ n
x 0
> t = 1
P
s/ n
y, por tanto, una region de aceptacion (0 t s/ n, +). El nivel crtico del test,
Valor-p = P
tn1
x 0
<
s/ n
15 Contraste de hip
otesis
15.7.2.2.
213
Poblaci
on Madre no Normal
Incluso en el caso de que la poblacion madre no sea normal, en virtud del teorema
central del lmite, para valores grandes de n (n > 30) podemos utilizar la aproximacion
x
= N(0, 1)
s/ n
15.8.
Comparaci
on de medias
15.8.1.
Varianzas conocidas
El estadstico relevante es
(
x y) (x y )
r
N (0, 1)
x2 y2
+
n
m
15.8.2.
15.8.3.
donde,
(
x y) (x y )
tn+m2
r
2
2
(n 1)sx + (m 1)sy 1
1
+
n+m2
n m
214
Estadstica
(A + B)2
=
B2
A2
+
n1 m1
15.8.4.
s2y
s2x
A=
, B=
n
m
Muestras apareadas
El anterior enfoque para la comparacion de medias no es completamente satisfactorio. En algunos casos podemos sospechar que las muestras tomadas independientemente
de las dos poblaciones no han sido hechas bajo las mismas condiciones, lo que falseara
el resultado del contraste. esto es especialmente relevante si la poblaciones presentan una
gran variabilidad, lo que suele ser indicativo de que existen muchos factores que pueden
influir en sus parametros.
Una manera de evitar este problema es tomar, si se puede, muestras apareadas:
medidas realizadas por pares en situaciones lo mas semejantes posibles. Por ejemplo, para
medir la eficacia de dos marcas de neumaticos conviene tomar medidas de los neumaticos
montados sobre el mismo vehculo, con lo que eliminaremos la variabilidad debida a los
distintos conductores, amortiguadores, mecanica etc.
En un proceso de medida apareado obtenemos n pares de valores x1,i , x2,i referidos
a las dos poblaciones 1 y 2. Se toma el valor yi = x1,i x2,i del estadstico diferencia D.
Si D y sD son su media y desviacion muestral respectivamente, el estadstico
T =
D
D
tn1
sD / n
15.9.
El n
umero de elementos de una poblacion que presentan una determinada caracterstica sigue una distribucion binomial, como sabemos. Si X es una variable binomial
B(n, p), la proporcion de elementos de la poblacion que presentan la caracterstica deseada sera su valor medio dividido por n. Para n grande, la variable binomial se aproxima a
una normal, por lo que salvo en el caso de poblaciones peque
nas (n < 30) los contrastes
de proporciones son analogos a los referidos a las medias de una poblacion.
15 Contraste de hip
otesis
215
15.9.1.
donde
x1 + x2
n1 + n2
siendo x1 y x2 el n
umero de elementos de cada muestra que presentan la caracterstica.
pe =
15.10.
15.10.1.
Una poblaci
on
15.10.2.
Comparaci
on de varianzas
216
Estadstica
Figura 15.4: Dada la hipotesis nula H0 : p = 1/4. Curva de operacion caracterstica para
las hipotesis alternativas (a1) H1 : p 6= 1/4; (a2) H1 : p > 1/4; (a3) H1 : p < 1/4. Curva
de potencia para las hipotesis alternativas (b1) H1 : p 6= 1/4; (b2) H1 : p > 1/4; (b3)
H1 : p < 1/4
15 Contraste de hip
otesis
217
= 0
x 0
; conocida
z=
/ n
= 0
1 2 = d0
1 2 = d0
x 0
; =n1
t=
s/ n
desconocida
z=p
(
x1 x2 ) d0
= n1 + n2 2, 1 = 2
pero desconocida,
s2p =
(
x1 x2 ) d0
t= p 2
(s1 /n1 ) + (s22 /n2 )
1 2 = d0
1 6= 2 y desconocidas
D = d0
d d0
; =n1
t=
sd / n
observaciones apareadas
H1
Region crtica
< 0
z < z
> 0
z > z
6= 0
> 0
t > t
6= 0
1 2 > d0
z > z
1 2 6= d0
1 2 < d0
t < t
1 2 > d0
t > t
1 2 6= d0
1 2 < d0
t < t
1 2 > d0
t > t
1 2 6= d0
D < d0
t < t
D > d0
t > t
D 6= d0
< 0
1 2 < d0
t < t
z < z
218
Estadstica
16
Contrastes
no parametricos
Indice
16.1. Contraste 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
16.1.1. Prueba de bondad del ajuste . . . . . . . . . . . . . . . . . . . 221
16.1.1.1. Hipotesis simple . . . . . . . . . . . . . . . . . . . . . 221
16.1.1.2. Hipotesis compuesta . . . . . . . . . . . . . . . . . . . 221
16.1.2. Prueba de homogeneidad . . . . . . . . . . . . . . . . . . . . . 222
16.1.3. Prueba de independencia . . . . . . . . . . . . . . . . . . . . . 223
16.2. Contraste de Kolmogorov-Smirnov . . . . . . . . . . . . . . . . 223
16.3. Otros contrastes no param
etricos . . . . . . . . . . . . . . . . . 224
16.3.1. Contrastes de posici
on . . . . . . . . . . . . . . . . . . . . . . . 224
16.3.1.1. Test de los signos . . . . . . . . . . . . . . . . . . . . 225
16.3.1.2. Test de Wilcoxon de los rangos signados . . . . . . . . 226
16.3.1.3. Test de la mediana . . . . . . . . . . . . . . . . . . . . 227
16.3.1.4. Test de Mann-Whitney . . . . . . . . . . . . . . . . . 227
16.3.2. Contrastes de independencia . . . . . . . . . . . . . . . . . . . 228
16.3.2.1. Test de Kendall . . . . . . . . . . . . . . . . . . . . 228
16.3.2.2. Test del coeficiente de correlaci
on entre rangos o test
de Spearman . . . . . . . . . . . . . . . . . . . . . . . 229
16.3.2.3. Test de rachas . . . . . . . . . . . . . . . . . . . . . . 229
16.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
219
220
Estadstica
En el captulo anterior hemos manejado contrastes parametricos, es decir, aquellos
en los que se estudia la veracidad de hipotesis acerca de los parametros de los que depende
la distribucion de una poblacion. En muchas otras ocasiones es necesario emitir un juicio
sobre la distribucion poblacional en su conjunto. Los problemas mas habituales que suelen
plantearse son los siguientes:
Decidir, a la vista de una muestra aleatoria de una poblacion, si puede admitirse
que esta sigue una cierta distribucion dada N(0,1), Poisson(5), etc.) o bien pertenece a un cierto tipo de distribuciones (es normal, exponencial, geometrica, etc.).
Los contrastes que dilucidan esta cuestion se denominan de bondad del ajuste.
Analizar si varias muestras aleatorias provienen de poblaciones con la misma distribucion teorica, de forma que puedan utilizarse conjuntamente para inferencias
posteriores sobre esta o si, por el contrario, son muestras de poblaciones con
distinta distribucion. Es el problema de la homogeneidad de varias muestras.
Estudiar, en el caso de que se observen dos o mas caractersticas de los elementos
decidir entre distribuciones F que solo se diferencian en el valor del parametro . As, por
ejemplo, si queremos probar una hipotesis nula como que la distribucion es Exp( = 5)
la hipotesis alternativa contiene a todas las distribuciones continuas y no solo a las
exponenciales con otro valor de su parametro .
16.1.
Contraste 2
16 Contrastes no param
etricos
221
16.1.1.
16.1.1.1.
Hip
otesis simple
D=
k
X
(ni ni,esp )2
i=1
ni,esp
que, en las condiciones antes citadas, sigue una distribucion 2 con k 1 grados de
libertad. (La region crtica es de la forma D > c).
16.1.1.2.
Hip
otesis compuesta
Supongamos ahora (lo que suele ser mas habitual) que la hipotesis a contrastar especifica una familia de distribuciones de forma funcional dada pero dependiente de algunos
parametros no especificados (por ejemplo, suponemos que nuestra poblacion es normal
de media 1 pero desconocemos la desviacion o, suponiendo que es normal, no conocemos
222
Estadstica
ni la media ni la desviacion, etc.). En este sentido se dice que la hipotesis nula es ahora
compuesta pues unifica varias hipotesis simultaneamente. Una posibilidad para resolver
el problema es tomar varias muestras: con las primeras estimamos los parametros y con
la u
ltima realizamos el contraste 2 anterior. Sin embargo, es posible (y mas conveniente
en muchos casos) realizar el estudio empleando una u
nica muestra. El procedimiento a
seguir en este segundo caso es:
1. Se estiman los parametros a partir de la muestra empleando el criterio de m
axima verosimilitud.
2. Se repite el proceso anterior con la salvedad de que ahora la distribucion del estadstico D de Pearson es una 2 con k 1 grados de libertad, siendo el
n
umero de parametros que hemos estimado.
16.1.2.
Prueba de homogeneidad
Supongamos que se dispone de m muestras aleatorias simples de otras tantas poblaciones cuyos tama
nos son, respectivamente, n1 , n2 , , nm . A partir de estos datos se desea
decidir si la distribucion poblacional es la misma en todos los casos y, por consiguiente,
A1
A2
n11
n12
2
..
.
n21
..
.
n22
..
.
nm1
nm2
Total
n1
n2
Ak
Total
n1k
n1
n2k
..
.
n2
..
.
nmk
nm
..
.
nk
m X
k
X
(nij ni nj /n)2
ni nj /n
i=1 j=1
16 Contrastes no param
etricos
16.1.3.
223
Prueba de independencia
Supongamos que de n elementos de una poblacion se han observado dos caractersticas X e Y , obteniendose una muestra aleatoria simple bidimensional (x1 , y1 ), (x2 , y2),
,(xn , yn ). Sobre la base de dichas observaciones se desea contrastar si las caractersticas
poblacionales X e Y son independientes o no.
B2
A1
n11
n12
A2
..
.
n21
..
.
n22
..
.
Ak
nk1
nk2
Total
n1
n2
Br
Total
n1r
n1
n2r
..
.
n2
..
.
nkr
nk
..
.
nr
Tanto en este caso como en el anterior la region crtica del test es de la forma D > c.
16.2.
Contraste de Kolmogorov-Smirnov
224
Estadstica
r
Fn (x) =
x < x1
xr x xr + 1
x xn
16.3.
16.3.1.
Contrastes de posici
on
16 Contrastes no param
etricos
225
Tenemos una distribucion continua desconocida F cuya mediana sera Me. Probaremos a contrastar la hipotesis nula
H0 : Me = m0
frente a alguna de las alternativas Me < m0 , Me > m0 o Me 6= m0 . El estadstico que se
emplea es
T = { N
umero de observaciones muestrales mayores que m0 }
que, si H0 es correcta, tiene una distribucion binomial B(n, 1/2), siendo n el tama
no de
la muestra.
S
La region crtica sera de la forma {T k}, {T k} o {T k} {T n k},
seg
un sea la hipotesis alternativa una de las rese
nadas arriba, y donde k puede fijarse
determinando un nivel crtico .
Si el tama
no muestral es apreciable (n > 20) puede aproximarse la distribucion
binomial por la normal correspondiente.
Seg
un la hipotesis de continuidad de la distribucion no deberan obtenerse valores
muestrales coincidentes con la mediana. En la practica esto puede ocurrir, siendo
226
Estadstica
Es facil generalizar este contraste para cualquier otro cuantil, cambiando el parametro p de la binomial.
datos, siendo entonces m0 = 0. Este procedimiento nos dira si la mediana de las dos
contrastar para Me, se ordenan, en orden creciente, los valores absolutos |Di | y se anota
el rango (o lugar) r (|Di |) que cada uno ocupa en dicha ordenacion. El estadstico en
que se basa el test es la suma de los rangos de las observaciones mayores que m0 , cuya
distribucion, si H0 es cierta, se encuentra tabulada.
T+ =
Di >0
r (|Di |)
+
Si el tama
no muestral es apreciable
(n > 20) la distribucion del estad
stico T puede
p
aproximarse por la normal N n(n + 1)/4, n(n + 1)(2n + 1)/24 . En todo caso,
datos, siendo entonces m0 = 0. Este procedimiento nos dira si la mediana de las dos
para tama
nos muestrales grandes, para los que la mediana muestral tiende al valor
de la mediana poblacional, puede usarse, sustituyendo m0 por el valor muestral de
la mediana, para contrastar la simetra de la distribucion.
16 Contrastes no param
etricos
16.3.1.3.
227
Test de la mediana
n+mp
nt
!
n+m
Test de Mann-Whitney
Este contraste resuelve.el mismo caso que el anterior: detectar diferencias de posicion entre dos poblaciones continuas de las que tenemos dos muestras aleatorias simples.
El estadstico a utilizar es V , calculado como sigue:
1. Se ordenan conjuntamente, igual que en el caso anterior, las dos muestras en orden
creciente.
2. Para cada valor xi correspondiente a la primera muestra (que debe corresponder a
la de tama
no muestral menor) se cuenta el n
umero de valores de la segunda muestra
que hay por debajo de el.
3. V es la suma de los n
umeros calculados anteriormente.
228
Estadstica
Supongamos, por ejemplo, que al ordenar la muestra el resultado hubiera sido (cada x
16.3.2.
Contrastes de independencia
Test de Kendall
3. Para cada valor de esta sucesion se cuenta cuantos de los valores posteriores a el
son mayores.
4. Se suman los n
umeros as obtenidos. Llamemos P a su valor.
5. T =
4P
1
n(n 1)
16 Contrastes no param
etricos
16.3.2.2.
229
n
X
j=1
4. RS = 1
(rj j)2
6U
n(n2 1)
Test de rachas
r1
m1
n+m
n
r1
!
230
Estadstica
n1
P (R = 2r + 1) =
r1
m1
r
n+m
n
n1
!
m1
r1
S
La region crtica de este contraste es de la forma {R < k1 } {R > k2 }.
16.4.
Ejemplos
Ejemplo 1
Se ha estimado que el n
umero de accidentes diarios en una determinada carretera
sigue una distribucion de Poisson de parametro 2. Durante 200 das se han recogido los
siguientes datos:
n de accidentes
n de das
6 7
22 53 58 39 20 5
2 1
donde se han agrupado las categoras correspondientes a 5 o mas accidentes para satisfacer
la condicion de que el n
umero esperado en cada categora sea mayor o igual a 5.
El estadstico D de Pearson vale
D=
5
X
(ni ni,esp)2
i=0
ni,esp
5
X
222
532
82
n2i
= n +
=
+
++
200 = 2.307
n
27.06 54.14
10.54
i=0 i,esp
16 Contrastes no param
etricos
231
232
Estadstica
Ejemplo 2
Una maquina, en correcto estado de funcionamiento, fabrica piezas cuya longitud
se distribuye seg
un una N(10.5; 0.15). En determinado momento se observa la siguiente
muestra, de tama
no 40, de la longitud de las piezas producidas:
10.39 10.66 10.12 10.32 10.25 10.91 10.52 10.83
10.72 10.28 10.35 10.46 10.54 10.72 10.23 10.18
10.62 10.49 10.32 10.61 10.64 10.23 10.29 10.78
10.81 10.39 10.34 10.62 10.75 10.34 10.41 10.81
10.64 10.53 10.31 10.46 10.47 10.43 10.57 10.74
y se desea saber si la muestra avala que la maquina esta funcionando correctamente.
Vamos a realizar el contraste de bondad del ajuste de 2 primero y, posteriormente, el de
Kolmogorov-Smirnov.
Para realizar el contraste 2 , tomamos 8 intervalos buscando los cuantiles de ordenes
0.125, 0.25, 0.375, , 0.875, de modo que el n
umero esperado de valores sea 5 en cada
Ai
ni
ni,esp
10.33
10
(10.33, 10.4]
(10.4, 10.45]
(10.45, 10.5]
(10.5, 10.55]
(10.55, 10.6]
(10.6, 10.67]
> 10.67
Total
40
40
52 + 02 + 32 + 12 + 22 + 42 + 12 + 42
= 14.4
5
Si la hipotesis fuera correcta la distribucion de D sera 2 con 7 grados de libertad y la
D=
16 Contrastes no param
etricos
233
Para realizar ahora el contraste K-S se construye la siguiente tabla, cuya segunda
columna da el n
umero de observaciones acumuladas hasta el valor muestral, la tercera
la funcion de distribucion muestral (dividiendo por el tama
no de la muestra), la cuarta
la distribucion teorica (dada por la hipotesis nula) y las dos siguientes las diferencias: la
quinta de la misma fila y la sexta de cada F0 (xi ) con la de la fila anterior de la distribucion
de la muestra.
234
Estadstica
xi
Fn (xi )
F0 (xi )
10.12
0.025
0.0056
10.18
0.050
10.23
10.25
0.0056
0.0164
0.0336
-0.0086
0.100
0.0359
0.0641
-0.0141
0.125
0.0478
0.0772
-0.0522
10.28
0.150
0.0712
0.0788
-0.0538
10.29
0.175
0.0807
0.0943
-0.0693
10.31
0.200
0.1026
0.0974
-0.0724
10.32 10
0.250
0.1151
0.1349
-0.0849
10.34 12
0.300
0.1431
0.1569
-0.1069
10.35 13
0.325
0.1587
0.1663
-0.1413
10.39 15
0.375
0.2317
0.1433
-0.0933
10.41 16
0.400
0.2743
0.1257
-0.1007
10.43 17
0.425
0.3204
0.1046
-0.0796
10.46 19
0.475
0.3949
0.0801
-0.0301
10.47 20
0.500
0.4207
0.0793
-0.0543
10.49 21
0.525
0.4734
0.0516
-0.0266
10.52 22
0.550
0.5530
-0.0030
0.0280
10.53 23
0.575
0.5793
-0.0043
0.0293
10.54 24
0.600
0.6051
-0.0051
0.0301
10.57 25
0.625
0.6796
-0.0546
0.0796
10.61 26
0.650
0.7683
-0.1183
0.1433
10.62 28
0.700
0.7881
-0.0881
0.1381
10.64 30
0.750
0.8247
-0.0747
0.1247
10.66 31
0.775
0.8569
-0.0819
0.1069
10.72 33
0.825
0.9288
-0.1038
0.1538
10.74 34
0.850
0.9452
-0.0952
0.1202
10.75 35
0.875
0.9522
-0.0772
0.1022
10.78 36
0.900
0.9690
-0.0690
0.0940
10.81 38
0.950
0.9806
-0.0306
0.0806
10.83 39
0.975
0.9861
-0.0111
0.0361
10.91 40
0.9969
0.0031
0.0219
La entrada con mayor valor absoluto de la quinta columna es 0.1663 mientras que
la de la sexta es 0.1538. As, el estadstico de Kolmogorov-Smirnov vale
40 = 0.1663
16 Contrastes no param
etricos
235
y, seg
un la tabla, corresponde a un valor p muy cercano a 0.2 (y desde luego, mayor que
0.1). No hay, por tanto, evidencia seg
un este contraste en contra de la hipotesis nula.
En este ejemplo se comprueba que, a veces, el contraste 2 detecta diferencias que
el de Kolmogorov-Smirnov no es capaz de detectar.
Ejemplo 3
Hemos deducido del contraste 2 anterior que la maquina no fabrica piezas tal y como
pensabamos. Sin embargo parece plausible pensar que la distribucion de longitudes sigue
siendo normal, solo que la media y desviacion han cambiado. Probemos esta hipotesis.
Lo primero que ha de hacerse es estimar la media y la desviacion tpica por maxima
verosimilitud. Para una normal, los estimadores de estas cantidades resultan ser la media
y la desviacion muestral, obteniendose para nuestra muestra
b = x = 10.502
b = s = 0.2025
Tratemos de ajustar nuestros datos a una normal con estos parametros. Tomamos
una particion arbitraria y construimos la tabla
Ai
ni
ni,esp
10.3
6.37
(10.3, 10.4]
5.92
(10.4, 10.5]
7.55
(10.5, 10.6]
7.59
(10.6, 10.7]
6.00
> 10.7
6.57
seg
un la cual D = 3.708. Al tener seis intervalos y haber estimado dos parametros la
distribucion de D, si H0 es cierta, es una 2 con 6 1 2 = 3 grados de libertad. Como
P (23 > 3.708) = 0.295
La muestra no permite ahora rechazar la hipotesis de que la longitud de las piezas fabricadas sigue una distribucion normal N(10.502; 0.2025).
Ejemplo 4
Los impactos de 60 bombas volantes sobre la superficie de Londres, considerada
cuadrada, fueron clasificados en 9 zonas obtenidas dividiendo cada lado en tres partes
iguales, con los siguientes resultados
236
Estadstica
8
11
Mujeres
Normales
q/2
q 2 /2 + pq
Daltonicos
p/2
p2 /2
siendo p = 1q la proporcion de cromosomas X portadores del daltonismo. Para comprobar la teora se examinaron 2000 individuos elegidos al azar con los siguientes resultados
Hombres
Mujeres
Normales
894
1015
Daltonicos
81
10
1q
2
81 h
10
q i1015 (1 q)2
q 1
2
2
16 Contrastes no param
etricos
237
q
1q 2q
La estimacion de q es qb = 0.91277 y los n
umeros esperados en cada uno de los cuatro
grupos son
Hombres
Mujeres
Normales
912.77
992.39
Daltonicos
87.23
7.61
AB
Total
32
11
52
47
13 17
86
23
45
102 31 33
17
183
Total
238
Estadstica
Raza
AB
Total
3.85
100
100
100
100
Total
9.29
La simple inspeccion de esta tabla parece indicar que hay diferencias significativas,
al menos entre el primer grupo etnico y los otros dos. Sin embargo, el contraste nos indica
que estas diferencias son completamente admisibles como debidas al azar y no contradicen,
en absoluto, la hipotesis de igualdad de fercuencia de cada grupo sanguneo.
Ejemplo 7
Para comprobar la eficacia del test 2 de homogeneidad se han simulado dos muestras aleatorias simples, de tama
no 50, de las distribuciones N(0,1) y Cauchy ( de densidad
1 (1 + x2 )1 ), cuya apariencia grafica es similar. Las muestras obtenidas han sido:
N(0,1)
-0.99
Cauchy
1.54
-1.02
0.56 -0.36
-2.15
1.34 -2.98
0.31 -0.18
0.41
0.51 -0.44
-0.60
0.58
-0.28
0.75
0.26 -0.89
1.76
-1.21
0.98 -0.46
0.07
1.11
-16.39
0.39 -0.45
-0.44
0.68
1.27 -1.13
1.22
0.46
2.18
-0.63
1.03
7.05 -5.96
1.23
0.77
0.03
0.71
-0.56
-0.91
0.44 -27.53
0.44
3.77
-0.69
0.21
1.88
-0.52
1.24 -1.18
-0.52
0.28
0.89
0.03
0.25
0.83
-1.24
0.88
-0.96
0.29
0.31
0.99
1.28
-0.58
0.58
-1.24 -0.64
-1.34 -0.99
1.85
0.08
-0.16
12.89
0.11
0.66
-0.71 -4.07
1.28
1.39
2.45
1.41
-3.49
-1.42
16 Contrastes no param
etricos
239
Aj
n1j
n2j
nj
(, 2]
(2, 1.2]
(1.2, 0.9]
(0.9, 0.6]
(0.6, 0.3]
(0.3, 0]
(0, 0.3]
10
(0.3, 0.6]
11
(0.6, 0.9]
(0.9, 1.2]
(1.2, 2]
14
(2, ]
50
50
100
Total
Medio
Alto
Total
137
86
35
258
42
23
11
76
19
17
43
AB
14
23
Total
212
133
55
400
Con los datos expresados en la tabla se obtiene D = 2.406. Por otra parte, D tiene
distribucion 2 con 6 grados de libertad y
P (26 > 2.204) = 0.9
240
Estadstica
por lo que no puede concluirse de ninguna manera que haya una relacion entre el grupo
sanguneo y la diabetes.
Ejemplo 9
Un laboratorio farmaceutico afirma que uno de sus productos confiere inmunidad
contra la picadura de insectos durante un tiempo exponencial de media 2.5 horas. Probado
en 25 sujetos, en un ambiente con gran n
umero de mosquitos, los instantes (en horas) en
que recibieron la primera picadura fueron:
0.01 0.01 0.02 0.02 0.02 0.03 0.03 0.23 0.51
0.74 0.96 1.17 1.46 1.62 2.18 2.25 2.79 3.45
3.83 3.92 4.27 5.43 5.79 5.91 6.34
Construimos, para realizar un contraste K-S, la tabla:
xi
Fn (xi )
0.01
0.08
0.02
0.03
0.076
0.004
0.20
0.008
0.192
-0.072
0.28
0.012
0.268
-0.188
0.23
0.32
0.088
0.232
-0.192
0.51
0.36
0.185
0.175
-0.135
0.74 10
0.40
0.256
0.144
-0.104
0.96 11
0.44
0.319
1.121
-0.081
1.17 12
0.48
0.374
0.106
-0.066
1.46 13
0.52
0.442
0.078
-0.038
1.62 14
0.56
0.477
0.083
-0.043
2.18 15
0.60
0.582
0.018
0.022
2.25 16
0.64
0.593
0.047
-0.007
2.79 17
0.68
0.672
0.008
0.032
3.45 18
0.72
0.748
-0.028
0.068
3.83 19
0.76
0.784
-0.024
0.064
3.92 20
0.80
0.792
0.008
0-032
4.27 21
0.84
0.819
0.021
0-019
5.43 22
0.88
0.886
-0.006
0.046
5.79 23
0.92
0.901
0.019
0.021
5.91 24
0.96
0.906
0-054
-0.014
6.34 25
0.921
0.079
-0.039
16 Contrastes no param
etricos
241
ni
ni,esp
[0, 0.558)
(0.558, 1.277]
(1.277, 2.291]
(2.291, 4.024]
(4.024, )
9.1 5.2
242
Estadstica
2.1/3.4 1.2/5.1 4.2/2.6 4.6/7.4 0.7/2.4 3.2/2.7 5.6/5.2 1.8/2.9
4.8/6.5 2.3/7.3 0.4/0.8 2.5/2.2 3.2/9.8 4.7/2.8 1.6/2.2 6.3/6.5
que se traduce en los siguientes aumentos de los retrasos:
1.3 3.9 -1.6
2.8
1.7 5.0
0.4
0.2
+0.6310
0.294
1.2713
+0.162
1.5815
0.69
+0.487
+0.426
1.1412
0.061
1.4114
0.528
+0.375
0.213
16 Contrastes no param
etricos
243
Ejemplo 13
En 8 personas elegidas al azar se analizo el contenido en sodio antes y despues del
cambio de suministro de agua, con los siguientes resultados:
3.34/2.58 2.82/2.46 3.06/3.50 2.30/2.16
4.22/3.78 3.55/3.19 2.61/2.94 2.83/1.94
Los incrementos han sido:
-0.76 -0.36 +0.44 -0.14 -0.44 -0.36 +0.33 -0.89
(7)
(3.5)
(5.5)
(1)
(5.5)
(3.5)
(2)
(8)
con los rangos que se indican en la segunda fila. El test de Wilcoxon para el contraste de
Me = 0 frente a Me 6= 0 nos proporciona el estadstico T + = 7.5, mientras que la tabla
correspondiente indica que, con nivel de significacion 0.1, la hipotesis Me = 0 solo podra
rechazarse si fuese T + 30 o T + 6.
Ejemplo 14
Las ventas de los establecimientos A y B fueron controladas durante 9 y 12 das
respectivamente, con los siguientes resultados (en miles de pesetas):
A:
B:
97.4
108.2 114.1
118.4 109.2
86.3
101.8 122.6
78.3
136.2
89.5
92.7
106.3
78.3
86.3
A:
B:
89.5
92.7
97.4
101.8
124.6 132.5
118.4 122.6
117.8
108.2 109.2 114.1
La mediana de la muestra conjunta (que ocupa el valor 11) es el valor 117.8 y hay
un u
nico termino de la primera muestra inferior a este, luego T = 1.
Para contrastar Mex = Mey frente a Mex > Mey con nivel de significacion , el test
de la mediana utiliza la region crtica {T k} donde ha de ser
244
Estadstica
10
P (T k) =
k
X
11
21
t=0
9t
!
Total
10
12
Total
12
21
da una valor del estadstico D = 7.84 que, comparado con una distribucion 21 , permite
tambien descartar la homogeneidad de ambas muestras con nivel de significacion inferior
a 0.01.
Con los tama
nos muestrales usados y la particion elegida, el contraste 2 es menos
fiable que el de la mediana. Con tama
nos muestrales grandes, y sobre todo si no hay
constancia de la igualdad de forma de las distribuciones, es preferible el contraste 2 .
Tratemos ahora de emplear el test de Mann-Whitney. Para la ordenacion de las
muestras anterior basta contar el n
umero de elementos de la muestra B que hay por
debajo de cada elemento de la muestra A para obtener:
V = 6 + 9 + 11 + 11 + 12 + 12 + 12 + 12 + 12 = 97
Como V es aproximadamente N(54, 14.07) tenemos
P (V > 96) P (N(0, 1) > 2.98) = 0.0014
y el test de Mann-Whitney corrobora, con nivel de significacion inferior a 0.005 que las
ventas del establecimiento A son superiores a las del B.
Ejemplo 15
En 10 empleados de una empresa se ha observado la distancia (en km.) de su domicilio a la sede de la empresa y el retraso (en min.) con el que llegaron al trabajo cierto
da. Los resultados fueron:
16 Contrastes no param
etricos
245
3.6 3.4
6.3
5.1 3.7
2.8 5.3
(2) (9)
cuyos rangos (en la ordenacion de valores de menor a mayor) se han indicado debajo
de cada uno. El recuento de valores mayores que quedan a la derecha de cada rango
proporciona
P = 7 + 8 + 3 + 4 + 4 + 0 + 1 + 1 + 1 = 29
con lo cual T = 13/45 = 0.288. La correspondiente tabla indica que debera ser T > 0.33
para poder rechazar la hipotesis de independencia con nivel de significacion 0.1. Por tanto,
los datos no permiten concluir que haya relacion entre el retraso y la distancia del domicilio
a la empresa.
Probemos ahora con el test de Spearman. Con la ordenacion ya efectuada anteriormente:
U = 22 + 12 + 42 + 12 + 12 + 42 + 12 + 22 + 72 + 12 = 94
y el estadstico de Spearman vale RS = 1 6U/990 = 0.43. De la correspondiente tabla
observamos que dicho coeficiente no es suficiente para rechazar la independencia entre las
variables ni siquiera con nivel de significacion 0.1.
Ejemplo 16
Al extraer 17 bolas con reemplazamiento de una bolsa con bolas blancas y negras
se ha obtenido el resultado
BBBBNNNBBBBBBBBNN
que muestra R = 4 rachas. Puesto que hay 12 blancas y 5 negras, el n
umero de rachas
podra haber sido cualquiera entre 2 y 11. Las formulas dadas anteriomente permiten
calcular la probabilidad de cada uno de los valores:
2
10
11
0.0003 0.002 0.014 0.046 0.107 0.195 0.213 0.24 0.107 0.075
Incluyendo las probabilidades de menor a mayor, se observa que {R 4} es la region
246
Estadstica
Ejemplo 17
Queremos comprobar si al tomar en das consecutivos los datos de ventas del establecimiento B del ejemplo 14 hemos afectado a su independencia. Los 12 datos tienen
como mediana 105. Los terminos de la muestra original, comparados con esta mediana
dan la secuencia de signos
-++--+-+-++con R = 9 rachas. Con n = m = 6 la distribucion de R es simetrica entre 2 y 12,
obteniendose las probabilidades:
2 y 12 3 y 11 4 y 10
5y9
0.002
0.011
0.054
6y8
S
La region crtica {R 4} {R 10} tendra tama
no =0.134, de forma que, con
Mes
E
F M
1986
J A
11
1987
1988
1989
Se quiere investigar si existe o no alguna periodicidad en dicha enfermedad contrastando: (a) Si pueden considerarse homogeneas las tres temporadas durante las cuales se
recogieron los datos. (b) Si los casos se presentan con variaciones estacionales.
(a) En primer lugar se trata de detectar si hay una pauta com
un en los tres ciclos
anuales considerados, ya que, en caso contrario, ello significara que el comportamiento es
diferente cada a
no. Para ello , conviene agrupar los datos de la froma
16 Contrastes no param
etricos
247
A-M
Total
1986-87
11
72
1987-88
50
1988-89
45
Total
21
24 20 13 15 15
15 13 14
167
con los meses de abril y mayo sumados para conseguir que sea ni nj /n 2. El estadstico
m X
k
3 X
11
X
X
(nij ni nj /n)2
nij
D=
= n 1 +
ni nj /n
nn
i=1 j=1
i=i j=1 i j
= 24.477
y D tiene distribucion 220 , cuya tabla indica que la hipotesis de que las tres temporadas
siguen el mismo patron no puede ser rechazada con nivel de significacion 0.1 (el nivel
crtico es, de hecho, 0.222).
(b) Admitida la homogeneidad de las tres muestras, los 167 casos, agrupados por
meses, se distribuyen como indica la tabla siguiente
J
21 24 20 13 15
15 15 13 14
D = 167 +
12 X 2
n = 29.24
167 j=1 j
21
24
20
22
3
X
j=1
248
Estadstica
Lo mismo ocurre con los tres meses de primavera (M,A,M: D = 1.53 < 22;0.1 ) y, por
Oto
no-Invierno
65
85
150/3
2 150/3
= 3.14159265358979323846264338327950288419716939937510
58209749445923078164062862089986280348253421170679
y queremos saber si estas cifras tienen las propiedades de una secuencia de cifras elegida
al azar.
Se puede contrastar, en primer lugar, si todas las cifras aparecen con la misma
frecuencia 1/10, que si hubiesen sido elegidas al azar de una urna con diez bolas numeradas
del 0 al 9.
Para ello comparamos las frecuencias esperadas y observadas, mediante la tabla
ni
ni,esp
12 11
10
12 14
10 10 10 10
10 10 10 10 10 10
16 Contrastes no param
etricos
249
D=
1 X
(ni 10)2 = 4.2
10 i=0
+
9
+
6
8
9
+
7
250
Estadstica
1
p p
p p
p p
p p
p p
p p
p p
p p
Regresion
lineal simple
17
Indice
17.1. Introducci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
17.2. Modelo lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
17.3. M
etodo de mnimos cuadrados . . . . . . . . . . . . . . . . . . 254
17.4. Propiedades de los estimadores de mnimos cuadrados . . . . 256
17.4.1. Propiedades generales . . . . . . . . . . . . . . . . . . . . . . . 256
17.4.2. Condiciones de normalidad . . . . . . . . . . . . . . . . . . . . 257
17.5. Varianza residual . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
17.6. Inferencias respecto a los par
ametros . . . . . . . . . . . . . . 258
17.7. Predicci
on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
17.7.1. Estimacion de la respuesta media . . . . . . . . . . . . . . . . . 259
17.7.2. Prediccion de una observacion . . . . . . . . . . . . . . . . . . . 260
17.8. An
alisis de la varianza . . . . . . . . . . . . . . . . . . . . . . . 261
17.9. Coeficiente de correlaci
on . . . . . . . . . . . . . . . . . . . . . 263
17.9.1. Inferencias sobre el coeficiente de correlaci
on . . . . . . . . . . 264
17.10.Contraste de linealidad . . . . . . . . . . . . . . . . . . . . . . . 265
251
252
Estadstica
17.1.
Introducci
on
de y varen. De ah que el valor yi en el par ordenado (xi , yi ) sea un valor de la v.a. Y |xi .
Por conveniencia se define Y |x como la v.a. Y correspondiente a un valor generico x, y su
El termino regresion lineal implica que Y |x esta linealmente relacionado con x por
17 Regresi
on lineal simple
253
estimada
yb = a + bx
El smbolo yb se utiliza aqu para distinguir entre el valor estimado que da la recta
17.2.
Modelo lineal
En el caso de una regresion lineal simple, donde hay una sola variable de regresion,
x, y una sola v.a. dependiente, Y , los datos pueden representarse por los pares de observaciones {(x1 , y1 ), . . . , (xn , yn )}. Es conveniente utilizar los conceptos de la seccion anterior
para definir cada v.a. Yi = Y |xi por medio de un modelo estadstico. Si se postula que
todas las medias Yi caen sobre una recta (Fig. 17.1),
Yi = + xi
i = 1, . . . , n
(17.1)
i = 1, . . . , n
(17.2)
254
Estadstica
Figura 17.2: Descripcion del error del modelo (i ) y del residuo (ei ).
donde el error aleatorio Ei , el error del modelo, debe tener media nula. Cada observacion
(xi , yi ) de la muestra satisface la ecuacion
yi = + xi + i
(17.3)
donde i es el valor que asume la v.a. Ei cuando Yi toma el valor yi . La ecuacion anterior
puede considerarse como el modelo para una sola observacion yi .
De manera similar, al utilizar la recta de regresion lineal estimada
yb = a + bx
yi = a + bxi + ei
(17.4)
donde ei = yi ybi se llama residuo y describe el error en el ajuste del modelo en el punto
i de los datos. La diferencia entre ei y i se muestra claramente en la figura 17.2.
17.3.
M
etodo de mnimos cuadrados
17 Regresi
on lineal simple
255
P
P
(SSE)
= 2 (yi a bxi ) = 0 (= ei = 0)
(SSE) = 2 P(y a bx )x = 0 (= P x e = 0)
i
i i
i i
b
de donde
(17.5)
P
P
yi
na + b xi =
a P x + b P x2 = P x y
i
i i
i
P
P
P
n xi yi ( xi ) ( yi )
b=
P 2
P 2
n
x
(
xi )
P
P
y
xi
ib
a=
n
(17.6)
y =
1P
xi
n
1P
yi
n
Sxx =
Syy =
Sxy =
Entonces,
P
P
P
1 P
(xi x)2 = x2i ( xi )2 = x2i n
x2
n
P
P 2 1 P 2 P 2
(yi y)2 =
yi ( yi ) =
yi n
y2
n
P
P
P
P
1 P
(xi x)(yi y) = xi yi ( xi ) ( yi ) =
xi yi n
xy
n
b=
Sxy
Sxx
(17.7)
a = y b
x
Por tanto, la recta de regresion estimada se puede expresar como
yb = y + b(x x)
(17.8)
256
Estadstica
17.4.
17.4.1.
Propiedades generales
Ademas de la suposicion de que el termino de error del modelo, Ei , es una v.a. con
media cero, supongamos que cada Ei tiene la misma varianza, 2 (homocedasticidad), y
que E1 , E2 , . . . , En son independientes. Con estas hipotesis sobre las Ei podemos calcular
la media y la varianza de los estimadores de y .
Es importante recordar que los valores de a y b, obtenidos en base a una muestra
dada de n observaciones, son solo estimaciones de los parametros reales y . Si el
experimento se repite varias veces, utilizando los mismos valores de x, es muy probable que
las estimaciones resultantes de y difieran de un experimento a otro. Estas estimaciones
diferentes pueden considerarse como valores asumidos por las v.a. A y B.
Dado que los valores de x permanecen fijos, los valores de A y B dependen de
las variaciones de los valores de y, o en forma mas precisa, de los valores de las v.a.
Y1 , Y2 , . . . , Yn . Las suposiciones distribucionales de las Ei implican que Y1 , Y2 , . . . , Yn tambien se distribuyen independientemente con medias Yi = + xi y varianzas iguales 2 ;
es decir, 2 Yi = 2 para i = 1, 2, . . . , n. Dado que el estimador
P
P
P
P
P
xi Yi ( xi ) ( Yi )
n xi Yi n
x ( Yi )
(x x)Yi
= P i
B=
=
P 2
P 2
P 2 1 P 2
(xi x)2
n xi ( xi )
n
xi ( xi )
n
P
es de la forma B = ai Yi , donde
n
(xi x)
ai = P
(xi x)2
entonces,
i = 1, 2, . . . , n
P
P
(xi x)E[Yi ]
(xi x)( + xi )
P
= E[B] = P
=
=
2
(xi x)
(xi x)2
=
B2
P
P
P
P
1
1
[ xi + x2i n
x x xi ] =
[ x2i n
x2 ] =
Sxx
Sxx
P
P
2 (xi x)2
2
(xi x)2 Var(Yi )
2
P
= P
= Var(B) =
=
P
2
2 =
Sxx
(xi x)2
( (xi x)2 )
( (xi x)2 )
17 Regresi
on lineal simple
257
A=
Yi B
n
xi
P
1P
(xi x)Yi P 1
x(xi x)
Yi x P
=
P
=
Yi
n
n
(xi x)2
(xi x)2
es decir, A tambien es una combinacion lineal de las v.a. independientes Yi , por tanto,
operando, se llega facilmente a
A = E[A] =
x(xi x)
1
P
n
(xi x)2
E[Yi ] =
rP 2
2
xi
x(xi x)
1
2
P
Var(Yi ) =
= Var(A) =
2
n
(xi x)
nSxx
Por tanto, sea cual sea la distribucion de los errores del modelo, los estimadores
A2
17.4.2.
x 2
Sxx
Condiciones de normalidad
Para conocer la forma de la distribucion de los estimadores A y B, es necesario conocer previamente la distribucion de los errores del modelo. Si a las hipotesis de independencia y homocedasticidad de los errores del modelo a
nadimos la hipotesis de normalidad,
es decir, Ei N(0, ) i = 1, . . . , n, entonces todas las v.a. involucradas hasta ahora: Yi ,
Yi N(Yi , ) i = 1, . . . , n
B N(, /S )
xx
Si Ei N(0, ) i = 1, . . . , n =
rP 2 !
xi
A N , nS
xx
17.5.
Varianza residual
Seg
un lo expuesto anteriormente, la hipotesis de normalidad en los errores del modelo
asegura la normalidad de los estimadores mnimo cuadraticos sin embargo, para tener
258
Estadstica
P
P
(yi ybi )2 = (yi a bxi )2 =
P
P
= (yi (
y b
x) bxi )2 = ((yi y) b(xi x))2 =
P
P
P
= (yi y)2 + b2 (xi x)2 2b (yi y)(xi x) =
SSE =
Syy bSxy
(yi ybi )2
=
(17.9)
n2
n2
y, como es habitual en la varianzas que proceden de distribuciones normales, la varianza
2
s =
(17.10)
17.6.
Una vez estimada la varianza de los errores, y recordando que mantenemos las
hipotesis de normalidad de los mismos, podemos construir los estadsticos adecuados para
realizar inferencias respecto a los parametros de regresion. As,
B N(, / Sxx )
2
(n 2)s
2n2
2
A N ,
rP
x2i
nSxx
(n 2)s2
2n2
2
B
/ Sxx
=
tn2
= s
2
s/
S
xx
(n 2)s
(n 2) 2
A
rP 2
xi
A
nSxx
= s
= r P 2 tn2
xi
(n 2)s2
nSxx
(n 2) 2
(17.11)
(17.12)
17 Regresi
on lineal simple
259
de regresion poblacional, , es
b t/2
s
s
< < b + t/2
Sxx
Sxx
regresion poblacional, , es
a t/2 s
17.7.
rP
x2i
< < a + t/2 s
nSxx
rP
x2i
nSxx
Predicci
on
sin embargo, la precision de estas estimaciones es distinta, como veremos en las siguientes
secciones.
17.7.1.
Estimaci
on de la respuesta media
entonces
E[Ybp ]
Ybp = A + Bxp
= E[A + Bxp ] = E[A] + E[B]xp = + xp = Yp
1 (xp x)2
+
n
Sxx
260
Estadstica
donde hemos utilizado el hecho de que las variables Y y B son independientes. Entonces,
Ybp N Yp ,
1 (xp x)2
+
n
Sxx
(n 2)s2
2n2
2
es
Ybp Yp
tn2
= r
1 (xp x)2
+
s
n
Sxx
ybp t/2 s
17.7.2.
1 (xp x)2
+
< Yp < ybp + t/2 s
n
Sxx
1 (xp x)2
+
n
Sxx
Predicci
on de una observaci
on
= E[Ybp ] E[Yp ] = Yp Yp = 0
1 (xp x)2
+
n
Sxx
+ 2 =
1 (xp x)2
= 1+ +
n
Sxx
2
Entonces
Ybp Yp N 0,
(n 2)s2
2n2
2
1 (xp x)2
1+ +
n
Sxx
Ybp Yp
tn2
= r
1 (xp x)2
s 1+ +
n
Sxx
1 (xp x)2
< yp < ybp + t/2 s
ybp t/2 s 1 + +
n
Sxx
1+
1 (xp x)2
+
n
Sxx
17 Regresi
on lineal simple
17.8.
261
An
alisis de la varianza
predicho por la recta de regresion estimada y el valor medio de los datos, es decir, (b
yi y).
es nula.
El residuo representa las fluctuaciones aleatorias dentro del rango probable de va-
lores que puede asumir la v.a. Yi , mientras que la segunda componente representa las
fluctuaciones intrnsecas debidas a la relacion lineal que verifican las v.a. Yi ; as, cuanto
mas nos alejamos de la zona central, (
x, y), mas grandes deben ser estas fluctuaciones.
De esta forma, la variacion total se puede expresar como
P
P
(yi y)2 =
[(yi ybi ) + (b
yi y)]2 =
P
P
P
= (yi ybi )2 + (b
yi y)2 + 2 (yi ybi )(b
yi y) =
P
P
2
2
= (yi ybi ) + (b
yi y)
P
P
P
(a + bxi )ei = a ei + b xi ei = 0
P
P
y(yi ybi ) = y ei = 0
ybi (yi ybi ) =
P
P
P
(yi y)2 = (yi ybi )2 + (b
yi y)2
(17.13)
se descompone en dos terminos independientes: el primero refleja la variabilidad no explicada por la regresion, que es debida al caracter aleatorio de la relacion; y el segundo
contiene la variabilidad explicada por la regresion, y puede interpretarse como la parte
determinista de la variabilidad de la respuesta. LLamaremos
262
Estadstica
Figura 17.3: Descomposicion de la varianza para el caso de (a) pendiente no nula; y (b)
pendiente nula.
SST =
SSE =
P
(yi y)2 = Syy = Suma Total de los Cuadrados
P
(yi ybi )2 = Syy bSxy = Suma de los Cuadrados de los Errores
17 Regresi
on lineal simple
263
Fuente
Suma
Grados
Cuadrados
Error
Cuadrados
Libertad
Medios
Regresion
SSR
Error
SSE
Total
SST
n2
n1
SSR/1
Estadstico
Valor-P
f = SSR/s2
P (F1,n2 f )
SSE/(n 2)
P
(b
yi y)2 = bSxy = Suma de los Cuadrados de Regresion
y SST / 2 2n1
Por tanto,
SSR
SSR/1
= 2 F1,n2
SSE/(n 2)
s
(17.14)
Este estadstico se puede utilizar como alternativa al estadstico dado en (Eq. 17.11)
para realizar el contraste regresion. Si su valor, f , es peque
no, significa que SSE es
muy grande comparado con el valor de SSR es decir, la mayor parte de la variabilidad
observada es puramente aleatoria, y la componente explicada por el modelo (la recta
propuesta) tiene muy poca influencia, por tanto no se rechaza H0 . Por otra parte, si f es
grande, significa que SSR es muy grande comparado con SSE es decir, la mayor parte de
la variabilidad observada se debe a la existencia de una recta de regresion con pendiente
no nula, por tanto se rechaza H0 . De hecho, se cumple
!2
b
f=
= t2
s/ Sxx =0
La forma habitual de presentar todos los datos vistos en esta seccion es en la llamada
tabla ANOVA (del ingles, ANalysis Of VAriance), que se muestra en la figura 17.4.
17.9.
Coeficiente de correlaci
on
264
Estadstica
para comparar rectas de regresion de variables distintas, ya que depende de las unidades
de medida. Una medida mas adecuada de la bondad del ajuste es el llamado coeficiente de
determinacion del modelo, definido como la proporcion de la variabilidad total explicada
por el modelo propuesto
P
SSR
(b
yi y)2
R =
=P
SST
(yi y)2
Para el caso particular del modelo lineal,
2
2
Sxy
Sxy
=
r =b
Syy
Sxx Syy
2
(17.15)
Sxy
Sxx Syy
(17.16)
17.9.1.
ya que se cumple
r n2
tn2
1 r2
r n2
=
1 r2
!2
b
= t2
s/ Sxx =0
(17.17)
17 Regresi
on lineal simple
265
decir, la v.a. (X, Y ), siga una distribucion Normal Bidimensional. En ese caso, se utiliza
el estadstico
1 1+r
Ln
= N
2 1r
17.10.
1
1 1+
Ln
,
2 1 n3
(17.18)
Contraste de linealidad
Hasta ahora, hemos supuesto que realmente existe una recta de regresion que ajusta
perfectamente los datos, es decir, las medias de las v.a. Yi se encuentran sobre una recta
Yi = + xi
i = 1, . . . , n
i = 1, . . . , n
Por tanto, la primera pregunta debera haber sido es cierta esa afirmacion? El
contraste de linealidad esta dise
nado para responder a esta cuestion. Cuando las medias de
las v.a. Yi no se encuentran sobre una recta (Fig. 17.5) pero casi, este casi es la llamada
componente de falta de ajuste, y el contraste de linealidad cuantifica este desajuste para
contrastar la hipotesis de linealidad del modelo.
Para realizar el contraste, es necesario disponer de varios valores de y para algunos
o todos los valores de x. LLamaremos xi (i = 1, . . . , d) a los valores distintos que toma
la variable x. Para cada valor de xi existiran observaciones yij
(j = 1, . . . , ni ), de forma
las medias de las distribuciones condicionadas, yi . Nos encontraremos con alguna de las
situaciones que muestra la figura 17.7: el grafico 17.7 (a) sugiere que probablemente la
hipotesis de linealidad es cierta, ya que las medias yi parecen tener una relacion lineal;
en 17.7 (b) se detecta una relacion claramente no lineal; y en 17.7 (c) no esta clara la
existencia de relacion.
El contraste de linealidad compara las medias muestrales estimadas directamente
de los datos observacionales, yi , con las medias muestrales estimadas bajo la hipotesis de
linealidad, ybi . Intuitivamente, si medimos la discrepancia entre ambas estimaciones con
P
ni (yi ybi )2 , tenderemos a rechazar la hipotesis de linealidad si esta discrepancia es
grande, y a no rechazarla cuando es peque
na. Para cuantificar el tama
no de esta discre-
pancia, se compara con una medida de la variabilidad muestral cuyo valor esperado no
266
Estadstica
Figura 17.5: Descripcion del modelo de regresion lineal simple con componente de falta
de ajuste.
depende de la hipotesis que estamos contrastando. Un termino razonable de comparacion
PP
es
(yij yi )2 , que mide la variabilidad inherente a los datos, sin depender de la
hipotesis de linealidad.
Vamos a aclarar estos conceptos con la figura 17.8. La ausencia de una relacion lineal
perfecta permite descomponer los residuos, eij = yij ybi , en suma de dos componentes:
una, (yij yi ), debida a la fluctuacion aleatoria dentro del rango probable de valores que
puede asumir la v.a. Yi para cada valor fijo xi ; y otra,(yi ybi ), que contiene los errores
debidos a la falta de ajuste ya que, al fin y al cabo, las medias no estan sobre una recta
por lo que la recta estimada no puede contener a las medias estimadas. Si la relacion
lo que la varianza residual es una estimacion insesgada de la varianza de los errores del
modelo (como vimos en la seccion 17.5) pero, si la relacion lineal no es perfecta, la segunda
componente es distinta de cero, por lo que la varianza residual pasa a ser una estimacion
sesgada de 2 al contener un termino de falta de ajuste que no tiene nada que ver con el
error del modelo.
17 Regresi
on lineal simple
267
observaciones
x1
y11
y12
y1j
y1n1
n1
1 X
y1j
y1 =
n1 j=1
n
y2j
y2n2
..
.
..
.
..
.
yij
yini
..
.
..
.
..
.
..
.
x2
y21
y22
..
.
..
.
..
.
..
.
xi
yi1
yi2
..
.
..
.
..
.
xd
yd1
1X
ni xi
x =
n i=1
yd2
ydnd
ydj
2
1 X
y2 =
y2j
n2 j=1
..
.
ni
1 X
yi =
yij
ni j=1
..
.
nd
1 X
ydj
yd =
nd j=1
i
1X
1 XX
ni yi
yij =
y =
n i=1 j=1
n i=1
ni
d X
X
i=1 j=1
ni
d X
X
i=1 j=1
i=1 j=1
(yij yi ) +
ni
d X
X
(yij yi )2 +
d
X
ni
d X
X
(yij yi )2 +
d
X
i=1 j=1
ni
ni
d X
d X
X
X
2
=
(yij ybi ) =
[(yij yi ) + (yi ybi )]2 =
ni
d X
X
i=1 j=1
e2ij
i=1 j=1
i=1 j=1
i=1
i=1
ni
d X
X
(yi ybi ) + 2
(yij yi )(yi ybi ) =
2
i=1 j=1
"n
#
d
i
X
X
ni (yi ybi )2 + 2
(yi ybi )
(yij yi ) =
i=1
ni (yi ybi )2
j=1
268
Estadstica
ni
X
j=1
(yij ybi ) =
ni
d X
X
i=1 j=1
(yij yi ) +
d
X
i=1
ni (yi ybi )2
(17.19)
se descompone en dos terminos independientes: el primero refleja la fluctuaciones aleatorias de cada observacion en torno a su valor medio; y el segundo refleja la ausencia de una
relacion lineal perfecta en la medias de las v.a. Yi . LLamaremos
SSE =
ni
d X
X
i=1 j=1
17 Regresi
on lineal simple
269
Figura 17.8: Descomposicion del residuo (eij ) cuando existe componente de falta de ajuste.
ni
d X
X
SSE(p) =
(yij yi )2 = Error Puro
i=1 j=1
SSE(a) =
d
X
i=1
y SSE(a)/ 2 2d2
SSE(a)/(d 2)
Fd2,nd
SSE(p)/(n d)
(17.20)
270
Estadstica
La forma habitual de presentar todos los datos vistos en esta seccion es en la tabla
Fuente
Suma
Grados
Cuadrados
Error
Cuadrados
Libertad
Medios
Regresi
on
SSR
Error
SSE
n2
SSE/(n 2)
Ajuste
SSE(a)
d2
SSE(a)/(d 2)
Puro
SSE(p)
nd
SSE(p)/(n d)
SST
n1
Total
SSR/1
Estadstico
SSR/1
SSE/(n 2)
P (F1,n2 f )
SSE(a)/(d 2)
SSE(p)/(n d)
P (Fd2,nd f )
f=
f=
Valor-P
Tablas
estadsticas
271
x
X
k=0
n
k
pk (1 p)nk
p
n
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
.9000
.8000
.7500
.7000
.6000
.5000
.4000
.3000
.2000
.1000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
.8100
.6400
.5625
.4900
.3600
.2500
.1600
.0900
.0400
.0100
.9900
.9600
.9375
.9100
.8400
.7500
.6400
.5100
.3600
.1900
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
.7290
.5120
.4219
.3430
.2160
.1250
.0640
.0270
.0080
.0010
.9720
.8960
.8438
.7840
.6480
.5000
.3520
.2160
.1040
.0280
.9990
.9920
.9844
.9730
.9360
.8750
.7840
.6570
.4880
.2710
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
.6561
.4096
.3164
.2401
.1296
.0625
.0256
.0081
.0016
.0001
.9477
.8192
.7383
.6517
.4752
.3125
.1792
.0837
.0272
.0037
.9963
.9728
.9492
.9163
.8208
.6875
.5248
.3483
.1808
.0523
.9999
.9984
.9961
.9919
.9744
.9375
.8704
.7599
.5904
.3439
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
.5905
.3277
.2373
.1681
.0778
.0312
.0102
.0024
.0003
.0000
.9185
.7373
.6328
.5282
.3370
.1875
.0870
.0308
.0067
.0005
.9914
.9421
.8965
.8369
.6826
.5000
.3174
.1631
.0579
.0086
.9995
.9933
.9844
.9692
.9130
.8125
.6630
.4718
.2627
.0815
1.0000
5
6
.9997
.9990
.9976
.9898
.9688
.9222
.8319
.6723
.4095
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
.5314
.2621
.1780
.1176
.0467
.0156
.0041
.0007
.0001
.0000
.8857
.6554
.5339
.4202
.2333
.1094
.0410
.0109
.0016
.0001
.9841
.9011
.8306
.7443
.5443
.3438
.1792
.0705
.0170
.0013
.9987
.9830
.9624
.9295
.8208
.6562
.4557
.2557
.0989
.0159
.9999
.9984
.9954
.9891
.9590
.8906
.7667
.5798
.3446
.1143
1.0000
.9999
.9998
.9993
.9959
.9844
.9533
.8824
.7379
.4686
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
272
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
.4783
.2097
.1335
.0824
.0280
.0078
.0016
.0002
.0000
.0000
.8503
.5767
.4449
.3294
.1586
.0625
.0188
.0038
.0004
.0000
.9743
.8520
.7564
.6471
.4199
.2266
.0963
.0288
.0047
.0002
.9973
.9667
.9294
.8740
.7102
.5000
.2898
.1260
.0333
.0027
.9998
.9953
.9871
.9712
.9037
.7734
.5801
.3529
.1480
.0257
1.0000
.9996
.9987
.9962
.9812
.9375
.8414
.6706
.4233
.1497
1.0000
.9999
.9998
.9984
.9922
.9720
.9176
.7903
.5217
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
6
7
8
.4305
.1678
.1001
.0576
.0168
.0039
.0007
.0001
.0000
.0000
.8131
.5033
.3671
.2553
.1064
.0352
.0085
.0013
.0001
.0000
.9619
.7969
.6785
.5518
.3154
.1445
.0498
.0113
.0012
.0000
.9950
.9437
.8862
.8059
.5941
.3633
.1737
.0580
.0104
.0004
.9996
.9896
.9727
.9420
.8263
.6367
.4059
.1941
.0563
.0050
1.0000
.9988
.9958
.9887
.9502
.8555
.6846
.4482
.2031
.0381
.9999
.9996
.9987
.9915
.9648
.8936
.7447
.4967
.1869
1.0000
1.0000
8
9
.9999
.9993
.9961
.9832
.9424
.8322
.5695
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
.3874
.1342
.0751
.0404
.0101
.0020
.0003
.0000
.0000
.0000
.7748
.4362
.3003
.1960
.0705
.0195
.0038
.0004
.0000
.0000
.9470
.7382
.6007
.4628
.2318
.0898
.0250
.0043
.0003
.0000
.9917
.9144
.8343
.7297
.4826
.2539
.0994
.0253
.0031
.0001
.9991
.9804
.9511
.9012
.7334
.5000
.2666
.0988
.0196
.0009
.9999
.9969
.9900
.9747
.9006
.7461
.5174
.2703
.0856
.0083
1.0000
.9997
.9987
.9957
.9750
.9102
.7682
.5372
.2618
.0530
1.0000
.9999
.9996
.9962
.9805
.9295
.8040
.5638
.2252
1.0000
1.0000
.9997
.9980
.9899
.9596
.8658
.6126
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
7
8
9
273
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
10
.3487
.1074
.0563
.0282
.0060
.0010
.0001
.0000
.0000
.0000
.7361
.3758
.2440
.1493
.0464
.0107
.0017
.0001
.0000
.0000
.9298
.6778
.5256
.3828
.1673
.0547
.0123
.0016
.0001
.0000
.9872
.8791
.7759
.6496
.3823
.1719
.0548
.0106
.0009
.0000
.9984
.9672
.9219
.8497
.6331
.3770
.1662
.0473
.0064
.0001
.9999
.9936
.9803
.9527
.8338
.6230
.3669
.1503
.0328
.0016
1.0000
.9991
.9965
.9894
.9452
.8281
.6177
.3504
.1209
.0128
.9999
.9996
.9984
.9877
.9453
.8327
.6172
.3222
.0702
1.0000
1.0000
.9999
.9983
.9893
.9536
.8507
.6242
.2639
1.0000
.9999
.9990
.9940
.9718
.8926
.6513
1.0000
1.0000
1.0000
1.0000
1.0000
1.0000
9
10
11
.3138
.0859
.0422
.0198
.0036
.0005
.0000
.0000
.0000
.0000
.6974
.3221
.1971
.1130
.0302
.0059
.0007
.0000
.0000
.0000
.9104
.6174
.4552
.3127
.1189
.0327
.0059
.0006
.0000
.0000
.9815
.8389
.7133
.5696
.2963
.1133
.0293
.0043
.0002
.0000
.9972
.9496
.8854
.7897
.5328
.2744
.0994
.0216
.0020
.0000
.9997
.9883
.9657
.9218
.7535
.5000
.2465
.0782
.0117
.0003
1.0000
.9980
.9924
.9784
.9006
.7256
.4672
.2103
.0504
.0028
.9998
.9988
.9957
.9707
.8867
.7037
.4304
.1611
.0185
1.0000
.9999
.9994
.9941
.9673
.8811
.6873
.3826
.0896
1.0000
1.0000
.9993
.9941
.9698
.8870
.6779
.3026
1.0000
.9995
.9964
.9802
.9141
.6862
1.0000
1.0000
1.0000
1.0000
1.0000
9
10
11
274
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
12
.2824
.0687
.0317
.0138
.0022
.0002
.0000
.0000
.0000
.0000
.6590
.2749
.1584
.0850
.0196
.0032
.0003
.0000
.0000
.0000
.8891
.5583
.3907
.2528
.0834
.0193
.0028
.0002
.0000
.0000
.9744
.7946
.6488
.4925
.2253
.0730
.0153
.0017
.0001
.0000
.9957
.9274
.8424
.7237
.4382
.1938
.0573
.0095
.0006
.0000
.9995
.9806
.9456
.8822
.6652
.3872
.1582
.0386
.0039
.0001
.9999
.9961
.9857
.9614
.8418
.6128
.3348
.1178
.0194
.0005
1.0000
.9994
.9972
.9905
.9427
.8062
.5618
.2763
.0726
.0043
.9999
.9996
.9983
.9847
.9270
.7747
.5075
.2054
.0256
1.0000
1.0000
.9998
.9972
.9807
.9166
.7472
.4417
.1109
1.0000
.9997
.9968
.9804
.9150
.7251
.3410
1.0000
.9998
.9978
.9862
.9313
.7176
1.0000
1.0000
1.0000
1.0000
1.0000
10
11
12
13
.2542
.0550
.0238
.0097
.0013
.0001
.0000
.0000
.0000
.0000
.6213
.2336
.1267
.0637
.0126
.0017
.0001
.0000
.0000
.0000
.8661
.5017
.3326
.2025
.0579
.0112
.0013
.0001
.0000
.0000
.9658
.7473
.5843
.4206
.1686
.0461
.0078
.0007
.0000
.0000
.9935
.9009
.7940
.6543
.3530
.1334
.0321
.0040
.0002
.0000
.9991
.9700
.9198
.8346
.5744
.2905
.0977
.0182
.0012
.0000
.9999
.9930
.9757
.9376
.7712
.5000
.2288
.0624
.0070
.0001
1.0000
.9988
.9944
.9818
.9023
.7095
.4256
.1654
.0300
.0009
.9998
.9990
.9960
.9679
.8666
.6470
.3457
.0991
.0065
1.0000
.9999
.9993
.9922
.9539
.8314
.5794
.2527
.0342
1.0000
.9999
.9987
.9888
.9421
.7975
.4983
.1339
.9999
.9983
.9874
.9363
.7664
.3787
1.0000
.9999
.9987
.9903
.9450
.7458
1.0000
1.0000
1.0000
1.0000
1.0000
10
11
12
1.0000
13
275
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
14
.2288
.0440
.0178
.0068
.0008
.0001
.0000
.0000
.0000
.0000
.5846
.1979
.1010
.0475
.0081
.0009
.0001
.0000
.0000
.0000
.8416
.4481
.2811
.1608
.0398
.0065
.0006
.0000
.0000
.0000
.9559
.6982
.5213
.3552
.1243
.0287
.0039
.0002
.0000
.0000
.9908
.8702
.7415
.5842
.2793
.0898
.0175
.0017
.0000
.0000
.9985
.9561
.8883
.7805
.4859
.2120
.0583
.0083
.0004
.0000
.9998
.9884
.9617
.9067
.6925
.3953
.1501
.0315
.0024
.0000
1.0000
.9976
.9897
.9685
.8499
.6047
.3075
.0933
.0116
.0002
.9996
.9978
.9917
.9417
.7880
.5141
.2195
.0439
.0015
1.0000
.9997
.9983
.9825
.9102
.7207
.4158
.1298
.0092
1.0000
.9998
.9961
.9713
.8757
.6448
.3018
.0441
11
1.0000
.9994
.9935
.9602
.8392
.5519
.1584
12
1.0000
.9999
.9991
.9919
.9525
.8021
.4154
1.0000
.9999
.9992
.9932
.9560
.7712
1.0000
1.0000
1.0000
1.0000
1.0000
10
13
14
15
.2059
.0352
.0134
.0047
.0005
.0000
.0000
.0000
.0000
.0000
.5490
.1671
.0802
.0353
.0052
.0005
.0000
.0000
.0000
.0000
.8159
.3980
.2361
.1268
.0271
.0037
.0003
.0000
.0000
.0000
.9444
.6482
.4613
.2969
.0905
.0176
.0019
.0001
.0000
.0000
.9873
.8358
.6865
.5155
.2173
.0592
.0093
.0007
.0000
.0000
.9977
.9389
.8516
.7216
.4032
.1509
.0338
.0037
.0001
.0000
.9997
.9819
.9434
.8689
.6098
.3036
.0950
.0152
.0008
.0000
1.0000
.9958
.9827
.9500
.7869
.5000
.2131
.0500
.0042
.0000
.9992
.9958
.9848
.9050
.6964
.3902
.1311
.0181
.0003
8
9
.9999
.9992
.9963
.9662
.8491
.5968
.2784
.0611
.0022
10
1.0000
.9999
.9993
.9907
.9408
.7827
.4845
.1642
.0127
1.0000
.9999
.9981
.9824
.9095
.7031
.3518
.0556
1.0000
.9997
.9963
.9729
.8732
.6020
.1841
1.0000
.9995
.9948
.9647
.8329
.4510
1.0000
.9995
.9953
.9648
.7941
1.0000
1.0000
1.0000
1.0000
11
12
13
14
15
276
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
16
.1853
.0281
.0100
.0033
.0003
.0000
.0000
.0000
.0000
.0000
.5147
.1407
.0635
.0261
.0033
.0003
.0000
.0000
.0000
.0000
.7892
.3518
.1971
.0994
.0183
.0021
.0001
.0000
.0000
.0000
.9316
.5981
.4050
.2459
.0651
.0106
.0009
.0000
.0000
.0000
.9830
.7982
.6302
.4499
.1666
.0384
.0049
.0003
.0000
.0000
.9967
.9183
.8103
.6598
.3288
.1051
.0191
.0016
.0000
.0000
.9995
.9733
.9204
.8247
.5272
.2272
.0583
.0071
.0002
.0000
.9999
.9930
.9729
.9256
.7161
.4018
.1423
.0257
.0015
.0000
1.0000
.9985
.9925
.9743
.8577
.5982
.2839
.0744
.0070
.0001
.9998
.9984
.9929
.9417
.7728
.4728
.1753
.0267
.0005
10
1.0000
.9997
.9984
.9809
.8949
.6712
.3402
.0817
.0033
1.0000
.9997
.9951
.9616
.8334
.5501
.2018
.0170
12
1.0000
.9991
.9894
.9349
.7541
.4019
.0684
13
1.0000
.9999
.9979
.9817
.9006
.6482
.2108
1.0000
.9997
.9967
.9739
.8593
.4853
1.0000
.9997
.9967
.9719
.8147
1.0000
1.0000
1.0000
1.0000
11
14
15
16
17
.1668
.0225
.0075
.0023
.0002
.0000
.0000
.0000
.0000
.0000
.4818
.1182
.0501
.0193
.0021
.0001
.0000
.0000
.0000
.0000
.7618
.3096
.1637
.0774
.0123
.0012
.0001
.0000
.0000
.0000
.9174
.5489
.3530
.2019
.0464
.0064
.0005
.0000
.0000
.0000
.9779
.7582
.5739
.3887
.1260
.0245
.0025
.0001
.0000
.0000
.9953
.8943
.7653
.5968
.2639
.0717
.0106
.0007
.0000
.0000
.9992
.9623
.8929
.7752
.4478
.1662
.0348
.0032
.0001
.0000
.9999
.9891
.9598
.8954
.6405
.3145
.0919
.0127
.0005
.0000
1.0000
.9974
.9876
.9597
.8011
.5000
.1989
.0403
.0026
.0000
.9995
.9969
.9873
.9081
.6855
.3595
.1046
.0109
.0001
10
.9999
.9994
.9968
.9652
.8338
.5522
.2248
.0377
.0008
11
1.0000
.9999
.9993
.9894
.9283
.7361
.4032
.1057
.0047
1.0000
.9999
.9975
.9755
.8740
.6113
.2418
.0221
1.0000
.9995
.9936
.9536
.7981
.4511
.0826
14
.9999
.9988
.9877
.9226
.6904
.2382
15
1.0000
.9999
.9979
.9807
.8818
.5182
12
13
16
1.0000
17
277
.9998
.9977
.9775
.8332
1.0000
1.0000
1.0000
1.0000
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
18
.1501
.0180
.0056
.0016
.0001
.0000
.0000
.0000
.0000
.0000
.4503
.0991
.0395
.0142
.0013
.0001
.0000
.0000
.0000
.0000
.7338
.2713
.1353
.0600
.0082
.0007
.0000
.0000
.0000
.0000
.9018
.5010
.3057
.1646
.0328
.0038
.0002
.0000
.0000
.0000
.9718
.7164
.5187
.3327
.0942
.0154
.0013
.0000
.0000
.0000
.9936
.8671
.7175
.5344
.2088
.0481
.0058
.0003
.0000
.0000
.9988
.9487
.8610
.7217
.3743
.1189
.0203
.0014
.0000
.0000
.9998
.9837
.9431
.8593
.5634
.2403
.0576
.0061
.0002
.0000
1.0000
.9957
.9807
.9404
.7368
.4073
.1347
.0210
.0009
.0000
.9991
.9946
.9790
.8653
.5927
.2632
.0596
.0043
.0000
10
.9998
.9988
.9939
.9424
.7597
.4366
.1407
.0163
.0002
11
1.0000
.9998
.9986
.9797
.8811
.6257
.2783
.0513
.0012
1.0000
.9997
.9942
.9519
.7912
.4656
.1329
.0064
1.0000
.9987
.9846
.9058
.6673
.2836
.0282
14
.9998
.9962
.9672
.8354
.4990
.0982
15
1.0000
.9993
.9918
.9400
.7287
.2662
12
13
16
.9999
.9987
.9858
.9009
.5497
17
1.0000
.9999
.9984
.9820
.8499
1.0000
1.0000
1.0000
1.0000
18
278
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
19
.1351
.0144
.0042
.0011
.0001
.0000
.0000
.0000
.0000
.0000
.4203
.0829
.0310
.0104
.0008
.0000
.0000
.0000
.0000
.0000
.7054
.2369
.1113
.0462
.0055
.0004
.0000
.0000
.0000
.0000
.8850
.4551
.2631
.1332
.0230
.0022
.0001
.0000
.0000
.0000
.9648
.6733
.4654
.2822
.0696
.0096
.0006
.0000
.0000
.0000
.9914
.8369
.6678
.4739
.1629
.0318
.0031
.0001
.0000
.0000
.9983
.9324
.8251
.6655
.3081
.0835
.0116
.0006
.0000
.0000
.9997
.9767
.9225
.8180
.4878
.1796
.0352
.0028
.0000
.0000
1.0000
.9933
.9713
.9161
.6675
.3238
.0885
.0105
.0003
.0000
.9984
.9911
.9674
.8139
.5000
.1861
.0326
.0016
.0000
10
.9997
.9977
.9895
.9115
.6762
.3325
.0839
.0067
.0000
11
1.0000
.9995
.9972
.9648
.8204
.5122
.1820
.0233
.0003
12
.9999
.9994
.9884
.9165
.6919
.3345
.0676
.0017
13
1.0000
.9999
.9969
.9682
.8371
.5261
.1631
.0086
1.0000
.9994
.9904
.9304
.7178
.3267
.0352
15
.9999
.9978
.9770
.8668
.5449
.1150
16
1.0000
.9996
.9945
.9538
.7631
.2946
1.0000
.9992
.9896
.9171
.5797
18
.9999
.9989
.9856
.8649
19
1.0000
1.0000
1.0000
1.0000
14
17
279
.10
.20
.25
.30
.40
.50
.60
.70
.80
.90
20
.1216
.0115
.0032
.0008
.0000
.0000
.0000
.0000
.0000
.0000
.3917
.0692
.0243
.0076
.0005
.0000
.0000
.0000
.0000
.0000
.6769
.2061
.0913
.0355
.0036
.0002
.0000
.0000
.0000
.0000
.8670
.4114
.2252
.1071
.0160
.0013
.0000
.0000
.0000
.0000
.9568
.6296
.4148
.2375
.0510
.0059
.0003
.0000
.0000
.0000
.9887
.8042
.6172
.4164
.1256
.0207
.0016
.0000
.0000
.0000
.9976
.9133
.7858
.6080
.2500
.0577
.0065
.0003
.0000
.0000
.9996
.9679
.8982
.7723
.4159
.1316
.0210
.0013
.0000
.0000
.9999
.9900
.9591
.8867
.5956
.2517
.0565
.0051
.0001
.0000
1.0000
.9974
.9861
.9520
.7553
.4119
.1275
.0171
.0006
.0000
10
.9994
.9961
.9829
.8725
.5881
.2447
.0480
.0026
.0000
11
.9999
.9991
.9949
.9435
.7483
.4044
.1133
.0100
.0001
12
1.0000
.9998
.9987
.9790
.8684
.5841
.2277
.0321
.0004
1.0000
.9997
.9935
.9423
.7500
.3920
.0867
.0024
1.0000
.9984
.9793
.8744
.5836
.1958
.0113
15
.9997
.9941
.9490
.7625
.3704
.0432
16
1.0000
13
14
.9987
.9840
.8929
.5886
.1330
17
.9998
.9964
.9645
.7939
.3231
18
1.0000
.9995
.9924
.9308
.6083
1.0000
.9992
.9885
.8784
1.0000
1.0000
1.0000
19
20
280
0.1
0.2
0.3
0.4
0.5
0
1
2
3
4
5
6
0.9048
0.9953
0.9998
1.0000
0.8187
0.9825
0.9989
0.9999
1.0000
0.7408
0.9631
0.9964
0.9997
1.0000
0.6703
0.9384
0.9921
0.9992
0.9999
1.0000
0.6065
0.9098
0.9856
0.9982
0.9998
1.0000
1.0
1.5
2.0
2.5
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
0.3679
0.7358
0.9197
0.9810
0.9963
0.9994
0.9999
1.0000
0.2231
0.5578
0.8088
0.9344
0.9814
0.9955
0.9991
0.9998
1.0000
0.1353
0.4060
0.6767
0.8571
0.9473
0.9834
0.9955
0.9989
0.9998
1.0000
0.0821
0.2873
0.5438
0.7576
0.8912
0.9580
0.9858
0.9958
0.9989
0.9997
0.9999
1.0000
3.0
0.0498
0.1991
0.4232
0.6472
0.8153
0.9161
0.9665
0.9881
0.9962
0.9989
0.9997
0.9999
1.0000
281
x
X
k
k=0
k!
0.6
0.7
0.8
0.9
0.5488
0.8781
0.9769
0.9966
0.9996
1.0000
0.4966
0.8442
0.9659
0.9942
0.9992
0.9999
1.0000
0.4493
0.8088
0.9526
0.9909
0.9986
0.9998
1.0000
0.4066
0.7725
0.9371
0.9865
0.9977
0.9997
1.0000
3.5
4.0
4.5
5.0
0.0302
0.1359
0.3208
0.5366
0.7254
0.8576
0.9347
0.9733
0.9901
0.9967
0.9990
0.9997
0.9999
1.0000
0.0183
0.0916
0.2381
0.4335
0.6288
0.7851
0.8893
0.9489
0.9786
0.9919
0.9972
0.9991
0.9997
0.9999
1.0000
0.0111
0.0611
0.1736
0.3423
0.5321
0.7029
0.8311
0.9134
0.9597
0.9829
0.9933
0.9976
0.9992
0.9997
0.9999
1.0000
0.0067
0.0404
0.1247
0.2650
0.4405
0.6160
0.7622
0.8666
0.9319
0.9682
0.9863
0.9945
0.9980
0.9993
0.9998
0.9999
1.0000
5.5
6.0
6.5
7.0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
0.0041
0.0266
0.0884
0.2017
0.3575
0.5289
0.6860
0.8095
0.8944
0.9462
0.9747
0.9890
0.9955
0.9983
0.9994
0.9998
0.9999
1.0000
0.0025
0.0174
0.0620
0.1512
0.2851
0.4457
0.6063
0.7440
0.8472
0.9161
0.9574
0.9799
0.9912
0.9964
0.9986
0.9995
0.9998
0.9999
1.0000
0.0015
0.0113
0.0430
0.1118
0.2237
0.3690
0.5265
0.6728
0.7916
0.8774
0.9332
0.9661
0.9840
0.9929
0.9970
0.9988
0.9996
0.9998
0.9999
1.0000
0.0009
0.0073
0.0296
0.0818
0.1730
0.3007
0.4497
0.5987
0.7291
0.8305
0.9015
0.9467
0.9730
0.9872
0.9943
0.9976
0.9990
0.9996
0.9999
1.0000
7.5
0.0006
0.0047
0.0203
0.0591
0.1321
0.2414
0.3782
0.5246
0.6620
0.7764
0.8622
0.9208
0.9573
0.9784
0.9897
0.9954
0.9980
0.9992
0.9997
0.9999
1.0000
282
8.0
8.5
9.0
9.5
0.0003
0.0030
0.0138
0.0424
0.0996
0.1912
0.3134
0.4530
0.5925
0.7166
0.8159
0.8881
0.9362
0.9658
0.9827
0.9918
0.9963
0.9984
0.9993
0.9997
0.9999
1.0000
0.0002
0.0019
0.0093
0.0301
0.0744
0.1496
0.2562
0.3856
0.5231
0.6530
0.7634
0.8487
0.9091
0.9486
0.9726
0.9862
0.9934
0.9970
0.9987
0.9995
0.9998
0.9999
1.0000
0.0001
0.0012
0.0062
0.0212
0.0550
0.1157
0.2068
0.3239
0.4557
0.5874
0.7060
0.8030
0.8758
0.9261
0.9585
0.9780
0.9889
0.9947
0.9976
0.9989
0.9996
0.9998
0.9999
1.0000
0.0001
0.0008
0.0042
0.0149
0.0403
0.0885
0.1649
0.2687
0.3918
0.5218
0.6453
0.7520
0.8364
0.8981
0.9400
0.9665
0.9823
0.9911
0.9957
0.9980
0.9991
0.9996
0.9999
0.9999
1.0000
10.0
11.0
12.0
13.0
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
0.0000
0.0005
0.0028
0.0103
0.0293
0.0671
0.1301
0.2202
0.3328
0.4579
0.5830
0.6968
0.7916
0.8645
0.9165
0.9513
0.9730
0.9857
0.9928
0.9965
0.9984
0.9993
0.9997
0.9999
1.0000
0.0000
0.0002
0.0012
0.0049
0.0151
0.0375
0.0786
0.1432
0.2320
0.3405
0.4599
0.5793
0.6887
0.7813
0.8540
0.9074
0.9441
0.9678
0.9823
0.9907
0.9953
0.9977
0.9990
0.9995
0.9998
0.9999
1.0000
0.0000
0.0001
0.0005
0.0023
0.0076
0.0203
0.0458
0.0895
0.1550
0.2424
0.3472
0.4616
0.5760
0.6815
0.7720
0.8444
0.8987
0.9370
0.9626
0.9787
0.9884
0.9939
0.9970
0.9985
0.9993
0.9997
0.9999
0.9999
1.0000
0.0000
0.0000
0.0002
0.0011
0.0037
0.0107
0.0259
0.0540
0.0998
0.1658
0.2517
0.3532
0.4631
0.5730
0.6751
0.7636
0.8355
0.8905
0.9302
0.9573
0.9750
0.9859
0.9924
0.9960
0.9980
0.9990
0.9995
0.9998
0.9999
1.0000
14.0
0.0000
0.0000
0.0001
0.0005
0.0018
0.0055
0.0142
0.0316
0.0621
0.1094
0.1757
0.2600
0.3585
0.4644
0.5704
0.6694
0.7559
0.8272
0.8826
0.9235
0.9521
0.9712
0.9833
0.9907
0.9950
0.9974
0.9987
0.9994
0.9997
0.9999
0.9999
1.0000
283
15.0
16.0
17.0
18.0
0.0000
0.0000
0.0000
0.0002
0.0009
0.0028
0.0076
0.0180
0.0374
0.0699
0.1185
0.1848
0.2676
0.3632
0.4657
0.5681
0.6641
0.7489
0.8195
0.8752
0.9170
0.9469
0.9673
0.9805
0.9888
0.9938
0.9967
0.9983
0.9991
0.9996
0.9998
0.9999
1.0000
0.0000
0.0000
0.0000
0.0001
0.0004
0.0014
0.0040
0.0100
0.0220
0.0433
0.0774
0.1270
0.1931
0.2745
0.3675
0.4667
0.5660
0.6593
0.7423
0.8122
0.8682
0.9108
0.9418
0.9633
0.9777
0.9869
0.9925
0.9959
0.9978
0.9989
0.9994
0.9997
0.9999
0.9999
1.0000
0.0000
0.0000
0.0000
0.0000
0.0002
0.0007
0.0021
0.0054
0.0126
0.0261
0.0491
0.0847
0.1350
0.2009
0.2808
0.3715
0.4677
0.5640
0.6550
0.7363
0.8055
0.8615
0.9047
0.9367
0.9594
0.9748
0.9848
0.9912
0.9950
0.9973
0.9986
0.9993
0.9996
0.9998
0.9999
1.0000
0.0000
0.0000
0.0000
0.0000
0.0001
0.0003
0.0010
0.0029
0.0071
0.0154
0.0304
0.0549
0.0917
0.1426
0.2081
0.2867
0.3751
0.4686
0.5622
0.6509
0.7307
0.7991
0.8551
0.8989
0.9317
0.9554
0.9718
0.9827
0.9897
0.9941
0.9967
0.9982
0.9990
0.9995
0.9998
0.9999
0.9999
1.0000
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
.5000 .4960 .4920 .4880 .4840 .4801 .4761 .4721 .4681 .4641
0.1
.4602 .4562 .4522 .4483 .4443 .4404 .4364 .4325 .4286 .4247
0.2
.4207 .4168 .4129 .4090 .4052 .4013 .3974 .3936 .3897 .3859
0.3
.3821 .3783 .3745 .3707 .3669 .3632 .3594 .3557 .3520 .3483
0.4
.3446 .3409 .3372 .3336 .3300 .3264 .3228 .3192 .3156 .3121
0.5
.3085 .3050 .3015 .2981 .2946 .2912 .2877 .2843 .2810 .2776
0.6
.2743 .2709 .2676 .2643 .2611 .2578 .2546 .2514 .2483 .2451
0.7
.2420 .2389 .2358 .2327 .2296 .2266 .2236 .2206 .2177 .2148
0.8
.2119 .2090 .2061 .2033 .2005 .1977 .1949 .1922 .1894 .1867
0.9
.1841 .1814 .1788 .1762 .1736 .1711 .1685 .1660 .1635 .1611
1.0
.1587 .1562 .1539 .1515 .1492 .1469 .1446 .1423 .1401 .1379
1.1
.1357 .1335 .1314 .1292 .1271 .1251 .1230 .1210 .1190 .1170
1.2
.1151 .1131 .1112 .1093 .1075 .1056 .1038 .1020 .1003 .0985
1.3
.0968 .0951 .0934 .0918 .0901 .0885 .0869 .0853 .0838 .0823
1.4
.0808 .0793 .0778 .0764 .0749 .0735 .0721 .0708 .0694 .0681
1.5
.0668 .0655 .0642 .0630 .0618 .0606 .0594 .0582 .0571 .0559
284
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
1.6
.0548 .0537 .0526 .0516 .0505 .0495 .0485 .0475 .0465 .0455
1.7
.0446 .0436 .0427 .0418 .0409 .0401 .0392 .0384 .0375 .0367
1.8
.0359 .0351 .0344 .0336 .0329 .0322 .0314 .0307 .0301 .0294
1.9
.0287 .0281 .0274 .0268 .0262 .0256 .0250 .0244 .0239 .0233
2.0
.0228 .0222 .0217 .0212 .0207 .0202 .0197 .0192 .0188 .0183
2.1
.0179 .0174 .0170 .0166 .0162 .0158 .0154 .0150 .0146 .0143
2.2
.0139 .0136 .0132 .0129 .0125 .0122 .0119 .0116 .0113 .0110
2.3
.0107 .0104 .0102 .0099 .0096 .0094 .0091 .0089 .0087 .0084
2.4
.0082 .0080 .0078 .0075 .0073 .0071 .0069 .0068 .0066 .0064
2.5
.0062 .0060 .0059 .0057 .0055 .0054 .0052 .0051 .0049 .0048
2.6
.0047 .0045 .0044 .0043 .0041 .0040 .0039 .0038 .0037 .0036
2.7
.0035 .0034 .0033 .0032 .0031 .0030 .0029 .0028 .0027 .0026
2.8
.0026 .0025 .0024 .0023 .0023 .0022 .0021 .0021 .0020 .0019
2.9
.0019 .0018 .0018 .0017 .0016 .0016 .0015 .0015 .0014 .0014
3.0
.0013 .0013 .0013 .0012 .0012 .0011 .0011 .0011 .0010 .0010
3.1
.0010 .0009 .0009 .0009 .0008 .0008 .0008 .0008 .0007 .0007
3.2
.0007 .0007 .0006 .0006 .0006 .0006 .0006 .0005 .0005 .0005
3.3
.0005 .0005 .0005 .0004 .0004 .0004 .0004 .0004 .0004 .0003
3.4
.0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0003 .0002
285
0.40
0.25
0.15
0.10
0.05
0.025
0.001
0.005
4.3027
6.9646
9.9248
3.1824
4.5408
5.8408
2.7764
3.7470
4.6041
2.5706
3.3649
4.0321
2.4469
3.1427
3.7074
2.3646
2.9980
3.4995
2.3060
2.8965
3.3554
2.2622
2.8215
3.2498
10
2.2281
2.7638
3.1693
11
2.2010
2.7181
3.1058
12
2.1788
2.6810
3.0546
13
2.1604
2.6503
3.0123
14
2.1448
2.6245
2.9768
15
2.1314
2.6025
2.9467
16
2.1199
2.5835
2.9208
17
2.1098
2.5669
2.8982
18
2.1009
2.5524
2.8784
19
2.0930
2.5395
2.8609
20
2.0860
2.5280
2.8453
286
0.40
0.25
0.15
0.10
0.05
0.025
0.001
0.005
21
22
23
24
25
26
27
28
29
30
35
40
45
50
60
70
80
90
100
120
150
200
300
287
0.99
0.975
0.95
0.90
0.75
0.50
0.25
0.10
0.05
0.025
0.01
1.571
9.821
39.320
0.016
0.102
0.455
1.323
2.706
3.841
5.024
6.635
0.020
0.051
0.103
0.211
0.575
1.386
2.773
4.605
5.991
7.378
9.210
0.115
0.216
0.352
0.584
1.213
2.366
4.108
6.252
7.815
9.349
11.346
0.297
0.484
0.711
1.064
1.923
3.357
5.385
7.779
9.488
11.143
13.277
0.554
0.831
1.145
1.610
2.675
4.351
6.626
9.236
11.070
12.832
15.086
288
0.872
1.237
1.635
2.204
3.455
5.348
7.841
10.645
12.592
14.449
16.812
1.239
1.690
2.167
2.833
4.255
6.346
9.037
12.017
14.067
16.013
18.475
1.646
2.180
2.733
3.490
5.071
7.344
10.219
13.362
15.507
17.535
20.090
2.088
2.700
3.325
4.168
5.899
8.343
11.389
14.684
16.919
19.023
21.666
10
2.558
3.247
3.940
4.865
6.737
9.342
12.549
15.987
18.307
20.483
23.209
11
3.053
3.816
4.575
5.578
7.584
10.341
13.701
17.275
19.675
21.920
24.725
12
3.571
4.404
5.226
6.304
8.438
11.340
14.845
18.549
21.026
23.337
26.217
13
4.107
5.009
5.892
7.041
9.299
12.340
15.984
19.812
22.362
24.712
27.688
14
4.660
5.629
6.571
7.790
10.165
13.339
17.117
21.064
23.685
26.119
29.141
15
5.229
6.262
7.261
8.547
11.037
14.339
18.245
22.307
24.996
27.488
30.578
16
5.812
6.908
7.962
9.312
11.912
15.338
19.369
23.542
26.296
28.845
32.000
17
6.408
7.564
8.672
10.085
12.792
16.338
20.489
24.769
27.587
30.191
33.409
18
7.015
8.231
9.390
10.865
13.675
17.338
21.605
25.989
28.869
31.526
34.805
19
7.633
8.907
10.117
11.651
14.562
18.338
22.718
27.204
30.144
32.852
36.191
20
8.260
9.591
10.851
12.443
15.452
19.337
23.828
28.412
31.410
34.170
37.566
289
libertad
0.99
0.975
0.95
0.90
0.75
0.50
0.25
0.10
0.05
0.025
0.01
21
8.897
10.283
11.591
13.240
16.344
20.337
24.935
29.615
32.671
35.479
38.932
22
9.542
10.982
12.338
14.041
17.240
21.337
26.039
30.813
33.924
36.781
40.289
23
10.196
11.689
13.091
14.848
18.137
22.337
27.141
32.007
35.172
38.076
41.638
24
10.856
12.401
13.848
15.659
19.037
23.337
28.241
33.196
36.415
39.364
42.980
25
11.524
13.120
14.611
16.473
19.939
24.337
29.339
34.382
37.652
40.646
44.314
26
12.198
13.844
15.379
17.292
20.843
25.336
30.435
35.563
38.885
41.923
45.642
27
12.879
14.573
16.151
18.114
21.749
26.336
31.528
36.741
40.113
43.194
46.963
28
13.565
15.308
16.928
18.939
22.657
27.336
32.620
37.916
41.329
44.461
48.278
29
14.256
16.047
17.708
19.768
23.567
28.336
33.711
39.087
42.557
45.722
49.588
30
14.954
16.791
18.493
20.599
24.478
29.336
34.800
40.256
43.773
46.979
50.892
40
22.164
24.433
26.509
29.050
33.660
39.335
45.616
51.805
55.758
59.342
63.691
50
29.707
32.357
34.764
37.689
42.942
49.335
56.334
63.167
67.505
71.420
76.154
60
37.485
40.482
43.188
46.459
52.294
59.335
66.981
74.397
79.082
83.298
88.379
70
45.442
48.758
51.739
55.329
61.698
69.334
77.577
85.527
90.531
95.023
100.425
80
53.540
57.153
60.391
64.278
71.144
70.334
88.130
96.578
101.879
106.629
112.329
90
61.754
65.647
69.126
73.291
80.625
89.334
98.650
107.565
113.145
118.136
124.116
100
70.065
74.222
77.929
82.358
90.133
99.334
109.141
118.498
124.342
129.561
135.807
libertad del
denominador (m)
290
10
12
15
20
24
30
40
60
120
1
2
3
4
5
5.83
2.57
2.02
1.81
1.69
7.50
3.00
2.28
2.00
1.85
8.20
3.15
2.36
2.05
1.88
8.58
3.23
2.39
2.06
1.89
8.82
3.28
2.41
2.07
1.89
8.98
3.31
2.42
2.08
1.89
9.10
3.34
2.43
2.08
1.89
9.19
3.35
2.44
2.08
1.89
9.26
3.37
2.44
2.08
1.89
9.32
3.38
2.44
2.08
1.89
9.41
3.39
2.45
2.08
1.89
9.49
3.41
2.46
2.08
1.89
9.58
3.43
2.46
2.08
1.88
9.63
3.43
2.46
2.08
1.88
9.67
3.44
2.47
2.08
1.88
9.71
3.45
2.47
2.08
1.88
9.76
3.46
2.47
2.08
1.87
9.80
3.47
2.47
2.08
1.87
9.85
3.48
2.47
2.08
1.87
6
7
8
9
10
1.62
1.57
1.54
1.51
1.49
1.76
1.70
1.66
1.62
1.60
1.78
1.72
1.67
1.63
1.60
1.79
1.72
1.66
1.63
1.59
1.79
1.71
1.66
1.62
1.59
1.78
1.71
1.65
1.61
1.58
1.78
1.70
1.64
1.60
1.57
1.78
1.70
1.64
1.60
1.56
1.77
1.69
1.63
1.59
1.56
1.77
1.69
1.63
1.59
1.55
1.77
1.68
1.62
1.58
1.54
1.76
1.68
1.62
1.57
1.53
1.76
1.67
1.61
1.56
1.52
1.75
1.67
1.60
1.56
1.52
1.75
1.66
1.60
1.55
1.51
1.75
1.66
1.59
1.54
1.51
1.74
1.65
1.59
1.54
1.50
1.74
1.65
1.58
1.53
1.49
1.74
1.65
1.58
1.53
1.48
11
12
13
14
15
1.47
1.46
1.45
1.44
1.43
1.58
1.56
1.55
1.53
1.52
1.58
1.56
1.55
1.53
1.52
1.57
1.55
1.53
1.52
1.51
1.56
1.54
1.52
1.51
1.49
1.55
1.53
1.51
1.50
1.48
1.54
1.52
1.50
1.49
1.47
1.53
1.51
1.49
1.48
1.46
1.53
1.51
1.49
1.47
1.46
1.52
1.50
1.48
1.46
1.45
1.51
1.49
1.47
1.45
1.44
1.50
1.48
1.46
1.44
1.43
1.49
1.47
1.45
1.43
1.41
1.49
1.46
1.44
1.42
1.41
1.48
1.45
1.43
1.41
1.40
1.47
1.45
1.42
1.41
1.39
1.47
1.44
1.42
1.40
1.38
1.46
1.43
1.41
1.39
1.37
1.45
1.42
1.40
1.38
1.36
16
17
18
19
20
1.42
1.42
1.41
1.41
1.40
1.51
1.51
1.50
1.49
1.49
1.51
1.50
1.49
1.49
1.48
1.50
1.49
1.48
1.47
1.47
1.48
1.47
1.46
1.46
1.45
1.47
1.46
1.45
1.44
1.44
1.46
1.45
1.44
1.43
1.43
1.45
1.44
1.43
1.42
1.42
1.44
1.43
1.42
1.41
1.41
1.44
1.43
1.42
1.41
1.40
1.43
1.41
1.40
1.40
1.39
1.41
1.40
1.39
1.38
1.37
1.40
1.39
1.38
1.37
1.36
1.39
1.38
1.37
1.36
1.35
1.38
1.37
1.36
1.35
1.34
1.37
1.36
1.35
1.34
1.33
1.36
1.35
1.34
1.33
1.32
1.35
1.34
1.33
1.32
1.31
1.34
1.33
1.32
1.30
1.29
21
22
23
24
25
1.40
1.40
1.39
1.39
1.39
1.48
1.48
1.47
1.47
1.47
1.48
1.47
1.47
1.46
1.46
1.46
1.45
1.45
1.44
1.44
1.44
1.44
1.43
1.43
1.42
1.43
1.42
1.42
1.41
1.41
1.42
1.41
1.41
1.40
1.40
1.41
1.40
1.40
1.39
1.39
1.40
1.39
1.39
1.38
1.38
1.39
1.39
1.38
1.38
1.37
1.38
1.37
1.37
1.36
1.36
1.37
1.36
1.35
1.35
1.34
1.35
1.34
1.34
1.33
1.33
1.34
1.33
1.33
1.32
1.32
1.33
1.32
1.32
1.31
1.31
1.32
1.31
1.31
1.30
1.29
1.31
1.30
1.30
1.29
1.28
1.30
1.29
1.28
1.28
1.27
1.28
1.28
1.27
1.26
1.25
26
27
28
29
30
1.38
1.38
1.38
1.38
1.38
1.46
1.46
1.46
1.45
1.45
1.45
1.45
1.45
1.45
1.44
1.44
1.43
1.43
1.43
1.42
1.42
1.42
1.41
1.41
1.41
1.41
1.40
1.40
1.40
1.39
1.39
1.39
1.39
1.38
1.38
1.38
1.38
1.38
1.37
1.37
1.37
1.37
1.37
1.36
1.36
1.37
1.36
1.36
1.35
1.35
1.35
1.35
1.34
1.34
1.34
1.34
1.33
1.33
1.32
1.32
1.32
1.32
1.31
1.31
1.30
1.31
1.31
1.30
1.30
1.29
1.30
1.30
1.29
1.29
1.28
1.29
1.28
1.28
1.27
1.27
1.28
1.27
1.27
1.26
1.26
1.26
1.26
1.25
1.25
1.24
1.25
1.24
1.24
1.23
1.23
40
60
120
1.36
1.35
1.34
1.32
1.44
1.42
1.40
1.39
1.42
1.41
1.39
1.37
1.40
1.38
1.37
1.35
1.39
1.37
1.35
1.33
1.37
1.35
1.33
1.31
1.36
1.33
1.31
1.29
1.35
1.32
1.30
1.28
1.34
1.31
1.29
1.27
1.33
1.30
1.28
1.25
1.31
1.29
1.26
1.24
1.30
1.27
1.24
1.22
1.28
1.25
1.22
1.19
1.26
1.24
1.21
1.18
1.25
1.22
1.19
1.16
1.24
1.21
1.18
1.14
1.22
1.19
1.16
1.12
1.21
1.17
1.13
1.08
1.19
1.15
1.10
1.00
libertad del
291
denominador (m)
10
12
15
20
24
30
40
60
120
1
2
3
4
5
39.86
8.53
5.54
4.54
4.06
49.50
9.00
5.46
4.32
3.78
53.59
9.16
5.39
4.19
3.62
55.83
9.24
5.34
4.11
3.52
57.24
9.29
5.31
4.05
3.45
58.20
9.33
5.28
4.01
3.40
58.91
9.35
5.27
3.98
3.37
59.44
9.37
5.25
3.95
3.34
59.86
9.38
5.24
3.94
3.32
60.19
9.39
5.23
3.92
3.30
60.71
9.41
5.22
3.90
3.27
61.22
9.42
5.20
3.87
3.24
61.74
9.44
5.18
3.84
3.21
62.00
9.45
5.18
3.83
3.19
62.26
9.46
5.17
3.82
3.17
62.53
9.47
5.16
3.80
3.16
62.79
9.47
5.15
3.79
3.14
63.06
9.48
5.14
3.78
3.12
63.33
9.49
5.13
3.76
3.10
6
7
8
9
10
3.78
3.59
3.46
3.36
3.29
3.46
3.26
3.11
3.01
2.92
3.29
3.07
2.92
2.81
2.73
3.18
2.96
2.81
2.69
2.61
3.11
2.88
2.73
2.61
2.52
3.05
2.83
2.67
2.55
2.46
3.01
2.78
2.62
2.51
2.41
2.98
2.75
2.59
2.47
2.38
2.96
2.72
2.56
2.44
2.35
2.94
2.70
2.54
2.42
2.32
2.90
2.67
2.50
2.38
2.28
2.87
2.63
2.46
2.34
2.24
2.84
2.59
2.42
2.30
2.20
2.82
2.58
2.40
2.28
2.18
2.80
2.56
2.38
2.25
2.16
2.78
2.54
2.36
2.23
2.13
2.76
2.51
2.34
2.21
2.11
2.74
2.49
2.32
2.18
2.08
2.72
2.47
2.29
2.16
2.06
11
12
13
14
15
3.23
3.18
3.14
3.10
3.07
2.86
2.81
2.76
2.73
2.70
2.66
2.61
2.56
2.52
2.49
2.54
2.48
2.43
2.39
2.36
2.45
2.39
2.35
2.31
2.27
2.39
2.33
2.28
2.24
2.21
2.34
2.28
2.23
2.19
2.16
2.30
2.24
2.20
2.15
2.12
2.27
2.21
2.16
2.12
2.09
2.25
2.19
2.14
2.10
2.06
2.21
2.15
2.10
2.05
2.02
2.17
2.10
2.05
2.01
1.97
2.12
2.06
2.01
1.96
1.92
2.10
2.04
1.98
1.94
1.90
2.08
2.01
1.96
1.91
1.87
2.05
1.99
1.93
1.89
1.85
2.03
1.96
1.90
1.86
1.82
2.00
1.93
1.88
1.83
1.79
1.97
1.90
1.85
1.80
1.76
16
17
18
19
20
3.05
3.03
3.01
2.99
2.97
2.67
2.64
2.62
2.61
2.59
2.46
2.44
2.42
2.40
2.38
2.33
2.31
2.29
2.27
2.25
2.24
2.22
2.20
2.18
2.16
2.18
2.15
2.13
2.11
2.09
2.13
2.10
2.08
2.06
2.04
2.09
2.06
2.04
2.02
2.00
2.06
2.03
2.00
1.98
1.96
2.03
2.00
1.98
1.96
1.94
1.99
1.96
1.93
1.91
1.89
1.94
1.91
1.89
1.86
1.84
1.89
1.86
1.84
1.81
1.79
1.87
1.84
1.81
1.79
1.77
1.84
1.81
1.78
1.76
1.74
1.81
1.78
1.75
1.73
1.71
1.78
1.75
1.72
1.70
1.68
1.75
1.72
1.69
1.67
1.64
1.72
1.69
1.66
1.63
1.61
21
22
23
24
25
2.96
2.95
2.94
2.93
2.92
2.57
2.56
2.55
2.54
2.53
2.36
2.35
2.34
2.33
2.32
2.23
2.22
2.21
2.19
2.18
2.14
2.13
2.11
2.10
2.09
2.08
2.06
2.05
2.04
2.02
2.02
2.01
1.99
1.98
1.97
1.98
1.97
1.95
1.94
1.93
1.95
1.93
1.92
1.91
1.89
1.92
1.90
1.89
1.88
1.87
1.87
1.86
1.84
1.83
1.82
1.83
1.81
1.80
1.78
1.77
1.78
1.76
1.74
1.73
1.72
1.75
1.73
1.72
1.70
1.69
1.72
1.70
1.69
1.67
1.66
1.69
1.67
1.66
1.64
1.63
1.66
1.64
1.62
1.61
1.59
1.62
1.60
1.59
1.57
1.56
1.59
1.57
1.55
1.53
1.52
26
27
28
29
30
2.91
2.90
2.89
2.89
2.88
2.52
2.51
2.50
2.50
2.49
2.31
2.30
2.29
2.28
2.28
2.17
2.17
2.16
2.15
2.14
2.08
2.07
2.06
2.06
2.05
2.01
2.00
2.00
1.99
1.98
1.96
1.95
1.94
1.93
1.93
1.92
1.91
1.90
1.89
1.88
1.88
1.87
1.87
1.86
1.85
1.86
1.85
1.84
1.83
1.82
1.81
1.80
1.79
1.78
1.77
1.76
1.75
1.74
1.73
1.72
1.71
1.70
1.69
1.68
1.67
1.68
1.67
1.66
1.65
1.64
1.65
1.64
1.63
1.62
1.61
1.61
1.60
1.59
1.58
1.57
1.58
1.57
1.56
1.55
1.54
1.54
1.53
1.52
1.51
1.50
1.50
1.49
1.48
1.47
1.46
40
60
120
2.84
2.79
2.75
2.71
2.44
2.39
2.35
2.30
2.23
2.18
2.13
2.08
2.09
2.04
1.99
1.94
2.00
1.95
1.90
1.85
1.93
1.87
1.82
1.77
1.87
1.82
1.77
1.72
1.83
1.77
1.72
1.67
1.79
1.74
1.68
1.63
1.76
1.71
1.65
1.60
1.71
1.66
1.60
1.55
1.66
1.60
1.55
1.49
1.61
1.54
1.48
1.42
1.57
1.51
1.45
1.38
1.54
1.48
1.41
1.34
1.51
1.44
1.37
1.30
1.47
1.40
1.32
1.24
1.42
1.35
1.26
1.17
1.38
1.29
1.19
1.00
libertad del
292
denominador (m)
10
12
15
20
24
30
40
60
120
1
2
3
4
5
161.40
18.51
10.13
7.71
6.61
199.50
19.00
9.55
6.94
5.79
215.70
19.16
9.28
6.59
5.41
224.60
19.25
9.12
6.39
5.19
230.20
19.30
9.01
6.26
5.05
234.00
19.33
8.94
6.16
4.95
236.80
19.35
8.89
6.09
4.88
238.90
19.37
8.85
6.04
4.82
240.50
19.39
8.81
6.00
4.77
241.90
19.40
8.79
5.96
4.74
243.90
19.41
8.75
5.91
4.68
245.90
19.43
8.70
5.86
4.62
248.00
19.45
8.66
5.80
4.56
249.10
19.45
8.64
5.77
4.53
250.10
19.46
8.62
5.75
4.50
251.10
19.47
8.59
5.72
4.46
252.20
19.48
8.57
5.69
4.43
253.30
19.49
8.55
5.66
4.40
254.30
19.50
8.53
5.63
4.36
6
7
8
9
10
5.99
5.59
5.32
5.12
4.96
5.14
4.74
4.46
4.26
4.10
4.76
4.35
4.07
3.86
3.71
4.53
4.12
3.84
3.63
3.48
4.39
3.97
3.69
3.48
3.33
4.28
3.87
3.58
3.37
3.22
4.21
3.79
3.50
3.29
3.14
4.15
3.73
3.44
3.23
3.07
4.10
3.68
3.39
3.18
3.02
4.06
3.64
3.35
3.14
2.98
4.00
3.57
3.28
3.07
2.91
3.94
3.51
3.22
3.01
2.85
3.87
3.44
3.15
2.94
2.77
3.84
3.41
3.12
2.90
2.74
3.81
3.38
3.08
2.86
2.70
3.77
3.34
3.04
2.83
2.66
3.74
3.30
3.01
2.79
2.62
3.70
3.27
2.97
2.75
2.58
3.67
3.23
2.93
2.71
2.54
11
12
13
14
15
4.84
4.75
4.67
4.60
4.54
3.98
3.89
3.81
3.74
3.68
3.59
3.49
3.41
3.34
3.29
3.36
3.26
3.18
3.11
3.06
3.20
3.11
3.03
2.96
2.90
3.09
3.00
2.92
2.85
2.79
3.01
2.91
2.83
2.76
2.71
2.95
2.85
2.77
2.70
2.64
2.90
2.80
2.71
2.65
2.59
2.85
2.75
2.67
2.60
2.54
2.79
2.69
2.60
2.53
2.48
2.72
2.62
2.53
2.46
2.40
2.65
2.54
2.46
2.39
2.33
2.61
2.51
2.42
2.35
2.29
2.57
2.47
2.38
2.31
2.25
2.53
2.43
2.34
2.27
2.20
2.49
2.38
2.30
2.22
2.16
2.45
2.34
2.25
2.18
2.11
2.40
2.30
2.21
2.13
2.07
16
17
18
19
20
4.49
4.45
4.41
4.38
4.35
3.63
3.59
3.55
3.52
3.49
3.24
3.20
3.16
3.13
3.10
3.01
2.96
2.93
2.90
2.87
2.85
2.81
2.77
2.74
2.71
2.74
2.70
2.66
2.63
2.60
2.66
2.61
2.58
2.54
2.51
2.59
2.55
2.51
2.48
2.45
2.54
2.49
2.46
2.42
2.39
2.49
2.45
2.41
2.38
2.35
2.42
2.38
2.34
2.31
2.28
2.35
2.31
2.27
2.23
2.20
2.28
2.23
2.19
2.16
2.12
2.24
2.19
2.15
2.11
2.08
2.19
2.15
2.11
2.07
2.04
2.15
2.10
2.06
2.03
1.99
2.11
2.06
2.02
1.98
1.95
2.06
2.01
1.97
1.93
1.90
2.01
1.96
1.92
1.88
1.84
21
22
23
24
25
4.32
4.30
4.28
4.26
4.24
3.47
3.44
3.42
3.40
3.39
3.07
3.05
3.03
3.01
2.99
2.84
2.82
2.80
2.78
2.76
2.68
2.66
2.64
2.62
2.60
2.57
2.55
2.53
2.51
2.49
2.49
2.46
2.44
2.42
2.40
2.42
2.40
2.37
2.36
2.34
2.37
2.34
2.32
2.30
2.28
2.32
2.30
2.27
2.25
2.24
2.25
2.23
2.20
2.18
2.16
2.18
2.15
2.13
2.11
2.09
2.10
2.07
2.05
2.03
2.01
2.05
2.03
2.01
1.98
1.96
2.01
1.98
1.96
1.94
1.92
1.96
1.94
1.91
1.89
1.87
1.92
1.89
1.86
1.84
1.82
1.87
1.84
1.81
1.79
1.77
1.81
1.78
1.76
1.73
1.71
26
27
28
29
30
4.23
4.21
4.20
4.18
4.17
3.37
3.35
3.34
3.33
3.32
2.98
2.96
2.95
2.93
2.92
2.74
2.73
2.71
2.70
2.69
2.59
2.57
2.56
2.55
2.53
2.47
2.46
2.45
2.43
2.42
2.39
2.37
2.36
2.35
2.33
2.32
2.31
2.29
2.28
2.27
2.27
2.25
2.24
2.22
2.21
2.22
2.20
2.19
2.18
2.16
2.15
2.13
2.12
2.10
2.09
2.07
2.06
2.04
2.03
2.01
1.99
1.97
1.96
1.94
1.93
1.95
1.93
1.91
1.90
1.89
1.90
1.88
1.87
1.85
1.84
1.85
1.84
1.82
1.81
1.79
1.80
1.79
1.77
1.75
1.74
1.75
1.73
1.71
1.70
1.68
1.69
1.67
1.65
1.64
1.62
40
60
120
4.08
4.00
3.92
3.84
3.23
3.15
3.07
3.00
2.84
2.76
2.68
2.60
2.61
2.53
2.45
2.37
2.45
2.37
2.29
2.21
2.34
2.25
2.17
2.10
2.25
2.17
2.09
2.01
2.18
2.10
2.02
1.94
2.12
2.04
1.96
1.88
2.08
1.99
1.91
1.83
2.00
1.92
1.83
1.75
1.92
1.84
1.75
1.67
1.84
1.75
1.66
1.57
1.79
1.70
1.61
1.52
1.74
1.65
1.55
1.46
1.69
1.59
1.50
1.39
1.64
1.53
1.43
1.32
1.58
1.47
1.35
1.22
1.51
1.39
1.25
1.00
libertad del
293
denominador (m)
10
12
15
20
24
30
40
60
120
1
2
3
4
5
647.80
38.51
17.44
12.22
10.01
799.50
39.00
16.04
10.65
8.43
864.20
39.17
15.44
9.98
7.76
899.60
39.25
15.10
9.60
7.39
921.80
39.30
14.88
9.36
7.15
937.10
39.33
14.73
9.20
6.98
948.20
39.36
14.62
9.07
6.85
956.70
39.37
14.54
8.98
6.76
963.30
39.39
14.47
8.90
6.68
968.60
39.40
14.42
8.84
6.62
976.70
39.41
14.34
8.75
6.52
984.90
39.43
14.25
8.66
6.43
993.10
39.45
14.17
8.56
6.33
997.20
39.46
14.12
8.51
6.28
1001.00
39.46
14.08
8.46
6.23
1006.00
39.47
14.04
8.41
6.18
1010.00
39.48
13.99
8.36
6.12
1014.00
39.49
13.95
8.31
6.07
1018.00
39.50
13.90
8.26
6.02
6
7
8
9
10
8.81
8.07
7.57
7.21
6.94
7.26
6.54
6.06
5.71
5.46
6.60
5.89
5.42
5.08
4.83
6.23
5.52
5.05
4.72
4.47
5.99
5.29
4.82
4.48
4.24
5.82
5.12
4.65
4.32
4.07
5.70
4.99
4.53
4.20
3.95
5.60
4.90
4.43
4.10
3.85
5.52
4.82
4.36
4.03
3.78
5.46
4.76
4.30
3.96
3.72
5.37
4.67
4.20
3.87
3.62
5.27
4.57
4.10
3.77
3.52
5.17
4.47
4.00
3.67
3.42
5.12
4.41
3.95
3.61
3.37
5.07
4.36
3.89
3.56
3.31
5.01
4.31
3.84
3.51
3.26
4.96
4.25
3.78
3.45
3.20
4.90
4.20
3.73
3.39
3.14
4.85
4.14
3.67
3.33
3.08
11
12
13
14
15
6.72
6.55
6.41
6.30
6.20
5.26
5.10
4.97
4.86
4.77
4.63
4.47
4.35
4.24
4.15
4.28
4.12
4.00
3.89
3.80
4.04
3.89
3.77
3.66
3.58
3.88
3.73
3.60
3.50
3.41
3.76
3.61
3.48
3.38
3.29
3.66
3.51
3.39
3.29
3.20
3.59
3.44
3.31
3.21
3.12
3.53
3.37
3.25
3.15
3.06
3.43
3.28
3.15
3.05
2.96
3.33
3.18
3.05
2.95
2.86
3.23
3.07
2.95
2.84
2.76
3.17
3.02
2.89
2.79
2.70
3.12
2.96
2.84
2.73
2.64
3.06
2.91
2.78
2.67
2.59
3.00
2.85
2.72
2.61
2.52
2.94
2.79
2.66
2.55
2.46
2.88
2.72
2.60
2.49
2.40
16
17
18
19
20
6.12
6.04
5.98
5.92
5.87
4.69
4.62
4.56
4.51
4.46
4.08
4.01
3.95
3.90
3.86
3.73
3.66
3.61
3.56
3.51
3.50
3.44
3.38
3.33
3.29
3.34
3.28
3.22
3.17
3.13
3.22
3.16
3.10
3.05
3.01
3.12
3.06
3.01
2.96
2.91
3.05
2.98
2.93
2.88
2.84
2.99
2.92
2.87
2.82
2.77
2.89
2.82
2.77
2.72
2.68
2.79
2.72
2.67
2.62
2.57
2.68
2.62
2.56
2.51
2.46
2.63
2.56
2.50
2.45
2.41
2.57
2.50
2.44
2.39
2.35
2.51
2.44
2.38
2.33
2.29
2.45
2.38
2.32
2.27
2.22
2.38
2.32
2.26
2.20
2.16
2.32
2.25
2.19
2.13
2.09
21
22
23
24
25
5.83
5.79
5.75
5.72
5.69
4.42
4.38
4.35
4.32
4.29
3.82
3.78
3.75
3.72
3.69
3.48
3.44
3.41
3.38
3.35
3.25
3.22
3.18
3.15
3.13
3.09
3.05
3.02
2.99
2.97
2.97
2.93
2.90
2.87
2.85
2.87
2.84
2.81
2.78
2.75
2.80
2.76
2.73
2.70
2.68
2.73
2.70
2.67
2.64
2.61
2.64
2.60
2.57
2.54
2.51
2.53
2.50
2.47
2.44
2.41
2.42
2.39
2.36
2.33
2.30
2.37
2.33
2.30
2.27
2.24
2.31
2.27
2.24
2.21
2.18
2.25
2.21
2.18
2.15
2.12
2.18
2.14
2.11
2.08
2.05
2.11
2.08
2.04
2.01
1.98
2.04
2.00
1.97
1.94
1.91
26
27
28
29
30
5.66
5.63
5.61
5.59
5.57
4.27
4.24
4.22
4.20
4.18
3.67
3.65
3.63
3.61
3.59
3.33
3.31
3.29
3.27
3.25
3.10
3.08
3.06
3.04
3.03
2.94
2.92
2.90
2.88
2.87
2.82
2.80
2.78
2.76
2.75
2.73
2.71
2.69
2.67
2.65
2.65
2.63
2.61
2.59
2.57
2.59
2.57
2.55
2.53
2.51
2.49
2.47
2.45
2.43
2.41
2.39
2.36
2.34
2.32
2.31
2.28
2.25
2.23
2.21
2.20
2.22
2.19
2.17
2.15
2.14
2.16
2.13
2.11
2.09
2.07
2.09
2.07
2.05
2.03
2.01
2.03
2.00
1.98
1.96
1.94
1.95
1.93
1.91
1.89
1.87
1.88
1.85
1.83
1.81
1.79
40
60
120
5.42
5.29
5.15
5.02
4.05
3.93
3.80
3.69
3.46
3.34
3.23
3.12
3.13
3.01
2.89
2.79
2.90
2.79
2.67
2.57
2.74
2.63
2.52
2.41
2.62
2.51
2.39
2.29
2.53
2.41
2.30
2.19
2.45
2.33
2.22
2.11
2.39
2.27
2.16
2.05
2.29
2.17
2.05
1.94
2.18
2.06
1.94
1.83
2.07
1.94
1.82
1.71
2.01
1.88
1.76
1.64
1.94
1.82
1.69
1.57
1.88
1.74
1.61
1.48
1.80
1.67
1.53
1.39
1.72
1.58
1.43
1.27
1.64
1.68
1.31
1.00
libertad del
denominador (m)
1
2
3
4
5
10
12
15
20
24
30
40
60
120
294
4052.19
98.50
34.12
21.20
16.26
4999.50
99.00
30.82
18.00
13.27
5403.00
99.17
29.46
16.69
12.06
5625.00
99.25
28.71
15.98
11.39
5764.00
99.30
28.24
15.52
10.97
5859.00
99.33
27.91
15.21
10.67
5928.00
99.36
27.67
14.98
10.46
5982.00
99.37
27.49
14.80
10.29
6022.00
99.39
27.35
14.66
10.16
6056.00
99.40
27.23
14.55
10.05
6106.00
99.42
27.05
14.37
9.89
6157.00
99.43
26.87
14.20
9.72
6209.00
99.45
26.69
14.02
9.55
6235.00
99.46
26.60
13.93
9.47
6261.00
99.47
26.50
13.84
9.38
6287.00
99.47
26.41
13.75
9.29
6313.00
99.48
26.32
13.65
9.20
6399.00
99.49
26.22
13.56
9.11
6366.00
99.00
26.13
13.46
9.02
6
7
8
9
10
13.75
12.25
11.26
10.56
10.04
10.92
9.55
8.65
8.02
7.56
9.78
8.45
7.59
6.99
6.55
9.15
7.85
7.01
6.42
5.99
8.75
7.46
6.63
6.06
5.64
8.47
7.19
6.37
5.80
5.39
8.26
6.99
6.18
5.61
5.20
8.10
6.84
6.03
5.47
5.06
7.98
6.72
5.91
5.35
4.94
7.87
6.62
5.81
5.26
4.85
7.72
6.47
5.67
5.11
4.71
7.56
6.31
5.52
4.96
4.56
7.40
6.16
5.36
4.81
4.41
7.31
6.07
5.28
4.73
4.33
7.23
5.99
5.20
4.65
4.25
7.14
5.91
5.12
4.57
4.17
7.06
5.82
5.03
4.48
4.08
6.97
5.74
4.95
4.40
4.00
6.88
5.65
4.86
4.31
3.91
11
12
13
14
15
9.65
9.33
9.07
8.86
8.68
7.21
6.93
6.70
6.51
6.36
6.22
5.95
5.74
5.56
5.42
5.67
5.41
5.21
5.04
4.89
5.32
5.06
4.86
4.69
4.56
5.07
4.82
4.62
4.46
4.32
4.89
4.64
4.44
4.28
4.14
4.74
4.50
4.30
4.14
4.00
4.63
4.39
4.19
4.03
3.89
4.54
4.30
4.10
3.94
3.80
4.40
4.16
3.96
3.80
3.67
4.25
4.01
3.82
3.66
3.52
4.10
3.86
3.66
3.51
3.37
4.02
3.78
3.59
3.43
3.29
3.94
3.70
3.51
3.35
3.21
3.86
3.62
3.43
3.27
3.13
3.78
3.54
3.34
3.18
3.05
3.69
3.45
3.25
3.09
2.96
3.60
3.36
3.17
3.00
2.87
16
17
18
19
20
8.53
8.40
8.29
8.18
8.10
6.23
6.11
6.01
5.93
5.85
5.29
5.19
5.09
5.01
4.94
4.77
4.67
4.58
4.50
4.43
4.44
4.34
4.25
4.17
4.10
4.20
4.10
4.01
3.94
3.87
4.03
3.93
3.84
3.77
3.70
3.89
3.79
3.71
3.63
3.56
3.78
3.68
3.60
3.52
3.46
3.69
3.59
3.51
3.43
3.37
3.55
3.46
3.37
3.30
3.23
3.41
3.31
3.23
3.15
3.09
3.26
3.16
3.08
3.00
2.94
3.18
3.08
3.00
2.92
2.86
3.10
3.00
2.92
2.84
2.78
3.02
2.92
2.84
2.76
2.69
2.93
2.83
2.75
2.67
2.61
2.84
2.75
2.66
2.58
2.52
2.75
2.65
2.57
2.49
2.42
21
22
23
24
25
8.02
7.95
7.88
7.82
7.77
5.78
5.72
5.66
5.61
5.57
4.87
4.82
4.76
4.72
4.68
4.37
4.31
4.26
4.22
4.18
4.04
3.99
3.94
3.90
3.85
3.81
3.76
3.71
3.67
3.63
3.64
3.59
3.54
3.50
3.46
3.51
3.45
3.41
3.36
3.32
3.40
3.35
3.30
3.26
3.22
3.31
3.26
3.21
3.17
3.13
3.17
3.12
3.07
3.03
2.99
3.03
2.98
2.93
2.89
2.85
2.88
2.83
2.78
2.74
2.70
2.80
2.75
2.70
2.66
2.62
2.72
2.67
2.62
2.58
2.54
2.64
2.58
2.54
2.49
2.45
2.55
2.50
2.45
2.40
2.36
2.46
2.40
2.35
2.31
2.27
2.36
2.31
2.26
2.21
2.17
26
27
28
29
30
7.72
7.68
7.64
7.60
7.56
5.53
5.49
5.45
5.42
5.39
4.64
4.60
4.57
4.54
4.51
4.14
4.11
4.07
4.04
4.02
3.82
3.78
3.75
3.73
3.70
3.59
3.56
3.53
3.50
3.47
3.42
3.39
3.36
3.33
3.30
3.29
3.26
3.23
3.20
3.17
3.18
3.15
3.12
3.09
3.07
3.09
3.06
3.03
3.00
2.98
2.96
2.93
2.90
2.87
2.84
2.81
2.78
2.75
2.73
2.70
2.66
2.63
2.60
2.57
2.55
2.58
2.55
2.52
2.49
2.47
2.50
2.47
2.44
2.41
2.39
2.42
2.38
2.35
2.33
2.30
2.33
2.29
2.26
2.23
2.21
2.23
2.20
2.17
2.14
2.11
2.13
2.10
2.06
2.03
2.01
40
60
120
7.31
7.08
6.85
6.63
5.18
4.98
4.79
4.61
4.31
4.13
3.95
3.78
3.83
3.65
3.48
3.32
3.51
3.34
3.17
3.02
3.29
3.12
2.96
2.80
3.12
2.95
2.79
2.64
2.99
2.82
2.66
2.51
2.89
2.72
2.56
2.41
2.80
2.63
2.47
2.32
2.66
2.50
2.34
2.18
2.52
2.35
2.19
2.04
2.37
2.20
2.03
1.88
2.29
2.12
1.95
1.79
2.20
2.03
1.86
1.70
2.11
1.94
1.76
1.59
2.02
1.84
1.66
1.47
1.92
1.73
1.53
1.32
1.80
1.60
1.38
1.00
libertad del
denominador (m)
10
12
15
20
24
30
40
60
120
162.11
198.50
55.55
31.33
22.78
200.00
199.00
49.80
26.28
18.31
216.15
199.17
47.47
24.26
16.53
225.00
199.25
46.19
23.15
15.56
230.56
199.30
45.39
22.46
14.94
234.37
199.33
44.84
21.97
14.51
237.15
199.36
44.43
21.62
14.20
239.25
199.37
44.13
21.35
13.96
240.91
199.39
43.88
21.14
13.77
242.24
199.40
43.69
20.97
13.62
244.26
199.42
43.39
20.70
13.38
246.30
199.43
43.08
20.44
13.15
248.36
199.45
42.78
20.17
12.90
249.40
199.46
42.62
20.03
12.78
250.44
199.47
42.47
19.89
12.66
251.48
199.47
42.31
19.75
12.53
252.53
199.48
42.15
19.61
12.40
253.59
199.49
41.99
19.47
12.27
254.65
199.50
41.83
19.32
12.14
6
7
8
9
10
18.63
16.24
14.69
13.61
12.83
14.54
12.40
11.04
10.11
9.43
12.92
10.88
9.60
8.72
8.08
12.03
10.05
8.81
7.96
7.34
11.46
9.52
8.30
7.47
6.87
11.07
9.16
7.95
7.13
6.54
10.79
8.89
7.69
6.88
6.30
10.57
8.68
7.50
6.69
6.12
10.39
8.51
7.34
6.54
5.97
10.25
8.38
7.21
6.42
5.85
10.03
8.18
7.01
6.23
5.66
9.81
7.97
6.81
6.03
5.47
9.59
7.75
6.61
5.83
5.27
9.47
7.64
6.50
5.73
5.17
9.36
7.53
6.40
5.62
5.07
9.24
7.42
6.29
5.52
4.97
9.12
7.31
6.18
5.41
4.86
9.00
7.19
6.06
5.30
4.75
8.88
7.08
5.95
5.19
4.64
11
12
13
14
15
12.23
11.75
11.37
11.06
10.80
8.91
8.51
8.19
7.92
7.70
7.60
7.23
6.93
6.68
6.48
6.88
6.52
6.23
6.00
5.80
6.42
6.07
5.79
5.56
5.37
6.10
5.76
5.48
5.26
5.07
5.86
5.52
5.25
5.03
4.85
5.68
5.35
5.08
4.86
4.67
5.54
5.20
4.94
4.72
4.54
5.42
5.09
4.82
4.60
4.42
5.24
4.91
4.64
4.43
4.25
5.05
4.72
4.46
4.25
4.07
4.86
4.53
4.27
4.06
3.88
4.76
4.43
4.17
3.96
3.79
4.65
4.33
4.07
3.86
3.69
4.55
4.23
3.97
3.76
3.58
4.44
4.12
3.87
3.66
3.48
4.34
4.01
3.76
3.55
3.37
4.23
3.90
3.65
3.44
3.26
16
17
18
19
20
10.58
10.38
10.22
10.07
9.94
7.51
7.35
7.21
7.09
6.99
6.30
6.16
6.03
5.92
5.82
5.64
5.50
5.37
5.27
5.17
5.21
5.07
4.96
4.85
4.76
4.91
4.78
4.66
4.56
4.47
4.69
4.56
4.44
4.34
4.26
4.52
4.39
4.28
4.18
4.09
4.38
4.25
4.14
4.04
3.96
4.27
4.14
4.03
3.93
3.85
4.10
3.97
3.86
3.76
3.68
3.92
3.79
3.68
3.59
3.50
3.73
3.61
3.50
3.40
3.32
3.64
3.51
3.40
3.31
3.22
3.54
3.41
3.30
3.21
3.12
3.44
3.31
3.20
3.11
3.02
3.33
3.21
3.10
3.00
2.92
3.22
3.10
2.99
2.89
2.81
3.11
2.98
2.87
2.78
2.69
21
22
23
24
25
9.83
9.73
9.63
9.55
9.48
6.89
6.81
6.73
6.66
6.60
5.73
5.65
5.58
5.52
5.46
5.09
5.02
4.95
4.89
4.84
4.68
4.61
4.54
4.49
4.43
4.39
4.32
4.26
4.20
4.15
4.18
4.11
4.05
3.99
3.94
4.01
3.94
3.88
3.83
3.78
3.88
3.81
3.75
3.69
3.64
3.77
3.70
3.64
3.59
3.54
3.60
3.54
3.47
3.42
3.37
3.43
3.36
3.30
3.25
3.20
3.24
3.18
3.12
3.06
3.01
3.15
3.08
3.02
2.97
2.92
3.05
2.98
2.92
2.87
2.82
2.95
2.88
2.82
2.77
2.72
2.84
2.77
2.71
2.66
2.61
2.73
2.66
2.60
2.55
2.50
2.61
2.55
2.48
2.43
2.38
26
27
28
29
30
9.41
9.34
9.28
9.23
9.18
6.54
6.49
6.44
6.40
6.35
5.41
5.36
5.32
5.28
5.24
4.79
4.74
4.70
4.66
4.62
4.38
4.34
4.30
4.26
4.23
4.10
4.06
4.02
3.98
3.95
3.89
3.85
3.81
3.77
3.74
3.73
3.69
3.65
3.61
3.58
3.60
3.56
3.52
3.48
3.45
3.49
3.45
3.41
3.38
3.34
3.33
3.28
3.25
3.21
3.18
3.15
3.11
3.07
3.04
3.01
2.97
2.93
2.89
2.86
2.82
2.87
2.83
2.79
2.76
2.73
2.77
2.73
2.69
2.66
2.63
2.67
2.63
2.59
2.56
2.52
2.56
2.52
2.48
2.45
2.42
2.45
2.41
2.37
2.33
2.30
2.33
2.29
2.25
2.21
2.18
40
60
120
8.83
8.49
8.18
7.88
6.07
5.79
5.54
5.30
4.98
4.73
4.50
4.28
4.37
4.14
3.92
3.72
3.99
3.76
3.55
3.35
3.71
3.49
3.28
3.09
3.51
3.29
3.09
2.90
3.35
3.13
2.93
2.74
3.22
3.01
2.81
2.62
3.12
2.90
2.71
2.52
2.95
2.74
2.54
2.36
2.78
2.57
2.37
2.19
2.60
2.39
2.19
2.00
2.50
2.29
2.09
1.90
2.40
2.19
1.98
1.79
2.30
2.08
1.87
1.67
2.18
1.96
1.75
1.53
2.06
1.83
1.61
1.36
1.93
1.69
1.43
1.00
1
2
3
4
5
295
libertad del
296
denominador (m)
10
12
15
20
24
30
40
60
120
1
2
3
4
5
4053
998.50
167.00
74.14
47.18
5000
999.00
148.50
61.25
37.12
5404
999.20
141.10
56.18
33.20
5625
999.20
137.10
53.44
31.09
5764
999.30
134.60
51.71
29.75
5859
999.30
132.80
50.53
28.83
5929
999.40
131.60
49.66
28.16
5981
999.40
130.60
49.00
27.65
6023
999.40
129.90
48.47
27.24
6056
999.40
129.20
48.05
26.92
6107
999.40
128.30
47.41
26.42
6158
999.40
127.40
46.76
25.91
6209
999.40
126.40
46.10
25.39
6235
999.50
125.90
45.77
25.13
6261
999.50
125.40
45.43
24.87
6287
999.50
125.00
45.09
24.60
6313
999.50
124.50
44.75
24.33
6340
999.50
124.00
44.40
24.06
6366
999.50
123.50
44.05
23.79
6
7
8
9
10
35.51
29.25
25.41
22.86
21.04
27.00
21.69
18.49
16.39
14.91
23.70
18.77
15.83
13.90
12.55
21.92
17.20
14.39
12.56
11.28
20.80
16.21
13.48
11.71
10.48
20.03
15.52
12.86
11.13
9.93
19.46
15.02
12.40
10.70
9.52
19.03
14.63
12.05
10.37
9.20
18.69
14.33
11.77
10.11
8.96
18.41
14.08
11.54
9.89
8.75
17.99
13.71
11.19
9.57
8.45
17.56
13.32
10.84
9.24
8.13
17.12
12.93
10.48
8.90
7.80
16.90
12.73
10.30
8.72
7.64
16.67
12.53
10.11
8.55
7.47
16.44
12.33
9.92
8.37
7.30
16.21
12.12
9.73
8.19
7.12
15.98
11.91
9.53
8.00
6.94
15.75
11.70
9.33
7.81
6.76
11
12
13
14
15
19.69
18.64
17.82
17.14
16.59
13.81
12.97
12.31
11.78
11.34
11.56
10.80
10.21
9.73
9.34
10.35
9.63
9.07
8.62
8.25
9.58
8.89
8.35
7.92
7.57
9.05
8.38
7.86
7.44
7.09
8.66
8.00
7.49
7.08
6.74
8.35
7.71
7.21
6.80
6.47
8.12
7.48
6.98
6.58
6.26
7.92
7.29
6.80
6.40
6.08
7.63
7.00
6.52
6.13
5.81
7.32
6.71
6.23
5.85
5.54
7.01
6.40
5.93
5.56
5.25
6.85
6.25
5.78
5.41
5.10
6.68
6.09
5.63
5.25
4.95
6.52
5.93
5.47
5.10
4.80
6.35
5.76
5.30
4.94
4.64
6.17
5.59
5.14
4.77
4.47
6.00
5.42
4.97
4.60
4.31
16
17
18
19
20
16.12
15.72
15.38
15.08
14.82
10.97
10.66
10.39
10.16
9.95
9.01
8.73
8.49
8.28
8.10
7.94
7.68
7.46
7.27
7.10
7.27
7.02
6.81
6.62
6.46
6.80
6.56
6.35
6.18
6.02
6.46
6.22
6.02
5.85
5.69
6.19
5.96
5.76
5.59
5.44
5.98
5.75
5.56
5.39
5.24
5.81
5.58
5.39
5.22
5.08
5.55
5.32
5.13
4.97
4.82
5.27
5.05
4.87
4.70
4.56
4.99
4.78
4.59
4.43
4.29
4.85
4.63
4.45
4.29
4.15
4.70
4.48
4.30
4.14
4.00
4.54
4.33
4.15
3.99
3.86
4.39
4.18
4.00
3.84
3.70
4.23
4.02
3.84
3.68
3.54
4.06
3.85
3.67
3.51
3.38
21
22
23
24
25
14.59
14.38
14.20
14.03
13.88
9.77
9.61
9.47
9.34
9.22
7.94
7.80
7.67
7.55
7.45
6.95
6.81
6.70
6.59
6.49
6.32
6.19
6.08
5.98
5.89
5.88
5.76
5.65
5.55
5.46
5.56
5.44
5.33
5.23
5.15
5.31
5.19
5.09
4.99
4.91
5.11
4.99
4.89
4.80
4.71
4.95
4.83
4.73
4.64
4.56
4.70
4.58
4.48
4.39
4.31
4.44
4.33
4.23
4.14
4.06
4.17
4.06
3.96
3.87
3.79
4.03
3.92
3.82
3.74
3.66
3.88
3.78
3.68
3.59
3.52
3.74
3.63
3.53
3.45
3.37
3.58
3.48
3.38
3.29
3.22
3.42
3.32
3.22
3.14
3.06
3.26
3.15
3.05
2.97
2.89
26
27
28
29
30
13.74
13.61
13.50
13.39
13.29
9.12
9.02
8.93
8.85
8.77
7.36
7.27
7.19
7.12
7.05
6.41
6.33
6.25
6.19
6.12
5.80
5.73
5.66
5.59
5.53
5.38
5.31
5.24
5.18
5.12
5.07
5.00
4.93
4.87
4.82
4.83
4.76
4.69
4.64
4.58
4.64
4.57
4.50
4.45
4.39
4.48
4.41
4.35
4.29
4.24
4.24
4.17
4.11
4.05
4.00
3.99
3.92
3.86
3.80
3.75
3.72
3.66
3.60
3.54
3.49
3.59
3.52
3.46
3.41
3.36
3.44
3.38
3.32
3.27
3.22
3.30
3.23
3.18
3.12
3.07
3.15
3.08
3.02
2.97
2.92
2.99
2.92
2.86
2.81
2.76
2.82
2.75
2.69
2.64
2.59
40
60
120
12.61
11.97
11.38
10.83
8.25
7.77
7.32
6.91
6.59
6.17
5.78
5.42
5.70
5.31
4.95
4.62
5.13
4.76
4.42
4.10
4.73
4.37
4.04
3.74
4.44
4.09
3.77
3.47
4.21
3.86
3.55
3.27
4.02
3.69
3.38
3.10
3.87
3.54
3.24
2.96
3.64
3.32
3.02
2.74
3.40
3.08
2.78
2.51
3.14
2.83
2.53
2.27
3.01
2.69
2.40
2.13
2.87
2.55
2.26
1.99
2.73
2.41
2.11
1.84
2.57
2.25
1.95
1.66
2.41
2.08
1.76
1.45
2.23
1.89
1.54
1.00
0.1
0.05
0.02
0.01
n
2
3
4
5
6
7
8
9
10
0.684
0.565
0.493
0.447
0.410
0.381
0.358
0.339
0.323
0.776
0.636
0.565
0.509
0.468
0.436
0.410
0.387
0.369
0.842
0.708
0.624
0.563
0.519
0.483
0.454
0.430
0.409
0.900
0.785
0.689
0.627
0.577
0.538
0.507
0.480
0.457
0.929
0.829
0.734
0.669
0.617
0.576
0.542
0.513
0.489
11
12
13
14
15
16
17
18
19
20
0.308
0.296
0.285
0.275
0.266
0.258
0.250
0.244
0.237
0.232
0.352
0.338
0.325
0.314
0.304
0.295
0.286
0.279
0.271
0.265
0.391
0.375
0.361
0.349
0.338
0.327
0.318
0.309
0.301
0.294
0.437
0.419
0.404
0.390
0.377
0.366
0.355
0.346
0.337
0.329
0.468
0.449
0.432
0.418
0.404
0.392
0.381
0.371
0.361
0.352
21
22
23
24
25
26
27
28
29
30
0.226
0.221
0.216
0.212
0.208
0.204
0.200
0.197
0.193
0.190
0.259
0.253
0.247
0.242
0.238
0.233
0.229
0.225
0.221
0.218
0.287
0.281
0.275
0.269
0.264
0.259
0.254
0.250
0.246
0.242
0.321
0.314
0.307
0.301
0.295
0.290
0.284
0.279
0.275
0.270
0.344
0.337
0.330
0.323
0.317
0.311
0.305
0.300
0.295
0.290
0.187
0.184
0.182
0.179
0.177
0.174
0.172
0.170
0.168
0.165
1.07/ n
0.214
0.211
0.208
0.205
0.202
0.199
0.196
0.194
0.191
0.189
1.22/ n
0.238
0.234
0.231
0.227
0.224
0.221
0.218
0.215
0.213
0.210
1.36/ n
0.266
0.262
0.258
0.254
0.251
0.247
0.244
0.241
0.238
0.235
1.52/ n
0.285
0.281
0.277
0.273
0.269
0.265
0.262
0.258
0.255
0.252
1.63/ n
31
32
33
34
35
36
37
38
39
40
n > 40
297
0.1
n
3
10
10
10
12
14
15
15
17
18
20
21
22
24
25
27
27
30
32
34
34
36
39
41
10
40
44
46
49
11
48
52
55
58
12
56
60
64
67
13
64
69
73
78
14
73
79
84
89
15
83
89
94
100
16
93
100
106
112
17 104
111
118
125
18 115
123
130
138
19 127
136
143
152
20 140
149
157
166
298
0.2
0.1
0.05
0.02
n
3
299
0.100
0.050
0.025
0.010
0.100
0.050
0.025
0.010
0.100
0.050
0.025
0.010
0.100
0.050
0.025
0.010
0.100
0.050
0.025
0.010
0.100
0.050
0.025
0.010
0.100
0.050
0.025
0.010
0.100
0.050
0.025
0.010
10
0.100
0.050
0.025
0.010
4
4
4
4
5
6
6
6
7
8
8
8
8
9
10
10
10
11
12
12
12
13
14
14
13
14
15
16
15
16
17
18
16
18
19
20
7
8
9
9
10
11
11
12
12
13
14
15
14
15
16
18
16
18
19
20
18
20
21
22
21
22
24
25
23
25
26
28
12
14
15
16
15
17
18
19
18
20
21
22
21
23
24
26
24
26
27
29
26
29
31
32
29
32
34
36
19
20
22
23
22
24
26
27
26
28
29
31
29
31
33
35
32
35
37
39
36
38
41
43
26
28
30
32
30
33
35
37
34
37
39
41
38
41
43
46
42
45
48
51
35
37
40
42
39
42
45
48
44
47
50
53
48
52
55
58
44
48
50
54
49
53
56
60
55
59
62
66
55
59
63
66
61
65
69
73
67
72
76
80
300
0.1
0.05
0.025
0.01
0.005
0.001
n
4
0.8000 0.8000
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
301
302
Resumen
de distribuciones
303
Distribucion
F. de densidad
F. Caracterstica
Esperanza
Varianza
Bernoulli B(1, p)
px q 1x x = 0, 1
q + peit
pq
(q + peit )n
np
npq
Binomial B(n, p)
304
K
x
px q nx x = 0, 1, . . . , n
N A
nx
N
n
x+r1
x
e(e
it 1)
x = 0, 1, . . . , n
pq x x = 0, 1, . . .
Geometrica G(p)
x
e
x = 0, 1, . . .
x!
Poisson P()
Hipergeometrica H(n, N, A)
n
x
pr q x x = 0, 1, . . .
A
= np
N
n(N n)pq
N 1
p
1 qeit
q
p
q
p2
pr
(1 qeit )r
q
r
p
q
r
p2
Distribucion
F. de densidad
F. Caracterstica
Esperanza
Varianza
Uniforme U(a, b)
1
a<x<b
ba
eibt eiat
i(b a)t
a+b
2
(b a)2
12
Normal N(, )
Log-Normal Log-N(, )
305
x 2
1
Pearson 2n
t-Student tn
F-Snedecor Fn,m
2n/2
1
2
e
e 2
Lx
2
2
xR
1
it t2 2
2
e
1
+ 2
2
e
x0
n xn/21 ex/2 x 0
(1 2it)n/2
(e 1)e2+
2n
0 (n > 1)
n
(n > 2)
n2
m
m2
2m2 (n + m 2)
n(m 2)2 (m 4)
n+1
n + 1
x2
2
2
n 1 +
n
n
2
xR
n+m
n+m
nn/2 mm/2
2
n/21
2
n m
x0
x
(m + nx)
2
2
Distribucion
F. de densidad
F. Caracterstica
Esperanza
Varianza
Exponencial Exp()
ex x 0
it
1
2
Erlang Er(n, )
n n1 x
x
e
x0
(n)
n
2
Gamma G(p, q)
q p p1 qx
x e
x0
(p)
p
q
p
q2
306
Weibull W(r, )
Beta B(p, q)
Normal Bidimensional
r
rxr1 ex
it
q
q it
n
p
1/r
x0
1
xp1 (1 x)q1 0 x 1
(p, q)
f (x, y) =
2x y
1
p
1
exp
2
2(1
2 )
1
1
1+
r
2/r
1
2
2
1+
1+
r
r
p
p+q
"
x x
x
2
x x
x
pq
(p + q)2 (p + q + 1)
y y
y
y y
y
2 #)