Está en la página 1de 96

Estadstica

2
o
de Ingeniera Informatica
Felix Gomez Marmol
2

Indice general
Introduccion 9
I Probabilidad 11
1. Introduccion a la Teora de la Probabilidad 13
1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2. Primeras Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2.1. Operaciones Basicas con Sucesos . . . . . . . . . . . . . . . . . . . . . 14
1.3. Modelos de Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.1. Denicion Frecuentista . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.2. Denicion Clasica o de Laplace . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3. Denicion Axiomatica . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4. Probabilidad Condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4.1. Independencia de Sucesos . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5. La Formula de la Probabilidad Total y Regla de Bayes . . . . . . . . . . . . . 17
2. Variables Aleatorias Univariantes 19
2.1. Variable Aleatoria y Funcion de Distribucion . . . . . . . . . . . . . . . . . . 19
2.1.1. Funcion de Distribucion de una Variable Aleatoria . . . . . . . . . . . 20
2.1.2. Propiedades de la Funcion de Distribucion . . . . . . . . . . . . . . . . 20
2.2. Clasicacion de las Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . 21
2.2.1. Variables Aleatorias Discretas . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2. Variables Aleatorias Continuas . . . . . . . . . . . . . . . . . . . . . . 21
2.3. Cambio de Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.4. Descripcion de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4.1. Esperanza Matematica y Propiedades . . . . . . . . . . . . . . . . . . 24
2.4.2. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.3. Desigualdades de Tchebychev . . . . . . . . . . . . . . . . . . . . . . . 28
3. Modelos de Probabilidad Univariantes 31
3.1. Modelo de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2. Modelo Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.3. Modelo Geometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.4. Modelo Binomial Negativo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.5. Modelo Hipergeometrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.6. Modelo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.7. Modelo Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.8. Modelo Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.9. Modelo de Erlang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.10. Modelo Normal o de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3
4

INDICE GENERAL
3.10.1. Teorema Central del Lmite . . . . . . . . . . . . . . . . . . . . . . . . 37
3.10.2. Casos Particulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.11. Modelo Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.12. Modelo Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.12.1. Funcion Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.13. Modelos que se derivan de la distribucion Normal . . . . . . . . . . . . . . . . 39
3.13.1. Modelo CHI-Cuadrado de Pearson (
2
Pearson) . . . . . . . . . . . 39
3.13.2. Modelo t
n
de Student . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.13.3. Modelo T de Fisher o de Snedecor . . . . . . . . . . . . . . . . . . . . 39
4. Variables Aleatorias Multivariantes 41
4.1. Variables Aleatorias Multidimensionales . . . . . . . . . . . . . . . . . . . . . 41
4.1.1. Funci on de Distribucion Conjunta . . . . . . . . . . . . . . . . . . . . 41
4.1.2. Funci on Puntual de Probabilidad Conjunta . . . . . . . . . . . . . . . 42
4.1.3. Funci on de Densidad Conjunta . . . . . . . . . . . . . . . . . . . . . . 42
4.2. Distribuciones Marginales y Condicionadas . . . . . . . . . . . . . . . . . . . 43
4.2.1. Distribuciones Marginales . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.2.2. Distribuciones Condicionadas . . . . . . . . . . . . . . . . . . . . . . . 45
4.2.3. Esperanza Condicionada . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.3. Independencia de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . 46
4.4. Vector de Medias y Matriz de Covarianzas . . . . . . . . . . . . . . . . . . . . 47
4.4.1. Esperanza de una Funcion h(x, y) . . . . . . . . . . . . . . . . . . . . 47
4.4.2. Covarianza de dos v.a. (X, Y ) . . . . . . . . . . . . . . . . . . . . . . . 48
4.4.3. Coeciente de Correlacion . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.4.4. Vector de Medias y Matriz de Covarianzas . . . . . . . . . . . . . . . . 50
4.5. Algunos Modelos Multivariantes . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.5.1. Modelo Multinomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.5.2. Modelo Hipergeometrico Multivariante . . . . . . . . . . . . . . . . . . 51
4.5.3. Modelo Normal Bidimensional . . . . . . . . . . . . . . . . . . . . . . 51
II Estadstica 53
5. Muestreo e Inferencia Estadstica 55
5.1. Inferencia Estadstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.2. Muestras Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3. Estadsticos y Distribuciones en el Muestreo . . . . . . . . . . . . . . . . . . . 56
5.4. Muestreo en Poblaciones Normales . . . . . . . . . . . . . . . . . . . . . . . . 57
6. Estimacion Puntual 59
6.1. Inferencia Parametrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.1.1. Error Cuadratico Medio . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.1.2. Insesgadez . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.1.3. Eciencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.1.4. Consistencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.2. Metodos de Estimacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
6.2.1. Metodo de la Maxima Verosimilitud . . . . . . . . . . . . . . . . . . . 64
6.2.2. Metodo de los Momentos . . . . . . . . . . . . . . . . . . . . . . . . . 66

INDICE GENERAL 5
7. Intervalos de Conanza y Test de Hipotesis 69
7.1. Intervalos de Conanza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.1.1. Metodo de Construccion . . . . . . . . . . . . . . . . . . . . . . . . . . 69
7.2. Test o Contraste de Hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
8. Relacion entre Variables 77
8.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.2. ANOVA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
8.2.1. Tabla ANOVA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
8.3. Analisis de Regresion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
Apendice A. Tabla de Modelos. 85
Apendice B. Tablas de ANOVA. 87
Apendice C. Tablas: Normal 0/1, t de Student y T de Snedecor. 89
Apendice D. Tablas de Intervalos de Conanza y Tests de Hipotesis. 95
6

INDICE GENERAL

Indice de guras
1.1. Denicion frecuentista de probabilidad . . . . . . . . . . . . . . . . . . . . . . 15
1.2. Particion del espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1. Distribucion asimetrica, caso 1 . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2. Distribucion asimetrica, caso 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3. Distribucion simetrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.1. Ejemplo de la propiedad 4.3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.2. Ejemplo 4.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3. Ejemplo 4.11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.4. f(x, y) =
1
2
e

1
2
(x
2
+y
2
)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
7.1. Tests de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.2. Test de hipotesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
8.1. Recta de Regresion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
8.2. Procedimiento de los mnimos cuadrados . . . . . . . . . . . . . . . . . . . . . 81
8.3. Variables relacionadas (izqda) y no relacionadas(dcha) . . . . . . . . . . . . . 82
8.4. T de Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.5. e
i
vs f(x
i
) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
7
8

INDICE DE FIGURAS
Introduccion
Quisiera agradecer a las siguientes personas por la realizacion de estos apuntes. Sin su
ayuda, apoyo y colaboracion, este proyecto, muy probablemente nunca habra llegado a n:
A Miguela Iniesta Moreno, profesora de Estadstica de la Facultad de Informatica de
Murcia. Pues estos apuntes no dejan de ser la transcripcion digital de los apuntes
tomados en clase, a partir de sus explicaciones. Tambien agradecerle la revision de los
mismos y la inclusion de estos en la pagina web de la asignatura:
http://colossrv.fcu.um.es/estadistica
A Isabel Navarrete Sanchez, profesora del Departamento de Ingeniera de la Informacion
y las Comunicaciones de la Universidad de Murcia, por los conocimientos que sobre
L
A
T
E
X2

me ha transmitido, as como por el material prestado.


A mis padres, por su inestimable apoyo y cari no en todo momento.
A todos mis compa neros, familiares y amigos, por estar siempre ah cuando los necesito.
Tambien quisiera dedicar unas palabras a aquellos alumnos que empleen estos apuntes
como apoyo didactico para prepararse la asignatura de Estadstica:
Solo espero que estos apuntes os sean utiles del mismo modo que lo fueron para m. Si
descubrs alg un error, por favor comunicadselo a la profesora.
Los apuntes originales (los escritos a mano por m) incluan mas imagenes de las que inclu-
yen estos. Mi consejo es, por lo tanto, que hagais todas las anotaciones, gracos, correcciones,
etc. que estimeis oportunos sobre estos apuntes.
Suerte a todos!!
Felix Gomez Marmol
Murcia, a 4 de Octubre de 2003
9
10 Introduccion
Parte I
Probabilidad
11
Captulo 1
Introduccion a la Teora de la
Probabilidad
1.1. Introduccion
En este tema se desarrollaran los conceptos fundamentales de la Teora de la Probabili-
dad: experimento aleatorio, espacio muestral, suceso, modelos de probabilidad, probabilidad
condicionada y regla de Bayes.
El estudio de la Probabilidad en la asignatura de Estadstica se debe a que esta ultima
se basa y se fundamenta en la primera. Mediante la Estadstica se pretende conocer el com-
portamiento de toda una poblacion a partir de una muestra. Es por eso que dicha muestra
debe ser representativa de toda la poblacion para poder extrapolar los resultados obtenidos;
y para ello hacemos uso de los mecanismos de muestreo.
1.2. Primeras Deniciones
Denicion 1.1 Experimento Aleatorio: Es aquel experimento que repetido sucesivamen-
te en condiciones identicas produce resultados distintos e impredecibles. Por ejemplo, tirar
un dado al aire.
Denicion 1.2 Experimento Determinista: Es aquel experimento que repetido sucesi-
vamente en condiciones identicas siempre produce los mismos resultados. Un fenomeno o
experimento determinista pasa a ser aleatorio cuando se introduce un error asociado (en los
instrumentos de medida, por ejemplo).
Denicion 1.3 Punto Muestral o Suceso Elemental: Es cada uno de los resultados
posibles de un experimento aleatorio. Ejemplo: sacar cara al tirar una moneda al aire.
Denicion 1.4 Espacio Muestral (): Es el conjunto de todos los puntos muestrales.
Ejemplo 1.1 El espacio muestral del suceso tirar un dado al airees
= 1, 2, 3, 4, 5, 6
Denicion 1.5 Suceso
1
: Se llama suceso a cualquier subconjunto del espacio muestral .
A
1
La Teora de Sucesos es paralela a la Teora de Conjuntos
13
14 Captulo 1. Introduccion a la Teora de la Probabilidad
Ejemplo 1.2 1. A = obtener cara par = 2, 4, 6 = 2, 4, 6
2. A = Suceso imposible (no se da nunca).
3. A = Suceso seguro.
Denicion 1.6 Suceso Complementario: Denotaremos por

A o bien A
C
al suceso com-
plementario de A, que se dene como:
A
C
= A
1.2.1. Operaciones Basicas con Sucesos
Propiedad 1.1 Union de Sucesos
A ; B ; A B = e
i
/ e
i
A o e
i
B
A B contiene todos los puntos muestrales que estan en A o en B.
Propiedad 1.2 Interseccion de Sucesos
A ; B ; A B = e
i
/ e
i
A y e
i
B
A B contiene todos los puntos muestrales que estan en A y en B simultaneamente.
Propiedad 1.3 Diferencia de Sucesos
A ; B ; AB = e
i
/ e
i
A y e
i
/ B = e
i
/ e
i
A y e
i
B
C

AB contiene todos los puntos muestrales de A que no estan en B.


Todas estas operaciones cumplen las mismas propiedades de asociatividad, distributividad
y conmutatividad que se cumplen en la Teora de Conjuntos.
Dos consecuencias importantes de estas operaciones son:
A A
C
=
A A
C
=
Denicion 1.7 Sucesos Incompatibles: Se dice que dos sucesos A y B son incompatibles
si y solo si A B =
Denicion 1.8 Espacio Probabilizable: Llamamos espacio probabilizable a la pareja (, /).
Denicion 1.9

Algebra de Sucesos (/): Es la familia de sucesos a la que nos interesa
asignarle probabilidad. Este conjunto / cumple:
1. , /
2. A / A
C
/
3. A, B / A B /, A B /
Ejemplo 1.3
/ = , , A, A
C

1.3 Modelos de Probabilidad 15


1.3. Modelos de Probabilidad
1.3.1. Denicion Frecuentista
Denicion 1.10 Dadas n repeticiones de un experimento aleatorio y suponiendo que n
A
es
el n umero de veces que ha resultado el suceso A, se dene la frecuencia de dicho suceso como:
fr(A) =
n
A
n
0 fr(A) 1
Cuando n es peque no fr(A) uct ua mucho mas que cuando n es grande. En este segundo
caso fr(A) se estabiliza en un valor al que se llamo probabilidad de A.
Figura 1.1: Denicion frecuentista de probabilidad
Pero ese lmite no es analtico puesto que no se cumple que
> 0 n
0
/ n > n
0
[fr(A) T(A)[ < .
Se trata mas bien de un hecho contrastable empricamente.
1.3.2. Denicion Clasica o de Laplace
Denicion 1.11 Suponiendo que es nito y que cada punto muestral tiene la misma
probabilidad (equiprobabilidad), podemos denir la probabilidad del suceso A como:
T(A) =
[A[
[[
Ejemplo 1.4 A = obtener cara par = 2, 4, 6 T(A) =
3
6
=
1
2
1.3.3. Denicion Axiomatica (1933)
Denicion 1.12 Dado el espacio probabilizable (, /), diremos que T es una probabilidad
sobre dicho espacio si cumple:
1. T() = 1
2. Si A y B son incompatibles (A B = ) entonces T(A B) = T(A) +T(B)
3. 0 T(A) 1
Por lo tanto podemos denir igualmente la probabilidad mediante la funcion T, denida
como:
T : (, /) [0, 1]
A / T(A)
cumpliendo las condiciones 1 y 2 anteriores.
Esta ultima denicion nos permite comprobar las siguientes propiedades:
16 Captulo 1. Introduccion a la Teora de la Probabilidad
Propiedad 1.4 T(

A) = 1 T(A); T() = 1 T() = 1 1 = 0
= A

A
T() = T(A

A)
1 = T(A) +T(

A)
Propiedad 1.5 T(A B) = T(A) +T(B) T(A B)
T(A B) = T((AB) (A B) (B A)) =
T(AB) +T(A B) +T(B A) = T(A) +T(B A) =
T(A) +T(B A) +T(A B) T(A B) = T(A) +T(B) T(A B)
Propiedad 1.6 T(ABC) = T(A) +T(B) +T(C) T(AB) T(AC) T(BC) +
T(A B C)
Propiedad 1.7 Si A B, entonces T(A) T(B)
B = A (B A)
T(B) = T((A) (B A))
T(B) = T(A) +T(B A) T(A)
Como consecuencia inmediata de esta ultima propiedad se tiene que:
Si A B T(B A) = T(B) T(A)
1.4. Probabilidad Condicionada
En ocasiones puede ocurrir que ciertas informaciones condicionen la probabilidad de
ocurrencia de ciertos sucesos. Por ejemplo, tirar un dado al aire sabiendo de antemano que
algunas de sus caras estan cargadas.
Es por eso que vamos a denir la probabilidad condicionada T(A[
B
), donde B es una
restriccion, una informacion acerca del suceso A.
Denicion 1.13 Sea la funcion de probabilidad T : / [0, 1], el espacio de probabilidad
(, /, T), y sea T(B) > 0. Denimos entonces la probabilidad del suceso A dado B como:
T([
B
) = T
B
: / [0, 1]
A T(A[
B
)
donde
T(A[
B
) =
T(A B)
T(B)
Nota.- Puede demostrarse que P
B
es una funcion de probabilidad. Por tanto:
1. T
B
() = 1
2. T
B
(

A) = 1 T
B
(A)
3. T(A
1
A
2
) = T
B
(A
1
) +T
B
(A
2
) si A
1
A
2
=
Consecuentemente:
T(AB) = T(A[
B
) T(B) = T(BA) = T(B[
A
) T(A), siempre que T(A) > 0 y ambos
condicionamientos sean razonables.
Ejemplo 1.5 La probabilidad de extraer dos ases en dos cartas sin reemplazamiento es:
A
1
: la 1
a
carta es un as
A
2
: la 2
a
carta es un as
T(A
1
A
2
) = T(A
2
[
A
1
) T(A
1
) =
3
39

4
40
1.5 La Formula de la Probabilidad Total y Regla de Bayes 17
1.4.1. Independencia de Sucesos
Denicion 1.14 Decimos que el suceso A es independiente del suceso B si T(A[
B
) = T(A)
T(A[
B
) =
T(A B)
T(B)
T(A B) = T(A[
B
) T(B)
Por lo que si A es independiente de B se tiene que T(A B) = T(A) T(B)
Proposicion 1.1 Si A es independiente de B, entonces B es independiente de A.
T(B[
A
) =
T(B A)
T(A)
=
T(A[
B
) T(B)
T(A)
=
T(A) T(B)
T(A)
= T(B)
Proposicion 1.2 Dos sucesos A, B son independientes si y solo si T(AB) = T(A) T(B)
En el caso de tres sucesos A, B y C, la probabilidad de la interseccion se calcula como:
T(A B C) = T(A (B C)) = T(A[
BC
) T(B C) = T(A[
BC
) T(B[
C
) T(C)
1.5. La Formula de la Probabilidad Total y Regla de Bayes
En muchas ocasiones la forma mas sencilla de calcular la probabilidad de un suceso es
considerar las probabilidad de este bajo un conjunto de condiciones mutuamente excluyentes.
Denimos el conjunto de sucesos E
1
, E
2
, . . . , E
n
mutuamente excluyentes cumpliendo que

n
j=1
E
j
= y ademas E
i
E
j
= si i ,= j.
Figura 1.2: Particion del espacio
Como consecuencia T() = T
_

n
j=1
E
j
_
=

n
j=1
T(E
j
) = 1
Las probabilidades T(A[
E
j
) son conocidas, as como las probabilidades T(E
j
), por lo
tanto estamos en disposicion de denir la probabilidad de A, T(A), como:
Proposicion 1.3 En las condiciones anteriores se tiene que:
T(A) =
n

i=1
T(A[
E
i
) T(E
i
)
(Expresion conocida como Formula de la Probabilidad Total).
Dem.- T(A) = T((AE
1
) (AE
2
) . . . (AE
n
)) = T(AE
1
) +T(AE
2
) +. . . +
T(AE
n
) = T(A[
E
1
)T(E
1
)+T(A[
E
2
)T(E
2
)+. . .+T(A[
E
n
)T(E
n
) =

n
i=1
T(A[
E
i
)T(E
i
)

18 Captulo 1. Introduccion a la Teora de la Probabilidad


Ejemplo 1.6 C: Sacar cara
T: La moneda esta trucada
T(C[
T
) = 1; T(C[
T
) = 0

5
Suponiendo que hay dos monedas, una trucada y otra sin trucar, se tiene que:
T(T) = 0

5
T(

T) = 0

5
Por lo tanto, la probabilidad de que salga cara al tirar una de las dos monedas es:
T(C) = T(C[
T
) T(T) +T(C[
T
) T(

T) = 1 0

5 + 0

5 0

5 = 0

75
A las probabilidades T(E
i
) se les conoce con el nombre de probabilidades iniciales o a
priori , puesto que se produce una asignacion de probabilidad de forma objetiva.
Dado un j concreto se pretende calcular T(E
j
[
A
) para actualizar las probabilidades de
los sucesos de la particion.
Llamaremos a estos probabilidades nales o a posteriori
Teorema 1.1 de Bayes En las condiciones anteriores se tiene que:
T(E
j
[
A
) =
T(A[
E
j
) T(E
j
)

n
i=1
T(A[
E
i
) T(E
i
)
Dem.-
T(E
j
[
A
) =
T(A[
E
j
) T(E
j
)
T(A)
=

Ejemplo 1.7 Una persona que realiza un examen tipo test ha estudiado el 80 % de la materia
de tal forma que podemos jar en 08 la probabilidad de saber la respuesta a una pregunta
cualquiera. Si no sabe la respuesta elige una de las cinco posibles alternativas al azar y nos
gustara asignar probabilidad al suceso A: acertar la respuesta, as como la probabilidad de
saber la respuesta, suponiendo que la ha acertado.
S: Saber la respuesta
A: Acertar la respuesta
T(S) = 0

8; T(A)?
T(A) = T(A[
S
) T(S) +T(A[
S
) T(

S) = 1 0

8 +
1
5
0

2 = 0

84
T(S[
A
) =
T(A[
S
) T(S)
T(A)
=
1 0

8
0

84
0

95
Captulo 2
Variables Aleatorias Univariantes
2.1. Variable Aleatoria y Funcion de Distribucion
Emplearemos el concepto de variable aleatoria, X, para facilitar la labor de asignacion de
probabilidad a un experimento aleatorio del cual nos interesa una caracterstica numerica.
Lo que se hace entonces es transformar un espacio de probabilidad general en un espacio
de probabilidad denido en toda la recta real.
Denicion 2.1 La variable aleatoria X se dene como:
X : (, /, T) (R, B, T
X
)
donde B = T(R), es decir, el conjunto de todos los intervalos de R.
Por lo tanto B B (esto es, para todo intervalo B de R), T
X
(B) T(X
1
(B))
(probabilidad de que X este contenido en el intervalo B), teniendose que cumplir que B B,
X
1
(B) /.
Ejemplo 2.1 X:N umero de caras al tirar una moneda 2 veces
= (C, C), (C, Cr), (Cr, C), (Cr, Cr) = e
1
, e
2
, e
3
, e
4
(Son las 4 posibilidades que hay)
T(e
i
) =
1
4

e
i
A
T(e
i
) = T(A)
X() = 0, 1, 2 (Pueden aparecer 0, 1 o 2 caras)
X : (, /, T) (R, B, T
X
)
e
1
X(e
1
) = 2
e
2
X(e
2
) = 1
e
3
X(e
3
) = 1
e
4
X(e
4
) = 0
Algunos ejemplos de calculo de probabilidades pueden ser:
T
X
((2, 3)) = T(X
1
(2, 3)) = T() = 0
T
X
([2, 3)) = T(e
1
) =
1
4
T
X
([2, +)) = T(e
1
) =
1
4
T
X
((, 1]) = T(e
2
, e
3
, e
4
) =
3
4
19
20 Captulo 2. Variables Aleatorias Univariantes
2.1.1. Funcion de Distribucion de una Variable Aleatoria
Denicion 2.2 La funcion de distribucion de una variable aleatoria, X, es una funcion
denida en la recta real con valores en [0, 1].
F : R [0, 1]
x F(x) = T
X
((, x]) = T(X
1
(, x]) = T(w [ X(w) x) = T(X x)
Ejemplo 2.2 X:N umero de caras al tirar una moneda 2 veces
F(x)
_

_
0 x < 0
1
4
0 x < 1
3
4
1 x < 2
1 x 2
En la siguiente gura, los puntos se nalados con un rombo () representan puntos de
discontinuidad:
2.1.2. Propiedades de la Funcion de Distribucion
Propiedad 2.1 F es no decreciente: x
1
< x
2
F(x
1
) F(x
2
)
F(x
2
) = T
X
((, x
2
]) = T
X
((, x
1
] (x
1
, x
2
]) = T
X
((, x
1
]) + T
X
((x
1
, x
2
]) =
F(x
1
) +T
X
((x
1
, x
2
]) F(x
1
)
Propiedad 2.2 F es siempre continua a la derecha. Esto es, lm
h0
+
F(x +h) = F(x)
F(x+h) = T
X
((, x+h]) = T
X
((, x](x, x+h]) = T
X
((, x])+T
X
((x, x+h]) =
F(x) +T
X
(x < X x +h)
lm
h0
+
F(x +h) = F(x) +T
X
() = F(x)
Sin embargo, F puede no ser continua a la izquierda en alg un punto
F(x) = T
X
((, x]) = T
X
((, xh])(xh, x]) = T
X
((, xh])+T
X
((xh, x]) =
F(x h) +T
X
(x h < X x)
lm
h0

F(x +h) = lm
h0
+
F(x h) = lm
h0
+
F(x) T
X
((x h, x]) = F(x) T
X
(X = x)
Cuando T(X = x) = 0 la funcion sera continua a la izquierda. Pero si x es un punto
muestral, con T(X = x) > 0, en este caso existe una discontinuidad a la izquierda.
Propiedad 2.3 T(a < X b) = F(b) F(a)
F(b) = T
X
((, b]) = T
X
((, a] (a, b]) = T
X
((, a]) +T
X
((a, b]) = F(a) +T(a <
X b)
Propiedad 2.4 lm
x+
F(x) = 1 lm
x
F(x) = 0
F(x) = T
X
((, x]) =

x+
T
X
(R) = 1

x
T
X
() = 0
2.2 Clasicacion de las Variables Aleatorias 21
2.2. Clasicacion de las Variables Aleatorias
Esta clasicacion tendra como referente a la funcion de distribucion de las v.a.
2.2.1. Variables Aleatorias Discretas
Denicion 2.3 Llamamos variables aleatorias discretas a aquellas en las que el espacio
muestral de la variable X, X(), es un conjunto discreto, es decir, nito o, a lo sumo, innito
numerable. Por lo tanto su funcion de distribucion es escalonada.
Denicion 2.4 Se dene la funcion puntual de probabilidad de la v.a. X, como
p(x) = T(X = x), x R
Ademas, esta funcion cumple que

xS
p(x) = 1
(siendo S el conjunto de los puntos muestrales.
1
) y p(x) = 0 si x / S
Ejemplo 2.3 X:N umero de caras al tirar 2 monedas
p(0) = p(2) =
1
4
p(1) =
1
2
y x / 0, 1, 2 p(x) = 0
Ejemplo 2.4 X:N umero de lanzamientos hasta conseguir una cara
X 1, 2, . . . = N
p(x)
_
T(X = x) =
1
2
x
x N
T(X = x) = 0 x / N

xN
p(x) =
+

x=1
1
2
x
=
1
2
1
1
2
= 1
F(x)
_
0 x < 1

nN
1
2
n
[x] < x < [x + 1]
2
2.2.2. Variables Aleatorias Continuas
Denicion 2.5 Llamamos variables aleatorias continuas a aquellas en las que el espacio
muestral de la variable X, X(), es un conjunto continuo, es decir, un intervalo de la recta
real (X() = (a, b) R). Su funcion de distribucion F(x) es, en consecuencia, continua en
todo R.
En este caso se cumple que x X() R, T(X = x) = 0. Intuitivamente podemos
pensar que es muy difcil que, en situaciones de la vida real, la variable X llegue a valer
exactamente el punto muestral x.
Nota.- Los sucesos cuya probabilidad es cero, conteniendo alg un punto muestral
se llaman sucesos casiimposibles.
Por otro lado, el suceso A ,= para el cual T(A) = 1 se llama suceso casi seguro.
1
A partir de ahora lo denotaremos por x X o x X()
2
En este ejemplo [x] representa la parte entera de x
22 Captulo 2. Variables Aleatorias Univariantes
Ejemplo 2.5 X:Longitud de una varilla elegida al azar
X() = X (l , l +)
Construimos la funcion de distribucion:
F(x)
_

_
0 x l
x (l )
2
x (l , l +)
1 x l +
Esta funcion es continua en todo R
Resumen.-
Si X es discreta funcion puntual de probabilidad o funcion de masa.
p : R [0, 1]
x p(x) = T(X = x)
F(x) =

yx
p(y) T(X A) =

xA
p(x)
Si X es continua funcion de densidad.
f : R R
+
x f(x) =
dF(x)
dx
Las ordenadas de esta funcion f (que siempre cumple que f(x) 0) no indica probabilidad;
es el area encerrada por ella quien lo hace. De esta manera se tiene que:
F(x) =
_
x

f(t)dt
Una propiedad importante utilizada para comprobar si la funcion f es una funcion de
densidad o no es la siguiente.
Propiedad 2.5
lm
x+
F(x) = 1
_
+

f(x)dx = 1
Ademas tambien se cumple que:
Propiedad 2.6
T(X (a, b]) = T(X [a, b)) = T(X [a, b]) = T(X (a, b)) = F(b) F(a) =
_
b
a
f(x)dx
2.3 Cambio de Variables 23
Ejemplo 2.6 X:Longitud de una varilla tomada al azar
F(x)
_

_
0 x l
x l +
2
x (l , l +)
1 x l +
f(x)
_
_
_
dF(x)
dx
=
1
2
x (l , l +)
0 x / (l , l +)
T
_
X
_
l, l +

2
__
=
_
l+

2
l
f(x)dx =

2
1
2
=
1
4
= F
_
l +

2
_
F(l)
Ejemplo 2.7 .
F(x)
_
0 x 0
1 e
2x
x > 0
f(x)
_
0 x 0
2e
2x
x > 0
T
_
X >
1
2
_
= 1 F
_
1
2
_
= 1
_
+
1
2
2e
2x
dx = 1
_ 1
2
0
2e
2x
dx = 1 2
_
2e
2x
1
2
0
T
_
X
_
1
2
,
3
2
__
= F
_
3
2
_
F
_
1
2
_
=
_ 3
2
1
2
2e
2x
dx
2.3. Cambio de Variables
Suponemos conocida la funcion F
X
(x) = T(X x). Queremos conocer la funcion de
distribucion de una cierta transformacion Z = h(X)
3
.
Proposicion 2.1 Para una X discreta, sea T(X = x) su funcion puntual de probabilidad.
Entonces se tiene que:
g(z) = T(Z = z) = T(Z(X) = z) = T(X Z
1
(z)) =

xZ
1
(z)
T(X = x)
Ejemplo 2.8 X:N umero de caras al tirar una moneda 2 veces
X 0, 1, 2 T(X = 0) = T(X = 2) =
1
4
T(X = 1) =
1
2
T(X = x) = 0, x / 0, 1, 2
Por ejemplo, sea la transformacion Z = X(X 1).
x X z Z = X(X 1)
0 0 (= 0(0 1))
1 0 (= 1(1 1))
2 2 (= 2(2 1))
z 0, 2
g(0) = T(Z = 0) = T(X = 0) +T(X = 1) =
3
4
g(2) = T(Z = 2) = T(X = 2) =
1
4
3
Por ejemplo: Z = X
2
, Z = X(X 1), Z =
1
2
X
3
, . . .
24 Captulo 2. Variables Aleatorias Univariantes
Ejemplo 2.9
x 2 1 0 1 2
p(x)
1
5
1
5
1
5
1
5
1
5
Z = X
2
0, 1, 4
g(0) = T(Z = 0) =
1
5
g(1) = T(X = 1) +T(X = 1) =
1
5
+
1
5
=
2
5
g(4) = T(X = 2) +T(X = 2) =
1
5
+
1
5
=
2
5
Proposicion 2.2 Para una X continua, se tiene que:
G(z) = T(Z z) = T(Z(X) z) = T(X I(z))
donde I(z) es cierto intervalo que debemos obtener.
Ejemplo 2.10 Sea Z(X) = X
2
, y sea la funcion F(x) denida como:
F(x)
_

_
0 x 1
x
3
+ 1
2
x [1, 1]
1 x 1
As, el espacio muestral de la variable Z es:
(1, 1)
Z(X)=X
2
(0, 1)
G(z) = T(Z z) = T(X
2
z) = T(X (

z,

z)) =
= F(

z) F(

z) =
(

z)
3
+x
2

(

z)
3
+x
2
= (

z)
3
= z
3
2
G(z)
_
_
_
0 z 0
z
3
2
z (0, 1)
1 z 1
Ejemplo 2.11 Sea Z(X) = X
2
y sea la funcion F(x) denida como:
F(x)
_
_
_
0 x 0
x
4
x (0, 1)
1 x 1
(0, 1)
Z(X)=X
2
(0, 1)
G(z) = T(Z z) = T(X
2
z) = T(X (0,

z)) =
= F(

z) F(0) = (

z)
4
= z
2
G(z)
_
_
_
0 z 0
z
2
z (0, 1)
1 z 1
2.4. Descripcion de Variables Aleatorias
La centralizacion indica los valores promedio de una v.a. y seran proximas a valores de
probabilidad alta.
La dispersion indica la desviacion de los valores de la v.a. respecto de los valores promedio.
2.4.1. Esperanza Matematica y Propiedades
Denicion 2.6 Al parametro de centralizacion mas importante de una v.a. X se le llama
esperanza matematica o valor medio teorico
4
de dicha variable. Se denota por E(X) y
se dene como:
E(X) =

xX
x p(x) =

xX
xT(X = x) (para X discretas)
E(X) =
_
+

x f(x)dx (para X continuas)


4
Tambien nos referiremos a la esperanza matematica como la media
2.4 Descripcion de Variables Aleatorias 25
Ejemplo 2.12 X:N umero de caras al tirar 2 veces una moneda
E(X) = 0 p(0) + 1 p(1) + 2 p(2) = 0
1
4
+ 1
1
2
+ 2
1
4
= 1
La media muestral, es decir, la media aritmetica tiende al valor de la esperanza matematica
cuando el n umero de experimentos es elevado.
Propiedades de la Esperanza Matematica
Propiedad 2.7 E(C) = C
5
ya que p(C) = 1 p(x) = 0, x ,= C
Propiedad 2.8 E(X +Y ) = E(X) +E(Y )
Propiedad 2.9 E(aX +bY ) = aE(X) +bE(Y )
Propiedad 2.10 E(X Y ) = E(X) E(Y ) si X e Y son independientes.
Propiedad 2.11 Si Z(X) = Z
E(Z) =

zZ
z g(z) =

xX
z(x)p(x)
E(Z) =
_
+

z g(z)dz =
_
+

z(x) f(x)dx
2.4.2. Momentos
Denicion 2.7 Llamaremos momento ordinario de orden r al valor medio de X
r
, r N.
Lo denotaremos por
r
= E(X
r
) y se dene como:

r
=

xX
x
r
p(x) (v.a. discretas)

r
=
_
+

x
r
f(x)dx (v.a. continuas)
Varianza de una Variable Aleatoria X
Denicion 2.8 Si X es una v.a. con = E(X), denimos el momento central de orden r
como E[(X )
r
] = E[(X E(X))
r
], r N.
En concreto, se dene la varianza de X, que se denota por V (X), como:
V (X) = E[(X E(X))
2
]
Las expresiones que nos permitiran calcular la varianza de una v.a. X son:
V (X) =

xX
(x E(X))
2
p(x) para X discretas
V (X) =
_
+

(x E(X))
2
f(x)dx para X continuas
Pero estas dos expresiones pueden resultar algo complicadas de resolver, por lo que cal-
cularemos otra expresion alternativa:
5
Siendo C una constante
26 Captulo 2. Variables Aleatorias Univariantes
V (X) = E
_
(X E(X))
2
_
= E
_
X
2
2E(X)X +E(X)
2
_
= E(X
2
)2E(X)
2
+E(X)
2
= E(X
2
)E(X)
2
En resumen:
V (X) = E(X
2
) E(X)
2
Como ya sabemos E(X
2
) se puede calcular de la siguiente manera:

2
= E(X
2
) =

xX
x
2
p(x) si X es discreta

2
= E(X
2
) =
_
+

x
2
f(x)dx si X es continua
Ejemplo 2.13 X:N umero de lanzamientos hasta conseguir una cara
X = x 1, 2, 3, . . . p(x) =
1
2
x
, x N

xN
1
2
x
= 1
Veamos el calculo de E(X) (n umero medio de lanzamientos para cara).
E(X) =
+

x=1
x
2
x
= 2 E(X
2
) =
+

x=1
x
2
2
x
Ejemplo 2.14 Sea X una v.a. con f(x) = e
x
, x > 0.
E(X) =
_
+
0
x e
x
dx E(X
2
) =
_
+
0
x
2
e
x
dx
Funcion Generatriz de Momentos
Denicion 2.9 Esta funcion que nos facilita el calculo de los momentos ordinarios, se dene
como sigue: m(t) = E(e
tX
), t R, es decir,
m(t) =

xX
e
tx
p(x) para X discretas
m(t) =
_
+

e
tx
f(x)dx para X continuas
En particular, solo nos interesara que exista en un entorno de t = 0, es decir, t (, );
pudiendo no estar denida fuera de dicho intervalo.
dm(t)
dt
_
t=0
= E(Xe
tX
)
_
t=0
= E(X)
m

(0) = E(X
2
e
tX
)
_
t=0
= E(X
2
)
.
.
.
m
r
(0) = E(X
r
) =
r
Ejemplo 2.15 X:N umero de lanzamientos hasta conseguir cara
m(t) =
+

x=1
e
tx
1
2
x
=
+

x=1
_
e
t
2
_
x
=
e
t
2
1
e
t
2
=
e
t
2 e
t
; t < ln2
e
t
2
< 1 e
t
< 2 t < ln2 =ln2 = > 0
Por lo tanto, m(t) estara bien denida cuando t < ln2
2.4 Descripcion de Variables Aleatorias 27
m

(t) =
e
t
(2 e
t
) +e
2t
(2 e
t
)
2
=
e
t
2 e
t
+
e
2t
(2 e
t
)
2
m

(0) =
1 + 1
1
= 2 = E(X)
m

(t) = m

(t) + 2m(t) m

(t)
m

(0) = 2 + 2m(0) 2 = 2 + 2 1 2 = 6 = E(X


2
)
De esta manera podemos calcular la varianza como:
V (X) = m

(0) (m

(0))
2
= E(X
2
) E(X)
2
= 6 2
2
= 2
Ejemplo 2.16 Sea X una v.a. con f(x) = e
x
, x > 0.
m(t) = E
_
e
tX
_
=
_
+
0
e
tx
e
x
dx =
_
+
0
e
x(t1)
dx =
1
t 1
_
e
x(t1)
_
x=+
x=0
=
1
t 1
[01] =
1
1 t
Veamos en que puntos esta denida t.
lm
x+
e
x(t1)
= 0 cuando t < 1
m

(t) =
1
(1 t)
2
m

(0) = 1 =
_
+

xe
x
dx = E(X)
m

(t) =
2
(1 t)
3
m

(0) = 2 =
_
+

x
2
e
x
dx = E(X
2
)
V (X) = E(X
2
) E(X)
2
= 2 1
2
= 1
Desviacion Tpica de una v.a. X
Denicion 2.10 Otro parametro de dispersion de una v.a. X, relacionado con la varianza,
es la desviacion tpica.

Esta se dene como:
D(X) =
_
V (X) =
La ventaja que presenta la desviacion tpica frente a la varianza es que, mientras esta
ultima se expresa en unidades
2
, la primera se expresa en la misma unidad en que se expresa
X.
Propiedades de la Varianza
Propiedad 2.12 V (X) > 0; V (X) = 0 E(X) = X (es decir, si X = cte
6
)
Propiedad 2.13 V (aX +b) = a
2
V (X), a, b = ctes
Propiedad 2.14 V (X +Y ) = V (X) +V (Y ) si X e Y son independientes
7
Propiedad 2.15 Supongamos Y = a
0
+ a
1
X
1
+ . . . + a
n
X
n
siendo X
1
, X
2
, . . . , X
n
v.a.
independientes y a
0
, a
1
, . . . , a
n
constantes. Entonces se cumple que:
V (Y ) = a
2
1
V (X
1
) +a
2
2
V (X
2
) +. . . +a
2
n
V (X
n
)
6
A las v.a. que son constantes se les conoce con el nombre de variables degeneradas
7
Por ejemplo, V (X Y ) = V (X) +V (Y ) = V (X) + (1)
2
V (Y ) = V (X) +V (Y )
28 Captulo 2. Variables Aleatorias Univariantes
2.4.3. Desigualdades de Tchebychev
Denicion 2.11 Sea X una v.a. con = E(X) y = D(X) nitos. Entonces:
T([X E(X)[ KD(X)) 1
1
k
2

T([X E(X)[ > K D(X)) <
1
k
2

T(E(X) K D(X) X E(X) +K D(X)) 1
1
k
2
Ejemplo 2.17 X:N umero de lanzamientos hasta conseguir cara
E(X) = 2 D(X) =

2 K = 2
T(1
8
X 2 + 2

2) 1
1
2
2
= 0

75 Probabilidad acumulada entre 1 y 2 + 2

2
Ejemplo 2.18 X:Altura
Suponemos E(X) = 175 cm y D(X) = 5 cm. (K = 2)
T(X (175 2 5, 175 + 2 5)) 0

75
T(X (165, 185)) 0

75
Moda de una v.a. X
Denicion 2.12 Una moda de la distribucion de X sera un punto muestral, m
o
(X), para
el cual la funcion puntual de probabilidad (en el caso discreto) o la funcion de densidad (en
el caso continuo) se hace maxima. Es decir:
p(m
o
) es maximo.
f(m
o
) es maximo.
Una funcion se dice unimodal cuando solo tiene una moda.
Mediana de una v.a. X
Denicion 2.13 La mediana de una v.a. X, m
e
(X), o simplemente m
e
, es un punto mues-
tral que cumple que:
En el caso de X discreta:
T(X m
e
)
1
2
y T(X m
e
)
1
2
Para v.a. discretas pueden existir varias medianas.
En el caso de X continua:
F(m
e
) =
1
2
T(X m
e
) =
1
2
Ejemplo 2.19 X:N umero de lanzamientos hasta conseguir cara
T(X 1) =
1
2
T(X 1) = 1
_
X = 1 es mediana
T(X 2) =
1
2
+
1
4
=
3
4
T(X 2) =
1
2
_

_
X = 2 es mediana
Y no existen mas medianas.
8
Ponemos 1 en vez de 2 2

2 porque no interesa un n umero negativo y 1 es el primer valor positivo que


puede tomar X
2.4 Descripcion de Variables Aleatorias 29
Si X es unimodal, con una distribucion asimetrica se cumple que:
O bien m
o
m
e
E(X), tal y como muestra la gura 2.1
O bien E(X) m
e
m
o
), tal y como muestra la gura 2.2
Figura 2.1: Distribucion asimetrica, caso 1
Figura 2.2: Distribucion asimetrica, caso 2
Si X es unimodal, con una distribucion simetrica, se cumple que:
m
o
= m
e
= E(X), tal y como se detalla en la gura 2.3
Figura 2.3: Distribucion simetrica
30 Captulo 2. Variables Aleatorias Univariantes
Captulo 3
Modelos de Probabilidad
Univariantes
Comenzaremos el captulo viendo los modelos o distribuciones que tratan con variables
aleatorias discretas, para despues hacer lo propio con aquellos que se encargan de las variables
continuas.
3.1. Modelo de Bernoulli
X B(1, p)
Los experimentos de Bernoulli son aquellos que solo presentan dos posibles resultados
(sucesos dicotomicos): exito/fracaso, 0/1, par/impar, blanco/negro, etc.
La variable X 0, 1, que toma el valor 1 si sucede A, con probabilidad T(A) = p
conocida, al realizar una sola prueba, se conoce como variable de Bernoulli.
La funcion puntual de probabilidad se dene como p(x) = p
x
(1 p)
1x
con x 0, 1.
Es decir:
T(X = 1) = p
T(X = 0) = 1 p = q
T(X = x) = 0, x / 0, 1
La media y la varianza de una variable de Bernoulli son:
E(X) = 0 (1 p) + 1 p = p
V (X) = E(X
2
) E(X)
2
= 0
2
(1 p) + 1
2
p p
2
= p(1 p) = pq
3.2. Modelo Binomial
X B(n, p)
El modelo Binomial es el que modeliza los experimentos consistentes en repetir n veces de
forma identica (es decir, la probabilidad p es constante en todas la pruebas) e independiente
un experimento de Bernoulli y cuenta el n umero de veces que ha ocurrido el suceso A (con
T(A) = p).
Algunos ejemplos de variables que se rigen por este modelo pueden ser: N umero de
caras al tirar 10 veces una moneda, N umero de bolas blancas al hacer 10 extracciones
con reemplazamiento, N umero de piezas defectuosas en una muestra de 100 elementos sin
reemplazamiento.
31
32 Captulo 3. Modelos de Probabilidad Univariantes
Nota.- Si el espacio muestral es nito, entonces debe haber reemplazamiento
para que los experimentos de Bernoulli sean identicos (p constante en todas las
pruebas). Si el espacio muestral es innito o con cardinalidad mucho mayor que
la muestra que tomamos, se puede considerar que no hay reemplazamiento.
La funcion puntual de probabilidad de una v.a. X seg un este modelo es:
p(x) = T(X = x) =
_
n
x
_
p
x
(1 p)
nx
con X 0, 1, . . . , n
Particularmente, la situacion en que las x primeras veces ocurre A y las n x veces
restantes ocurre

A sera: A
x
. . .A

A
nx
. . .

A. Pues bien, p(x) representa cualquier combinacion de
A

s y

A

s.
Veamos ahora que

n
x=0
p(x) = 1
n

x=0
p(x) =
n

x=0
_
n
x
_
p
x
(1 p)
nx
= (p + (1 p))
n
= 1
Si X es binomial podemos expresarla como:
X = X
1
+X
2
+. . . +X
n
X
i
_
0 si se da

A en el experimento i-esimo
1 si se da A en el experimento i-esimo
Es decir, cada X
i
es una variable de Bernoulli: X
i
B(1, p).
De este modo, la media y la varianza para v.a. que siguen el modelo binomial son:
E(X) = E(X
1
) +E(X
2
) +. . . +E(X
n
) = p +p +. . . +p = np
V (X) = V (X
1
)+V (X
2
)+. . .+V (X
n
) = p(1p)+p(1p)+. . .+p(1p) = np(1p) = npq
Utilizamos el modelo Binomial para analizar la denicion frecuentista de probabilidad.
Denimos la variable aleatoria frecuencia relativa del suceso A en n pruebas independientes.
fr(A) =
n
A
n
n
A
B(n, p)
E(fr(A)) =
1
n
E(n
A
) =
1
n
np = p
V (fr(A)) =
1
n
2
V (n
A
) =
1
n
2
np(1 p) =
p(1p)
n
Por la desigualdad de Tchebychev
T([X E(X)[ < ) 1
V (X)

2
y haciendo X = fr(A) se cumple que T([fr(A) p[ <
) 1
p(1p)
n

2
= 1
p(1 p)
n
2
Si ahora analizamos la funcion p(1p) = pp
2
observamos que su valor maximo lo toma
en 0

5 y es
1
4
, por lo tanto:
T([fr(A) p[ < ) 1
1
4n
2
Y, as, cuando n + se tiene T([fr(A) p[ < ) 1
Es decir, fr(A) T(A) en probabilidad.
Ejemplo 3.1 Cuanto tiene que valer n para que la estimacion de una probabilidad mediante
una frecuencia sea un suceso con probabilidad mayor que 0

95 sabiendo que el error cometido


es menor que 10
2
?
T([fr(A) p[ < 10
2
) 1
1
4n(10
2
)
2
> 0

95 n > 50000
3.3 Modelo Geometrico 33
3.3. Modelo Geometrico
X Ge(p)
X:N umero de pruebas identicas e independientes hasta que ocurre A
X 1, 2, . . .
Y :N umero de fracasos (n
o
de veces que ocurre

A) hasta que ocurre A
Y 0, 1, 2, . . ., es decir, X = Y + 1
La funcion puntual de probabilidad de la variable que se ajusta a este modelo es:
p(x) = T(X = x) = (1 p)
x1
p = q
x1
p

A

A
x1
. . .

A[A x 1, 2, . . .
p(y) = T(Y = y) = (1 p)
y
p = q
y
p

A

A
y
. . .

A[A y 0, 1, . . .
Las esperanzas matematicas de X e Y se diferencian en una unidad, mientras que las
varianzas coinciden.
E(X) = E(Y ) + 1 V (X) = V (Y )
Vamos a calcularlas utilizando la funcion generadora de momentos:
m
X
(t)
t(,)
= E
_
e
tX
_
=
+

x=1
e
tx
q
x1
p = p
+

x=1
e
t
e
t(x1)
q
x1
= pe
t
+

x=1
_
qe
t
_
x1
Esta serie es convergente si qe
t
< 1 e
t
<
1
q
t < ln
_
1
q
_
=
Por lo tanto m
X
(t) = pe
t
1
1 qe
t
=
pe
t
1 qe
t
m

(0) = E(X) =
_
pe
t
(1 qe
t
) pe
t
(qe
t
)
(1 qe
t
)
2
_
t=0
=
p(1 q) +pq)
(1 q)
2
=
p(1 q +q)
p
2
=
1
p
m

(0) = E(X
2
)
En resumen: E(X) =
1
p
E(Y ) =
1
p
1 =
1 p
p
=
q
p
V (X) = V (Y ) =
q
p
2
Ejemplo 3.2 Calcular el n umero medio de Fantas que hay que comprar para reunir las letras
de la palabra VIAJE con sus tapones.
X
i
:N umero de compras necesarias hasta conseguir la i-esima letra diferente
X = X
1
+X
2
+X
3
+X
4
+X
5
X
1
Ge(1) X
3
Ge(
3
5
) X
5
Ge(
1
5
)
X
2
Ge(
4
5
) X
4
Ge(
2
5
)
E(X) = E(X
1
+ X
2
+ X
3
+ X
4
+ X
5
) = E(X
1
) + E(X
2
) + E(X
3
) + E(X
4
) + E(X
5
) =
1 +
5
4
+
5
3
+
5
2
+ 5 = 11

4167
3.4. Modelo Binomial Negativo
X BN(r, p)
X:N umero de pruebas identicas e independientes hasta que sucede A r veces
X r, r + 1, r + 2, . . . con r N
La funcion puntual de probabilidad de las variables que siguen este modelo es:
p(x) = T(X = x) = PR
r1,xr
x1
p
r
q
xr
=
(x 1)!
(r 1)!(x r)!
p
r
q
xr
=
_
x1
r1
_
p
r
q
xr
A
r1
. . . A

A
xr
. . .

A[A
Y su esperanza matematica se calcula como: E(X) =
r
p
34 Captulo 3. Modelos de Probabilidad Univariantes
3.5. Modelo Hipergeometrico
X H(N, n, K)
Supongamos una poblacion nita de tama no N en donde hay K objetos de la clase A y
N K objetos de la clase

A.
Se toma una muestra de tama no n sin reemplazamiento (ya que si hubiera reemplaza-
miento se tratara de un experimento que seguira el modelo binomial).
X:N umero de objetos de la clase A en la muestra de tama no n sin reemplazamiento
As, se tiene que:
n X N K
X n (N K)
_
max0, n (N K) X minn, K
Y por lo tanto: T(X = x) =
_
K
x
__
NK
nx
_
_
N
n
_
Siendo la esperanza y la varianza:
E(X) = n
K
N
= np V (X) = n
K
N
_
1
K
N
__
N n
N 1
_
= npq
N n
N 1
Ejemplo 3.3 En una urna donde hay 3 bolas blancas y 2 negras, calcular la probabilidad de
que X = 2, siendo
X:N umero de bolas blancas en una muestra sin reemplazamiento de tama no 4
X 2, 3
T(X = 2) =
_
3
2
__
2
2
_
_
5
4
_
3.6. Modelo de Poisson
X P()
Este modelo trata los experimentos consistentes en contar el n umero de veces que se pre-
senta un suceso en un intervalo de soporte continuo. Este intervalo se divide en subintervalos
iguales, sucientemente peque nos como para que el experimento se comporte seg un el modelo
Bernoulli dentro de cada uno de ellos.
Siendo el n umero medio de veces que sucede A en cada intervalo, la funcion puntual de
probabilidad de la variable X (que luego obtendremos mediante un paso al lmite) es:
T(X = x) =
e

x
x!
X 0, 1, 2, . . .
Es decir, si
X:N umero de veces que ocurre A en un intervalo unidad de soporte continuo
+

x=0
T(X = x) =
+

x=0
e

x
x!
= e

x=0

x
x!
= e

= 1
La esperanza matematica, as como la varianza son:
E(X) =
+

x=0
xe

x
x!
=
+

x=1
xe

x
x!
=
+

x=1
e

x
(x 1)!
=
+

x=0
e

x1
(x 1)!
=
V (X) =
3.7 Modelo Exponencial 35
Algunos ejemplos de variables modelizadas as seran: X:N umero medio de e-mails re-
cibidos en una terminal en una hora
1
, X:N umero de fallos superciales en un cable de
red
2

Para demostrar la validez de la funcion puntual de probabilidad consideremos un experi-


mento binomial con n repeticiones (correspondientes a los n subintervalos) donde n +.
lm
n+
_
n
x
_
p
x
(1 p)
nx
=
=np
lm
n+
n!
x!(n x)!
_

n
_
x
_
1

n
_
nx
=
=

x!
lm
n+
n
n

n 1
n

n x + 1
n

_
1

n
_
n

_
1

n
_
x
=

x!
lm
n+
_
1

n
_
n
=
e

x
x!
Hasta aqu llegan los modelos discretos que nosotros vamos a ver. A partir de ahora todos
los modelos que veamos seran para variables continuas.
3.7. Modelo Exponencial
T Ex()
Las variables que modeliza el modelo exponencial son aquellas que denotan el tiempo o
distanciaentre dos ocurrencias sucesivas de A.
Al igual que en el modelo de Poisson, :N umero medio de veces que ocurre A por intervalo
de soporte continuo.
Vamos a calcular la probabilidad de que en el instante t no haya ocurrido todava el suceso
A, es decir, T(T > t).
Si denimos la v.a. X
t
como:
X
t
:N umero de veces que ocurre A en un intervalo [0, t]
nos daremos cuenta de que sigue un modelo de Poisson. Esto es:
X
t
P(
t
) donde
t
= t X
t
P(t)
Siendo T(T > t) = T(en el intervalo [0, t] no ha ocurrido A) = T(X
t
= 0) = e
t
; t > 0
F(t) = 1 T(T > t) = 1 e
t
t > 0
f(t) =
d
dt
F(t) = e
t
Ejemplo 3.4 El n umero medio de fallos en la produccion de una cierta pieza es, al a no, de
3 unidades. Calcular la probabilidad de que una pieza tenga una vida de mas de 6 meses.
T:Tiempo de vida (en a nos) de dicha pieza
= 3 T
_
T >
1
2
_
= e

3
2
Para hallar las expresiones de la media, la varianza y la desviacion tpica haremos uso de
la funcion generadora de momentos.
m(t) = E
_
e
tX
_
=
_
+
0
e
tx
e
x
dx =
_
+
0
e
x(t)
dx =

t
_
e
x(t)
_
+
0
t<
=

t
(01) =

t
m

(0) = E(X) =

( t)
2
_
t=0
=
1

(0) = E(X
2
) =
2
( t)
3
_
t=0
=
2

2
= E(X) =
1


2
= V (X) =
2

2

1

2
=
1

2
= D(X) =
1

1
Discretizando el tiempo, que es continuo, en por ejemplo, segundos, y en cada segundo puede haber llegado
un e-mail o no.
2
Discretizando la longitud del cable en secciones de un milmetro, por ejemplo.
36 Captulo 3. Modelos de Probabilidad Univariantes
Este modelo continuo es analogo al modelo geometrico respecto a la propiedad de carencia
de memoria:
T(T > t
0
+t
1
[
T>t
0
) = T(T > t
1
)
T(T > t
0
+ t
1
[
T>t
0
) =
T((T > t
0
+t
1
) (T > t
0
))
T(T > t
0
)
=
T(T > t
0
+t
1
)
T(T > t
0
)
=
e
(t
0
+t
1
)
e
t
0
=
e
t
1
= T(T > t
1
)
Por lo tanto este no es un buen modelo para sistemas que se deterioran con el tiempo.
3.8. Modelo Gamma
X (r, )
Decimos que X sigue una distribucion Gamma de parametros r, , si su funcion de
densidad viene dada por:
f(x) =

r
(r)
x
r1
e
x
x > 0
Donde
(r) =
_
+
0
x
r1
e
x
dx r > 0
recibe el nombre de funcion Gamma y cumple que:
(r) = (r 1)(r 1) para r > 1
De donde se deduce que si x N entonces (r) = (r 1)!
En el caso particular en que r = 1 se tiene que:
(r, ) = (1, ) Ex()
3.9. Modelo de Erlang
X Erlang(r, )
Este modelo modeliza las variables aleatorias X que representan el tiempo o distan-
ciaque transcurre hasta que sucede A r veces; r N
Erlang(r, ) (r, )
3.10. Modelo Normal o de Gauss
X ^(, )
Este modelo es, con diferencia, el mas utilizado para modelizar experimentos aleatorios.
Si una variable X es la suma de un n umero grande de variables independientes, entonces se
puede aproximar X por una distribucion que denominaremos normal.
Diremos que la v.a. X sigue un modelo normal de media y desviacion tpica si su
funcion de densidad es:
f(x) =
1

2
e

1
2
(
x

)
2
x R
Algunas propiedades que cumple esta funcion de densidad f son:
Propiedad 3.1 f( x) = f( +x), x (simetra respecto de )
Propiedad 3.2 f tiene un maximo en x =
Propiedad 3.3 f tiene puntos de inexion en x =
3.10 Modelo Normal o de Gauss 37
Propiedad 3.4
T(X ( , +)) 0

68
T(X ( 2, + 2)) 0

95
T(X ( 3, + 3)) 0

99
Para calcular la probabilidad referida a una v.a. X ^(, ) se debera integrar la
funcion de densidad en cierto intervalo, pero esa integral no tiene primitiva y hay que hacer
uso de metodos numericos para hallarla. No obstante, existen unas tablas de la funcion de
distribucion que nos permiten calcular dichas probabilidades.
Pero como cada experimento tiene su propia media y varianza se necesitara disponer de
innitas tablas. Por suerte cualquier distribucion normal se puede relacionar con la distribu-
cion ^(0, 1), mediante una tipicacion de la variable.
Si X ^(, ) entonces Z =
X

cumple que Z ^(0, 1).


Ejemplo 3.5 X:Altura de los recien nacidos
X ^(0

5, 0

01)
T(X > 0

51) = T
_
Z >
x

_
= T
_
Z >
0

51 0

5
0

01
_
= T(Z > 1) = 0

1587
De este ultimo ejemplo se deduce la siguiente expresion:
T(X x) = T
_
Z
x

_
3.10.1. Teorema Central del Lmite
Sean X
1
, . . . , X
n
v.a. independientes donde cada X
i
^(
i
,
i
).
Y sea la v.a. Y = a
0
+a
1
X
1
+a
2
X
2
+. . . +a
n
X
n
. Entonces se tiene que:
Y ^
_
_
a
0
+
n

i=1
a
i

i
,

_
n

i=1
a
2
i

2
i
_
_
El Teorema Central del Lmite establece que si X
i
son v.a. con E(X
i
) =
i
y D(X
i
) =
i
nitas e independientes y sin necesidad de que X
i
sean normales se tiene que:
Y = a
0
+a
1
X
1
+a
2
X
2
+. . . +a
n
X
n
aprox
^
_
_
a
0
+
n

i=1
a
i

i
,

_
n

i=1
a
2
i

2
i
_
_
Esta aproximacion crece (mejora) a medida que n aumenta y si X B(n, p) la funcion
de distribucion binomial puede ser aproximada por la distribucion normal, puesto que puede
ser expresada como suma de variables de Bernoulli.
38 Captulo 3. Modelos de Probabilidad Univariantes
3.10.2. Casos Particulares
1. Si X
i
son identicamente distribuidas, es decir, tienen la misma distribucion (siguen
el mismo modelo), se cumple lo siguiente:
E(X
i
) = D(X
i
) = i
por lo tanto
Y = a
0
+a
1
X
1
+a
2
X
2
+. . . +a
n
X
n
aprox
^
_
_
a
0
+
n

i=1
a
i
,

2
n

i=1
a
2
i
_
_
2. Si X B(n, p) entonces X = X
1
+X
2
+. . . +X
n
donde X
i
B(1, p)
Y si n es grande X B(n, p)
aprox
^
_
np,
_
np(1 p)
_
3. fr(A) =
n
A
n
donde n
A
B(n, p)
E(fr(A)) =
E(n
A
)
n
=
np
n
= p
V (fr(A)) =
V (n
A
)
n
2
=
np(1 p)
n
2
=
p(1 p)
n
Y as fr(A)
aprox
^
_
p,
_
p(1 p)
n
_
3.11. Modelo Uniforme
X U(a, b)
Se dice que una v.a. X sigue una distribucion uniforme en el intervalo (a, b) si su funcion
de densidad es:
f(x)
_
_
_
1
b a
x (a, b)
0 x / (a, b)
Por lo tanto la funcion de distribucion vendra dada por:
F(x)
_

_
0 x a
x a
b a
x (a, b)
1 x b
La media y la varianza de las variables que siguen este modelo son:
= E(X) =
_
b
a
x
b a
dx =
a +b
2

2
= E(X
2
) =
_
b
a
x
2
b a
dx

2
= V (X) = E(X
2
) E(X)
2
=
(b a)
2
12
Un caso particular del modelo uniforme es X U(0, 1)
3.12 Modelo Beta 39
3.12. Modelo Beta
X (p, q)
El modelo Beta es una generalizacion del modelo uniforme.
Decimos que una v.a. X continua sigue un modelos de parametros p, q (con p, q > 0),
si su funcion de densidad viene dada por:
f(x)
_
_
_
1
(p, q)
x
p1
(1 x)
q1
0 < x < 1
0 en el resto
En el caso en que p = q = 1 se cumple que (1, 1) U(0, 1)
3.12.1. Funcion Beta
: R
+
R
+
R
+
(p, q) (p, q)
(p, q) =
_
1
0
x
p1
(1 x)
q1
dx =
(p)(q)
(p +q)
Ejemplo 3.6 (4, 3) =
(4)(3)
(7)
=
3!2!
6!
= 60
3.13. Modelos que se derivan de la distribucion Normal
3.13.1. Modelo CHI-Cuadrado de Pearson (
2
Pearson)
|
2
n
Sean X
1
, . . . , X
n
v.a. normales tipicadas e independientes, es decir, X
i
^(0, 1).
Entonces el cambio de variable
| = X
2
1
+X
2
2
+. . . +X
2
n
se llama variable
2
Pearson con n grados de libertad (tantos
como sumandos).
3.13.2. Modelo t
n
de Student
T t
n
Supongamos una v.a. Z ^(0, 1) y supongamos tambien otra variable aleatoria |
2
n
Entonces el cambio de variable
T =
Z
_
U
n
t
n
se denomina t
n
de Student, que hereda los grados de libertad de |.
3.13.3. Modelo T de Fisher o de Snedecor
X T
n,m
Supongamos una v.a. |
2
n
y otra v.a. 1
2
m
La variable denida como:
F =
U
n
V
m
=
|
1

m
n
T
n,m
se llama T de Snedecor.
40 Captulo 3. Modelos de Probabilidad Univariantes
Captulo 4
Variables Aleatorias Multivariantes
4.1. Variables Aleatorias Multidimensionales
En el caso de v.a. unidimensionales tenamos que:
X : (, /, T) (R, B, T
X
)
donde T
X
(B) = T(X
1
(B)) con X(B) /.
Si ahora nos interesan varias caractersticas numericas de un suceso, por ejemplo, X
1
:N
o
de ases y X
2
:N
o
de reyes, o tambien X
1
:altura de un individuo y X
2
:peso de ese mismo
individuo, entonces denimos una variable aleatoria K-dimensional como:
X = (X
1
, . . . , X
K
) : (, /, T) (R
K
, B
K
, T
X
)
4.1.1. Funcion de Distribucion Conjunta
Denicion 4.1 La funcion de distribucion conjunta de una variable aleatoria K-dimensional
se dene como:
F : R
K
[0, 1]
(x
1
, . . . , x
k
) F(x
1
, . . . , x
k
) = T(X
1
x
1
, . . . , X
k
x
k
)
Esta funcion cumple las siguientes propiedades:
Propiedad 4.1 F es no decreciente en cada componente, esto es:
Si x
i
< x

i
i = 1, . . . , k entonces F(x
1
, . . . , x
i
, . . . , x
k
) F(x
1
, . . . , x

i
, . . . , x
k
)
Propiedad 4.2 F es continua a la derecha en cada componente.
lm F(x
1
, . . . , x
i
+h, . . . , x
k
) = F(x
1
, . . . , x
i
, . . . , x
k
) i = 1, . . . , k
h 0
h > 0
Propiedad 4.3
lm F(x
1
, . . . , x
i
, . . . , x
k
) = 1
x
1
+
.
.
.
x
i
+
.
.
.
x
k
+
41
42 Captulo 4. Variables Aleatorias Multivariantes
Figura 4.1: Ejemplo de la propiedad 4.3
Veamos esta tercera propiedad para el caso de una v.a. X bivariante:
F(X
1
, X
2
) = T(X
1
x
1
, X
2
x
2
)
Si x
1
+ y x
2
+, vease la gura 4.1
Por otra parte, basta con que una sola variable x
i
cumpla que x
i
para que se
tenga que:
lm F(x
1
, . . . , x
i
, . . . , x
k
) = 0
x
i

Cada una de las K componentes de una v.a. multidimensional X puede ser, indistinta-
mente, continua o discreta.
Nosotros estudiaremos mas detalladamente el caso de v.a. bidimensionales cuyas compo-
nentes sean, simultaneamente, o bien continuas, o bien discretas.
4.1.2. Funcion Puntual de Probabilidad Conjunta
Denicion 4.2 La funcion puntual de probabilidad conjunta de una v.a. bidimensional,
cuyas componentes son discretas, viene dada por:
p(x, y) = T(X = x, Y = y)
Esta funcion cumple las siguientes propiedades:
Propiedad 4.4
p(x, y) > 0 (x, y)
Propiedad 4.5

xX

yY
p(x, y) =

(x,y)(XY )
p(x, y) = 1
Ejemplo 4.1
p(x, y)
XY -1 1
1
1
6
1
3
2
1
12
1
4
3
1
12
1
12
F(2

5, 1) = T(X 2

5, Y 1) =
1
6
+
1
3
+
1
12
+
1
4
4.1.3. Funcion de Densidad Conjunta
Denicion 4.3 La funcion de densidad conjunta de una v.a. bidimensional, cuyas compo-
nentes son continuas, se dene como:
f(x, y) =

2
F(x, y)
xy
4.2 Distribuciones Marginales y Condicionadas 43
Esta funcion cumple las siguientes propiedades:
Propiedad 4.6
f(x, y) > 0 x, y
Propiedad 4.7
_
+

_
+

f(x, y)dxdy = 1
Ejemplo 4.2
_
1
0
dx
_
2
1
dy(x +y) =
_
2
1
dy
_
1
0
dx(x +y) =
_
2
1
__
1
0
dx(x +y)
_
dy
(X, Y ) (0, 1) (1, 2)
_
1
0
dx
_
2
1
dy(x +y) =
_
1
0
dx
_
y
2
2
+xy
_
y=2
y=1
=
_
1
0
dx
_
2 + 2x
1
2
x
_
=
_
1
0
dx
_
x +
3
2
_
=
_
x
2
2
+
3
2
x
_
1
0
=
1
2
+
3
2
= 2 unidades
3
Ejemplo 4.3 Cuanto debe valer K para que la siguiente funcion sea funcion de densidad
conjunta?
f(x, y) =
_
K 0 x 1, 0 y 1, x +y 1
0 en el resto
Solucion:
_
1
0
dx
_
1x
0
dyK =
_
1
0
dy
_
1y
0
dxK = K
_
1
0
dy[x]
1y
0
= K
_
1
0
dy(1 y) = K
_
y
y
2
2
_
1
0
=
k
_
1
1
2
_
=
1
2
K
def
= 1 K = 2
4.2. Distribuciones Marginales y Condicionadas
Nosotros solo veremos los casos para v.a. bivariantes.
4.2.1. Distribuciones Marginales
Se podran denir tantas distribuciones marginales de una v.a. multivariante como di-
mensiones tuviera esta.
Funcion de Distribucion Marginal de X
Denicion 4.4 Siendo F(X, Y ) conocida podemos decir que
F
X
(x) = F(x) = T(X x) = T(X x, Y +) = F(x, +)
O lo que es lo mismo:
F
X
(x) = lm
y+
F(x, y)
F
Y
(y) = lm
x+
F(x, y)
44 Captulo 4. Variables Aleatorias Multivariantes
Funcion Puntual de Probabilidad Marginal de X
Denicion 4.5 Dadas las v.a. X e Y , discretas, podemos armar que
p(x) = T(X = x) =

yY
p(x, y)
Y analogamente,
p(y) = T(Y = y) =

xX
p(x, y)
Ejemplo 4.4 .
p(x, y)
XY -1 1 p(x)
0
1
6
1
3
1
2
1
1
12
1
4
1
3
2
1
12
1
12
1
6
p(y)
1
3
2
3
1
X 0 1 2
p(x)
1
2
1
3
1
6
Y -1 1
p(y)
1
3
2
3
p
X
(0) = p(0, y) = p(0, 1) +p(0, 1) =
1
6
+
1
3
=
1
2
Funcion de Densidad Marginal de X
Denicion 4.6 Si tenemos las v.a. X e Y , continuas, se cumple que
f
X
(x) =
dF
X
(x, y)
dx
=
_
+

f(x, y)dy
f
Y
(y) =
dF
Y
(x, y)
dy
=
_
+

f(x, y)dx
Ejemplo 4.5 Calcular f
X
(x), f
Y
(y) y F(x, y) dada la funcion de densidad conjunta
f(x, y) =
_
2 0 x 1, 0 y 1, x +y 1
0 en el resto
Solucion:
f
X
(x) =
_
1x
0
2dy = 2[y]
1x
0
= 2(1 x) 0 x 1
f
Y
(y) =
_
1y
0
2dx = 2[x]
1y
0
= 2(1 y) 0 y 1
F(x, y) =
_
x

ds
_
y

dtf(s, t)
Figura 4.2: Ejemplo 4.5
F(x, y)
_

_
0 (x, y) A B C
2xy (x, y) D
1 (1 x)
2
(1 y)
2
(x, y) E
1 (1 x)
2
(x, y) F
1 (1 y)
2
(x, y) G
1 (x, y) H
4.2 Distribuciones Marginales y Condicionadas 45
4.2.2. Distribuciones Condicionadas
Funcion Puntual de Probabilidad Condicionada
Denicion 4.7 Sean X e Y v.a. discretas. La funcion puntual de probabilidad de X sabiendo
que Y = y se dene como:
p
X
[
Y =y
(x) = p[
y
(x) = T(X = x[
Y =y
) =
T(X = x, Y = y)
T(Y = y)
=
p(x, y)
p(y)
Paralelamente
p
Y
[
X=x
(y) = p[
x
(y) = T(Y = y[
X=x
) =
T(Y = y, X = x)
T(X = x)
=
p(x, y)
p(x)
Ejemplo 4.6 .
p(x, y)
XY -1 1 p(x)
0
1
6
1
3
1
2
1
1
12
1
4
1
3
2
1
12
1
12
1
6
p(y)
1
3
2
3
1
X 0 1 2
p[
Y =1
(x)
1
6
1
3
=
1
2
1
12
1
3
=
1
4
1
12
1
3
=
1
4
p[
Y =1
(x)
1
3
2
3
=
1
2
1
4
2
3
=
3
8
1
12
2
3
=
1
8
Y -1 1
p[
X=0
(y)
1
6
1
2
=
1
3
1
3
1
2
=
2
3
p[
X=1
(y)
1
12
1
3
=
1
4
1
4
1
3
=
3
4
p[
X=2
(y)
1
12
1
6
=
1
2
1
12
1
6
=
1
2
Funcion de Densidad Condicionada
Denicion 4.8 Si X e Y son dos v.a. continuas, denimos
f[
y
(x) = f[
Y =y
(x) =
f(x, y)
f(y)
f[
x
(y) = f[
X=x
(y) =
f(x, y)
f(x)
Ejemplo 4.7 .
f(x) = 2(1 x) 0 x 1
f(y) = 2(1 y) 0 y 1
f[
y=0

5
(x) =
f(x, 0

5)
f
Y
(0

5)
=
2
2(1 0

5)
= 2 0 x 0

5
f[
y=0

9
(x) =
f(x, 0

9)
f
Y
(0

9)
=
2
2(1 0

9)
= 10 0 x 0

1
f[
Y =y
(x) =
f(x, y)
f
Y
(y)
=
2
2(1 y)
=
1
1 y
0 x 1 y
4.2.3. Esperanza Condicionada
Denicion 4.9 Sean X e Y v.a. discretas. Se dene la esperanza matematica de X sabiendo
que Y = y como:
E[
Y =y
(X) =

xX
xp[
Y =y
(x)
Analogamente, para el caso continuo, tenemos que:
E[
Y =y
(X) =
_
+

xf[
y
(x)dx
46 Captulo 4. Variables Aleatorias Multivariantes
4.3. Independencia de Variables Aleatorias
Veremos en este apartado varias formas de caracterizar dos variables aleatorias indepen-
dientes.
Denicion 4.10 Decimos que la pareja de variables (X, Y ) son independientes si
F(x, y) = T(X x, Y y) = T(X x) T(Y y) = F
X
(x) F
Y
(y)
es decir, X e Y son independientes sii
1
la funcion de distribucion conjunta es el producto
de las funciones de distribucion marginales.
Puesto que siempre es:
F(x, y) = T(X x[
Y y
) T(Y y)
Ahora, decir que son independientes es equivalente a decir que las distribuciones condi-
cionadas son iguales a la marginal correspondiente.
Otras caracterizaciones de la independencia de variables son las siguientes:
Si (X, Y ) son dicretas, la caracterizacion basada en la funcion puntual de probabilidad.
p(x, y) = T(X = x, Y = y) = T(X = x[
Y =y
) T(Y = y) =
T(X = x) T(Y = y) = p(x) p(y) (X, Y ) son independientes
Si (X, Y ) son continuas, la caracterizacion basada en la funcion de densidad.
f(x, y) = f[
Y =y
(x) f(y) = f(x) f(y) (X, Y ) son independientes
Es decir, f[
Y =y
(x) = f(x) y y f[
X=x
(y) = f(y) x
Ejemplo 4.8 Demostrar la independencia de las variables X e Y .
p(x, y)
XY -1 1 p(x)
0
1
6
1
3
1
2
1
1
12
1
4
1
3
2
1
12
1
12
1
6
p(y)
1
3
2
3
1
X 0 1 2
p[
Y =1
(x)
1
2
1
4
1
4
p[
Y =1
(x)
1
2
3
8
1
8
p(x)
1
2
1
3
1
6
(X, Y ) no son independientes.
Ejemplo 4.9 Comprueba la independencia de X e Y en:
f(x, y) =
_
2 0 x 1, 0 y 1, x +y 1
0 en el resto
f[
y
(x) =
1
1 y
0 x 1 y (X, Y ) no son independientes porque f[
y
(x) no vale lo
mismo y
Ejemplo 4.10 Son independientes X e Y ?
f(x, y) = 2 10
6
e
0

001x0

002y
= 2 10
6
e
0

001x
e
0

001y
Solucion: S son independientes.
Ejemplo 4.11 Dos personas quedan entre las 00:00 horas y las 01:00 horas para bailar, pero
ninguno de las dos esperara a la otra persona mas de 10 minutos.
X:Hora a la que llega la primera persona
Y :Hora a la que llega la segunda persona
La funcion de densidad sera:
1
si y solo si
4.4 Vector de Medias y Matriz de Covarianzas 47
f(x, y)
_
1 (x, y) (0, 1) (0, 1)
0 en el resto
Debemos calcular, seg un el modelo Uniforme en el cuadrado unidad, T(A), siendo A:Ninguno
de los dos espera mas de 10 minutos
A = [X Y [ <
1
6
Figura 4.3: Ejemplo 4.11
V ol
B
=
_
5
6

5
6
2
_
1 =
_
5
6
2
_
2
T(A) = V ol
A
= 1 2V ol
B
= 1 2
_
5
6
_
2
2
= 1
_
5
6
_
2
Ejemplo 4.12 Calcular la probabilidad de que al elegir dos n umeros al azar entre 0 y 1, su
suma sea menor que 1 y su producto menor que
1
4
.
X:Primer n umero
Y :Segundo n umero
A:X +Y < 1
B:X Y <
|
4

T(A) = V ol
A
=
1 1
2
1 =
1
2
f(x, y)
_
1 (x, y) (0, 1) (0, 1)
0 en el resto
T(B) = V ol
B
= V ol
B
1
+V ol
B
2
V ol
B
1
=
1
4
1 1 =
1
4
V ol
B
2
=
_
1
1
4
dx
_ 1
4x
0
dyf(x, y) =
_
1
1
4
dx
_ 1
4x
0
dy1 =
_
1
1
4
dx
_
1
4x
_
=
1
4
_
1
1
4
dx
x
=
1
4
[lnx]
1
1
4
=
1
4
ln
1
4
T(B) =
1
4

1
4
ln
1
4
4.4. Vector de Medias y Matriz de Covarianzas
4.4.1. Esperanza de una Funcion h(x, y)
Denicion 4.11 Si, dada una h(x) cualquiera, E(h(x)) se dene como
E(h(x))
_
xX
h(x)p(x) si X e Y son discretas
_
+

h(x)f(x)dx si X e Y son continuas


entonces, para h(x, y), tenemos que:
E(h(x, y))
_

xX

yY
h(x, y)p(x, y) si X e Y son discretas
_
+

dx
_
+

dyh(x, y)f(x, y) si X e Y son continuas


48 Captulo 4. Variables Aleatorias Multivariantes
4.4.2. Covarianza de dos v.a. (X, Y )
Denicion 4.12 La covarianza de dos v.a. (X, Y ) se dene como sigue:
Cov(X, Y ) = E(X Y ) E(X) E(Y )
Ejemplo 4.13 .
p(x, y)
XY -1 1 p(x)
0
1
6
1
3
1
2
1
1
12
1
4
1
3
2
1
12
1
12
1
6
p(y)
1
3
2
3
1
E(X Y ) =

xX

yY
x y p(x, y) = 0
1
12
+
1
4

2
12
+
2
12
=
1
6
E(X) =

xX
x p(x) =
1
3
+ 2
1
6
=
2
3
E(Y ) =

yY
y p(y) =
1
3
+
2
3
=
1
3
Cov(X, Y ) =
1
6

2
3

1
3
=
1
18
Ejemplo 4.14
f(x, y) =
_
2 0 x 1, 0 y 1, x +y 1
0 en el resto
f(x) = 2(1 x) 0 x 1
f(y) = 2(1 y) 0 y 1
E(X Y ) =
_
1
0
dx
_
1x
0
dy2xy = 2
_
1
0
xdx
_
1x
0
ydy = 2
_
1
0
xdx
_
y
2
2
_
1x
0
= 2
_
1
0
xdx
(1 x)
2
2
=
_
1
0
(x
3
2x
2
+x)dx =
_
x
4
4

2x
3
3
+
x
2
2
_
1
0
=
_
1
4

2
3
+
1
2
_
=
1
12
E(X) =
_
1
0
xf(x)dx =
_
1
0
(x x
2
)dx = 2
_
x
2
2

x
3
3
_
1
0
= 2
_
1
2

1
3
_
=
1
3
E(Y ) =
_
1
0
yf(y)dy =
_
1
0
(y y
2
)dy = 2
_
y
2
2

y
3
3
_
1
0
= 2
_
1
2

1
3
_
=
1
3
Cov(X, Y ) =
1
12

1
3

1
3
=
1
36
Proposicion 4.1 Si (X, Y ) son independientes, entonces se cumple que
E(X Y ) = E(X) E(Y ) Cov(X, Y ) = 0
4.4 Vector de Medias y Matriz de Covarianzas 49
Dem.- Veamos el caso en que X e Y son continuas (el caso discreto es analogo):
E(X Y ) =
_
+

_
+

xyf(x, y)dxdy =
_
+

__
+

xyf(x)f(y)dxdy
_
=
_
+

xf(x)dx
_
+

yf(y)dy = E(X) E(Y ) Cov(X, Y ) = 0

Nota.- Sin embargo, en general, Cov(X, Y ) = 0 (X, Y ) son independientes.


Nota.- Cov(X, X) = E(X X) E(X) E(X) = E(X
2
) E(X)
2
= V (X)
4.4.3. Coeciente de Correlacion
El coeciente de correlacion entre las v.a. X e Y mide el grado de asociacion lineal
entre dichas variables.
Pero, a diferencia de la covarianza, que depende de las unidades en que esten medidas X
e Y , el coeciente de correlacion es una magnitud adimensional
2
.
Denicion 4.13 El coeciente de correlacion entre las v.a. X e Y se dene como:
(X, Y ) =
Cov(X, Y )
D(X)D(Y )
Y cumple las siguientes propiedades:
Propiedad 4.8
1 (X, Y ) 1
Propiedad 4.9 Si Y = aX +b, entonces, por un lado tenemos que:
Cov(X, Y ) = Cov(X, aX +b) = E(X(aX +b)) E(X) E(aX +b) =
E(aX
2
+bX) E(X) (aE(X) +b) = aE(X
2
) +bE(X) aE(X)
2
bE(X) = aV (X)
Y por otro lado,
V (Y ) = a
2
V (X) D(Y ) =
_
V (Y ) =
_
a
2
V (X) = [a[D(X)
En consecuencia, si Y = aX +b, se tiene que:
(X, Y ) =
aV (X)
D(X)[a[D(X)
=
aV (X)
[a[V (X)
=
a
[a[
_
+1 si a > 0
1 si a < 0
Propiedad 4.10 Si (X, Y ) son independientes entonces (X, Y ) = 0.
Sin embargo, si (X, Y ) = 0 entonces (X, Y ) son linealmente independientes.
2
Lo cual es una ventaja pues ofrece una facil lectura
50 Captulo 4. Variables Aleatorias Multivariantes
4.4.4. Vector de Medias y Matriz de Covarianzas
Denicion 4.14 Sea la v.a. X = (X
1
, . . . , X
k
). Se dene su vector de medias como:
= (E(X
1
), . . . , E(X
k
)) = (
1
, . . . ,
k
)
Denicion 4.15 Del mismo modo se dene la matriz de covarianzas como:
1 =
_
_
_
_
_
_
_
_
V (X
1
) Cov(X
1
, X
i
) Cov(X
1
, X
k
)
.
.
.
.
.
.
.
.
.
.
.
.
Cov(X
i
, X
1
) V (X
i
) Cov(X
i
, X
k
)
.
.
.
.
.
.
.
.
.
.
.
.
Cov(X
k
, X
1
) Cov(X
k
, X
i
) V (X
k
)
_
_
_
_
_
_
_
_
Es decir, una matriz simetrica
3
que contiene en la diagonal principal las varianzas y en cada
posicion (i, j), la Cov(X
i
, X
j
).
Para el caso bidimensional sera:
1 =
_
V (X) Cov(Y, X)
Cov(X, Y ) V (Y )
_
Denicion 4.16 Tambien existe la matriz de correlaciones, denida como:
R =
_
_
_
_
_
_
_
_
1 (X
1
, X
i
) (X
1
, X
k
)
.
.
.
.
.
.
.
.
.
.
.
.
(X
i
, X
1
) 1 (X
i
, X
k
)
.
.
.
.
.
.
.
.
.
.
.
.
(X
k
, X
1
) (X
k
, X
i
) 1
_
_
_
_
_
_
_
_
Esto es, una matriz simetrica
4
, con 1s en la diagonal principal, y en cada posicion (i, j), el
(X
i
, X
j
).
Para el caso bivariante
R =
_
1 (Y, X)
(X, Y ) 1
_
4.5. Algunos Modelos Multivariantes
4.5.1. Modelo Multinomial
Se realizan n pruebas distintas e independientes, pero ahora el experimento no es di-
cotomico, sino que tiene k posibilidades distintas (con sus respectivas probabilidades), es
decir:
T(A
1
) = p
1
, T(A
2
) = p
2
, . . . , T(A
k
) = p
k
con p
1
+p
2
+ +p
k
= 1
Por lo tanto X = (X
1
, X
2
, . . . , X
k
) con X
i
:N
o
de veces que ha ocurrido A
i
en n pruebas
identicas e independientes.
As,
T(X = x) = T(X
1
= x
1
, . . . , X
k
= x
k
) =
n!
x
1
!x
2
! x
k
!
p
x
1
1
p
x
2
2
p
x
k
k

x
i
= n x
i
= 0, 1, . . . , n i
3
Ya que Cov(X
i
, X
j
) = Cov(X
j
, X
i
) y Cov(X
i
, X
i
) = V (X
i
)
4
Ya que (X
i
, X
j
) = (X
j
, X
i
) y (X
i
, X
i
) = 1
4.5 Algunos Modelos Multivariantes 51
Ejemplo 4.15 Cual es la probabilidad de que en una mestra de tama no 5 con reemplaza-
miento se de que X
1
= 2, X
2
= 2 y X
3
= 1 en la siguiente urna?
50b
25r
25n
X
1
:N
o
de blancas en una muestra de tama no 5 con reemplazamiento
X
2
:N
o
de negras en una muestra de tama no 5 con reemplazamiento
X
3
:N
o
de rojas en una muestra de tama no 5 con reemplazamiento
T(X
1
= 2, X
2
= 2, X
3
= 1) =
5!
2!2!1!
_
50
100
_
2
_
25
100
_
2
_
25
100
_
4.5.2. Modelo Hipergeometrico Multivariante
Sea una poblacion nita de tama no N que agrupa a K subpoblaciones de tama nos
N
1
, N
2
, . . . , N
k
, es decir, N = N
1
+N
2
+. . . +N
k
.
Si tomamos una muestra de tama no n sin reemplazamiento, entonces X = (X
1
, X
2
, . . . , X
k
)
donde X
i
:N
o
de elementos de la clase A
i
en una muestra de tama no n sin reemplazamiento.
En tal caso podemos armar que:
T(X = x) = T(X
1
= x
1
, X
2
= x
2
, . . . , X
k
= x
k
) =
_
N
1
x
1
__
N
2
x
2
_

_
N
k
x
k
_
_
N
n
_

x
i
= n x
i
= 0, 1, . . . , N
i
Ejemplo 4.16 Igual que el ejemplo 4.15, pero sin reemplazamiento.
T(X
1
= 2, X
2
= 2, X
3
= 1) =
_
50
2
__
25
2
__
25
1
_
_
100
5
_
Ejemplo 4.17 Calcular la probabilidad de full de ases-reyes.
N = 40 = 4 + 4 + 32
N
1
= 4 ases
N
2
= 4 reyes
N
3
= 32 resto de cartas
T(full) =
_
4
3
__
4
2
__
32
0
_
_
40
5
_ V
10,2
Ejemplo 4.18 Calcular la probabilidad de dobles parejas.
T
_
Doble
Pareja
_
=
_
4
2
__
4
2
__
32
1
_
_
40
5
_
V
10,2
2
4.5.3. Modelo Normal Bidimensional
Sea (X, Y ) con componentes independientes y ^(0, 1). Entonces:
f(x, y) = f(x) f(y) =
1

2
e

1
2
x
2

2
e

1
2
y
2
=
1
2
e

1
2
(x
2
+y
2
)
Recprocamente si f(x, y) =
1
2
e

1
2
(x
2
+y
2
)
con
x +
y +
entonces se tiene
X ^( , 1) con = (0, 0) y 1 =
_
1 0
0 1
_
.
52 Captulo 4. Variables Aleatorias Multivariantes
Figura 4.4: f(x, y) =
1
2
e

1
2
(x
2
+y
2
)
La seccion de la campana de la gura 4.4 es circular cuando X e Y son independientes
(no estan relacionadas).
Parte II
Estadstica
53
Captulo 5
Muestreo e Inferencia Estadstica
5.1. Inferencia Estadstica
Como ya dijimos en el captulo 1, la Estadstica pretende obtener conclusiones acerca de
una poblacion a partir de una muestra representativa.
Para ello dicha poblacion sera el espacio muestral de cierta v.a. que dene la caracterstica
que se pretende estudiar de esa poblacion.
Esa v.a. seguira (para nosotros) un modelo conocido que dependera de alg un parametro
desconocido (denotado por ) que debemos estimar.
El objetivo de este captulo sera inferir esos parametros mediante procedimientos que
denominamos de inferencia parametrica.
5.2. Muestras Aleatorias
Sea X una v.a. con distribucion f(x) (es decir, con funcion de densidad f(x) si X es
continua, o con funcion puntual de probabilidad p(x) si X es discreta).
Denicion 5.1 Decimos que

X = (X
1
, . . . , X
n
) es una muestra aleatoria simple (m.a.s.)
procedente de X y de tama no n si se cumple:
1. f
1
(x) = f
2
(x) = = f
n
(x) = f(x), x
Es decir, las n variables de la muestra estan identicamente distribuidas.
2. Sea g( x) = g(x
1
, . . . , x
n
) la funcion de densidad conjunta de las n variables. Pues bien,
g( x) se puede expresar como: g( x) = f(x
1
) f(x
2
) f(x
n
)
Es decir, (X
1
, . . . , X
n
) son independientes.
En resumen, se dice que

X = (X
1
, . . . , X
n
) es una muestra aleatoria simple si las variables
X
1
, . . . , X
n
son identicamente distribuidas e independientes.
Aqu cada v.a. X
i
representara la observacion i-esima en la poblacion.
Ejemplo 5.1 En una urna con 50 bolas blancas, 30 rojas y 20 verdes se toma una m.a.s. de
tama no 2. Calcular la distribucion de la muestra.
Si el tama no de la m.a.s. es 2, entonces la v.a. X sera bidimensional, y si ademas sus
componentes son independientes, la extraccion sera CON reemplazamiento.
El resultado se muestra en la tabla 5.1:
55
56 Captulo 5. Muestreo e Inferencia Estadstica
Espacio Muestral Probabilidad
2b
_
50
100
_
2
= 0

25
2r
_
30
100
_
2
= 0

09
2v
_
20
100
_
2
= 0

04
br, rb 2
50
100

30
100
= 0

30
bv, vb 2
50
100

20
100
= 0

20
rv, vr 2
30
100

20
100
= 0

12
1
Tabla 5.1:
X = (x
1
, x
2
) T(X = (x
1
, x
2
))

X
2b 0

25
1+1
2
= 1
2r 0

09
2+2
2
= 2
2v 0

04
3+3
2
= 3
br, rb 0

30
1+2
2
= 1

5
bv, vb 0

20
1+3
2
= 2
rv, vr 0

12
2+3
2
= 2

5
Tabla 5.2:
5.3. Estadsticos y Distribuciones en el Muestreo
Denicion 5.2 Sea X
1
, . . . , X
n
una m.a.s. de tama no n procedente de X. Llamamos Es-
tadstico a cualquier funcion de dicha m.a.s.
H(X
1
, . . . , X
n
)
Esta funcion H tambien es una v.a.
Y la funcion puntual de probabilidad (en el caso discreto) o la funcion de densidad (en el
caso continuo) del estadstico H se denomina distribucion del estadstico en el muestreo.
Uno de los estadsticos mas utilizados es el denominado media muestral, que se dene
como:
H(X
1
, . . . , X
n
) =
X
1
+ +X
n
n
=

X
Ejemplo 5.2 Tomando los datos del ejemplo anterior y estando las bolas numeradas de la
siguiente manera: blancas 1, rojas 2, verdes 3, calcular la distribucion de la media
muestral.
El resultado se muestra en las tablas 5.2 y 5.3
Puesto que:

X 1 1

5 2 2

5 3
T(

X = x) = p( x) 0

25 0

30 0

09 + 0

20 0

12 0

04
Y haciendo uso de 5.1
X 1 2 3
T(X = x) = p(x) 0

5 0

3 0

2
Tabla 5.3:
5.4 Muestreo en Poblaciones Normales 57
5.4. Muestreo en Poblaciones Normales
Sea X
1
, . . . , X
n
una m.a.s. procedente de X y con n grande.
Proposicion 5.1 Si X ^(, ) entonces

X ^
_
,

n
_
.
E(

X) =
1
n
E(X
1
+ +X
n
) =
1
n
n

i=1
E(X
i
) =
1
n
n =
1

V (

X) =
1
n
2
V (X
1
+ +X
n
) =
1
n
2
n

i=1
V (X
i
) =
n V (X)
n
2
=
2
V (X)
n
Estos dos resultados que acabamos de probar son importantes, pues son ciertos sea cual
sea la distribucion de X.
Si X no sigue una distribucion ^(, ), pero n es sucientemente grande, entonces

X
aprox
^
_
,

n
_
Ejemplo 5.3 Dados los datos del ejemplo anterior, calcular E(

X) y V (

X).
E(X) = 1 0

5 + 2 0

3 + 3 0

2 = 1

7 =E(

X) = 1

7
E(X
2
) = 1 0

5 + 2
2
0

3 + 3
2
0

2 = 3

5
V (X) = 3

5 (1

7)
2
= 0

61 =V (

X) =
0

61

4
= 0

305
Ejemplo 5.4 Sea X B(1, p), y sea (X
1
, . . . , X
n
) una m.a.s. procedente de X, donde p =
T(A) (p es la probabilidad de cierto suceso A).
Entonces se cumple que:

X = fr(A)
n grande

aprox
^
_
p,
_
p(1 p)
n
_
Otros estadsticos basados en una m.a.s. procedente de una ^(, ) son el estadstico
Varianza Muestral y el estadstico Cuasivarianza Muestral.
Denicion 5.3 La varianza muestral se dene como:
s
2
=

n
i=1
_
X
i


X
_
2
n
Denicion 5.4 La cuasivarianza muestral se dene como:
S
2
=

n
i=1
_
X
i


X
_
2
n 1
1
Por ser X
i
identicamente distribuidas
2
Por ser X
i
identicamente distribuidas
58 Captulo 5. Muestreo e Inferencia Estadstica
Sea ahora Z
1
, Z
2
, . . . , Z
n
una m.a.s procedente de Z ^(0, 1).
Entonces la variable CH
2
denida como se muestra a continuacion sigue el modelo de

2
Pearson con n grados de libertad .
CH
2
=
n

i=1
Z
2
i

2
n
Este modelo se utilizara para estudiar las caractersticas de los estadsticos anteriores.
Se tiene que:
n

i=1
_
X
i

_
2

2
n
Del mismo modo se puede demostrar que la variable
ns
2

2
sigue el modelo
2
n1
.
ns
2

2
=
n

i=1
_
X
i

_
2

2
n1
Tambien:
(n 1)S
2

2
=
n

i=1
_
X
i

_
2

2
n1
Nota.- La distribucion
2
Pearson es un caso particular de la distribucion
Gamma, con =
1
2
y r =
n
2
.

_
1
2
,
n
2
_

2
n
Por lo tanto, la media y la varianza son:
E(
2
n
) = n
V (
2
n
) = 2n
Volviendo a las variables denidas anteriormente, sus respectivas medias y varianzas son:
E
_
ns
2

2
_
= n 1
n

2
E(s
2
) = n 1 E(s
2
) =
n 1
n

2
E
_
(n 1)S
2

2
_
= n 1
n 1

2
E(S
2
) = n 1 E(S
2
) =
2
V
_
ns
2

2
_
= 2(n 1)
n
2

4
V (s
2
) = 2(n 1) V (s
2
) =
2(n 1)
n
2

4
V
_
(n 1)S
2

2
_
= 2(n 1)
(n 1)
2

4
V (S
2
) = 2(n 1) V (S
2
) =
2
n 1

4
Captulo 6
Estimacion Puntual
6.1. Inferencia Parametrica
Sea X una v.a. con distribucion f(x, ) de tipo conocido (binomial, normal, Poisson, ...),
pero de parametros desconocidos.
Es este captulo veremos como, a partir de unos datos experimentales, se estiman dichos
parametros desconocidos.
Denicion 6.1 Llamamos estimador a un estadstico que proporciona valores aproximados
del parametro desconocido.
Sea X
1
, . . . , X
n
una m.a.s. procedente de f(x, ), con desconocido, de tama no n; y
sea H(X
1
, . . . , X
n
) =
1
un estimador para .
Denicion 6.2 En el caso particular en que X
1
= x
1
, . . . , X
n
= x
n
,

(x
1
, . . . , x
n
) recibe
el nombre de estimacion para .
6.1.1. Error Cuadratico Medio
Denicion 6.3 Denimos el error cuadratico medio de

(ECM(

)) como:
ECM(

) = E((

)
2
) = E((E(

)+E(

)
2
) = E[(E(

))
2
+(E(

)
2
+
2( E(

))(E(

)] = ( E(

))
2
+V (

) +2( E(

)) 0 = ( E(

))
2
+V (

)
6.1.2. Insesgadez
Denicion 6.4 Dada la denicion de error cuadratico medio, llamamos sesgo a la expresion
E(

) . Es decir,
Sesgo(

) = E(

)
_
Si E(

) = , entonces

se dice insesgado o centrado para


Si E(

) ,= entonces

se dice sesgado.
Por lo tanto, podemos concluir que:
ECM(

) = Sesgo(

)
2
+V (

)
1
O lo que es lo mismo,

(X
1
, . . . , X
n
)
59
60 Captulo 6. Estimacion Puntual
El Estimador Media Muestral

X
Sea X
1
, . . . , X
n
una m.a.s. procedente de f(x, ); = E(X),
2
= V (X).
Consideremos como estimador para a la media muestral:

=

X
-

es centrado para = E(X), ya que:


E(

) = E(

X) = E(X) =
- V (

X) =
V (X)
n
=

2
n
. Por lo tanto:
ECM(

X) =

2
n
El Estimador Frecuencia Relativa fr(A)
Sea X
1
, . . . , X
n
una m.a.s. procedente de X B(1, p). De este modo podemos asegurar
que:
p

= fr(A) =

X =

X
i
n
=
n
A
n
E(fr(A)) = E(

X) = E(X) = p (tambien podemos decir que fr(A) es un estimador
insesgado para p)
V (fr(A)) = V (

X) =
V (X)
n
=
p(1 p)
n
ECM(fr(A)) =
p(1 p)
n
ECM de la Varianza y la Cuasivarianza Muestral
Para la varianza muestral tenemos que:
ECM(s
2
) =
_
n 1
n
1
_
2

4
+
2(n 1)
n
2

4
Mientras que en la cuasivarianza se cumple que:
ECM(S
2
) =
2
4
n 1
Se puede demostrar (hagase) el siguiente resultado: ECM(s
2
) < ECM(S
2
)
Ejemplo 6.1 Sea X ^(, ) y sea tambien X
1
, . . . , X
n
una m.a.s. procedente de X,
con desconocido.

=
n

i=1

i
X
i
con
n

i=1

i
= 1 (0
i
1) es un estimador insesgado
E(

) = E
_
n

i=1

i
X
i
_
=
n

i=1

i
E(X
i
) = E(X)
n

i=1

i
= E(X) =
Vamos a minimizar el ECM(

).
(
j
) = 0 +
2
n

i=1

2
i
=
2
n

i=1

2
i

_
n

i=1

i
1
_
Por el metodo de los multiplicadores de Lagrange tenemos que:

i
= 2
2

i
= 0 i = 1, . . . , n
= 2
2

i

i
=

2
2
(
i
no depende de i todos los
i
son iguales)

n
i=1

i
= 1 = n
i
= =
1
n
Decimos en este caso que

X es estimador insesgado de mnima varianza.
6.1 Inferencia Parametrica 61
6.1.3. Eciencia
Denicion 6.5 Sean

dos estimadores para . Si se cumple que


ECM(

)
ECM(

)
< 1
decimos que

es mas eciente que

.
Funcion de Verosimilitud L()
Sea X f(x, ) con f de tipo conocido y desconocido; y sea tambien X
1
, . . . , X
n
una
m.a.s. procedente de X.
Denicion 6.6 En las condiciones anteriores, denimos la funcion de verosimilitud como:
L() = g(X
1
, . . . , X
n
, ) = f
1
(X
1
, ) f
n
(X
n
, ) =
n

i=1
f(X
i
, ) (siendo las X
i
jas y variable)
Si, teniendo un valor de la muestra x
1
, . . . , x
n
se cumple que L(
1
) > L(
2
), se dice que

1
es mas verosmil que
2
.
Ejemplo 6.2 Sea X:N umero de caras al tirar una moneda 10 veces.
X B(10, p) con p [0, 1] desconocido.
Sea 2, 3, 5 una m.a.s. procedente de X.
L(p, X
1
, X
2
, X
3
) =
_
10
X
1
_
p
X
1
(1 p)
10X
1
_
10
X
2
_
p
X
2
(1 p)
10X
2
_
10
X
3
_
p
X
3
(1 p)
10X
3
=
=
_
10
X
1
__
10
X
2
__
10
X
3
_
p
X
1
+X
2
+X
3
(1 p)
10X
1
+10X
2
+10X
3
Por ejemplo, si L(p
1
, 2, 3, 5) > L(p
2
, 2, 3, 5) entonces podemos asegurar que con la
informacion muestral que tenemos, el valor de p
1
es mas verosmil que el valor de p
2
.
Teorema de Cramer-Rao
Teorema 6.1 Sea X f(x, ), con desconocido, X
1
, . . . , X
n
una m.a.s. procedente de
X, L() =

n
i=1
f(X
i
, ) cumpliendo condiciones de regularidad y

un estimador para .
Bajo estas premisas, el teorema de Cramer-Rao asegura que:
V ar(

)
_
E(

_
2
E
_
_
lnL()

_
2
_
Proposicion 6.1 Si

es insesgado, entonces E(

) = y por lo tanto:
E(

= 1
En cuanto al denominador de la expresion del teorema de Cramer-Rao, que denominare-
mos I
n
, podemos expresarlo de diferentes maneras:
I
n
= E
_
_
lnL()

_
2
_
= nE
_
_
lnf(X, )

_
2
_
= E
_

2
lnL()

2
_
Denicion 6.7 Decimos que

es eciente para si V ar(

) = Cota de Cramer Rao


62 Captulo 6. Estimacion Puntual
Ejemplo 6.3 Sea X ^(, ) con y desconocidos.
Tomamos como estimador

X =

.
Sabemos que V ar(

X) =
V ar(X)
n
=

2
n
y vamos a ver si la media muestral es estimador
eciente.
Como E(

X) = , el estimador

es insesgado, y por lo tanto:


E(

= 1
Por otra parte (la del denominador) tenemos lo siguiente:
f(X, ) =
1

2
e

1
2
(
X

)
2
L(, X
1
, . . . , X
n
) =
n

i=1
f(X
i
, ) =
1
_
2
_
n

n
e

1
2

n
i=1

X
i

2
lnL(, X
1
, . . . , X
n
) = ln
_
1
_
2
_
n

n
_
+ln
_
e

1
2

n
i=1

X
i

2
_
= ln(A)
1
2
n

i=1
_
X
i

_
2
lnL

= 0
1
2
2

i=1
_
X
i

_
=
1

i=1
_
X
i

_
=
1

2
_
n

i=1
X
i
n
_
_
lnL

_
2
=
1

4
_
_

X
i
_
2
2n

X
i
+n
2

2
_
E
_
_
lnL

_
2
_
= E
_
1

4
_
_

X
i
_
2
2n

X
i
+n
2

2
__
=
=
1

4
_
E
_
_

X
i
_
2
_
2nE
_

X
i
_
+n
2

2
_
=
=
1

4
_
V
_

X
i
_
+E
_

X
i
_
2
2nE
_

X
i
_
+n
2

2
_
=
=
1

4
_
n
2
+n
2

2
2n
2

2
+n
2

=
n
2

4
=
n

2
Por lo tanto, podemos decir que:
V (

X)
1
n

2
=

2
n
Y como V (

X) =

2
n
, se dice que

X alcanza la cota de Cramer-Rao.
Ejemplo 6.4 Vamos a ver ahora otra forma de calcular la misma expresion del ejemplo
anterior.
nE
_
_
lnf(X, )

_
2
_
f(X, ) =
1

2
e

1
2
(
X

)
2
lnf(X, ) = ln
1

1
2
_
X

_
2
6.1 Inferencia Parametrica 63
lnf(X, )

= 0 +
1

_
X

_
=
1

2
(X )
_
lnf(X, )

_
2
=
1

4
(X )
2
E
_
_
lnf(X, )

_
2
_
= E
_
1

4
(X )
2
_
=
1

4
E((X )
2
) =
1

4
V (X) =

2

4
=
1

2
nE
_
_
lnf(X, )

_
2
_
= n
1

2
Llegando igualmente al mismo resultado:
V (

X)
1
n
1

2
=

2
n
Ejemplo 6.5 Sea X B(1, p) con p [0, 1] desconocido; y sea X
1
, . . . , X
n
una m.a.s.
para estimar p.
Tomamos como estimador para p = T(A) a la frecuencia relativa de A,

X = fr(A) =
n
A
n
.
Sabemos que V ar(

X) =
V ar(X)
n
=
p(1 p)
n
y vamos a ver si la frecuencia relativa es
estimador eciente (es decir, si alcanza la cota de Cramer-Rao).
Como E(

X) = E(X) = p, el estimador fr(A) es insesgado para p, y por lo tanto:
E(fr(A)

)
fr(A)
= 1
Por otra parte tenemos que:
f(X, p) = p
X
(1 p)
1X
Ojo, aunque sea funcion puntual de probabilidad, seguiremos notandola por f
lnf(X, p) = X lnp + (1 X) ln(1 p)
lnf(X, p)
p
=
X
p

1 X
1 p
_
lnf(X, p)
p
_
2
=
X
2
p
2
+
(1 X)
2
(1 p)
2
2
X(1 X)
p(1 p)
E
_
_
lnf(X, p)
p
_
2
_
= E
_
X
2
p
2
+
(1 X)
2
(1 p)
2
2
X(1 X)
p(1 p)
_
=
=
1
p
2
_
V (X) +E(X)
2
_
+
1
(1 p)
2
_
V (1 X) +E(1 X)
2
_

2
p(1 p)
E(X(1 X)) =
=
1
p
2
(p(1 p) +p
2
) +
1
(1 p)
2
(p(1 p) + (1 p)
2
)
2
p(1 p)
(E(X) E(X
2
)) =
64 Captulo 6. Estimacion Puntual
=
1
p
2
(p(1p)+p
2
)+
1
(1 p)
2
(p(1p)+(1p)
2
)
2
p(1 p)
(pp(1p)p
2
) =
1
p
+
1
1 p
0 =
1
p(1 p)
Y, en consecuencia,
V (

X)
1
n
p(1 p)
=
p(1 p)
n
Y, por lo tanto podemos asegurar que el estimador frecuencia relativa es eciente.
6.1.4. Consistencia
Sea X f(x, ), con desconocido, y sea X
1
, . . . , X
n
una m.a.s. procedente de X, con

(X
1
, . . . , X
n
) =

.
Denicion 6.8 Decimos que

es consistente para si:


lm
x+
ECM(

) = 0
ECM(

) = (Sesgo(

))
2
+V ar(

)
n+
0
_
Sesgo(

)
n+
0
V ar(

)
n+
0
6.2. Metodos de Estimacion
Hasta ahora hemos visto distintas propiedades que es deseable que cumpla un estimador

, pero lo primero que se debe hacer es proponer un tal estimador. En esta seccion veremos
dos metodos para obtener estimadores.
6.2.1. Metodo de la Maxima Verosimilitud
Sea X f(x, ) con desconocido y sea X
1
, . . . , X
n
una m.a.s. procedente de X.
Como ya sabemos:
L(, X
1
, . . . , X
n
) =
n

i=1
f(X
i
, )
Ejemplo 6.6 Tenemos dos monedas, una trucada y otra sin trucar. Realizamos tres lanza-
mientos al aire, saliendo cara en las tres ocasiones.
A:Sale cara
p = T(A)
_
1
2
, 1
_
I:Salen 3 caras en 3 lanzamientos
L
_
1
2
, I
_
?
Si llamamos X
1
, X
2
, X
3
a una m.a.s. procedente de X B(1, p) entonces tenemos que:
L
_
1
2
, I
_
= L
_
1
2
, 1, 1, 1
_
= T
_
X
1
= 1[
p=
1
2
_
T
_
X
2
= 1[
p=
1
2
_
T
_
X
3
= 1[
p=
1
2
_
=
=
1
2

1
2

1
2
=
1
2
3
L(1, I) =

3
i=1
T (X
i
= x
i
[
p=1
) = 1 1 1 = 1
En otro caso:
L
_
1
2
, 1, 0, 1
_
=
1
2
3
L(1, 1, 0, 1) = 0
Por lo tanto, si I = 1, 1, 1 el valor mas verosmil para p es p = 1; mientras que si
I = 1, 0, 1, el valor mas verosmil para p es p =
1
2
.
6.2 Metodos de Estimacion 65
Denicion 6.9 Decimos que

MV
(X
1
, . . . , X
n
) es un estimador de maxima verosimilitud
para si se cumple que:
L(

MV
(X
1
, . . . , X
n
), X
1
, . . . , X
n
) = maxL(, X
1
, . . . , X
n
)
L(

, x
1
, . . . , x
n
) = maxL(, x
1
, . . . , x
n
), (x
1
, . . . , x
n
)
Ejemplo 6.7 Sea X ^(, ) y sea X
1
, . . . , X
n
una m.a.s. procedente de X. Entonces:
L(, X
1
, . . . , X
n
) =
1
_
2
_
n

n
e

1
2

n
i=1

X
i

2
dL()
d
= 0
Como la funcion ln es biyectiva, el valor que maximiza lnL() es el mismo que maximiza
L().
lnL() = lnA
1
2
n

i=1
_
X
i

_
2
dL()
d
=
1
2
2
n

i=1
_
X
i

__

_
=
1

i=1
_
X
i

_
= 0
1

2
_
n

i=1
X
i
n
_
= 0

MV
=

X
i
n
=

X;
d
2
L()
d
2
_
=
MV
< 0
Por otra parte tenemos que:
L(, X
1
, . . . , X
n
) =
1
_
2
_
n

n
e

1
2

n
i=1

X
i

2
L(
2
, X
1
, . . . , X
n
) =
1
_
2
_
n
(
2
)
n
2
e

1
2
2

n
i=1
(X
i
)
2
lnL(
2
) = ln
1
_
2
_
n

n
2
ln
2

1
2
2
n

i=1
(X
i
)
2
d lnL(
2
)
d
2
=
n
2
1

2
+
1
2(
2
)
2
n

i=1
(X
i
)
2
= 0
n +
1

2
n

i=1
(X
i
)
2
= 0

2
MV
=

n
i=1
(X
i
)
2
n
siendo conocido
Si es desconocido:

2
MV
=

n
i=1
(X
i


X)
2
n
66 Captulo 6. Estimacion Puntual
Ejemplo 6.8 Sea X U(a, b), f(x, a, b) =
_
_
_
1
b a
si x (a, b)
0 en el resto
L(a, b, X
1
, . . . , X
n
) =
_
_
_
1
(b a)
n
si a X
i
b, i
0 en el resto
a
MV
= minX
1
, . . . , X
n

b
MV
= maxX
1
, . . . , X
n

Propiedades de los Estimadores Maximo Verosmiles


Se dice que una propiedad se cumple asintoticamente cuando la misma es aproximada-
mente cierta cuando n es grande.
Propiedad 6.1

MV
es insesgado o, al menos, asintoticamente insesgado:
Sesgo(

MV
)
n+
0 o bien
(E(

MV
) )
n+
0
es decir,
E(

MV
) si n es grande
Propiedad 6.2

MV
es consistente:
ECM(

MV
)
n+
0
Propiedad 6.3 Son asintoticamente ecientes:
(CCR
2
V ar(

MV
))
n+
0
Propiedad 6.4

MV
tiene una distribucion asintoticamente normal:

MV
n grande

aprox
^
_
,
1

I
n
_
donde I
n
= Informacion de Fisher.
Propiedad 6.5 Si

MV
es un estimador de maxima verosimilitud para , y es una aplica-
cion derivable e invertible, entonces (

MV
) es un estimador de maxima verosimilitud para
().
6.2.2. Metodo de los Momentos
Sea X f(x,
1
, . . . ,
k
) con
1
, . . . ,
k
desconocidos.

X =

X
i
n
= E(X)

X
2
=

X
2
i
n
= E(X
2
)
.
.
.

X
k
=

X
k
i
n
= E(X
k
)
2
Cota de Cramer-Rao
6.2 Metodos de Estimacion 67
Ejemplo 6.9 Sea X ^(, ), con y desconocidos.

X = E(X) =

X
2
= E(X
2
) =
2
+
2
(V ar(X) =
2
= E(X
2
) E(X)
2
E(X
2
) =
2
+
2
)
_

X =

X
2
=
2
+
2


mom
=

X

2
mom
=

X
2
(

X)
2
=

X
2
i
n

_
X
2
i
n
_
2
=

n
i=1
(X
i


X)
2
n
Ejemplo 6.10 Sea X U(a, b) con a y b desconocidos.

X = E(X) =
a +b
2

X
2
= E(X
2
) =
(b a)
2
12
+
_
a +b
12
_
2
Ejemplo 6.11 Sea X U(0, b) con b desconocido.

X = E(X) =
b
2

b
mom
= 2

X
68 Captulo 6. Estimacion Puntual
Captulo 7
Intervalos de Conanza y Test de
Hipotesis
En este captulo pretendemos buscar un intervalo de valores que contenga al parametro
desconocido, con una probabilidad prejada de (1 ).
7.1. Intervalos de Conanza
Sea X f(x, ) con desconocido.
Y sea (

1
,

2
) tal que la probabilidad de que (

1
,

2
) contenga el verdadero valor de es
de (1 ) jada de antemano:
T( (

1
,

2
)) = 1
7.1.1. Metodo de Construccion
Sea X
1
, X
2
, . . . , X
n
una m.a.s. procedente de X f(x, ).
Los pasos a seguir para construir un intervalo para el parametro son:
1. Construir w = g(X
1
, . . . , X
n
, ), que recibe el nombre de estadstico pivote, tal que:
a) Sea monotona en .
b) Tenga distribucion conocida.
c) Su distribucion no dependa de ning un parametro desconocido.
2. Encontrar a, b, tales que
T(a w b) = 1
Estos valores a y b deben ser tales que el intervalo que denen sea el mas corto posible.
3. Invertir la funcion w para encontrar dos estimadores

1
y

2
tales que:
T(a w b) T(

2
)
Ejemplo 7.1 Dada w ^(0, 1), encontrar el intervalo de conanza para el cual 1 = 0

95
b = Z
0

975
= 1

96
a = b = 1

96
T(w (a, b)) = 0

95
69
70 Captulo 7. Intervalos de Conanza y Test de Hipotesis
Proposicion 7.1 Sea X ^(, ) con conocida y desconocida.
Entonces, en primer lugar, denimos el estadstico pivote como:
w =

X

n
Sabiendo que

X ^
_
,

n
_
concluimos que:
w ^(0, 1)
Y por lo tanto,
T
_
Z
1

n
Z
1

2
_
= 1
T
_
Z
1

n


X Z
1

n
_
= 1
T
_
_
_
_
_

X Z
1

n
. .

1


X +Z
1

n
. .

2
_
_
_
_
_
= 1
Proposicion 7.2 Sea X ^(, ) con y desconocidas. Se tiene que:

X ^
_
,

n
_
Z =

X

n
^(0, 1)
Por otra parte, se cumple lo siguiente:
S
2
=
n

i=1
(X
i


X)
2
n 1
(n 1)S
2

2

2
n1
t =
Z
_

2
n
n
t
n
t =

n
_
(n1)S
2
(n1)
2
=

X
S

n
t
n1
Es decir, el estadstico pivote es t, y por lo tanto:
T
_
t
n1,1

X
S

n
t
n1,1

2
_
= 1
T
_
t
n1,1

2
S

n


X t
n1,1

2
S

n
_

T
_
_
_
_
_

X t
n1,1

2
S

n
. .

1


X +t
n1,1

2
S

n
. .

2
_
_
_
_
_
= 1
Nota.- Z
1

2
es la abcisa de la distribucion normal que deja a su izquierda un
area de 1

2
.
Del mismo modo t
n1,1

2
es la abcisa de la distribucion t de Student con n 1
grados de libertad que deja a su izquierda un area de 1

2
.
7.1 Intervalos de Conanza 71
Ejemplo 7.2 Dada X ^(, 0

1) y X
1
, . . . , X
16
con

X = 18

063 calcular un intervalo de


conanza al 95 % para el parametro desconocido .
IC =
_

X Z
1

n
_
=
_
18

063 1

96
0

16
_
Proposicion 7.3 Sea X B(1, p) y X
1
, . . . , X
n
una m.a.s. procedente de X. Por lo tanto,
f(X
i
, p) = p
X
i
(1 p)
1X
i
, con X
i
0, 1. Entonces:
L(p, X
1
, . . . , X
n
) =
n

i=1
f(X
i
, p) =
n

i=1
p
X
i
(1 p)
1X
i
= p

n
i=1
X
i
(1 p)

n
i=1
(1X
i
)
lnL(p) =
n

i=1
X
i
lnp +
n

i=1
(1 X
i
) ln(1 p)
d lnL(p)
dp
=

n
i=1
X
i
p

n
i=1
(1 X
i
)
1 p
= 0
(1 p)
n

i=1
X
i
= p
n

i=1
(1 X
i
)
n

i=1
X
i
p
_
n

i=1
X
i
+
n

i=1
(1 X
i
)
_
= 0
n

i=1
X
i
pn = 0 p
MV
=

n
i=1
X
i
n
=

X = fr(A)
Proposicion 7.4 Sea X B(n, p)
L(p, X) =
_
n
X
_
p
X
(1 p)
nX
lnL = ln
_
n
X
_
+X lnp + (n X) ln(1 p)
d lnL(p)
dp
=
X
p

n X
1 p
= 0
X(1 p) (n X)p = 0
X np = 0 p
MV
=
X
n
Proposicion 7.5 Una muestra de tama no n de una distribucion B(1, p) es equivalente a una
sola observacion de una B(n, p)
Sea X B(k, p) con X
1
, . . . , X
n
una m.a.s. procedente de X. Por lo tanto f(X
i
, p) =
p
X
i
(1 p)
kX
i
_
k
X
i
_
con X
i
0, 1, . . . , k. Entonces:
L(p, X
1
, . . . , X
n
) =
n

i=1
f(X
i
, p) =
n

i=1
p
X
i
(1p)
kX
i
_
k
X
i
_
=
_
n

i=1
_
k
X
i
_
_
. .
A
p

n
i=1
X
i
(1p)

n
i=1
(kX
i
)
lnL(p) =
n

i=1
X
i
lnp +
n

i=1
(k X
i
) ln(1 p) + lnA
72 Captulo 7. Intervalos de Conanza y Test de Hipotesis
d lnL(p)
dp
=

n
i=1
X
i
p

n
i=1
(k X
i
)
1 p
= 0
(1 p)
n

i=1
X
i
= p
_
kn
n

i=1
X
i
_
n

i=1
X
i
pkn = 0 p
MV
=

n
i=1
X
i
kn
=

X
k
Proposicion 7.6 Sea X f(x, ), con desconocido. Un IC para es:
(

MV
Z
1

D(

MV
))
donde

MV
es EMV
1
para , ya que

D(

MV
) =
1
_
I
n
(

MV
)
1. Si n es grande E(

MV
)
2. Si n es grande V (

MV
)
1
I
n
3. Si n es grande

MV

aprox
^
_
,
1

I
n
_
z =

MV

1

I
n

aprox
^(0, 1) y as
T
_
Z
1

MV

1

I
n
Z
1

2
_
= 1
Si queremos comparar dos medias o dos desviaciones tpicas
Proposicion 7.7 Sean las siguientes variables aleatorias:
X
1
^(
1
,
1
)
X
2
^(
2
,
2
)
El IC de conanza para
1

2
, o para

1

2
puede construirse atendiendo a los casos de
las tablas del apendice D.
Existiendo para la interpretacion del intervalo de conanza para la diferencia de medias
dos posibilidades:
0 IC No se aprecian diferencias signicativas entre

X
1
y

X
2
0 / IC Existen diferencias signicativas entre

X
1
y

X
2
Y existiendo para la interpretacion del intervalo de conanza para el cociente de desvia-
ciones tpicas dos posibilidades:
En el IC para

2
1

2
2
Si 1 IC No se aprecian diferencias signicativas entre
2
1
=
2
2
Si 1 / IC Existen diferencias signicativas entre
2
1
=
2
2
1
Estimador de Maxima Verosimilitud
7.2 Test o Contraste de Hipotesis 73
7.2. Test o Contraste de Hipotesis
Sea X f(x, ), con desconocido. Los procedimientos de estimacion para que hemos
estudiado o vamos a estudiar son:
Estimacion puntual.
Construir un estimador

para y evaluar ECM(

)
Estimacion por intervalos.
Construir un intervalo de conanza (

1
,

2
) para tal que contiene a con probabilidad
1 .
Test o contraste de hipotesis.
Denir dos hipotesis:
Hipotesis Nula H
0
:
0
Hipotesis Alternativa H
A
2
:
1
(donde =
0

1
es el conjunto de valores posibles para ) para nalmente apoyar
una u otra.
Ejemplo 7.3 X B(1, p)
H
0
: p = 0

4 H
0
: p 0

5
H
A
: p ,= 0

4 H
A
: p > 0

5
Ejemplo 7.4 X ^(, ) con desconocido.
H
0
:
0
H
0
: =
0
H
A
: >
0
H
A
: ,=
0
Nota.- Los dos tests siguientes son distintos:
H
0
:
0
H
0
:
0
H
A
: <
0
H
A
: >
0
Y esto se debe a que la hipotesis nula es la que se acepta de antemano. As, cuando se
rechaza la hipotesis nula para aceptar (que no armar) la hipotesis alternativa, se dice que
se llega a una conclusion fuerte. Si, por el contrario, se rechaza la hipotesis alternativa para
aceptar la hipotesis nula se dice que se llega a una conclusion debil.
Pero a la hora de aceptar o rechazar una hipotesis u otra, podemos equivocarnos.
Los dos tipos de errores que podemos cometer se muestran a continuacion en la siguiente
tabla:
Decision que se toma
Aceptar H
0
Rechazar H
0
Hipotesis H
0
Correcto Error (tipo I) (I)
Cierta H
A
Error (tipo II) (II) Correcto
Llamaremos
= T((I)) = T(rechazar H
0
[
H
0
es cierta
)
= T((II)) = T(aceptar H
0
[
H
0
es falsa
)
Para intentar menguar al maximo estos dos errores habra que aumentar el tama no de la
muestra.
Pero si la muestra es ja (nuestro caso) solo podemos controlar un tipo de error, que
normalmente ser a el de tipo I.
Para ello jamos n, jamos y nos quedamos con el test de maxima potencia.
74 Captulo 7. Intervalos de Conanza y Test de Hipotesis
Funcion Potencia de un Test
Denicion 7.1 Llamamos funcion potencia de un test a la funcion
() = T(rechazar H
0
[

)
Sabiendo que:
H
0
:
0
H
A
:
1
podemos armar que
() = T(rechazar H
0
[

0
) = ()
() = T(rechazar H
0
[

1
) = 1 T(aceptar H
0
[

1
) = 1 ()
Figura 7.1: Tests de hipotesis
Observese que el test de la gura 7.1.(b) corresponde a un test ideal, mientras que la
gura 7.1.(a) corresponde a un test real.
Ejemplo 7.5 .
H
0
: =
0
H
A
: ,=
0
Figura 7.2: Test de hipotesis
Sea X ^(, ) con y desconocidos, y sea

X = X
1
, . . . , X
n
una m.a.s. procedente
de X.
Vamos a construir los siguientes tests:
a)
H
0
: =
0
H
A
: ,=
0
7.2 Test o Contraste de Hipotesis 75
b) (Cuando

X >
0
)
H
0
:
0
H
A
: >
0

H
0
: =
0
H
A
: >
0
c) (Cuando

X <
0
)
H
0
:
0
H
A
: <
0

H
0
: =
0
H
A
: <
0
Los pasos a seguir para construir los tests son:
1. Se construye una discrepancia entre la muestra y la hipotesis nula H
0
.
D(

X, H
0
) =

X
0
S

n
t
n1
2. Se observa el valor del estadstico de contraste D, que llamaremos

d, y se decide
que hipotesis se acepta y cual se rechaza en funcion de dicho valor.
Test a)
= T([D(

X, H
0
)[ > k[
=
0
) = T
_
_

X
0
S

> k

=
0
_
_

= T([t
n1
[ > k) = 1 T([t
n1
[ k)
1 = T(k t
n1
k) k = t
n1,1

2
Si

d (t
n1,1

2
, t
n1,1

2
) = R.A.
3
aceptamos H
0
Si

d / (t
n1,1

2
, t
n1,1

2
) = R.R.
4
rechazamos H
0
Test b)
= T(D(

X, H
0
) > k[
=
0
) = T
_
_

X
0
S

n
> k

=
0
_
_

= T(t
n1
> k) 1 = T(t
n1
k) k = t
n1,1
Si

d t
n1,1
aceptamos H
0
Si

d > t
n1,1
rechazamos H
0
Test c)
= T(D(

X, H
0
) < k[
=
0
) = T
_
_

X
0
S

n
< k

=
0
_
_

= T(t
n1
< k) 1 = T(t
n1
k) k = t
n1,
= t
n1,1
Si

d t
n1,1
aceptamos H
0
Si

d < t
n1,1
rechazamos H
0
3
Region de Aceptacion
4
Region de Rechazo
76 Captulo 7. Intervalos de Conanza y Test de Hipotesis
Ejemplo 7.6 .
H
0
: = 18
H
A
: ,= 18
n = 16 S = 0

2616

X = 18

063 = 0

05
R.A. = (t
n1,1

2
, t
n1,1

2
) = (t
15,0

975
, t
15,0

975
) = (2

13, 2

13)

d =
18

063 18
0

2616

16
= 0

9633
Como

d R.A., aceptamos H
0
Ejemplo 7.7 .
H
0
: = 18
H
A
: > 18
n = 16 S = 0

2616

X = 18

063 = 0

05
R.A. = (, t
n1,1
) = (, t
15,0

95
) (, 2)

d =
18

063 18
0

2616

16
= 0

9633
Como

d R.A., aceptamos H
0
Nota.- Observese que, para el ejemplo anterior, el test
H
0
: 18
H
A
: < 18
es absurdo, pues los datos (

X = 18

063) ya apoyan a H
0
.
La discrepancia D sigue una distribucion conocida si la hipotesis H
0
es cierta.
Por ejemplo, en el caso de desconocida cuando X ^(, ):
D =

X
0
S

n
t
n1
donde
0
es el valor que formula H
0
.
Como ya dijimos anteriormente, al valor observado de D se le llama estadstico de con-
traste y se le denota por

d.
P-valor
Se dene el P-valor como la probabilidad de observar una discrepancia mayor o igual que
la observada.
Test a)
P valor = T([D[ >

d[
H
0
cierta
)
Test b)
P valor = T(D >

d[
H
0
cierta
)
Test c)
P valor = T(D <

d[
H
0
cierta
)
Para cualquiera de los tres tests anteriores se cumple que:
P valor >

d R.A. aceptamos H
0
P valor <

d / R.A. rechazamos H
0
Ejemplo 7.8 Seg un los datos del ejemplo 7.7. se tiene que:
P valor = T(t
n1
> 0

9636) +T(t
n1
< 0

9636)
En las tablas del Apendice D podemos ver todos los casos de tests de Hipotesis de los
parametros mas corrientes.
Captulo 8
Relacion entre Variables
8.1. Introduccion
En este tema estudiamos como construir un modelo para representar la dependencia de
una variable Y (variable aleatoria dependiente, de naturaleza continua) con un conjunto de
variables X
1
, . . . , X
k

1
(variables independientes que supondremos no aleatorias para que
no introduzcan un error asociado de observacion).
Dependiendo del tipo de variables independientes, utilizaremos un metodo u otro para
analizar la relacion entre variables. De este modo, tenemos que:
Y :
variable dependiente
v.a. continua
_

_
X
1
, . . . , X
k

variables
independientes
cualitativas
ANOV A
X
1
, . . . , X
k

variables
independientes
continuas
Regresion
X
1
, . . . , X
k

variables independientes
discretas o cualitativas
unas y continuas otras
ANCOV A
Nosotros solo estudiaremos las tecnicas de ANOVA (Analisis de la Varianza) con un solo
factor y las tecnicas de regresion para una o varias variable/s independiente/s, dejando las
tecnicas de ANCOVA (analisis de la covarianza) para cursos posteriores.
8.2. ANOVA
Sea X una variables independiente (no aleatoria) con x
1
, . . . , x
k
niveles o tratamientos.
La informacion muestral que vamos a tener se muestra a continuacion en la siguiente
tabla:
x
1
x
2
x
k
y
1,1
y
1,2
y
1,k
y
2,1
y
2,2
y
2,k
.
.
.
.
.
.
.
.
.
.
.
.
y
n
1
,1
y
n
2
,2
y
n
k
,k

Y
1

Y
2


Y
k

Y
1
Nosotros consideraremos una sola variable independiente X con x
1
, . . . , x
k
niveles.
77
78 Captulo 8. Relacion entre Variables
La hipotesis o modelo al que vamos a ajustar es:
y
i,j
^(
j
, )
Como ya hemos dicho antes, nuestro objetivo sera desarrollar un test de hipotesis. En
concreto trataremos con el siguiente:
H
0
:
1
=
2
= =
k
(Y no guarda relacion con X)
H
A
: i ,= j /
i
,=
j
(Y s guarda relacion con X)
Por lo tanto, se denen las sumas de cuadrados (SC) como:
SC
TOTAL
=
k

j=1
n
j

i=1
(y
i,j


Y )
2
=
k

j=1
n
j
(

Y
j


Y )
. .
SC
ENTRE
+
k

j=1
n
j

i=1
(y
i,j


Y
j
)
2
. .
SC
DENTRO
SC
ENTRE
: Si es peque na diferencias signicativas entre las medias muestrales de los
k grupos relacion entre las variables. Tambien se llama SC
EXPLICADA
.
SC
DENTRO
: Suma de las varianzas que hay dentro de cada uno de los k grupos. Esta es
la que no sabemos justicar. Tambien se llama SC
RESIDUAL
.
Al tipo de SC tambien se les llama fuentes de variacion.
8.2.1. Tabla ANOVA
Siendo n = n
1
+ +n
j
+ +n
k
y nk = (n1) (k 1), tenemos la siguiente tabla:
Fuente SC CM Estadstico F
Entre SC
ENTRE
CM
ENTRE
=
SC
ENTRE
k 1
F =
CM
ENTRE
CM
DENTRO
T
k1,nk
Dentro SC
DENTRO
CM
DENTRO
=
SC
DENTRO
n k
Total SC
TOTAL
CM
TOTAL
=
SC
TOTAL
n 1
donde CM: Cuadrados Medios.
Ahora se ja un (nivel de signicacion).
Los valores grandes de F apoyan la relacion entre las variables (rechazar H
0
). Es decir,
Si F > T
k1,nk,1
rechazamos H
0
O lo que es lo mismo,
Si P valor = T(T
k1,nk
> F) < rechazamos H
0
8.3 Analisis de Regresion 79
8.3. Analisis de Regresion
Sea Y una v.a. continua, y sean X
1
, . . . , X
k
variables no aleatorias de naturaleza tambien
continua.
La siguiente tabla muestra la informacion muestral de la cual disponemos:
Y X
1
X
k
y
1
x
1,1
x
1,k
.
.
.
.
.
.
.
.
.
y
i
x
i,1
x
i,k
.
.
.
.
.
.
.
.
.
y
n
x
n,1
x
n,k
El modelo al que vamos a ajustar los datos es:
X = (X
1
, . . . , X
k
)
X = x (X
1
= x
1
, . . . , X
k
= x
k
), x = (x
1
, . . . , x
k
)
Y [
X=x
^(x +, )
siendo x + = (x
1
, . . . , x
k
)
_
_
_

1
.
.
.

k
_
_
_
+
Figura 8.1: Recta de Regresion
Las hipotesis en que se basa este modelo son:
1. Hipotesis de Normalidad Y [
X=x
^(E(Y [
x
), (Y [
x
))
2. Hipotesis de Linealidad E(Y [
x
) = x +
3. Hipotesis de Homocedasticidad V (Y [
x
) =
2
x
En conclusion se tiene que, como ya hemos dicho,
Y [
X=x
^(x +, ) Y [
x
= x + +
con ^(0, ) (termino de perturbacion aleatorio).
Nota.- Cualquier variable se puede expresar como suma de su media y otra
variable de media 0 e igual desviacion tpica.
X ^(, ) Z = X ; Z ^(0, )
80 Captulo 8. Relacion entre Variables
La variable recoge a todos los factores que inuyen en Y y que no han sido considerados
en el modelo.
En funcion de esta variable , as de buena o mala sera nuestra prediccion mediante rectas
de regresion.
El siguiente punto consiste en estimar los parametros poblacionales y , mediante los
datos experimentales.
Si se tiene que:
Y [
x
= x
1

1
+x
2

2
+ +x
k

k
+ +
Y a nadimos una columna de unos a nuestros datos:
Y X
1
X
k
X
k+1
y
1
x
1,1
x
1,k
1
.
.
.
.
.
.
.
.
.
.
.
.
y
i
x
i,1
x
i,k
1
.
.
.
.
.
.
.
.
.
.
.
.
y
n
x
n,1
x
n,k
1
(A esta tabla la llamaremos

X)
Entonces se cumple lo siguiente:
Y [
x
^(x +, ) ^( x

, )
Y [
x
= x
1

1
+x
2

2
+ +x
k

k
+x
k+1
+
siendo x = (x
1
, x
2
, . . . , x
k
, 1) y

=
_
_
_
_
_

1
.
.
.

_
_
_
_
_
La estimacion de , que llamamos

b es

b = (

X
t

X)
1

X
t
Y
Dem.-
n

i=1
(Y
i
X
i
)
2
= (Y X)
t
(Y X) = Y
t
Y
t
X
t
Y Y
t
X+
t
X
t
X = Y
t
Y 2
t
X
t
Y +
t
X
t
X
()

= 2X
t
Y + 2X
t
X = 0
(X
t
X)
1
X
t
Y + = 0

= (X
t
X)
1
X
t
Y

Supongamos ahora que solo tenemos una variable independiente X. De este modo Y [
x
=
+x +, utilizando datos apareados (x
i
, y
i
)
i=1,...,n
para el problema de estimacion.
8.3 Analisis de Regresion 81
La funcion de verosimilitud resulta ser:
L(, ) =
n

i=1
f(X
i
, Y
i
, , ) =
1
(

2)
n

n
e

1
2
2

n
i=1
(Y
i
(+X))
2
Y, en el caso de la distribucion normal, maximizar L tambien se consigue minimizando
el exponente del n umero e. Es decir, minimizando
(, ) =
n

i=1
(Y
i
( +X
i
))
2
Dicho metodo recibe el nombre de procedimiento de mnimos cuadrados.
Figura 8.2: Procedimiento de los mnimos cuadrados
Por lo tanto a y b son estimaciones de y , respectivamente, tales que

n
i=1
(y
i
( +
x
i
))
2
es un mnimo de (, ).
Llamamos residuo a las diferencias e
i
= (y
i
( +x
i
))
A la hora de derivar

n
i=1
e
i
, siempre que haya mas de una variable independiente, emplea-
remos un software estadstico. No obstante, a continuacion se muestra el desarrollo teorico.
Dem.-
(, ) =
n

i=1
(Y
i
( +X
i
))
2

= 2
n

i=1
(Y
i
( +X
i
))
2
= 0

= 2
n

i=1
(Y
i
( +X
i
))
2
X
i
= 0
n

i=1
Y
i
n
n

i=1
X
i
= 0
=

Y

X =

Y


X
n

i=1
X
i
Y
i
(

Y

X)
n

i=1
X
i

i=1
X
2
i
= 0
n

i=1
X
i
Y
i


Y
n

i=1
X
i

_
n

i=1
X
2
i


X
n

i=1
X
i
_
= 0

n
i=1
X
i
Y
i

n
i=1
X
i

n
i=1
X
2
i


X

n
i=1
X
i
=

XY

Y

X

X
2
(

X)
2
=
Cov(X, Y )
V ar(X)

82 Captulo 8. Relacion entre Variables


Denicion 8.1
SC
TOTAL
=
n

i=1
(y
i

Y )
2
=
n

i=1
(y
i
f(x
i
) +f(x
i
)

Y )
2
=
n

i=1
(y
i
f(x
i
))
2
. .
SC
RESIDUAL
+
n

i=1
f(x
i
)

Y )
2
. .
SC
EXPLICADA
Si SC
EXPLICADA
es peque na, sera porque las medias casi no varan con X, es decir, no
hay relacion.
Figura 8.3: Variables relacionadas (izqda) y no relacionadas(dcha)
As, denimos el coeciente de determinacion
R
2
=
SC
EXPLICADA
SC
TOTAL
R [0, 1]
que representa la proporcion de varianza de Y explicada por el modelo f(X) . Es decir, es
una medida de la bondad del ajuste.
Los dos tests de hipotesis que se aplican en este caso son:
1) Test Global
H
0
:
1
=
2
= =
k
= 0 Y no depende de ninguna X
H
A
: j /
j
,= 0 Y depende de alguna X
j
Para resolver este test se construye una tabla ANOVA.
Fuente SC Grados de Libertad CM Estadstico F
Explicada SC
EXPL
k CM
EXPL
=
SC
EXPL
k
F =
CM
EXPLICADA
CM
RESIDUAL
Residual SC
RESI
n k 1 CM
RESI
=
SC
RESI
n k 1
Total SC
TOTAL
n 1
De tal manera que si H
0
es cierta F T
k,nk1
(vease gura 8.4).
Las Reglas de decision son las mismas de siempre:
Si F > T
k,nk1
rechazamos H
0
Si F < T
k,nk1
aceptamos H
0
Si P valor = T(T
k,nk1
> F) < rechazamos H
0
Si P valor = T(T
k,nk1
> F) > aceptamos H
0
8.3 Analisis de Regresion 83
Figura 8.4: T de Snedecor
Si aceptamos H
0
ya hemos terminado. Pero si rechazamos H
0
para aceptar H
A
, el siguiente
paso sera dilucidar de que variables depende Y y de cuales no.
2) Test individual para
j
H
0
:
j
= 0 Y no depende de X
j
H
A
:
j
,= 0 Y s depende de X
j
Construimos el siguiente estadstico de contraste:
t =
b
j
S(b
j
)
t
nk1
Y si construimos un IC para
j
, este sera el que sigue:
IC(
j
) = (b
j
t
nk1,1

2
S(b
j
)
Las Reglas de decision siguen siendo las mismas:
Si 0 IC(
j
) aceptamos H
0
Si 0 / IC(
j
) rechazamos H
0
Si P valor < rechazamos H
0
Si P valor > aceptamos H
0
Por lo tanto, si aceptamos H
0
y la variable Y no depende de X
j
, lo correcto es eliminar
esta variable del modelo.
Sabiendo que ^(0, ) Y [
x
^(f(x), ), si representamos los puntos residuales
e
i
= y
i
f(x
i
) frente a los valores ajustados f(x
i
), debe de salirnos (si hemos construido
correctamente el modelo) una nube de puntos, que no presente estructura alguna.
De lo contrario, si los puntos residuales maniestan alg un tipo de estructura, querra decir
que el modelo no es correcto, pues no incluye dicha estructura.
Figura 8.5: e
i
vs f(x
i
)
84 Captulo 8. Relacion entre Variables
Apendice A. Tabla de Modelos.
Modelo Puntual/Densidad Dominio Parametros Media Varianza
Bernoulli
b(p)
p
x
(1 p)
1x
0, 1 0 < p < 1 p p(1 p)
Binomial
B(n, p)
_
n
x
_
p
x
(1 p)
nx
0, 1, ..., n
0 < p < 1
1 n N
np np(1 p)
Poisson
P()
e

x
x!
0, 1, 2, ... > 0
Hipergeom etrica
H(N, n, p)
(
pN
x
)(
N(1p)
nx
)
(
N
n
)
0, 1, ..., n
1 n N N
p 0,
1
N
, ..., 1
np np(1 p)
Nn
N1
Geom etrica
G(p)
p(1 p)
x1
1, 2, 3, ... 0 < p < 1
1
p
1p
p
2
BinomialNegativa
BN(p, r)
_
r+x1
x
_
p
r
(1 p)
x
0, 1, 2, ... 0 < p < 1, r > 0
r(1p)
p
r(1p)
p
2
Uniforme
U(a, b)
1
ba
(a, b) a < b
a+b
2
(ba)
2
12
Exponencial
Exp()
e
x
(0, ) > 0
1

2
Normal
N(, )
1

2
2
e

(x)
2
2
2
(, )
< <
> 0

2
Beta
(p, q)
1
B(p,q)
x
p1
(1 x)
q1
(0, 1) p > 0, q > 0
p
p+q
pq
(p+q)
2
(p+q+1)
Gamma
(a, p)
a
p
(p)
x
p1
e
ax
(0, ) a > 0, p > 0
p
a
p
a
2
Weibull
W(, )
x
1
e
x

(0, ) > 0, > 0


(1+
1

1/
(1+
2

)
2
(1+
1

1/
Ji Cuadrado

2
n
1
2
n/2
(n/2)
x
n/21
e
x/2
(0, ) 1 n N n 2n
t Student
t
n
(
n+1
2
)

n(n/2)
_
1 +
x
2
n
_

n+1
2
(, ) 1 n N
0 si n > 1
si n = 1
n
n2
si n > 2
si n = 2
F Snedecor
F
n,m
(m/n)
m/2
B(m/2,n/2)
x
m
2
1
(1+
m
n
x)
m+n
2
(, )
1 n N
1 m N
n
n+2
2n
2
(n+m2)
m(n2)
2
(n4)
Cauchy
C(, )

((x)
2
+
2
)
(, )
< <
> 0

85
86 Apendice A. Tabla de Modelos.
Apendice B. Tablas de ANOVA.
Tabla ANOVA:
Fuente S. Cuadrados G. libertad Media C. Estadstico
Entre grupos: SC
Entre
=

n
i
_
Y
i
Y

_
2
k 1 MC
Entre
=
SC
Entre
k 1
MC
Entre
MC
Dentro
Dentro=Residual SC
Dentro
=
_
Y
ij
Y
i
_
2
n k MC
Dentro
=
SC
Dentro
n k
Total SC
Total
=
_
Y
ij
Y

_
2
n 1
siendo
Y
i
=
1
n
i

j
Y
ij
Y

=
1
n

i
n
i
Y
i
=
1
n

j
Y
ij
Tabla ANOVA para el Analisis de Regresion:
Fuente S. Cuadrados Grados libertad Media de Cuadrados Estadstico
Regresion SC
Regr
= ns
2
X

2
1
1 MC
Regr
=
SC
Regr
1
MC
Regr
MC
Resid
Residuos SC
Resid
= ns
2
Y
_
1
s
2
XY
s
2
X
s
2
Y
_
n 2 MC
Resid
=
SC
Resed
n 2
Total corregida SC
Total
= SC
Regr
+SC
Resid
n 1
siendo

1
=
s
XY
s
2
X
,

0
= Y

1
X,

Y
i
=

0
+

1
X
i
, el coeciente de determinacion
R
2
=
SC
Regr
SC
Total
=

Y
i
Y
_
2
_
Y
i
Y
_
2
=
s
2
XY
s
2
X
s
2
Y
y la varianza residual
s
2
r
=
n
n 2
s
2
Y
_
1
s
2
XY
s
2
X
s
2
Y
_
87
88 Apendice B. Tablas de ANOVA.
Apendice C. Tablas: Normal 0/1, t
de Student y T de Snedecor.
^(0,1)
x F(x)
0.00 0.5000
0.02 0.5080
0.04 0.5160
0.06 0.5239
0.08 0.5319
0.10 0.5398
0.12 0.5478
0.14 0.5557
0.16 0.5636
0.18 0.5714
0.20 0.5793
0.22 0.5871
0.24 0.5948
0.26 0.6026
0.28 0.6103
0.30 0.6179
0.32 0.6255
0.34 0.6331
0.36 0.6406
0.38 0.6480
x F(x)
0.40 0.6554
0.42 0.6628
0.44 0.6700
0.46 0.6772
0.48 0.6844
0.50 0.6915
0.52 0.6985
0.54 0.7054
0.56 0.7123
0.58 0.7190
0.60 0.7257
0.62 0.7324
0.64 0.7389
0.66 0.7454
0.68 0.7517
0.70 0.7580
0.72 0.7642
0.74 0.7703
0.76 0.7764
0.78 0.7823
x F(x)
0.80 0.7881
0.82 0.7939
0.84 0.7995
0.86 0.8051
0.88 0.8106
0.90 0.8159
0.92 0.8212
0.94 0.8264
0.96 0.8315
0.98 0.8365
1.00 0.8413
1.02 0.8461
1.04 0.8508
1.06 0.8554
1.08 0.8599
1.10 0.8643
1.12 0.8686
1.14 0.8729
1.16 0.8770
1.18 0.8810
x F(x)
1.20 0.8849
1.22 0.8888
1.24 0.8925
1.26 0.8962
1.28 0.8997
1.30 0.9032
1.32 0.9066
1.34 0.9099
1.36 0.9131
1.38 0.9162
1.40 0.9192
1.42 0.9222
1.44 0.9251
1.46 0.9279
1.48 0.9306
1.50 0.9332
1.52 0.9357
1.54 0.9382
1.56 0.9406
1.58 0.9429
89
90 Apendice C. Tablas: Normal 0/1, t de Student y T de Snedecor.
x F(x)
1.60 0.9452
1.62 0.9474
1.64 0.9495
1.66 0.9515
1.68 0.9535
1.70 0.9554
1.72 0.9573
1.74 0.9591
1.76 0.9608
1.78 0.9625
1.80 0.9641
1.82 0.9656
1.84 0.9671
1.86 0.9686
1.88 0.9699
1.90 0.9713
1.92 0.9726
1.94 0.9738
1.96 0.9750
1.98 0.9761
x F(x)
2.00 0.9772
2.02 0.9783
2.04 0.9793
2.06 0.9803
2.08 0.9812
2.10 0.9821
2.12 0.9830
2.14 0.9838
2.16 0.9846
2.18 0.9854
2.20 0.9861
2.22 0.9868
2.24 0.9875
2.26 0.9881
2.28 0.9887
2.30 0.9893
2.32 0.9898
2.34 0.9904
2.36 0.9909
2.38 0.9913
x F(x)
2.40 0.99180
2.42 0.99220
2.44 0.99270
2.46 0.99310
2.48 0.99340
2.50 0.99380
2.52 0.99410
2.54 0.99450
2.56 0.99480
2.58 0.99510
2.60 0.99530
2.62 0.99560
2.64 0.99590
2.66 0.90610
2.68 0.99630
2.70 0.99650
2.72 0.99670
2.74 0.99690
2.76 0.99710
2.78 0.99730
x F(x)
2.80 0.99740
2.82 0.99760
2.84 0.99770
2.86 0.99790
2.88 0.99800
2.90 0.99810
2.92 0.99820
2.94 0.99840
2.96 0.99850
2.98 0.99860
3.00 0.99865
3.10 0.99904
3.20 0.99931
3.30 0.99952
3.40 0.99966
3.50 0.99976
3.60 0.99984
3.80 0.99993
4.00 0.99997
4.50 1.00000
Apendice C. Tablas: Normal 0/1, t de Student y T de Snedecor. 91
t-Student
n t
0,995
t
0,99
t
0,975
t
0,95
t
0,90
t
0,80
t
0,75
t
0,70
t
0,60
t
0,55
1 63,66 31,82 12,71 6,31 3,08 1,376 1,000 0,727 0,325 0,158
2 9,92 6,69 4,301 2,92 1,89 1,061 0,816 0,617 0,289 0,142
3 5,84 4,54 3,18 2,35 1,64 0,978 0,765 0,584 0,277 0,137
4 4,60 3,75 2,78 2,13 1,53 0,941 0,741 0,569 0,271 0,134
5 4,03 3,36 2,57 2,02 1,48 0,920 0,727 0,559 0,267 0,132
6 3,71 3,14 2,45 1,94 1,44 0,906 0,718 0,553 0,265 0,131
7 3,50 3,00 2,36 1,90 1,42 0,896 0,711 0,549 0,263 0,130
8 3,36 2,90 2,31 1,86 1,40 0,889 0,706 0,546 0,262 0,130
9 3,25 2,82 2,26 1,83 1,38 0,883 0,703 0,543 0,261 0,129
10 3,17 2,76 2,23 1,81 1,37 0,879 0,700 0,542 0,260 0,129
11 3,11 2,72 2,20 1,80 1,36 0,876 0,697 0,540 0,260 0,129
12 3,06 2,68 2,18 1,78 1,36 0,873 0,695 0,539 0,259 0,128
13 3,01 2,65 2,16 1,77 1,35 0,870 0,694 0,538 0,259 0,128
14 2.98 2,62 2,14 1,76 1,34 0,868 0,692 0,537 0,258 0,128
15 2,95 2,60 2,13 1,75 1,34 0,866 0,691 0,536 0,258 0,128
16 2,92 2,58 2,12 1,75 1,34 0,865 0,690 0,535 0,258 0,128
17 2,90 2,57 2,11 1,74 1,33 0,863 0,689 0,534 0,257 0,128
18 2,88 2,55 2,10 1,73 1,33 0,862 0,688 0,534 0,257 0,127
19 2,86 2,54 2,09 1,73 1,33 0,861 0,688 0,533 0,257 0,127
20 2,84 2,53 2,09 1,72 1,32 0,860 0,687 0,533 0,257 0,127
21 2,83 2,52 2,08 1,72 1,32 0,859 0,686 0,532 0,257 0,127
22 2,82 2,51 2,07 1,72 1,32 0,858 0,686 0,532 0,256 0,127
23 2,81 2,50 2,07 1,71 1,32 0,858 0,685 0,532 0,256 0,127
24 2,80 2,49 2,06 1,71 1,32 0,857 0,685 0,531 0,256 0,127
25 2,79 2,48 2,06 1,71 1,32 0,856 0,684 0,531 0,256 0,127
26 2,78 2,48 2,06 1,71 1,32 0,856 0,684 0,531 0,256 0,127
27 2,77 2,47 2,05 1,70 1,31 0,855 0,684 0,531 0,256 0,127
28 2,76 2,47 2,05 1,70 1,31 0,855 0,683 0,530 0,256 0,127
29 2,76 2,46 2,04 1,70 1,31 0,854 0,683 0,530 0,256 0,127
30 2,75 2,46 2,04 1,70 1,31 0,854 0,683 0,530 0,256 0,127
40 2,70 2,42 2,02 1,68 1,30 0,851 0,681 0,529 0,255 0,126
60 2,66 2,39 2,00 1,67 1,30 0,848 0,679 0,527 0,254 0,126
120 2,62 2,36 1,98 1,66 1,29 0,845 0,677 0,526 0,254 0,126
> 120 2,58 2,33 1,96 1,645 1,28 0,842 0,674 0,524 0,253 0,126
92 Apendice C. Tablas: Normal 0/1, t de Student y T de Snedecor.
Ji-Cuadrado
np 0,005 0,010 0,025 0,050 0,100 0,300 0,700 0,900 0,950 0,975 0,990 0,995
1 0,044 0,032 0,001 0,004 0,016 0,148 1,074 2,706 3,841 5,024 6,635 7,879
2 0,010 0,020 0,051 0,103 0,211 0,713 2,408 4,605 5,991 7,378 9,210 10,60
3 0,072 0,115 0,216 0,352 0,584 1,424 3,665 6,251 7,815 9,348 11,34 12,84
4 0,207 0,297 0,484 0,711 1,064 2,195 4,878 7,779 9,488 11,14 13,28 14,86
5 0,412 0,554 0,831 1,145 1,610 3,000 6,064 9,236 11,07 12,83 15,09 16,75
6 0,676 0,872 1,237 1,635 2,204 3,828 7,231 10,65 12,59 14,45 16,81 18,55
7 0,989 1,239 1,690 2,167 2,833 4,671 8,383 12,02 14,07 16,01 18,48 20,28
8 1,344 1,646 2,180 2,733 3,490 5,527 9,524 13,36 15,51 17,54 20,09 21,96
9 1,735 2,088 2,700 3,325 4,168 6,393 10,66 14,68 16,92 19,02 21,67 23,59
10 2,156 2,558 3,247 3,940 4,865 7,267 11,78 15,99 18,31 20,48 23,21 25,19
11 2,603 3,053 3,816 4,574 5,578 8,148 12,90 17,28 19,68 21,92 24,73 26,76
12 3,074 3,571 4,404 5,226 6,304 9,034 14,01 18,55 21,03 23,34 26,22 28,30
13 3,565 4,107 5,009 5,892 7,042 9,926 15,12 19,81 22,36 24,74 27,69 29,82
14 4,075 4,660 5,629 6,571 7,790 10,82 16,22 21,06 23,69 26,12 29,14 31,32
15 4,601 5,229 6,262 7,261 8,547 11,72 17,32 22,31 25,00 27,49 30,58 32,80
16 5,142 5,812 6,908 7,962 9,312 12,62 18,42 23,54 26,30 28,85 32,00 34,27
17 5,697 6,408 7,564 8,672 10,09 13,53 19,51 24,67 27,59 30,19 33,41 35,72
18 6,265 7,015 8,231 9,390 10,87 14,44 20,60 25,99 28,87 31,53 34,81 37,16
19 6,844 7,633 8,906 10,12 11,65 15,35 21,69 27,20 30,14 32,85 36,19 38,58
20 7,434 8,260 9,591 10,85 12,44 16,27 22,78 28,41 31,41 34,17 37,57 40,00
21 8,034 8,897 10,28 11,59 13,24 17,18 23,86 29,62 32,67 35,48 38,93 41,40
22 8,643 9,542 10,98 12,34 14,04 18,10 24,94 30,81 33,92 36,78 40,29 42,80
23 9,260 10,20 11,69 13,09 14,85 19,02 26,02 32,01 35,17 38,08 41,64 44,18
24 9,886 10,86 12,40 13,85 15,66 19,94 27,10 33,20 36,42 39,36 42,98 45,56
25 10,52 11,52 13,12 14,61 16,47 20,87 28,17 34,38 37,65 40,65 44,31 46,93
26 11,16 12,20 13,84 15,38 17,29 21,79 29,25 35,56 38,99 41,92 45,64 48,29
27 11,81 12,88 14,57 16,15 18,11 22,72 30,32 36,74 40,11 43,20 46,96 49,65
28 12,46 13,56 15,31 16,93 18,94 23,65 31,39 37,92 41,34 44,46 48,28 50,99
29 13,12 14,26 16,05 17,71 19,77 24,58 32,46 39,09 42,56 45,72 49,59 52,34
30 13,79 14,95 16,79 18,49 20,60 25,51 33,53 40,26 43,77 46,98 50,89 53,67
Apendice C. Tablas: Normal 0/1, t de Student y T de Snedecor. 93
En la la n, columna m se muestra el punto x tal que T(T
n,m
x)= 0,95, es decir,
x = T
n,m,0,05
nm 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
1 161.45 18.513 10.128 7.709 6.608 5.987 5.591 5.318 5.117 4.965 4.844 4.747 4.667 4.600 4.543
2 199.50 19.000 9.552 6.944 5.786 5.143 4.737 4.459 4.256 4.103 3.982 3.885 3.806 3.739 3.682
3 215.71 19.164 9.277 6.591 5.409 4.757 4.347 4.066 3.863 3.708 3.587 3.490 3.411 3.344 3.287
4 224.58 19.247 9.117 6.388 5.192 4.534 4.120 3.838 3.633 3.478 3.357 3.259 3.179 3.112 3.056
5 230.16 19.296 9.013 6.256 5.050 4.387 3.972 3.687 3.482 3.326 3.204 3.106 3.025 2.958 2.901
6 233.99 19.329 8.941 6.163 4.950 4.284 3.866 3.581 3.374 3.217 3.095 2.996 2.915 2.848 2.790
7 236.77 19.353 8.887 6.094 4.876 4.207 3.787 3.500 3.293 3.135 3.012 2.913 2.832 2.764 2.707
8 238.88 19.371 8.845 6.041 4.818 4.147 3.726 3.438 3.230 3.072 2.948 2.849 2.767 2.699 2.641
9 240.54 19.385 8.812 5.999 4.772 4.099 3.677 3.388 3.179 3.020 2.896 2.796 2.714 2.646 2.588
10 241.88 19.396 8.786 5.964 4.735 4.060 3.637 3.347 3.137 2.978 2.854 2.753 2.671 2.602 2.544
11 242.98 19.405 8.763 5.936 4.704 4.027 3.603 3.313 3.102 2.943 2.818 2.717 2.635 2.566 2.507
12 243.91 19.413 8.745 5.912 4.678 4.000 3.575 3.284 3.073 2.913 2.788 2.687 2.604 2.534 2.475
13 244.69 19.419 8.729 5.891 4.655 3.976 3.550 3.259 3.048 2.887 2.761 2.660 2.577 2.507 2.448
14 245.36 19.424 8.715 5.873 4.636 3.956 3.529 3.237 3.025 2.865 2.739 2.637 2.554 2.484 2.424
15 245.95 19.429 8.703 5.858 4.619 3.938 3.511 3.218 3.006 2.845 2.719 2.617 2.533 2.463 2.403
16 246.46 19.433 8.692 5.844 4.604 3.922 3.494 3.202 2.989 2.828 2.701 2.599 2.515 2.445 2.385
17 246.92 19.437 8.683 5.832 4.590 3.908 3.480 3.187 2.974 2.812 2.685 2.583 2.499 2.428 2.368
18 247.32 19.440 8.675 5.821 4.579 3.896 3.467 3.173 2.960 2.798 2.671 2.568 2.484 2.413 2.353
19 247.69 19.443 8.667 5.811 4.568 3.884 3.455 3.161 2.948 2.785 2.658 2.555 2.471 2.400 2.340
20 248.01 19.446 8.660 5.803 4.558 3.874 3.445 3.150 2.936 2.774 2.646 2.544 2.459 2.388 2.328
21 248.31 19.448 8.654 5.795 4.549 3.865 3.435 3.140 2.926 2.764 2.636 2.533 2.448 2.377 2.316
22 248.58 19.450 8.648 5.787 4.541 3.856 3.426 3.131 2.917 2.754 2.626 2.523 2.438 2.367 2.306
23 248.82 19.452 8.643 5.781 4.534 3.849 3.418 3.123 2.908 2.745 2.617 2.514 2.429 2.357 2.297
24 249.05 19.454 8.639 5.774 4.527 3.841 3.411 3.115 2.900 2.737 2.609 2.505 2.420 2.349 2.288
25 249.26 19.456 8.634 5.769 4.521 3.835 3.404 3.108 2.893 2.730 2.601 2.498 2.412 2.341 2.280
nm 16 17 18 19 20 22 24 26 28 30 40 50 60 80 100
1 4.494 4.451 4.414 4.381 4.351 4.301 4.260 4.225 4.196 4.171 4.085 4.034 4.001 3.960 3.936
2 3.634 3.592 3.555 3.522 3.493 3.443 3.403 3.369 3.340 3.316 3.232 3.183 3.150 3.111 3.087
3 3.239 3.197 3.160 3.127 3.098 3.049 3.009 2.975 2.947 2.922 2.839 2.790 2.758 2.719 2.696
4 3.007 2.965 2.928 2.895 2.866 2.817 2.776 2.743 2.714 2.690 2.606 2.557 2.525 2.486 2.463
5 2.852 2.810 2.773 2.740 2.711 2.661 2.621 2.587 2.558 2.534 2.449 2.400 2.368 2.329 2.305
6 2.741 2.699 2.661 2.628 2.599 2.549 2.508 2.474 2.445 2.421 2.336 2.286 2.254 2.214 2.191
7 2.657 2.614 2.577 2.544 2.514 2.464 2.423 2.388 2.359 2.334 2.249 2.199 2.167 2.126 2.103
8 2.591 2.548 2.510 2.477 2.447 2.397 2.355 2.321 2.291 2.266 2.180 2.130 2.097 2.056 2.032
9 2.538 2.494 2.456 2.423 2.393 2.342 2.300 2.265 2.236 2.211 2.124 2.073 2.040 1.999 1.975
10 2.494 2.450 2.412 2.378 2.348 2.297 2.255 2.220 2.190 2.165 2.077 2.026 1.993 1.951 1.927
11 2.456 2.413 2.374 2.340 2.310 2.259 2.216 2.181 2.151 2.126 2.038 1.986 1.952 1.910 1.886
12 2.425 2.381 2.342 2.308 2.278 2.226 2.183 2.148 2.118 2.092 2.003 1.952 1.917 1.875 1.850
13 2.397 2.353 2.314 2.280 2.250 2.198 2.155 2.119 2.089 2.063 1.974 1.921 1.887 1.845 1.819
14 2.373 2.329 2.290 2.256 2.225 2.173 2.130 2.094 2.064 2.037 1.948 1.895 1.860 1.817 1.792
15 2.352 2.308 2.269 2.234 2.203 2.151 2.108 2.072 2.041 2.015 1.924 1.871 1.836 1.793 1.768
16 2.333 2.289 2.250 2.215 2.184 2.131 2.088 2.052 2.021 1.995 1.904 1.850 1.815 1.772 1.746
17 2.317 2.272 2.233 2.198 2.167 2.114 2.070 2.034 2.003 1.976 1.885 1.831 1.796 1.752 1.726
18 2.302 2.257 2.217 2.182 2.151 2.098 2.054 2.018 1.987 1.960 1.868 1.814 1.778 1.734 1.708
19 2.288 2.243 2.203 2.168 2.137 2.084 2.040 2.003 1.972 1.945 1.853 1.798 1.763 1.718 1.691
20 2.276 2.230 2.191 2.156 2.124 2.071 2.027 1.990 1.959 1.932 1.839 1.784 1.748 1.703 1.676
21 2.264 2.219 2.179 2.144 2.112 2.059 2.015 1.978 1.946 1.919 1.826 1.771 1.735 1.689 1.663
22 2.254 2.208 2.168 2.133 2.102 2.048 2.003 1.966 1.935 1.908 1.814 1.759 1.722 1.677 1.650
23 2.244 2.199 2.159 2.123 2.092 2.038 1.993 1.956 1.924 1.897 1.803 1.748 1.711 1.665 1.638
24 2.235 2.190 2.150 2.114 2.082 2.028 1.984 1.946 1.915 1.887 1.793 1.737 1.700 1.654 1.627
25 2.227 2.181 2.141 2.106 2.074 2.020 1.975 1.938 1.906 1.878 1.783 1.727 1.690 1.644 1.616
* Nota: F
n,m,
=
1
F
m,n,1
94 Apendice C. Tablas: Normal 0/1, t de Student y T de Snedecor.
Apendice D. Tablas de Intervalos
de Conanza y Tests de Hipotesis.
Parametro Poblacion Estadstico Distribucion Intervalo de conanza
Normal con conocida
x
0
/

n
N(0, 1) x z
1/2

n
Normal con desconocida
x
0
S/

n
t
n1
x t
n1,1/2
S

n
No normal con conocida (n 30)
x
0
/

n
N(0, 1) x z
1/2

n
No normal con desconocida (n 30)
x
0
S/

n
N(0, 1) x z
1/2
S

n
p Bernoulli (n 30)
p p
0
_
p
0
(1p
0
)
n
N(0, 1) p z
1/2
_
p(1 p)
n
Poissson (n 30)
x
0
_

0
/n
N(0, 1) x z
1/2
_
x
n

2
Normal con conocida

(x
i
)
2

2
0

2
n

(x
i
)
2

2
n,/2
,

(x
i
)
2

2
n,1/2

2
Normal con desconocida
(n 1)S
2

2
0

2
n1
(n 1)S
2

2
n1,/2
,
(n 1)S
2

2
n1,1/2
95
96
Apendice D. Tablas de Intervalos de Conanza y Tests de
Hipotesis.
P
a
r
a
m
e
t
r
o
s
P
o
b
l
a
c
i
o
n
e
s
E
s
t
a
d

s
t
i
c
o
D
i
s
t
r
i
b
u
c
i
o
n
I
n
t
e
r
v
a
l
o
d
e
c
o
n

a
n
z
a

2 1

2 2
N
o
r
m
a
l
e
s
i
n
d
e
p
.
,

1
y

2
c
o
n
o
c
i
d
a
s
n
2

(
x
i

1
)
2
/

2 1
0
n
1

(
y
j

2
)
2
/

2 2
0
F
n
1
,
n
2
n
2

(
x
i

1
)
2

(
y
j

2
)
2
n
1
F
n
1
,
n
2
,

/
2
,
n
2

(
x
i

1
)
2

(
y
j

2
)
2
n
1
F
n
1
,
n
2
,
1

/
2

2 1

2 2
N
o
r
m
a
l
e
s
i
n
d
e
p
.
,

1
y

2
d
e
s
c
o
n
o
c
i
d
a
s
S
2 1
/

2 1
0
S
2 2
/

2 2
0
F
n
1

1
,
n
2

1
S
2 1
/
S
2 2
F
n
1

1
,
n
2

1
,

/
2
,
S
2 1
/
S
2 2
F
n
1

1
,
n
2

1
,
1

/
2

2 1

2 2
=
1
N
o
r
m
a
l
e
s
a
p
a
r
e
a
d
a
s
,
D
=
X
1

X
2
S
2 1
/
S
2 2

1
2
_
n

2
S
2 1
/
S
2 2
_
1

s
2 1
2
s
2 1
s
2 2
_
t
n

2
S
2 1
S
2 2

2
t
n

2
,
1

/
2
_
S
2 1
/
S
2 2
_
1

s
2 1
2
s
2 1
s
2 2
_
n

2
N
o
r
m
a
l
e
s
i
n
d
e
p
.
,

1
y

2
c
o
n
o
c
i
d
a
s
x
1

x
2

1
0

2
0
)
_

2 1
n
1
+

2 2
n
2
N
(
0
,
1
)
x
1

x
2

z
1

/
2

2 1
n
1
+

2 2
n
2

2
N
o
r
m
a
l
e
s
i
n
d
e
p
.
,

1
=

2
d
e
s
c
o
n
o
c
i
d
a
s
x
1

x
2

1
0

2
0
)
_
1
n
1
+
1
n
2
_
(
n
1

1
)
S
2 1
+
(
n
2

1
)
S
2 2
n
1
+
n
2

2
t
n
1
+
n
2

2
x
1

x
2

t
n
1
+
n
2

2
,
1

/
2
_
1
n
1
+
1
n
2

(
n
1

1
)
S
2 1
+
(
n
2

1
)
S
2 2
n
1
+
n
2

2
N
o
r
m
a
l
e
s
i
n
d
e
p
.
,

1
,=

2
d
e
s
c
o
n
o
c
i
d
a
s
x
1

x
2

1
0

2
0
)
_
S
2 1
n
1
+
S
2 2
n
2
t
m 1
m
=
c
2
n
1

1
+
(
1

c
)
2
n
2

1
c
=
S
2 1
/
n
1
S
2 1
/
n
1
+
S
2 2
/
n
2
x
1

x
2

t
m
,
1

/
2

S
2 1
n
1
+
S
2 2
n
2

2
N
o
r
m
a
l
e
s
a
p
a
r
e
a
d
a
s
,
D
=
X
1

X
2
D

D
0
S
D

n
t
n

,
1
S
2 D
c
u
a
s
i
v
a
r
i
a
n
z
a
d
e
D
D

t
n

1
,
1

/
2
S
D

n
p
1

p
2
B
e
r
n
u
o
l
l
i
,
i
n
d
e
p
.
,
(
n
1

3
0
,
n
2

3
0
)
p
1

p
2

(
p
1
0

p
2
0
)
_
p
1
(
1

p
1
)
n
1
+
p
2
(
1

p
2
)
n
1
N
(
0
,
1
)
p
1

p
2

z
1

/
2
_
p
1
(
1

p
1
)
n
1
+
p
2
(
1

p
2
)
n
2

También podría gustarte