Está en la página 1de 80

Universidad T

ecnica Federico Santa Mara


Departamento de Matematica

Probabilidad y Estadstica
Apuntes del curso.

Recopilado por: Francisca Gonzalez Lopez

Santiago, 1 de abril de 2011

Indice general
1. Estadstica Descriptiva
1.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . .
1.1.1. Estadstica Descriptiva e Inferencial . . . . . . . . .
1.1.2. Etapas de una Investigacion Estadstica . . . . . . .
1.1.3. Conceptos Basicos . . . . . . . . . . . . . . . . . .
1.2. Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1. Conceptos basicos . . . . . . . . . . . . . . . . . . .
1.2.2. El Muestreo . . . . . . . . . . . . . . . . . . . . . .
1.2.3. Muestreo Aleatorio Simple . . . . . . . . . . . . . .
1.2.4. Muestreo Estratificado . . . . . . . . . . . . . . . .
1.3. Clasificacion de variables . . . . . . . . . . . . . . . . . . .
1.3.1. Nominales . . . . . . . . . . . . . . . . . . . . . . .
1.3.2. Ordinales . . . . . . . . . . . . . . . . . . . . . . .
1.3.3. Intervalares . . . . . . . . . . . . . . . . . . . . . .
1.4. Organizacion de la Informacion . . . . . . . . . . . . . . .
1.5. Medidas de Tendencia Central y Dispersion . . . . . . . .
1.5.1. Medidas de Tendencia Central . . . . . . . . . . . .
1.5.2. Medidas de tendencia central, posicion y dispersion.
1.6. Estadsitica Bivariada . . . . . . . . . . . . . . . . . . . . .
1.6.1. Frecuencia Absoluta y Frecuencia Relativa . . . . .
1.6.2. Tablas de Contingencia . . . . . . . . . . . . . . . .
1.6.3. Distribuciones Marginales . . . . . . . . . . . . . .
1.6.4. Distribuciones Condicionales . . . . . . . . . . . . .
1.6.5. Independencia . . . . . . . . . . . . . . . . . . . . .
1.6.6. Asociacion, Dependencia o Correlacion . . . . . . .
1.6.7. Ajuste de Curvas . . . . . . . . . . . . . . . . . . .
2. Probabilidades
2.1. Introduccion . . . . . . . . . . . . . . . . . .
2.2. Modelo de Probabilidad . . . . . . . . . . .
2.2.1. Espacio Muestral . . . . . . . . . . .
2.2.2. Eventos . . . . . . . . . . . . . . . .
2.2.3. Medida de Probabilidad . . . . . . .
2.2.4. Espacios Probabilsticos Finitos . . .
2.3. Probabilidad Condicionada e Independencia
1

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
3
3
3
4
5
5
5
5
6
7
7
7
7
8
11
11
11
15
15
15
15
16
17
17
20

.
.
.
.
.
.
.

22
22
25
25
25
27
29
31

2.3.1. Probabilidad Condicional . . . . . . . . . . . . . .


2.3.2. Probabilidad Total . . . . . . . . . . . . . . . . .
2.3.3. Teorema de Bayes . . . . . . . . . . . . . . . . . .
2.4. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . .
2.4.1. Introduccion . . . . . . . . . . . . . . . . . . . . .
2.4.2. Variables Aleatorias Discretas . . . . . . . . . . .
2.4.3. Variables Aleatorias Continuas . . . . . . . . . . .
2.4.4. Localizacion y dispersion de una variable aleatoria
2.4.5. Casos especiales de distribuciones probabilidad . .
2.4.6. Funciones de Variables Aleatorias . . . . . . . . .
2.4.7. Aproximacion de distribuciones . . . . . . . . . .
2.5. Vectores Aleatorios . . . . . . . . . . . . . . . . . . . . .
2.5.1. Distribucion Conjunta . . . . . . . . . . . . . . .
2.5.2. Distribuciones Conjuntas Especiales . . . . . . . .
2.5.3. Distribucion Marginal y Condicional . . . . . . .
2.5.4. Esperanza y Varianza Condicional . . . . . . . . .
2.6. Nociones de Convergencia . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3. Inferencia Estadistica
3.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Estimacion Puntual . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1. Metodo de Momentos . . . . . . . . . . . . . . . . . . . .
3.2.2. Metodo de Maxima Verosimilitud . . . . . . . . . . . . .
3.3. Insesgamiento y eficiencia . . . . . . . . . . . . . . . . . . . . .
3.4. Estimacion Intervalar . . . . . . . . . . . . . . . . . . . . . . . .
3.4.1. Intervalo de Confianza para la media . . . . . . . . . . .
3.4.2. Intervalo de Confianza para una proporcion . . . . . . .
3.4.3. Intervalo de Confianza para la varianza . . . . . . . . . .
3.4.4. Intervalo de Confianza para la diferencia de medias . . .
3.4.5. Intervalo de Confianza para la comparacion de varianzas
3.5. Pruebas de Hipotesis . . . . . . . . . . . . . . . . . . . . . . . .
3.5.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . .
3.5.2. Prueba de Hipotesis para la media . . . . . . . . . . . .
3.5.3. Prueba de Hipotesis para la proporcion . . . . . . . . . .
3.5.4. Prueba de Hipotesis para la varianza . . . . . . . . . . .
3.5.5. Prueba de Hipotesis para la diferencia de medias . . . . .
3.5.6. Prueba de Hipotesis para la diferencia de proporciones .
3.5.7. Prueba de Hipotesis para la comparacion de varianzas . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

31
33
33
34
34
36
37
38
40
46
49
50
50
52
54
56
58

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

60
60
62
62
63
65
67
67
68
68
69
71
72
72
74
75
75
76
78
78

Captulo 1
Estadstica Descriptiva
1.1.

Introducci
on

Por estadstica entendemos los metodos cientficos por medio de los cuales podemos recolectar,
organizar, resumir, presentar y analizar los datos numericos relativos a un conjunto de individuos u
observaciones y que nos permiten extraer conclusiones validas y efectuar decisiones logicas basadas
en dichos analisis. Utilizamos la estadstica para aquellos casos en los que tenemos una gran cantidad de observaciones y cuya aparicion se rigen solo por las leyes del azar o aleatorias.

1.1.1.

Estadstica Descriptiva e Inferencial

La estadstica puede subdividirse en dos amplias ramas: la estadstica inductiva o inferencial y


la estadstica deductiva o descriptiva.
Estadstica Inductiva o Inferencial
Entendemos por estadstica inductiva si a partir de una m.a., suficientemente representativa del
universo, podemos inferir (inducir) conclusiones estadsticamente validas para todo el universo. Esto obliga a plantear simultaneamente las condiciones bajo las cuales dichas conclusiones son validas.
Estadstica Descriptiva o Deductiva
Entendemos por estadstica descriptiva si al analizar una m.a., solo se pueden obtener conclusiones validas para la muestra, sin que se puedan o se requieran generalizar sus resultados para todo
el universo.

1.1.2.

Etapas de una Investigaci


on Estadstica

A
un cuando los tipos de problemas a los cuales puede aplicarse la estadstica matematica son
bastante heterogeneos, en muchos casos los pasos de una investigacion estadstica son similares.
a) Formulaci
on del problema. Para investigar con exito un problema dado, primero tenemos
que crear conceptos precisos, formular preguntas claras e imponer limitaciones adecuadas al
3

problema, tomando en cuenta el tiempo y dinero disponible y la habilidad de los investigadores.


Algunos conceptos tales como: Artculo defectuoso, servicio satisfactorio a la clientela, observaciones demograficas, grados de pureza de un mineral, tipo de trafico, etc., pueden variar de
caso en caso, y en cada situacion especfica, necesitamos coincidir en definiciones apropiadas
para los terminos que se incluyen.
b) Dise
no del experimento. Es deseable obtener un maximo de informacion empleando un
mnimo de costo y tiempo. Esto implica determinar el tama
no de la muestra o la cantidad y
tipo de datos.
c) Experimentaci
on o colecci
on de datos. En toda investigacion esta etapa es la que consume

mas tiempo. Esta debe aplicarse con reglas estrictas y con pautas preestablecidas.
d) Tabulaci
on y descripci
on de los resultados. Los datos experimentales se ilustran en
diagramas, graficos, pictogramas, etc. Obteniendose ademas, medidas descriptivas que representen el proceso efectuado.
e) Inferencia estadstica y formulaci
on de la respuesta. Al aplicar el metodo estadstico
seleccionado en la etapa b), podemos inferir conclusiones obtenidas de la muestra acerca de
la poblacion respectiva.

1.1.3.

Conceptos B
asicos

Universo: Es el conjunto de todos los datos u observaciones de un suceso. El universo se designa usualmente con la letra U. El universo puede ser finito, infinito contable e infinito no contable
(dependiendo del tipo de universo es el tipo de analisis del problema).
Poblaci
on: Elementos del universo que tienen una caracterstica com
un y es la que tratamos
de estudiar.
Muestra Aleatoria (m.a.): Es un subconjunto de la poblacion, donde sus elementos son
escogidos al azar (no existe relacion en la eleccion de los elementos).

1.2.
1.2.1.

Muestreo
Conceptos b
asicos

Marco Muestral: El Marco Muestral es el conjunto de unidades del cual se seleccionara una
muestra.
Unidades de Muestreo: Las unidades del Marco Muestral se llaman Unidades de Muestreo.
Es importante notar que toda unidad de la poblacion debe estar asociada a una y solo una unidad del
Marco Muestral. Esto nos permitira dise
nar mecanismos de seleccion de la muestra de tal forma que
toda unidad de la poblacion se encontrara en, al menos, una de las posibles muestras seleccionadas
y en el caso del Muesteo Probabilstico nos permitira inducir una probabilidad de seleccion a cada
elemento de la poblacion.

1.2.2.

El Muestreo

El Muestreo es la disciplina que trata con el conjunto de metodos, tecnicas y procedimientos


para tomar u obtener una particular muestra a efectos de realizar inferencias inductivas a partir de
la misma. Existen dos grandes categoras de muestreo: el Muestreo Probabilstico y el Muestreo No
Probabilstico.
En el Muestreo No Probabilstico, pueden existir unidades de la poblacion que no pueden ser
seleccionadas en ninguna de las muestras posibles, o bien, aunque exista una probabilidad de seleccion positiva para cada una de estas unidades de la Poblacion, esta probabilidad es desconocida.
Un ejemplo de este tipo de Muestreo No Probabilstico es el Muestreo por Cuotas, muy utilizado
en los estudios de mercadeo y en algunas encuestas de opinion.
Con el Muestreo No Probabilstico, en general, las observaciones para una muestra particular
se obtienen mas rapidamente y a menor costo que en el Muestreo Probabilstico. Por otra parte,
los errores ajenos al muestreo (errores en las operaciones de recoleccion y procesamiento de
la informacion), son mas faciles de controlar cuando se utiliza Muestreo Probabilstico. En todo
caso, solo con el Muestreo Probabilstico es posible obtener indicadores de confiabilidad del error
inferencial de cada estimacion obtenida a traves de la muestra.

1.2.3.

Muestreo Aleatorio Simple

Es un dise
no muestral bastante utilizado cuando se cuenta con una lista o directorio para usar
como Marco Muestral. Se distinguen dos casos de m.a.s.: Muestreo sin Reemplazo y Muestreo con
Reemplazo. De las N unidades de la poblacion se selecciona al azar (igual probabilidad para cada

unidad) una unidad. Esta


se separa (sin reposicion) y de las N-1 restantes unidades de la poblacion
se selecciona, tambien al azar, una segunda unidad. De las N-2 unidades restantes se vuelve a
seleccionar al azar una tercera unidad y as sucesivamente hasta completar las n unidades de la
muestra.

1.2.4.

Muestreo Estratificado

El Muestreo Estratificado se presenta cuando la Poblacion se encuentra particionada en L grupos y en todos y cada uno de estos grupos se aplica en forma independiente un dise
no muestral, no
necesariamente igual en todos ellos. En tal caso, los grupos de la particion se llaman Estratos y la
particion de dice que es una Estratificacion.
La Estratificacion puede tener su origen en los propios objetivos del Estudio o en la intencion de
contar con Estratos homogeneos que pueden hacer mas eficiente el Dise
no Muestral.
Ejemplos de Estratificaciones en funcion de los objetivos del estudio son, por ejemplo, las divisiones poltico administrativas (los Estratos pueden ser Regiones, Provincias, Departamentos o
Distritos, etc.) en una Encuesta Nacional, Ramas de Actividad Economica en una Encuesta Industrial; P
ublico y Privado en una Encuesta sobre Educacion, etc.
Ejemplos de Estratos creados para obtener una mayor homogeneidad en cada uno de ellos son:
Empresas Grandes, Medianas, Peque
nas y Micro, en una Encuesta Industrial: Manzanas con hogares de ingresos mayoritariamente altos, medios y bajos, etc.

1.3.

Clasificaci
on de variables

Hay que hacer notar que toda variable puede clasificarse en uno de los niveles de medicion, los
que se daran en orden creciente en cuanto a la riqueza de los datos.

1.3.1.

Nominales

La variable induce en la poblacion una subdivision y los datos s e pueden clasificar en clases,
donde cada clase esta completamente definida y diferenciada de las demas.
La recopilacion se reduce a contar el n
umero de individuos de la muestra que pertenecen a cada
clase.

1.3.2.

Ordinales

En este nivel la variable de clasificacion tiene un orden implcito (admite grados de calidad u
ordenamiento) entre grupos o clases, esto significa que existe una relacion de orden entre las clases.
No es posible cuantificar la diferencia entre los individuos pertenecientes a una misma clase.

1.3.3.

Intervalares

La informacion obtenida en este caso es de tipo cuantitativo o numerico y es posible agruparla


en intervalos. En este nivel se considera no solo la informacion perteneciente al orden, sino ademas,
el tama
no relativo de los intervalos a que pertenece cada uno de los individuos. En este nivel es
posible cuantificar la diferencia de dos individuos pertenecientes al mismo intervalo y tambien a
intervalos distintos. En esta escala esta involucrado el concepto de unidad de distancia y la distancia
entre dos medidas puede ser expresada en funcion de esta unidad.

1.4.

Organizaci
on de la Informaci
on

Una coleccion de datos tomados de un suceso (sometido a estudio) nada nos dice si no lo ordenamos convenientemente para extraer as la informacion que se desea.
Los conceptos mas usuales se detallan a continuacion:
a.- El n
umero de clases o intervalos
Es una subdivision del rango en varios grupos o intervalos (se designa por la letra k),
N
umero de clases = 1 + 3.3log(n)
donde n es el n
umero total de datos. Como el n
umero de clases debe ser un n
umero entero,
este se aproxima al entero superior, identificandolo con la letra k.
Para valores de n menores a 20, el n
umero de clases corresponde a k =

n.

b.- Intervalo o Clase


Una subdivision del rango en componentes (de acuerdo a la magnitud, atributos, etc.) se
llaman clases, categoras, intervalos o celdas. Se designan por la letra C con un subndice que
indica la clase a que pertenecen, por ejemplo C1 , C2 , . . . , Ck .
c.- Ancho del Intervalo
El ancho de la clase es la diferencia entre el lmite superior e inferior de la clase. Se designa
por la letra . En general, el ancho de cada clase puede o no ser del mismo tama
no. En el caso
de que todos sean iguales el valor de se define como:
I=

R+1
k

donde R = Dato mayor en la muestra - dato menor de la muestra


El valor de I se aproxima al entero superior (cuando los datos son enteros).
d.- Marca de la Clase
La marca de clase es el punto medio de la clase o intervalo. Se designa por las letras M Ci (el
subndice indica la clase a la que le corresponde).
e.- Frecuencia Absoluta
El n
umero de datos que pertenecen a una clase se llama frecuencia absoluta de la clase. Se
designa por la letra n con un subndice (que indica la clase a que pertenece) por ejemplo:
n1 , n2 , . . . , nk .
Nota: La suma de todas las frecuencias absolutas debe ser igual al n
umero total de datos n.
f.- Frecuencia Relativa
A la proporcion de datos que pertenecen a una clase con respecto al total se llama frecuencia
relativa. Se designa por la letra f con un subndice (que indica la clase a que pertenece). Por
8

ejemplo: f1 , f2 , . . . , fk .
Notas:
i. La suma de todas las frecuencias relativas debe ser igual a 1.
ii. Frecuencia relativa = frecuencia absoluta/n
umero total de datos =

ni
n

g.- Frecuencia Absoluta Acumulada


El n
umero de datos que estan desde la primera clase hasta la clase i-esima, se llama frecuencia
absoluta acumulada de la clase i-esima. Se designa por la letra N con un subndice (que indica
la clase a que pertenece) por ejemplo: N1 , N2 , . . . , Nk .
Nota:
N1 = n1
N2 = n1 + n2 = N1 + n2
..
.
Ni = n1 + n2 + . . . + ni = Ni1 + ni

i = 1, 2, . . . , k.

y debe verificarse que Nk = n (n


umero total de datos)
h.- Frecuencia Relativa Acumulada
El n
umero de datos que estan desde la primera clase hasta la clase i-esima con respecto al
total de datos, se llama frecuencia relativa acumulada de la clase i-esima. Se designa por la
letra F con un subndice (que indica la clase a que pertenece) por ejemplo: F1 , F2 , . . . , Fk .
Nota:
F 1 = f1 =

N1
n

F2 = f1 + f2 = F1 + f2 =

N2
n

..
.
Fi = f1 + f2 + . . . + fi = Fi1 + fi =

Ni
n

i = 1, 2, . . . , k.

y debe verificarse que Fk = 1.


Ejemplo 1.4.1 Las notas obtenidas en un certamen, en escala 1 a 7 fueron:
3, 5, 6, 3, 4, 4, 7, 2, 1, 2, 3, 3, 4, 4, 6, 2, 7, 5, 3, 4, 4, 1, 2, 2, 3, 5, 4, 6, 5, 5.
Lo que se puede tabular como:

Clase
C1
C2
C3
C4
C5
C6
C7

Nota
1
2
3
4
5
6
7
Suma

ni
2
5
6
7
5
3
2
30

fi
Ni
0.067 2
0.167 7
0.200 13
0.233 20
0.167 25
0.100 28
0.067 30
1

Fi
0.067
0.233
0.233
0.667
0.833
0.933
1

Ejercicios 1 En una empresa se considera la siguiente muestra correspondiente a la resistencia de


50 lotes de algodon medidas en libras necesarias hasta romper una madeja.
74
105
79
101
110

87 99
110 99
105 96
96 97
94 101

88
94
93
103
97

90
104
93
108
106

101 91
97 90
90 91
90 102
86 88

83 97
88 89
102 94
91 76
97 107

94
90
106
109
107

1. Encuentre el n
umero de clases y el rango de la muestra
2. Determine la amplitud de la clase
3. Construya un cuadro resumen indicando intervalos, marca de clase, frecuencias absoluta, relativa, absoluta acumulada y relativa acumulada.
4. Grafique las frecuencias absolutas. Comente.

10

1.5.
1.5.1.

Medidas de Tendencia Central y Dispersi


on
Medidas de Tendencia Central

La idea es resumir los datos en un solo valor; un valor que represente a todo un conjunto
de datos, este tiene que ser un n
umero o una clase hacia el cual tienen tendencia a concentrarse
mayoritariamente el conjunto de datos, usualmente este se ubica en las clases mas o menos centrales,
o sea, que es un valor central o de posicion central a cuyo alrededor se distribuyen todos los datos
del conjunto, de all el nombre de Medidas de Tendencia Central (M.T.C.). Las mas comunes son
la mediana, moda, media o promedio, media geometrica, etc.
Estas y otras medidas nos sirven para resumir la informacion presentada en cuadros y poder
relacionar y comparar entre s, de una manera sencilla, un conjunto de distribuciones de frecuencias.
Una vez determinadas las Medidas de Tendencia Central de una distribucion, nos interesa determinar como se reparten (dispersan, desvan) los datos a uno y otro lado de la medida central. 0
sea, es necesario cuantificar la representatividad de la medida de tendencia para poder caracterizar
la distribucion. Si la dispersion es peque
na indica gran uniformidad y la informacion tiende a concentrarse en torno a la medida central, por el contrario, una gran dispersion indica que los datos
estan alejados de ella.
Las medidas de dispersion mas usuales son: desviacion media, desviacion tpica o estandar,
rango, rango semi-intercuartlico, rango percentil, etc.

1.5.2.

Medidas de tendencia central, posici


on y dispersi
on.

a. Media
La medida central mas representativa es la media o promedio. Como tales valores tienden a
situarse en el centro del conjunto de los datos ordenados seg
un su magnitud, los promedios se
conocen tambien como medidas de centralizacion.
La media aritmetica o media de un conjunto de n n
umeros X1 , X2 , . . . , Xn se denota por X
y se define como
n
1X
X=
Xi
n i=1
para datos no agrupados. Si los datos estan ordenados en una tabla (datos agrupados) en
las que se conocen las respectivas marcas de clase M Ci , y ellas se presentan con frecuencias
absolutas ni , la media aritmetica es:
k

1X
X=
ni M C i
n i=1

11

b. Moda
La moda cruda de una serie de n
umeros es aquel que se presenta con la mayor frecuencia, es
decir, es el valor mas com
un.
Una distribucion que tiene una sola moda se llama unimodal (caso mas usual). Es posible
encontrar variables bimodales, trimodales, etc.
Para datos agrupados, la moda puede obtenerse mediante el n
umero dado por:
M oda = lmo +

1
I
1 + 2

donde:
mo = clase modal (clase con mayor frecuencia absoluta)
lmo = lmite inferior del intervalo de la clase modal
1 = nmo - n
mo
2 = nmo - n+
mo
nmo = es la frecuencia de la clase modal
n+
mo = es la frecuencia de la clase posterior a la clase modal
n
mo = es la frecuencia de la clase anterior a la clase modal
I = ancho del intervalo de la clase modal.
Propiedades de la Moda:
- Puede no existir y cuando existe no es necesariamente u
nica.
- No se ve afectada por valores extremos.
c. Mediana
Es el valor de la variable que ocupa la posicion central , en un conjunto de datos ordenados.
Si el n
umero de observaciones es impar, es la observacion central de los valores, una vez que
estos han sido ordenados en orden creciente o decreciente. Si el n
umero de las observaciones
es par, se calcula como el promedio de las dos observaciones centrales.
Propiedades de la Mediana:
- La mediana en un conjunto de datos es u
nica
- No es sensible a la presencia de datos extremos
- En un conjunto de datos, la mitad de ellos son iguales o menores que la mediana, y la otra
mitad, iguales o mayores que la mediana.
Para datos agrupados, el n
umero mediana viene dada por:
Me = lMe +

n
2

NM
e
I
nM e

donde:
lMe = lmite inferior del intervalo de la clase mediana
n = n
umero total de datos
12

NMe = frecuencia absoluta acumulada hasta la clase anterior a la clase mediana


nMe = es la frecuencia de la clase mediana
I = ancho del intervalo de la clase mediana.
d. Percentiles
El percentil q es un valor de la variable tal que el q % de los datos es menor que el y, por lo
tanto, el (1-q) % es mayor. Son una medida de posicion que no reflejan la tendencia central.
Si X1 , X2 , . . . , Xn es una secuencia ordenada de datos, el percentil q se encuentra en la posicion
q(n + 1)
100
Para datos agrupados, nos referimos a la clase en el cual se encuentra al menos el q % de los
datos, digamos Cp , por lo que
Pq = lp +

n q/100 Np
Ip
np

donde:
lp = lmite inferior de la clase a la cual pertenece el percentil q
I = ancho del intervalo Cp .
e. Varianza
Es una constante que representa dispersion media de una variable aleatoria X , respecto a su
valor medio. Puede interpretarse como medida de variabilidad de la variable.
Se define la varianza de una serie de observaciones X1 , . . . , Xn como
n

s2 =

1X
(Xi X)2
n i=1

o equivalentemente
n

1X 2
2
s =
Xi X
n i=1
2

La varianza para datos agrupados con sus respectivas frecuencias absolutas ni , y las marcas
de clase M Ci , se representa por:
k

1X
ni (M Ci X)2
s =
n i=1
2

o equivalentemente
k

s2 =

1X
2
ni M Ci2 X
n i=1

En ambos casos, se define la desviaci


on est
andar como s =
dispersion de los datos respecto de la media.
13

s2 , tmabien una medida de

Ejemplo 1.5.1 Considere los datos de consumo de enrga electrica de 80 usuarios:


Consumo (Kwh) No de usuarios
5 - 25
4
25 - 45
6
14
45 - 65
65 - 85
26
14
85 - 105
105 - 125
8
6
125 - 145
145 - 165
2
Total
80
a.- Construya un histograma de la variable consumo
b.- Determine la media y mediana de la variable consumo.
c.- Calcule el percentil 25 y 75 para la variable consumo.
d.- Calcule la varianza de la variable consumo.
e.- Que porcentaje de usuarios consumen mas de 100 Kwh?
f.- Que porcentaje de los usuarios consume entre 50 y 150 Kwh?

14

1.6.

Estadsitica Bivariada

Ahora, supongamos que queremos estudiar el comportamiento de la variable de clasificacion


bidimensional (X, Y ), asociada a dos variables de clasificacion unidimensionales X e Y , respectivamente, en una muestra de tama
no n de la poblacion. Entonces dividimos la muestra en r clases Ai ,
seg
un la variable X, y en s clases Bj , seg
un Y .
Llamamos nij al n
umero de elementos de la muestra que pertenecen simultaneamente a la clase
Ai y la clase Bj . Podemos luego considerar una clase o modalidad Ai Bj formada por elementos de
la muestra que pertenecen simultaneamente a Ai y a Bj . Se observa que hay r s modalidades Ai Bj .

1.6.1.

Frecuencia Absoluta y Frecuencia Relativa

Definiciones de interes:
nij : frecuencia absoluta del n
umero de elementos pertenecientes a Ai Bj
fij : frecuencia relativa del n
umero de elementos en Ai Bj con respecto al total n, donde
nij
fij =
,
i = 1, . . . , r;
j = 1, . . . , s
n

1.6.2.

Tablas de Contingencia

Cuadro de doble entrada donde se puede resumir la informacion acerca de las frecuencias, ya
sean absolutas o relativas, como se muestra a continuacion:

X A1
A2
..
.
Ar

1.6.3.

Y
B1
n11
n21
..
.

B2
n12
n22
..
.

...
...
...
..
.

Bs
n1s
n2s
..
.

n1+
n2+
..
.

nr1
n+1

nr2
n+2

...
...

nrs
n+s

nr+
n

Distribuciones Marginales

ni+ : es el n
umero de elementos de la muestra que pertenecen a la clase Ai , sin importar la clase
Bj a la que esten asociados (suma de los valores de la fila i-esima de la tabla de contingencia de
frecuencias)
s
X
ni+ =
nij ,
i = 1, . . . , r
j=1

n+j : es el n
umero de elementos de la muestra que pertenecen a la clase Bj seg
un Y, sin importar
la clase Ai a la que esten asociados (suma de los valores de la columna j-esima de la tabla de
contin-gencia de frecuencias)
n+j =

r
X

j = 1, . . . , s

nij ,

i=1

15

fi+ : frecuencia relativa de las clases Ai sin importar las clases Bj .


fi+ =

ni+
,
n

i = 1, . . . , r

f+j : frecuencia relativa de las clases Bj sin importar las clases Ai .


f+j =

1.6.4.

n+j
,
n

j = 1, . . . , s

Distribuciones Condicionales

La distribucion condicional consiste en estudiar las frecuencias asociadas a las clases de una
variable cuando nos restringimos a los elementos de una clase dada seg
un la otra variable, esto es,
estudiar el comportamiento de una variable dado un valor fijo de la otra. Para calcular la proporcion
de individuos muestrales que seg
un Y caen en B, conociendo que seg
un X ya pertenecan a A, se
debe evaluar:
nB/A
fB/A =
n
donde fB/A es la frecuencia relativa condicional del subconjunto B de Y dado que X pertenece
al subconjunto A.
La distribucion de X condicionada a Y se define como
fi/j =

fi/j
nij
=
f+j
n+j

i = 1, . . . , r

y
r
X

fi/j = 1

i=1

La distribucion de Y condicionada a X se define como


fj/i =

fj/i
nij
=
fi+
ni+

j = 1, . . . , s

y
s
X

fj/i = 1

j=1

Ejemplo 1.6.1 Sea X la edad e Y la categora correspondiente al puesto de trabajo. Dada la


siguiente tabla de contingencia, calcular la distribucion condicional de Y, dado que X es 25-30 y
35-45.
X\Y
15-20
20-25
25-30
30-35
35-40
n+j

I
20
15
10
5
5
55

II
20
12
15
20
10
77
16

III ni+
5
45
8
35
10 35
25 50
30 45
78 210

1.6.5.

Independencia

Dada una informacion en una Tabla de Contingencia, se dice que las variables X e Y son
independientes, s y solo s, la frecuencia relativa conjunta es igual al producto de las frecuencias
relativas marginales.
fij = fi+ f+j
i = 1, . . . , r j = 1, . . . , s
Si las variables X e Y no son independientes entre s, se dice que existe una asociacion entre
ellas. De modo que el conocimiento de una de las variables presente alguna informacion respecto de
la otra. Nuestro objetivo es medir de alguna forma esta relacion existente y poder ademas describir
de que forma (lineal, exponencial, potencial, etc.) estan relacionadas.

1.6.6.

Asociaci
on, Dependencia o Correlaci
on

En estadstica Descriptiva se dice que dos variables cuantitativas estan asociadas, son dependientes, o estan correlacionadas si cuando se aumentan los valores de una variable, los valores
de la otra tienden a:
i) o bien a aumentar (y se dice que la asociacion dependencia es directa o que la correlacion es
positiva)
ii) o bien a disminuir (y se dice que la asociacion o dependencia es inversa o que la correlacion
es negativa)
Cuando no se presenta esta tendencia se dice que las variables no estan asociadas o no son dependientes o no estan correlacionadas.
La asociacion, correlacion o dependencia en Estadstica Descriptiva, no implica relacion causaefecto. En otras palabras, si cuando una variable aumenta la otra tiende a aumentar (o a disminuir)
no es posible afirmar que esta u
ltima aumenta (o disminuye) PORQUE la primera variable aumenta.
Indicadores de Asociaci
on: Covarianza
La covarianza entre dos variables, X e Y esta dada por:
cov(X, Y ) =

n
X
(xi x)(yi y)

i=1

o equvalentemente
n

1X
cov(X, Y ) =
xi yi xy
n i=1
La covarianza es una medida de asociacion lineal, pero tiene la desventaja que su interpretacion
depende de las unidades de medicion.
Si cov(X,Y)> 0, la asociacion es directa o positiva.
Si cov(X,Y)< 0, la asociacion es inversa o negativa.
Si cov(X,Y) 0, no hay asociacion lineal.
17

Indicadores de Asociaci
on: Correlaci
on
La correlacion lineal entre dos variables se define como
n
X

(xi x)(yi y)

i=1

corr(X, Y ) = v
u n
n
X
uX
t (xi x)2
(yi y)2
i=1

i=1

Si corr(X, Y ) = 1, la correlacion es la maxima correlacion positiva o directa.


Si corr(X, Y ) = 1, la correlacion es la maxima correlacion negativa o inversa.
Si corr(X, Y ) 0, no existe correlacion o dependencia.
Una formula alternativa para calcular correlacion es
corr(X, Y ) =

sXY
sX sY

donde sX y sY son las desviaciones estandar de X e Y , respectivamente, y donde sXY es la covarianza


entre X e Y .
Otra formula alternativa es
 X  X 
X
xi y i
xi
yi /n
corr(X, Y ) = s
 X 2 sX
 X 2
X
2
2
xi
xi /n
yi
yi /n
Si bien no existe una regla general para decir si una correlacion es alta media o baja, en este
curso podemos adoptar el siguiente criterio:

18

Ejemplo 1.6.2 .
1. Consideremos los siguientes datos, donde X indica la temperatura media diaria en grados
Farenheit e Y , el consumo diario correspondiente de gas natural en pies c
ubicos.
X,F
Y,f t3

50
2.5

45
5.0

40
6.2

38
7.4

32
8.3

40
4.7

55
1.8

Realice un diagrama de dispersion y calcule el coeficiente de correlacion X,Y , si ademas cuenta


con las siguientes medidas de resumen:
X
X
X
X
X
xi = 300;
yi = 35,9;
x2i = 13218;
yi2 = 218,67;
xi yi = 1431,8
2. Considere los siguientes datos donde X, representa el n
umero de sucursales que 10 bancos diferentes tienen en un area metropolitana, e Y es la correspondiente cuota del total de dep
ositos
mantenidos por los bancos.
X 198
Y 22.7

186
16.6

116
15.9

89
12.5

120
10.2

109 28
6.8 6.8

a) Construya un diagrama de dispersion entre X e Y.


b) Calcule covarianza y correlacion.

19

58
4.0

34
2.7

31
2.8

1.6.7.

Ajuste de Curvas

En el problema de ajuste a curvas se desea que dado un par de variables (X, Y ) encontrar una
curva que se ajuste de la mejor manera a los datos. La curva esta definida en forma parametrica, y se
deben encontrar los valores de sus parametros para hacer que alguna medida de error se minimice.
Regresi
on Lineal Simple
Con la regresion lineal simple se pretende ir mas alla de ver la asociacion entre dos variables.
En concreto se quiere:
(i) Investigar la naturaleza de la asociacion.
(ii) Construir un modelo que describa la relacion entre ambas variables.
(iii) Predecir
Supongamos que un diagrama de dispersion de los datos de los puntos (xi , yi ) indica una relacion
lineal entre las variables X eY o, alternativamente, que el coeficiente de correlacion es cercano a 1
o -1. Entonces el siguiente paso es encontrar la recta L que en lag
unsentido ajuste los datos.
En general, el modelo de regresion lineal simple lo podemos plantear como la recta :
yi = a + bxi ,

i = 1, . . . , n.

(1.1)

donde
yi : es la variable respuesta o dependiente para el individuo i;
xi : es la variable explicativa o independiente para el individuo i,
a : representa el intercepto con el eje Y, y se interpreta como el valor que toma y cuando x =0.
b : representa la pendiente de la recta, y se interpreta como la cantidad que aumenta(disminuye) y
cuando x aumenta(disminuye) en una unidad.
La pendiente y el intercepto pueden calcularse de la siguiente manera:
b=

cov(X, Y )
rsy
=
sx
s2X

a = y b
x

Ejemplo 1.6.3 Considere los datos de los ejemplo 6.2 y 6.3, y encuentre la recta que se ajusta a
los datos.
Algunas veces el diagrama de puntos no indica una relacion lineal entre las variables X e Y pero
se podra observar alguna otra curva tpica y bien conocida Y = f (X) que puede aproximar los datos;
se le llama curva de aproximacion. Algunas de esas curvas tpicas son las siguientes analizamos la
relacion entres X e Y y determinamos que esta no se ajusta auna recta podemos analizar, entre
otros, los dos siguientes casos:

20

Ajuste Exponencial
Si entre log(y) y x observamos una relacion lineal, usaremos la curva exponencial:
yi = aebxi ,

i = 1, . . . , n.

Este ajuste se puede reducir a una regresion lineal de la siguiente forma


log(yi ) = a0 + b0 xi ,

i = 1, . . . , n.

donde
a0 =log(a)
b0 =b
Ajuste Polinomial
En este caso lo que hacemos es ajustar la relacion entre x e y a traves de un polinomio de grado
p:
yi = 0 + 1 xi + 2 x2i + 3 x3i , . . . , p xpi

i = 1, . . . , n.

Al incluir potencias de X logramos mayor flexibilidad en el modelo.


Si p=1, estamos en el caso de regresion lineal.
Si p=2, la regresion se llama cuadratica.
Otros Ajustes
Hip
erbola
Si entre 1/y y x observamos un relacion lineal usaremos la hiperbola:
y=

1
a + bx

1
= a + bx
y

Curva Geom
etrica
Si entre log(y) y log(x) observamos una relacion lineal usaremos la curva potencial:
y = axb

o log(y) = log(a) + b log(x)

21

Captulo 2
Probabilidades
2.1.

Introducci
on

Uno de los problemas que deberemos considerar e intentar evaluar, es el elemento de aleatoriedad
que se asocia a la ocurrencia de ciertos eventos cuando se lleva a cabo un experimento. En muchos
casos debe tenerse la capacidad de resolver un problema de probabilidad mediante el conteo del
n
umero de casos posibles sin realmente anotar cada uno de ellos.
Teorema 2.1.1 Si una operacion puede realizarse de n1 formas, y si por cada una de estas una
segunda operacion puede llevarse a cabo de n2 formas, entonces las dos operaciones pueden realizarse
juntas de n1 n2 formas.

Ejemplo 2.1.1 Cuantos son los resultados posibles cuando se lanza un dado dos veces?
Teorema 2.1.2 (Principio Multiplicativo) Si una operacion puede realizarse de n1 formas, y
si por cada una de estas puede efectuarse una segunda en n2 formas, y para cada una de las dos
primeras se puede efectuar una tercera de n3 formas, y as sucesivamente, entonces la secuencia de
k operaciones pueden realizarse de n1 n2 . . . nk formas.
Ejemplo 2.1.2 Cuantos men
us que consisten de sopa, postre y bebida existen si se puede seleccionar entre 4 sopas diferentes, 5 clases de postres y 4 bebidas?
Ejemplo 2.1.3 Cuantos n
umeros pares de tres dgitos pueden formarse con los dgitos 1, 2, 5, 6
y 9?
22

Con frecuencia interesa un conjunto que contiene como elementos todos los posibles ordenes o
arreglos de un grupo de objetos. Por ejemplo, se puede desear conocer cuantos arreglos diferentes
son posibles para sentar a 6 personas alrededor de una mesa, o bien, cuantas formas diferentes
exiten de tomar 5 ramos de un total de 8.
Definici
on 2.1.1 Una permutaci
on es un arreglo de todos, o parte de, un conjunto de objetos.
Considerense las tres letras a, b y c. Las permutaciones posibles son abc, acb, bca, cab, bac y
cba. Se puede ver que hay 6 distintos arreglos. Con el principio multiplicativo se pueded llegar a
que la respuesta es 6 sin escribir todas las posibles combinaciones. Hay n1 = 3 posibilidades para la
primera posicion, despues n2 = 2 para la segunda y unicamente n3 = 1 posibilidades para la u
ltima,
lo que da un total de n1 n2 n3 = 3 2 1 = 6 permutaciones.
En general, se pueden acomodar n objetos distintos en n (n 1) (n 2) . . . (3) (2) (1)
formas. Este producto se representa por el smbolo n!, que se lee n factorial. Por definicion, 1! =
1 y 0! = 1.
Teorema 2.1.3 El n
umero de permutaciones de n distintos objetos es n!
El n
umero de permutaciones de las cuatro letras a, b, c y d sera de 4! = 24. Considerese ahora
el n
umero posible de ellas al tomar las cuatro letras, pero de dos a la vez. Seran ab, ad, ac, ba, ca,
bc, cb, bd, db, cd, dc. De una nueva cuenta con el Teorema 7.1, se tiene dos posiciones para llenar
con laa n1 = 4 posibilidades para la primera y, por lo tanto, n2 = 3 posibilidades para la segunda,
para un total de n1 n2 = 4 3 = 12 permutaciones. En general, n objetos distintos, si se toman r a
la vez, pueden acomodarse en n (n 1) (n2) (n r + 1) formas.
Teorema 2.1.4 El n
umero de permutaciones de n objetos distintos tomando r a la vez, es:
n Pr

n!
(n r)!

Ejemplo 2.1.4 De cuantas maneras se puede programar 3 ayudantas en 3 distintos horarios, si


los alumnos tienen 5 modulos disponibles?
Las permutaciones que se dan al acomodar objetos en un crculo se llaman permutaciones
circulares. Dos de estas no se consideran diferentes a menos que a los objetos correspondientes en
los dos arreglos les preceda o les siga un objeto diferente al avanzar en el sentido de las manecillas
del reloj. Por ejemplo, si 4 personas juegan a las cartas, no se tiene una nueva permutacion si todas
se mueven una posicion en esa direccion. Al considerar a una en un lugar fijo y acomodar a las otras
tre en 3! formas diferentes, se encuentra que hay 6 acomodos dsitintos para el juego de cartas.
Teorema 2.1.5 El n
umero de permutaciones de n objetos distintos agregados en un crculo es
(n-1)!
Hasta ahora se han considerado permutaciones de objetos diferentes. Esto es, todos los objetos
eran distintos o totalmente distinguibles. Si consideramos la palabra OSO, entonces las 6 permutaciones de las letras de esta palabra son O1 SO2 , O1 O2 S, SO1 O2 , O2 SO1 , O2 O1 S, SO2 O1 , por lo que
u
nicamente tres son distintas. Por lo tanto, con tres letras, siendo dos iguales, se tienen 3!/2! = 3
diferentes permutaciones.
23

Teorema 2.1.6 El n
umero de permutaciones diferentes de n objetos de los cuales n1 son de un
tipo, n2 son de un tipo, . . ., nk de un k- esimo tipo, es:
n!
n1 !n2 ! nk !
Ejemplo 2.1.5 De cuantas formas diferentes pueden acomodarse 3 ampolletas rojas, 4 amarillas
y 2 azules en un panel con 9 espacio para 9 luces?
Con frecuencia interesa el n
umero de formas en que se pueden repartir n objetos en r subconjuntos llamados celdas. La particion se logra si la interseccion de cada par posible de r subconjuntos
es el conjunto vaco y si la union de todos los subconjuntos da como resultado el conjunto original.
No importa el orden de los objetos dentro de una celda.
Teorema 2.1.7 El n
umero de formas de partir un conjunto de n objetos en r celdas con n1 elementos en la primera celda, n2 elementos en la segunda, y as sucesivamente, es:


n
n!
=
n1 !n2 ! nr !
n1 n2 nr
donde n1 + n2 + + nr = n
Ejemplo 2.1.6 De cuantas formas distintas pueden 7 cientficos acomodarse en un laboratorio
para tres personas y dos laboratorios para dos personas?
En muchos problemas interesa el n
umero de formas posibles de seleccionar r objetos de un
total de n sin importar el orden. Estas selecciones se llaman combinaciones. Una combinacion es
realmente una particion en dos celdas, una de las cuales contiene los r objetos que se seleccionaron
y la otra, los (n r) objetos restantes.
Teorema 2.1.8 El n
umero de combinacioines de n objetos distintos, tomando r a la vez es
 
n
n!
=
r!(n r)!
r
Ejemplo 2.1.7 Encuentre el n
umero de comites que pueden formarse con 4 qumicos y 3 fsicos y
que comprendan 2 qumicos y 1 fsico.
Ejercicios 2 .
1. A los participantes de una convencion se les ofrecen 6 recorridos por da para visitar lugares
de interes durante los 3 das de duracion del evento. De cuantas formas puede una persona
acomodarse para hacer alguno de ellos?
2. Si un experimento consiste en lanzar un dado y despues seleccionar aleatoriamente una letra
del alfabeto, cuales son los posibles resultados?
3. De cuantas formas pueden plantarse, a lo largo de la lnea divisoria de una propiedad, 3
robles, 4 pinos y 2 arces, si uno no distingue entre los arboles de la misma clase?

24

2.2.

Modelo de Probabilidad

En el estudio de la estadstica interesa, basicamente, la presentacion e interpretacion de resultados aleatorios que se dan en un estudio planeado o en una investigacion cientfica. Por ejemplo,
es posible registrar el n
umero de accidentes que ocurren mensualmente en una determinada interseccion de calles, con el proposito de justificar la instalcion de un semaforo; clasificar los artculos
que salen de una lnea de ensamble como defectuosos o no defectuosos; o bien, tener interes en
conocer el volumen de gas que se libera durante una reaccion qumica cuando la concentracion de
un acido vara. De aqu que se manejen datos experimentales, que representan conteos o mediciones,
o tal vez datos categoricos que puedan clasificarse de acuerdo con alg
un criterio.
Necesitamos entonces una forma matematica para cuantificar la incertidumbre.
Utilizaremos la palabra experimento, E, para describir cualquier proceso que genere un conjunto de datos. Un ejemplo muy simple de un experimento consiste en el lanzamiento de una moneda
la aire. En este caso solo existen dos resultados posibles: cara o sello. Otro experimento podra
ser el lanzamiento de un proyectil y la observacion de su velocidad en un perodo de tiempo. Las
opiniones de los votantes respecto de un candidato a alcalde tambien pueden considerarse como
observaciones de un experimento. Aqu interesan particularmente las observaciones que se obtienen
en la repeticion de un experimento. En la mayor parte de los casos los resultados dependeran del
azar y, por lo tanto, no pueden pronosticarse con certidumbre. Si un qumico realiza varias veces
un analisis bajo las mismas condiciones y obtiene diferentes mediciones, ello indica la existencia
de un elemento de aleatoriedad en el procedimiento experimental. Incluso cuando una moneda se
lanza al azar repetidamente, no es posible garantizar que en un lanzamiento dado se obtendra como resultado una cara. No obstante, s se conoce el conjunto completo de posibilidades para cada
lanzamiento.

2.2.1.

Espacio Muestral

Definici
on 2.2.1 Al conjunto de todos los resultados posibles de un experimento estadstico se le
llama espacio muestral y se representa por la letra S.
A cada resultado en un espacio muestral se le llama elemento del espacio muestral o simplemente punto muestral.
Ejemplo 2.2.1 Determine el espacio muestral del siguiente experimento: se lanza una moneda y
si sale cara, se lanza un dado; si sale sello, se vuelve a lanzar.

2.2.2.

Eventos

Definici
on 2.2.2 Un evento A, respecto a un espacio muestral S, asociado a un experimento E,es
un subconjunto de resultados posibles.
Es claro que S en s mismo es un evento y tambien lo es el conjunto vaco. Cualquier resultado
individual tambien puede considerarse como un evento.

25

Definici
on 2.2.3 El complemento de un evento A con respecto a S es el conjunto de todos los
elementos de S que no estan en A, es decir, es el suceso que se da si A no ocurre. Denotamos el

complemento de A por el smbolo Ac , tambien escrito A.


Definici
on 2.2.4 La intersecci
on de dos eventos A y B, AB, es el evento que contiene a todos
los elementos comunes a A y a B, es decir, es el evento que ocurre si A y B ocurren.
Definici
on 2.2.5 Dos eventos A y B son mutuamente excluyentes o disjuntos si AB = ,
esto es, si A y B no tienen elemento comunes.
Definici
on 2.2.6 La uni
on de los dos eventos A y B, AB es el evento que contiene a todos los
elementos que pertenecen a A, o a B o a ambos.
Ejemplo 2.2.2 Sea el experimento
E: lanzar un dado y observar el n
umero que sale,
y sean los eventos:
A: sale un n
umero par,
B: sale un n
umero impar,
C: sale un n
umero primo.
Determinar el espacio muestral y los elementos de los siguientes conjuntos:
a) A C
b) B C
c) C c
Definici
on 2.2.7 Sea A la clase de eventos (aleatorios) de S. A es un - a
lgebra de subconjuntos
de S (no vaco) si:
i) S A
ii) A A Ac A
iii) A1 , A2 , . . . A

i=1

Ai A

Nota: (S,A) se llama espacio medible.


Ejercicios 3 Demuestre las siguientes propiedades:
i) A
T
S
ii) A1 , A2 , . . . , An A ni=1 Ai A, ni=1 Ai A
T
iii) A1 , A2 , . . . A
i=1 Ai A

26

2.2.3.

Medida de Probabilidad

Finalmente, dado un - algebra A de eventos de S, para concretar nuestro modelo debemos


introducir una medida de probabilidad sobre (S,A).
Definici
on 2.2.8 Una medida de probabilidad P sobre (S,A) es una funcion
P : A [0, 1]
tal que cumple con los siguientes tres axiomas de Kolmogorov:
A1 P(A) > 0

AA

A2 P(S) = 1
A3 Si A1 , A2 , . . . A son disjuntos dos a dos, entonces
P

 X
Ai =
P (Ai )

i=1

i=1

(S, A, P)se llama modelo de probabilidad.


Lema 1 Sea (S, A, P) un modelo de probabilidad. Entonces valen las siguientes propiedades:
a) P() = 0
b) Si A1 , . . . , An A son disjuntos dos a dos, entonces
P

n
[

Ai =

i=1

n
X

P (Ai )

i=1

Propiedades de P
Dado un modelo de probabilidad (S, A, P) se desprende de A1, A2 y A3 que:
P1) P(Ac ) = 1 P(A)
P2) A B P(A) P(B)
P3) P(A B) = P(A) + P(B) P(A B)
S
P
P4) P(
i=1 Ai )
i=1 P(Ai )
Ejercicios 4 .
1. Un espacio muestral S se compone de cuatro elementos, es decir, S = {a1 , a2 , a3 , a4 }. Bajo
cuales de las siguientes funciones S llega a ser un espacio probabilstico?
a)
P(a1 ) = 1/2

P(a2 ) = 1/3
27

P(a3 ) = 1/4

P(a4 ) = 1/5

b)
P(a1 ) = 1/2

P(a2 ) = 1/4

P(a3 ) = 1/4

P(a4 ) = 1/2

P(a1 ) = 1/2

P(a2 ) = 1/4

P(a3 ) = 1/8

P(a4 ) = 1/8

P(a1 ) = 1/2

P(a2 ) = 1/4

c)
d)
P(a3 ) = 1/4

P(a4 ) = 0

2. Sean tres sucesos A, B y C. Encuentre expresiones para los siguientes sucesos en lenguaje de
conjuntos.
a) Solo ocurre A.
b) Ocurren tanto B como C, pero no as A.
c) Los tres sucesos ocurren.
d) Ninguno de los tres sucesos ocurre.
e) A lo mas dos de ellos ocurren.
f) Al menos dos de los sucesos ocurren.
g) Al menos uno de los sucesos ocurre.
h) Exactamente dos de ellos ocurren.

28

2.2.4.

Espacios Probabilsticos Finitos

Consideremos un espacio muestral S y la clase A de todos los sucesos. S se convierte en un


espacio probabilstico asignando probabilidades a los sucesos de A de tal forma que satisfaga los
axiomas de probabilidad.
Espacios finitos equiprobables
Supongamos que S es un espacio muestral finito con n elementos y supongamos que las caractersticas fsicas del experimento sugieren que a varios de los resultados se les asignen probabilidaes iguales.
Entonces S se convierte en un espacio probabilstico, llamado espacio finito equiprobable, si a cada punto se le asigna probabilidad 1/n y si a cada suceso A que contiene r puntos, probabilidad r/n.
Por lo tanto,
P(A) =

n(A)
n(S)

Teorema 2.2.1 Sea S un espacio muestral finito, y para cualquier A S sea


P(A) =

n(A)
n(S)

Entonces P cumple los axiomas A1, A2 y A3.


Ejemplo 2.2.3 Supongamos que se elige aleatoriamente a un estudiante entre 80, de los cuales
30 estudian matematicas, 20 qumica y 10, ambas. Hallar la probabilidad p de uqe un estudiante
est
a estudiando matematicas o qumica.
Sea S un espacio muestral finito, digamos S ={a1 , a2 , . . . , an } un espacio probabilstico finito, o
modelo probabilstico finito, se obtiene asinando a cada punto ai de S un n
umero real pi llamado
probabilidad de ai , que cumple con las siguientes propiedades:
a) cada pi es no negativo, pi 0
Pn
b)
i=1 pi = 1
Ejercicios 5 .
1. Supongamos que A y B son sucesos con
P(A) = 0,6;

P(B) = 0,3

Hallar la probabilidad de
a) A no ocurra.
b) B no ocurra.
c) A o B ocurran
d) Ni A ni B ocurran
29

P(A B) = 0,2

2. Un naipe ingles consta de 52 cartas agrupadas en cuatro pintas (corazon, pique, trebol y
diamante) y 13 n
umeros (As, 2, . . ., 9, 10, J, Q K). Se elige consecutivamente al azar y
sin reemplazo cinco cartas de este naipe. Calcule las probabilidades de los siguientes eventos
o sucesos:
a) Las primeras tres cartas son diamantes y las dos u
ltimas son pique.
b) Hay exactamente cuatro cartas del mismo n
umero.
c) Hay tres cartas de un mismo n
uumero y dos de otro.

30

2.3.
2.3.1.

Probabilidad Condicionada e Independencia


Probabilidad Condicional

Definici
on 2.3.1 Supongamos que A, B son sucesos de un espacio muestral S. La probabilidad
condicional que A ocurra dado que B ha ocurrido, P(A | B) se define y denota como
P(A | B) =

P(A B)
,
P(B)

P(B) > 0

y
P(A | B) = 0,

si P(B) = 0.

P(A | B) mide en cierto modo la probabilidad relativa de A con respecto al espacio reducido de
B.
Ejemplo 2.3.1 Hallar P(B | A) si:
1. A es un subconjunto de B.
2. A y B son mutuamente excluyentes. (Asumimos que P(A) > 0)
Teorema 2.3.1 Supongamos que S es un espacio equiprobable, y que A y B son sucesos. Entonces
P(A | B) =

n(A B)
n(B)

es una medida de probabilidad


Ejemplo 2.3.2 Se tiran un par de dados y se define
A: salga 2 en al menos uno de los dados
B: la suma es 6.
Encontrar P(A | B) y P(A)
Teorema 2.3.2 (Multiplicacion para la probabilidad condicional)
P(A B) = P(B | A)P(A)

Corolario 1 P(A B C) = P(C | A B) P(B | A) P(A)

Ejemplo 2.3.3 Un lote contiene 12 objetos de los cuales 4 son defectuosos. Se sacan tres objetos
al azar del lote, uno detras de otro. Hallar la probabilidad de los tres no sean defectuosos.

31

Definici
on 2.3.2 Los sucesos A y B son independientes si P(A B) = P(A)P(B), de cualquier
otra forma seran dependientes.
Esta definicion nos lleva a concluir que A y B son sucesos independientes si
P(A | B) = P(A) y

P(B | A) = P(B)

Nota:
1.- Se dice que A1 , A2 , . . . , An A son dos a dos independientes ssi
P(Ai Aj ) = P(Ai ) P(Aj )

i<j

2.- Independencia dos a dos no implica independencia completa.


3.- La complementacion de uno o mas eventos no destruye la independencia.
4.- Sea C A un evento tal que P(C) > 0. Entonces A y B son condicionalmente independientes
dado C,
AB | C P(A B | C) = P(A | C) P(B | C)
5.- Observemos que los eventos disjuntos no son independientes a menos que uno de ellos tenga
probabilidad cero. Es decir, supongamos A B = y A y B son independientes. Entonces
P(A)P(B) = P(A B) = 0
y por lo tanto
P(A) = 0 o P(B) = 0
Ejemplo 2.3.4 .
1. Demostrar que si A y B son sucesos independientes, entonces A{ y B { son sucesos independientes.
2. Urna de Polya
Una urna contiene a fichas azules y r fichas rojas. El experimento consiste en:
(i) Extraer una ficha y observar su color.
(ii) Devolver la ficha con t fichas adicionales del mismo color.
(iii) Seguir iterando
Para tres ectracciones defina:
Ai : la i-esima ficha es azul,
Calcule P(A1 A2 A3 )

32

i= 1, 2, 3.

2.3.2.

Probabilidad Total

Definici
on 2.3.3 Una familia de eventos B1 , . . . , Bn A se llama partici
on de S si:
k
[

Ai = S

Ai Aj =

i 6= j.

i=1

Teorema 2.3.3 Supongamos que los sucesos A1 , A2 , . . . , Ak forman una particion de S. Entonces
para cualquier evento B se tiene que
P(B) =

k
X

P(B | Ai )P(Ai )

i=1

2.3.3.

Teorema de Bayes

Teorema 2.3.4 Bajo las mismas condiciones del teorema anterior se tiene que
P(B | Ai )P(Ai )
P(Ai | B) = Pk
j=1 P(Aj )P(B | Aj )
Ejercicios 6 .
1. Supongamos que tenemos las tres cajas siguientes:
La caja A tiene 3 fichas rojas y 5 blancas.
La caja B tiene 2 rojas y una blanca.
La caja C tiene 2 rojas y 3 blancas.
Se escoge una caja al azar, y una ficha de dicha caja. Si la ficha es roja, hallar la probabilidad
de que sea de la caja A.
2. En una ciudad el 40 % de la gente se considera conservadora (C), el 35 % liberales (L), y el
25 % independientes (I). Durante las elecciones votaron el 45 % de los conservadores, el 45 %
de los liberales y el 60 % de los independientes tambien. Si se elige un votante al azar, hallar
la probabilidad de que el votante sea conservador, liberal e independiente. bilidad de que esta
persona tenga el cancer en cuestion? lidad de que el proceso de llenado de las botellas haya
sido a baja velocidad, si se sabe que la botella esta efectivamente con un volumen incorrecto?

33

2.4.
2.4.1.

Variables Aleatorias
Introducci
on

Informalmente una variable aleatoria puede definirse como una funcion numerica sobre , el
espacio muestral:
X:R
X es una funcion tal que asigna a cada un n
umero.
Nota: Usualmente, el recorrido de X, Rec(X), es un subconjunto de R.
Ejemplo 2.4.1 Sea = {CC, CS, SC, SS} y sea la variable aleatoria definida por
X() = n
umero de caras,
Cual es el recorrido de la variable aleatoria X?
Formalmente:
Definici
on 2.4.1 Dado un modelo de probabilidad (, A, P), diremos que una funcion
X:R
es una variable aleatoria ssi
{ : X() x} A, x R
X es una variable aleatoria en (, A, P) ssi { : X() x} es un evento (aleatorio) en
A, x R
uscula , la variable
Notacion: Si el valor de la variable aleatoria se denota por una letra min
se denota por la letra may
uscula correspondiente. Normalmente se utilizan las u
ltimas letras del
alfabeto.
El suceso el valor x de X pertenece al conjunto Bse denota por X B. Cuando B = {x} se
simplifica la notacion a {X = x}.
Definici
on 2.4.2 Dada una variable aleatoria X definida en (, A, P), la distribuci
on de probabilidad inducida por X en R se define, para un evento B R como:
PX (B) = P(X 1 (B))
donde X 1 (B) = { : X() B} es un evento en .
Conocer la distribucion de probabilidad para un subconjunto B implica que podemos PX para
cualquier B R (medible).
En general, cada B R medible puede generarse a partir de uniones y/o intersecciones de
intervalos de la forma [an , bn ]. La coleccion de estos intervalos de la forma (a, b] genera una algebra en R, llamada -
algebra de Borel y denotada por B. Los elementos de B se llaman
Borelianos y son subconjuntos medibles de R.
34

Proposici
on 1 PX es una medida de probabilidad en (R, B) (R, B, PX ) es una medida de
probabilidad (inducida por la variable aleatoria X).
Definici
on 2.4.3 La funcion definida por
FX (x) = PX ((, x])
= P(X x), x R
se llama funci
on de distribuci
on acumulada, f.d.a, de la variable aleatoria X.
Propiedades
Sea FX (x), x R, la funcion distribucion de X,
P1)
lm FX (x) = 0 y

(0 FX (x) 1

lm FX (x) = 1

x)

P2) Si x1 < x2 , entonces FX (x1 ) FX (x2 )


(FX es no decreciente en R)
P3)
lm FX (x) = FX (x0 )

xx0

(FX es continua por la derecha)

35

x0 R

2.4.2.

Variables Aleatorias Discretas

FX (x), x R, es discreta ssi la variable aleatoria X es discreta, es decir, X asume valores en


un subconjunto contable de R.
X() {x1 , x2 , . . .}

En tal caso, FX (x), x R, puede representarse como:


X
FX (x) =
P(X = t),

x S,

tx

donde
P(X = x),

x R, se llama funci
on de probabilidad.

Sigue de la definicion de P(X = x), x R, que:


i)
P(X = x) 0

xR

ii)
X

P(X = x) = 1

xR

iii)
PX (B) = P(X B) =

P(X = x)

xB

Ejemplo 2.4.2
Un dado no equilibrado asigna a la cara con el n
umero x probabilidades dadas por
p(x) = c 0, 7x 0, 36x , x = 1, . . . , 6
1. Calcule el valor de c.
2. Haga una tabla con los valores de la funcion de distribucion F.
3. Utilice la tabla para calcular la probabilidad que
(i) El n
umero este entre 2 y 4.
(ii) El n
umero sea mayor que 2.
Ejemplo 2.4.3 Si 50 % de los automoviles extranjeros que vende una agencia esta equipado para
trabajar con diesel, encuentre una formula para la distribucion de probabilidad del n
umero de modelos
diesel entre los proximos 4 automoviles que venda esta agencia. Determine la f.d.a de la variable
de interes.

36

2.4.3.

Variables Aleatorias Continuas

FX (x), x R es continua ssi existe una funcion no negativa fX (x), x R, tal que:
Z x
fX (t)dt,
xR
FX (x) =

dFX (x)
dx
donde fX (x) se denomina funci
on de densidad de la variable aleatoria X.
fX (x) =

Note que:
i)
fX (x) 0
ii)
Z

fX (x) dx = 1

iii)
Z
PX (B) = P(X B) =

fX (x)dx
B

Si B es un intervalo, por ejemplo, B = (a, b), entonces se tiene lo siguiente:


PX (B) = P(a < X < b)
= P(a < X < b)
= P(a < X b) pues P(X = b) = 0,
= FX (b) FX (a)
Z b
Z a
Z
=
fX (x) dx
fX (x) dx =
fX (x) dx

Ejemplo 2.4.4 Suponga que el error de la temperatura de reaccion, en C, para un experimento


controlado de laboratorio es una variable aleatoria continua X, que tiene funcion de densidad de
probabilidad:
 x2
, -1 < x < 2
3
fX (x) =
0, e.o.c.
a) Verifique la condicion (ii).
b) Encuentre P(0 < X 1)
Definici
on 2.4.4 La distribuci
on acumulada FX (x) de una variable aleatoria continua X con
densidad fX es:
Z x
FX (x) = P(X x) =
fX (t) dt x R

Ejemplo 2.4.5 Para la funcion de densidad del ejemplo anterior, encuentre FX y utilcela para
calcular P(0 < X 1)

37

2.4.4.

Localizaci
on y dispersi
on de una variable aleatoria

Definici
on 2.4.5 La esperanza de una variable aleatoria X se define como:

X

xi fx (xi ),
X discreta

i=1
E(X) =
Z

xfX (x)dx, X continua

Notacion: X = E(X)
Propiedades
1.- La esperanza matematica es un operador lineal, esto es, si E(X) esta bien definida, entonces
E(aX + b) = aE(X) + b
2.- Si X e Y son variables aleatorias, entonces
E(X + Y ) = E(X) + E(Y )
3.- Si X e Y son variables aleatorias con esperanzas bien definidas y tales que
X() Y ()
entonces E(X) E(Y )
Definici
on 2.4.6 La mediana de una variable aleatoria X es alg
un n
umero m tal que:
P(X m) 1/2 y

P(X m) = 1/2

Notas:
i) Si X tiene distribucion simetrica y E(X) < , entonces E(X) es una mediana para X.
ii) Si X tiene distribucion asimetrica, la mediana de X puede ser una mejor medida de localizacion.
Dos distribuciones pueden tener la misma localizacion y ser completamente diferentes, por lo
que hay que considerar una medida de dispersion de la variable, la mas com
un, es la varianza.
Definici
on 2.4.7 La varianza de una variable aleatoria X se define como
V (X) = E[(X E(X))2 ]

X

(xi E(X))2 P(X = xi )

V (X) =
Zi=1

(x E(X))2 fX (x)dx

Notacion:

2
X

= V (X)

38

Propiedades
1.- V (X) = E(X 2 ) (E(X)2 )
2.- V (X) 0, V (X) = 0 X = c
3.- V (aX + b) = a2 V (X)
4.- Si X e Y son variables aleatorias, entonces
V(X + Y ) = V(X) + V(Y ) 2 Cov(X, Y )
Solo en el caso en que X e Y son variables aleatorias independientes, entonces
V(X + Y ) = V(X) + V(Y )
Ejemplo 2.4.6 Sea X la variable aleatoria que cuenta el n
umero de caras en tres lanzamientos de
una moneda honesta. Determine el recorrido, la funcion de distribucion, valor esperado y varianza
de X.
Ejemplo 2.4.7 Sea A un evento en (, A, P), con P(A) = p, con 0 p 1. Usted paga $1 se A
ocurre y $0 si A{ ocurre.
Sea X la ganancia obtenida en un ensayo de este experimento. Determine esperanza y varianza de
X.

39

2.4.5.

Casos especiales de distribuciones probabilidad

Distribuci
on Bernoulli
Consideremos un experimento con solo dos resultados posibles, uno que se llame exito (E) y
otro, fracaso (F). Los resultados sucesivos e independientes de tal experimento se llaman pruebas
o experimentos Bernoulli.
En realidad, cualquier experiemnto puede ser usado para definir un ensayo Bernoulli simplemente
denotando alg
un evento de interes, A, como exito y su complemento, A{ , como fracaso.
Notaci
on: X Bernoulli(p) y su funcion de probabilidad esta dada por
P(X = x) = px (1 p)1x ,

x = 0, 1

donde
E(X) = p
V (X) = p(1 p)
Distribuci
on Binomial
Un experimento que consiste de n ensayos Bernoulli independientes, cada uno con probabilidad
de exito p, se llama un experimento Binomial con n ensayos y parametro p.
Al decir ensayos independientessignifica que los ensayos son eventos indeoendientes esto es, lo
que ocurra en un ensayo no tiene efecto en el resultado observado para cualquier otro ensayo.
Definici
on 2.4.8 Sea X el n
umero total de exitos observados en un experimento Binomial con n
ensayos y parametro p. Entonces X se llama variable aletoria Binomial con parametros n y p
y se denota
X Bin(n, p)
y su funcion de probabilidad esta dada por
 
n x
P(X = x) =
p (1 p)nx ,
x

x = 0, 1, . . . , n

Teorema 2.4.1 La esperanza y varianza de la distribucion Binomial estan dadas por:


E(X) = n p
V (X) = n p (1 p)
Ejemplo 2.4.8 Se sabe que el n
umero de pacientes graves en una urgencia es una variable aleatoria
Binomial con una media de 12 pacientes graves y una varianza de 3. Determine la probabilidad que
en un da haya a lo menos 2 pacientes en estado grave.

40

Distribuci
on Geom
etrica
Definici
on 2.4.9 Si se realizan repetidos experimentos Bernoulli independientes con probabilidad
de exito p, entonces la distribucion de la variable aleatoria X, el n
umero de experimentos necesarios
hasta encontrar el primer exito sigue una distribuci
on geom
etrica de parametro p y se denota
por:
X Geo(p)
con funcion de probabilidad dada por
P(X = x) = (1 p)x1 p,

x = 1, 2, 3, . . .

Teorema 2.4.2 La esperanza y varianza de la distribucion geometrica estan dadas por:


1
p
1p
V (X) =
p2
E(X) =

Ejemplo 2.4.9 Cacule la probabilidad de que deba lanzar un dado por lo menos 6 veces hasta
obtener un 5.
Distribuci
on Binomial Negativa
Definici
on 2.4.10 Consideremos ensayos Bernoulli independientes con probabilidad de exito p en
cada ensayo. Si X es el n
umero de ensayos necesarios para observar el r-esimo exito, entonces X
se llama variable aleatoria Binomial negativa con parametros r, y p su funcion de probabilidad
est
a dada por


x1 r
P(X = x) =
p (1 p)xr ,
x {r, r + 1, . . .}
r1
y se denota por
X BinN eg(r, p)
Teorema 2.4.3 La esperanza y varianza de la distribucion Binomial Negativa estan dadas por:
r
p
r(1 p)
V (X) =
p2
E(X) =

Ejemplo 2.4.10 Cacule la probabilidad de que deba lanzar un dado por lo menos 6 veces hasta
obtener 5 tres veces.

41

Distribuci
on Poisson
Definici
on 2.4.11 Una variable aleatoria X que cuenta el n
umero de eventos que ocurren en un
perodo de tiempo tiene distribuci
on Poisson de parametro > 0, y su funcion de probabilidad
est
a dada por
e x
P(X = x) =
, x = 0, 1, . . .
x!
y se denota por
X P oisson()
Teorema 2.4.4 La esperanza y varianza de la distribucion Poisson estan dadas por:
E(X) =
V (X) =
Ejemplo 2.4.11 Se sabe que los pacientes llegan de acuerdo a una distribucion Poisson con = 3
pacientes/minuto. Cuando llegan mas de 4 pacientes por minuto la secretaria se ve sobrepasada y
el servivio de atencion es calificado como deficiente. Cual es la probabilidad de que el sistema sea
calificado como no deficiente?
Distribuci
on Uniforme
Definici
on 2.4.12 Una variable aleatoria X tiene distribuci
on uniforme si su densidad se distribuye por igual entre dos valores cualquiera a y b. Su funcion de densidad esta dada por
 1
, a < x < b,
ba
fX (x) =
0,
e.o.c.
Notacion: X U(a, b)
Teorema 2.4.5 La esperanza y varianza de la distribucion Uniforme estan dadas por:
a+b
2
(b a)2
V (X) =
12
E(X) =

Ejemplo 2.4.12 En los das del verano, X, el tiempo de retraso de un tren del Metro, se puede
modelar como distribuida uniformemente entre 0 y 20 minutos.
1. Calcule la probabilidad de que el tren llegue por lo menos con 8 minutos de retraso.
2. Calcule la desviacion estandar del tiempo de retraso del tren.

42

Distribuci
on Exponencial
Definici
on 2.4.13 Suponga que los eventos suceden aleatoriamente a lo largo del tiempo, con un
tiempo esperado entre eventos . Sea X, la variable aleatoria que cuenta el tiempo para el siguiente
evento, entonces X tiene distribuci
on exponencial y su funcion densidad esta dada por
 1 x/
e
, x > 0,

fX (x) =
0,
e.o.c.
donde > 0 y se denota por
X exp()
Teorema 2.4.6 La esperanza y varianza de la distribucion Exponencial estan dadas por:
E(X) =
V (X) = 2
Ejemplo 2.4.13
En un centro rural para la atencion de emergencias el tiempo entre llegadas sigue una distribuci
on
exponencial con un tiempo media de llegadas de 1.25 horas. Encuentre la probabilidad de que el
tiempo entre llegadas sea mayor a 1 hora. Encuentre la probabilidad de que el tiempo entre llegadas
sea mayor a 2 horas.
Distribuci
on Normal
Definici
on 2.4.14 La variable aleatoria X tiene distribuci
on normal con media y varianza
2 si su funcion de densidad esta dada por
fX (x) =

1
2 2

(x)2
2 2

< x <

Notacion: X N(, 2 )
Definici
on 2.4.15 Si Z es una variable aleatoria normal con media 0 y varianza 1, entonces Z se
llama variable aleatoria normal est
andar.
Cualquier variable aleatoria normal X se puede transformar en una variable aleatoria normal
estandarizada Z, sustrayendo el valor esperado y dividiendo el resultado por .
Ejemplo 2.4.14 Considere la distribucion normal estandar con media = 0 y desviacion = 1.
1. Cual es la probabilidad que z sea mayor que 2,6?
2. Cual es la probabilidad que z sea menor que 1,3?
3. Cual es la probabilidad que z este entre -1.7 y 3.1?
4. Cual es el valor de z que corta el 15 % menor de la distribucion?

43

Ejercicios 7 .
1. Clasifique las siguientes variables como discretas o continuas.
X : el n
umero de accidentes de automovil por a
no en la ciudad de Santiago.
Y : el tiempo que toma jugar 18 hoyos de golf.
M : la cantidad de leche producida anualmente por una vaca en particular.
N : el n
umero de huevos que pone mensualmente una gallina.
P : el n
umero de permisos para la construccion de edificios que otorga mensualmente una
municipalidad.
Q : la cantidad de kilos de manzanas que exporta una empresa.
2. Si p(x) = c (5 x) para x = 0, 1, 2, 3. Cual es el valor de c?
3. Ciertos temes son producidos por una maquina, cada item es clasificado como de primera o
segunda calidad; los temes de segunda calidad representan al 5 % de la produccion total. Si se
inspeccionan temes hasta que se encuentra el quinto de segunda calidad,
a) Determine la variable aleatoria y su funcion de probabilidad.
b) Cual es el n
umero esperado de temes que se deben inspeccionar para detectar el quinto
de segunda calidad?
c) Cual es la probabilidad de que se tengan que inspeccionar 7 artculos?
4. Una variable aleatoria continua X que puede tomar valores entre x=2 y x=5 tiene una funci
on
de densidad
2(1 + x)
fX (x) =
27
Calcule
a) P(X < 4)
b) P(3 < X < 4)
5. Una maquina que marca n
umeros telefonicos al azar selecciona aleatoriamente cuatro dgitos
entre 0000 y 9999 (incluido ambos). Trate a la variable Y, el n
umero seleccionado, como
si fuese continua (aun cuando hay solo hay 10000 posibilidades discretas) y uniformemente
distribuida.
a) Encuentre P(0300 < Y < 1300)
b) P(Y > 5555)
c) Encuentre la varianza de Y
6. En una central nuclear ocurren aleatoriamente a lo largo del tiempo eventos poco comunes
(problemas menores de operacion). El tiempo medio entre dos eventos es 40 das.

44

a) Cual es la probabilidad de que el tiempo para el siguiente evento poco com


un se encuentre entre 20 y 60 das?
b) Cual es la probabilidad de que pasen mas de 60 das sin probemas?
c) Encuentre la desviacion estandar del tiempo para el siguiente evento poco com
un.
d) Un analisis de los archivos de la central nuclear muestra que los eventos poco comunes suceden con mayor frecuencia los fines de semana, que hipotesis subyacente a las
respuestas de las preguntas anteriores se pone en duda?
7. Sea Z una variable aleatoria normal estandarizada. Calcule:
a) P(0 Z 1,96)
b) P(Z > 1,96)
c) P(1,96 Z 1,96)
d) P(0 Z 1,96)
8. Los ingresos anuales de los profesores de la universidad siguen una distribucion normal con
media 18600 dolares y una desviacion estandar de 27000 dolares. Encuentre la probabilidad
de que un profesor seleccionado al azar tenga
a) un ingreso anual inferior a 15000 dolares.
b) un ingreso mayor a 21000 dolares.
c) un ingreso mayor a 25000 y de a lo mas 30000 dolares.

45

2.4.6.

Funciones de Variables Aleatorias

Definici
on 2.4.16 Sea X una variable aleatoria y sea g una funcion con dominio en S y valores
en R. El valor esperado de g(X) esta dado por

X

g(xi )P(X = xi ), X discreta

E(g(X)) =
Zi=1

g(x)f (x)dx,
X continua

Momentos y funciones generadoras de momentos


Definici
on 2.4.17 Dada una variable aleatoria X se definen:
(i)

X

xki fx (xi ),
X discreta

k
E(X ) =
Zi=1

xk fX (x)dx, X continua

como el k-esimo momento (no centrado) de X.


(ii)

X

(xi )k fx (xi ),
X

k
E((X ) ) =
Zi=1

(x )k fX (x)dx, X

discreta
continua

como el k-esimo momento centrado de X.


Definici
on 2.4.18 La funci
on generadora de momentos (f.g.m.) de una variable aleatoria X
se define como

X

etxi fx (xi ),

MX (t) =
Zi=1

etx fX (x)dx,

con t R.
Ejemplo 2.4.15 Determine su funcion generadora de momentos para las siguientes distribuciones:
a) X Bin(n, p)
b) X N(0, 1)
Teorema 2.4.7 Sea X una variable aleatoria con funcion generadora de momentos MX (t). Entonces

dk MX (t)
k
E(X ) =
dtk t=0
46

Ejemplo 2.4.16 Utilizando las respectivas f.g.m calcule la media de X si


a) X Bin(n, p)
b) X N(0, 1)
Teorema 2.4.8 (Teorema de Unicidad)
Sean X e Y dos avriables aleatorias con funciones generadoras de momentos MX (t) y MY (t), respectivamente. Si MX (t) = MY (t) para todos los valores de t, entonces X e Y tienen la misma
distribucion de probabilidad.
Teorema 2.4.9 Si Y = cX + d, entonces MY (t) = etd MX (ct)
Ejemplo 2.4.17 Sea X una variable aleatoria con distribucion normal estandar. Determine la
f.g.m. de Y = + X.
Transformaci
on de variables
Frecuentemente, en estadstica, se presenta la necesidad de deducir la distribucion de probabilidad de una funcion de una o mas variables aleatorias. Por ejemplo supongamos que X es una variable
aleatoria discreta con distribucion de probabilidad f (x) y supongamos ademas que Y = g(X) define una transformacion uno a uno entre los valores de X e Y . Se desea encontrar la distribucion
de probabilidad de Y . Es importante resaltar el hecho que la transformacion uno a uno implica
que cada valor de x esta relacionado con un, y solo un valor de y = g(x) y que cada valor de y
esta relacionado con un, y solo un valor de x = g 1 (y).
Teorema 2.4.10 Sea X una variable aleatoria discreta con distribucion de probabilidad f(x). Si
Y = g(X) define una transformacion uno a unn entre los valores de X e Y de tal forma que la
ecuacion y = g(x) pueda resolverse u
nicamente para x en terminos de y. Entonces la distribuci
on
de probabilidad de Y es
fY (y) = fX (g 1 (y))
Ejemplo 2.4.18 Sea X una variable aleatoria geometrica con distribucion de probabilidad
 x1
3 1
,
x = 1, 2, . . .
fX (x) =
4 4
a) Encuentre al distribucion de la variable aleatoria de Y = X 2
b) Encuentre la distribucion para la variable aleatoria Z = 4 5X
Teorema 2.4.11 Suponga que X es una variable aleatoria continua con distribucion de probabilidad
f (x). Sea Y = g(X), con g una funcion uno a uno entre los valores de X e Y . Entonces la
distribucion de probabilidad de Y esta dada por
fY (y) = fX (g 1 (y))|J|
donde J = (g 1 (y))0 y recibe el nombre de Jacobiano de la tranformacion.
47

Ejemplo 2.4.19 .
a) Sea X una variable aleatoria continua con funcion densidad
fX (x) =

x
,
12

1<x<5

Encuentre la distribucion de probabilidad de la variable aleatoria Y = 2X 3.


b) Sea X una variable aleatoria con densidad Beta(a,b), es decir,
fX (x) =

(a + b) a1
x (1 x)b1 ,
(a)(b)

0 < x < 1.

Determinar la distribucion de Y = 1 - X.
Teorema 2.4.12 Sea X una variable aleatoria continua con funcion densidad fX (x). Si Y = g(X)
es una transfromacion entre los valores de X e Y que no es uno a uno, es decir, para cada y R
existen k inversas, xi = gi1 (y), i = 1, . . . , k, entonces la distribucion de probabilidad de Y es
fY (y) =

k
X

fX (gi1 (y))|Ji |

i=1

donde
|Ji | =

d 1
g (y) i = 1, . . . , k.
dy i

Ejemplo 2.4.20 . Sea X una variable aleatoria con densidad


1
fX (x) = e|x| ,
2

< x < .

Determinar la distribucion de Y = |X|.

Ejercicios 8 .
1. Si X U (0, 1), encontrar al funcion densidad de Y = eX
2. Se dice que X tiene distribucio Weibull si

x1 exp(x ), x > 0;
fX (x) =
0,
e.o.c.
Se asume que > 0 y > 0. Determine E(X). Cual es la distribucion de Y = X ?

48

2.4.7.

Aproximaci
on de distribuciones

Sea una variable aleatoria X Bin(n, p), por ejemplo, suponga que recoge la opinion de una
muestra de 1000 electores para saber su sentir en pro del fortalecimiento del gobierno de la ciudad.
Cual es la probabilidad de encontrar 460 o menos electores a favor del fortalecimiento si suponemos
que el 50 % de la poblacion esta a favor de el?
En este caso, sea X el n
umero de electores en pro del fortalecimiento, con X Bin(1000, 1/2),
entonces para calcular la probabilidad pedida P(X 460) debemos sumar 461 terminos, lo que no
parece una tarea facil.
En este tipo de situaciones, donde el n
umero de ensayos es demasiado grande ( 20), aproximaremos nuestra distribucion de probabilidad a otro distribucion, dependiendo del valor de p, la
probabilidad de exito.
Aproximaci
on Poisson a la distribuci
on Binomial
Se sugiere aproximar a la distribucion Poisson una distribucion binomial para valores de n muy
grandes y de p muy peque
na. La regla es aproximar si p < 0,05 y n 20. Si n 100 la aproximacion es buena siempre y cuando np > 10.
En ambos casos = np y en vez de utilizar X Bin(n, p) usamos X P (np).
Ejemplo 2.4.21 Se sabe que el 5 % de los libros encuadernados en cierto taller tienen encuadernaciones defectuosas. Determine la probabilidad de que 2 de 100 libros encuadernados en ese taller,
tengan encuadernaciones defectuosas, usando,
a) la formula de la distribucion Binomial,
b) la aproximacion de Poisson a la distribucion Binomial.
Aproximaci
on Normal a la distribuci
on Binomial
Se sugiere aproximar la distribucion Normal a una distribucion binomial cuando n es muy
grande y los valores de p son cercanos a 0.5.
En tal caso, = np y 2 = np(1 p). Esta aproximacion debera utilizarse solo si np 5 y
n(1 p) 5.
Ejemplo 2.4.22 Se considera un sindicato laboral en el cual el 40 % miembros esta a favor de la
huelga. Si se seleccionan 15 miembros de manera aleatoria, cual es la probabilidad de que 10 apoyen
un paro? Calcule dicha probabilidad utilizando las distribuciones Binomial y Normal por separado
y compare.
Ejercicios 9 El 45 % de todos los empleados del centro de capacitacion gerencial tiene ttulos universitarios. Cual es la probabilidad de que de los 150 empleados seleccionados aleatoriamente, 72
tengan un ttulo univeristario?

49

2.5.

Vectores Aleatorios

Definici
on 2.5.1 X = (X1 , X2 , . . . , Xn ) es un vector aleatorio definido en (, A, P) ssi X1 , X2 , . . . , Xn
son variables aleatorias definidas en el mismo modelo (, A, P).

2.5.1.

Distribuci
on Conjunta

Definici
on 2.5.2 La funcion definida por
FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = P(X1 = x1 , X2 = x2 , . . . , Xn = xn ),

xR

se llama funci
on distribuci
on conjunta de X1 , X2 , . . . , Xn
Definici
on 2.5.3 Sea X = (X1 , X2 , . . . , Xn ) un vector aleatorio en (, A, P). Diremos que:
a) X = (X1 , X2 , . . . , Xn ) es discreto ssi
Rec(X)= Rec(X1 , X2 , . . . , Xn )
es un subconjunto contable (finito o no) de Rn .
En tal caso, la distribucion de probabilidad puede representarse mediante
\

n
P(X1 = x1 , X2 = x2 , . . . , Xn = xn ) = P
{Xi = xi }
i=1

As,
(i) P(X = x) 0
x Rn
P
(ii)
P(X = xi ) = 1
b) X = (X1 , X2 , . . . , Xn ) es continuo ssi existe una funcion
fX1 ...Xn : Rn R
no negativa tal que
Z

x1

xn

FX1 ...Xn (x1 , . . . , xn ) =

fX1 ...Xn (t1 , . . . , tn )dtn dt1 ,

xR

En tal caso
fX1 ...Xn (x1 , . . . , xn ) =

n
FX ...X (x1 , . . . , xn )
x1 xn 1 n

Ejemplo 2.5.1 Sean X e Y variables aleatorias con funcion distribucion conjunta dada por

(1 ex )(1 ey ), x >0, y > 0;
FXY (x, y) =
0,
e.o.c.
Determine fXY .
50

Definici
on 2.5.4 La distribuci
on de probabilidad de X = (X1 , X2 , . . . , Xn ) se define como:
PX (B) = P(X B)

B Bn

As, PX (B), B B n , es una medida de probabilidad.


(PX , B n , Rn ) es una medida de probabilidad.
Proposici
on 2

B Bn
X

P(X = x), X

xB
Z
PX (B) = P(X B) =

fX (x)dx, X

discreta
continua

xB

Teorema 2.5.1 Sea X un vector aleatorio continuo n- dimensional con densidad fX (x). Sea g =
(g1 , g2 , . . . , gn ) una funcion. Considere el vector aleatorio Y = g(X). Esto significa que se considera
la transformacion
y1 = g1 (x1 , . . . , xn )
y2 = g2 (x1 , . . . , xn )
..
.
yn = gn (x1 , . . . , xn )

Finalamente supongase que g y g 1 son continuas y dieferenciables. Entonces la densidad de Y es


fY (y) = |J|fX (g 1 (y), g21 (y), . . . , gn1 (y)) y Rn
Ejemplo 2.5.2 Sean X e Y dos variables aleatorias continuas con distribucion de probabilidad
conjunta

4xy, 0 < x < 1, 0 < y < 1;
f (x, y) =
0,
e.o.c.
Encuentre la densidad conjunta de W = X 2 y Z = XY .

51

2.5.2.

Distribuciones Conjuntas Especiales

Algunas distribuciones multivariadas conocidas se enuncian a continuacion:


Suponga que realiza N experimentos inpedendientes, en cada uno de los cuales puede obtener
uno de los k resultados posibles, cada uno con probabilidad p1 , p2 , . . . , pk , respectivamente, y desea
contar cuantas repeticiones de cada resultado obtuvo.
Definici
on 2.5.5 Las variables aleatorias X1 , X2 , . . . , Xk tienen una distribuci
on multinomial
si y solo si su distribucion de probabilidad conjunta esta dada por


n
P(X1 = x1 , Xk = xk , . . . , Xk = xk , ) =
px1 px2 . . . pxkk
n1 n2 nk 1 2
donde

r
X

nj = n

j=1

k
X

pi = 1

i=1

Lo que se denota como


(X1 , . . . , Xk ) M ult(n, p1 , p2 , . . . , pk )
Ejemplo 2.5.3 Suponga que los errores de cierto procedimiento de medicion tienen distribuci
on
normal de media 0 y desviacion estandar 2, en milmetros. Suponga que se toman 10 mediciones
independientes. Calcule la probabilidad que: por lo menos 9 mediciones tengan errores menores a
los 2 milmetros y que no mas de una medicion tenga error mayor a los 3 milmetros.

Considere un conjunto de N elementos, de los cuales M1 son de la P


primera clases, M2 de la
segunda clase, y as sucesivamente, hasta Mk de la k-esima clase, donde
Mi = N .
Definici
on 2.5.6 Las variables aleatorias X1 , . . . , Xk tienen una distribucion hipergeom
etrica
multivariada si y solo si su distribucion de probabilidad conjunta esta dada por


M1
k
... M
x1
xk

P(X1 = x1 , . . . , Xk = xk ) =
M
n

donde

k
X

xi = n,

i=1

k
X

Mi = N

i=1

Ejemplo 2.5.4 En un panel de presuntos jurados participan 6 hombres casados, tres hombres solteros, siete mujeres casadas y cuatro mujeres solteras. Si la seleccion es al azar, cual es la probabilidad
de que el jurado consita de 4 hombres casados, un soltero, cinco mujeres casadas y dos solteras?

52

Entre las distribuciones multivariadas continuas, la distribucion normal multivariada es de especial importancia, ya que es una generalizacion de la distribucion normal en una variable.
Definici
on 2.5.7 El vector aleatorio (X, Y ) tiene una distribucion normal bivariada si y s
olo
si su funcion densidad conjunta esta dada por

2 
2




1
x 1
y 2
x 1
y 2
1
p
f (x, y) =
+
2
exp
2(1 2 )
1
2
1
2
21 2 1 2
para x R, y R, 1 , 2 > 0, y 1 < < 1.

Teorema 2.5.2 Si dos variables aleatorias tienen una distribucion normal bivariada, son inpedendientes si y solo si = 0.

53

2.5.3.

Distribuci
on Marginal y Condicional

Dada la distribucion de probabilidad conjunta f (x, y) de las variables aleatorias X e Y , la


distribucion de probabilidad f (x) de X se obtiene al sumar f (x, y) sobre todos los valores de Y .
De la misma forma, la distribucion de probabilidad f (y) se obtiene al sumar f (x, y) sobre todos
los valores de X. Cuando X e Y son variables aleatorias continuas, las sumas se reemplazan por
integrales.
Definici
on 2.5.8 Las distribuciones marginales de X e Y estan dadas por
X
X
pX (x) =
fXY (x, y)
y
pY (y) =
fXY (x, y)
y

para el caso discreto y


Z

Z
fXY (x, y)dy

fX (x) =

fY (y) =

fXY (x, y)dx


x

para el caso continuo.


Definici
on 2.5.9 Sean X e Y dos variables aleatorias discretas o continuas. La distribuci
on
condicional de la variable aleatoria Y, dado que X=x, esta dada por:
fY |X (y) =

fXY (x, y)
,
fX (y)

fX (x) > 0

Ejemplo 2.5.5 Suponga que la fraccion X de atletas hombres y la fraccion Y de atletas mujeres
que terminan la carrera del maraton puede describirse por la funcion densidad conjunta
fXY (x, y) = 8xy,

0 x 1, 0 y x.

Encuentre fX , fY y fY |X y determine la probabilidad de que menos de 1/8 de las mujeres que se


inscribieron para un maraton en particular la finalicen, si se sabe que exactamente 1/2 de los atletas
hombres terminaron la carrera.
Definici
on 2.5.10 Sean X e Y dos variables aleatorias, discretas o continuas, con distribuci
on
de probabilidad conjunta fXY y distribuciones marginales fX y fY , respectivamente. Las variables
aleatorias X e Y se dice que son independientes estadsticamente, ssi
fXY (x, y) = fX (x)fY (y),

54

x, y R

Ejercicios 10 . Sea X e Y variables aleatorias independientes con funciones densidades marginales


fX (x) = xex ,

x>0 y

fY (y) = ey

Sean
Z = X + Y,

W =

X
X +Y

1. Determine las respectivas densidades marginales de Z y W .


2. Son Z y W variables aleatorias independientes?
3. Obtenga la funcion generadora de momentos de Z, MZ (t).

55

y>0

2.5.4.

Esperanza y Varianza Condicional

Definici
on 2.5.11 Dado un vector aleatorio (X,Y) la esperanza condicional de Y dado X=x
se define como
X

y P(Y = y|X = x), X discreta

Zy
E(Y |X = x) =

y fY |X (y)dy,
X continua

Mas generalmente, si g : R R
X

g(y)P(Y = y|X = x), X discreta

Zy
E(g(Y )|X = x) =

g(y)fY |X (y)dy,
X continua

Proposici
on 3 Si E(|Y |) <
E[E(Y | X)] = E(Y )
Ejemplo 2.5.6 Sea Y |X = x U (0, 1 x) y fX (x) = 2(1 x), si 0 < x < 1. Determine E(Y ).
Propiedades:
i) E(c|X = x) = c
ii) E(Y1 + Y2 |X = x) = E(Y1 |X = x) + E(Y2 |X = x)
iii) E(cY |X = x) = c E(Y |X = x)
iv) E(g(X, Y )|X = x) = E(g(x, Y ))
En particular,
E(g1 (X)g2 (Y )|X = x) = g1 (x)E(g2 (Y )|X = x)
v) E(g(Y )|X = x) = E(g(Y )) X es independiente de Y.
Definici
on 2.5.12 La varianza condicional de Y dado X=x se define como
V(Y |X = x) = E[(Y E(Y |X = x))2 |X = x]
X

(y E(Y |X = x))2 P(Y = y|X = x), X discreta

Zy
=

(y E(Y |X = x))2 fY |X (y)dy,


X continua

Teorema 2.5.3 Suponga que E(Y 2 ) <


V(Y ) = E(V(Y |X)) + V(E(Y |X))
56

Ejemplo 2.5.7 Sean X e Y variables aleatorias continuas tales que X U(0, 1) e Y |X = x


U(x, x + 1).
Calcule:
a) E(Y |X = x) y V(Y |X = x).
b) E(Y ) y V(Y ).
c) La densidad condicional de X dado Y = y.
d) E(X|Y = y) y E(Y |X = x).
e) Considere las funciones de variables aleatorias h(Y ) = E(X|Y ) y k(X) = E(Y |X). Calcule la
funcion de densidad de h(Y ) y la funcion de densidad de k(X).
Ejercicios 11 .
Sean X e Y variables aleatorias tales que Y |X = x Bin(x, p) y X P oisson(). Determine la
distribucion de Y y calcule su esperanza.

57

2.6.

Nociones de Convergencia

El objetivo de esta seccion es estudiar el comportamiento de una secuencia de variables aleatorias,


{Z1 , Z2 , . . . , Zn }, cuando n .
Definici
on 2.6.1 Sea {Zn , n 1} una secuencia de variables aleatorias en (, A, P) y sea R
una constante.
Diremos que Zn converge en probabilidad para ssi
> 0,

P(|Zn | ) 0,

cuando

Notacion: Zn
P

Ademas, note que Zn

(Zn ) 0

Definici
on 2.6.2 Sea {Zn , n 1} una secuencia de variables aleatorias definidas en (, A, P) y
sea Z otra variable aleatoria, cuya distribucion no depende de n, la cual no necesita estar definida
sobre el mismo espacio de probabilidad donde se encuentran definidas las Zn s.
Diremos que Zn converge en distribuci
on para Z ssi
FZn (z) = P(Zn z) P(Z z) = FZ (z)
cuando n , z donde FZ es continua.
D

Notacion: Zn Z

o F Zn F Z

Las definiciones anteriores motivan el siguiente teorema:


Teorema 2.6.1 (del Lmite Central)
Sean X1 , X2 , . . . , Xn una secuencia de variables aleatorias independientes con media y varianza
2 < . Entonces,
Xn D
N (0, 1)
n

donde
n
X
Xi
Xn =
n
i=1
Aplicacion:
Para n suficientemente grande
X n N (, 2 /n)

58

Ejercicios 12 . La distribucion de las perdidas mensuales de una empresa en unidades monetarias


(u.m.) es aproximadamente normal, con una media de = 3500 y una varianza de 2 = 184900.
1. Cual es al probabilidad de que las perdidas mensuales sean inferiores a 2500 u.m.?
2. Que valor separa el 5 % inferior de la distribucion de las perdidas mensuales?
3. Describa la distribucion de medias muestrales de tama
no 5 tomadas de esta poblacion.
4. Que valor separa el 5 % inferior de la distribucion muestral de tama
no 5?
5. Dada una muestra de las perdidas de 5 meses, cual es la probabilidad de que las perdidas
mensuales sean inferiores a 2500 u.m.?
6. Cual es al probabilidad de que solo uno de los cinco meses se tenga una perdida menor a
2500 u.m.?

59

Captulo 3
Inferencia Estadistica
3.1.

Introducci
on

La teora de la inferencia estadstica consiste en aquellos metodos por los que se realizan inferencias o generalizaciones acerca de una poblacion. La tendencia actual es la distincion entre el
metodo clasico de estimacion de un parametro en la poblacion, por medio del cual las inferencias se
basan de manera estricta en informacion que se obtiene de una muestra aleatoria seleccionada de la
poblacion, y el metodo bayesiano, que utiliza el conocimiento subjetivo previo sobre la distribucion
de probabilidad de los parametros desconocidos junto con la informacion que proporcionan los datos
de la muestra. En este curso desarrollaremos los metodos clasicos para estimar los parametros de
la poblacion desconocidos como la media, proporcion y varianza mediante el calculo de estadsticas
de muestras aleatorias.
La inferencia estadstica se puede dividir en doa areas principales: estimacion y pruebas de
hipotesis. La estimacion de un parametro poblacional puede ser puntual, es decir, por alg
un
metodo deteminamos una formula en funcion de los datos para calcular el valor de este en la muestra, o intervalar, donde ademas de calcular el valor del parametro en la muestra establecemos un
grado de precision de nuestra estimacion. Con las pruebas de hipotesis lo que queremos es llegar a
la decision correcta acerca de una hipotesis preestablecida, con alguna medicion de la precision de
nuestra decision.
Algunos conceptos de interes se definen a continuacion.
Definici
on 3.1.1 Las variables aleatorias X1 , . . . , Xn corresponden a una muestra aleatoria de
tama
na n de una poblacion con funcion densidad f (x) si
X1 , . . . , Xn son mutuamente independientes
X1 , . . . , Xn tienen funcion densidad marginal f (x)
las variables X1 , . . . , Xn se denominan independientes e identicamente distribuidas, iid, y escribimos
iid
Xi f (x),
i = 1, . . . , n.

60

P
Definici
on 3.1.2 Sea Z1 , . . . , Zk un muestra aleatoria de la distribucion N (0, 1). Sea Y = ki=1 Zi2 .
Entonces Y tiene distribucion chi-cuadrado de Pearson con k grados de libertad y se denota
por
k
X
Y =
Zi2 2k
i=1

Teorema 3.1.1 La esperanza y varianza de una distribucion 2 estan dadas por


E(Y ) = k
V(Y ) = 2k
Definici
on 3.1.3 Sea Z0 , Z1 , . . . , Zk una muestra aleatoria de la distribucion N (0, 1) y sea Y =
Pk
2
Z
.
i=1 i Entonces
Z0
X=p
Y /k
tiene distribucion t-Student con n grados de libertad y se denota por
X tn
Teorema 3.1.2 Si X1 , . . . , Xn es una muestra aleatoria de X N (, 2 ) entonces:
a)
n

1X
X=
Xi
n i=1

s2 =

1 X
(Xi X)2
n 1 i=1

son independientes.
b)
(n 1)s2
2n1
2
Definici
on 3.1.4 Sean X, Y dos variables aleatorias independientes que tienen distribucion 2 con
n y m grados de libertad, respectivamente, es decir,
X 2n e Y 2m
Entonces la variable aleatoria
Z=

X/n
Y /m

se tiene distribucion F con n y m grados de libertad y se denota por


Z Fn,m

61

3.2.

Estimaci
on Puntual

Definici
on 3.2.1 Un estimador puntual corresponde a cualquier funcion de la muestra
g(X1 , X2 , . . . , Xn )

3.2.1.

M
etodo de Momentos

Definici
on 3.2.2 Sea X1 , X2 , . . . , Xn una muestra aleatoria de una variable X, proveniente de una
poblacion con funcion de densidad f , con
= (1 , 2 , . . . , k )
El estimador de momentos e de corresponde a la solucion del sistema de ecuaciones
n

E(X 1 ) =

1X 1
X
n i=1 i
n

1X 2
E(X ) =
X
n i=1 i
2

.
= ..
n

E(X k ) =

1X k
X
n i=1 i

Debiendose plantear tantas ecuaciones como parametros se desea estimar.


iid

Ejercicios 13 Si X1 , X2 , . . . , Xn f , encuentre los estimadores de momentos si f es


1. U (, 2)
2. N (, 2 )

62

3.2.2.

M
etodo de M
axima Verosimilitud

Definici
on 3.2.3 Sea X1 , . . . , Xn una muestra aleatoria proveniente de una poblacion con funci
on
densidad f . Se define la funci
on de verosimilitud como la funcion densidad conjunta del vector
X1 , . . . , Xn y esta dada por
n
Y
L(, x) =
f (xi )
i=1
iid

Ejercicios 14 Si X1 , X2 , . . . , Xn f , encuentre una expresion simplificada para la funci


on de
verosimilitud si f es
1. exp()
2. (, ), con conocido.
3. Bin(n, p) con n conocido.
4. P oisson()
Definici
on 3.2.4 Un estimador m
aximo verosmil, EMV, de , basado en una muestra X
corresponde a
b
(X)
el cual se obtiene al resolver

log(L(, x)) = 0
j

j = 1, . . . , k

iid

Ejercicios 15 Si X1 , X2 , . . . , Xn f , encuentre los estimadores de maxima verosimilitud si f es


1. exp()
2. (, ), con conocido.
3. Bin(n, p) con n conocido.
4. P oisson()
Definici
on 3.2.5 Consideremos una familia de distribuciones con parametro para una variable aleatoria X y con funcion de verosimilitud asociada L(, x). Se dice que la log- verosimiltud
de X pertenece a una familia exponencial ssi existen funciones 1 , . . . , k y t1 , . . . , tk R,
tales que
k
X
log L(, x) = log h(x) + log c() +
j ()tj (x)
j=1

con h y c funciones positivas definidas en R

63

Ejemplo 3.2.1 Sea la variable aleatoria X con funcion densidad



(1 )x1 , x = 1, 2, . . . , (0,1);
f (x) =
0,
e.o.c.
Determine si f(x) pertenece a la familia exponencial.
Ejemplo 3.2.2 Sea X1 , . . . , Xn una muestra aleatoria de X cuya densidad es


1
1
2
f (x) =
exp 2 (x )
2
2 2
con x R, = (, 2 ), < < , 2 > 0, desconocidos. Determine si esta distribucion pertenece
a la familia exponencial.

64

3.3.

Insesgamiento y eficiencia

Definici
on 3.3.1 Un estimador puntual b de es insesgado si
b =
E()

Si b no es insesgado , se denomina sesgo de b a


b = E()
b
b()
Por lo tanto, un estimador es insesgado si su distribucion tiene como valor esperado al parametro
que se desea estimar.
iid

Ejercicios 16 Si X1 , X2 , . . . , Xn f , determine si los estimadores de momentos y maxima verosimilitud son insesgados para f
1. exp()
2. (, ), con conocido.
3. Bin(n, p) con n conocido.
4. P oisson()
Definici
on 3.3.2 El error cuadr
atico medio de un estimador b de corresponde a
b = E(b )2
ECM()
b + (b())
b 2
= V()
iid
b
Ejemplo 3.3.1 Sea X1 , . . . , Xn exp() y consideremos b = 1/x. Calcule el ECM().

Definici
on 3.3.3 Se define la matriz de informaci
on de Fisher como

2

I() = E
logL(, x)

Lema 2 Sea la funcion f tal que



 Z



d

E
logL(, x) =
logf (x) f (x) dx,
d


entonces,
2
 2


E
logL(, x) = E
logL(, x)

2


65

Teorema 3.3.1 Cramer - Rao.


Sea X1 , . . . , Xn una muestra con funcion densidad f que satisface la conmutatividad entre el operador integral y diferencial y sea g(X) = g(X1 , . . . , Xn ) un estimador donde E(g(X)) es diferenciable
como funcion de . Entonces
d
( d
E(g(X))2
V(g(X))
2

E
log L(, x)
Observacion: La cantidad

d
E(g(X))2
( d

log

L(, x)

2

se llama cota de Cram


er-Rao y todo estimador que alcance esta cota sera llamado eficiente.
Es claro que si g(X) es un estimador insesgado para entonces se cumple que
1

V(g(X))
E

log

2
L(, x)

es decir, la cota de Cramer- Rao es igual a I()1 .


Definici
on 3.3.4 Un estimador g(X) de se dice eficiente si
I()1
=1
b
V()
b
Teorema 3.3.2 Si b es el EMV de , entonces para cualquier funcion g(), el EMV de g() es g()

Ejercicios 17 .
Sea X1 , . . . , Xn una muestra aleatorio con funcion densidad
fX (x) =

x x/
e
2

x > 0,

>0

1. Determine el estimador de momentos y el EMV de .


2. Determine si b es insesgado, calcule su varianza y comparela con la cota de Cramer- Rao.
Es este estimador eficiente?

66

3.4.

Estimaci
on Intervalar

Ademas de las estimaciones puntuales de un parametro, hay estimaciones por intervalos que
estipulan, con un cierto grado de confianza, que el parametro se encuentra entre dos valores del
estadstico estimado. Supongamos una variable aleatoria poblacional X que tiene media cuyo
valor es desconocido. De una muestra aleatoria de taman
no n, el valor x de la media muestral X
se puede usar para estimar al 95 % de confianza como sigue:
Definido E, el margen de error y la significancia , tal que
P( E x + E) = 1
lo que es equivalente a la ecuacion
P(x E x + E) = 1
Entonces (x E, x + E) se llama intervalo de confianza del 100(1 ) % para .
Formalmente:
Definici
on 3.4.1 Un estimador intervalar para un parametro , dados los valores x = (x1 , . . . , xn )
de una variable aleatoria X, es cualquier par de funciones L(x1 , . . . , xn ) y U (x1 , . . . , xn ) que satisface
L(x) U (x) para todo x. El intervalo aleatorio [L(X), U(X)] se denomina un estimador intervalar.
Definici
on 3.4.2 Para un parametro cualquiera , se define un conjunto de confianza 1
como un conjunto C(x) tal que
P( C(X)) = 1
Definici
on 3.4.3 Una variable aleatoria Q(X, ) corresponde a un pivote si su distribuci
on no
depende de ning
un parametro. Es decir, la distribucion de Q(X, ) es la misma, para todo .
Ejemplo 3.4.1 Encuentre una cantidad pivotal si X1 , . . . , Xn son una muestra aleatoria N (, 2 )
y a partir de esta construya un conjunto o intervalo de confianza para la media poblacional.

3.4.1.

Intervalo de Confianza para la media


iid

Sea X1 , . . . , Xn N (, 2 ). Un intervalo de confianza para la media poblacional cuando la


varianza poblacional es conocida es
xE

donde E = z1/2 / n.
Ejemplo 3.4.2 Una aerolnea necesita estimar el n
umero medio de pasajeros en un vuelo de reciente apertura. Para ello, toma una muestra de 40 das y encuentra una media muestral de 112.0
pasajeros y una desvaicion estandar de 25. Encuentre un intervalo de confianza al 95 % para la
media poblacional.

67

iid

Sea X1 , . . . , Xn N (, 2 ). Un intervalo de confianza para la media poblacional cuando la


varianza poblacional es desconocida es
xE

donde E = t(n1,1/2) s/ n.
Ejemplo 3.4.3 En una aerolnea se resgistran los tiempos de espera promedio de atencion en mes
on
de 14 das, obteniendo los siguientes resultados:
4.3

5.2

2.1

6.2

5.8

4.7

3.8

9.3

5.0

4.1

6.0

8.7

0.5

4.9

Encuentre un intervalo de confianza al 95 % para el tiempo de espera medio.

3.4.2.

Intervalo de Confianza para una proporci


on

Sea Y Bin(n, p). Por teorema del lmite central sabemos que
pb (E(b
p), V(b
p))
Se puede mostrar que E(b
p) = p y V(b
p) =

p(1p)
.
n

As, el intervalo de confianza al (1 )100 % para una proporcion esta dado por
pb E
donde E = z1/2

pb(1b
p)
.
n

Ejemplo 3.4.4 En un colegio de Ense


nanza Media hay matriculados 800 alumnos. A una muestra
seleccionada aleatoriamente de un 15 % de ellos, se les pregunto si utilizaban la cafetera del colegio.
Contestaron negativamente un total de 24 alumnos.
a) Estime el porcentaje de alumnos que utilizan la cafetera del colegio.
b) Determine, con una confianza del 99 %, el error maximo cometido con dicha estimacion.

3.4.3.

Intervalo de Confianza para la varianza

Sea X1 , . . . , Xn una muestra aleatoria de una poblacion normal con media y varianza 2 . Un
intervalo de confianza para la varianza poblacional 2 esta dado por


(n 1)s2 (n 1)s2
,
2(n1,1/2) 2n1,/2
donde s2 =

1
n1

Pn

i=1 (Xi

X)2 .

68

Ejemplo 3.4.5 Un vendedor de muebles de madera para armar (desarmados) importa las piezas
desde el norte de Europa para abaratar costos. En cierto modelo, el cliente debe insertar cuatro
patas redondas en hoyos ya perforados. Para un ajuste adecuado, el diametro de las patas debe ser
ligeramente menor que un centmetro. Inevitablemente, hay cierta variacion en los diametros de
las patas. El vendedor compra patas a un proveedor bajo la especificacion de que el diametro medio
debe ser de 0.995 cm y desviacion estandar menor que 0.03 cm. Como parte del control de calidad
se obtuvo una muestra aleatoria de 121 patas la cual arrojo una media de 0.99516 y desviaci
on
est
andar de 0.01825. Calcule un IC al 95 % para la desviacion estandar del lote.
En caso de contar dos muestras aleatorias, puede ser de interes comparar los siguientes parametros :

3.4.4.

Intervalo de Confianza para la diferencia de medias


iid

iid

2
) e Y1 , . . . , Ym N (Y , Y2 ), ambas muestras independientes. Un
Sean X1 , . . . , Xn N (X , X
intervalo de confianza para la diferencia de media entre poblaciones esta dado por

(x y) E
donde E cambiara de acuerdo a la informacion con respecto a la varianza.
Podemos identificar 3 casos:
2
y Y2 conocidas.
a) X

r
E = z1/2
es decir

2
X
2
+ Y
n
m

r


2
X
Y2
(X Y ) (x y) z1/2
+
n
m

2
2
y Y2 desconocidas pero iguales (X
= Y2 = 2 ).
b) X

Se utiliza el estimador de 2 dado por


s2p =
con
s2X =

(n 1)s2X + (m 1)s2Y
n+m2

1 X
(Xi X)2
n1

s2Y =

1 X
(Yi Y )2
m1

El margen de error esta dado por


r
E = t(n+m2,1/2) sp
69

1
1
+
n m

Por lo tanto, el IC para la diferncia de medias cuando las varianzas son iguales pero desconocidas esta dado por
r


1
1
(X Y ) (x y) t(n+m2,1/2) sp
+
n m
2
c) X
y Y2 desconocidas y distintas.

Se define

r
E = t(,1/2)

donde
=

s2x
n
(s2x /n)2
n1

+
+

s2X s2Y
+
n
m

s2y 2
m
(s2y /m)2
m1

As, el IC para la diferncia de medias cuando las varianzas son desconocidas y distintas
esta dado por
r


s2X s2Y
(X Y ) (x y) t(,1/2)
+
n
m
Ejemplo 3.4.6 .
a) Se realiza un estudio para comparar los contenidos de nicotina de dos marcas de cigarrillos.
10 cigarrillos de la marca A dieron un contenido promedio de nicotina de 3,1ml/gr, con una
desviacion estandar de 0,5ml/gr, mientras que 8 cigarrillos de la marca B dieron un contenido
promedio de nicotina 2,7ml/gr, con una desviacion estandar de 0,7ml/gr. Suponiendo que los
datos son muestras aleatorias provenientes de dos poblaciones normales con varianzas iguales.
Encuentre un IC del 95 % para la verdadera diferencia en el contenido de nicotina de las dos
marcas.
b) Una compa
na tiene dos departamentos que producen identicos productos. Se sospecha que las
producciones por hora son diferentes en los dos departamentos. Para averiguar esto se consideran muestras aleatorias de horas de produccion que proporcionan la siguiente informaci
on:
Departamento 1
Departamento 2

n1 = 64
n2 = 49

x1 = 100
x2 = 90

12 = 256
22 = 196

Hallar un IC del 95 % para la diferencia verdadera entre las producciones medias de los departamentos. Comente.

70

3.4.5.

Intervalo de Confianza para la comparaci


on de varianzas
iid

iid

2
Sean X1 , . . . , Xn N (X , X
) e Y1 , . . . , Ym N (Y , Y2 ), ambas muestras independientes y de
media desconocida. Para comparar las varianzas de ambas muestras podemos utilizar el intervalo
de confianza para la diferencia para el cuociente x2 /y2 dado por

s2x
s2x

F
,
F(n1,m1,1/2)
(n1,m1,/2)
s2y
s2y

Ejemplo 3.4.7 Se realiza un estudio para comparar los contenidos de nicotina de dos marcas de
cigarrillos. 10 cigarrillos de la marca A dieron un contenido promedio de nicotina de 3,1ml/gr, con
una desviacion estandar de 0,5ml/gr, mientras que 8 cigarrillos de la marca B dieron un contenido
promedio de nicotina 2,7ml/gr, con una desviacion estandar de 0,7ml/gr. Suponiendo que los datos
son todos independientes, encuentre un IC del 95 % para la diferencia de varainzas.

71

3.5.
3.5.1.

Pruebas de Hip
otesis
Introducci
on

A menudo los datos muestrales sugieren que algo relevante esta sucediendo en la poblacion o
proceso subyacente. Como suponemos que los datos provienen de una muestra aleatorio y por lo
mismo, estan sujetos a cierto grado de variacion aleatoria, la pregunta es si el resultado o el efecto
aparente en la muestra es una indicacion de que algo esta sucediendo en la pobalcion (o proceso)
subyacente o si el resultado observado es posiblemente una casualidad, producto de la variacion
aleatoria.
Por esta razon es que postulamos una conjetura (o varias) que nos permita estimar si los resultados aparentes en una muestra indican que en realidad algo esta pasando. De manera formal, la
conjetura puede postular en forma de hipotesis estadstica.
Definici
on 3.5.1 Una hip
otesis estadstica es una aseveracion o conjetura con respecto a una
o m
as poblaciones.
En nuestro caso en particular, una hipotesis es una afirmacion sobre un parametro poblacional.
La verdad o falsedad de una hipotesis estadstica nunca se sabe con albosuta certeza a menos
que examinemos toda la poblacion. Esto, por supuesto, sera poco practico en la mayora de las
situaciones. En su lugar, tomamos una muestra aleatoria de la poblacion de interes y utilizamos
los datos contenidos en esta muestra para proporcionar evidencia que apoye o no la hipotesis. La
evidencia de la muestra que es inconsistente con la hipotesis que se establece conduce al rechazo de
esta, mientras que la evidencia que la apoya conduce a su aceptacion.
La estructura de la prueba de hipotesis se formulara con el uso del termino hipotesis nula (H0 ),
hipotesis que deseamos probar como verdadera. En caso contrario, es decir, si la rechazamos, estamos aceptando como verdadera la hipotesis alternativa (H1 ), que en general escribimos como
H0 : 0

vs

H1 : {0

Definici
on 3.5.2 Una prueba de hip
otesis es una regla de decision que especifca para que valores de la muestra la decision es aceptar H0 como verdadera y para que valores de la muestra la
decision es aceptar H1 como verdadera.
Para verificar si H0 es verdadera debemos resumir la informacion de los datos en un estadstico de prueba. Dicho estadstico se calcula para ver si la informacion que entregan los datos es
razonablemente compatible con la hipotesis nula.
Para decidir a favor de la hipotesis nula debemos establecer una regi
on de aceptaci
on, la cual
identificara los valores del estadstico de prueba que son relativamente probables dada la hipotesis
nula y los valores que no lo son. En que valor del estadstico de la prueba comenzamos a decir que
los datos apoyan a a la hipotesis alternativa? Para contestar esta pregunta se requiere conocer la
distribucion muestral del estadstico de prueba. Los valores del estadstico de prueba que son sumamente improbables bajo la hipotesis nula forman una regi
on de rechazo para la prueba estadstica.

72

Cuando realizamos una prueba, podemos tomar dos decisiones. Por tanto, podemos cometer dos
tipos de error:
Error de tipo I: rechazar la hipotesis nula, H0 dado que esta es verdadera.
Error de tipo II: no rechazar la hipotesis nula H0 , dado que la hipotesis alternativa H1 es correcta.
Las consecuencias de estos tipos de error son diferentes y generalmente intentaremos minimizar el
error de tipo I.
Ejemplo 3.5.1 Determine los errores de tipo I y II.
1. H0 : el acusado es culpable
H1 : el acusado es inocente
2. H0 : el paciente esta enfermo
H1 : el paciente esta sano
La prueba adecuada sera aquella que minimizara la probabilidad de cometer los dos tipos de
error simultaneamente, lo cual, con estadstica clasica, es imposible.
En consecuencia, se trata de minimizar la probabilidad de cometer Error tipo II, sujeto a que
la probabilidad de cometer Error tipo I no exceda un valor predeterminado . Este u
ltimo error es
tambien llamado nivel de significancia.
Algunas propiedades importantes respecto de estos errores son:
Los errores de tipo I y tipo II estan relacionados. Una disminucion en la probabilidad de uno
por lo general tiene como resultado un aumento en la probabilidad del otro.
El tama
no de la region de rechazo, y por tanto la probabilidad de cometer error tipo I, siempre
se puede reducir al ajustar el o los valores crticos.
Un aumento en el tama
no muestral n reducira y (error tipo II) de forma simultanea.
Si la hipotesis nula es falsa, es un maximo cuando el valor real de un parametro se aproxima
al valor hipotetico . Entre mas grande sea la distancia entre el valor real y el valor hipotetico,
sera menor .
Definici
on 3.5.3 La potencia de una prueba es la probabilidad de rechazar H0 dado que una
alternativa especfica es verdadera, y se puede calcular como 1 .
Diferentes tipos de pruebas se comparan al contrastar propiedades de potencia.
A pesar de estar fijo, la probabilidad de cometer error de tipo I puede ser calculada y recibe el
nombre de valor-p.

73

Definici
on 3.5.4 El valor-p de una prueba de hipotesis es el menor valor de para el cual
rechazamos la hipotesis nula.
Calculado este valor, la regla sera rechazar la hipotesis nula si valor p < .
En este curso estudiaremos pruebas de hipotesis para tres parametros poblacionales: media,
varianza y proporcion.

3.5.2.

Prueba de Hip
otesis para la media

Sea X1 , . . . , Xn una muestra aleatoria de una distribucion con media y varianza 2 > 0.
Considere las hipotesis generales
H0 : 0

vs

H1 : {0

Es decir, queremos probar alg


un valor o rango de valores para la media, cuando la varianza es
conocida. La estadstica de prueba apropiada se basa en la variable X, que por TCL sabemos
distribuye N (, 2 /n) y que si estandarizamos obtenemos
Z=

X
N (0, 1)
/ n

Entonces distinguiremos tres casos:


Hipotesis Nula
= 0
0
0

Hipotesis Alternativa
6= 0
> 0
< 0

donde
z0 =

Rechazo H0 si
|z0 | z1/2
z0 z1
z0 z1

x 0

/ n

Ejemplo 3.5.2 Una muestra aleatoria de 100 muertes registradas en un servicio el a


no pasado
muestra una vida promedio de 71.8 a
nos. Suponga una desviacion estandar poblacional de 8.9 a
nos.
esto parece indicar que la vida media hoy en da es mayor a 70 a
nos? Utilice un nivel de significancia de 5 %.
Sea X1 , . . . , Xn una muestra aleatoria de una distribucion con media , desconocida y varianza
s2 > 0, esto quiere decir que la varianza es estimada en la muestra. Considere las hipotesis generales
H0 : 0

vs

H1 : {0

Es decir, queremos probar alg


un valor o rango de valores para la media, cuando la varianza es
desconocida, por lo que la reemplazamos por s2 , el estimador insesgado de la varianza. La estadstica
de prueba apropiada se basa en la variable X, que por TCL sabemos distribuye N (, 2 /n) y ademas
n1 2
s 2 , con las que podemos construir el estadstico
2
Z=

X
t(n 1)
s/ n

Entonces distinguiremos tres casos:


74

Hipotesis Nula
= 0
0
0

Hipotesis Alternativa
6= 0
> 0
< 0

donde
t0 =

Rechazo H0 si
|t0 | t1/2
t0 t1
t0 t1

x 0

s/ n

Ejemplo 3.5.3 Se afirma que una aspiradora gasta en promedio 46 kilowatt-hora al a


no. Se toma
una muestra aleatoria de 12 hogares indica que las aspiradoras gastan un promedio de 42 kilowatthora al a
no con una desviacion estandar de 11.9 kilowatt-hora, esto sugiere que las aspiradoras
gastan, en promedio, menos de 46 kilowatt-hora anualmente con 5 % de significancia?

3.5.3.

Prueba de Hip
otesis para la proporci
on

Es de interes probar la hipotesis que la proporcion de exitos de un experimento binomial es


igual a un valor especfico o esta en un rango de valores. Sea X la variable aleatoria que cuenta el
n
umero de exitos y sea pb = X/n la estimacion del parametro p. Entonces, para n grande, podemos
establecer que
pb p
x np
=q
N (0, 1)
Z=p
p(1p)
np(1 p)
n

Entonces distinguiremos tres casos:


Hipotesis Nula
p = p0
p p0
p p0
donde

Hipotesis Alternativa
p 6= p0
p > p0
p < p0

Rechazo H0 si
|z0 | z1/2
z0 z1
z0 z1

pb p0
z0 = p
p0 (1 p0 )/n

Ejemplo 3.5.4 Un medicamento que se prescribe actualmente se considera efectivo en un 60 %.


Resultados experimentales con un nuevo farmaco se asministar a una muestra aleatoria de 100
personas, de las cuales 70 se aliviaron. Esta es evidencia suficiente para concluir que el nuevo
medicamento es superior al que se receta actualmente? Use = 5 %

3.5.4.

Prueba de Hip
otesis para la varianza

Sean X1 , . . . , Xn una muestra de una variable aleatoria con distribucion N (, 2 ), ambos parametros desconocidos. Sabemos que si s2 es el estimador insesgado de 2 , es decir,
1 X
s2 =
(xi x)2
n1
entonces

(n 1)s2
2(n1)
2

75

Entonces, si es de interes probar que la varianza poblacional esta en un intervalo dado, distinguiremos tres casos:
Hipotesis Nula
2 = 02
2 02
2 02

Hipotesis Alternativa
Rechazo H0 si
2
2
2
6= 0
Q0 n1,1/2 o Q0 2n1,/2
2
2
Q0 2n1,1
> 0
2 < 02
Q0 2n1,

donde
Q0 =

(n 1)s2
02

Ejemplo 3.5.5 Se tienen los pesos de 10 paquetes de semillas de pasto distribuidas por cierta
compa
na, de la cuales se obtuvo x = 46,12 y s2 = 0,286. La empresa desea saber si los pesos
registrados presentan evidencia para asegurar que la varianza poblacional es mayor a 0.2, con un
nivel de significancia de 5 %.

3.5.5.

Prueba de Hip
otesis para la diferencia de medias

Si tenemos dos muestras de tama


no n y m de poblaciones independientes, X e Y, con medias
X y Y , estas pueden ser comparadas usando la diferencia 1 2 , cuyo estimador es x y. La
distribucion de esta diferencia dependera de la informacion respecto de la relacion entre las varianzas
2
poblacionales X
y Y2 , de los cuales podemos identificar tres casos.
Varianzas conocidas.
El estadstico de prueba es
(X Y ) d
q
N (0, 1)
2
2
X
Y
+ m
n
Las hipotesis a contrastar son:
Hipotesis
X Y
X Y
X Y
donde

Nula
=d
d
d

Hipotesis Alternativa
X Y 6= d
X Y > d
X Y < d

Rechazo H0 si
|z0 | z1/2
z0 z1
z0 z1

(x y) d
Z0 = q 2
X
2
+ mY
n

Ejemplo 3.5.6 Una muestra aleatoria de tama


no n1 = 25, que se toma de una poblacion normal
con una desviacion estandar 1 = 5,2, tiene una media x1 = 81. Una segunda muestra aleatoria
de tama
no n2 = 36, que se toma de una poblacion normal diferente con una desviacion est
andar
= 3,4, tiene una media x2 = 76. Pruebe la hipotesis de las medias son iguales con un nivel de
significancia del 5 %.

76

2
Varianzas desconocidas pero iguales.X
= Y2 =

Si las varianzas desconocidas, debemos estimarlas, incorporando el hecho que sean iguales. En2
tonces, dados s2X y s2Y , los estimadores insesgados de X
y Y2 , respectivamente, definimos
s2p =

(n 1)s2X + (m 1)s2Y
n+m2

El estadstico de prueba es
(X Y ) d
q
t
sp n1 + m1
con = n + m 2.
Las hipotesis a contrastar son:
Hipotesis
X Y
X Y
X Y

Nula
=d
d
d

Hipotesis Alternativa
X Y 6= d
X Y > d
X Y < d

donde
T0 =

Rechazo H0 si
T0 t,1/2
T0 t,1
T0 t,1

(x y) d
q
sp n1 + m1

Ejemplo 3.5.7 Una compa


na armadora de automoviles grande trata de decidir si compra llantas
de la marca A o de la B para sus nuevos modelos. Se lleva a cabo un experimento, para ayudar a
llegar a una decision, en el que se usan 12 llantas de cada marca. Las llantas se utilizan hasta que
se acaban. Los resultados son
Marca A :x1 = 37900km
Marca B :x2 = 39800km

s1 = 5100km
s2 = 5900km

Pruebe la hipotesis que no hay diferencias entre las dos marcas de llantas con un nivel de significancia del 5 %, suponiendo que las varianzas poblacionales son iguales.
Varianzas desconocidas y distintas.
Si las varianzas desconocidas y distintas, el estimador de la varianza de X Y es
s2p =

s2X s2Y
+
n
m

El estadstico de prueba es
(X Y ) d
t
sp
con
=

s2X
n
(s2X /n)2
n1

s2Y
m

(s2 /m)2
( Ym1

Las hipotesis a contrastar son:


77

2


Hipotesis
X Y
X Y
X Y

Nula
=d
d
d

Hipotesis Alternativa
X Y 6= d
X Y > d
X Y < d

donde
T0 =

Rechazo H0 si
|T0 | t,1/2
T0 t,1
T0 t,1

(x y) d
t
sp

Ejemplo 3.5.8 Para el ejemplo anterior, realice la prueba para la hipotesis que las llantas de la
marca A son mejores que las de B, suponiendo que las varianzas poblacionales son distintas.

3.5.6.

Prueba de Hip
otesis para la diferencia de proporciones

Si tenemos dos muestras independientes X1 , . . . , Xn y Y1 , . . . , Ym de poblaciones Bernoulli de


parametros p1 y p2 , respectivamente, estas pueden ser comparadas usando la diferencia p1 p2
utilizando que
(p p2 ) d
q 1
N (0, 1)
p1 (1p1 )
p2 (1p2 )
+
n
m
Las hipotesis a contrastar son:
Hipotesis Nula
p1 p2 = d
p1 p2 d
p1 p2 d

Hipotesis Alternativa
p1 p2 6= d
p1 p2 > d
p1 p2 < d

donde
z0 = q

Rechazo H0 si
|z0 | z1/2
z0 z1
z0 z1

(b
p1 pb2 ) d
pb1 (1b
p1 )
n

pb2 (1b
p2 )
m

Ejemplo 3.5.9 En un estudio para estimar la proporcion de residentes de cierta ciudad y sus
suburbios que estan a favor de la construccion de una planta de energa nuclear, se encuentra que
63 de 100 residentes urbanos estan a favor de la construccion mientras que solo 59 de 125 residentes
suburbanos la favorecen. Hay una diferencia significativa entre las proporcion de residentes urbanos
y suburbanos que favorecen la construccion de la planta nuclear? Use = 0,05.

3.5.7.

Prueba de Hip
otesis para la comparaci
on de varianzas

2
Sean X1 , . . . , Xn una muestra aleatoria de la distribucion N (X , X
), independiente de Y1 , . . . , Ym
2
una muestra aleatoria de una distribucion N (Y , Y ), con todos los parametros son desconocidos.
2
Las varianzas poblacionales pueden ser comparadas usando el cuociente X
/Y2 cuyo estimador es
2
2
sX /sY . Entonces
2
X
k Fn1,m1
Y2

Entonces, si es de interes probar que las varianzas poblacionales estan en una razon dada es
78

Hipotesis Nula
2
X
= k1
2
Y

2
X
2
Y
2
X
2
Y

1
k
1
k

Hipotesis Alternativa
Rechazo H0 si
2
X
1
F0 Fn1,n2,1/2 o F0 Fn1,n2,/2
6= k
2
Y

2
X
2
Y
2
X
2
Y

>
<

1
k
1
k

F0 Fn1,n2,1
F0 Fn1,n2,

donde
F0 =

s2X
k
s2Y

Ejemplo 3.5.10 Para el ejemplo 16.9, determine si las varianzas son iguales o distintas con 2.5 %
de confianza.

79

También podría gustarte