Está en la página 1de 253

Índice general

1. Estadı́stica Descriptiva - Una Variable 5


1.1. Variables Cualitativas y Variables Cuantitativas . . . . . . . . . . . . . . . . 5
1.1.1. Variables Cualitativas . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.2. Variables Cuantitativas . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Agrupación de datos y distribución de frecuencias - Gráficos . . . . . . . . . 7
1.2.1. Distribución de frecuencias univariadas - Variable cualitativa o cuan-
titativa discreta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2. Gráfico de Barras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3. Gráfico Circular . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.4. Distribución de frecuencias univariadas - Variable continua . . . . . . 12
1.2.5. Histograma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.6. Polı́gono de Frecuencias . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2.7. Ojiva . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3. Medidas de Tendencia Central . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1. Media o Promedio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2. Mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.3. Moda . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4. Medidas de Dispersión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.4.1. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.2. Desviación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.3. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.5. Desviación Estándar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.5.1. Coeficiente de Variación . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.6. Medidas de Posición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6.1. Cuartiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.6.2. Deciles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6.3. Percentiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.6.4. Diagrama de caja y bigote (boxplot) . . . . . . . . . . . . . . . . . . 27
1.7. Medidas de Forma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

1
2

1.7.1. Asimetrı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.7.2. Curtosis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2. Introducción a las Probabilidades 37


2.1. Experimento Aleatorio, Espacio Muestral
& Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2. Eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.3. Relaciones de la teorı́a de conjuntos . . . . . . . . . . . . . . . . . . . . . . . 41
2.4. Axiomas y Propiedades de la Probabilidad . . . . . . . . . . . . . . . . . . . 48
2.4.1. Propiedades de la Probabilidad . . . . . . . . . . . . . . . . . . . . . 50
2.5. Probabilidad Sistemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.6. Resultados Igualmente Probables . . . . . . . . . . . . . . . . . . . . . . . . 57
2.7. Técnicas de Conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.7.1. Regla del Producto o Principio de la Multiplicación . . . . . . . . . . 60
2.7.2. Variaciones Sin Repetición . . . . . . . . . . . . . . . . . . . . . . . . 64
2.7.3. Variaciones Con Repetición . . . . . . . . . . . . . . . . . . . . . . . 66
2.7.4. Permutaciones Sin Repetición . . . . . . . . . . . . . . . . . . . . . . 67
2.7.5. Permutaciones Con Repetición . . . . . . . . . . . . . . . . . . . . . . 69
2.7.6. Combinaciones Sin Repetición . . . . . . . . . . . . . . . . . . . . . . 69
2.7.7. Combinaciones con Repetición . . . . . . . . . . . . . . . . . . . . . . 70
2.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
2.9. Probabilidad Condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.9.1. Regla de la Multiplicación de probabilidades . . . . . . . . . . . . . . 78
2.9.2. Independencia de Eventos . . . . . . . . . . . . . . . . . . . . . . . . 80
2.9.3. Teorema de la Probabilidad Total & Teorema de Bayes . . . . . . . . 82
2.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

3. Variables Aleatorias Discretas 89


3.1. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.2. Variables Aleatorias Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.3. Valor Esperado o Esperanza Estadı́stica de una Variable Aleatoria Discreta . 96
3.3.1. Valor Esperado de una Función . . . . . . . . . . . . . . . . . . . . . 97
3.4. Varianza de una Variable Aleatoria Discreta . . . . . . . . . . . . . . . . . . 101
3.5. Distribución Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.6. Distribución Hipergeométrica . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.7. Distribución Binomial Negativa . . . . . . . . . . . . . . . . . . . . . . . . . 120
3.8. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
3.8.1. Aproximación de Poisson de la distribución Binomial . . . . . . . . . 130
3.9. Momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
3.9.1. Función Generadora de Momentos . . . . . . . . . . . . . . . . . . . . 136
3.10. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
3

4. Variables Aleatorias Continuas 141


4.1. Valor Esperado de una Variable Aleatoria Continua . . . . . . . . . . . . . . 152
4.2. Varianza de una Variable Aleatoria Continua . . . . . . . . . . . . . . . . . . 155
4.3. Distribución Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
4.4. Distribución Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.4.1. Área bajo la curva normal . . . . . . . . . . . . . . . . . . . . . . . . 166
4.5. Distribución Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
4.5.1. Distribución Exponencial y proceso de Poisson . . . . . . . . . . . . . 180
4.6. Distribución Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
4.7. Otras distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
4.7.1. Distribución Weibull . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
4.7.2. Distribución Lognormal . . . . . . . . . . . . . . . . . . . . . . . . . 189
4.7.3. Distribución Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
4.8. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191

5. Vectores Aleatorios 195


5.1. Función de masa de probabilidad conjunta . . . . . . . . . . . . . . . . . . . 195
5.2. Distribuciones marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
5.3. Distribuciones condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
5.4. Independencia entre variables aleatorias . . . . . . . . . . . . . . . . . . . . . 207
5.4.1. Función Generadora de Momentos . . . . . . . . . . . . . . . . . . . . 207
5.5. Valores esperados, covarianza y correlación . . . . . . . . . . . . . . . . . . . 209
5.5.1. Posibles relaciones entre las variables aleatorias . . . . . . . . . . . . 211
5.6. Matriz de varianzas y covarianzas . . . . . . . . . . . . . . . . . . . . . . . . 213
5.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215

6. Intervalos de Confianza 219


6.1. Inferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
6.2. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
6.3. Estimación por intervalos de confianza . . . . . . . . . . . . . . . . . . . . . 223
6.4. Intervalos de confianza para la media . . . . . . . . . . . . . . . . . . . . . . 224
6.5. Intervalo de confianza para una proporción (distribución binomial) . . . . . . 227
6.6. Intervalos de confianza para la diferencia de medias . . . . . . . . . . . . . . 229
6.6.1. Varianzas desconocidas e iguales (σ12 = σ22 ) . . . . . . . . . . . . . . . 230
6.6.2. Varianzas desconocidas y diferentes σ12 ̸= σ22 . . . . . . . . . . . . . . 232
6.7. Intervalo de confianza para la diferencia de proporciones . . . . . . . . . . . 234
6.8. Intervalos de confianza para la varianza . . . . . . . . . . . . . . . . . . . . . 234
6.9. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236

7. Pruebas de Hipótesis 239

A. Tablas 241
A.1. Distribución Normal Z ∼ N (0, 1) para z0 ≤ 0 . . . . . . . . . . . . . . . . . 242
A.2. Distribución Normal Z ∼ N (0, 1) para 0 ≤ z0 . . . . . . . . . . . . . . . . . 243
A.3. Distribución Chi-cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
A.4. Distribución T-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
A.5. Distribución Fisher (Tabla I), 1 − α = 0,90 . . . . . . . . . . . . . . . . . . . 246
A.6. Distribución Fisher (Tabla II), 1 − α = 0,90 . . . . . . . . . . . . . . . . . . 247
A.7. Distribución Fisher (Tabla I), 1 − α = 0,95 . . . . . . . . . . . . . . . . . . . 248
A.8. Distribución Fisher (Tabla II), 1 − α = 0,95 . . . . . . . . . . . . . . . . . . 249
A.9. Distribución Fisher (Tabla I), 1 − α = 0,975 . . . . . . . . . . . . . . . . . . 250
A.10.Distribución Fisher (Tabla II), 1 − α = 0,975 . . . . . . . . . . . . . . . . . . 251
A.11.Distribución Fisher (Tabla I), 1 − α = 0,99 . . . . . . . . . . . . . . . . . . . 252
A.12.Distribución Fisher (Tabla II), 1 − α = 0,99 . . . . . . . . . . . . . . . . . . 253

4
Estadı́stica Descriptiva - Una Variable
1
La estadı́stica descriptiva tiene como función identificar por medio de diversas medidas o
herramientas gráficas comportamientos en los datos de forma ordenada y reducida con el
fin de que podamos darnos una idea inicial de cómo abordar un problema, construir un
modelo o proceder con un análisis estadı́stico más robusto. Los diversos estudios descripti-
vos se realizan datos provenientes de una población con el fin de establecer las principales
caracterı́sticas de ella que puedan ser interés para el investigador. Con esto en mente, ya
que el sentido práctico de la estadı́stica es recoger, organizar, analizar e interpretar datos
para la toma de decisiones, se maneja un conjunto de herramientas descriptivas gráficas y
analı́ticas construidas especı́ficamente para atender las necesidades de cada tipo de varia-
ble que se pueda encontrar en un estudio. En esta sección se estudiará la clasificación de
variables según su naturaleza y descriptivos analı́ticos como medidas de tendencia central,
dispersión, posición y forma al igual que herramientas gráficas como los diagramas Boxplots,
histogramas, diagramas de barras, diagramas de tortas, entre otros. Con el fin de dar una
aproximación más didáctica al tema se abordará la formulación de un trabajo de refuerzo al
final de la unidad.

1.1. Variables Cualitativas y Variables Cuantitativas

El principal objeto de estudio de la estadı́stica son caracterı́sticas susceptibles de medición


de objetos o individuos de interés para un investigador, este conjunto de elementos es co-
nocido como población. Por ejemplo, el conjunto de alumnos de un determinado colegio o
los automóviles fabricados en una determinada fábrica durante un año conforman diferentes
poblaciones que pueden ser objeto de estudio.

5
Definición 1.1
Población y Muestra

Una población es el conjunto completo de todos los objetos que interesan a un inves-
tigador. El tamaño de la población, N , puede ser muy grande o incluso infinito. Una
muestra es un subconjunto observado de valores poblacionales que tiene un tamaño
muestral y es notado por n.

Cada uno de los rasgos o caracterı́sticas de los elementos de una población susceptibles de
medición constituyen una variable. El gasto diario de la alimentación de los alumnos, el
género de los estudiantes, el color de los ojos, el peso y la estatura al igual que el color del
carro, el modelo, el tiempo de funcionamiento del carburador son ejemplos de variables de
una población.

De forma general, una variable es una caracterı́stica que cambia según el elemento o individuo
que se estudie y puede tomar un valor numérico o no. De aquı́ se desprende la clasificación
de las variables en cualitativas o cuantitativas.

1.1.1. Variables Cualitativas


Las variables cualitativas, como su nombre lo indica, definen cualidades de los individuos o
de los elementos de una población, éstas a su vez se subdividen en Ordinales y Nominales.

Ordinales: Se caracteriza por una relación de orden dentro de las categorı́as.

Ejemplo 1.1

1. Estrato socio económico de los alumnos del colegio (bajo, medio, alto).

2. Escolaridad (primaria, bachillerato, universitario).

3. Inteligencia (normal, genio).

Nominales: Asigna un nombre que no está sujeto a un criterio de orden.

Ejemplo 1.2

1. Sexo o género (masculino, femenino).

2. Color de ojos (negros, cafés, azules, verdes).

3. Tipo de sangre (A+; A-; B+; B-).

4. Estado civil (soltero, casado, divorciado).

5. Profesión (médico, quı́mico, ingeniero, abogado).

6
1.1.2. Variables Cuantitativas
Cuando los atributos que las definen son cuantificables o medibles numéricamente, éstas se
pueden clasificar como Discretas o Continuas.

Discretas: Son variables con una escala de medición que consta de divisiones enteras
entre valores contiguos.

Ejemplo 1.3

1. Número de estudiantes en cada curso.

2. Número de profesores de matemáticas en el colegio.

3. Número de pacientes atendidos por dı́a en un hospital.

4. Número de llamadas de emergencia recibidas por hora.

Continuas: Cuando pueden asumir un valor con cualquier nivel de precisión entre dos
números consecutivos.

Ejemplo 1.4

1. El peso de un estudiante, éste puede pesar 54,5 kg, 54,54 kg o 54,546 kg de


acuerdo a la precisión de la balanza. El ejemplo revela que, al trabajar con
variables continuas, hay que aceptar la existencia de un error de medición
que se debe tratar de minimizar.

2. La edad de los estudiantes o miembros de una comunidad.

3. El tiempo de duración del carburador de un conjunto de automóviles.

La anterior clasificación de las variables se resume en la Figura 1.1, donde se presentan


también algunos ejemplos ilustrativos.

1.2. Agrupación de datos y distribución de frecuencias


- Gráficos
Cuando se manejan conjuntos de datos, a menudo podemos obtener una idea general agru-
pando los datos en un determinado número de clases, intervalos o categorı́as. La distribu-
ción de frecuencias consiste en describir numérica y gráficamente la forma y composición
del agrupamiento del conjunto de datos. La distribución de frecuencias puede realizarse pa-
ra una (distribución univariada), dos (distribución bivariada) o más variables (distribución
multivariada).

7
Figura 1.1: Clasificación de las variables

1.2.1. Distribución de frecuencias univariadas - Variable cualita-


tiva o cuantitativa discreta
Para generar la distribución de frecuencias en una variable discreta se deben seguir los pasos
que se describen a continuación, los cuales permiten organizar la distribución de los datos
en una tabla de cinco columnas:
1. Identificar los valores (o nombres) diferentes que toma la variable y escribirlos en
la primera columna de la tabla. Se denotará por k el número de valores (o nombres)
diferentes que se encuentran en el conjunto de datos y se denotarán por Xl , X2 , . . . , Xk .
En esta columna no deben haber valores repetidos.

2. La segunda columna consiste en calcular la frecuencia absoluta, ni que es el número


de veces que se repite el valor Xi en el conjunto de datos. La suma de los ni es igual
al número total de datos en análisis.

3. El cálculo de la frecuencia absoluta acumulada, Ni consiste en sumar los valores me-


nores o iguales de las frecuencias absolutas, ni de cada valor Xi como se presenta a
continuación con un ejemplo:

N1 = n1 (1.1)
N2 = N1 + n2 = n1 + n2 (1.2)
N3 = N2 + n3 = n1 + n2 + n3 (1.3)
..
. (1.4)
Ni = Ni−1 + ni = n1 + n2 + n3 + · · · + ni−1 + ni (1.5)

4. La cuarta columna consiste en calcular la frecuencia relativa, hi , la cual es el valor


relativo o porcentual, que representa el valor de cada Xi . Generalmente este valor se

8
multiplica por 100 %

ni
hi =
n

La suma de todos los valores hi debe ser 100 %. En el caso que cada hi no sea haya
multiplicado por 100 %, la suma debe ser 1.

5. La quinta columna consiste en calcular la frecuencia relativa acumulada, Hi , que es


equivalente a sumar los valores menores o iguales de las frecuencias relativas de cada
valor Xi .

Siguiendo los pasos del 1 al 5 se construye la tabla, que representa la distribución de fre-
cuencias para una variable cualitativa con categorı́as o cuantitativa discreta, presentando un
buen resumen del conjunto de datos de la muestra o población estudiada, como ilustrado en
la Figura 1.2.

Figura 1.2: Distribución de frecuencias para una variable discreta

9
Ejemplo 1.5
En una entrevista se le preguntó a 20 personas sobre su estado civil. Las respuestas
son mostradas en la siguiente tabla.
Individuo E. Civil Individuo E. Civil
1 casado 11 divorciado
2 casado 12 divorciado
3 casado 13 soltero
4 soltero 14 soltero
5 soltero 15 casado
6 casado 16 casado
7 divorciado 17 casado
8 soltero 18 casado
9 casado 19 soltero
10 soltero 20 casado

Ahora, aprovechando la existencia de respuestas repetidas se puede construir la tabla con la


distribución de frecuencias. Según los datos, podemos observar que la variable Estado
Civil contiene tres categorı́as las cuales corresponden a casado, divorciado y soltero con
10, 3 y 7 individuos, respectivamente. Siguiendo cada uno de los pasos dados anteriormente,
especı́ficamente en la tabla 1.1 se presenta la distribución de frecuencias.

Es importante comprender que la suma de las frecuencias absolutas es igual a la cantidad


de datos, es decir, igual al tamaño de la muestra que se estudia (en este caso n=20). Por
otro lado, la suma de las Frecuencias Relativas es la unidad, cuando se expresa en notación
decimal (y el 100 % cuando está expresada en porcentajes).

Categorı́asFrec. Absoluta Frec. Absoluta Frec. Relativa Frec. Relativa


n1 Acumulada Ni hi = nni Acumulada Hi
Casado 10 10 0.50 0.50
Divorciado 3 13 0.15 0.65
Soltero 7 20 0.35 1
Totales 20 - 1 -

Tabla 1.1: Tabla de Frecuencias para la variable Estado Civil

Se puede observar que el 50 % de los entrevistados son casados y hay apenas un 15 % de


divorciados.

Las distribuciones de frecuencias se establecen con el propósito de condensar grandes grupos


de datos y mostrarlo de una manera fácil de asimilar, pero a veces es conveniente presentarlo
gráficamente, de forma que permita una fácil e inmediata captación visual. Para este tipo
de variable, se pueden utilizar dos tipos de gráficos, a saber gráfico de barras y gráfico
de sectores o circular.

10
1.2.2. Gráfico de Barras

Para construir un gráfico de barras, las diferentes categorı́as de la variable se sitúan en el


eje X, eje de las abscisas y se trazan barras perpendiculares, todas de igual ancho, cuya
altura sea igual al valor de la Frecuencia Absoluta. La disposición de los ejes puede variar
de acuerdo a la disposición que se elija para las barras (vertical u horizontal).

Ejemplo 1.6
En el gráfico de la siguiente figura se ilustra la variable Estado civil para cada una
de las tres categorı́as según los resultados de la Tabla 1.1, columna 2.

1.2.3. Gráfico Circular

Como su nombre lo indica, este gráfico circular o de sectores se representa en un cı́rculo. La


superficie del cı́rculo se reparte en proporción a las frecuencias relativas que toma la variable
y en muchos casos es presentado como porcentaje.

11
Ejemplo 1.7
En el gráfico de la siguiente figura se ilustra la variable Estado civil para cada una
de las tres categorı́as de esta variable según los resultados de la Tabla 1.1, columna 4.

Los gráficos circulares son de mucha utilidad para representar distribuciones que tienen pocos
valores diferentes, pues la comparación de los sectores de acuerdo a la amplitud ofrece una
imagen visual fácil de comprender.

1.2.4. Distribución de frecuencias univariadas - Variable continua


En el caso de una variable continua, los datos se agrupan en intervalos o clases para definir
la distribución de frecuencias.

Para las variables continuas, los criterios de frecuencias absolutas y relativas, acumuladas y
no acumuladas, son los mismos que para el caso de una variable discreta, analizada ante-
riormente. La diferencia consiste en la definición de intervalos y el concepto de marca de
clase, ası́ mismo la representación gráfica tiene algunas particularidades. La definición de los
intervalos la puede hacer el investigador, de acuerdo con su conocimiento sobre la variable
o el interés por rangos especı́ficos. También se pueden utilizar algunas reglas que permiten
estimar el número de intervalos A continuación se presentan los pasos para la definición de
los intervalos, la marca de clase y la forma de construcción de la tabla de frecuencias.

1. Estimar el número de intervalos a considerar; esto se puede hacer de dos maneras:


que el investigador defina el número de intervalos que requiere, o utilizar como guı́a la
siguiente ecuación, k = 1 + 3,322 ln(n) donde k es el número aproximado de intervalos
y n es el número de datos de la variable analizada.

El valor de k generalmente toma valores decimales, por lo tanto es necesario aproxi-


marlo a un valor√entero. Otra opción para hallar el número de intervalos es utilizando
la fórmula: k = n. Se recomienda aproximar este valor al mayor entero. En general
la literatura recomienda usar entre cinco y veinte intervalos.

12
2. Una vez definido el número de intervalos, se requiere estimar la longitud de cada
intervalo. Se recomienda que la longitud sea igual en cada uno de los intervalos, pues
esto facilita la interpretación de la distribución de frecuencias. La longitud de cada
intervalo se calcula mediante la ecuación L = Rk , donde R es el rango; R = Xmáx −Xmı́n
y k el número de intervalos a elaborar.

3. Definir los lı́mites de cada intervalo, se inicia con el valor inicial X0 , que puede ser
definido como el valor mı́nimo del conjunto de datos, o como el menor valor entero
al valor mı́nimo, con el fin de que los lı́mites de los intervalos tengan valores enteros
y esto facilite la interpretación de la distribución de frecuencias. Los intervalos deben
definirse con la notación matemática de conjuntos, pues esto evitará ambigüedades en
la ubicación de cada dato en particular.

El resumen de lo anterior se ilustra en la figura 1.3

Figura 1.3: Distribución de frecuencias para una variable continua

13
Ejemplo 1.8
El gerente de una determinada empresa está interesado en conocer la edad de los
trabajadores, para ello pide un levantamiento de las edades y un informe al respecto.
El encargado organiza la información en una tabla incluyendo las edades de los 40
empleados, en orden creciente, como establecido en la siguiente tabla:

Ind Edad Ind Edad Ind Edad Ind Edad


1 20.0 11 32.0 21 38.8 31 47.2
2 21.4 12 32.3 22 39.0 32 48.0
3 22.3 13 34.6 23 39.3 33 49.0
4 23.2 14 35.0 24 39.5 34 49.5
5 25.4 15 36.4 25 39.8 35 51.3
6 25.6 16 36.8 26 42.0 36 52.2
7 27.4 17 37.2 27 44.5 37 54.4
8 28.0 18 37.4 28 44.8 38 56.0
9 29.0 19 38.1 29 45.0 39 58.6
10 29.5 20 38.5 30 46.5 40 60.0

Es fácil comprender que en la forma en que aparecen los datos se dificulta el procesamiento
y más aún si aumenta el volumen de ellos. Para resolver este problema, se siguen los pasos
ilustrados en el apartado anterior.

1. Supongamos en este caso que el investigador está interesado en conocer la edad por
décadas. Eso quiere decir que tendrı́amos 4 intervalos definidos por el investigador. Pero
si queremos usar las ecuaciones antes definidas tendrı́amos los siguientes resultados:
k = 1 + 3,322 ln(40) = 1 + 12,2545 ≈ 13.
Esta ecuación nos indica que se deberı́a tomar aproximadamente 13 intervalos, ahora
también tomando la segunda sugerencia de la teorı́a:

k = 40 = 6,3245 ≈ 6.
Por esta sugerencia, deberı́amos tomar únicamente 6 intervalos, es que es un poco mas
próximo a lo que el investigador desea obtener. De aquı́ nos preguntamos, ¿Cuántos
intervalos son los adecuados para representar mejor los datos? No existe una respuesta,
todo depende del estudio que se esté realizando en el momento, las dos ecuaciones
anteriores, son simplemente sugerencias.
2. Observe que la amplitud de los datos, o sea el Rango está dado por:
R = xmax − xmin = 60 − 20 = 40.
Como se definió realizar el estudio por décadas entonces se tendrá 4 intervalos todos
con igual Longitud, que es 10 años, especı́ficamente
R 40
L= = = 10.
k 4
14
3. Habiendo definido los intervalos o clases, se procede a encontrar las marcas de clase
que corresponden a los puntos medios de cada intervalo, a saber 25, 35, 45 y 55.

A continuación se procede a contar el número de individuos que caen dentro de cada intervalo,
por ejemplo, se tienen 10 en el intervalo de 20 a 30 años de edad, inclusive, como es anotado
en la columna 4, en la tabla 1.2.

ni
No.del Intervalo Marca de ni Ni hi = n
Hi
Intervalo Clase
1 [20, 30] 25 10 10 0.250 0.250
2 (30, 40] 35 15 25 0.375 0.625
3 (40, 50] 45 9 34 0.225 0.850
4 (50, 60] 55 6 40 0.150 1.000

Tabla 1.2: Tabla de frecuencias para la variable Edad

Se puede observar que en la empresa 62.5 % son personas que están entre los 20 y los 40 años
de edad mientras que sólo un 15 % tienen entre 50 y 60 años.

Para las variables continuas, se pueden utilizar varios tipos de gráficos, a saber Histograma,
Polı́gono de Frecuencia y Ojiva. A continuación se hará una breve descripción de cada
uno de ellos y se ilustraran con el ejemplo planteado.

1.2.5. Histograma

Este tipo de gráfico se construye mediante columnas o rectángulos unidos. Ası́, sobre cada
intervalo o clase, representado en una escala continua del eje real, se levanta un rectángulo
que tiene como base la respectiva amplitud y como altura la Frecuencia Absoluta o también
el cociente entre la frecuencia absoluta (o relativa) y la amplitud de clase correspondiente,
siendo que de esta manera el área de cada rectángulo es igual a la frecuencia absoluta (o
relativa) de la clase correspondiente.

El histograma puede ayudar a detectar observaciones atı́picas y cualquier brecha en los da-
tos. Especialmente se utiliza para analizar la dispersión que existe en los datos.

15
Ejemplo 1.9
En la figura se presenta el histograma para la variable Edad utilizando como altura la
frecuencia absoluta de cada intervalo. (Construir el histograma con las otras medidas).

Es fácil visualizar la forma de la distribución de la variable Edad en donde se percibe


que la mayor frecuencia de las edades de los empleados está entre 30 y 40 años.

El histograma constituye una herramienta cientı́fica utilizada desde hace siglos. Galileo en
1632 hizo uso para describir la distribución de los errores en observaciones astronómicas y
John Graunt en 1662 lo manejó en su estudio de la mortalidad en los años de la plaga. Sin
embargo fue Egon S. Pearson quien acuñó el término histograma en un trabajo en 1894.

1.2.6. Polı́gono de Frecuencias

El polı́gono de frecuencias es una representación gráfica de la distribución de frecuencias que


resulta esencialmente equivalente al histograma. Se obtiene uniendo, mediante segmentos,
los centros de las bases superiores de sus rectángulos, se cierra en ambos extremos en las
marcas adyacentes con frecuencia cero.

16
Ejemplo 1.10
En la figura se ilustra el histograma junto con el polı́gono de frecuencias para la
variable Edad.

Se observa un rápido crecimiento al comienzo y después a medida que avanza la edad


se presenta un decrecimiento.

Analizar los datos mediante polı́gonos de frecuencias, permite visualizar tendencias o el


comportamiento de la frecuencia absoluta (o relativa).

1.2.7. Ojiva

Ojiva es el nombre que recibe el polı́gono de Frecuencia Acumulada. En las abscisas se


pueden colocar los números de los intervalos o en otros casos se puede colocar el extremo su-
perior de cada intervalo. Por otro lado, en las ordenadas se coloca la frecuencia acumulada
(absoluta o relativa) del intervalo de clase. En la ojiva se permite ver cuántas observaciones
se encuentran por encima o debajo de ciertos valores, en lugar de solo exhibir los números
asignados a cada intervalo.

En la Figura 1.4 se ilustra la Ojiva correspondiente a la variable Edad.

En este gráfico el punto final equivale al 100 % de los datos. En el gráfico se observa que
hasta 40 años se lleva una frecuencia acumulada de 0.625 como fue descrito en la Tabla 1.2.

17
Figura 1.4: Ojiva para la variable Edad

1.3. Medidas de Tendencia Central


Una medida de tendencia central tiene el objetivo de resumir en un solo valor a un conjunto
de valores. Indican un centro en torno del cual se localiza el conjunto de datos. Las medidas
de tendencia central más usadas son: la media, la mediana y la moda.

1.3.1. Media o Promedio


Es la medida de centralidad más representativa, la idea de Media o promedio formaliza el
concepto intuitivo de punto de equilibrio o centro de gravedad de las observaciones. En for-
ma general se define como la sumatoria de todos los valores (datos) que asume una variable,
dividida por el total de los datos.

Para un conjunto de n valores (muestra) en una variable, la media se denota por x̄ y se


calcula como sigue: Pn
xi x1 + x2 + · · · + xn
x̄ = i=1 = (1.6)
n n
Cuando se cuenta con todas las mediciones de una población de tamaño N , se calcula el
parámetro media poblacional que se denota como µ y se calcula como sigue:
PN
xi x 1 + x2 + · · · + xN
µ = i=1 = (1.7)
N N
donde:

18
n = Tamaño de la muestra

N = Tamaño de la población

xi = Valores de la muestra
Ejemplo 1.11
Un ejemplo sencillo del cálculo del valor de la media es dado en la figura siguiente

1.3.2. Mediana
La mediana es la medida que representa el centro real de los datos, la mediana divide el total
de las mediciones en dos partes iguales alrededor de ella. En una lista ordenada, la mediana
es el número que ocupa el punto medio.
Para el cálculo de la mediana se deben tener en cuenta dos cosas: el tamaño de la muestra
y ordenar los valores de forma ascendente.
Si el tamaño de la muestra es impar, la mediana será el número que ocupa la posición
central en la lista ordenada de datos.

Si el tamaño de muestra es par, la mediana será el punto medio entre los dos valores
centrales en la lista ordenada de datos.

Notas Importantes 1.1


Una caracterı́stica de la mediana es que es una medida que no se deja afectar por
valores extremos, como se ilustra en el ejemplo siguiente.

19
Ejemplo 1.12
A una muestra de 8 estudiantes de primer semestre de matemáticas se les preguntó
la edad, las respuestas fueron: 17, 17, 18, 19, 20, 18, 21, 17. Calcular la edad mediana
de los estudiantes.

Solución: Las edades de menor a mayor : 17 17 17 18 19 19 20 21


El tamaño de muestra es par (n = 8), por tanto, la mediana se ubica entre la cuarta
posición y la quinta posición que corresponde a los valores 18 y 19; el punto medio
entre estas mediciones es 18,5 lo que significa que la edad mediana de la muestra de 8
estudiantes es 18,5 años.

Interpretación: A partir de una muestra de 8 estudiantes, se estima que la mitad


de ellos tienen una edad menor o igual a 18,5 años o la mitad de ellos tiene una edad
mayor o igual a 18,5 años.

Ejemplo 1.13
A una muestra de 7 estudiantes de primer semestre de matemáticas se les preguntó
la edad, las respuestas fueron: 17, 17, 18, 19, 20, 18, 21. Calcular la edad mediana de
los estudiantes.

Solución: En primer lugar se ordenan las edades de menor a mayor: 17 17 18 18 19


20 21

Dado que el tamaño de la muestra es impar (n = 7), la mediana se ubica en la


cuarta posición y corresponde al valor 18. Como se puede ver, alrededor de este valor
quedaron distribuidas 3 mediciones hacia atrás y 3 hacia adelante. La edad mediana
es 18 años.

interpretación: A partir de una muestra de 7 estudiantes, se estima que la mitad de


ellos tienen una edad menor o igual a 18 años o la mitad de ellos tiene una edad mayor
o igual a 18 años. Si se desea, la mediana puede interpretarse en términos porcentuales
y se dirá que el 50 % de los estudiantes tienen una edad menor o igual a 18 años o
50 % tiene una edad mayor o iguala 18 años.

1.3.3. Moda

Es una medida de tendencia central que indica el valor que ocurre con mayor frecuencia, no
se ve afectado por valores extremos, es utilizada para datos numéricos o categóricos y puede
ocurrir que una serie de datos no tenga moda o que tenga varias modas.

20
Ejemplo 1.14
Un ejemplo referente a la moda de un conjunto de datos se observa:

Un resumen gráfico de las medidas de tendencia central se pueden observar en la Figura 1.5

Figura 1.5: Medidas de Tendencia Central

1.4. Medidas de Dispersión


Las medidas de dispersión muestran la variabilidad de una distribución, cuanto mayor sea
ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será la distribución
de los datos. Las medidas de dispersión son números reales no negativos, su valor es igual
a cero cuando los datos son iguales y este se incrementa a medida que los datos se vuelven
más dispersos. Algunas medidas de dispersión:

21
1.4.1. Rango

Es la medida de dispersión más sencilla, da una idea de qué tan amplia es la colección
de datos de la muestra. Se define como la diferencia entre el máximo valor observado y el
mı́nimo. Se expresa como sigue:

R = xmáx − xmı́n (1.8)

Ejemplo 1.15
A una muestra de 10 estudiantes de primer semestre de matemáticas se les preguntó
la edad, las respuestas fueron: 17, 17, 18, 19, 20, 19, 21, 17, 19, 21. Se desea saber
cuál es el rango de la variable edad.

Al ordenar las edades de menos a mayor: 17 17 17 18 19 19 19 20 21 21, se tiene que


el máximo valor registrado es 21 años y el mı́nimo es 17 años.

R = 21 − 17
=4

Interpretación: A partir de una muestra de 10 estudiantes, se estima que la máxima


diferencia de edad que se puede encontrar entre los estudiantes de primer semestre de
matemáticas es 4 años.

Una medida de dispersión muestra variación de cada valor sobre la media y tiene las
mismas unidades que los datos originales.

1.4.2. Desviación

La desviación es una medida de dispersión que mide la distancia entre cada una de las
mediciones xi y el centro de la distribución de datos, es decir, es la distancia entre cada
medición y la media x̄ o µ. Si todas las desviaciones son pequeñas en magnitud, entonces
todas las xi se aproximan a la media y hay poca variabilidad. Alternativamente, si algunas
de las desviaciones son grandes en magnitud, entonces algunas xi quedan lejos de x̄ lo que
sugiere una mayor variabilidad o dispersión entre los datos.

Di = |xi − x̄| (1.9)

22
Ejemplo 1.16
Para los datos del ejemplo anterior; 17, 17, 18, 19, 20, 19, 21, 17, 19, 21; se pide calcular
la desviación de cada dato.

x̄ = 18,77
D1 = |x1 − x̄| = |17 − 18,8| = 1,8 D6 = |x6 − x̄| = |19 − 18,8| = 0,2
D2 = |x2 − x̄| = |17 − 18,8| = 1,8 D7 = |x7 − x̄| = |21 − 18,8| = 2,2
D3 = |x3 − x̄| = |18 − 18,8| = 0,8 D8 = |x8 − x̄| = |17 − 18,8| = 1,8
D4 = |x4 − x̄| = |19 − 18,8| = 0,2 D9 = |x9 − x̄| = |19 − 18,8| = 0,2
D5 = |x5 − x̄| = |20 − 18,8| = 1,2 D10 = |x10 − x̄| = |21 − 18,8| = 2,2

Se observa que la edad mas alejada del promedio es 21 años y la mas cercana es 19
años.

1.4.3. Varianza

Es la medida de dispersión mas representativa. Calcula el promedio de las desviaciones al


cuadrado generando una medida única de interpretación de la dispersión en un conjunto de
datos.

La varianza de una muestra de n mediciones se denota por s2 y está dada por:

Pn
2 i=1 (xi − x̄)2
s = (1.10)
n

La varianza de una población de tamaño N se denota por σ 2 y está dada por:

PN
2 i=1 (xi − µ)2
σ = (1.11)
N
23
Ejemplo 1.17
Calcular la varianza del conjunto de datos del ejemplo anterior tomando los resultados
de las desviaciones.

x̄ = 18,77
Pn
2 (xi − x̄)2
s = i=1
P10 n
(xi − 18,77)2
s2 = i=1
10
2
(1,8) + (1,8)2 + (0,8)2 + · · · + (2,2)2
s2 =
10
2
s = 2,4

Interpretación: La varianza de la variable edad es 2,4. Observe que cada una de las
desviaciones calculadas en el ejemplo anterior conserva las unidades de la variable, es
decir, las desviaciones se miden en años pero en el cálculo de la varianza cada una
de las desviaciones es elevada al cuadrado y por tanto las unidades también. Dado
que años al cuadrado no es una unidad de medida con interpretación en relación a la
variable original dada en años entonces se utiliza como una medida de interpretación
la Desviación estándar.

1.5. Desviación Estándar


Es la raı́z cuadrada de la varianza y se denota por s o por σ dependiendo de la procedencia del
conjunto de datos (muestra o población). La Desviación estándar toma valores no negativos
y mide la dispersión, a mayor desviación estándar mayor dispersión de los datos y viceversa.
De modo correspondiente podemos decir que si la desviación estándar de un conjunto de
datos es pequeña los valores se concentran cerca de la media y si es amplia los valores se
acumulan de forma esparcida alrededor de la media, como se puede observar en la Figura
1.6

La desviación estándar de una muestra de n mediciones se denota por s y está dada por:

r Pn
i=1 (xi − x̄)2
s= (1.12)
n

o en el caso de una población:


s
PN
i=1 (xi − µ)2
σ= (1.13)
N

24
Figura 1.6: Ejemplo de la Desviación Estándar

Ejemplo 1.18
Para el ejemplo anterior, la media es x̄ = 18; 77 y la desviación estándar s = 1,55 lo
cual significa que la edad de los estudiantes se concentra cerca de 18.77 años, ya que
la desviación estándar es relativamente pequeña.

Notas Importantes 1.2


Una desventaja de la desviación estándar como una medida de variación es que de-
pende de las unidades de medida. Por ejemplo, si estamos pesando los huevos de aves
pequeñas, ninguna cifra reflejarı́a una variación importante, pero éste no serı́a el caso
si pesamos costales de papas de 100 libras. Ası́ lo que se necesita en tal situación es
una medida de variación relativa como el Coeficiente de variación.

1.5.1. Coeficiente de Variación


El coeficiente de variación expresa la desviación estándar como un porcentaje de lo que se
está midiendo, por lo menos en promedio. Se obtiene como el cociente entre la desviación
poblacional o muestral y la respectiva media.
s
CV = ∗ 100 (1.14)

Ejemplo 1.19
Para el ejemplo que estamos tratando, el Coeficiente de variación está dado por:
s  
1,55
CV = ∗ 100 = ∗ 100 = 8,25
x̄ 18,77

lo cual indica que la edad de los estudiantes varı́a en apenas 8.25 %.

25
1.6. Medidas de Posición
Las medidas de posición no central permiten dividir la distribución en partes iguales y son
llamamos cuantiles, facilitan la ubicación de orden de un sujeto o caso sobre un conjunto
de datos. Estas medidas requieren que exista un orden en las categorı́as de la variable, por lo
que sólo se pueden determinar a partir de la escala ordinal. Los cuantiles más comunes en el
ámbito de la estadı́stica aplicada son: cuartiles, deciles y percentiles, pero, con la misma
lógica podrı́an generarse otras unidades de división como por ejemplo, quintiles, sextiles, etc.

Reiterando la idea en que se introdujo el concepto de mediana - separar los datos en dos
conjuntos de igual tamaño - se introducen las nuevas medidas de posición que también nos
muestran la dispersión de los datos.

1.6.1. Cuartiles
Valores que dividen el conjunto de observaciones en cuatro partes con el mismo número de
elementos. Se representan como Q1 , Q2 , Q3 . Note que en estos términos la mediana corres-
ponde al segundo Cuartil.

Más especı́ficamente, Q1 , Q2 , Q3 determinan los valores correspondientes al 25 %, al 50 % y


al 75 % de los datos, como puede ser observado en la Figura 1.7.

Figura 1.7: Representación de los Cuartiles

Para un conjunto de datos, las posiciones de los respectivos Cuartiles pueden ser obtenidas
por:

Posición del primer cuartil


pQ1 = 0,25(n + 1) (1.15)

Posición del segundo cuartil

pQ2 = 0,5(n + 1) Nota: La posición de la Mediana (1.16)

Posición del tercer cuartil


pQ3 = 0,75(n + 1) (1.17)

26
Ejemplo 1.20
Se seleccionaron 9 personas y se les pregunto la edad. Los datos obtenidos, ya
ordenados, fueron: 11, 12, 13, 16, 16, 17, 18, 21, 22. Se pide obtener el primer Cuartil.

Q1 está en la posición 0,25(9 + 1) = 2, 5 de los datos ordenados. Esto quiere decir que
el primer Cuartil esta en la mitad de los datos de la posición 2 y 3 ası́, se puede usar
el valor medio entre los valores segundo y tercero, entonces el valor Q1 = 12, 5.

A partir de los Cuartiles se define una medida de dispersión que recibe el nombre de Rango
Interquartı́lico, RI, y es, sencillamente la diferencia entre el tercer y el primer Cuartil, es
decir:
RI = Q3 − Q1 . (1.18)

1.6.2. Deciles
Se usan para dividir un conjunto de datos en diez partes iguales, cada una de las cuales tiene
un 10 % de los datos. Se representan como D1 , D2 , . . . , D9 como mostrado en la Figura 1.8.
Note que en estos términos la mediana corresponde al quinto Decil.

Figura 1.8: Representación de los Deciles

1.6.3. Percentiles
Se usan para dividir un conjunto de datos en cien partes iguales, cada una de las cuales
tiene un 1 % de los datos. Se representan como P1 , P2 , . . . , P100 . Note que en estos términos
la mediana corresponde al P50 .

1.6.4. Diagrama de caja y bigote (boxplot)


El nombre original del gráfico introducido por Jhon Tukey en 1977 es box and whisker plot,
es decir, diagrama de caja y bigote. En efecto, el gráfico consiste en un rectángulo (caja) de
cuyos lados superior e inferior se derivan respectivamente, dos segmentos: uno hacia arriba
y el otro hacia abajo (bigotes).

27
Este Diagrama de caja ampliamente conocido como boxplot es un gráfico basado en los
Cuartiles, contiene además información sobre la simetrı́a de la distribución de los datos y
permite definir la idea de dato atı́pico. Para su construcción se representan los tres Cuartiles
y los lı́mites inferior y superior de los datos, sobre un rectángulo que puede estar alineado
horizontal o verticalmente. Más especı́ficamente, se puede observar cada punto en la Figura
1.9 y a continuación la respectiva explicación.

Figura 1.9: Diagrama de caja y bigote (boxplot)

donde
Lı́mite Inferior (LI): Es el extremo inferior del bigote. Los valores por debajo de
este punto se consideran atı́picos. Para encontrar ese punto utilizamos la definición del
Rango Interquartı́lico

RI = Q3 − Q1 Ası́ LI = Q1 − 1,5 ∗ RI (1.19)

Primer Cuartil Q1 : Por debajo de este valor se encuentra como máximo el 25 % de


las observaciones.

Mediana o Segundo Cuartil Q2 : La Mediana coincide con el segundo cuartil. Divide


a la distribución en dos partes iguales. De este modo, 50 % de las observaciones están
por debajo de la Mediana y 50 % está por encima.

Tercer Cuartil Q3 : Por debajo de este valor se encuentran como máximo el 75 % de


las observaciones.

Lı́mite Superior (LS): Es el extremo superior del bigote. Las observaciones por
encima de este lı́mite se consideran atı́picas. El Lı́mite Superior es dado por

LS = Q3 + 1,5 ∗ RI (1.20)

28
Valores atı́picos: Llamaremos valores atı́picos de la variable a aquellos puntos que
están tan apartados del cuerpo principal de los datos que bien pueden representar los
efectos de causas extrañas, como algún error de medición o registro. Se colocan en el
gráfico con asteriscos (*) o puntos (.).

Ejemplo 1.21

A 11 estudiantes de un curso se les preguntó el peso (en kilogramos) y los resultados


fueron los siguiente: 50, 45, 55, 51, 48, 60, 52, 70, 53, 46, 40. Organizando los datos de
forma creciente, se obtienen los quartiles para luego graficar el boxplot.

pQ1 = 0,25 ∗ 12 = 3. Posición del primer cuartil, es decir el dato que ocupa la
posición 3 corresponde al primer cuartil Q1 = 46.

pQ2 = 0,5 ∗ 12 = 6. Posición del segundo cuartil o Mediana corresponde al


segundo cuartil Q2 = 51

pQ3 = 0,75 ∗ 12 = 9 Posición del tercer cuartil corresponde al tercer cuartil


Q3 = 55

Rango intercuartı́lico RI = Q3 − Q1 = 55 − 46 = 9

29
Notas Importantes 1.3
Se deben tener en cuenta las siguientes consideraciones para interpretar el boxplot:

Mientras más larga la caja y los bigotes, más dispersa es la distribución de datos.

La distancia entre las cinco medidas descritas en el boxplot puede variar, sin
embargo, recuerde que la cantidad de elementos entre una y otra es aproximada-
mente la misma. Se considera aproximado porque pudiera haber valores atı́picos,
en cuyo caso la cantidad de elementos se ve levemente modificada.

La lı́nea que representa la mediana indica la simetrı́a. Si está relativamente en el


centro de la caja la distribución es simétrica. Si por el contrario se acerca al pri-
mer o tercer cuartil, la distribución pudiera ser sesgada a la derecha (asimétrica
positiva) o sesgada a la izquierda (asimétrica negativa).

1.7. Medidas de Forma


Cuando dos distribuciones coinciden en sus medidas de posición y dispersión, no tenemos
datos analı́ticos para ver si son distintas. Una forma de compararlas es mediante su forma.
Bastará con comparar la forma de sus histogramas o diagramas de barras para ver si se dis-
tribuyen o no de igual manera. Para efectuar este estudio de la forma en una sola variable,
hemos de tener como referencia una distribución modelo. Como convenio, se toma para la
comparación la distribución Normal de media 0 y varianza 1. En particular, es conveniente
estudiar si la variable en cuestión está más o menos apuntada que la Normal. También si es
más o menos simétrica que ésta, para lo que se definen los conceptos de Asimetrı́a y Curtosis,
y sus correspondientes formas de medida.

1.7.1. Asimetrı́a
El coeficiente de Asimetrı́a es una medida de forma de una distribución que permite iden-
tificar y describir la manera como los datos tienden a reunirse de acuerdo con la frecuencia
con que se hallen dentro de la distribución. Permite identificar las caracterı́sticas de la dis-
tribución de datos sin necesidad de generar el gráfico. El objetivo de la medida de asimetrı́a
es estudiar la deformación horizontal de los valores de la variable respecto al valor central de
la media. En resumen, una distribución es simétrica cuando a la derecha y a la izquierda de
la media existe el mismo número de valores, equidistantes dos a dos de la media, y además
con la misma frecuencia. Para una mejor ilustración se puede observar la Figura 1.10. Esta
imagen muestra cuándo la curva de una distribución de frecuencias es simétrica o asimétrica,
de acuerdo a las medidas de tendencia central, a saber, media, mediana y moda.

También en la Figura 1.11 se observa la forma que puede presentar el boxplot en relación a
las medidas de asimetrı́a.

30
Figura 1.10: Tipos de Asimetrı́a den función de las medidas de tendencia central

(a) Asimetrı́a hacia la izquierda (b) Asimétrica (c) Asimétrica hacia la derecha

Figura 1.11: Asimetrı́a de los datos reflejado en el boxplot

Para calcular de forma analı́tica el coeficiente de asimetrı́a se han estudiado varios coeficientes
de los cuales se tiene:

Coeficiente de Asimetrı́a de FisherP(CAf ): Evalúa la proximidad de los datos a


su media x̄. Cuanto mayor sea la suma (xi − x̄)3 , mayor será la asimetrı́a. Tomamos
todos los elementos x1 , x2 , . . . , xn :
Pn
(xi − x̄)3
CAf = i=1 3 (1.21)
ns
Cuando se tienen datos agrupados el coeficiente de asimetrı́a de Fisher se puede tomar
de la forma: Pn
(xi − x̄)3 ∗ ni
CAf = i=1 (1.22)
ns3
Donde
xi uno de los datos o para datos agrupados representa la marca de clase.
ni frecuencia absoluta para el dato o marca de clase xi
s desviación estándar

31
• Si CAf < 0 Los datos poseen una forma asimétrica negativa o asimétrica hacia
la izquierda.
• Si CAf = 0 Los datos poseen una forma simétrica.
• Si CAf > 0 Los datos poseen una forma asimétrica positiva o asimétrica hacia la
derecha.

Coeficiente de Asimetrı́a de Pearson (CAp ): mide la diferencia entre la media y


la moda respecto a la dispersión del conjunto de datos X = (x1 , x2 , . . . , xn ).
x̄ − M o(x)
CAp = (1.23)
s
• Si CAp < 0 Los datos poseen una forma asimétrica negativa o asimétrica hacia la
izquierda.
• Si CAp = 0 Los datos poseen una forma simétrica.
• Si CAp > 0 Los datos poseen una forma asimétrica positiva o asimétrica hacia la
derecha.

Coeficiente de Asimetrı́a de Bowley (CAb ): toma como referencia los cuartiles


para determinar si la distribución es simétrica o no. Para aplicar este coeficiente, se
supone que el comportamiento de la distribución en los extremos es similar.
Q3 + Q1 − 2Q2
CAb = (1.24)
Q3 − Q1
• Si CAb < 0 Los datos poseen una forma asimétrica negativa o asimétrica hacia la
izquierda, puesto que la distancia de la mediana al primer cuartil es mayor que al
tercero.
• Si CAb = 0 Los datos poseen una forma simétrica, ya que el primer y tercer cuartil
están a la misma distancia de la mediana.
• Si CAb > 0 Los datos poseen una forma asimétrica positiva o asimétrica hacia
la derecha, ya que la distancia de la mediana al tercer cuartil es mayor que al
primero.

1.7.2. Curtosis
A comienzos del siglo XX, Karl Pearson utilizó por primera vez la palabra Curtosis en el
contexto estadı́stico al referirse a la forma de una distribución de frecuencias. Anteriormente,
el término Curtosis habı́a sido utilizado para denotar curvatura en los ambientes matemáti-
co y médico. Por muchos años en libros era común mencionar las estadı́sticas de posición,
dispersión, asimetrı́a y apuntamiento.

La importancia de esta medida está en gran parte relacionada al hecho que, en la misma
forma que la asimetrı́a afecta la inferencia respecto a la media, alta curtosis afecta la infe-
rencia respecto a medidas de dispersión y de correlación. Otra motivación para el estudio

32
de la Curtosis la constituyen las distribuciones con colas pesadas que ocurren en el mundo
real. El concepto de apuntamiento de una distribución surge al comparar la forma de dicha
distribución con la forma de la distribución Normal. De esta forma, clasificaremos las dis-
tribuciones según sean más o menos apuntadas que la distribución Normal, como puede ser
observado en la Figura 1.12.

Figura 1.12: Forma de los datos según la Curtosis

La curtosis se mide promediando la cuarta potencia de la diferencia entre cada elemento


del conjunto y la media, dividido entre la desviación estándar elevado también a la cuarta
potencia. Entonces el coeficiente de curtosis será:
Pn
(xi − x̄)4
Kur = i=1 4 − 3. (1.25)
ns
La interpretación del resultado en este caso, serı́a la siguiente:

Kur > 0 Los datos poseen una forma leptocúrtica

Kur = 0 Los datos poseen una forma mesocúrtica

Kur < 0 Los datos poseen una forma platicúrtica

33
1.8. Ejercicios
1. Variable: Tiempo de desplazamiento de una persona desde su residencia hasta su lu-
gar de trabajo (minutos).
Tipo de variable: Cuantitativa continua.
Tamaño de muestra: 30 residentes.

Ind Tiempo Ind Tiempo Ind Tiempo


1 5 11 21 21 11
2 12 12 16 22 19
3 14 13 10 23 9
4 21 14 5 24 44
5 22 15 11 25 21
6 36 16 42 26 17
7 21 17 31 27 26
8 6 18 31 28 21
9 77 19 26 29 24
10 12 20 24 30 23

Encontrar las medidas y tabla de frecuencias, además realizar las interpretaciones co-
rrespondientes de la muestra dada.

2. Cada calificación en el siguiente lote de calificaciones de exámenes se encuentra en los


60, 70, 80 o 90.

74 89 80 93 64 67 72 70 66 85 89 81 81
71 74 82 85 63 72 81 81 95 84 81 80 70
69 66 60 83 85 98 84 68 90 82 69 72 87

Encontrar la tabla de frecuencias.


Encontrar las medidas de tendencia central.
Encontrar las medidas de dispersión.
Encontrar las medidas de posición y forma.
Encontrar los gráficos para las variables cuantitativas.
¿Que se puede concluir sobre las medidas encontradas?

3. Considere los siguientes datos sobre el tipo de problemas de salud (J= hinchazón de las
articulaciones, F= fatiga, B= dolor de espalda, M= debilidad muscular, C= tos, N=
nariz suelta/irritación, O= otro) que aquejan a los plantadores de árboles. Obtenga las
frecuencias y las frecuencias relativas de las diversas categorı́as y su respectiva gráfico.

34
O O N J C F B B F O J O O M
O F F O O N O N J F J B O C
J O J J F N O B M O J M O B
O F J O O B N C O O O M B F
J O F N

Artı́culo (“Physiological Effects of Work Stress and PesticideExposure in Tree Planting


de British Columbia Silviculture Workers”, Ergonomics, 1993: 951-961.)
Además, ¿Qué medidas de tendencia central se puede encontrar para este tipo de
variables?
4. Las compañı́as eléctricas requieren información sobre el consumo de los clientes para
obtener pronósticos precisos de demandas. Investigadores de Wisconsin Power and
Light determinaron el consumo de energı́a (BTU) durante un periodo particular con
una muestra de 90 hogares calentados con gas. Se calculó un valor de consumo promedio
como sigue:
Consumo
ConsumoAjustado =
(Clima, en grados)(área de casa)
Se presentan los siguientes valores del más pequeño al mas grande:

2.97 4.00 5.20 5.56 5.94 5.98 6.35 6.62 6.72 6.78
6.80 6.85 6.94 7.15 7.16 7.23 7.29 7.62 7.62 7.69
7.73 7.87 7.93 8.00 8.26 8.29 8.37 8.47 8.54 8.58
8.61 8.67 8.69 8.81 9.07 9.27 9.37 9.43 9.52 9.58
9.60 9.76 9.82 9.83 9.83 9.84 9.96 10.04 10.21 10.28
10.28 10.30 10.35 10.36 10.40 10.49 10.50 10.64 10.95 11.09
11.12 11.21 11.29 11.43 11.62 11.70 11.70 12.16 12.19 12.28
12.31 12.62 12.69 12.71 12.91 12.92 13.11 13.38 13.42 13.43
13.47 13.60 13.96 14.24 14.35 15.12 15.24 16.06 16.90 18.26

Encontrar la tabla de frecuencias.


Encontrar las medidas de tendencia central.
Encontrar las medidas de dispersión.
Encontrar las medidas de posición y forma.
Encontrar los gráficos para las variables cuantitativas.
¿Qué se puede concluir sobre las medidas encontradas?

5. Considere la siguiente muestra de cinco valores y las ponderaciones correspondientes:


Queda como ejercicio al estudiante investigar ¿Cómo y en qué consiste la media pon-
derada?

35
xi w i
4.6 8
3.2 3
5.4 6
2.6 2
5.2 5

Ejercicio 1.1
Ejercicio complementario:

(xi − c)2 ? [Sugerencia: Tome la


P
¿Con qué valor de c es mı́nima la cantidad
derivada con respecto a c]

Sean a y b constantes y sea yi = axi + b con i = 1, 2, . . . , n ¿Cuáles son las


relaciones entre x̄ y ȳ y entre s2x y s2y ?

36
Introducción a las Probabilidades
2
El término probabilidad por lo general se refiere al estudio de azar y la incertidumbre en
cualquier situación en la cual varios posibles resultados se pueden obtener. El termino de
probabilidad se utiliza constantemente de manera informal tanto en el contexto escrito como
en el diálogo. Por ejemplo encontramos demasiado enunciados tales como:

Es probable que hoy llueva

Es probable que hoy pueda salir a patinar.

Probablemente el profesor de matemáticas hará el examen la próxima semana.

Se espera que se vendan por lo menos 2.000.000 de pesos en la tienda hoy.

En este módulo, se hace la introducción a conceptos de probabilidad, además se indica cómo


pueden ser interpretadas las probabilidades, basándose en varios conceptos previos para su
mejor desarrollo, además se realizan aplicaciones para el mayor entendimiento del tema.

2.1. Experimento Aleatorio, Espacio Muestral


& Eventos
Definición 2.1
Un experimento aleatorio es un proceso que tiene dos o más resultados posibles y
existe incertidumbre en el resultado que se obtendrá.

Aunque la palabra experimento en general sugiere una situación de prueba cuidadosamente


controlada en un laboratorio, en probabilidad se utiliza en un sentido mucho más amplio.

37
Ejemplo 2.1
Algunos ejemplos de experimentos que pueden ser:

1. Se lanza una moneda al aire y el resultado puede ser cara o cruz, se conoce sus
posibles resultados, pero no sabemos cual será el resultado final del experimento
(Incertidumbre).

2. Un cliente entra en una tienda de camisas. se conoce que hay dos opciones:
compra una camisa o no la compra.

3. Se lanza al aire un dado de seis lados.

4. Se selecciona una carta o cartas de un mazo de 52 cartas.

En todos los ejemplos anteriores y los posibles experimentos que ustedes estén pensando
en estos momentos, el conocimiento previo, nos da una lista de posibles resultados que
podrı́amos obtener, por ejemplo, si se lanza un dado de 6 caras totalmente equilibrado al
aire, se puede pensar que los resultados son lógicamente: 1, 2, 3, 4, 5 y 6.

O si se selecciona una carta de un mazo de 53 cartas, sabemos que podemos tener hasta 52
resultados posibles.

Justamente a este “conjunto de posibles resultados”, se le da un nombre especial que es


Espacio Muestral.

Definición 2.2
El espacio muestral de un experimento aleatorio denotado por Ω, es el conjunto de
todos los posibles resultados de dicho experimento.

Además los cada uno de los elementos del espacio muestral denotados como ω ∈ Ω,
son llamados puntos muestrales

Ejemplo 2.2
Con los ejemplos anteriores, ¿Cuál es el espacio muestral del experimento aleatorio
que consiste en lanzar al aire un dado totalmente equilibrado de seis caras?

Solución: El Espacio muestral contiene 6 puntos muestrales o posibles resultados


que son:
Ω = {1, 2, 3, 4, 5, 6}

38
Ejemplo 2.3
El siguiente experimento aleatorio consiste en verificar si un producto presenta alguna
falla. En este caso podemos tomar como el espacio muestral Ω = {N, F }, donde
N es que el producto no presenta ninguna falla y F si el producto presenta alguna falla.

Ahora si no solamente examinamos 1 producto sino que se examinan 3 productos


en secuencia y se registran los resultados obtenidos en cada evaluación. Para este
experimento tiene una secuencia de longitud 3. Ası́ su espacio muestral es de la forma:

Ω = {N N N, N N F, N F F, N F N, F N N, F N F, F F N, F F F }

Ejemplo 2.4
Se tiene el experimento aleatorio del lanzamiento dos dados al aire de 6 caras, donde
estos dados son totalmente equilibrados.

Solución: Para este caso todos los puntos muestrales ω son parejas ordenadas como
se puede ver en la siguiente tabla:
1 2 3 4 5 6
1 (1,1) (1,2) (1,3) (1,4) (1,5) (1,6)
2 (2,1) (2,2) (2,3) (2,4) (2,5) (2,6)
3 (3,1) (3,2) (3,3) (3,4) (3,5) (3,6)
4 (4,1) (4,2) (4,3) (4,4) (4,5) (4,6)
5 (5,1) (5,2) (5,3) (5,4) (5,5) (5,6)
6 (6,1) (6,2) (6,3) (6,4) (6,5) (6,6)

Ejemplo 2.5
Se toma el voltaje de cierta baterı́a para linterna, si este voltaje queda fuera de ciertos
lı́mites, dicha baterı́a se caracteriza como falla (F ); si el voltaje de la baterı́a se
encuentra dentro de los lı́mites prescritos, se caracteriza como éxito (E). Supóngase
un experimento que consiste en probar cada baterı́a como sale de la lı́nea de ensamble
hasta que se observe un primer fallo.

Se tiene que este resultado es un experimento recursivo ya que debemos evaluar las
baterı́as una a una y paramos el conteo hasta que tengamos un fallo, por lo tanto
podemos tener 10 o 100 o 1000 o . . . sean E y la siguiente sea un F . Es decir, para
cualquier entero positivo n, es posible que se tenga que examinar n baterı́as antes de
encontrar el primer F . Por lo tanto el espacio muestral es:

Ω = {F, EF, EEF, EEEF, . . . }


El cual contiene un número infinito de posibles resultados.

39
Notas Importantes 2.1
Es importante aclarar que el espacio muestral de un experimento aleatorio, puede
ser conformado por números, vectores, sı́mbolos, objetos, etc. Los cuales son
determinados por el experimento considerado.

Un espacio muestral puede ser finito o numerable (infinito).

Una vez definido el concepto de espacio muestral, es posible que no necesitemos todos los
elementos del espacio Ω, sino un subconjunto de el, para ello se introduce el concepto de
Evento o Suceso

2.2. Eventos
Definición 2.3
Un evento (E), es cualquier subconjunto puntos muestrales del espacio muestral. A
menudo un evento también es llamado suceso.

El evento o suceso nulo representa la ausencia de puntos muestrales y se representa


por medio de {ϕ}.

Ejemplo 2.6
Considérese un experimento en el cual cada uno de tres vehı́culos que toman una
salida de una autopista particular, gira a la izquierda (I) o la derecha (D).

Se obtiene que el espacio muestral está conformado por:

Ω = {III, DII, IDI, IID, IDD, DID, DDI, DDD}

Ası́ pues existen nueve eventos simples, que son:

E0 = {ϕ} E1 = {III} E2 = {DII} E3 = {IDI}


E4 = {IID} E5 = {IDD} E6 = {DID} E7 = {DDI}
E8 = {DDD}

Ahora se pueden listar varios eventos compuestos que pueden ser:

A = {DII, IDI, IID} Evento en el cual exactamente uno de los tres vehı́culos
gire a la derecha.

B = {III, DII, IDI, IID} Evento en el cual a lo menos uno de los tres
vehı́culos gire a la derecha.

C = {DDD, III} Evento en el cual los tres vehı́culos giran a la misma dirección.

40
Ejemplo 2.7
Retomando el experimento de lanzar dos dados al aire totalmente equilibrados con 6
caras. En este caso se posee un espacio muestral conformado por 36 elementos, por
ello inmediatamente se obtiene 36 eventos simples, donde cada uno representa un
resultado del lanzamiento o un punto muestral.

Además se pueden construir otros posibles eventos compuestos:

Evento A en el cual el lanzamiento de dos dados al aire se obtenga el mismo re-


sultado en cada uno de los dados. A = {(1, 1), (2, 2), (3, 3), (4, 4), (5, 5), (6, 6)}

Evento B en el cual el lanzamiento de dos dados al aire donde el resultado


obtenido sume 6 puntos. B = {(1, 5), (2, 4), (3, 3), (4, 2), (5, 1)}

Evento C en el cual el lanzamiento de dos dados al aire donde la suma sea mayor
o igual a 13. C = {ϕ}

Ejercicio para el lector: Determine el evento D en el que la suma de las caras


sea divisible por 3.

Notas Importantes 2.2


Además, dentro de la literatura de la teorı́a de probabilidad se consideran los siguientes
eventos especiales:

El espacio muestral Ω conocido como evento seguro. ya que en este evento están
involucrados todos los puntos muestrales o resultados que puede obtener el ex-
perimento.

El evento vacı́o {ϕ} es conocido como evento imposible. Puesto que este evento no
posee resultados posibles del experimento o no posee puntos muestrales entonces
de ahı́ el nombre del evento.

Los eventos simples consisten en exactamente un resultado. Puesto que se confor-


man por cada uno de los puntos muestrales o posibles resultados del experimento.

Los eventos compuestos consisten en más de un resultado. Ya que poseen una


cualidad o caracterı́stica especial de los puntos muestrales que están en el espacio
muestral Ω

2.3. Relaciones de la teorı́a de conjuntos


Un evento E es simplemente un subconjunto del espacio muestral Ω, por lo tanto, las relacio-
nes y resultados que se tiene en la teorı́a de conjuntos normalmente se utilizan con demasiada
frecuencia para estudiar el comportamiento de los eventos. Por ello se utilizarán las siguientes
operaciones elementales entre eventos para crear otros eventos con las caracterı́sticas que se

41
necesitan.

Definición 2.4
Diagramas de Venn Euler

Los diagramas de Venn Euler son una manera esquemática de representar los conjun-
tos. Constituyen un auxiliar didáctico para visualizar las relaciones de pertenencia,
inclusión y las operaciones con conjuntos.

En el diagrama de Venn Euler el rectángulo representa el conjunto universal, en este


caso, representa el espacio muestral Ω.

Figura 2.1: Diagrama de Venn Euler para dos conjuntos

Definición 2.5
Unión de Eventos

La unión de dos eventos A y B, está denotado por:

A ∪ B = {x | x ∈ A ∨ x ∈ B} (2.1)

A ∪ B es el evento que consiste en todos los resultados que están en A o en B o en


ambos eventos, A menudo esto se lee como “A o B”

En un diagrama de Venn (Figura 2.2) se puede representar la unión de dos eventos som-
breando el área y considerando a Ω como el espacio muestral.

42
Figura 2.2: Unión de dos Eventos

Definición 2.6
Intersección de Eventos

La intersección de dos eventos A y B, está denotado por:

A ∩ B = {x | x ∈ A ∧ x ∈ B} (2.2)

A ∩ B es el evento cuyos elementos pertenecen tanto al evento A y como para el evento


B. A menudo esto se lee como “A y B”

En un diagrama de Venn (Figura 2.3) se puede representar la intersección de dos eventos


sombreando el área y considerando a Ω como el espacio muestral.

Figura 2.3: Intersección de dos Eventos

43
Definición 2.7
Diferencia de Eventos

La diferencia de dos eventos A y B, denotado por:

A − B = {x | x ∈ A ∧ x ∈
/ B} (2.3)

A−B es el evento cuyos elementos pertenecen a A y no pertenecen a B. A menudo esto


se lee como “A menos B”. Análogamente se tiene en sentido contrario, como B − A
para los elementos que pertenecen a B pero no pertenecen a A

En un diagrama de Venn (Figura 2.4) se puede representar la diferencia de dos eventos


sombreando el área y considerando a Ω como el espacio muestral.

(a) Diferencia de dos Eventos A − B (b) Diferencia de dos Eventos B − A

Figura 2.4: Diferencia entre Eventos

Notas Importantes 2.3


Un caso particular, cuando se quiere tener la operación diferencia de eventos en conjun-
to, es decir, A−B y B −A, a esta operación usualmente se le conoce como Diferencia
Simétrica y está dada por:

A∆B = {x | x ∈ A − B ∨ x ∈ B − A}

Su diagrama de Venn asociado es:

44
Definición 2.8
Complemento de un Evento

Sea el Evento A. el complemento del evento A es el evento cuyos elementos son todos
elementos de que no pertenecen a A y se denota por:

A′ = {x ∈ Ω | x ∈
/ A}

En un diagrama de Venn el complemento de A es la región sombreada exterior de la curva


cerrada que determina a A (Figura 2.5).

Figura 2.5: Complemento del Evento A

Definición 2.9
Eventos Mutuamente Excluyentes

Dos eventos son mutuamente excluyentes cuando su intersección es vacı́a, es decir:


A∩B =ϕ

En un diagrama de Venn dos eventos A y B mutuamente excluyentes se pueden representar


de la siguiente forma (Figura 2.5).

45
Figura 2.6: Eventos Mutuamente Excluyentes

Ejemplo 2.8
Tres componentes están conectados para formar un sistema como se muestra. Como
los componentes del subsistema 2-3 están conectados en paralelo, dicho subsistema
funcionará si por lo menos uno de los dos componentes individuales funciona. Para que
todo el sistema funcione, el componente 1 debe funcionar y por lo tanto el subsistema
2-3 debe hacerlo.

El experimento consiste en determinar la condición de cada componente [E (éxito)


para un componente que funciona y F (falla) para un componente que no funciona].

Defina su espacio muestral.

¿Qué resultados están contenidos en el evento A en que exactamente dos de los


tres componentes funcionan?

¿Qué resultados están contenidos en el evento B en que por lo menos dos de los
tres componentes funcionan?

¿Qué resultados están contenidos en el evento C en que el sistema funciona?

Determine el evento B − A ¿Qué significa este evento?

Ponga en lista los resultados en C ′ , A∪C, A∩C y B ∪C. De una interpretación a


cada uno de los Eventos compuestos que se están formando con estas operaciones.

Solución
Para encontrar el espacio muestral del ejercicio se deben plantear todas las posibles

46
combinaciones o posibles resultados que se puede obtener del sistema, en este caso
vamos a tener puntos muestrales o eventos simples de la forma {XY Z}, donde X
corresponde al funcionamiento del primer componente del sistema, Y al funcionamiento
del segundo componente del sistema y por último Z corresponde al funcionamiento del
tercer componente del sistema, como se muestra:

Ω = {EEE, EEF, EF E, EF F, F EE, F EF, F F E, F F F }

Definimos el evento A:

A = {Exactamente dos de los tres componentes funcionan}


A = {EEF, EF E, F EE}

Definimos el evento B:

B = {Por lo menos dos de los tres componentes funcionan}


B = {EEE, EEF, EF E, F EE}

Definimos el evento C:

C = {El sistema funciona} = {EEE, EEF, EF E}

Si se realiza la operación B − A, se obtiene el resultado:

B − A = {EEE}

Se puede interpretar de que el evento formado por B − A, es el evento en el cual los


tres componentes funcionan en el sistema.

Ahora procedemos a realizar cada una de las operaciones que nos indican y su respectiva
interpretación:

• Definimos el evento C ′ :

C ′ = {El Sistema no funciona} = {EF F, F EE, F EF, F F E, F F F }

• Definimos el evento A ∪ C

A ∪ C = {El sistema funciona o exactamente dos componentes funcionan}


A ∪ C = {EEF, EF E, F EE, EEE}

• Definimos el evento A ∩ C

A ∩ C = {El sistema funciona y exactamente dos componentes funcionan}


A ∩ C = {EEF, EF E}

47
• Definimos el evento B ∪ C

B ∪ C = {El sistema funciona o por lo menos dos componentes funcionan}


B ∪ C = {EEE, EEF, EF E, F EE}

Notas Importantes 2.4


En la teorı́a de conjuntos existen múltiples resultados de las operaciones anteriormente
vistas, de las cuales se pueden tomar 3 que son importantes para la teorı́a:

Leyes asociativas para eventos:

(A ∪ B) ∪ C = A ∪ (B ∪ C)
(A ∩ B) ∩ C = A ∩ (B ∩ C)

Leyes distributivas para eventos

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C)
A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C)

Leyes de Morgan

(A ∪ B)′ = A′ ∩ B ′
(A ∩ B)′ = A′ ∪ B ′

Ejercicio 2.1
El estudiante debe realizar la respectiva confirmación de las tres leyes antes mencio-
nadas con sus respectivos diagramas de Venn Euler.

2.4. Axiomas y Propiedades de la Probabilidad

Ya conocemos que es un experimento y un espacio muestral Ω, el objetivo de la probabili-


dad es asignar a cada evento perteneciente a un experimento A un valor P (A), llamado la
probabilidad del evento A, el cual dará una medida precisa de la oportunidad de que A
ocurra. Para garantizar que las asignaciones serán consistentes con las nociones intuitivas de
la probabilidad, todas las asignaciones deberán satisfacer los siguientes axiomas (propiedades
básicas) de probabilidad.

48
Definición 2.10
Axioma 1: Para cualquier evento A se cumple que:

P (A) ≥ 0 (2.4)

Este axioma refleja la noción intuitiva de que la probabilidad de que ocurra un evento
A deberá ser no negativa.

Definición 2.11
Axioma 2: Dado el espacio muestral Ω se tiene que:

P (Ω) = 1 (2.5)

dice que la máxima probabilidad posible de 1 está asignada al espacio muestral Ω ya


que contiene todos los posibles resultados de un experimento aleatorio.

Definición 2.12
Axioma 3: Si A1 , A1 , A3 , . . . es un conjunto infinito o numerable de eventos mutua-
mente excluyentes, (es decir, Ai ∩ Aj = ϕ para i ̸= j), entonces:

X
P (A1 ∪ A2 ∪ A3 ∪ · · · ) = P (Ai ) (2.6)
i=1

formaliza la idea de que si se tienen conjuntos con intersección vacı́a, entonces la


probabilidad de que por lo menos uno ocurra es la suma de las probabilidades de los
eventos individuales.

En particular, si A1 , A2 , A3 , . . . , Ak un conjunto finito de eventos mutuamente exclu-


yentes, entonces:
Xk
P (A1 ∪ A2 ∪ A3 ∪ · · · ∪ Ak ) = P (Ai ) (2.7)
i=1

Notas Importantes 2.5


Una consecuencia importante de los axiomas mencionados anteriormente es que
P (ϕ) = 0 donde ϕ corresponde al evento nulo.

49
Ejemplo 2.9
Considérese el experimento de lanzar una moneda al aire, sabemos que este experi-
mento posee un espacio muestral de dos resultados Ω = {C, S}, donde C corresponde
a cara de la moneda y S al sello de la moneda.

Por los axiomas de la probabilidad tenemos que:

P (Ω) = 1

Además se sabe que los dos eventos simples que son A1 = {C}, el evento correspon-
diente a que se obtenga cara en el lanzamiento y análogamente A2 = {S}, donde
se obtiene sello en el lanzamiento de dados. Sabemos que estos dos eventos son
mutuamente excluyentes (es decir, A1 ∩ A2 = ϕ.

Entonces:
1 = P (Ω) = P (A1 ∪ A2 ) = P (A1 ) + P (A2 )
De aquı́ podemos ver que P (A1 ) = 1 − P (A2 ) ó P (A2 ) = 1 − P (A1 ), ası́ que se tiene
múltiples posibilidades para designar las probabilidades a los eventos simples de este
ejemplo ya que una posible posibilidad corresponde a P (A1 ) = 0,5 y P (A2 ) = 0,5, se
puede obtener también P (A1 ) = 0,6 y P (A2 ) = 0,4.

Entonces como una generalización podemos tomar P (A1 ) = p y P (A2 ) = 1 − p donde


p es un valor que está entre 0 y 1.

En el ejemplo anterior se muestra que los axiomas no determina por completo un valor de
probabilidades a eventos ya que se se pueden tener múltiples asignaciones particulares. La
asignación apropiada o correcta depende de la naturaleza de la moneda y también de la
interpretación de probabilidad.

Por lo anterior vamos a definir algunas propiedades de la probabilidad para mejorar su


asignación.

2.4.1. Propiedades de la Probabilidad


Propiedad 2.1
Para cualquier evento A:
P (A) + P (A′ ) = 1 (2.8)
En consecuencia se tiene:
P (A) = 1 − P (A′ )

Esta propiedad se ve reflejada en el ejercicio anterior en el lanzamiento de una moneda se


tenia que el espacio muestral viene dado por Ω = {C, S} además se tenı́an los eventos simples
A1 = {C}, el evento correspondiente a que se obtenga cara en el lanzamiento y análogamente

50
A2 = {S}, donde se obtiene sello en el lanzamiento de dados, entonces sabemos que A′1 = A2
ası́ P (A1 ) + P (A2 ) = 1.

Propiedad 2.2
Para dos eventos cualesquiera A y B

P (A ∪ B) = P (A) + P (B) − P (A ∩ B) (2.9)

En particular si se tiene que A ∩ B = ϕ, entonces:

P (A ∪ B) = P (A) + P (B) Puesto que P (A ∩ B) = 0 (2.10)

Ejemplo 2.10

En cierto suburbio residencial, 60 % de las familias se suscriben al periódico metropo-


litano, 80 % lo hacen al periódico local y 50 % de todas las familias a ambos periódicos.

Si se elige una familia al azar: ¿Cuál es la probabilidad de que una familia al azar se
suscriba

1. Al periódico metropolitano o al periódico local?.

2. A ninguno de los dos periódicos?.

3. Construir el diagrama de Venn Euler asociado.

Solución: Primero debemos plantear los eventos que el ejemplo está solicitando, para ello
hacemos:
A : Familias que se suscriben al periódico metropolitano.

B : Familias que no se suscriben a ningún periódico.


Por el enunciado del ejemplo indica las siguientes medidas de probabilidad asociadas a los
eventos:

P (A) = 0,6
P (B) = 0,8

Además, el ejemplo también indica “50 % de todas las familias a ambos periódicos”, por ello
se hace referencia a que P (A ∩ B) = 0,5.

Ya con los datos anteriores se puede dar respuesta a los items propuestos:
1. Si se elige una familia al azar ¿Cuál es la probabilidad de que se suscriba al periódico
metropolitano o al periódico local?.

51
Entonces de esta forma tomamos la propiedad 2.2 de la forma:

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
= 0,6 + 0,8 − 0,5
= 0,9

Con ello se puede concluir que la probabilidad de escoger una familia al azar que se
suscriba al periódico metropolitano o al periódico local es del 90 %.

2. Si se elige una familia al azar ¿Cuál es la probabilidad de que no se suscriba a ningún


periódico?.

Se sabe que por la propiedad 2.1, se tiene que:

P (A ∪ B) + P ((A ∪ B)′ ) = 1
P ((A ∪ B)′ ) = 1 − P (A ∪ B)
P ((A ∪ B)′ ) = 1 − 0,9
P ((A ∪ B)′ ) = 0,1

Por lo tanto, se tiene que si se elige una familia al azar, la probabilidad de que ninguna
familia se inscriba a un periódico es del 10 %

3. Antes de construir el diagrama de Venn, hay que tener en cuenta que para este caso se
tienen dos resultados auxiliares que se deben realizar, que son:

El evento A−B corresponde a las familias que solamente se suscriben al periódico


metropolitano:

P (A − B) = P (A) − P (A ∩ B)
= 0,6 − 0,5
= 0,1

La cual tiene una probabilidad de suscripción del 10 %


El evento B −A corresponde a las familias que solamente se suscriben al periódico
Local:

P (B − A) = P (B) − P (A ∩ B)
= 0,8 − 0,5
= 0,3

La cual tiene una probabilidad de suscripción del 30 %

Con ello ahora si tenemos el diagrama de Venn Asociado (Figura 2.7):

52
Figura 2.7: Diagrama de Venn Euler del Ejemplo 2.10

Propiedad 2.3
Para tres eventos cualesquiera A, B y C

P (A∪B ∪C) = P (A)+P (B)+P (C)−P (A∩B)−P (A∩C)−P (B ∩C)+P (A∩B ∩C)

Para que el estudiante pueda conceptualizar estas propiedades, se realizarán varios ejemplos
como se sigue:

Ejemplo 2.11
Suponga un experimento donde el espacio muestral Ω viene dado por:

Ω = {1, 2, 3, 4}

Se asigna una medida de probabilidad a los siguientes eventos:


1
P ({1}) = 4
1
P ({2, 3}) = 2
1
P ({4}) = 4

Calcular las siguientes medidas de probabilidad:

1. P ({1, 2, 3})

2. P ({2, 3, 4})

3. P ({1, 4})

Solución: Se debe recordar de que todo subconjunto del espacio muestral corresponde a
un evento, por tanto vamos a considerar los eventos {1}, {2, 3} y {4}
1. Al observar el evento {1, 2, 3} se tiene que este evento se puede ver como la unión de
dos eventos de la forma: {1, 2, 3} = {1} ∪ {2, 3}, Además se sabe que {1} ∩ {2, 3} = ϕ,

53
con ello se sabe que estos dos eventos son mutuamente excluyentes; Por tanto se puede
hacer uso del axioma 3:
P ({1, 2, 3}) = P ({1} ∪ {2, 3})
= P ({1}) + P ({2, 3})
1 1
= +
4 2
3
=
4
2. De igual forma que el punto anterior, el evento {2, 3, 4} corresponde a la unión de dos
eventos que son {2, 3, 4} = {2, 3} ∪ {4}, además estos dos eventos son mutuamente
excluyentes, ya que {2, 3} ∪ {4} = ϕ. Por el axioma 3 se tiene:
P ({2, 3, 4}) = P ({2, 3} ∪ {4})
= P ({2, 3}) + P ({4})
1 1
= +
2 4
3
=
4
3. Para el último sabemos que {1, 4}′ = {2, 3}, entonces por la primera propiedad:
P ({1, 4}) = 1 − P ({1, 4}′ )
= 1 − P ({2, 3})
1
=1−
2
1
=
2
Otra forma de resolverlo es sabiendo que el evento {1, 4} es la unión de dos eventos
que son {1, 4} = {1} ∩ {4}, además de que son mutuamente excluyentes y se procede
de la misma forma que el ı́tem 1 y 2.
Ejemplo 2.12
Se lanza una vez un dado cargado o desequilibrado. Y suponga que las probabilidades
asociadas a los resultados de este lanzamiento son las siguientes:
ω 1 2 3 4 5 6
P (ω) 0,03 0,16 0,22 0,09 0,25 0,25
Calcular:

1. La probabilidad de obtener un número que no sea divisible entre 3 y cuyo cua-


drado sea menor que 20.

2. la probabilidad de obtener un resultado menor que 3.

3. La probabilidad de obtener un resultado mayor que 4.

54
Solución: Antes de poder asignar las probabilidades a los eventos solicitados, debemos
definir exactamente quienes son los resultados o puntos muestrales que conforman estos
eventos, por ello tenemos:

1. Primero podemos tomar el evento A en forma de extensión y posteriormente por com-


prensión:

A = {ω ∈ Ω | 3 ∤ ω ∧ ω 2 < 20}
A = {1, 2, 4}

Ahora con sabiendo el evento, se puede encontrar la probabilidad de dicho evento.

P (A) = P ({1, 2, 4})


= P ({1} ∪ {2} ∪ {4}) Son mutuamente excluyentes
= P ({1}) + P ({2}) + P ({4}) Por el axioma 3
= 0,03 + 0,16 + 0,09
= 0,55

2. Se forma el evento B :Obtener un resultado menor que 3, Entonces el evento B, está


conformado por:

B = {ω ∈ Ω | ω < 3}
= {1, 2}

Por tanto su probabilidad es:

P (B) = P ({1, 2}) B es la unión de dos eventos simples


= P ({1}) + P ({2}) Mutuamente excluyentes
= 0,03 + 0,16
= 0,19

3. Se forma el evento c :Obtener un resultado mayor que 4, Entonces el evento C, está


conformado por:

B = {ω ∈ Ω | ω > 4}
= {5, 6}

Por tanto su probabilidad es:

P (C) = P ({5, 6}) C es la unión de dos eventos simples


= P ({5}) + P ({6}) Mutuamente excluyentes
= 0,25 + 0,25
= 0,50

55
2.5. Probabilidad Sistemática
Considérese un espacio muestral que es o finito o “contablemente infinito”. Una estrategia
sensible para el cálculo de probabilidad
P es determinar primero cada probabilidad de evento
simple, con el requerimiento de que P (Ei ) = 1. Entonces la probabilidad de cualquier
evento compuesto A se calcula agregando los P (Ei ) para todos los Ei que existen en A:

k
X
P (A) = P (Ei ) Para un evento finito (2.11)
i=1
X∞
P (A) = P (Ei ) Para un evento infinito (2.12)
i=1

Ejemplo 2.13
Suponga que se tienen 5 marcas de productos en una tienda. Entonces suponga que
existe el doble de probabilidades de que un usuario seleccione la marca del producto
intermedio (3) que cualquier otra marca del producto adyacente (2 o 3) y el doble
de probabilidades de que seleccione cualquier marca del producto adyacente que
cualquier marca de producto extremo (1 y 5).

Esto quiere decir que si tomamos el espacio muestral de la forma:

Ω = {M1 , M2 , M3 , M4 , M5 }

Se toma P (Ei ) = pi para i de 1 a 5. Por tanto según las indicaciones de las probabili-
dades se tiene que:

p3 = 2p2 = 2p4 y p2 = 2p1 = 2p5 = p4

¿Cuál es la probabilidad de que una de las tres marcas intermedias sea seleccionadas?

Solución: Primero se sabe que por el axioma 2, se tiene:

P (Ω) = 1

Además sabemos que el espacio muestral Ω está conformado por 5 eventos simples corres-
pondientes a cada una de las marcas de los productos y a su vez estos eventos simples son
mutuamente excluyentes, con ello:

5
X
P (Ω) = P (M1 ∪ M2 ∪ M3 ∪ M4 ∪ M5 ) = P (Mi )
i=1
= P (M1 ) + P (M2 ) + P (M3 ) + P (M4 ) + P (M5 ) = 1

56
Ahora tomando la suma de todas las probabilidades:
1 = p1 + p2 + p3 + p 4 + p5
1 = p1 + 2p1 + 4p1 + 2p1 + pi
1 = 10p1
1
= p1
10
Con ello se tiene que las probabilidades sistemáticas de cada uno de los eventos simples son:
p1 = 0,1
p2 = 0,2
p3 = 0,4
p4 = 0,2
p5 = 0,1
Entonces para responder la pregunta del ejercicio, se crea el evento A :Se seleccionan tres
marcas intermedias; Con ello el evento A, está conformado por:
A = {M2 , M3 , M4 }
Ası́:
P (A) = P ({M2 , M3 , M4 }) = p2 + p3 + p4 = 0,2 + 0,4 + 0,2 = 0,8 (2.13)
Es decir que la probabilidad de ser seleccionada las marcas intermedias (2,3 y 4) es del 80 %.

2.6. Resultados Igualmente Probables


Considere un experimento aleatorio tal que su espacio muestral finito Ω viene dado por:
Ω = {ω1 , ω2 , ω3 , . . . , ωn }
Ahora se toman los eventos simples asociados a cada uno de los puntos muestrales.
Ei = {ωi } Para todo i ∈ 1, . . . , n
Suponga que todos los eventos simples tienen la misma probabilidad p de suceder, es decir:
P (Ei ) = p Para todo i ∈ 1, . . . , n
De esta forma tomando el axioma 2 y el axioma 2 de la probabilidad.
1 = P (Ω)
1 = P (E1 ∪ E2 ∪ E3 ∪ · · · ∪ En )
1 = P (E1 ) + P (E2 ) + P (E3 ) + · · · + P (En )
1 = p + p + p + ··· + p
| {z }
n veces
1 = np
1
=p
n

57
Eso quiere decir que cada uno de los eventos simples Ei tienen una probabilidad igual de
p = 1/n,

Con ello se puede conseguir la probabilidad de cualquier evento compuesto A, como la suma
de las probabilidades de eventos simples Ei del evento A igualmente probables.

Suponga que el evento A está compuesto por m eventos simples, Entonces:

P (A) = P (E1 ∪ E2 ∪ E3 ∪ · · · ∪ Em )
= P (E1 ) + P (E2 ) + · · · + P (Em )
1 1 1 1
= + + + ··· +
|n n n {z n}
m veces
m
=
n

Se define la probabilidad clásica es la proporción de veces que ocurrirá un suceso sobre


todos los resultados del espacio muestral (frecuencia relativa), suponiendo que todos los re-
sultados contenidos en un espacio muestral tienen la misma probabilidad de ocurrir.

#(A)
P (A) = (2.14)
#(Ω)

Donde:

#(A) : es el número de resultados pertenecientes al evento A.

#(Ω) : es el número de resultados pertenecientes al espacio muestral Ω.

Por ende cuando los resultados son igualmente probables, el cálculo de probabilidades se
reduce a contar: determinar tanto el número de resultados #(A) en A como el número de
resultados #(Ω) en Ω y formar su relación.

58
Ejercicio 2.2
Los resultados de una investigación realizada a un grupo de 100 personas, que estu-
diaban varios idiomas fueron los siguientes:

Español 28.

Alemán 30.

Francés 42

Español y Alemán 8

Español y Francés 10

Alemán y Francés 5

Los tres idiomas 3.

Calcular la probabilidad de los siguientes eventos:

1. A: Evento de que haya un estudiante que no estudie ningún idioma.

2. B: Evento de que un estudiante tome únicamente Francés.

3. C: Evento de que un estudiante tome al menos un idioma.

4. Realizar su diagrama de Venn Euler Asociado.

2.7. Técnicas de Conteo


Como se tenia en el caso anterior, Cuando los diversos resultados de un experimento son
igualmente probables (es decir, que la misma probabilidad es asignada a cada evento simple),
la probabilidad se convierte en una tarea simplemente de contar. Ya que se tiene #(Ω) el
número de resultados en un espacio muestral y #(A) como el número de resultados contenidos
en un evento A. Ası́:
#(A)
P (A) =
#(Ω)
Asi, si se tiene una lista de resultados del experimento aleatorio es fácil de obtener y además
#(Ω) es pequeño, entonces #(Ω) y #(A) pueden ser determinadas sin utilizar ningún prin-
cipio de conteo.

En la realidad existen muchos experimentos aleatorios que simplemente en calcular el espacio


muestral Ω y el número de resultados que posee el espacio muestral #(Ω) se convierte en
una tarea muy complicada o simplemente extenso. Por esta razón se hace necesario definir
algunas técnicas de conteo generales, es posible calcular probabilidades de la forma 2.14 sin
una lista de resultados.

59
2.7.1. Regla del Producto o Principio de la Multiplicación
Regla del producto para pares ordenados

La primera regla de conteo se aplica a cualquier situación en la cual un conjunto (evento)


se compone de pares de objetos ordenados y se desea contar el número de pares. Por par
ordenado, se quiere decir que, si r1 y r2 son opciones, entonces el par (r1 , r2 ) es diferente del
par (r2 , r1 ). Entonces se tiene la definición:

Definición 2.13
Si el primer elemento o opción de un par ordenado puede ser seleccionado de n1
maneras y por cada una de estas n1 maneras el segundo elemento del par puede ser
seleccionado de n2 maneras, entonces el número de pares es n1 n2 .

Ejemplo 2.14
Sea el experimento aleatorio, de tomar un ratón de una jaula que contiene dos ratones,
uno macho y el otro es hembra y posterior a ello se le aplica cierto medicamento (A,
B o un placebo).

Sea la opción r1 tomar un ratón de una jaula que contiene un ratón hembra (F) y un
ratón macho (M). Ahora sea la opción r2 denote la administración de cualquiera de
los fármacos A (A), el medicamento B (B) o un placebo (P) al ratón seleccionado. A
continuación, el resultado del experimento compuesto puede ser denotado por un par
ordenado, como (F, P ).

De hecho, aplicando el principio de la multiplicación para pares ordenados es de la


forma: (2)(3) = 6 de ellos.

Además este principio de la multiplicación, puede ser representado mediante un diagra-


ma de árbol (Figura 2.7.1). El diagrama muestra que hay n1 = 2 posibilidades (ramas)
para el sexo del ratón y para cada uno de estos resultados, hay n2 = 3 posibilidades
(ramas) para la droga.

60
Ejemplo 2.15
suponga que desea ir de su casa a casa de Juan pasando por el parque donde va a
comprar dulces. Tienes tres caminos para llegar al parque y dos del parque a casa de
Juan, ¿de cuántas formas puedes hacer el trayecto?

Si se enumeran los caminos se pueden obtener los siguientes trayectos: AD, AE, BD,
BE, CD y CE o de una forma más fácil.

Ası́ se puede construir el diagrama de árbol de la siguiente forma:

Ejemplo 2.16
El propietario de una casa, va a llevar a cabo una remodelación, requiere los servicios
tanto de un contratista de fontanerı́a como de un contratista de electricidad. Si existen
12 contratistas de fontanerı́a y 9 contratistas electricistas disponibles en el área, ¿de
cuántas maneras pueden ser elegidos los contratistas?

Solución

Eso quiere decir que se tienen 12 opciones para tomar el contratista de fontanerı́a
f1 , . . . , f12 , y 9 formas de tomar el contratista de electricidad e1 , . . . , e9 , entonces se
desea el número de pares de la forma (fi , ej ). Con n1 = 12 y n2 = 9, la regla de
producto indica que se pueden tomar:

(12)(9) = 108

Formas posibles de seleccionar los dos tipos de contratistas.

61
Regla de producto para k-uplas

Definición 2.14
Supóngase que un conjunto se compone de conjuntos ordenados de k elementos (k-
uplas) y que existen n1 posibles opciones para el primer elemento por cada opción
del primer elemento, existen n2 posibles opciones del segundo elemento; Y ası́ por
cada posible opción de los primeros k − 1 elementos, existen nk opciones del elemento
k-ésimo. Existen entonces n1 n2 . . . nk posibles k-uplas.

Esta regla más general también puede ser ilustrada por un diagrama de árbol; simplemente
se construye un diagrama más elaborado añadiendo una tercera generación de ramas que
emanan de la punta de cada segunda generación, luego ramas de cuarta generación, y ası́
sucesivamente, hasta que por último se agregan ramas de k-ésima generación.

Ejemplo 2.17
Suponga que el trabajo de remodelación de la casa implica adquirir primero varios
utensilios de cocina. Se adquirirán en la misma tienda y hay cinco tiendas en el área.
Ahora la tarea es calcular de cuantas formas se puede tener los materiales, con el
contratista de fontanerı́a y contratista de electricidad.

Solución

Ahora el primer trabajo es denotar las tiendas como d1 , . . . , d5 , entonces con ellos el
número de formas serı́a:
n1 n2 n3 = (5)(12)(9) = 540
3-uplas de la forma (di , fj , ek ), ası́ que existen 540 formas de elegir primero una tienda,
luego un contratista de fontanerı́a y finalmente un contratista electricista.

Ejemplo 2.18
Considere el experimento de lanzar un dado corriente tres veces consecutivas.

1. Calcular la probabilidad de que en el tercer lanzamiento la cara del dado sea


igual 3.

2. Calcular la probabilidad de que en los 2 primeros lanzamientos las caras de los


dados no se repitan.

Solución

Recuerde que para poder encontrar cualquier probabilidad clásica que se requiera es necesa-
rio conseguir el numero de resultados del espacio muestral #(Ω).

62
Por ello con la regla de la multiplicación se tiene que para el primer lanzamiento n1 = 6,
para el segundo lanzamiento n2 = 6 y para el tercer lanzamiento n3 = 6, por ello se tiene
que:
#(Ω) = n1 n2 n3 = (6)(6)(6) = 216
Se tienen 216 resultados al lanzamiento de un dado corriente tres veces, ahora si se puede
proceder a calcular cada una de las probabilidades solicitadas.

1. se tiene el evento A que consiste en los resultados donde se obtenga que en el tercer
lanzamiento se obtenga el resultado 3, es decir, el evento A está conformado por:

A = {(a, b, c) | a, b ∈ 1, . . . , 6 ∧ c = 3}

En ves de realizar todas las listas de resultados se puede realizar la regla de la multi-
plicación para encontrar el numero de resultados que pertenecen a este evento.

El primer lanzamiento no posee restricciones por lo tanto tenemos que el número de


opciones que se tiene es n1 = 6, de igual forma se tiene para el segundo lanzamiento
n2 = 6, pero para el tercer lanzamiento solo tenemos una opción es que sea el resultado
es 3, ası́ n3 = 1, con ello el total de resultados del evento A es:

#(A) = n1 n2 n3 = (6)(6)(1) = 36

Para el evento A se tiene un total de 36 resultados; con ello se puede calcular la


probabilidad del evento de la forma:

#(A) 36
P (A) = = ≈ 0,167
#(Ω) 216

s decir que al realizar tres lanzamientos consecutivos de un dado corriente la probabi-


lidad de que el último lanzamiento se obtenga un resultado 3 es del 16.7 %.

2. Ahora se realiza el evento B, donde se define que los primeros dos lanzamientos los
resultados no se repiten, esto en términos conjuntistas es de la forma:

B = {(a, b, c) | a, b, c ∈ 1, . . . , 6 ∧ a ̸= b}

En este caso se aplica la regla de la multiplicación de la siguiente forma:

a) Para el primer lanzamiento no se posee restricciones por lo tanto n1 = 6.


b) Para el segundo lanzamiento si se posee una restricción de que no puede ser igual
que el primero, por ello si en el primer lanzamiento, el resultado es 1 entonces
tenemos 5 posibilidades para el segundo lanzamiento (pueden ser 2,3,4,5 o 6), y
ası́ sucesivamente con el resto de resultados del primero, eso quiere decir que para
el segundo lanzamiento solo se cuenta con n2 = 5 opciones.
c) El tercer lanzamiento no posee restricciones, por lo tanto n3 = 6

63
De esta forma podemos encontrar el número de resultados del evento B.

#(B) = n1 n2 n3 = (6)(5)(6) = 180

Se obtiene que para el evento B hay 180 resultados, con ello:

#(B) 180
P (B) = = ≈ 0,833
#(Ω) 216

Es decir que al realizar tres lanzamientos consecutivos de un dado corriente la proba-


bilidad de que los dos primeros resultados no sean iguales es del 83.3 %.

Definición 2.15
Sea n un entero no negativo. El factorial de n (o n factorial) se define como:
(
1 Si n = 0
n! = (2.15)
n(n − 1)(n − 2) · · · (2)(3) Si n ≥ 1

Esto es, si n ≥ 1, n! es igual al producto de todos los enteros entre 1 y n inclusive.


Como caso especial, 0! se define como 1.

2.7.2. Variaciones Sin Repetición


En el caso que se desee encontrar conteos ordenados y sin repetición sin usar todos los ele-
mentos, se llamaran variaciones sin repetición.

Las variaciones sin repetición de n elementos tomados de k en k son las distintas agrupa-
ciones formadas con k elementos distintos, eligiéndolos de los n elementos disponibles. Cada
variación será distinta a la otra siempre que difieran en algún elemento como si estuvieran
situados en distinto orden.

Es decir, se llaman variaciones ordinarias o sin repetición de n elementos, tomados de k en k,


se denota Vkn , a los distintos grupos que se pueden formar con los n elementos, de tal forma
que en cada grupo entren k elementos distintos y que un grupo se diferencie de los demás,
bien en alguno de sus elementos, bien en su orden de colocación. Se tiene:

n!
Vkn = (2.16)
(n − k)!

Ejemplo 2.19
Para entender mucho mejor el concepto, se partirá de un conjunto de opciones O =
{1, 2, 3, 4} y se piensa construir todas las variaciones sin repetición posibles.

Solución

64
1. Primero se toma las variaciones de un elemento, eso quiere decir:
A = {1, 2, 3, 4}
Donde:
4! 4!
V14 = = =4
(4 − 1)! 3!
2. Para variaciones sin repetición de dos elementos, esto quiere decir:
A = {12, 13, 14, 21, 23, 24, 31, 32, 34, 41, 42, 43}
Donde:
4! 4!
V24 = = = 4 ∗ 3 = 12
(4 − 2)! 2!
3. Para variaciones sin repetición de tres elementos, esto quiere decir:
A = {123, 124, 132, 134, 142, 143, 213, 214, 231, 234,
241, 243, 312, 314, 321, 324, 341, 342, 412, 413,
421, 423, 431, 432}
Donde:
4! 4!
V34 = = = 4 ∗ 3 ∗ 2 = 24
(4 − 3)! 1!
4. Para variaciones sin repetición de cuatro elementos, esto quiere decir:
A = {1234, 1243, 1324, 1342, 1423, 1432, 2134, 2143, 2314, 2341,
2413, 2431, 3124, 3142, 3214, 3241, 3412, 3421, 4123, 4132,
4213, 4231, 4312, 4321}
Donde:
4! 4!
V44 = = = 4 ∗ 3 ∗ 2 ∗ 1 = 24
(4 − 4)! 0!

Ejemplo 2.20
Considere que se desea formar un comité con tres profesores que harı́an las veces de
delegado, vocal y secretario. El colegio tiene 40 profesores, ¿de cuántas formas puede
constituirse el comité si una persona no puede ocupar más de un cargo?

Solución
Como un profesor no puede tener más que un cargo, el delegado podrı́a ser elegido entre
40 profesores del colegio; una vez que este ha sido elegido, el cargo de vocal podrı́a ser
tomado por uno de los 39 profesores restantes; por último, el cargo de secretario puede
ser tomado por uno de los 38 profesores restantes. Es decir, existen 40 ∗ 39 ∗ 38 = 59280
formas de constituir el comité. Que es lo mismo:
40! 40!
V340 = = = 38 ∗ 39 ∗ 40 = 59,280
(40 − 3)! 37!

65
Si se extiende el procedimiento para determinar el número de comités de k profesores que se
pueden formar en un colegio de n profesores (n ≥ k) se puede llegar a que:

n!
n ∗ (n − 1) ∗ · · · ∗ [n − (k − 2)] ∗ [n − (k − 1)] =
(n − k)!

Ejemplo 2.21
Existen diez asistentes de profesor disponibles para calificar exámenes en un curso de
cálculo en una gran universidad. El primer examen se compone de cuatro preguntas y
el profesor desea seleccionar un asistente diferente para calificar cada pregunta (sólo
un asistente por pregunta). ¿De cuántas maneras se pueden elegir los asistentes para
calificar?

Solución
En este caso n = 10 y k = 4. El número de variaciones es:
10! 10!
V410 = = = (10)(9)(8)(7) = 5040
(10 − 4)! 6!

Es decir, el profesor podrı́a organizar 5040 exámenes diferentes de cuatro preguntas.

2.7.3. Variaciones Con Repetición


Ahora, en el caso que se desee encontrar muestras ordenadas y con repetición sin usar todos
los elementos, se llamaran variaciones con repetición.

Se tienen n elementos de partida.

Se forman agrupaciones de k de esos elementos.

Pueden estar repetidos.

Importa el orden.

Las variaciones con repetición de n elementos tomados de k en k son las distintas agrupacio-
nes formadas con k elementos iguales o distintos, eligiéndolos de los n elementos disponibles.
Cada variación será distinta a la otra si se diferencia de los demás, bien en algún elemento,
bien en su orden de colocación. Se tiene:

V Rkn = nk (2.17)

Ejercicio 2.3
Si se tiene el mismo conjunto de opciones del Ejemplo 2.19, realizar todas las varia-
ciones son repetición posibles.

66
Ejemplo 2.22
Si se sigue con el ejemplo anterior solo que ahora una misma persona puede ocupar
más de un cargo, esto es, un profesor puede ser a la vez vocal y delegado, por ejemplo.
Esto es posible, muchas veces una misma persona ocupa más de un cargo dentro de
una institución.

Entonces, si en un colegio hay 40 profesores, ¿de cuántas formas puede constituirse


un comité de 3 profesores si una persona puede ocupar más que un cargo?

Solución
Como un profesor sı́ puede tener más que un cargo, el delegado podrá ser elegido
entre los 40 profesores del colegio; una vez que este ha sido elegido, el cargo de vocal
podrá ser tomado por uno cualquiera de los profesores, incluido el delegado electo. Por
último, el cargo de secretario puede ser tomado igualmente por cualquiera de los 40
profesores. Es decir, existen (40)(40)(40) = 64,000 formas de constituir el comité.

2.7.4. Permutaciones Sin Repetición


Si se toma el caso particular donde k = n, las variaciones se llamaran permutaciones, y en
el caso de permutaciones sin repetición de n elementos se tiene:

Pn = Vnn = n(n − 1)(n − 2) · · · (n − (n − 1)) · · · 1 = n! (2.18)

Es decir, en el caso que se desee encontrar un numero de resultados de un evento ordenada


sin repetición usando todos los elementos, se llamaran permutaciones sin repetición.

Se tienen n elementos de partida.

Se forman agrupaciones de k de esos elementos.

Pueden estar repetidos.

Importa el orden.

Para construir las permutaciones sin repetición de un conjunto de n elementos, se debe


construir grupos de n elementos sin que se puedan repetir. Se trata entonces de hacer lo
mismo que se ha hecho con las variaciones sin repetición de orden n a partir de un conjunto
de n elementos.

67
Ejemplo 2.23
Se puede realizar algunas variaciones sin repetición para algunos conjuntos de opciones
para entender mejor este concepto.

Solución

De un elemento: O = {1}. Únicamente existe una permutación: 1. Donde

P1 = 1! = 1

De dos elementos O = {1, 2}. Las dos permutaciones son: 12 y 21. Donde

P2 = 2! = 2 ∗ 1 = 2

De tres elementos O = {1, 2, 3}. Las seis permutaciones son: 123 , 132 , 213 , 231
, 312 y 321. Donde
P3 = 3! = 3 ∗ 2 ∗ 1 = 6

De cuatro elementos A = {1, 2, 3, 4}. Las veinticuatro permutaciones son: 1234 ,


1243 , 1324 , 1342 , 1423 , 1432 , 2134 , 2143 , 2314 , 2341 , 2413 , 2431 , 3124 ,
3142 , 3214 , 3241 , 3412 , 3421 , 4123 , 4132 , 4213 , 4231 , 4312 , 4321. Donde

P4 = 4! = 4 ∗ 3 ∗ 2 ∗ 1 = 24

Ejemplo 2.24
¿de cuántas formas pueden quedar clasificados 5 estudiantes en un concurso?

P5 = (5)(4)(3)(2)(1) = 120 Formas

Ejemplo 2.25
Formar todos los anagramas posibles con las letras AMOR.

Si se cuentan las posibilidades serı́a P4 = 4! = 24 anagramas.

68
2.7.5. Permutaciones Con Repetición
Si se desea encontrar las permutaciones de n elementos cuando existen elementos repetidos,
(un elemento aparece a1 veces, otro a2 veces, otro a3 veces, etc) verificándose que a1 + a2 +
a3 + · · · + ak = n. El número de estas permutaciones será:

n!
P Ran1 ,a2 ,...,ak = (2.19)
a1 !a2 ! . . . ak !

Ejemplo 2.26
Si se modifica en el ejemplo anterior las letras a AMAR y se realiza el mismo ejercicio
se obtiene:

Se puede observar que la primera y la tercera columna son iguales. Por lo que se tiene:

Donde se puede tener el mismo resultado por la ecuación 2.19:


4!
P R24 = = 12
2!

2.7.6. Combinaciones Sin Repetición


Las combinaciones de n elementos sin repetición tomados de k en k se definen como las dis-
tintas agrupaciones formadas con k elementos distintos, eligiéndolos de entre los n elementos
disponibles, considerando una variación distinta de otra si difieren en algún elemento pero
no influye el orden.

Entonces, se llaman combinaciones sin repetición de n elementos, tomados de k en k, a los


diferentes conjuntos de k elementos diferentes. Un conjunto es distinto de los otros si se
diferencia en, al menos, un elemento sin importar el orden.

Vkn n!
Ckn = = (2.20)
Pk (n − k)!k!

69
Ejemplo 2.27
¿De cuántas maneras se pueden sacar 3 bolas numeradas en cualquier orden, de una
bolsa que contiene 5 bolas?

Solución
Serı́an combinaciones de 5 elementos de los que se saca 3, es decir, se tiene que calcular:
5! 5!
C35 = = = 10
(5 − 3)!3! 2!3!

2.7.7. Combinaciones con Repetición


Las combinaciones con repetición de n elementos tomados de k en k son las distintas agru-
paciones formadas por k elementos que pueden repetirse, eligiendo entre los n elementos
disponibles. Se considerará una combinación diferente a otra solo si difieren en algún ele-
mento, sin importar el orden.

(n + k − 1)!
CRkn = (2.21)
(n − 1)!k!
Puede ayudar a plantear correctamente este tipo de problemas el preguntarse sistemática-
mente si importa o no el orden de selección u ordenación de objetos, si estos son todos
distinguibles o existen elementos indistinguibles. En pocas palabras, ¿importa el orden?, ¿se
repiten? De hecho, para aquellos problemas que involucren únicamente variaciones, permu-
taciones y combinaciones el esquema que se presenta a continuación puede ser suficiente para
resolver correctamente las diferentes situaciones.

Figura 2.8: Esquema Resumen

70
2.8. Ejercicios
1. Florencio Frentes tiene una pequeña tienda de automóviles usados en la que tiene tres
Mercedes (M1 , M2 , M3 ) y dos Toyotas (T1 , T2 ). Dos clientes, César y Andrés, entran
en la tienda y selecciona cada uno un automóvil. Los clientes no se conocen y no hay
comunicación entre ellos. Sean A y B los sucesos siguientes:

A: Los clientes seleccionan como mı́nimo un Toyota.


B: Los clientes seleccionan dos automóviles del mismo modelo.

Realice lo siguiente:

a) Identifique el espacio muestral.


b) Describa el evento A.
c) Describa el evento B.
d ) Describa el complementario de A.
e) Demuestre que con los datos de este ejercicio se cumple: (A ∩ B) ∪ (A′ ∩ B) = B
f ) Demuestre que con los datos de este ejercicio se cumple: A ∪ (A′ ∩ B) = A ∪ B

2. De un grupo de pacientes con lesiones, el 28 % visita tanto a un fisioterapeuta como a


un quiropráctico y el 8 % no visita a ningún especialista. Suponga que la probabilidad
de visitar a un fisioterapeuta supera la probabilidad de visitar a un quiropráctico en un
16 %. ¿Cuál es la probabilidad de seleccionar una persona aleatoriamente de este grupo
que visite a un fisioterapeuta?. Realizar además su diagrama de Venn Euler Asociado.

3. Si P (A) = 0,4, P (B) = 0,5, y P (A ∩ B) = 0,3, encontrar:

a) P (A ∪ B)
b) P (A ∩ B ′ )
c) P (A′ ∪ B ′ )

4. Sabiendo que P (A ∩ B) = 0,76, P (A ∩ B ′ ) = 0,87 encontrar P (B)

5. A un individuo se le presentan tres vasos diferentes de refresco, designados C, D y P .


Se le pide que pruebe los tres y que los ponga en lista en orden de preferencia.

a) ¿Cuáles son los eventos simples en este evento de clasificación y qué probabilidad
le asignarı́a a cada uno?
b) ¿Cuál es la probabilidad de que C obtenga el primer lugar?
c) ¿Cuál es la probabilidad de que C obtenga el primer lugar y D el último?

6. La inspección visual humana de uniones soldadas en un circuito impreso puede ser


muy subjetiva. Una parte del problema se deriva de los numerosos tipos de defectos
de soldadura (p. ej., almohadilla seca, visibilidad en escuadra, picaduras) e incluso el
grado al cual una unión posee uno o más de estos defectos. Por consiguiente, incluso

71
inspectores altamente entrenados pueden discrepar en cuanto a la disposición particular
de una unión particular. En un lote de 10.000 uniones, el inspector A encontró 724
defectuosas, el inspector B, 751 y 1.159 de las uniones fueron consideradas defectuosas
por cuando menos uno de los inspectores. Suponga que se selecciona una de las 10.000
uniones al azar.
a) ¿Cuál es la probabilidad de que la unión seleccionada no sea juzgada defectuosa
por ninguno de los dos inspectores?
b) ¿Cuál es la probabilidad de que la unión seleccionada sea juzgada defectuosa por
el inspector B pero no por inspector A?
7. Realizar el Ejercicio 2.2 que trata sobre los resultados de una investigación realizada a
un grupo de 100 personas, donde se estudiaban varios idiomas.
8. El experimento aleatorio se trata del lanzamiento de 4 monedas equilibradas y se
registra el resultado del lanzamiento, calcular:
a) Liste los posibles resultados del lanzamiento. Cuántos posibles resultados se pu-
dieron encontrar?
b) Sean los eventos A, B, C y D, tales que:
A = {El resultado contenga al menos 3 caras}
B = {El resultado contenga máximo 2 caras}
C = {El resultado se obtenga cara en la tercera moneda}
D = {El resultado contenga 1 cara y 3 sellos}
Calcular:
P (A)
P (A ∩ B)
P (B)
P (A ∩ C)
P (D)
P (A ∪ C)
P (B ∩ D)
9. Se lanza un dado de 6 lados tres veces. Sean los eventos A = {1 o 2 en el primer lanzamiento},
B = {3 o 4 en el segundo lanzamiento} y C = {5 o 6 en el tercer lanzamiento}. Si se
sabe que para i, j ∈ {1, 2, 3}:
P (Ai ) = 1/3
P (Ai ∩ Aj ) = (1/3)2 para i ̸= j
P (A1 ∩ A2 ∩ A3 ) = (1/3)3 .
Muestre que la probabilidad de:
 3
1
P (A1 ∪ A2 ∪ A3 ) = 1 − 1 −
3

72
10. Un departamento académico con cinco miembros del cuerpo de profesores, Anderson,
Box, Cox, Cramer y Fisher, debe seleccionar dos de ellos para que participen en un
comité de revisión de personal. Como el trabajo requerirá mucho tiempo, ninguno está
ansioso de participar, por lo que se decidió que el representante será elegido introdu-
ciendo cinco trozos de papel en una caja, revolviéndolos y seleccionando dos.

a) ¿Cuál es la probabilidad de que tanto Anderson como Box serán seleccionados?


b) ¿Cuál es la probabilidad de que por lo menos uno de los dos miembros cuyo
nombre comienza con C sea seleccionado?
c) Si los cinco miembros del cuerpo de profesores han dado clase durante 3, 6, 7, 10
y 14 años, respectivamente, en la universidad, ¿cuál es la probabilidad de que los
dos representantes seleccionados acumulen por lo menos 15 años de experiencia
académica en la universidad?

11. Una empresa de producción emplea 20 trabajadores en el turno de dı́a, 15 en el turno


de tarde y 10 en el turno de medianoche. Un consultor de control de calidad va a
seleccionar 6 de estos trabajadores para entrevistas a fondo. Suponga que la selección
se hace de tal modo que cualquier grupo particular de 6 trabajadores tiene la misma
oportunidad de ser seleccionado al igual que cualquier otro grupo (sacando 6 papelitos
de entre 45 sin reemplazarlos).

a) ¿Cuántas selecciones resultarán en que los 6 trabajadores seleccionados provengan


del turno de dı́a?
b) ¿Cuál es la probabilidad de que los 6 trabajadores seleccionados sean del mismo
turno?
c) ¿Cuál es la probabilidad de que por lo menos dos turnos diferentes estarán repre-
sentados entre los trabajadores seleccionados?
d ) ¿Cuál es la probabilidad de que por lo menos uno de los turnos no estará repre-
sentado en la muestra de trabajadores?

12. Un experimentador está estudiando los efectos de la temperatura, la presión y el tipo de


catalizador en la producción de cierta reacción quı́mica. Tres diferentes temperaturas,
cuatro presiones distintas y cinco catalizadores diferentes se están considerando.

a) Si cualquier experimento particular implica utilizar una temperatura, una presión


y un catalizador, ¿cuántos experimentos son posibles?
b) ¿Cuántos experimentos existen que impliquen el uso de la temperatura más baja
y dos presiones bajas?

73
2.9. Probabilidad Condicional
Ahora consideremos un par de sucesos, A y B. Supongamos que nos interesa saber cuál es
la probabilidad de A, dado que ha ocurrido B. Este problema puede analizarse por
medio del concepto de probabilidad condicional. La idea básica es que la probabilidad de
que ocurra cualquier suceso a menudo depende de que hayan ocurrido o no otros sucesos.

Definición 2.16
Probabilidad Condicional

Sean A y B dos eventos. La probabilidad condicionada del evento A, dado que ha


ocurrido el evento B, se representa por medio del sı́mbolo P (A|B) y se define:

P (A ∩ B)
P (A|B) = P (B) > 0 (2.22)
P (B)

De la misma forma:
P (A ∩ B)
P (B|A) = P (A) > 0 (2.23)
P (A)

Para entender mejor en lo que consiste la probabilidad condicional se procederá a realizar


los siguientes ejemplos:

Ejemplo 2.28
En una planta se ensamblan componentes complejos en dos lı́neas de ensamble
diferentes, A y A∗. La lı́nea A utiliza equipo más viejo que A∗, por lo que es un
poco más lenta y menos confiable. Suponga que en un dı́a dado la lı́nea A ensambla
8 componentes, de los cuales 2 han sido identificados como defectuosos B y 6 como
no defectuosos B∗, mientras que A∗ ha producido 1 componente defectuoso y 9 no
defectuosos. Esta información se resume en la tabla adjunta.

Condición B Condición B∗
Linea A 2 6
Linea A∗ 1 9

1. Encontrar la probabilidad de que se ensamblen componentes de la linea A.

2. Encontrar la probabilidad de que se ensamblen componentes de la linea A∗.

3. Encontrar la probabilidad de que se ensamblen componentes de la linea A dado


que este ha sido defectuoso.

4. Encontrar la probabilidad de que se ensamblen componentes de la linea A dado


que este no ha sido defectuoso.

74
Solución

1. Para el primer ı́tem, se debe tomar el número total de los componentes que se en-
samblan por la linea A sin importar si son defectuosos o no, esto quiere decir que
#(A) = 2 + 6 = 8 componentes. Además se sabe que la totalidad de los compo-
nentes sin importar si son defectuosos o no, además tampoco importa si se ensam-
blan por la linea A o A∗ corresponde al número de resultados del espacio muestral:
#(Ω) = 2 + 1 + 6 + 9 = 18. Con ello se puede calcular la probabilidad solicitada:

#(A) 8
P (A) = = = 0,44
#(Ω) 18

2. De la misma forma que se tenı́a en el ı́tem 1, se tiene que el número de resultados


de que los componentes sean ensamblados por la linea A∗ sin importar de que son
defectuosos o no es de #(A∗) = 1 + 9 = 10 componentes, con ello se puede calcular:

#(A∗) 10
P (A∗) = = = 0,55
#(Ω) 18

3. En este caso se requiere la probabilidad de que un componente sea ensamblado por


la linea A dado que este ha sido defectuoso; en este caso si tenemos una condición
sobre la probabilidad de interés y esa condición es juntamente que el componente es
defectuoso. Con ello:
#(A∩B)
P (A ∩ B) #(Ω) #(A ∩ B) 2
P (A|B) = = #(B)
= = = 0,67
P (B) #(B) 3
#(Ω)

Aquı́ hay una gran importancia de la probabilidad condicional, ya que se habı́a dicho
en el punto 1 que la la probabilidad de que un componente sea ensamblado por la linea
A es del 44 %, pero si se agrega la condición de que este haya sido defectuoso se tiene
la probabilidad del 67 %.

4. De forma análoga al ı́tem 3, ahora se requiere la probabilidad condicional P (A|B∗):

#(A∩B∗)
P (A ∩ B∗) #(Ω) #(A ∩ B∗) 6
P (A|B∗) = = #(B∗)
= = = 0,40
P (B∗) #(B∗) 15
#(Ω)

Ejercicio 2.4

Con el enunciado del Ejercicio 2.28, realizar las probabilidad condicionales P (A ∗ |B)
y P (A ∗ |B∗), ¿Qué puede concluir acerca de las lineas de ensambles?

75
Ejemplo 2.29

Una revista de noticias publica tres columnas tituladas “Arte” (A), “Libros” (B) y
“Cine” (C). Los hábitos de lectura de un lector seleccionado al azar con respecto a
estas columnas son:
Lee con Regularidad A B C A∩B A∩C B∩C A∩B∩C
Probabilidad 0,14 0,23 0,37 0,08 0,09 0,13 0,05

Calcular:

1. Calcular la probabilidad de seleccionar un lector que lea la columna de “Arte”


si se sabe que lee la columna de “Libros”.

2. Calcular la probabilidad de seleccionar un lector que lea la columna de “Arte”


si sabe que lee por lo menos una de las dos restantes (“Libros” o “Cine”).

3. Calcular la probabilidad de seleccionar un lector que lea la columna de “Arte”


si se sabe que lee por lo menos una de las columnas.

4. Calcular la probabilidad de seleccionar un lector que lea la columna de “Arte” o


la columna de “Libros” si se sabe que lee la columna de “Cine”.

Solución

1. En el primer ı́tem se requiere calcular la probabilidad de que un lector lea la columna


de “Arte”, donde este es el evento A, dado que el lector lee con regularidad la columna
“Libros” que corresponde al evento B, entonces se requiere calcular lo siguiente:

P (A ∩ B) 0,08
P (A|B) = = = 0,35
P (B) 0,23

Es de anotar que en estos casos se está condicionando el evento que el lector lea la
columna “Arte”, por tal razón se puede observar que la probabilidad es diferente que
P (A) = 0,14. Esto se debe a que nuestro conjunto o evento de referencia cambia, es
decir:
#(A∩B)
P (A ∩ B) #(Ω) #(A ∩ B)
P (A|B) = = #(B)
=
P (B) #(B)
#(Ω)

2. Ahora se necesita saber cual es la probabilidad de que un lector lea la columna de


“Arte” dado que este lector lee al menos una de las dos columnas “Libros” o “Cine”,

76
esto quiere decir que:

P (A ∩ (B ∪ C))
P (A|B ∪ C) =
P (B ∪ C)
P ((A ∩ B) ∪ (A ∩ C))
=
P (B) + P (C) − P (B ∩ C)
P (A ∩ B) + P (A ∩ C) − P ((A ∩ B) ∩ (A ∩ C))
=
P (B) + P (C) − P (B ∩ C)
P (A ∩ B) + P (A ∩ C) − P (A ∩ B ∩ C)
=
P (B) + P (C) − P (B ∩ C)
0,08 + 0,09 − 0,05
=
0,23 + 0,37 − 0,13
0,12
= = 0,25
0,47

Para estos ejercicios es bueno tener en cuenta todas las relaciones entre eventos que
se han estudiado, ya que en muchas ocasiones no se cuenta con un diagrama de Venn
asociado, especialmente cuando se necesita trabajar con mas de tres eventos al tiempo.

3. Ahora se tiene que calcular la probabilidad de que un lector lea la columna de “Arte”
dado que el lector lee regularmente por lo menos una de las columnas “Arte” o “Libros”
o “Cine”, es decir:

P (A ∩ (A ∪ B ∪ C))
P (A|A ∪ B ∪ C) =
P (A ∪ B ∪ C)
P (A ∪ (A ∩ B) ∪ (A ∩ C))
=
P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
P (A) + P (A ∩ B) + P (A ∩ C) − P (A ∩ B) − P (A ∩ C) − P (A ∩ B ∩ C) + P (A ∩ B ∩ C)
=
P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
P (A)
=
P (A) + P (B) + P (C) − P (A ∩ B) − P (A ∩ C) − P (B ∩ C) + P (A ∩ B ∩ C)
0,14 0,14
= = = 0,29
0,14 + 0,23 + 0,37 − 0,08 − 0,09 − 0,13 + 0,05 0,49

4. Por último lo que se quiere es la probabilidad de que el lector lea la columna de “Arte”

77
o “Libros” dado que se lee la columna de “Cine”, es decir:
P ((A ∪ B) ∩ C)
P (A ∪ B|C) =
P (C)
P ((A ∩ C) ∪ (B ∩ C))
=
P (C)
P (A ∩ C) + P (B ∩ C) − P (A ∩ B ∩ C)
=
P (C)
0,09 + 0,13 − 0,05
=
0,37
0,17
= = 0,46
0,37
Aprovechando de que se tienen 3 eventos se puede calcular el diagrama de Venn Euler
asociado de la siguiente forma:

Figura 2.9: Diagrama de Venn Euler asociado al Ejercicio 2.29

Ejercicio 2.5
Queda para el lector verificar con el diagrama de Venn Euler que las probabilidades
obtenidas en el ı́tem 1,2,3 y 4 del Ejercicio 2.29 son correctas.

2.9.1. Regla de la Multiplicación de probabilidades


Una consecuencia inmediata de la probabilidad condicional es la regla del producto de
probabilidades, que expresa la probabilidad de una intersección por medio de las probabi-
lidades de sucesos individuales y las probabilidades condicionadas.

78
Definición 2.17
Regla de la Multiplicación de probabilidades

Sean A y B dos eventos. La probabilidad de su intersección puede deducir de la pro-


babilidad condicionada de la forma siguiente:

P (A ∩ B) = P (A|B)P (B) (2.24)

También
P (A ∩ B) = P (B|A)P (A) (2.25)

Esta regla es importante porque a menudo se desea obtener P (A ∩ B), en tanto que P (B) y
P (A|B) pueden ser especificadas a partir de la descripción del problema. La consideración
de P (B|A) da P (A ∩ B) = P (B|A)P (A).

Ejemplo 2.30

En una gasolinera, 40 % de los clientes utilizan gasolina regular (A1 ), 35 % usan gasolina
plus (A2 ) y 25 % utilizan premium (A3 ). De los clientes que utilizan gasolina regular,
sólo 30 % llenan sus tanques (evento B). De los clientes que utilizan plus, 60 % llenan
sus tanques, mientras que los que utilizan premium, 50 % llenan sus tanques.

1. ¿Cuál es la probabilidad de que el siguiente cliente pida gasolina regular y llene


el tanque?

2. ¿Cuál es la probabilidad de que el siguiente cliente pida gasolina plus y llene el


tanque?

3. ¿Cuál es la probabilidad de que el siguiente cliente pida gasolina premium y llene


el tanque?

Solución

Primero se tienen que tomar todos los valores asociados al ejemplo:

A1 = Utilizan gasolina regular. A3 = Utilizan gasolina premium.

A2 = Utilizan gasolina plus. B = Llenar el tanque.

Ahora se asocian las probabilidades a los eventos según el ejemplo:

P (A1 ) = 0,40 P (B|A1 ) = 0,30

P (A2 ) = 0,35 P (B|A2 ) = 0,60

P (A3 ) = 0,25 P (B|A3 ) = 0,50

79
Con ello ahora se pueden calcular las probabilidades solicitados:

1. P (A1 ∩ B) = P (B|A1 )P (A1 ) = (0,30)(0,40) = 0,12

2. P (A2 ∩ B) = P (B|A2 )P (A2 ) = (0,60)(0,35) = 0,21

3. P (A3 ∩ B) = P (B|A3 )P (A3 ) = (0,50)(0,25) = 0,125

2.9.2. Independencia de Eventos

La independencia estadı́stica es un caso especial en el que la probabilidad condicionada de


A, dado B, es igual que la probabilidad incondicionada de A. Es decir, P (A|B) = P (A). En
general, este resultado no es cierto, pero cuando lo es, vemos que el hecho de saber que el
suceso B no ha ocurrido no altera la probabilidad del suceso A.

Definición 2.18
Sean A y B dos eventos. Se dice que estos eventos son estadı́sticamente independientes
si y sólo si
P (A ∩ B) = P (A)P (B) (2.26)
También se deduce de la regla del producto que:

P (A ∩ B) P (A)P (B)
P (A|B) = = = P (A) (2.27)
P (B) P (B)
P (B ∩ A) P (B)P (A)
P (B|A) = = = P (B) (2.28)
P (A) P (A)

80
Ejemplo 2.31
Considere una gasolinera con seis bombas numeradas 1, 2, . . . , 6 y sea Ei el evento
simple en que un cliente seleccionado al azar utiliza la bomba i ∈ (1, . . . , 6). Suponga
que:

P (E1 ) = P (E6 ) = 0,10

P (E2 ) = P (E5 ) = 0,15

P (E3 ) = P (E4 ) = 0,25

Defina los eventos A, B, C como:

A = {2, 4, 6} C = {2, 3, 4, 5}
B = {1, 2, 3}

1. Calcular las probabilidades sistemáticas de los eventos A, B y C.

2. Verificar si los eventos son independientes.

Solución

Primero se debe identificar cada una de las probabilidades de los eventos, de acuerdo con el
comportamiento dado en el ejemplo:

P (A) = P (E2 ) + P (E4 ) + P (E6 ) = 0,15 + 0,25 + 0,10 = 0,50


P (B) = P (E1 ) + P (E2 ) + P (E3 ) = 0,10 + 0,15 + 0,25 = 0,50
P (C) = P (E2 ) + P (E3 ) + P (E4 ) + P (E5 ) = 0,15 + 0,25 + 0,25 + 0,15 = 0,80

Ahora, se deben calcular las probabilidades condicionales, para poder garantizar cuales de
los eventos son independientes:

P (A ∩ B) P (E2 ) 0,15
P (A|B) = = = = 0,30
P (B) P (B) 0,50
P (A ∩ C) P (E2 ) + P (E4 ) 0,15 + 0,25
P (A|C) = = = = 0,50
P (C) P (C) 0,80
P (B ∩ C) P (E2 ) + P (E3 ) 0,15 + 0,25
P (B|C) = = = = 0,50
P (C) P (C) 0,80

Con ello se tiene que P (A|C) = P (A), con ello se tiene que los eventos A y C son indepen-
dientes, otra forma de poderlo verificar es lo siguiente:

P (A ∩ C) = P (E2 ) + P (E4 ) = 0,15 + 0,25 = 0,40


P (A)P (C) = (0,50)(0,80) = 0,40
P (A ∩ C) = P (A)P (C)

81
Ahora se puede observar de los eventos A y B son dependientes ya que P (A|B) ̸= P (B),
además se puede observar esta misma conclusión de la forma:

P (A ∩ B) = P (E2 ) = 0,15 = 0,40


P (A)P (B) = (0,50)(0,50) = 0,25
P (A ∩ B) ̸= P (A)P (B)

Por último se puede verificar de que los eventos B y C son independientes ya que P (B|C) =
P (C) y además:

P (B ∩ C) = P (E2 ) + P (E3 ) = 0,15 + 0,25 = 0,40


P (B)P (C) = (0,50)(0,80) = 0,40
P (B ∩ C) = P (B)P (C)

Propiedad 2.4
si dos eventos son mutuamente excluyentes, no pueden ser independientes.

Esto se debe a que, dado A y B eventos diferentes de vacı́o:

P (A ∩ B) = 0
P (A)P (B) > 0

Con ello se puede generalizar el concepto de independencia de la forma:

Definición 2.19
En términos más generales, los sucesos E1 , E2 , . . . , EK son independientes estadı́stica-
mente si y sólo si
Yk
P (A1 ∩ A2 ∩ · · · ∩ Ak ) = P (Ai ) (2.29)
1=1

2.9.3. Teorema de la Probabilidad Total & Teorema de Bayes


Sea un conjunto de eventos Ai , i = 1, . . . , n tales la unión de todos ellos es el evento seguro
y además son mutuamente excluyentes. Es decir:

A1 ∪ A2 ∪ · · · ∪ An = Ω Ai ∩ Aj = ϕ Para i ̸= j

Este conjunto de eventos recibe el nombre de conjunto completo de eventos y se dice


que constituye una partición del espacio muestral (Figura 2.10).

82
Figura 2.10: Partición del Espacio Muestral Ω

Definición 2.20
Teorema de la Probabilidad Total
Dado el conjunto completo de eventos, además para todo evento Ai , P (Ai ) > 0, para
todo i, Entonces Para cualquier evento B se puede calcular la probabilidad de la forma:
n
X
P (B) = P (Ai )P (B|Ai ) (2.30)
i=1

Ejemplo 2.32
Suponga que se presentan unas elecciones las cuales están formadas por 3 partidos A1 ,
A2 y A3 respectivamente; Además las probabilidades de que ganen cada uno de los
partidos es:

P (A1 ) = 0,5 P (A2 ) = 0,3 P (A3 ) = 0,2

Si ganara A1 , la probabilidad de que suban los impuestos es 0,8, mientras que en


los casos en que salgan elegidos A2 y A3 son 0,2 y 0,5 respectivamente. ¿Cual es la
probabilidad de que suban los impuestos?.

Solución

Primero se toman los datos dados por el ejercicio, con ello se toma el evento B = subida de
impuestos, en este caso las probabilidades condicionales son:

83
P (B|A1 ) = 0,8 P (B|A2 ) = 0,2 P (B|A3 ) = 0,5
Entonces por el teorema de la probabilidad total se tiene que:
P (B) = P (A1 )P (B|A1 ) + P (A2 )P (B|A2 ) + P (A3 )P (B|A3 )
= (0,5)(0,8) + (0,3)(0,2) + (0,2)(0,5)
= 0,56
Definición 2.21
Teorema de Bayes

Sea el conjunto completo de eventos Ai , i = 1, . . . , n y un evento B cualquiera del


espacio muestral. La probabilidad condicional para cualquiera de los Ai , condicionado
B, está dado por:
P (Ai )P (B|Ai )
P (Ai |B) = Pn (2.31)
j=1 P (Aj )P (B|Aj )

El teorema es bastante útil cuando, se sabe que se cumple un cierto suceso B, se quiere
conocer la probabilidad de que la causa que lo haya producido sea el evento Ai .

Ejemplo 2.33
Continuando el Ejemplo 2.32, si se sabe que han subido los impuestos ¿cual es la
probabilidad de que haya ganado el partido A1 ?

Solución

Se sabe que para el ejemplo el conjunto completo de eventos está conformado por los eventos
A1 , A2 y A3 , además se tenia el evento adicional B, la idea ahora es saber P (A1 |B)
P (A1 )P (B|A1 )
P (A1 |B) =
P (A1 )P (B|A1 ) + P (A2 )P (B|A2 ) + P (A3 )P (B|A3 )
(0,5)(0,8) 0,4
= = = 0,71
(0,5)(0,8) + (0,3)(0,2) + (0,2)(0,5) 0,56
Ejemplo 2.34

Tres máquinas de cierta planta de ensamble, B1 , B2 y B3 , montan el 30 %, 45 % y 25 %


de los productos respectivamente. Además se sabe por experiencia que el 2 %, 3 %
y 2 % de los productos ensamblados por cada máquina respectivamente tienen defectos.

Ahora bien, suponga que se selecciona de forma aleatoria un producto terminado.

1. ¿Cuál es la probabilidad de que el producto seleccionado esté defectuoso?

2. Si se sabe que el producto seleccionado es defectuoso, ¿cuál es la probabilidad


de que haya sido ensamblado por la máquina B1 ?

84
Solución

Se tiene que el experimento consiste en seleccionar de forma aleatoria un producto terminado


por las máquinas B1 , B2 y B3 . Por tanto, el espacio muestral Ω es el conjunto formado por
todos los productos terminados por las máquinas anteriormente mencionadas.

Considerese los siguientes eventos:

1. El evento A conformado por todos los productos defectuosos ensamblados por las
máquinas B1 , B2 y B3 .

2. El evento Bi conformado por todos los productos ensamblados por la máquina Bi para
i = {1, 2, 3}.

Ası́

P (B1 ) = 0,30 P (B2 ) = 0,45 P (B3 ) = 0,25

Además por hipótesis se tienen las probabilidades condicionales:

P (A|B1 ) = 0,02 P (A|B2 ) = 0,03 P (A|B3 ) = 0,02

Para responder la primera pregunta, lo que se necesita es hallar la probabilidad de que un


producto esté defectuoso P (A).

Entonces como los eventos B1 , B2 y B3 forman una partición del espacio muestral, ya que
totalizan la producción realizada en planta de ensamble que corresponde a los resultados
del espacio muestral y además son mutuamente excluyentes porque no hay un producto
ensamblado por dos maquinas, entonces se puede realizar el teorema de la probabilidad total
para calcular la probabilidad solicitada P (A):

P (A) = P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) + P (A|B3 )


= (0,02)(0,30) + (0,03)(0,45) + (0,02)(0,25)
= 0,0245

Esto quiere decir que la probabilidad de que un producto seleccionado esté defectuoso es del
2.44 %

Ahora se pide calcular P (B1 |A), con ello se realiza el teorema de bayes:

P (B1 )P (A|B1 )
P (B1 |A) =
P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) + P (A|B3 )
(0,30)(0,02)
=
(0,02)(0,30) + (0,03)(0,45) + (0,02)(0,25)
0,006
= = 0,245
0,0245

85
De forma similar se calcula P (B2 |A)

P (B2 )P (A|B2 )
P (B2 |A) =
P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) + P (A|B3 )
(0,45)(0,03)
=
(0,02)(0,30) + (0,03)(0,45) + (0,02)(0,25)
0,0135
= = 0,5510
0,0245

Y la probabilidad P (B3 |A).

P (B3 )P (A|B3 )
P (B3 |A) =
P (A|B1 )P (B1 ) + P (A|B2 )P (B2 ) + P (A|B3 )
(0,25)(0,02)
=
(0,02)(0,30) + (0,03)(0,45) + (0,02)(0,25)
0,005
= = 0,2041
0,0245
Por tanto, la máquina B2 es la más probable de haber producido el evento A.

86
2.10. Ejercicios
1. Realizar el Ejercicio 2.4

2. Realizar el ejercicio 2.5

3. Supóngase que de todos los individuos que compran cierta cámara digital, 60 % incluye
una tarjeta de memoria opcional en su compra, 40 % incluyen una baterı́a extra y 30 %
incluye tanto una tarjeta como una baterı́a.

a) Calcular la probabilidad de seleccionar un comprador que adquiere una tarjeta de


memoria opcional, P(A).
b) Calcular la probabilidad de seleccionar un comprador que adquiere una baterı́a
extra, P(B).
c) Calcular la probabilidad de seleccionar un comprador que adquiere tanto una
tarjeta de memoria opcional como una baterı́a extra.
d ) Calcular la probabilidad de seleccionar un comprador que adquiere una tarjeta de
memoria opcional si se sabe que adquirió una baterı́a extra.
e) Calcular la probabilidad de seleccionar un comprador que adquiere una baterı́a
extra si se sabe que adquirió tarjeta de memoria opcional.

4. Las garrapatas de venados pueden ser portadoras de la enfermedad de Lyme o de la


Erhlichiosis granulocı́tica humana (HGE, por sus siglas en inglés). Con base en un
estudio reciente, suponga que 16 % de todas las garrapatas en cierto lugar portan la
enfermedad de Lyme, 10 % portan HGE y 10 % de las garrapatas que portan por lo
menos una de estas enfermedades en realidad portan las dos. Si determina que una
garrapata seleccionada al azar ha sido portadora de HGE, ¿cuál es la probabilidad de
que la garrapata seleccionada también porte la enfermedad de Lyme?

5. Para los eventos A y B con P (B) > 0, demuestre que P (A|B) + P (A′ |B) = 1.

6. Demuestre que para tres eventos cualesquiera A, B y C con P (C) > 0.

P (A ∪ B|C) = P (A|C) + P (B|C)–P (A ∩ B|C)

7. Los siguientes ejercicios básicos utilizan un espacio muestral definido por los sucesos
A1 , A2 , B1 y B2 .

a) Dados P (A1 ) = 0, 40, P (B1 |A1 ) = 0, 60 y P (B1 |A2 ) = 0, 70, ¿cuál es la probabi-
lidad de P (A1 |B1 )?
b) Dados P (A1 ) = 0, 40, P (B1 |A1 ) = 0, 60 y P (B1 |A2 ) = 0, 20, ¿cuál es la probabi-
lidad de P (A1 |B1 )?
c) Dados P (A1 ) = 0, 50, P (B1 |A1 ) = 0, 40 y P (B1 |A2 ) = 0, 70, ¿cuál es la probabi-
lidad de P (A1 |B2 )?

87
88
Variables Aleatorias Discretas
3
3.1. Variables Aleatorias
Definición 3.1
Para un espacio muestral dado Ω de algún experimento, una variable aleatoria es
cualquier regla que asocia un número con cada resultado en Ω. En lenguaje matemático,
una variable aleatoria es una función cuyo dominio es el espacio muestral y cuyo rango
es el conjunto de números reales.

Es importante distinguir entre una variable aleatoria y los valores posibles que puede tomar.
Hacemos la distinción utilizando letras mayúsculas, como X, para representar la variable
aleatoria y la correspondiente letra minúscula, x, para representar un valor posible.

Ejemplo 3.1
El experimento consiste en tomar una persona al azar del grupo de estadı́stica de la
Universidad Nacional de colombia y se regista su género.
Con ello se sabe que el espacio muestral de este experimento es:

Ω = {Femenino, Masculino}

Entonces, ahora se define X como la variable aleatoria definida sobre el espacio mues-
tral Ω tal que: X(Femenino) = 1 y X(Masculino) = 0, Lo que la variable aleatoria
realiza es poder definir una función que va desde el espacio muestral al conjunto de
los números reales {0, 1}

La variable aleatoria X en el Ejemplo 3.1 se especificó al poner en lista explı́citamente cada


elemento de Ω dado que este espacio muestral contiene pocos resultados y es fácil poder
encontrar una función que asigne un número a cada uno de los resultados. Pero cuando el
espacio muestral es demasiado grande, realizar una lista como en el ejercicio anterior puede
ser muy tediosa, pero con frecuencia puede ser evitada.

89
3.2. Variables Aleatorias Discretas
Definición 3.2
Una variable aleatoria es una variable aleatoria discreta si no puede tomar más
que una cantidad numerable de valores.

De esta definición se deduce que cualquier variable aleatoria que sólo puede tomar un número
finito de valores es discreta. Por ejemplo, el número de veces que sale cara cuando se lanza 10
veces al aire una moneda es una variable aleatoria discreta. Aunque el número de resultados
posibles sea infinito pero numerable, la variable aleatoria es discreta.

Ejemplo 3.2
Sea el experimento aleatorio de lanzar una moneda 3 veces consecutivas y el interés es
el número de caras obtenidas en dicho lanzamiento. Como se sabe el espacio muestral
del experimento es:

Ω = {(C, C, C), (C, C, S), (C, S, C), (C, S, S), (S, C, C), (S, C, S), (S, S, C), (S, S, S)}

Como el interés es saber el número de caras obtenidas en el experimento aleatorio.


Entonces se define la variable aleatoria X = Número de caras obtenidas. Ası́:

X : Ω −→ R

(C, C, C) → 3 (C, S, S) → 1 (S, S, C) → 1


(C, C, S) → 2 (S, C, C) → 2
(C, S, C) → 2 (S, C, S) → 1 (S, S, S) → 0

Ejemplo 3.3
Suponga que se eligen al azar parejas de casados y que a cada persona se le hace una
prueba de sangre hasta encontrar un esposo y esposa con el mismo factor Rh. Con
X = el número de pruebas de sangre que serán realizadas, los posibles valores de X
son D = {2, 4, 6, 8, . . . }.

Como los posibles valores se dieron en secuencia, X es una variable aleatoria discreta.

Otros ejemplos de variables aleatorias discretas pueden ser:

1. Número de productos no defectuosos de una linea de ensamble de una muestra de 100


productos.

2. Número de clientes que llegan a hacer algún reclamo del servicio en determinado dı́a
laboral.

90
3. El número de errores detectados en las cuentas de una empresa.

4. Número de sismos causados por el Nevado del Raı́z en la ciudad de Manizales durante
un periodo de 10 años.

Sea una variable aleatoria discreta X y suponga que puede tomar los valores x1 , x2 ,x3 ,. . . ,
para describir completamente la variable aleatoria hay que indicar las probabilidades de que
tome cada uno de sus valores posibles, ya que hasta momento solo se habı́a hablado de que
tenia una función desde Ω hasta el conjunto de los reales.

De esta forma a cada valor de la variable aleatoria se le asigna como probabilidad la proba-
bilidad de que ocurra el subconjunto del espacio muestral asociado con ese valor particular.
Para esto se define una función fX (x) que indica la probabilidad de cada valor x de la variable
aleatoria.

Definición 3.3
Función de distribución de Probabilidad

La función de distribución de probabilidad o función de masa de probabilidad, fX (x),


de una variable aleatoria discreta X expresa la probabilidad de que X tome el valor
x, como una función de x. Es decir:
(
P (X = x1 ) Para x1 , x2 , . . .
fX (x) = (3.1)
0 En otro caso

Ejemplo 3.4
Suponga que se lanza un dado corriente una vez y sea X la variable aleatoria que
indica el resultado obtenido. En este caso se tiene que los posibles valores de X son 1,
2, 3, 4, 5 y 6. La función de probabilidad de X está dada por:
(
1
Para x = 1, . . . , 6
fX (x) = 6
0 En otro caso

Además, por las propiedades de la probabilidad, la función de probabilidad cumple:

Propiedad 3.1
Para todo xi :

fX (x) ≥ 0 Puesto que por el axioma principal de la probabilidad, no hay proba-


bilidades negativas.
P
i fX (xi ) = 1 Es decir Las probabilidades individuales suman 1.

91
En muchas ocasiones, la distribución discreta de probabilidad se presenta en forma de tabla:

x x1 x2 ··· xi ···
P (X = x) f (x1 ) f (x2 ) ··· f (xi ) ···

Ejemplo 3.5
Una cierta gasolinerı́a tiene seis bombas. Sea X el número de bombas que están en
servicio a una hora particular del dı́a. Suponga que la distribución de probabilidad de
X es como se da en la tabla siguiente; la primera fila de la tabla contiene los posibles
valores de X y la segunda da la probabilidad de dicho valor.
x 0 1 2 3 4 5 6
P (X = x) 0.05 0.10 0.15 0.25 0.20 0.15 0.10

Ahora se pueden usar propiedades de probabilidad elemental para calcular otras probabili-
dades de interés. Por ejemplo, la probabilidad de que cuando mucho dos bombas estén en
servicio es:

P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2) = 0,05 + 0,10 + 0,15 = 0,30

Como el evento de que por lo menos 3 bombas estén en servicio es complementario a cuando
mucho 2 bombas están en servicio.

P (X ≥ 3) = 1 − P (X ≤ 2) = 1 − 0,30 = 0,70

la que, desde luego, también se obtiene sumando las probabilidades de los valores 3, 4, 5 y
6. La probabilidad de que entre 2 y 5 bombas inclusive estén en servicio es:

P (2 ≤ X ≤ 5) = P (X = 2) + P (X = 3) + P (X = 4) + P (X = 5)
= 0,15 + 0,25 + 0,20 + 0,15
= 0,75

Además se puede realizar su gráfico 3.1 asociado a la función de probabilidad:

Ejercicio 3.1
Un jugador extrae sucesivamente y aleatoriamente dos bolas de una urna que contiene
8 bolas blancas, 5 bolas negras y 3 bolas azules. Suponga que el jugador gana 5000
pesos por cada bola negra seleccionada y pierde 3000 pesos por cada bola blanca
seleccionada. Sea X la variable aleatoria que denota la fortuna del jugador. Hallar la
función de masa probabilidad de la variable aleatoria X.

92
Figura 3.1: Ejemplo 3.5: Función de Masa de Probabilidad

Definición 3.4
Función de Probabilidad Acumulada

Sea X una variable aleatoria discreta. La función FX (x) definida sobre R por medio
de: X
FX (x) = P (X ≤ x) = P (X = x) (3.2)
xi ≤x

Ejemplo 3.6
Supóngase que se lanza una moneda corriente tres veces consecutivas y sea X la variable
aleatoria definida por: X = Número de caras obtenidas.

Con ello sabemos que la función de distribución de probabilidad asociada a la variable


aleatoria X es:

1

 8
Para x = 0

3
Para x = 1


8

3
fX (x) = 8
Para x = 2
 1
Para x = 3




 8
0 En otro caso

Donde se puede observar su gráfico 3.2: Ahora para calcular la función de probabilidad

93
Figura 3.2: Ejemplo 3.6: Función de Masa de Probabilidad

acumulada se tiene:



 0 Para x<0

 81 Para 0≤x<1



4
FX (x) = 8
Para 1≤x<2
 7
Para 2≤x<3




 8
1 Para x≥3

También se puede crear el gráfico 3.3

Figura 3.3: Ejemplo 3.6: Función de Probabilidad Acumulada

94
Ejercicio 3.2
Sea la siguiente función de masa de probabilidad:
x 1 2 3 4
P (X = x) 0.4 0.3 0.2 0.1

Determinar la función de probabilidad acumulada FX (x).

Ejercicio 3.3

En un taller de servicio automotriz especializado en afinaciones se sabe que 45 % de


todas las afinaciones se realizan en automóviles de cuatro cilindros, 40 % en automóviles
de seis cilindros y 15 % en automóviles de ocho cilindros. Sea X = el número de
cilindros en el siguiente carro que va a ser afinado.

1. ¿Cuál es la función masa de probabilidad de X? Realice su gráfica

2. ¿Cuál es la función de probabilidad acumulada de X? Realice su gráfica.

3. ¿Cuál es la probabilidad de que el siguiente carro afinado sea de por lo menos


seis cilindros? ¿Más de seis cilindros?

Ejercicio 3.4
El departamento de planeación de un condado requiere que un contratista presente
uno, dos, tres, cuatro o cinco formas (según la naturaleza del proyecto) para solicitar
un permiso de construcción. Sea Y = número de formas requeridas del siguiente soli-
citante. Se sabe que la probabilidad de que se requieran y formas es proporcional a y,
es decir, p(y) = ky con y = 1, . . . , 5.

1. ¿Cuál es el valor de k?

2. ¿Cuál es la probabilidad de que cuando mucho se requieran tres formas?

3. ¿Cuál es la probabilidad de que se requieran entre dos y cuatro formas (inclusi-


ve)?

4. ¿Podrı́a ser p(y) = y 2 /50 con y = 1, . . . , 5 la función masa de probabilidad de


Y?

95
3.3. Valor Esperado o Esperanza Estadı́stica de una
Variable Aleatoria Discreta
Definición 3.5
Sea X una variable aleatoria discreta con un conjunto de valores posibles D y una
función masa de probabilidad fX (x). El valor esperado o valor medio de X, denotado
por E[X] o µX , es: X
E[X] = µX = xfX (x) (3.3)
x∈D

Cuando está claro a que X se refiere el valor esperado, a menudo se utiliza µ en lugar de µX ,
además con la función de masa de probabilidad f (x) y función de probabilidad acumulativa
F (x).

Ejemplo 3.7
Suponga que la función de probabilidad del número de erratas, X, que hay en las
páginas de los libros de texto es:

P (X = 0) = 0,81 P (X = 1) = 0,17 P (X = 2) = 0,02

Hallar el número medio de erratas por página.

Solución

Por definición de valor esperado se tiene que:

E[X] = 0(0,81) + 1(0,17) + 2(0,02)


= 0,21

De este resultado se deduce que, si se analiza un gran número de páginas, es de esperar que
haya una media de 0,21 erratas por página.

Ejemplo 3.8
Exactamente después de nacer, cada niño recién nacido es evaluado en una escala
llamada escala de Apgar. Las evaluaciones posibles son 0, 1, . . . , 10, con la evaluación
del niño determinada por color, tono muscular, esfuerzo para respirar, ritmo cardiaco
e irritabilidad refleja (la mejor evaluación posible es 10). Sea X la evaluación Apgar
de un niño seleccionado al azar nacido en cierto hospital durante el siguiente año y
supóngase que la función masa de probabilidad de X es:
x 0 1 2 3 4 5 6 7 8 9 10
f (x) 0.002 0.001 0.002 0.005 0.02 0.04 0.18 0.37 0.25 0.12 0.01

96
Solución
Entonces el valor esperado o el valor medio de X es:

10
X
E[X] = xf (x)
i=0
= 0(0,002) + 1(0,001) + 2(0,002) + 3(0,005) + 4(0,02) + · · · + 9(0,12) + 10(0,01)
= 7,15

Esto quiere decir que en promedio de los niños que nacen, se les asigna una calificación
aproximada de 7,15 ≈ 7.

Notas Importantes 3.1


Recuerde que estamos hablando de variables aleatorias discretas, por ello en los ejer-
cicios anteriores los resultados no pertenecen a los valores de la variable aleatoria X,
entonces para dar una respuesta acertada hay que tomar la aproximación al entero
mas cercano.

3.3.1. Valor Esperado de una Función

En muchas oportunidades al investigador le interesa más conocer una función asociada a los
valores de la variable aleatoria h(x) que simplemente la variable aleatoria sola X. Entonces
se define el valor esperado de una función como:

Definición 3.6
Dada una variable aleatoria X, con una función de masa de probabilidad f (x), entonces
el valor esperado de cualquier función h(X), es:
X
E[h(X)] = h(x)f (x) (3.4)
x∈D

97
Ejemplo 3.9
Sea X = el número de máquinas que se van a vender en cierta fabrica. Se sabe que
el costo de cada máquina está relacionado con el número de maquinas vendidas X
mediante la siguiente función:

h(X) = 1000X 2 + 30000

Donde h está representada en dólares, además se sabe que la probabilidad de venta de


1,2 y 3 máquinas es:
x 1 2 3 4
f (x) 0.40 0.25 0.20 0.15

Hallar el valor esperado del costo de la venta de las maquinas E[h(X)]

Antes de solucionar el siguiente ejercicio, se debe tener en cuenta la siguiente propiedad:

Propiedad 3.2

Si X es una variable aleatoria, entonces h(X) también es una variable aleatoria.

En efecto esto tiene sentido ya que por definición se tiene que X : Ω → R entonces tener
h(X) es simplemente una composición de funciones h ◦ X:
X h
h ◦ X : Ω −→ R −→ R
z}|{ z}|{

Ası́ se tiene que h(X) : Ω → R lo cual es la primera condición para que sea una variable
aleatoria.

Solución

Se sabe por la definición de que:


4
X 4
X
E[h(X)] = h(x)f (x) = (1000x2 + 30000)f (x)
x=1 x=1
= (31000)(0,40) + (34000)(0,25) + (39000)(0,20) + (46000)(0,15)
= 12400 + 8500 + 7800 + 6900
= 35600

Con ello se espera un costo de $35.600.00 dólares por las ventas de las máquinas de cierta
fabrica.

Además, por la definición del valor esperado de una variable aleatoria discreta se tienen las
siguientes propiedades:

98
Propiedad 3.3
Sea X una variable aleatoria discreta y cuyo valor esperado existe, entonces se cumple
que:

1. Si c es una constante, entonces:

E[c] = c

2. Si c es una constante y h una función, entonces:

E[c · h(X)] = cE[h(X)]

3. Si c1 y c2 son contantes, y h, g funciones, entonces:

E[c1 · h(X) + c2 · g(X)] = c1 E[h(X)] + c2 E[g(X)]

Donde cada una de las propiedades se pueden ver de la forma:

1. Si c es una constante entonces:


X
E[c] = cf (x)
x∈D
X
=c f (x) = c
x∈D

2. Ahora se toma c como constante y h una función, entonces:


X
E[c · h(x)] = ch(x)f (x)
x∈D
X
=c h(x)f (x)
x∈D
= cE[h(X)]

3. Ahora sean c1 y c2 constantes y h, g funciones, entonces:


X
E[c1 h(X) + c2 g(X)] = (c1 h(x) + c2 g(x))f (x)
x∈D
X
= c1 h(x)f (x) + c2 g(x)f (x)
x∈D
X X
= c1 h(x)f (x) + c2 g(x)f (x)
x∈D x∈D
= c1 E[h(X)] + c2 E[g(X)]

Para un mejor entendimiento de las propiedades, se realizará el siguiente ejemplo:

99
Ejemplo 3.10
Sea X una variable aleatoria discreta, donde se tiene el siguiente comportamiento:

(|x| + 1)2
f (x) = Para x = −1, 0, 1
9
1. Determine que efectivamente es una función de masa de probabilidad.

2. Calcular E[X]

3. Calcular E[X 2 ]

4. Calcular E[3X 2 − 2X + 4]

Solución

1. Principalmente para poder


P demostrar que es una función de masa de probabilidad, se
debe garantizar de que f (xi ) = 1, entonces:

1
X (| − 1| + 1)2 (|0| + 1)2 (|1| + 1)2
f (xi ) = + +
i=−1
9 9 9
(1 + 1)2 (0 + 1)2 (1 + 1)2
= + +
9 9 9
4 1 4
= + +
9 9 9
=1

Con esto se puede verificar que para cada uno de los P (X = xi ) ≥ 0 y además que la
suma de los xi es igual a 1. Por lo tanto se tiene que efectivamente es una función de
masa de probabilidad.

2. Ahora se debe calcular el valor medio de la función de masa de probabilidad E[X]:

1
X
E[X] = xi f (xi )
i=−1
(| − 1| + 1)2 (|0| + 1)2 (|1| + 1)2
= (−1) + (0) + (1)
9 9 9
4 4
=− +0+
9 9
=0

100
3. Ahora se utiliza la definición 3.6, para calcular E[X 2 ]:

1
X
E[X 2 ] = x2i f (xi )
i=−1
(| − 1| + 1)2 (|0| + 1)2 (|1| + 1)2
= (−1)2 + (0)2 + (1)2
9 9 9
4 4
= +0+
9 9
8
=
9

4. Ahora haciendo uso de la propiedad 3.4, Se tiene:

E[3X 2 − 2X + 4] = 3E[X 2 ] − 2E[X] + 4


 
8
=3 − 2(0) + 4
9
8 20
= +4= ≈ 6,67
3 3

3.4. Varianza de una Variable Aleatoria Discreta


Definición 3.7
Sea f (x) una función de masa de probabilidad de la variable aleatoria X, además sea
µ = E[X], el valor esperado de la variable aleatoria X. Entonces la varianza de X,
2
denotada por V (X) o σX o σ 2 (cuando no hay ambigüedad de la variable aleatoria
X), está dada por:
X
V (X) = (x − µ)2 f (x) = E[(X − µ)2 ] (3.5)
x∈D

Además, como se sabe la Desviación Estándar está dada por:



σ = σ2 (3.6)

Propiedad 3.4
La varianza de una variable aleatoria discreta, se puede ver de la forma:

σ 2 = E[X 2 ] − (E[X])2 (3.7)

Demostración: Es interesante saber el porque se tiene la propiedad 3.5, por lo tanto se

101
desarrollará, como se sigue:
X
V (X) = (x − µ)2 f (x)
x∈D
X
= (x2 − 2xµ + µ2 )f (x)
x∈D
X X X
= x2 f (x) − 2xµf (x) + µ2 f (x)
x∈D x∈D x∈D
X X X
2
= x f (x) − 2µ xf (x) + µ2 f (x)
x∈D x∈D x∈D
X X X
2 2
= x f (x) − 2µ xf (x) + µ f (x) Se sabe E[X] = µ
x∈D x∈D x∈D
X
2 2
= E[X ] − 2E[X]E[X] + E[X] Se sabe f (x) = 1
x∈D
2 2 2
= E[X ] − 2E[X] + E[X]
= E[X 2 ] − E[X]2

Además, análogamente como se tenia las propiedades del valor esperado, también se tienen
las propiedades para la varianza de una variable aleatoria discreta.

Propiedad 3.5
Sea X una variable aleatoria, cuyo valor esperado existe y sean α, β ∈ R constantes,
entonces:

1. V (X) ≥ 0

2. V (α) = 0

3. V (αX) = α2 V (X)

4. V (X + β) = V (X)

Como se desarrolló anteriormente se tiene que:

1. La primera propiedad es inmediata ya que por definición se tiene que:


X
V (X) = (x − µ)2 f (x)
x∈D

Donde se identifica rápidamente que los valores de esta sumatoria todos son positivos.

2. Se toma α como un valor constante, además utilizando la propiedad anterior, se tiene:

V (α) = E[α2 ] − (E[α])2 = α2 − α2 = 0

102
3. Sea α una constante y X una variable aleatoria discreta:

V (αX) = E[(αX)2 ] − (E[αX])2


= α2 E[X 2 ] − α2 (E[X])2
= α2 (E[X 2 ] − (E[X])2 ) = α2 V (X)

4. Por último se tiene β constante:

V (X + β) = E[(X + β)2 ] − (E[X + β])2


= E[X 2 + 2βX + β 2 ] − (E[X] + β)2
= E[X 2 ] + 2βE[X] + β 2 − (E[X])2 − 2βE[X] − β 2
= E[X 2 ] − (E[X])2 = V (X)

Ejemplo 3.11
Un contratista está interesado en saber cuál es el coste total de un proyecto para que
pretende presentar una oferta. Estima que los materiales costarán 25.000, y su trabajo
900 al dı́a. Si el proyecto tarda en realizarse X dı́as. Entonces el coste total del proyecto
será:
C = 25000 + 900X
El contratista estima unas probabilidades subjetivas de la duración probable del pro-
yecto:
Duración X dı́as 10 11 12 13 14
Probabilidad 0.1 0.3 0.3 0.2 0.1

1. Halle la media o el valor esperado, la varianza y la desviación estándar de la


duración X.

2. Halle la media o valor esperado, varianza y desviación estándar del coste total
del proyecto C

Solución

1. Primero se calcula el valor esperado de la variable aleatoria discreta:


14
X
E[X] = xf (x)
x=10
= (10)(0,1) + (11)(0,3) + (12)(0,3) + (13)(0,2) + (14)(0,1)
= 1 + 3,3 + 3,6 + 2,6 + 1,4 = 11,9

Esto quiere decir que se espera una duración en realizarse el trabajo de 11.9 dı́as.

103
Ahora para calcular V (X) se deben conocer el valor de E[X 2 ] ya que (E[X])2 por el
paso anterior ya se conoce:
14
X
2
E[X ] = x2 f (x)
x=10
= (10)2 (0,1) + (11)2 (0,3) + (12)2 (0,3) + (13)2 (0,2) + (14)2 (0,1)
= 10 + 36,3 + 43,2 + 33,8 + 19,6 = 142,9
Entonces V (X) es:
σ 2 = V (X) = E[X 2 ] − (E[X])2 = 142,90 − 141,61 = 1,29
Ası́: p
σ= V (X) ≈ 1,14
2. Ahora se procede a encontrar las medidas del coste del proyecto C (NOTA: recuerde
que C también es una variable aleatoria discreta). Comenzando con su valor esperado:
E[C] = E[25000 + 900X] = 25000 + 900E[X] = 25000 + 900(11,9) = 35710
Con ello se espera un coste total del proyecto en 35.710. Ahora su varianza es:
σC2 = V (C) = V (25000 + 900X) = 9002 V (X) = 9002 (1,29) = 1044900
Y su desviación estándar:
q √
σC = σC2 = 1044900 = 1022,20

La interpretación de la varianza y desviación estándar en las variables aleatorias discretas es


análoga a la que se hablaba en estadı́stica discreta.

Ejercicio 3.5
Si se tiene una variable aleatoria discreta X, donde se conoce su valor esperado µX
y desviación estándar σX , y además se tiene una variable aleatoria discreta Z de la
siguiente forma:
X − µX
Z=
σX
Calcule el valor esperado de Z y la varianza de Z.

Ejercicio 3.6
Los n candidatos para un trabajo fueron clasificados como 1, 2, 3, . . . , n. Sea X = el
rango de un candidato seleccionado al azar, de modo que X tenga la función masa de
probabilidad: (
1/n Para x = 1, 2, 3, . . . , n
f (x) =
0 En otro caso
(Distribución uniforme discreta). Calcule F (X) función de probabilidad acumulada,
E(X) valor esperado y V (X) varianza.

104
3.5. Distribución Binomial
Suponga un experimento aleatorio consistente en realizar un número de ensayos o pruebas
repetidas, cada una de ellas con únicamente dos posibles resultados mutuamente excluyentes,
que se denominan éxito o fracaso. ahora suponga que la probabilidad de obtener un éxito
en un ensayo es siempre constante y que los diferentes ensayos son independientes, en el
sentido de que el resultado de un ensayo no afecta a los otros. En este caso se dice que se
tiene un proceso de Bernoulli. En concreto, el proceso de Bernoulli debe tener las siguientes
propiedades:

1. El experimento consiste en n ensayos repetidos.

2. Cada ensayo puede dar por resultado uno de los mismos dos resultados posibles (ensayos
dicotómicos), los cuales se denotan como éxito (E) y falla (F).

3. Los ensayos son independientes, de modo que el resultado en cualquier ensayo particular
no influye en el resultado de cualquier otro ensayo.

4. La probabilidad de éxito es constante de un ensayo a otro; esta probabilidad se denota


por p.

Definición 3.8
Función de Masa de Probabilidad de una distribución Bernoulli

Defina la variable aleatoria discreta X de manera que tome el valor 1 si el resultado


del experimento es un éxito y 0 en caso contrario. La función de probabilidad de esta
variable aleatoria es: (
1 − p Si x = 0
f (x) = (3.8)
p Si x = 1

Como es normal en la teorı́a que se lleva desarrollando, se debe conocer como es el valor
esperado y la varianza de la distribución de Bernoulli. Lo cual se hará por medio de una
ejemplo:

Ejemplo 3.12
Dada una variable aleatoria discreta X que se distribuye de forma Bernoulli, es decir:
(
1 − p Si x = 0
f (x) =
p Si x = 1

Encontrar E[X] y V (X).

Solución

105
Por la definición de valor esperado de una variable aleatoria discreta, se tiene:
1
X
E[X] = xf (x) = (0)(1 − p) + (1)(p) = p
x=0

Ahora tomando la definición de varianza de una variable aleatoria discreta, se calcula


lo siguiente:
1
X
V (X) = (x − E[X])2 f (x) = (0 − p)2 (1 − p) + (1 − p)2 (p)
x=0
= p(1 − p)(p + 1 − p)
= p(1 − p)

Con ello se puede tomar la siguiente propiedad:

Propiedad 3.6
Sea X una variable aleatoria discreta que se distribuye de forma Bernoulli, el valor
esperado y su varianza es:

µ = E[X] = p (3.9)
σ 2 = V (X) = p(1 − p) (3.10)

Ejemplo 3.13
Suponga el experimento del lanzamiento de una moneda, y la una variable aleatoria
de Bernoulli que consiste en que el éxito del experimento es obtener cara. Por ello se
tiene que la probabilidad de éxito P = 0, 5, calcule la media y la varianza.

Solución

Se puede determinar fácilmente que el experimento del lanzamiento de una moneda y con la
variable aleatoria discreta de X = obtener cara, se distribuye de forma Bernoulli, dado que se
tiene una respuesta dicotómica que es obtener cara o sello, entonces usando las propiedades
anteriores se tiene rápidamente que:

µ = E[X] = p = 0,5
σ 2 = V (X) = (0,5)(1 − 0,5) = 0,52 = 0,25

Una importante generalización de la distribución de Bernoulli es el caso en el que se realiza


varias veces un experimento aleatorio con resultados dicotómicas y las repeticiones son in-
dependientes. En este caso, se dice que la variable aleatoria discreta posee una distribución
binomial.

106
Entonces suponga que la probabilidad de éxito en una única prueba es P y que se realizan
n pruebas independientes, por lo que el resultado de cualquiera de ellas no influye en el
resultado de las demás. El número de éxitos X resultantes de estas n pruebas podrı́a ser
cualquier número entero comprendido entre 0 y n e interesa saber cuál es la probabilidad de
obtener exactamente X = x éxitos en n pruebas.

Se realizará el resultado en tres fases:

1. Se observa que el resultado de las n pruebas es una secuencia de n resultados, cada


uno de los cuales debe ser un éxito (E) o un fracaso (F ). Una secuencia con x éxitos
y (n − x) fracasos.

2. la probabilidad de éxito en una única prueba es P y la probabilidad de fracaso es


(1−P ). Dado que las n pruebas son independientes entre sı́, la probabilidad de cualquier
secuencia de resultados es, por la regla del producto de probabilidades es igual al
producto de las probabilidades de los resultados individuales, es decir:

(p · p · · · p) ([1 − p] · [1 − p] · · · [1 − p]) = px (1 − p)n−x


| {z } | {z }
x veces n−x veces

3. Ahora como último, se sabe que lo que se quiere encontrar el el número de éxitos
dentro de n posibilidades o repeticiones del experimento aleatorio, esto se sabe que se
está trabajando con una combinatoria ya que no importa el orden y no se repiten las
respuestas, lo cual se habı́a definido como:
 
n n!
Cxn = =
x (n − x)!x!

Con ello ahora se puede definir la Distribución Binomial:

Definición 3.9
Función de Masa de Probabilidad de una distribución Binomial

Suponga que un experimento aleatorio puede tener resultados dicotómicos mutuamente


excluyentes y colectivamente exhaustivos (éxito y fracaso), y que P es la probabilidad
de éxito en una única prueba. Si se realizan n pruebas independientes, la distribución
del número de éxitos resultantes, x, se llama distribución binomial.
( 
n x
x
p (1 − p)n−x Para x = 0, 1, · · · , n
f (x) = P (X = x) = (3.11)
0 En otro caso

Además se puede definir su función de probabilidad acumulativa como:

107
Definición 3.10
Función de probabilidad acumulada de una distribución Binomial.

Sea X una variable aleatoria discreta que se distribuye de forma binomial, su función
de probabilidad acumulada es:
x  
X n
F (x) = P (X ≤ x) = py (1 − p)1−y (3.12)
y=0
y

Ahora falta conseguir la media y la varianza de esta distribución, ya que son medidas de alta
importancia para cualquier distribución, por ello se tienen los siguientes resultados:

Propiedad 3.7
Dada X una variable aleatoria discreta que se distribuye de forma Bernoulli, se cumple
que:

µ = E[X] = np (3.13)
σ 2 = V (X) = np(1 − p) (3.14)

Notas Importantes 3.2


Es de esperar que si la media o valor esperado de una distribución Bernoulli es
µ = p entonces para n ensayos Bernoulli que corresponde a la binomial es µ = np
y análogamente para la varianza Bernoulli σ 2 = p(1−p) para la binomial se tiene
σ 2 = np(1 − p)

A menudo se el la literatura cuando una variable aleatoria discreta se distribuye


de forma binomial se abrevia de la forma X ∼ Bin(n, p), donde n es el número
de ensayos independientes y p es la probabilidad de éxito.

108
Ejemplo 3.14
Cuando se utilizan tarjetas de circuito en la fabricación de reproductores de discos
compactos se prueban; el porcentaje de defectuosas es de 5 %. Sea X = el número de
tarjetas defectuosas en una muestra aleatoria de tamaño n = 25. Calcular:

1. P (X ≤ 2)

2. P (X ≥ 5)

3. P (1 ≤ X ≤ 3)

4. ¿Cuál es la probabilidad que ninguna de estas 25 tarjetas esté defectuosa?

5. Valor esperado y la desviación estándar X.

Solución

Se tiene que X ∼ Bin(25, 0,05), la función de masa de probabilidad es:


   
25 x 25−x 25
f (x) = P (X = x) = 0,05 (1 − 0,05) = 0,05x · 0,9525−x
x x

De igual forma se puede definir la función de probabilidad acumulada a la variable aleatoria


discreta X ∼ Bin(25, 0,05):
x  
X 25
F (x) = P (X ≤ x) = 0,05y · 0,9525−x
y=0
y

Ası́, se pueden comenzar a dar las respuestas a cada uno de los ı́tem propuestos en el Ejemplo
3.14:

1. Para dar respuesta a P (X ≤ 2) se usa la definición de la función de probabilidad


acumulada que corresponde a F (2):
2  
X 25
P (X ≤ 2) = 0,05y · 0,9525−y
y=0
y
     
25 0 25 25 1 24 25
= 0,05 · 0,95 + 0,05 · 0,95 + 0,052 · 0,9523
0 1 2
| {z } | {z } | {z }
P (X=0) P (X=1) P (X=2)

= 0,277 + 0,365 + 0,231


= 0,873

En este caso se tiene que la probabilidad de encontrar menos de 2 tarjetas defectuosas


en la muestra es del 87.30 %

109
2. Ahora se requiere saber cual es la probabilidad de encontrar mas de 5 tarjetas defec-
tuosas en la muestra:

P (X ≥ 5) = 1 − P (X < 5) = 1 − P (x ≤ 4)
= 1 − [P (X ≤ 2) + P (X = 3) + P (X = 4)]
     
25 3 22 25 4 21
= 1 − 0,873 + 0,05 · 0,95 + 0,05 · 0,95
3 4
= 1 − [0,873 + 0,093 + 0,027]
= 1 − 0,993
= 0,007

Esto indica que la probabilidad de encontrar mas de 5 tarjetas defectuosas en la muestra


apenas es del 0.7 %

3. Para resolver este ı́tem se vuelve a hacer uso de la probabilidad acumulada.


3  
X 25
P (1 ≤ X ≤ 3) = 0,05y · 0,9525−y
y=1
y
     
25 1 24 25 2 23 25
= 0,05 · 0,95 + 0,05 · 0,95 + 0,053 · 0,9522
1 2 3
| {z } | {z } | {z }
P (X=1) P (X=2) P (X=3)

= 0,365 + 0,231 + 0,093


= 0,689

La probabilidad de encontrar entre 1 y 3 tarjetas defectuosas es del 68.90 %.

4. Al interpretar de que ninguna de las 25 tarjetas esté defectuosa es lo mismo que hallar
P (X = 0), entonces de acuerdo a la función de masa de probabilidad:
 
25
P (X = 0) = 0,050 · 0,9525 = 0,277
0

Esto quiere decir que la probabilidad de no encontrar ninguna tarjeta defectuosa es del
27.70 %.

5. Ahora usando las propiedades del valor esperado y la varianza de la variable aleatoria,
es:

µ = E[X] = (25)(0,05) = 1,25


σ 2 = V (X) = (25)(0,05)(0,95) = 1,188
p
σ = V (X) = 1,090

Esto indica que aproximadamente se espera que que haya 1,25 ≈ 1 tarjetas defectuosas
en la muestra, además con una desviación estándar de ±1,090 ≈ ±1

110
Notas Importantes 3.3
Como se vio en la definición de variable aleatoria discreta, la función de masa de
probabilidad se puede graficar, entonces para dar una mejor visualización de lo ocurrido
en el Ejemplo 3.14, se puede realizar el Diagrama de barras 3.4

Figura 3.4: Ejercicio 3.14: Función de Masa de Probabilidad de las tarjetas defectuosas.

Ejemplo 3.15

El 20 % de todos los teléfonos celulares de cierto tipo son llevados a servicio mientras
se encuentran dentro de la garantı́a. De éstos, 60 % puede ser reparado, mientras el
40 % restante debe ser reemplazado con unidades nuevas. Si una compañı́a adquiere
diez de estos teléfonos:

1. ¿cuál es la probabilidad de que exactamente dos sean reemplazados bajo ga-


rantı́a?

2. ¿Cuál es la probabilidad de que a lo menos dos sean reemplazados bajo garantia?

3. Cuantos son los teléfonos celulares que se espera sean reemplazados bajo garan-
tia. Determine su desviación estándar e interprete el resultado.

4. ¿Cuál es la probabilidad de que 3 de los teléfonos celulares sean reparados? y


¿Cuál es la propabilidad que a lo más 3 sean reparados?

5. ¿Cuál es el número de teléfonos esperados que sean reparados?

Solución

111
Primero se debe saber que en el ejercicio tenemos resultados dicotómicos ya que se pueden te-
ner resultados como: 1. El teléfono celular es reparado o 2. El teléfono celular es reemplazado,
además cada uno de esos experimentos son independientes.
1. Primero se debe definir la variable aleatoria discreta como X = Número de teléfonos
celulares reemplazados bajo garantı́a. Además se debe definir la probabilidad de éxito
que está dada por:
p = (0,2)(0,40) = 0,08
Ası́ X ∼ Bin(10, 0,08), con ello se puede encontrar la probabilidad f (2) = P (X = 2)
 
10
P (X = 2) = 0,082 · (1 − 0,08)10−2
2
 
10
= 0,082 · 0,928
2
= 0,148
Entonces la probabilidad de que dos teléfonos celulares sean reemplazados bajo garantı́a
es del 14.8
2. Ahora se debe hacer uso de la función de probabilidad acumulada para encontrar
P (X ≥ 2):
P (X ≥ 2) = 1 − P (X < 2)
" 1   #
X 10
=1− 0,08y · 0,9210−y
y=0
y
 
10  
10 
0 10 1 9
=1− 0,08 · 0,92 + 0,08 · 0,92 

 0 1 
| {z } | {z }
P (X=0) P (X=1)

= 1 − [0,434 + 0,378]
= 0,188
Con ello se tiene que la probabilidad de que se deban realizar por lo menos dos reem-
plazos es del 18.8 %.
3. Para este punto se toma el valor esperado de la variable aleatoria discreta que se
distribuye de forma binomial.
µ = E[X] = (10)(0,08) = 0,8
Con la compra realizada, se espera que sean reemplazados bajo garantı́a 0,8 ≈ 1
teléfono celular. Además tomando la varianza y la desviación estándar de la variable
aleatoria.
σ 2 = V (X) = (10)(0,08)(0,92) = 0,736
p
σ = V (X) = 0,858

112
Entonces se posee una desviación estándar de ±0,858 ≈ ±1, es decir que se puede tener
un mı́nimo de reemplazos de 1 teléfono celular y máximo 2 reemplazos de teléfono
celular.
4. Para resolver esta pregunta, se debe tomar otra variable aleatoria discreta ya que ha
cambiado el interés del experimento, por tanto se define Y = Número de celulares
reparados, y este posee una probabilidad de éxito:
p = (0,2)(0,6) = 0,12
Entonces se tiene que X ∼ Bin(10, 0,12), entonces se debe encontrar P (Y = 3)
   
10 3 7 10
P (Y = 3) = 0,12 · (1 − 0,12) = 0,123 · 0,887 = 0,085
3 3
Con ello se tiene que la probabilidad de que hayan exactamente 3 reparaciones es del
8.5 %.

Además se debe encontrar P (Y ≤ 3):


4  
X 10
P (Y ≤ 4) = 0,12k · 0,8810−k
k=0
k
       
10 0 10 10 1 9 10 2 8 10
= 0,12 · 0,88 + 0,12 · 0,88 + 0,12 · 0,88 + 0,123 · 0,887
0 1 2 3
= 0,279 + 0,380 + 0,233 + 0,085
= 0,976
Con ello se tiene que la probabilidad de que a lo más se tenga 3 reparaciones es del
97.6 %
5. Ahora tomando la definición de valor esperado para una distribución binomial:
µ = E[Y ] = (10)(0,12)(0,88) = 1,2
Se espera que sean reparados 1,2 ≈ 1 teléfono celular.
Ejercicio 3.7
Una organización de interés público contrata estudiantes para pedir donaciones por
teléfono. Tras un breve periodo de formación, los estudiantes llaman a posibles do-
nantes y cobran a comisión. La experiencia indica que al principio los estudiantes
tienden a tener poco éxito y que el 70 por ciento deja el trabajo a las dos semanas.
La organización contrata seis estudiantes, que pueden concebirse como una muestra
aleatoria.

1. ¿Cuál es la probabilidad de que al menos dos de los seis dejen el trabajo en las
dos primeras semanas?

2. ¿Cuál es la probabilidad de que al menos dos de los seis no dejen el trabajo en


las dos primeras semanas?

113
3.6. Distribución Hipergeométrica
Las indicaciones que conducen a la distribución hipergeométrica son las siguientes:
1. La población o conjunto que se va a muestrear se compone de N individuos, objetos o
elementos (una población finita).
2. Cada individuo puede ser caracterizado como éxito (E) o falla (F ) y hay M éxitos en
la población.
3. Se selecciona una muestra de n individuos sin reemplazo de tal modo que cada sub-
conjunto de tamaño n es igualmente probable de ser seleccionado.
Notas Importantes 3.4

1. La variable aleatoria discreta de interés es X = el número de éxitos en la muestra.

2. La distribución de probabilidad de X depende de los parámetros n (Número de


éxitos), M (Tamaño de la muestra) y N (Tamaño de la población), por lo tanto
se dice que X ∼ h(n, M, N )

Definición 3.11
Función de Masa de Probabilidad de una distribución Hipergeométrica

Si X es el número de éxitos (E) en una muestra completamente aleatoria de tamaño


n extraı́da de la población compuesta de M éxitos y (N − M ) fallas, entonces la
distribución de probabilidad de X llamada distribución hipergeométrica, es:
  
M N −M
x n−x
h(x; n, M, N ) = P (X = x) =   (3.15)
N
n

Con x ∈ Z donde máx(0, n − N + M ) ≤ x ≤ mı́n(n, M )

Ejemplo 3.16
Se capturaron, etiquetaron y liberaron cinco individuos de una población de animales
que se piensa están al borde de la extinción en una región para que se mezclen con
la población. Después de haber tenido la oportunidad de mezclarse, se selecciona una
muestra aleatoria de 10 de estos animales. Sea X = el número de animales etiquetados
en la segunda muestra. Si en realidad hay 25 animales de este tipo en la región, ¿cuál
es la probabilidad de que:

1. Se etiqueten exactamente 2 animales en la segunda muestra, es decir: X = 2

2. Se etiqueten menos de dos animales en la segunda muestra, es decir: X ≤ 2

114
Solución

Primero se debe proceder a obtener los datos del ejemplo, con ello se tiene que n = 10 es
la muestra seleccionada, M = 5 que corresponden a los individuos etiquetados (éxitos de la
variable aleatoria) y N = 25 población que se está estudiando. Ası́ X ∼ h(10, 5, 25)

Con ello se tiene que la función de masa de probabilidad para una distribución hipergeométri-
ca para el Ejemplo 3.16, es:
     
5 25 − 5 5 20
x 10 − x x 10 − x
h(x; 10, 5, 25) =   =  
25 25
10 10

Para

máx(0, n − N + M ) ≤x ≤ mı́n(n, M )
máx(0, 10 − 25 + 5) ≤x ≤ mı́n(10, 5)
máx(0, −10) ≤x ≤ mı́n(10, 5)
0 ≤x ≤ mı́n(5)

Además recuerde que:


 
a a!
=
b (a − b)!b!

1. Aplicando la función de masa de probabilidad para una distribución hipergeométrica:


     
5 20 5 20
2 10 − 2 2 8
P (X = 2) =   =  
25 25
10 10
5! 20!
·
(5 − 2)!2! (20 − 8)!8!
=
25!
(25 − 10)!10!
10 · 125970
=
3268760
1259700
=
3268760
= 0,385

Entonces que se tengan exactamente dos animales en la segunda muestra es del 38.5 %

115
2. Como se sabe de la definición de variable aleatoria acumulada es:

P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
        
5 20 5 20 5 20
0 10 − 0 1 10 − 1 2 10 − 2
=   +   +  
25 25 25
10 10 10
184756 839800 1259700
= + +
3268760 3268760 3268760
2284256
= = 0,699
3268760

Con ello se tiene que la probabilidad de que hayan a lo mas dos animales etiquetados
en la segunda muestra es del 69.90 %.

Figura 3.5: Ejercicio 3.16: Función de Masa de Probabilidad de los animales etiquetados.

Definición 3.12
La media o valor esperado y la varianza de la variable aleatoria hipergeométrica X
cuya función masa de probabilidad es h(x; n, M, N) son:

nM
µ = E[X] = (3.16)
N   
2 N − n nM M
σ = V (X) = 1− (3.17)
N −1 N N

116
Ejemplo 3.17
De acuerdo con el Ejercicio 3.16, cual es el valor esperado de animales etiquetados en
la segunda muestra, además calcule su desviación estándar para dar una explicación
del comportamiento del experimento aleatorio.

Solución

De acuerdo con el ejercicio la variable aleatoria discreta, que se distribuye de forma hiper-
geométrica X ∼ h(10, 5, 25):

Para el valor esperado se tiene:

nM (10)(5)
µ = E[X] = = =2
N 25

Con ello se espera que hayan 2 animales etiquetados en la segunda muestra.

Para calcular el valor de la desviación estándar se debe calcular primero el valor de la


varianza:

   
2 N − n nM M
σ = V (X) = 1−
N −1 N N
   
25 − 10 (10)(5) 5
= 1−
25 − 1 25 25
   
15 20
= (2)
24 25
600
= =1
600

p
Con ello se tiene que la desviación estándar es V (X) = ±1, ası́ se puede decir que
aproximadamente se puede encontrar un animal etiquetado en la segunda muestra
desde 1 hasta 3 animales.

117
Ejemplo 3.18
Cada uno de 12 refrigeradores de un tipo ha sido regresado a un distribuidor debido
a un ruido agudo audible producido por oscilación cuando el refrigerador está funcio-
nando. Suponga que 7 de estos refrigeradores tienen un compresor defectuoso y que
los otros 5 tienen problemas menos serios. Si los refrigeradores se examinan en orden
aleatorio, sea X el número entre los primeros 6 examinados que tienen un compresor
defectuoso.

1. Encuentre la función de masa de probabilidad de la variable aleatoria X que se


distribuye de forma hipergeométrica.

2. Tabule todos los resultados de cada una de los posibles valores de la variable
aleatoria X.

3. Grafique la distribución obtenida en el ı́tem 2.

4. Calcule su valor esperado y su varianza, ¿Qué conclusiones se puede obtener de


estos resultados?

Solución

Lo primero que se debe realizar es obtener los datos del ejercicio:

Variable aleatoria: X = número entre los primeros 6 examinados que tienen un com-
presor defectuoso.

En base a la variable aleatoria se tiene que el número de elementos de la población


corresponde al total de los refrigeradores N = 12.

El valor de la muestra es el numero de los refrigeradores que tienen un compresor


defectuoso es M = 7.

El número de ensayos es n = 6. Con ello entonces X ∼ h(6, 7, 12).

1. La función de masa de probabilidad de la variable aleatoria es:


     
7 12 − 7 7 5
x 6−x x 6−x
f (x) = P (X = x) =   =
12 924
6

Para:

máx(0, n − N + M ) ≤x ≤ mı́n(n, M )
máx(0, 6 − 12 + 7) ≤x ≤ mı́n(6, 7)
máx(0, 1) ≤x ≤ mı́n(6, 7)
1 ≤x ≤ 6

118
2. Para tabular los resultados de los posibles valores de la variable aleatoria X, es tomar
la función de masa de probabilidad del punto anterior y evaluarlo de 1 hasta 6.
     
7 5 7 5
1 6−1 1 5 (7)(1)
P (X = 1) = = = = 0,008
  924  924
   924
7 5 7 5
2 6−2 2 4 (21)(5)
P (X = 2) = = = = 0,114
  924  924 
  924
7 5 7 5
3 6−3 3 3 (35)(10)
P (X = 3) = = = = 0,379
  924  924 
  924
7 5 7 5
4 6−4 4 2 (35)(10)
P (X = 4) = = = = 0,379
  924  924 
  924
7 5 7 5
5 6−5 5 1 (21)(5)
P (X = 5) = = = = 0,114
  924  924 
  924
7 5 7 5
6 6−6 6 0 (7)(1)
P (X = 6) = = = = 0,008
924 924 924

Con los resultados se puede tener la tabla de resultados:

X 1 2 3 4 5 6
P (X = x) 0.008 0.114 0.379 0.379 0.114 0.008

Como se puede observar, se presenta una probabilidad mas alta en los valores de la
variable aleatoria para 3 y 4, lo que indica que por esta zona se debe presentar el valor
esperado, además se puede obtener de forma rápida las probabilidades acumuladas de
esta distribución.
3. Con la tabulación del ı́tem 2 se puede obtener su gráfica 3.6, si se nota, el comentario
del ı́tem 2 se confirma con la gráfica, además se podrı́a calcular sus medidas de forma
para saber cuanto se parece a una distribución normal, como se vio en el capitulo 1 de
estadı́stica descriptiva.
4. Para encontrar la media o valor esperado, la varianza y desviación estándar de la va-
riable aleatoria X ∼ h(6, 7, 12), se procederá con las definiciones dadas anteriormente.
(6)(7) 42
µ = E[X] = = = 3,5
 12 12      
2 12 − 6 (6)(7) 7 6 42 5
σ = V (X) = 1− = = 0,7954
12 − 1 12 12 11 12 12
p
σ = V (X) = 0,8918

119
Figura 3.6: Ejercicio 3.18: Función de Masa de Probabilidad de los refrigeradores que poseen
un compresor defectuoso.

Como se comentaba en el punto anterior las probabilidades mas altas están en 3 y 4,


justamente la media nos lo confirma en 3.5. Por tanto el valor esperado de refrigeradores
que poseen un compresor defectuoso es de 3.5. Ahora con una desviación estándar de
±0,8918, entonces tenemos un intervalo desde 2,6082 ≈ 3 y 4,3918 ≈ 4 donde está la
mayor parte de la concentración de probabilidad.

3.7. Distribución Binomial Negativa


Las indicaciones que conducen a una distribución binomial negativa son las siguientes:

1. El experimento consiste en una secuencia de ensayos independientes.

2. Cada ensayo puede dar por resultado un éxito (E) o una falla (F ).

3. La probabilidad de éxito es constante de un ensayo a otro, por lo tanto P (E en el ensayo i) =


p con i = 1, 2, 3, . . . .

4. El experimento continúa (se realizan ensayos) hasta que un total de r éxitos hayan
sido observados, donde r es un entero positivo especificado.

La variable aleatoria de interés es X = el número de fallas que preceden al r-ésimo éxito;


X se llama variable aleatoria binomial negativa porque, es un modelo adecuado para tratar
aquellos procesos en los que se repite un determinado ensayo o prueba hasta conseguir un
número determinados de éxitos.

120
Definición 3.13
Función de Masa de Probabilidad de una distribución Binomial Negativa

Sea X una variable aleatoria discreta que se distribuye de forma binomial negativa,
con parámetros r = Número de éxitos (E) y p = P (E), es:
 
x+r−1 r
nb(x; r, p) = P (X = x) = p (1 − p)x Para x = 0, 1, 2, . . . (3.18)
r−1

Ejemplo 3.19

Suponga que p = P (nacimiento de un varón)= 0,5. Una pareja desea tener exactamente
dos niños en su familia. Tendrán hijos hasta que esta condición se satisfaga.

1. ¿Cuál es la probabilidad de que la familia tenga x varones?

2. ¿Cuál es la probabilidad de que la familia tenga cuatro hijos?

3. ¿Cuál es la probabilidad de que la familia tenga cuando mucho cuatro hijos?

4. Continúe la tabulación hasta que la pareja deba tener 10 hijos.

5. Grafique la distribución de la variable aleatoria.

Solución

Como se tiene que se va a realizar el experimento hasta que se tenga el número de éxitos
que se requiere, es la principal caracterı́stica para que X se distribuya de forma binomial
negativa. Donde X ∼ nb(2, 0,5):
1. Como se definió que X ∼ nb(2, 0,5) donde X = Números de hijos. Entonces la función
de masa de probabilidad para la variable aleatoria que se distribuye binomial negativa
es:    
x+2−1 2 x x+1
bn(x; r, p) = P (X = x) = 0,5 (1 − 0,5) = 0,52+x
2−1 1
2. En este ı́tem lo que se requiere encontrar es P (X = 2), puesto que el cuarto intento es
donde se logra el éxito entonces los tres intentos anteriores obligatoriamente son dos
hijas y un solo hijo. ası́:
 
2+1
P (X = 2) = 0,52+2
1
 
3
= 0,54
1
= (3)(0,0625) = 0,188
Esto quiere decir que la probabilidad de que la pareja tenga 4 hijos para obtener 2
hijos varones es del 18.8 %

121
3. Con el mismo razonamiento del ı́tem anterior, la idea es encontrar P (X ≤ 2):

P (X ≤ 2) = P (X = 0) + P (X = 1) + P (X = 2)
     
0+1 2+0 1+1 2+1 2+1
= 0,5 + 0,5 + 0,52+2
1 1 1
     
1 2 2 3 3
= 0,5 + 0,5 + 0,54
1 1 1
= (1)(0,250) + (2)(0,125) + (3)(0,063) = 0,688

Con ello se tiene que para que la pareja tenga a lo mucho 4 hijos para obtener 2 hijos
varones es del 68.8 %

4. Con el ı́tem anterior ya se poseen las primeras 3 probabilidades, se debe continuar de


la misma forma para poder conocer la distribución de la variable aleatoria:
   
3+1 2+3 4
P (X = 3) = 0,5 = 0,55 = (4)(0,031) = 0,125
1 1
   
4+1 2+4 5
P (X = 4) = 0,5 = 0,56 = (5)(0,016) = 0,078
1 1
   
5+1 2+5 6
P (X = 5) = 0,5 = 0,57 = (6)(0,008) = 0,047
1 1
   
6+1 7
P (X = 6) = 0,52+6 = 0,58 = (7)(0,004) = 0,027
1 1
   
7+1 8
P (X = 7) = 0,52+7 = 0,59 = (8)(0,002) = 0,016
1 1
   
8+1 2+8 9
P (X = 8) = 0,5 = 0,510 = (9)(0,001) = 0,009
1 1
   
9+1 2+9 10
P (X = 9) = 0,5 = 0,511 = (10)(0,0005) = 0,006
1 1
   
10 + 1 2+10 11
P (X = 10) = 0,5 = 0,512 = (11)(0,0002) = 0,003
1 1

Con ello ya se puede obtener una tabulación de la variable aleatoria X:

X 0 1 2 3 4 5
P (X = x) 0.250 0.250 0.188 0.125 0.078 0.047
X 6 7 8 9 10
P (X = x) 0.027 0.016 0.009 0.006 0.003

5. Con los datos del ı́tem anterior se tiene la gráfica 3.7


Además como usualmente se tienen los resultados del valor esperado y varianza de una
variable aleatoria X que se distribuye de forma binomial negativa.

122
Figura 3.7: Ejercicio 3.19: Función de Masa de Probabilidad del número de hijos.

Definición 3.14
Si X es una variable aleatoria discreta que se distribuye de forma binomial X ∼
nb(r, p):

r(1 − p)
µ = E[X] = (3.19)
p
r(1 − p)
σ 2 = V (X) = (3.20)
p2

Ejemplo 3.20
De acuerdo con el Ejercicio 3.19: ¿Cuántos varones cree que tenga esta familia?
¿Cuántos hijos esperarı́a que tenga esta familia?

Solución

Se tiene una variable aleatoria discreta X que se distribuye de forma binomial negatica
X ∼ nb(2, 0,5), entonces de acuerdo con el valor esperado y su varianza:

r(1 − p) 2(1 − 0,5) 1


µ = E[X] = = = =2 (3.21)
p 0,5 0,5

Con ello se espera que la familia tenga 2 fallas (es decir dos hijas mujeres) antes de que se
tenga el segundo hijo varón, con ello entonces se esperarı́a que la familia tenga 4 hijos en total.

123
Además si tomamos su desviación estándar: 3
r(1 − p) 2(1 − 0,5)
σ2 = 2
=
p 0,52
1
= =4
0,25

σ= 4=2

Entonces esto nos quiere decir que la mayor parte de la probabilidad de esta distribución se
acumula en los puntos µ ± σ = 2 ± 2, ası́ se tiene que la familia puede tener desde 0 hasta
4 fallas antes de tener su segundo hijo varón. Esto se puede verificar rápidamente con la
gráfica 3.7 ya que en este intervalo se posee una probabilidad del 89.1 %:

P (X ≤ 4) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)
= 0,250 + 0,250 + 0,188 + 0,125 + 0,078
= 0,891

Ejemplo 3.21
Suponga que durante la práctica un jugador de baloncesto puede hacer un tiro libre
el 80 % del tiempo obtiene una anotación en los lanzamientos realizados. Además,
una secuencia de tiros libres puede ser considerada como pruebas independientes de
Bernoulli. Sea X sea igual al número mı́nimo de lanzamientos libres que este jugador
debe intentar hacer un total de 10 anotaciones.

Encuentre la función de masa de probabilidad.

Realice la gráfica de la variable aleatoria X que se distribuye de forma binomial


negativa.

¿Cuántos lanzamientos libres se espera que el jugador pueda realizar para alcan-
zar un total de 10 aciertos?

Cual es su desviación estándar para verificar el intervalo de lanzamientos del


jugador donde posee la mayor probabilidad.

Solución

Al tomar los datos del ejercicio se tiene que:

X = Número de lanzamiento fallidos antes de obtener 10 anotaciones.

r = 10, ya que la idea es obtener 10 anotaciones (número de éxitos).

p = 0,8 ya que se especifica de que el tito libre tiene un 80 % de éxito en el lanzamiento.

Con ello ya se puede tener que X ∼ nb(10, 0,8), ası́:

124
Como ya se poseen los parámetros de la variable aleatoria X, entonces su función de
masa de probabilidad es:
   
x + 10 − 1 10 x x+9
nb(x; 10, 0,8) = 0,8 (1 − 0,8) = 0,810 0,2x
10 − 1 9

Antes de realizar la gráfica de la distribución se debe realizar la tabulación de los


resultados, recuerde que como la distribución binomial negativa se realizan ensayos
infinitos entonces hasta el momento se van a mostrar los primeros 10 primeros valores.
 
9
P (X = 0) = 0,810 0,20 = (1)(0,1074)(1) = 0,107
9
 
10
P (X = 1) = 0,810 0,21 = (10)(0,1074)(0,2) = 0,215
9
 
11
P (X = 2) = 0,810 0,22 = (55)(0,1074)(0,04) = 0,236
9
 
12
P (X = 3) = 0,810 0,23 = (220)(0,1074)(0,008) = 0,189
9
 
13
P (X = 4) = 0,810 0,24 = (715)(0,1074)(0,0016) = 0,123
9
 
14
P (X = 5) = 0,810 0,25 = (2002)(0,1074)(0,0032) = 0,069
9
 
15
P (X = 6) = 0,810 0,26 = (5005)(0,1074)(0,000064) = 0,034
9
 
16
P (X = 7) = 0,810 0,27 = (11440)(0,1074)(0,00001280) = 0,016
9
 
17
P (X = 8) = 0,810 0,28 = (24310)(0,1074)(0,00000256) = 0,007
9
 
18
P (X = 9) = 0,810 0,29 = (48620)(0,1074)(0,00000051) = 0,003
9
 
19
P (X = 10) = 0,810 0,29 = (92378)(0,1074)(0,00000010) = 0,001
9

Note que hasta 10 lanzamientos fallidos, se tiene una probabilidad acumulada del 99.9 %
lo cual se puede dejar hasta este punto ya que por encima se 10 lanzamientos fallidos
se tiene una probabilidad acumulada del 0.1 %. Entonces su tabulación es:

X 0 1 2 3 4 5
P (X = x) 0.107 0.215 0.236 0.189 0.123 0.0.069
X 6 7 8 9 10
P (X = x) 0.034 0.016 0.007 0.003 0.001

125
Figura 3.8: Ejercicio 3.21: Función de Masa de Probabilidad del número de lanzamientos
fallidos.

Ası́ su gráfica 3.8 de la distribución es:

Ahora la idea es conseguir el valor esperado de la variable aleatoria X para poder


determinar la cantidad de lanzamientos fallidos antes de obtener 10 anotaciones, ası́
posteriormente calcular el total de lanzamientos.

r(1 − p) 10(1 − 0,8) 10(0,2) 2


µ= = = = = 2,5
p 0,8 0,8 0,8

Eso quiere decir que se espera 2,5 lanzamientos fallidos, entonces el total de lanzamien-
tos que debe realizar el jugador es de 12,5 lanzamientos para obtener 10 aciertos.

Ahora con el uso de la varianza de la variable aleatoria X que se distribuye de forma


binomial negativa:

r(1 − p) 10(1 − 0,8) 10(0,2) 2


σ2 = 2
= 2
= = = 3,125
p 0,8 0,64 0,64
p
σ = 3,125 = 1,77

Con ello el intervalo donde se presenta la mayor parte de la probabilidad de la variable


aleatoria X es µ ± σ = 2,5 ± 1,77, entonces el número de lanzamientos fallidos hasta
obtener 10 anotaciones es [2,5−1,77, 2,5+1,77] = [0,73, 4,27, como se habla de variables
aleatorias discretas, entonces el para obtener una probabilidad alta de lanzamientos
fallidos está entre 1 y 4 lanzamientos.

126
3.8. Distribución de Poisson
Las distribuciones binomiales, hipergeométricas y binomiales negativas se derivaron partien-
do de un experimento aleatorio y ensayos independientes y aplicando las leyes de probabilidad
a varios resultados del experimento. Ahora suponga que un intervalo está dividido en un gran
número de subintervalos de manera que la probabilidad de que ocurra un evento de cualquier
subintervalo es muy pequeña. Los supuestos de la distribución de Poisson son los siguientes:
La probabilidad de que ocurra un suceso es constante en todos los subintervalos.
No puede haber más de una ocurrencia en cada subintervalo.
Las ocurrencias son independientes; es decir, las ocurrencias en intervalos que no se
solapan son independientes entre sı́.
Algunos ejemplos de la distribución de Poisson pueden ser:
1. El número de clientes que llegan a realizar un reclamo en un dı́a en la empresa de
telefonı́a local.
2. El número de llamadas recibidas en un plazo de 8 horas laborales.
3. Número de fallas eléctricas en un barrio local en un determinado periodo de facturación.
Definición 3.15
Función de Masa de Probabilidad de una distribución Poisson

Se dice que una variable aleatoria X tiene una distribución de Poisson con parámetro
λ > 0; Entonces la función masa de probabilidad de X ∼ p(λ) es:

e−λ λx
p(x; λ) = P (X = x) = Para x = 0, 1, 2, . . .
x!

Notas Importantes 3.5


Para entender un poco mejor el parámetro de interes λ se interpreta con frecuencia
como un valor por unidad de tiempo o por unidad de área.

Ejemplo 3.22
Si se sabe que a menudo en una empresa de telefonia recibe 5 quejas al dı́a, sea X =
el número de quedas recibidas. Entonces:

1. ¿Cúal es su función de masa de probabilidad?

2. Grafique distribución de la variable aleatoria X

3. Si se quiere observar el comportamiento de las quedas en dos dias seguidos, ¿Cuál


es la probabilidad de que hayan entre 6 y 10 quejas?.

127
Solución

Como se sabe que en una distribución de Poisson la principal caracterı́stica es el manejo de


intervalos, en especial en este ejercicio, es el conteo de quejas que se presentan en un intervalo
de tiempo que lo representa por dı́as, por tal razón el parámetro principal en el ejercicio es
λ = 5 ya que son las 5 quejas que recibe la empresa de telefonı́a en un dı́a. Ası́:
1. La función de masa de probabilidad de la variable aleatoria X que se distribuye de
forma Poisson X ∼ p(λ = 5):
e−5 5x
p(x; 5) = P (X = x) =
x!
2. Como es costumbre en el trabajo realizado, lo primero que se debe realizar son los
resultados de la evaluación de cada uno de los valores que puede tomar la variable
aleatoria X ∼ p(5), entonces:
e−5 56
P (X = 6) = = 0,15
e−5 50 6!
P (X = 0) = = 0,01 e−5 57
0! P (X = 7) = = 0,10
−5 1
e 5 7!
P (X = 1) = = 0,03 e−5 58
1! P (X = 8) = = 0,07
e−5 52 8!
P (X = 2) = = 0,08 e−5 59
2! P (X = 9) = = 0,04
e−5 53 9!
P (X = 3) = = 0,14 e−5 510
3! P (X = 10) = = 0,02
e−5 54 10!
P (X = 4) = = 0,18 e−5 511
4! P (X = 11) = = 0,01
e−5 55 11!
P (X = 5) = = 0,18
5!

Si se observa la función de masa de probabilidad para una distribución de Poisson pude


tener infinitos resultados, por tal razón se realizaron solo 12 valores de la variable para
mostrar el comportamiento de la distribución, y hasta el valor 11 se tiene un acumulado
de la probabilidad del 99 %.
3. Como se hace la aclaración de que λ es generalmente un parámetro que define las
repeticiones del evento en cada uno de los intervalos, entonces para el caso del ejercicio,
λ tiene un cambio porque ya el intervalo se ha incrementado a tener una unidad de
tiempo de dos dı́as. Por lo tanto λ = 5 ∗ 2 = 10. Entonces:
P (6 ≤ X ≤ 10) = P (X = 6) + P (X = 7) + P (X = 8) + P (X = 9) + P (X = 10)
e−10 106 e−10 107 e−10 108 e−10 109 e−10 1010
= + + + +
6! 7! 8! 9! 10!
= 0,06 + 0,09 + 0,11 + 0,13 + 0,13
= 0,52

128
Figura 3.9: Ejercicio 3.22: Función de Masa de Probabilidad del número de quejar recibidas

Esto indica que la probabilidad de que hayan de 6 a 10 quejas en la empresa de telefonı́a


en dos dı́as es del 52 %.
Como se está trabajando, es importante poder definir la media o valor esperados y varianza
de una variable aleatoria discreta X que se distribuye de forma Poisson:

Definición 3.16
Si X ∼ p(λ) una variable aleatoria discreta que se distribuye de forma Poisson con
parámetro λ, entonces:

µ = E[X] = λ (3.22)
σ 2 = V (X) = λ (3.23)

De acuerdo con el ejemplo anterior:

Ejemplo 3.23
¿Cuál es el número de quejas que se espera en la empresa de telefonı́a en un dı́a? en
dos dı́as?. Al tomar su desviación estándar ¿Qué se puede concluir?

Solución

Una ventaja de la distribución de Poisson es que el parámetro define el valor esperado y


su varianza y es lógico pensar de que el parámetro λ sea el promedio o la esperanza de
ocurrencia del objetivo, entonces en este caso se tiene que:
El valor esperado de quejas recibidas en la empresa de telefonı́a en un dı́a X ∼ p(5),
Entonces:
µ = E[X] = 5

129
Se esperan 5 quejas en un dı́a.

El valor esperado de quejas recibidas en la empresa de telefonı́a en dos dı́as X ∼ p(10)

µ = E[X] = 10

Se esperan 10 quejas en dos dı́as.

Ahora tomando la desviación estándar para X ∼ p(5):


p √
σ = V (X) = 5 = 2,24

Con ello se puede decir que hay un mı́nimo de 2,76 ≈ 3 a un máximo de 7,24 ≈ 7 quejas en
un dı́a.

Análogamente se tiene para X ∼ p(10)


p √
σ = V (X) = 10 = 3,16

Entonces que hay un mı́nimo de 6,84 ≈ 7 a un máximo de 13,16 ≈ 13 quejas en dos dias.

3.8.1. Aproximación de Poisson de la distribución Binomial


Si se tiene que la variable aleatoria discreta X, el número de éxitos resultante de n pruebas
independientes, cada una con una probabilidad de éxito p. Por lo que se habı́a hablado en las
secciones anteriores esto concuerda con una distribución binomial X ∼ Bin(n, p). Entonces
si el número de pruebas n es grande y p es pequeño, es posible utilizar la distribución de
poisson, tomando como parámetro λ = np.

Notas Importantes 3.6


En la literatura se da una sugerencia de que si se tiene una variable aleatoria que se
distribuye de forma Binomial X ∼ Bin(n, p) y np ≤ 7, entonces la variable aleatoria
se puede trabajar como una distribución de Poisson X ∼ p(np).

Entonces con lo anterior se tiene la siguiente propiedad:

Propiedad 3.8

Sea X una variable aleatoria que se distribuye de forma Binomial X ∼ Bin(n, p),
además si n → ∞ y p → 0. Entonces Bin(x; n, p) → p(x; np), Con ello su función de
masa de probabilidad de esta variable aleatoria es:

e−np (np)x
p(x; np) = P (X = x) = Para x = 0, 1, 2, . . . (3.24)
x!

130
Para explicar un poco mejor esta aproximación se va a realizar el siguiente ejemplo:

Ejemplo 3.24

Se ha informado de que el 3 % de todos los contribuyentes comete errores al rellenar


los impresos de declaración de la renta. Si se eligen aleatoriamente 100 declaraciones,
¿cuál es la probabilidad de que menos de 4 contengan errores?

Solución

En estos momentos es claro de que en el ejemplo se trata de una variable aleatoria discreta
que se distribuye de forma Binomial X ∼ Bin(100, 0,03) ya que se trata de 100 ensayos de
Bernoulli y tiene una probabilidad de éxito p = 0,03.

De acuerdo con la Propiedad 3.9, se tiene que np = 100 ∗ 0,03 = 3 con ello se puede usar la
aproximación de esta variable aleatoria discreta como una Pisson, pero para este ámbito se
manejará las dos distribuciones para observar el resultado:
Distribución Binomial:
   
100 x 100−x 100
Bin(x; 100, 0,03) = 0,03 (1 − 0,03) = 0,03x 0,97100−x
x x
Entonces:

P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)
     
100 0 100 100 1 99 100
= 0,03 0,97 + 0,03 0,97 + 0,032 0,9798
0 1 2
   
100 3 97 100
+ 0,03 0,97 + + 0,034 0,9796
3 4
= 0,0476 + 0,1471 + 0,2252 + 0,2275 + 0,1706 = 0,8179

Aproximacion a la distribución Poisson:


e−3 3x
p(3) =
x!
Entonces:

P (X ≤ 3) = P (X = 0) + P (X = 1) + P (X = 2) + P (X = 3) + P (X = 4)
e−3 30 e−3 31 e−3 32 e−3 32 e−3 33 e−3 34
= + + + + +
0! 1! 2! 2! 3! 4!
= 0,0498 + 0,1494 + 0,2240 + 0,2240 + 0,1680 = 0,8153

Como se puede ver en los dos casos poseen una buena aproximación de la probabilidad de-
seada, lo cual indica que a probabilidad de que a lo más 4 personas contengan errores es del

131
81.53 %.

Tomando el mismo ejemplo pero poniendo en lista los primeros 11 valores de la variable
aleatoria:

X Binomial Aprox. Poisson Diferencia X Binomial Aprox. Poisson Diferencia


0 0,0476 0,0498 -0,0022 6 0,0496 0,0504 -0,0008
1 0,1471 0,1494 -0,0023 7 0,0206 0,0216 -0,0010
2 0,2252 0,2240 0,0011 8 0,0074 0,0081 -0,0007
3 0,2275 0,2240 0,0034 9 0,0023 0,0027 -0,0004
4 0,1706 0,1680 0,0026 10 0,0007 0,0008 -0,0002
5 0,1013 0,1008 0,0005 11 0,0002 0,0002 -0,0001

Como se puede observar en la columna diferencia, existe una muy buena aproximación de la
binomial a la Poisson con estos parámetros, además se puede observar gráficamente:

Figura 3.10: Ejercicio 3.24: Función de Masa de Probabilidad Comparativa entre la distri-
bución Binomial y Aproximación Poisson

Ejercicio 3.8
Una empresa tiene 250 computadores personales. La probabilidad de que uno cualquie-
ra de ellos necesite una reparación en una semana dada es 0,01. Halle la probabilidad
de que menos de 4 de los computadores personales necesiten una reparación en una
semana dada.

132
3.9. Momentos
Los momentos de una variable aleatoria discreta X corresponden a los valores esperados de
ciertas funciones que dependen de x. Todas forman una familia de medidas que caracterizan
la distribución de probabilidad X. Comúnmente se tiene que los momentos se definen al
rededor de 0 o del valor esperado de la variable aleatoria discreta µX , es decir:

Definición 3.17
Sea X una variable aleatoria discreta. el r-ésimo momento de la variable aleatoria X
al rededor de 0 es: X
E[xr ] = xr f (x) (3.25)
x∈D

Si se observa la ecuación anterior, cuando r = 1 se tiene el valor esperado de la variable


aleatoria X, es decir que el primer momento de una variable aleatoria discreta al rededor de
0 es el valor esperado: X
E[X 1 ] = xf (x) = E[X]
x∈D

Además, como se habı́a hablado también los momentos se pueden definir al rededor de la
media o su valor esperado:

Definición 3.18
Sea X una variable aleatoria discreta, el r-ésimo momento central de X es:
X
E[(X − µ)r ] = (x − µ)r f (x) (3.26)
x∈D

Con ello si se analiza cada uno de los momentos centrales se pueden tener algunos resultados
interesantes:
El momento central cero siempre es 1:

E[(X − µ)0 ] = E[1] = 1

El momento central 1 siempre es 0:

E[(X − µ)1 ] = E[X − µ] = E[X] − µ = 0

El momento central 2 siempre es la varianza de la variable aleatoria:

E[(X − µ)2 ] = E[X 2 − 2Xµ + µ2 ]


= E[X 2 ] − 2µE[X] + µ2
= E[X 2 ] − 2µ2 + µ2
= E[X 2 ] − µ2
= E[X 2 ] − E[X]2 = V (X)

133
Es de notar que si se habla de momentos la varianza también se puede definir como la
diferencia del segundo momento al rededor de 0 y al primer momento al rededor de 0
al cuadrado.

Como se observa todos los momentos centrales se pueden expresar en términos de los mo-
mentos al rededor de 0, recuerde un resultado importante del álgebra:

Notas Importantes 3.7


Teorema del Binomio

Sean a, b ∈ R y n ∈ N el binomio de potencia n se puede expandir de la forma:


n  
n
X n
(a + b) = an−i bi (3.27)
i=0
i

Tomando el teorema del binomio aplicado a la definición de los momentos centrales se tiene:
" r   # r  
i r i r
X X
r r−i i
E[(X − µ) ] = E (−1) X µ = (−1) E[X r−i ]µi (3.28)
i=0
i i=0
i

Entonces con esta definición se puede definir más fácil el tercer y cuarto momento central:

El tercer momento central siempre define la asimetrı́a de la distribución:


3  
3
X
i3
E[(X − µ) ] = (−1) E[X 3−i ]µi
i=0
i
       
3 3 0 3 2 1 3 1 2 3
= E[X ]µ − E[X ]µ + E[X ]µ − E[X 0 ]µ3
0 1 2 3
3 2 2 3
= E[X ] − 3E[X ]µ + 3E[X]µ − µ
= E[X 3 ] − 3µE[X 2 ] + 2µ3

El cuarto momento central siempre define la Curtosis


4  
i 4
X
4
E[(X − µ) ] = (−1) E[X 4−i ]µi
i=0
i
         
4 4 0 4 3 1 4 2 2 4 1 3 4
= E[X ]µ − E[X ]µ + E[X ]µ − E[X ]µ + E[X 0 ]µ4
0 1 2 3 4
= E[X 4 ] − 4µE[X 3 ] + 6µ2 E[X 2 ] − 4µ4 + µ4
= E[X 4 ] − 4µE[X 3 ] + 6µ2 E[X 2 ] − 3µ4

Ası́ se puede definir las siguientes propiedades de acuerdo a los momentos para definir el
comportamiento de la distribución discreta que se esté trabajando.

134
Propiedad 3.9
Sea X una variable aleatoria discreta, su asimetrı́a está dada por:

E[(X − µ)3 ] E[(X − µ)3 ]


α= = (3.29)
E[(X − µ)2 ]3 V (X)3

Si α > 0 se tiene una distribución asimétrica positiva o asimétrica hacia la


derecha.

Si α = 0 se tiene una distribución simétrica.

Si α < 0 se tiene una distribución asimétrica negativa o asimétrica hacia la


izquierda.

De la misma forma se puede obtener la curtosis que es la segunda medida de forma de una
distribución discreta por medio de la teorı́a de momentos:

Propiedad 3.10
Sea X una variable aleatoria discreta, su curtosis está dado por:

E[(X − µ)4 ] E[(X − µ)4 ]


γ= = (3.30)
E[(X − µ)2 ]4 V (X)4

Si γ > 3 se tiene una distribución leptocúrtica.

Si γ = 3 se tiene una distribución mesocúrtica.

Si γ < 3 se tiene una distribución platicúrtica.

135
3.9.1. Función Generadora de Momentos
Como se ha venido trabajando, puede que el cálculo de los momentos anteriores sean bas-
tante complejos, por ejemplo piense en que se tiene una distribución binomial y se quiere
encontrar su asimetrı́a, en ese caso se vuelve un largo trabajo para encontrar estos valores,
por ello se comienza a pensar si existiera una forma un poco más fácil de encontrar los mo-
mentos y ası́ poder saber el comportamiento de la variable aleatoria, y justamente a esto lo
llamamos función generadora de momentos.

Cuando se sabe que existen los momentos de una distribución es posible asociar una función
generadora de momentos.

Definición 3.19
Función generadora de Momentos

Sea X una variable aleatoria discreta, y t ∈ R escalar, entonces:


X
MX (t) = E[eXt ] = ext f (x) (3.31)
x

Esta función se denomina función generadora de momentos ya que, cuando se deriva y el


parámetro t se iguala a 0, se encuentra el momento central, es decir:

Propiedad 3.11
Sea X una variable aleatoria discreta en donde su función generadora de momentos
existe MX (t) entonces:
∂k

k

E[X ] = k Mx (t) (3.32)
∂t t=0

Esta propiedad se cumple ya que si se deriva la función generadora de momentos:



k k
∂ ∂ X
xt

MX (t) = k e f (x)

∂t k ∂t x
t=0
X ∂ext
= f (x)

∂t k
x
t=0
X
k xt
= x e f (x)


x t=0
X
= x f (x) = E[X k ]
k

Con ello se tienen las funciones generadoras de momentos de las distribuciones aleatorias
discretas que se han estudiado en la tabla 3.1:

136
Distribución Función Generadora de Momentos MX (t)
Bin(n, p) (et p + 1 − p)n
 −1   
Pmı́n(n,M ) tx N M N − M
h(n, M, N ) x=máx(0,n−N +M ) e
n rx n−x
pet

nb(r, p)
1 − (1 − p)et
p(λ) exp(λ(et − 1)

Tabla 3.1: MX (t) para variables aleatorias discretas

Ejercicio 3.9
Con la función generadora de momentos determine la esperanza y la varianza de la
distribución Binomial.

Además determine la simetrı́a y la curtosis de la distribución binomial.

137
3.10. Ejercicios
1. Realizar el Ejercicio 3.1

2. Realizar el Ejercicio 3.2

3. Algunas partes de California son particularmente propensas a los temblores. Suponga


que en un área metropolitana, 30 % de todos los propietarios de casa están asegurados
contra daños provocados por terremotos. Se seleccionan al azar cuatro propietarios de
casa, sea X el número entre los cuatro que están asegurados contra terremotos.

a) Encuentre la distribución de probabilidad de X


b) Trace el histograma de probabilidad correspondiente.
c) ¿Cuál es el valor más probable de X?
d ) ¿Cuál es la probabilidad de que por lo menos dos de los cuatro seleccionados estén
asegurados contra terremotos?

4. Dos dados de seis caras son lanzados al aire en forma independiente. Sea M = el
máximo de los dos lanzamientos (por lo tanto M (1, 5) = 5, M (3, 3) = 3, etcétera).

a) ¿Cuál es la función masa de probabilidad de M ?


b) Determine la función de distribución acumulativa de M y grafiquela.

5. Para cada una de las siguientes funciones, determine c para que f (x) satisfaga las
condiciones de ser una función de masa de probabilidad de una variable aleatoria
discreta X y luego represente cada función de masa de probabilidad como un gráfico
de lineas:

a) f (x) = x/c Para x = 1, 2, 3, 4 te la serie geométrica y su convergen-


b) f (x) = cx Para x = 1, 2, 3, . . . , 10 cia.)

c) f (x) = c(1/4)x Para x = 1, 2, 3, . . . d ) f (x) = c(x + 1)2 Para x = 0, 1, 2, 3


(Sugerencia: Recuerde en que consis- e) f (x) = x/c Para x = 1, 2, 3, . . . , n

6. Realizar el ejercicio 3.5

7. Realizar el ejercicio 3.6

8. Suponga E(X) = 5 y E[X(X − 1)] = 27,5. ¿Cuál es

a) E[X 2 ]
b) V (X) = σ 2
c) σ

9. Un polı́tico cree que el 25 por ciento de todos los macroeconomistas que ocupan al-
tos cargos apoyará firmemente una propuesta que desea presentar. Suponga que esta
creencia es correcta y que se seleccionan cinco macroeconomistas aleatoriamente.

138
a) ¿Cuál es la probabilidad de que al menos uno de los cinco apoye firmemente la
propuesta?
b) ¿Cuál es la probabilidad de que la mayorı́a de los cinco apoye firmemente la
propuesta?

10. Realizar el Ejercicio 3.7

11. Un concesionario de automóviles organiza una nueva campaña de promoción. Los com-
pradores de nuevos automóviles pueden devolverlos en el plazo de 2 dı́as si no están
satisfechos y recuperar todo el dinero pagado. El coste que tiene para el concesionario
la devolución del dinero es de 250$. El concesionario estima que el 15 por ciento de
todos los compradores devolverá los automóviles y recuperará el dinero. Suponga que
se compran 50 automóviles durante la campaña.

a) Halle la media y la desviación tı́pica del número de automóviles que se devolverán


a cambio del dinero.
b) Halle la media y la desviación tı́pica de los costes totales de la devolución del
dinero de estas 50 compras.

12. Binomial: Una empresa recibe un gran envı́o de componentes. Se comprobará una
muestra aleatoria de 16 de estos componentes y se aceptará el envı́o si son defectuosos
menos de 2 componentes de esta muestra. Halle cuál es la probabilidad de que se acepte
un envı́o que contenga:

a) Un 5 por ciento de componentes defectuosos.


b) Un 15 por ciento de componentes defectuosos.
c) Un 25 por ciento de componentes defectuosos.

13. Hipergeométrica: Un geólogo recolectó 10 especı́menes de roca basáltica y 10 es-


pecı́menes de granito. Él le pide a su ayudante de laboratorio que seleccione al azar 15
de los especı́menes para analizarlos.

a) ¿Cuál es la función masa de probabilidad del número de especı́menes de granito


seleccionados para su análisis?
b) ¿Cuál es la probabilidad de que todos los especı́menes de uno de los dos tipos de
roca sean seleccionados para su análisis?
c) ¿Cuál es la probabilidad de que el número de especı́menes de granito seleccionados
para analizarlos esté dentro de una desviación estándar de su valor medio?

14. Binomial Negativa: Un individuo tiene un dado rojo y uno verde (ambos imparcia-
les). Si se lanzan los dados hasta que obtiene cinco dobles, es decir (1 − 1, · · · , 6 − 6)

a) ¿cuál es la función masa de probabilidad de X = el número total de veces que un


dado es lanzado?
b) Grafique la variable aleatoria X

139
c) ¿Cuáles son E(X) y V(X)?

15. Aproximación Poisson Realizar el Ejercicio 3.8

16. Por ley, los automovilistas deben tener un seguro. Se ha estimado que, a pesar de la ley,
el 7,5 por ciento de todos los automovilistas no tiene seguro. Se ha tomado una muestra
aleatoria de 60 automovilistas. Utilice la aproximación de Poisson de la distribución
binomial para estimar la probabilidad de que al menos 3 de los automovilistas de esta
muestra no estén asegurados. Indique también qué cálculos tendrı́a que hacer para
hallar esta probabilidad exactamente si no utilizara la aproximación de Poisson.

17. Realizar el Ejercicio 3.9

140
Variables Aleatorias Continuas
4
En el capı́tulo anterior se introdujo el concepto de variable aleatoria y todas sus consecuen-
cias, lo cual una de ellas era el desarrollo de las variables aleatorias discretas, que consistı́a
en que su dominio o su conjunto de partida estaba determinado por un número finito o
infinito numerable de posibles resultados, lo cual nos daba una idea de que se hacı́an conteos
sobre esos resultados, con ello se definieron funciones de masa de probabilidad, funciones
acumuladas de probabilidad, esperanza de una variable aleatoria discreta, varianza, etc.

Ahora falta abordar el segundo caso es cuando tenemos su conjunto de partida o dominio sea
un intervalo de la recta real, es decir, que se admitan valores con decimales o generalmente
llamados continuos, y análogamente que el capı́tulo anterior se hará el desarrollo de cada
uno de los casos.

Definición 4.1
Una variable aleatoria continua es aquella que puede tomar cualquier valor en el
conjunto de los números reales (−∞, +∞).

Ejemplo 4.1
En el estudio de ecologı́a de un rı́o, se mide la profundidad en ciertos lugares seleccio-
nados, entonces X es la profundidad en ese lugar, con ello se tiene que es una variable
aleatoria continua, ya que los resultados están sobre la recta real, ya sea su dimensión
el kilómetros, o metros.

Otros ejemplos de variables aleatorias continuas pueden ser:


1. Tiempo de espera de un cliente a una fila de servicio al cliente en determinada oficina.

2. La vida útil de un transistor.

3. La hora de llegada de un tren en una estación especı́fica.

4. Cantidad de agua consumida en un mes.

141
Es de entender de que los valores de los ejemplos anteriores, son valores donde se aceptan
decimales para poder obtener variables aleatorias discretas, de lo contrario se trabajarı́an
como variables aleatorias discretas.

Lo primero que se debe garantizar a una variable aleatoria continua es su función de masa
de probabilidad o su función de distribución, para ası́ conocer a grandes rasgos su compor-
tamiento.

Definición 4.2
Función de masa de probabilidad

Dada X una variable aleatoria continua. Entonces, la función de masa de probabilidad


asociada a la variable aleatoria continua, f (x) tal que para dos números cualesquiera
a y b con a ≤ b: Z b
P (a ≤ X ≤ b) = f (x) dx (4.1)
a

Es decir, la probabilidad de que X asuma un valor en el intervalo [a, b] es el área sobre este
intervalo, donde se puede observar en la gráfica 4.2.

Figura 4.1: Representación de la Función de distribución de probabilidad para una variable


aleatoria continua

Además como se trabajo en el capitulo anterior, para dicha función f (X), sea una función
de masa de probabilidad debe cumplir las siguientes propiedades:

142
Propiedad 4.1

Sea f (x) una función de masa de probabilidad, se cumple que:

1. f (X) ≥ 0 para todo x ∈ (−∞, ∞)


R +∞
2. −∞ f (x) dx = 1, es decir que el área bajo la curva f (x) es igual a 1.
Rb
3. Sea a y b números reales y a ≤ b, se cumple que: P (a ≤ X ≤ b) = a
f (x) dx

Para poder comprender la función de masa de probabilidad para una variable aleatoria con-
tinua, se procederá a realizar el siguiente ejercicio.

Ejemplo 4.2
Un profesor de la UNAL casi nunca termina su clase antes del término de la hora. Sea
X: El tiempo que transcurre entre el término de la hora. Suponga que la función de
masa de probabilidad de X viene dada por:
(
kx2 Si 0 ≤ x ≤ 3
f (X) =
0 En otro caso

1. De acuerdo con las propiedades de la función de masa de probabilidad encuentre


el valor de k.

2. ¿Cuál es la probabilidad de que la clase termine a lo más de un minuto después


del término de la hora?

3. ¿Cuál es la probabilidad de que la clase continúe entre 30 y 60 segundos después


del término de la hora?

4. ¿Cuál es la probabilidad de que la clase continúe por lo menos 90 segundos


después del término de la hora?

Solución:

1. Primero se debe realizar la integral sobre el intervalo (−∞, ∞).


Z +∞ Z 0 Z 3 Z +∞
2
f (x) dx = 0 dx + kx dx + 0 dx
−∞ −∞ 0 3
3
kx3
=0+ +0
3 0
 
27k 0k
= − = 9k
3 3

143
Ahora teniendo esto como resultado y aplicando la propiedad 2, entonces:
Z +∞
f (x) dx = 1
−∞
9k = 1
1
k=
9

Con ello se tiene que es función de masa de probabilidad para k = 1/9:


 2
x
Si 0 ≤ x ≤ 3
f (x) = 9
0 En otro caso

2. La probabilidad de que la clase termine a lo más de un minuto después del término de


la hora es:

1 1
1
x2 x2 x3
Z Z
1
P (X ≤ 1) = dx = dx = = ≈ 0,037
−∞ 9 0 9 27 0 27

3. La probabilidad de que la clase continúe entre 30 y 60 segundos después del término


de la hora (recuerde que nuestra unidad de medida del ejercicio es en minutos, por lo
tanto se tiene un intervalo entre [1/2, 1]
 Z 1 2 1
x3

1 x 7
P ≤X≤1 = dx = = ≈ 0, 03240
2 1
2
9 27 1 216
2

4. La probabilidad de que la clase continúe por lo menos 90 segundos después del término
de la hora es
 Z ∞ 2 Z 3 2 3
x3

3 x x 7
P X≥ = dx = dx = = = 0,875
2 3
2
9 3
2
9 27 3 8
2

De la misma forma se puede tomar:

Z 3 2 3
x3 2
   
3 3 2 x 7
P X≥ =1−P X ≤ =1− dx = 1 − = = 0,875
2 2 0 9 27 0 8

Con ello se tiene que la probabilidad de que el profesor se demore mas de 90 segundos
al término de la hora es del 87.5 %

144
Ejemplo 4.3
“Intervalo de tiempo” en el flujo de tránsito es el tiempo transcurrido entre el tiempo
en que un carro termina de pasar por un punto fijo y el instante en que el siguiente
carro comienza a pasar por ese punto. Sea X = el intervalo de tiempo de dos carros
consecutivos seleccionados al azar en una autopista durante un periodo de tráfico
intenso. La siguiente función de densidad de probabilidad de X es en esencia el sugerido
en “The Statistical Properties of Freeway Traffic” (Transp. Res. vol. 11: 221-228):
(
0,15e−0,15(x−0,5) Si x ≥ 0,5
f (x) =
0 Otro caso

1. Verifique que efectivamente es una función de masa de probabilidad.

2. ¿Cual es la probabilidad de que el intervalo de tiempo supere los 6 segundos?

Solución

1. Para verificar que si es una función de densidad de probabilidad, se deben cumplir las
propiedades 4.1. Se sabe que f (x) es una función exponencial, por lo tanto se sabe que
estas funciones siempre son positivas o están sobre el eje X.

Ahora se debe verificar que: Z ∞


f (x) dx = 1
−∞

Entonces:
Z ∞ Z 0,5 Z ∞
f (x) dx = 0 dx + 0,15e−0,15(x−0,5) dx
−∞ −∞ 0,5
Z ∞ ∞
0,075 −0,15x e0,075
= 0,15e e dx = − 0,15x = 0 + 1 = 1
0,5 e 0,5

Con esto efectivamente se tiene que es una función de masa de probabilidad.

2. Ahora aprovechando que ya se posee la integral realizada en el ı́tem anterior, y tomando


los limites de integración adecuados, se puede encontrar:
Z ∞ ∞
−0,15(x−0,5) e0,075 e0,075
P (X ≥ 6) = 0,15e dx = − 0,15x = 0,15(6) = e−0,825 ≈ 0,4382
6 e 6 e

Donde se tiene un bosquejo de la función de masa de probabilidad del Ejercicio 4.3:


De acuerdo con el ejercicio anterior también se hubiera podido solucionar por medio de:
Z 6
P (X ≥ 6) = 1 − P (X ≤ 6) = 1 − f (x) dx

145
Figura 4.2: Función de probabilidad de la variable aleatoria discreta Intervalo de flujo de
tránsito

Entonces esto da una idea intuitiva de una acumulación un área bajo la curva hasta el punto
de que se quiere analizar:

Definición 4.3
Función de distribución acumulada

La función de distribución acumulativa F (x) de una variable aleatoria continua X se


define para todo número x como
Z x
F (x) = P (X ≤ x) = f (y) dy Para − ∞ ≤ x ≤ +∞ (4.2)
−∞

F (x) representa el área bajo la curva de densidad a la izquierda de x.

Ejemplo 4.4
Realizar las funciones de probabilidad acumuladas de los Ejemplos 4.2 y 4.3

solución

Para el Ejemplo 4.2 se tenı́a una función de masa de probabilidad:


 2
x
Si 0 ≤ x ≤ 3
f (x) = 9
0 En otro caso

Entonces para encontrar su función de probabilidad acumulada se debe realizar la

146
integral de la definición:

x x
x
y2 y 3 x3
Z Z
F (x) = f (y) dy = dy = =
∞ 0 9 27 0 27

Ası́, la función de probabilidad acumulada es de la forma:


0
 Si x < 0
x3

F (x) = Si 0 ≤ x ≤ 3
 27


1 Si x > 3

Para el Ejemplo 4.3 se tenı́a una función de masa de probabilidad:

(
0,15e−0,15(x−0,5) Si x ≥ 0,5
f (x) =
0 En otro caso

Aplicando la definición se tiene que:

x x
x
e0,075 e0,075
Z Z
−0,15(y−0,5)
F (x) = f (y) dy = 0,15e dy = − 0,15y = − 0,15x + 1
∞ 0,5 e 0,5 e

Entonces se puede definir la función de distribución acumulada:


0 Si x < 0,5
F (x) = 0,075
− e +1 Si x ≥ 0,5
e0,15x

De la definición de función de distribución acumulada de una variable aleatoria continua se


deducen las propiedades siguientes:

147
Propiedad 4.2

Sea X una variable aleatoria continua y f (x) y F (x) sus funciones de masa de proba-
bilidad y acumulada respectivamente, se cumple lo siguiente:

1. Por ser una función acumulada se tiene que en el intervalo total (−∞, ∞) la
función de probabilidad acumulada es 1, es decir:
Z ∞
F (+∞) = f (x) dx = 1
−∞

2. Para cualquier intervalo del eje x se puede encontrar la probabilidad por medio
de su función de probabilidad acumulada:

P (x1 ≤ X ≤ x2 ) = F (x2 ) − F (x1 )

3. Existe una relación entre la función de masa y la función acumulada de la variable


aleatoria discreta de la forma:
dF (x)
= f (x)
dx

Se aplicarán las propiedades anteriores en el siguiente ejemplo:

Ejemplo 4.5
Dada la variable aleatoria continua X que posee la siguiente función de masa de
probabilidad:

 0, 25 si 0 ≤ x ≤ 4
f (x) =
0 En otro caso

Definir y graficar la función de masa acumulativa de X.

Solución:

Como se ve en la Gráfica 4.3, la curva de densidad tiene 3 tramos bien marcados. Ahora se
procede a calcular el valor de F (x) función de distribución acumulada:

Si x < 0
Z x Z x
F (x) = P (X ≤ x) = f (y) dy = 0 dy = 0
−∞ −∞

148
Figura 4.3: Gráfica de la función de masa de probabilidad

Si 0 ≤ x ≤ 4
Z x
F (x) = P (X ≤ x) = f (y) dy
−∞
Z 0 Z x
= f (y) dy + f (y) dy
−∞ 0
Z 0 Z x
= 0 dy + 0, 25 dy
−∞ 0
= 0, 25(x − 0) = 0, 25x

Si x > 4
Z x
F (x) = P (X ≤ x) = f (y) dy
−∞
Z 0 Z 4 Z x
= f (y) dy + f (y) dy + f (y) dy
−∞ 0 4
Z 0 Z 4 Z x
= 0 dy + 0, 25 dy + 0 dy
−∞ 0 4
= 0, 25(4 − 0) = 1

Luego la función distribución acumulada F (x) de la variable aleatoria continua X es dada


por: 
0
 Si x < 0
F (x) = 0,25x Si 0 ≤ x ≤ 4

1 Si x > 4

149
Figura 4.4: Función de probabilidad acumulada de la variable aleatoria X

El Gráfico 4.4 F (x):

Notas Importantes 4.1

Utilización de F (x) para calcular probabilidades

Sea X una variable aleatoria continua con función de distribución de probabilidad f (x)
y función de distribución acumulativa F (x). Entonces para cualquier número a,

P (X > a) = 1 − F (a) (4.3)


y para dos números a y b cualesquiera, tales que a < x < b,

P (a ≤ X ≤ b) = F (b) − F (a) (4.4)

Se ilustra el cálculo de probabilidades entre a y b como una diferencia entre las pro-
babilidades acumuladas en la función de distribución acumulativa (“áreas”).

150
Ejemplo 4.6
La función de distribución acumulada de la variable aleatoria continua X del ejemplo
anterior. 
0
 Si x < 0
F (x) = 0,25x Si 0 ≤ x ≤ 4

1 Si x > 4

Calcular:

1. P (X ≤ 2)

2. P (X ≤ 3)

3. P (X > 2)

4. P (2 ≤ X ≤ 3)

5. Obtenga la función de masa de probabilidad f (x) de acuerdo con la función de


probabilidad acumulada F (x).

Solución:
Se tiene que F (x) = P (X ≤ x), por tanto
1. P (X ≤ 2)
P (X ≤ 2) = F (2) = 0, 25x = 0, 25(2) = 0, 5

2. P (X ≤ 3)
P (X ≤ 3) = F (3) = 0, 25x = 0, 25(3) = 0, 75

3. P (X > 2)
P (X > 2) = 1 − P (X ≤ 2) = 1 − 0, 5 = 0, 5

4. P (2 ≤ X ≤ 3)
P (a ≤ X ≤ b) = F (b) − F (a)
P (2 ≤ X ≤ 3) = F (3) − F (2) = 0, 75 − 0, 5 = 0, 25

5. Para obtener la función de masa de probabilidad de acuerdo a la función de probabi-


lidad acumulada, solo es encontrar la derivada de la función, es decir:
dF (x)
= f (x)
dx
Como la función de probabilidad acumulada se presenta por casos entonces ası́ se debe
proceder para encontrar su derivada, ya que se sabe que en esos intervalos la función
es continua.

151
Para x ≤ 0
dF (x) d
= (0) = 0
dx dx
Para 0 ≤ x ≤ 4
dF (x) d
= (0,25x) = 0,25
dx dx
Para x > 4
dF (x) d
= (1) = 0
dx dx
Ası́ se pueden concluir que la función de masa de probabilidad f (x), es:
(
0,25 Si 0 ≤ x ≤ 4
f (x) =
0 En otro caso

Como se ha definido el concepto de variable aleatoria continua, además de sus funciones


de masa de probabilidad y probabilidad acumulada, se debe también conocer las medidas
de dicha variable como se vio en el capı́tulo anterior, como el valor esperado, varianza y
desviación estándar.

4.1. Valor Esperado de una Variable Aleatoria Conti-


nua
Definición 4.4
El valor esperado o valor medio de una variable aleatoria continua X con función de
masa de probabilidad f (x) es:
Z +∞
E[X] = µX = xf (x) dx (4.5)
−∞

Recuerde que se hace la salvedad de que µX = µ, siempre y cuando no haya confusión de la


variable aleatoria continua X.

Ejemplo 4.7
Suponga que la función de masa de probabilidad de la magnitud X de una carga
dinámica sobre un puente (en newtons) está dada por:

 1 + 3x Si 0 ≤ x ≤ 2
f (x) = 8 8
0 En otro caso

Verifique que efectivamente es una función de masa de probabilidad, además calcule


el valor esperado de la variable aleatoria continua X.

152
Solución:

Primero para garantizar de que es una función de masa de probabilidad se deben garantizar
2 cosas.

Primero de que para cualquier x, f (x) ≥ 0 en el intervalo (−∞, ∞), esto se puede garantizar
ya que la función en el intervalo [0, 2] siempre es positiva.

Ahora se debe garantizar de que en el intervalo (−∞, ∞) la función f (x) es igual a 1.


Z ∞ Z 0 Z 2  Z ∞
1 3x
f (x) dx = 0 dx + + dx + 0 dx
−∞ −∞ 0 8 8 2
Z 2 Z 2
1 3x
= dx + dx
0 8 0 8
2
x 2 3x2 1 3
= + = + =1
8 0 16 0 4 4

Ahora se procede a calcular su valor esperado.


Z ∞ Z 2 
1 2
 Z
1 + 3x
E[X] = xf (x) dx = x dx = (x + 3x2 ) dx
−∞ 0 8 8 0
 2  2
1 x 1 5
= + x3 = (2 + 8) =
8 2 0 8 4

Esto quiere decir que la magnitud esperada de una carga dinámica sobre un puente es de
1.25 Newtons.

Propiedad 4.3

Si X es una variable aleatoria continua con función de densidad de probabilidad f (x)


y h(X) es cualquier función de X, entonces:
Z ∞
E[h(X)] = h(x)f (x) dx (4.6)
−∞

Ejemplo 4.8

Sea X una variable aleatoria continua con función de masa de probabilidad f (x) defi-
nida por  2
x
Si − 1 ≤ x ≤ 2
f (x) = 3
0 En otro caso
Obtener el valor esperado de h(X) = 5X + 2

153
Solución:

Por la propiedad 4.3 se tiene que:


Z +∞ 2 2 Z
x
E[h(X)] = µh(X) = h(x)f (x) dx = (5x + 2) dx
−∞ −1 3
 Z 2 Z 2 
1 3 2 33
= 5 x dx + 2 x dx = = 8, 25
3 −1 −1 4

Ejemplo 4.9

La distribución de la cantidad de grava (en toneladas) vendida por una compañı́a de


materiales para la construcción particular en una semana dada es una variable aleatoria
continua X con función de densidad de probabilidad:

 3 (1 − x2 ) Si 0 ≤ x ≤ 1
f (x) = 2
0 En otro caso

Si esta cantidad ésta cantidad de grava (en toneladas) tiene una función asociada
h(X) = 20X + 5 de venta semanal (en millones de COP), ¿Cuánto se espera vender
en una semana y cuánto se espera que sea el costo de venta?.

Solución

Primero para conocer el valor esperado de la cantidad de grava vendida en una semana se
debe encontrar E[X], entonces:

Z ∞ Z 1  
3 2
E[X] = µX = xf (x) dx = x (1 − x ) dx
−∞ 0 2
 1
3 1 3 x2 x4
Z 
3
= (x − x ) dx = −
2 0 2 2 4 0
   
3 1 1 3 1 3
= − = = = 0,375
2 2 4 2 4 8
Esto quiere decir que se espera una venta de 0.375 toneladas de grava en una semana, ahora
se procede a calcular el valor esperado del costo de venta, para ello se debe realizar E[h(X)]:
Z ∞
3 1
Z
E[h(X)] = µh(X) = h(x)f (x) dx = (20x + 5)(1 − x2 ) dx
−∞ 2 0
Z 1  1
5x3

3 3 2 3 2 4
= (20x − 20x + 5 − 5x ) dx = 10x − 5x + 5x −
2 0 2 3 0
 
3 5 25
= 10 − 5 + 5 − = = 12,5
2 3 2

154
Con ello se espera una venta de 12.5 millones de pesos por la cantidad de grava por la com-
pañı́a de materiales para la construcción en una semana.

De igual forma que se tenı́an los resultados en el capı́tulo anterior sobre el valor esperado de
una función de masa de probabilidad se tienen también para variables aleatorias continuas.

Propiedad 4.4
Sea X una variable aleatoria continua y cuyo valor esperado existe, entonces se cumple
que:

1. Si c es una constante, entonces:

E[c] = c

2. Si c es una constante y h una función, entonces:

E[c · h(X)] = cE[h(X)]

3. Si c1 y c2 son contantes, y h, g funciones, entonces:

E[c1 · h(X) + c2 · g(X)] = c1 E[h(X)] + c2 E[g(X)]

En el caso discreto, la varianza de X se definió como la desviación al cuadrado esperada con


respecto a µ y se calculó por medio de suma. En este caso de nuevo la integración reemplaza
a la suma.

4.2. Varianza de una Variable Aleatoria Continua

Definición 4.5
La varianza de una variable aleatoria continua X con función de masa de probabilidad
f (x) y valor medio o esperanza de µ, entonces su varianza viene dada por:
Z +∞
2
σX = V (X) = (x − µ)2 f (x) dx = E[(X − µ)2 ] (4.7)
−∞
p
La desviación estándar de X es σX = V (X)

De igual forma que con la esperanza matemática, cuando no se tiene problema con identificar
la variable aleatoria continua, entonces σ 2 = σX
2
.

155
Propiedad 4.5
Una forma de encontrar la varianza de una variable aleatoria continua con respecto a
su esperanza es:
V (X) = E[X 2 ] − (E[X])2

Su demostración es análoga a la demostración del capı́tulo anterior para las variables alea-
torias discretas:
Z ∞ Z ∞
2
V (X) = (x − µ) f (x) dx = (x2 − 2xµ + µ2 )f (x) dx
Z−∞∞ Z ∞ −∞ Z ∞
2 2
= x f (x) dx −2µ xf (x) dx +µ f (x) dx
−∞ −∞ −∞
| {z } | {z } | {z }
E[X 2 ] E[X] 1

= E[X 2 ] − 2E[X]2 + E[X]2


= E[X 2 ] − E[X]2

Lo importante de este resultado es que se deben conocer dos resultados de esperanza de la


variable aleatoria continua para ası́ conocer su varianza y desviación estándar:
Z ∞
2
E[X ] = x2 f (x) dx
Z−∞∞
E[X] = xf (x) dx
−∞

Ejemplo 4.10
En una tarea de laboratorio, si el equipo está funcionando, la función de densidad del
resultado observado X es:
(
2(1 − x) Si 0 ≤ x ≤ 1
f (x) =
0 En otro caso

Calcular la esperanza, la varianza y la desviación estándar de X.

Solución:
Primero se calculará la esperanza de la variable aleatoria continua:
Z ∞ Z 1
E[X] = xf (x) dx = 2x(1 − x) dx
−∞ 0
Z 1  1
x2 x3

2
=2 (x − x ) dx = 2 −
0 2 3 0
 
1 1 1
=2 − = ≈ 0,333
2 3 3

156
Esto indica para el resultado esperanza del equipo del laboratorio del 0.33 unidades en los
que se esté registrando el resultado. Ahora para calcular su varianza es necesario la esperanza
de la variable al cuadrado:
Z ∞ Z 1
2 2
E[X ] = x f (x) dx = 2x2 (1 − x) dx
−∞ 0
Z 1  1
x3 x4

2 3
=2 (x − x ) dx = 2 −
0 3 4 0
 
1 1 1
=2 − = ≈ 0,167
3 4 6
Ası́ la varianza es:
 2
2 2 1 2 1 1
V [X] = σ = E[X ] − (E[X]) = − = ≈ 0,055
6 3 18
Recuerde de que la varianza es una medida de variación donde tiene unidades cuadradas,
por ello su interpretación es de difı́cil comprensión, por tanto se usa su desviación estándar:
p
σ = 0,055 ≈ 0,2357
Ası́, se tiene que un intervalo donde posee la mayor parte de la probabilidad de resultados
observados [0,0943, 0,5657] unidades de medida en el laboratorio.

Ejemplo 4.11
Sea X una variable aleatoria continua con función de distribución acumulativa:



 0 x≤0
x   
4
F (x) = 1 + ln 0<x≤4

 4 x

1 x>4

Este tipo de función de distribución acumulativa es sugerido en el artı́culo “Variabilitiy


in Measured Bedload-Transport Rates” (Water Resources Bull., 1985: 39-48) como
modelo de cierta variable hidrológica. Determinar:

1. P (X ≤ 1)

2. P (1 ≤ X ≤ 3)

3. Obtener la función de masa de probabilidad.

4. Obtener el valor esperado, la varianza y la desviación estándar de la variable


aleatoria continua.

Solución

Este ejercicio realiza un resumen de lo que se lleva hasta el momento sobre las variables
aleatorias continuas.

157
1. Como se sabe para calcular P (X ≤ 1) se puede hacer por dos medios o conociendo su
función de masa de probabilidad y calculando su integral o conociendo su función de
probabilidad acumulada; En este caso se tiene la función de probabilidad acumulativa:
1
P (X ≤ 1) = F (1) = [1 + ln (4)] = 0,5965
4
2. De igual forma que el ı́tem anterior:
  
3 4 1
P (1 ≤ x ≤ 3) = F (3) − F (1) = 1 + ln − [1 + ln (4)]
4 3 4
≈ 0,9657 − 0,5965 ≈ 0,3692

3. Recordando la propiedad 4.2.3 que indica que la derivada de la función de probabilidad


acumulada es igual que la función de masa de probabilidad:
dF (x)
= f (x)
dx
Con ello se tiene que:
Para x ≤ 0
dF (x) d
= (0) = 0
dx dx
Para 0 < x ≤ 4
        
dF (x) d x 4 1 4 x 1
= 1 + ln = 1 + ln −
dx dx 4 x 4 x 4 x
    
1 4 1 1 4
= 1 + ln − = ln
4 x 4 4 x
Para x > 4
dF (x) d
= (1) = 0
dx dx
Con ello se tiene la función de masa de probabilidad para la variable aleatoria X:
 
 1 ln 4

Si 0 < x ≤ 4
f (x) = 4 x
0 En otro caso

4. Ahora se procede a conseguir el valor esperado de la función de masa de probabilidad:


Z ∞ Z 1   Z 1  
x 4 1 4
E[X] = xf (x) dx = lı́m ln dx = lı́m x ln dx
−∞ t→0 t 4 x 4 t→0 t x
 2   4
x2 t2 t2
   
1 x 4 1 4
= lı́m ln + = lı́m 4 − ln +
4 t→0 2 x 4 t 4 t→0 2 t 4
  
1 4
= 1 − lı́m t2 ln =1
2 t→0 t

158
Para poder entender este limite un poco mejor, hay que tener en mente el siguiente
resultado, para k ≥ 1:
 
4
   ln
4 t
lı́m tk ln = lı́m Por L’Hopital
t→0 t t→0 1
k
 t 
1
tk
= lı́m  t  = lı́m = 0
 
t→0 k t→0 k

tk+1
Ahora para encontrar la varianza de la variable aleatoria continua V (X), hace falta
realizar el tratamiento para encontrar E[X 2 ], la integral es análoga a E[X], el lector
puede verificar este resultado con el limite realizado anteriormente:
Z ∞ Z 4  
2 2 1 2 4 16
E[X ] = x f (x) = lı́m x ln dx = ≈ 1,778
−∞ 4 t→0 t x 9
Ası́ se tiene que la varianza y la desviación estándar de la variable es:

σ 2 = V (X) = E[X 2 ] − (E[X])2 = 1,778 − 1 ≈ 0,778


p
σ = V (X) ≈ 0,882

Como se trató en el capı́tulo anterior, para algunas variables aleatorias discretas que poseı́an
ciertos supuestos adquirı́an una distribución especifica, ya sea Bernoulli, Binomial, Bino-
mial negativa, Hipergeométrica, etc. También se tienen algunos supuestos y distribuciones
muy importantes para las variables aleatorias continuas, las que se trabajaran aquı́ son las
siguientes:
1. Distribución Uniforme

2. Distribución Normal

3. Distribución Exponencial

4. Distribución Gamma

5. Distribución Beta
En la teorı́a hay muchas mas distribuciones, pero para comenzar con el estudio de las variables
aleatorias continuas se trabajará con las anteriores mencionadas.

4.3. Distribución Uniforme


Para el primer caso de todas las distribuciones a estudiar, es el caso en que todos los valores
de la variable aleatoria continua X, asumen un mismo valor en el intervalo [a, b]. Con ello se
puede definir:

159
Definición 4.6
Sea una variable aleatoria continua X tiene una distribución uniforme en el intervalo
[a, b] si la función de masa de probabilidad de la variable X es:

 1 Si a ≤ x ≤ b
f (x; a, b) = b − a (4.8)
0 En otro caso

Una representación de gráfica de la distribución uniforme es:

Figura 4.5: Distribución Uniforme Continua en el intervalo [a, b]

Notas Importantes 4.2


Cuando se sabe que la variable aleatoria continua X, se distribuye de forma uniforme
entonces se suele notar como X ∼ u(a, b), donde los parámetros a y b son los limites
del intervalo.

Es fácil garantizar de que efectivamente es una función de masa de probabilidad, ya que:

∞ b
b
b−a
Z Z
1 x
f (x; a, b) dx = dx = = =1
−∞ a b−a b−a a b−a

Además en la Gráfica 4.5 se puede observar que para cualquier valor de X, f (x; a, b) ≥ 0.
Lo cual completa que f (x; a, b) efectivamente es una función de masa de probabilidad.

Como usualmente se ha trabajado en cada una de las distribuciones es importante conocer


su función de probabilidad acumulada, su valor esperado y su varianza:

160
Definición 4.7
Función de Probabilidad Acumulada de la distribución uniforme

Sea X ∼ u(a, b) una variable aleatoria continua que se distribuye de forma uniforme
en el intervalo [a, b], entonces su función de probabilidad acumulada es:

0
 Si x < a
 x−a
F (x) = Si a ≤ x < b (4.9)

 b−a
1 Si x ≥ b

la cual es fácil de obtener a partir de la función de masa de probabilidad ya que:


Z x Z x x
1 t x−a
F (X) = f (x; a, b) dx = dt = =
a b−a b−a a b−a

−∞

Una forma gráfica de la función de probabilidad acumulada de la distribución uniforme es:

Figura 4.6: Función de distribución Acumulada de la Distribución Uniforme

Ejemplo 4.12
La cantidad de café diaria, en litros, que sirve una máquina que se localiza en el
vestı́bulo de un aeropuerto es una variable aleatoria X que tiene una distribución
continua uniforme con a = 7 y b = 10, es decir X ∼ u(7, 10). Calcular la probabilidad
de que en un dı́a determinado la cantidad de café que sirve esta máquina sea:

1. A lo sumo 8.8 litros.

2. Más de 7.4 litros, pero menos de 9.5 litros.

3. Al menos 8.5 litros.

161
Solución:

La función de masa de probabilidad asociada es:



 1 =1 Si 7 ≤ x ≤ 10
f (x; 7, 10) = 10 − 7 3
0 En otro caso
Ya una vez definida la función de masa de probabilidad, se puede calcular cada una de las
probabilidades solicitadas:
1. La probabilidad de que a lo sumo 8.8 litros es:
Z 8,8
1 x 8,8 8,8 − 7 1,8
P (X ≤ 8, 8) = dx = = = = 0, 6
7 3 3 7 3 3

2. La probabilidad de más de 7.4 litros, pero menos de 9.5 litros es:


Z 9,5
1 x 9,5 9,5 − 7,4
P (7, 4 ≤ X ≤ 9, 5) = dx = = = 0, 7
7,4 3 3 7,4 3

3. La probabilidad de al menos 8.5 litros es


Z 8,5
1 x 8,5
P (X ≥ 8, 5) = 1 − P (X < 8, 5) = 1 − dx = 1 − = 0, 5
7 3 3 7

Como se sabe por la definición anterior, las probabilidades del ejercicio se hubieran podido
encontrar por medio de la función de probabilidad acumulada, entonces ya el lector podrá
cotejar los resultados escritos anteriormente con la función de probabilidad acumulada.

Propiedad 4.6
Valor esperado y varianza de la distribución uniforme continua

Sea X una variable aleatoria distribuida uniforme continua en el intervalo [a, b], es
decir X ∼ u(a, b), entonces
b+a
µX = E[X] = (4.10)
2
(b − a)2
σ 2 = V ar[X] = (4.11)
12

Para mostrar estas dos definiciones, se retomará las definiciones dadas en la sección anterior:
Demostración. Valor esperado de la distribución uniforme X ∼ u(a, b):
Z ∞ Z b
x
E[X] = xf (x) dx = dx
−∞ a b−a
b
x2 b 2 − a2 (b − a)(b + a) b+a
= = = =
2(b − a)
a 2(b − a) 2(b − a) 2

162
Es de esperar este resultado ya que si se tiene que la probabilidad es igual para todo
el intervalo [a, b], entonces E[X] corresponde exactamente al punto medio.
Para encontrar su varianza se debe encontrar el valor de E[X 2 ]:
Z ∞ Z b 2
2 2 x
E[X ] = x f (x) dx = dx
−∞ a b−a
b
x3 b 3 − a3 (b − a)(b2 + ab + a2 ) b2 + ab + a2
= = = =
3(b − a) a 3(b − a) 3(b − a) 3
Ahora se procede a encontrar la varianza de la variable aleatoria continua.
2
b2 + ab + a2

2 2 b+a
V (X) = E[X ] − (E[X]) = −
3 2
2 2 2 2
b + ab + a b + 2ab + a 4b + 4ab + 4a2 − 3b2 − 6ab − 3a
2
= − =
3 4 12
b2 − 2ab + a2 (b − a)2
= =
12 12

Ejemplo 4.13
Calcular la media y la varianza del ejemplo 4.12

Solución:
a+b 7 + 10 17
µx = = = = 8, 5
2 2 2
(b − a)2 10 − 7 3
σ2 = = = = 0, 25
12 12 12
Si se observa se ve que la desviación estándar de la variable aleatoria X es σ = 0,5.

Ejemplo 4.14
El tiempo en minutos que tarda un empleado para ir de su casa al trabajo oscila de
forma uniforme entre 30 y 50 minutos.

1. Obtener su función de masa de probabilidad.

2. Obtener su función de probabilidad acumulada.

3. Si debe llegar al trabajo a las 8 de la mañana, ¿a qué hora debe salir de su casa
para tener una probabilidad de 90 % de no llegar tarde?

4. Encontrar su valor esperado y su varianza y dar una interpretación del intervalo


de tiempo que el empleado tarda en llegar al trabajo.

Solución

163
1. Se comienza definiendo la función de masa de probabilidad, como el ejercicio lo men-
ciona el tiempo oscila desde 30 a 50 minutos, por lo tanto X ∼ u(30, 50). Ası́ su función
de masa de probabilidad es:

 1 =
1
Si 30 ≤ x ≤ 50
f (x) = 50 − 30 20
0 En otro caso

2. Se tiene la función de probabilidad acumulada:




 0 Si x < 30
x − 30

F (x) = Si 30 ≤ x < 50
 20


1 Si x ≥ 50

3. El ejercicio está preguntando cual es el tiempo donde la probabilidad alcance su 90 %,


entonces se debe encontrar x tal que P (X ≤ x) = 0,9. Entonces se puede realizar por
dos caminos, primero usando la función de masa de probabilidad o la función de pro-
babilidad acumulada. Para este caso se usará la función de probabilidad acumulada,
el lector deberá garantizar el mismo resultado por medio de la función de masa de
probabilidad.

Entonces se desea encontrar F (x) = 0,9

F (x) = 0,9
x − 30
= 0,9
20
x = 48

Con ello se tiene que el empleado debe salir de la casa a las 7:12 de la mañana.

4. Usando los resultados de la propiedad 4.6, se tienen los resultados:


30 + 50 80
µ= = = 40
2 2
(50 − 30)2 400
σ2 = = ≈ 33,33
p 12 12
σ = 33,33 ≈ ±5,77

Entonces eso quiere decir que el valor esperado es de 40 minutos para llegar a su
trabajo, además tiene una desviación de 5.77 minutos.

4.4. Distribución Normal


La Distribución Normal (gaussiana) fue Fue obtenida inicialmente por De Moivre en 1733 co-
mo lı́mite de la distribución binomial, siendo luego relegada al olvido hasta que fue propuesta

164
por Karl Frederich Gauss (1777 – 1855) como modelo para la distribución de frecuencia rela-
tiva de errores, tales como los errores de medición. Resulta sorprendente que esta curva con
forma de campana sea un modelo adecuado para las distribuciones de frecuencia relativa de
datos recabados de muchas áreas cientı́ficas diferentes.

La importancia de esta distribución se fundamenta en que diversas variables en muchas áreas


del conocimiento se modelan a partir de la Distribución Normal, por ejemplo:
1. Caracteres morfológicos de individuos como la estatura.
2. Caracteres fisiológicos como el efecto de un fármaco.
3. Caracteres sociológicos como el consumo de cierto producto por un mismo grupo de
individuos.
4. Caracteres psicológicos como el cociente intelectual.
5. Nivel de ruido en telecomunicaciones.
6. Errores cometidos al medir ciertas magnitudes.
Definición 4.8
Distribución normal La función de masa de probabilidad de la variable aleatoria
continua X, con media µ y varianza σ 2 , es:
1 1 x−µ 2
f (x; µ, σ 2 ) = √ e− 2 ( σ ) Para − ∞ < x < ∞ (4.12)
2πσ

Como se observa en la definición 4.8, la función de masa de probabilidad de la distribución


normal posee dos parámetros bastante importantes que son: su media µ y su varianza σ 2 ,
con ello se notará a una variable aleatoria normal como X ∼ N (µ, σ 2 ).

Ésta función es tan importante para la probabilidad ya que posee las siguientes propiedad
(el lector los podra corroborar):
1. f (x; µ, σ 2 ) es continua para todo R
2. f (x; µ, σ 2 ) es simétrica con respecto a su media, es decir, f (x − µ) = f (x + µ)
3. f (x; µ, σ 2 ) posee una ası́ntota horizontal en y = 0, además para todo x ∈ R se cumple
que f (x) ≥ 0.
4. f (x; µ, σ 2 ) es creciente para x < µ y decreciente para x > µ.
1
5. f (x; µ, σ 2 ) posee un máximo en x = µ, donde su máximo corresponde f (µ) = √
σ 2π
6. La función de masa de probabilidad es convexa (f ′′ (x) > 0) para x < µ−σ y x > µ+σ,
cóncava (f ′′ (x) < 0) para µ − σ < x < µ + σ y en puntos x = µ − σ y x = µ + σ tiene
puntos de inflexión.

165
Figura 4.7: Gráfica de la Distribución Normal X ∼ N (µ, σ 2 )

Una vez especificados los valores de los parámetros µ y σ, la gráfica de la distribución normal
denominada curva normal queda caracterizada.

Notas Importantes 4.3


Si se da cuenta en la Figura 4.7, se tiene una variable aleatoria continua que se distri-
buye de forma Normal X ∼ N (µ, σ 2 ), entonces:

Aproximadamente 68 % de la población se encuentra en el intervalo µ ± σ.

Aproximadamente 95 % de la población se encuentra en el intervalo µ ± 2σ.

Aproximadamente 99.7 % de la población se encuentra en el intervalo µ ± 3σ.

Con esta idea intuitiva del área que se encuentra comprendida entre estos intervalos signi-
ficativos, el lector se podrá preguntar ¿Cómo se podrı́a encontrar los otros percentiles de
la distribución?, entonces para resolver o responder esta pregunta, se verá los siguientes
conceptos:

4.4.1. Área bajo la curva normal


Con la pregunta que se planteaba anteriormente y como se ha estado trabajando en el
desarrollo de todas las distribuciones de probabilidad, la idea es encontrar el área bajo la
curva en el intervalo de interés, por ello se asocia lo siguiente:

1. Si X tiene distribución normal con media µ y desviación estándar σ, entonces


Z x
P (X < x) = f (x; µ, σ 2 ) dx
−∞

166
2. Si interesa calcular la probabilidad de que X tome valores entre x1 y x2 , entonces
P (x1 < X < x2 ) = P (X < x2 ) − P (X < x1 ):
Z x2
P (x1 < X < x2 ) = f (x; µ, σ 2 ) dx
x1

3. Si el interés se enfoca en calcular una probabilidad con cola a la derecha, entonces:


Z x
P (X > x) = 1 − f (x; µ, σ 2 ) dx
−∞

Como se ve en las gráficas y propiedades anteriores la distribución normal no es única, ya


que por estar centrada en la media µ entonces cada vez que se cambie el valor de la media se
cambiará la gráfica, pasa lo mismo con su segundo parámetro que corresponde a su varianza,
si este valor cambia también cambia la distribución, como se puede observar en la Figura 4.8.

Además como se ve en la función de masa de probabilidad no es muy cómoda calcular la


integral de la distribución normal de forma analı́tica, entonces se procede a estandarizar la
distribución normal de dos formas:

167
Figura 4.8: Distribución Normal variando sus parámetros µ y σ 2

1. la primera son las variables aleatorias continuas que se distribuyen de forma normal
con media µ = 0 y desviación estándar σ = 1 a esta distribución se conoce como
Distribución Normal Estándar.
2. Si no posee estos parámetros (media cero y desviación estándar 1) se procede a llevar
la media al origen y el valor de desviación estándar a 1.
Definición 4.9
Distribución Normal Estándar

La distribución normal con valores en sus parámetros µ = 0 y σ = 1 se llama dis-


tribución normal estándar. Una variable aleatoria que tiene una distribución normal
estándar se denotará por Z. Su función de masa de probabilidad es:
1 z2
f (z) = √ e− 2 Para − ∞ < z < +∞ (4.13)

La gráfica de Z ∼ N (z; 0, 1) se llama curva normal estándar (o z).


R z La función de distribución
acumulativa de la variable aleatoria continua Z es P (Z ≤ z) = −∞ f (y; 0, 1) dy, la cual será
denotada por Φ(z):

168
Además como ya están estandarizados los parámetros de la distribución, y el cálculo de la
integral no es muy cómoda para hacerla analı́ticamente y los resultados siempre son iguales
ya que los parámetros son los mismos, entonces en el Anexo se cuentan con las tablas A.1 y
A.2 de los resultados de de la distribución normal estándar.

Ejemplo 4.15
Determinar las siguientes probabilidades de la distribución normal estándar:

1. P (Z ≤ 1, 25)

2. P (Z > 1, 25)

3. P (Z ≤ −1, 25)

4. P (−0, 38 ≤ Z ≤ 1, 25)

Solución:
1. P (Z1 ≤ 1, 25) = Φ(1, 25), una probabilidad tabulada en la tabla A.2, donde se ubica la
fila 1, 2 y la columna 0, 05, por tanto la probabilidad es 0,8944, ası́ que P (Z ≤ 1, 25) =
0, 8944. La figura que ilustra esta probabilidad es

2. P (Z > 1, 25) = 1 − P (Z ≤ 1, 25) = 1 − Φ(1, 25), el área bajo la curva z a la derecha de


1,25 (un área de cola superior). Por el punto anterior tenemos que Φ(1, 25) = 0, 8944
implica que P (Z > 1, 25) = 1 − 0, 8944 = 0, 1056. Como Z es una variable aleatoria
continua, P (Z ≥ 1, 25) = 0,1056. La figura que ilustra esta probabilidad es

3. P (Z ≤ −1, 25) = Φ(−1, 25), un área de cola inferior. Directamente de la distribución


normal es 0, 1056. Por simetrı́a de la curva z, ésta es la misma respuesta del inciso 2

169
4. P (−0, 38 ≤ Z ≤ 1, 25) es el área bajo la curva normal estándar sobre el intervalo
cuyo punto extremo izquierdo es −0, 38 y cuyo punto extremo derecho es 1, 25. Si
X es una variable aleatoria continua con función de distribución acumulativa F (x),
entonces P (a ≤ X ≤ b) = F (b) − F (a). Por lo tanto, P (−0, 38 ≤ Z ≤ 1, 25) =
Φ(1, 25)−Φ(−0, 38) = 0, 8944−0, 3520 = 0,5424. La figura que ilustra esta probabilidad
es

Ahora el segundo caso es cuando tenemos una variable aleatoria continua que se distribuye
de forma normal, pero que su media es diferente de 0 y su desviación estándar es diferente
de 1, por tanto se procede a realizar la transformación de la variable aleatoria continua para
llegar al caso anterior:

Definición 4.10
Distribución Normal No Estándar

Si X tiene una distribución normal con media µ y desviación estándar σ, entonces se


procede con la transformación:
X −µ
Z= (4.14)
σ
tiene una distribución normal estándar. Por lo tanto
     
a−µ b−µ b−µ a−µ
P (a ≤ X ≤ b) = P ≤Z≤ =Φ −Φ (4.15)
σ σ σ σ

Donde:
 
a−µ
P (X ≤ a) = Φ
σ
 
b−µ
P (X ≥ b) = 1 − Φ
σ

170
Ejemplo 4.16
Una maquina expendedora de una bebida refrescante se programó para servir un pro-
medio de 200 mililitros por vaso con una desviación estándar de 12 mililitros. Si la
cantidad de bebida se justa adecuadamente a una distribución normal, ¿qué porcen-
taje de los vasos contendrá

1. más de 220 mililitros,

2. entre 180 y 190 mililitros,

3. cuántos vasos se derramarán si se utilizan vasos de 225 mililitros para las siguien-
tes 500 bebidas?

Solución:

Se tiene que X se distribuye normal con µ = 200 y σ = 12.

1. Para P (X > 200)


 
X − 200 220 − 200
P (X > 200) = 1 − P (X ≤ 220) = 1 − P ≤
12 12
 
20
=1−P Z < = 1 − Φ(1, 666) = 0, 0477
12

4.77 % por ciento de los vasos contendrán más de 220 mililitros.

2. Para P (180 < X < 190)


 
180 − 200 X − 200 190 − 200
P (180 < X < 190) = P < <
12 12 12
 
20 10
=P − <Z<−
12 12
= P (−1, 666 < Z < −0, 833)
= Φ(−0, 833) − Φ(−1, 666) = 0, 154538.

15.4538 % de los vasos estarán entre entre 180 y 190 mililitros.

3. Para P (X > 225)


 
X − 200 225 − 200
P (X > 225) = 1 − P (X < 225) = 1 − P <
12 12
 
25
=1−P Z < = 1 − Φ(2, 0833) = 0, 018610.
12

1.8610 % de los vasos se derramarán, es decir, aproximadamente 19 vasos.

171
Ejemplo 4.17
La resistencia de una aleación de aluminio se distribuye normalmente con media de 10
gigapascales (GPa) y desviación estándar de 1.4 GPa.

1. ¿Cuál es la probabilidad de que una muestra de esta aleación tenga resistencia


mayor a 12 GPa?

2. Determine el primer cuartil de la resistencia de esta aleación.

3. Determine el 95o. percentil de la resistencia de esta aleación.

Solución

Para este ejercicio se sabe que los parámetros de esta distribución son µ = 10 y σ = 1,4
medidas en GPa. Entonces X ∼ N (10, 1,4).
1. Para dar respuesta a la primera pregunta se quiere saber P (X ≥ 12):
 
X − 10 12 − 10
P (X ≥ 12) = P ≥
1,4 1,4
= P (Z ≥ 0,14) = 1 − P (Z ≤ 0,14)
= 1 − 0, 5557 = 0,4443
Esto quiere decir que la probabilidad de que una muestra de esta aleación tenga resis-
tencia mayor a 12 GPa es del 44.43 %
2. Recuerde que cuando se está hablando de cuartiles, se hace referencia a la división de
los datos en 4 partes igual la cual cada una de las partes representa el 25 %, entonces
análogamente se tiene el mismo caso, la idea es encontrar x tal que P (X ≤ x) = 0,25:
P (X ≤ x) = 0,25
 
X − 10 x − 10
P ≤ = 0,25
1,4 1,4
 
x − 10
P Z≤ = 0,25
1,4
Entonces verificando en la tabla A.1 P (Z ≤ −0,67) ≈ 0,2514 es el dato que mas se
aproxima, entonces, tomando el resultado de la tabla e igualando se tiene:
x − 10
= −0,67
1,4
x − 10 = −0,938
x = −0,938 + 10
x = 9,062
Entonces para tener una probabilidad del 25 % a la resistencia de esta aleación es
cuando se tiene aproximadamente 9.062 GPa.

172
3. Ahora análogamente al punto anterior se requiere encontrar el percentil 95, como se
habı́a comentado, lo percentiles se encargan de dividir los datos en 100, donde cada uno
representa el 1 %, entonces la idea es encontrar x de tal forma que P (X ≤ x) = 0,95:

P (X ≤ x) = 95
 
X − 10 x − 10
P ≤ = 0,95
1,4 1,4
 
x − 10
P Z≤ = 0,95
1,4

En la tabla A.2 se puede observar que un valor aprocimado es 1.64 ya que P (X ≤


1,64) ≈ 0,9495, ası́:

x − 10
= 1,64
1,4
x − 10 = 2,296
x = 12,296

Con ello se tiene que la probabilidad del 95 % a la resistencia de esta aleación es cuando
se tiene aproximadamente 12.296 GPa.

Ejercicio 4.1
Para asociarse mas con la tabla A.1 y A.2, Si X es una variable aleatoria continua
normalmente distribuida, con una media de 6 y una varianza de 25. Encontrar:

1. P (6 ≤ X ≤ 12) 5. P (|X − 6| < 5)

2. P (0 ≤ X ≤ 8) 6. P (|X − 6| < 10)

3. P (−2 < X ≤ 0) 7. P (|X − 6| < 15)

4. P (X > 21) 8. P (|X − 6| < 12,41)

4.5. Distribución Exponencial


La familia de distribuciones exponenciales proporciona modelos de probabilidad que son muy
utilizados en ingenierı́a y ciencias. Como por ejemplo responder problemas relacionados con
listas de espera, tiempo de atención o tiempo de respuesta, etc. De una forma general la
Distribución Exponencial se encarga de modelar los tiempos de espera para la ocurrencia de
cierto evento.

Algo importante que se debe aclarar de esta distribución, es que por tratarse de manejo
de tiempo, el parámetro de interés es siempre positivo, además de no ser una distribución

173
simétrica como la distribución normal. Entonces para comenzar, se debe definir su función
de masa de probabilidad.

Definición 4.11
Función de masa de probabilidad de la Distribución Exponencial

Se dice que X tiene una distribución exponencial con parámetro λ (λ > 0), la función
de masa de probabilidad de X es:
(
λe−λx Si x ≥ 0
f (x; λ) = (4.16)
0 En otro caso

Se puede garantizar fácilmente que f (x) ≥ 0, solo falta garantizar de que su integral es igual
a 1:
Z ∞ Z ∞
f (x; λ) dx = λe−λx dx u = −λx du = −λdx
−∞ 0

1
= − λx = 0 + 1 = 1
e 0
Como es normal, es importante tener un boseto de como es el comportamiento de la distri-
bución dependiendo de la variación de parámetro de interés; En el caso de la distribución
exponencial, el parámetro de interés es λ > 0.

Figura 4.9: Distribución Exponencial variando su parámetro λ

Además se sabe que se tiene que definir la función de probabilidad acumulada para poder

174
encontrar las probabilidades mucho mas fácil, entonces:

Z Z x x
F (x) = xf (y; λ) dy = λe−λy dy = − e−λy 0 = 1 − e−λx
−∞ 0

Definición 4.12
Función de probabilidad acumulada de la Distribución Exponencial

Sea X una variable aleatoria continua, con función de masa de probabilidad f (x; λ) y
λ > 0, entonces su función de probabilidad acumulada es:
(
1 − e−λx Si x ≥ 0
F (x; λ) = (4.17)
0 Si x < 0

También es muy importante conocer cada una de los comportamientos de la variable aleatoria
X ∼ Exp(λ):

Propiedad 4.7
Valor esperado y varianza de la distribución exponencial La media y la va-
rianza de una variable aleatoria X que tiene la distribución exponencial f (x; λ) son
1
µx = E[X] = (4.18)
λ
1
σ 2 = V (X) = 2 (4.19)
λ

Se puede mostrar estos resultados fácilmente usando la definición del valor esperado de una
variable aleatoria continua:

Z ∞
E[X] = xf (x; λ) dx
Z∞∞
= xλe−λx dx Tomando u = λx y dv = e−λx dx
0
Z ∞
x ∞
= − λx + e−λx dx
e 0 0

x 1 1 k
= − λx − λx = Recuerde → 0 Para k ∈ R
e λe 0 λ ∞

Del mismo modo se puede encontrar E[X 2 ], entonces se deja al lector.

175
Ejercicio 4.2
Demostrar que la varianza de una variable aleatoria continua que se distribuye de
forma exponencial, con parámetro λ > 0, es:
1
σ 2 = V (X) =
λ2
Recuerde que:
V (X) = E[X 2 ] − (E[X])2

Ejemplo 4.18
El tiempo durante el cual las baterı́as para un teléfono celular trabajan en forma
efectiva hasta que fallan se distribuyen según un modelo exponencial, con un tiempo
promedio de falla de 500 horas.

1. ¿Cual es su función de masa de probabilidad?

2. Calcular la probabilidad de una baterı́a funciones por más de 600 horas.

3. Si una baterı́a ha trabajado 350 horas, ¿Cuál es la probabilidad?

Solución:

X es la variable aleatoria continua con distribución exponencial que representa el tiempo


que dura la baterı́a hasta la falla (en horas), entonces como se sabe que el tiempo promedio
de falla es de 500 horas, haciendo uso de la propiedad 4.18
1
E[X] = = 500
λ
1
⇒λ=
500
1. Entonces su función de masa de probabilidad está dada por:
  ( 1 −x
1 e 500 Si x ≥ 0
f x; = 500
500 0 En otro caso
Además también se habı́a trabajado en la función de probabilidad acumulada de la
distribución exponencial, entonces:
  (
1 0 Si x < 0
F x; = 1
500 1 − e− 500 x Si x ≥ 0

2. La probabilidad de una baterı́a funciones por más de 600 horas es


P (X > 600) = 1 − P (X ≤ 600)
= 1 − F (600)
 600

= 1 − 1 − e− 500 = 0, 301

176
3. Si la baterı́a ya trabajo 350 horas, la probabilidad de que trabaje más de 650 es
P (X > 650)
P (X > 650|X > 350) =
P (X > 350)
1 − F (650)
=
1 − F (350)
 650

1 − e− 500
=1−  350
 = 0, 549
1 − e− 500

Algo importante con las variables aleatorias en general es que el concepto de probabi-
lidad condicional también es aplicado.
Ejemplo 4.19
Un profesor atiende a los estudiantes durante las horas normales de despacho. El
tiempo que dedica a los estudiantes sigue una distribución exponencial que tiene una
media de 10 minutos.

1. ¿Cual es la función de masa de probabilidad y la función de probabilidad acu-


mulada?

2. Halle la probabilidad de que un estudiante dado pase menos de 20 minutos con


el profesor.

3. Halle la probabilidad de que un estudiante dado pase más de 5 minutos con el


profesor.

4. Halle la probabilidad de que un estudiante dado pase entre 10 y 15 minutos con


el profesor.

Solución

Como se habı́a trabajado en el ejercicio anterior, se tiene por la propiedad de la esperanza


de la distribución exponencial X ∼ Exp(10):
1 1
µ= −→ λ =
λ 10
1. Ya se que se sabe cual es el parámetro de interés de la distribución, se puede encontrar
la función de masa de probabilidad:
  (1 −x
1 e 10 Si x ≥ 0
f x; = 10
10 0 En otro caso

De igual forma se tiene la función de probabilidad acumulada:


  (
1 0 Si < 0
F x; = − x
10 1 − e 10 Si x ≥ 0

177
2. Ahora se requiere hallar la probabilidad de:
20
P (X < 20) = F (20) = 1 − e− 10 = 1 − 0,135 = 0,865

Entonces la probabilidad de que el estudiante pase menos de 20 minutos con el profesor


es del 86.5 %.

3. En este item preguntan la probabilidad de:


5
P (X > 5) = 1 − P (X < 5) = 1 − F (5) = 1 − (1 − e− 10 ) = 1 − (1 − 0,607) = 0,607

La probabilidad de que el estudiante pase mas de 5 minutos con el profesor es del


60.7 %.

4. Ahora lo que se debe realizar es encontrar la probabilidad de:

P (10 < X < 15) = P (X < 15) − P (X − 10)


15 10
= F (15) − F (10) = (1 − e− 10 ) − (1 − e− 10 )
= −223 + 0,368 = 0,145

Ası́ se tiene que la probailidad de que el estudiante demore con el profesor en un


intervalo de tiempo de 10 a 15 minutos es del 14.5 %.

Ejemplo 4.20

Sea X la distancia (m) que un animal recorre desde el sitio de su nacimiento hasta
el primer territorio vacante que encuentra. Suponga que ratas canguro con etiqueta
en la cola, X tiene una distribución exponencial con parámetro λ = 0,01386 (como lo
sugiere el artı́culo “Competition and Dispersal from Multiple Nests”, Ecology, 1997:
873-883).

1. ¿Cuál es la probabilidad de que la distancia sea a lo más de 100 m? ¿Cuándo a


lo más de 200? ¿Entre 100 y 200 m?

2. ¿Cuál es la probabilidad de que la distancia exceda la distancia media por más


de dos desviaciones estándar?

3. ¿Cuál es el valor de la distancia mediana?

Solución

Se tiene que la variable aleatoria continua X, se distribuye de forma exponencial con parámtro
λ = 0,01386, enconteces se sabe que la función de masa de probabilidad es:
(
0,01386 e−0,01386x Si x ≥ 0
f (x; 0,01386) =
0 En otro caso
Y la función de probabilidad acumulada es:

178
(
1 − e−0,01386x Si x ≥ 0
F (x; 0,01386) =
0 Si x < 0
Entonces se puede comenzar a responder cada una de las preguntas propuestas en el ejercicio.

1. ¿Cuál es la probabilidad de que la distancia sea a lo más de 100 m? ¿Cuándo a lo más


de 200? ¿Entre 100 y 200 m?

Primero se encontrará P (X < 100)

F (100; 0,01386) = 1 − e−0,01386(100) = 1 − 0,25 = 0,75

Entonces la probabilidad que a lo más sea de 100 m es del 75 %.

Ahora se sigue con P (X < 200)

F (200; 0,01386) = 1 − e−0,01386(200) = 1 − 0,06 = 0,94

La probabilidad de que a lo más sea de 200 m es del 94 %.

Ahora se necesita saber cual es la probabilidad de P (100 < X < 200)

P (100 < X < 200) = F (200; 0,01386) − f (100; 0,01386) = 0,94 − 0,75 = 0,19

La probabilidad de que la distancia esté entre 100 m y 200 m es del 19 %.

2. Para poder responder esta pregunta se necesitan conocer cual es el valor de la media
y la desviación estándar de esta variable aleatoria, entonces por la Propiedad 4.7, se
tiene:
1
µ= = 72,15
0,01386
1
σ2 = = 5205,63
0,013862

Además un resultado importante para las variables aleatorias continuas que se dis-
tribuyen de forma exponencial, σ = µ. Entonces Lo que se necesita encontrar es
P (X > µ + 2σ). Entonces:

P (X > µ + 2σ) = P (X > 72,15 + 2(72,15)) = P (X > 216,45)


= 1 − P (X < 216,45) = 1 − 1 + e−0,01386(216,45) = 0,05

Ası́ la probabilidad de que la distancia exceda la media mas dos desviaciones extándar
es del 5 %.

179
3. Recuerde que la mediana representa el 50 % de los datos o el percentil 50 o el cuartil
2, entonces:

P (X < x) = 0,5
1 − e−0,01386 x = 0,5
e−0,01386 x = 0,5
−0,01386x = ln(0,5)
ln 0,5
x=
−0,01386
x = 50,01

Entonces tenemos una distancia mediana de 50 m.

4.5.1. Distribución Exponencial y proceso de Poisson


Se ha hablado que la Distribución Exponencial generalmente se usa para modelar el tiempo
de espera de un evento. Pero esto tiene una gran afinidad con un proceso de Poisson ya
que la Distribución de Poisson realiza el conteo discreto de eventos con un parámetro λ que
representa un numero medio de eventos en un intervalo de tiempo t.

Es decir, cuando X ∼ P (λt). La conexión entre las distribuciones es la siguiente:

Definición 4.13
Si los eventos siguen un proceso de Poisson con un parámetro de razón λ. y su T
representa el tiempo de espera desde cualquier punto inicial hasta el próximo evento,
entonces T ∼ Exp(λ)

Ejemplo 4.21
Suponga que se reciben llamadas durante las 24 horas en una “lı́nea de emergencia
para prevención del suicidio” de acuerdo con un proceso de Poisson a razón λ = 0, 5
llamadas por dı́a. Entonces el número de dı́as X entre llamadas sucesivas tiene una
distribución exponencial con valor de parámetro 0,5.

Solución:

La probabilidad de que transcurran más de dos dı́as entre llamadas es

P (X > 2) = 1 − P (X ≤ 2)
= 1 − F (0, 5)
= 1 − (1 − e−(0,5)(2) )
= 0, 368

El tiempo esperado entre llamadas sucesivas es 1/0,5 = 2 dı́as.

180
4.6. Distribución Gamma
La distribución gamma es una distribución adecuada para modelizar el comportamiento de
variables aleatorias continuas con asimetrı́a positiva. Es decir, variables que presentan una
mayor densidad de sucesos a la izquierda de la media que a la derecha (es una extensión de
la Distribución exponencial).

La Distribución Gamma se define a partir de la función gamma, que se estudia en muchas


áreas de las matemáticas, por ello su nombre.

Definición 4.14
Función gamma

Con α > 0, la función gamma Γ(α) se define como:


Z ∞
Γ(α) = xα−1 e−x dx (4.20)
0

Esta función se puede ver un poco complicada, pero en realidad se necesitan algunos resul-
tados para facilitar su manejo y dar resultados rápidos.

Propiedad 4.8
Las propiedades más importantes de la función gamma son las siguientes:

1. Para α = 1: Z +∞
Γ(1) = e−x dx = 1 (4.21)
0

2. Para cualquier α > 1:


Γ(α) = (α − 1)Γ(α − 1) (4.22)

3. Para un α = n entero positivo, entonces:

Γ(n) = (n − 1)! (4.23)

4. Por último se tiene para α = 1/2


 
1
Γ = π (4.24)
2

Para mostrar la primera propiedad se puede realizar la integral:


Z ∞ Z ∞
1−1 −x
Γ(1) = x e dx = e−x dx − x = u → dx = −du
0 0

1 1 1
= − x = − ∞ + 0 = 0 + 1 = 1
e 0 e e

181
Ahora se tiene que para cualquier α > 1:
Z ∞
Γ(α) = xα−1 e−x dx Tomando u = xα−1 dv = e−x dx
0
∞ Z ∞
xα−1
= − x +(α − 1) xα−2 e−x dx
e 0
| {z } |0 {z }
0 Γ(α)−1

= (α − 1)Γ(α − 1)

Para el tercer punto como se tiene α = n donde n es un entero positivo y la propiedad


anterior se tiene:

Γ(n) = (n − 1)Γ(n − 1) Por la propiedad 4.22


= (n − 1)[(n − 2)Γ(n − 2)]
= (n − 1)(n − 2) · · · (1)
| {z }
n−1 veces

= (n − 1)!

Para la última propiedad no se realizará la demostración ya que se necesitan varios resulta-


dos aplicados de matemáticas en varias variables.

Entonces para contruir la función de masa de probabilidad de la distribución Gamma, se


necesita normalizar la función gamma de la siguiente forma:

Notas Importantes 4.4

De acuerdo con la expresión (4.20):


 α−1 −x
x e Si x ≥ 0
f (x; α) = Γ(α) (4.25)
0 En otro caso

entonces:

1. f (x; α) ≥ 0
R +∞ Γ(α)
2. 0 f (x; α) dx = Γ(α)
=1

Ası́ f (x; α) satisface las dos propiedades básicas de una función de masa de probabili-
dad.

Con la normalización y debido a que cumplen con las propiedades de que efectivamente
corresponde a una función de masa de probabilidad, entonces se procede a definir la Función
de Masa de Probabilidad para la distribución Gamma:

182
Definición 4.15
Función de masa de la Distribución Gamma
Una variable aleatoria continua X tiene una distribución gamma con función de masa
de probabilidad:

 1 xα−1 e− βx Si x ≥ 0

f (x; α, β) = β α Γ(α) (4.26)


0 En otro caso

Donde los parámetros α > 0 y β > 0.

La distribución Gamma estándar se tiene cuando β = 1.

También se debe conocer su valor esperado y varianza para completar los valores principales
de una distribución.

Propiedad 4.9
Valor Esperado y Varianza de la Distibución Gamma
La media o valor esperado y la varianza de una variable aleatoria X que tiene una
distribución gamma f (x; α, β) son:

µX = E[X] = αβ (4.27)
σ 2 = V ar[X] = αβ 2 (4.28)

Visualmente la distribución Gamma, variando los parámetros α y β se pueden ver de la


siguiente forma:

183
Ejemplo 4.22

En cierta ciudad de colombia, el consumo diario de agua (en millones de litros) sigue
aproximadamente una distribución Gamma con α = 2 y β = 3, 9. Si la capacidad
diaria de dicha ciudad es de 8,9 millones de litros de agua, calcular:

1. ¿cúal es la función de masa de probabilidad asociada a la variable aleatoria X?

2. ¿cuál es la probabilidad de que en cualquier dı́a dado el suministro de agua sea


insuficiente?

3. ¿Cuál es el valor esperado de la variable aleatoria X?

4. Realice la grafica de la función de masa asociada.

5. ¿Cúal es la probabilidad del intervalo P (µ − σ ≤ X ≤ µ + σ)? Interprete su


resultado. Se puede ayudar con la gráfica del punto anterior.

Solución:

1. Si X es la variable aleatoria que representa el consumo diario de agua, entonces de la


información dada se tiene que X tiene distribución gamma con α = 2 y β = 3, 9. En
consecuencia la función de masa de probabilidad es:

1

x

2
x2−1 e− 3,9 Si x ≥ 0
f (x; 2, 3,9) = (3,9) Γ(2)
0 Si x < 0

2. Ahora se sabe que el suministro de agua en un dı́a cualquiera es de 8.9 millones de


litros, entonces se debe calcular la probabilidad de que se sobrepase este valor, es decir
P (X > 8,9):

P (X > 8, 9) = 1 − P (X ≤ 8, 9)
Z 8,9
1 x
− 3,9
=1− xe
(3, 9)2 Γ(2) 0
Primero se calcula la componentes de esta integral:
Γ(2) = (2 − 1)(2 − 1)!
= (1)(1) = 1
Ahora:
Z 8,9 8,9 Z 8,9
x x x
− 3,9 − 3,9
xe dx = −3,9xe + 3,9 e− 3,9 dx
0 0 0
x x
8,9
− 3,9 2 − 3,9
= −3,9xe − (3,9) e
0
= −(3,9)(8,9)e−2,28 − (3,9)2 e−2,28 + (3,9)2 = 10,11

184
Asi completando la función de masa de probabilidad:
P (X > 8,9) = 1 − P (X < 8,9)
= 1 − (0,07)(10,10) = 1 − 0,66 = 0,34
Ası́ se puede decir que con un 34 % de probabilidad cualquier dı́a el suministro de agua
es insuficiente.
3. Por la propiedad 4.9 se tiene:
µ = E[X] = (2)(3,9) = 7,8
Con ello tenemos que se espera un consumo de agua diario en cierta ciudad de Colombia
de 7.8 Millones de Litros de agua.
4. Como ya se cuentan con todos los parámetros conocidos de la distribución de puede
proceder con la gráfica de la variable X:

Figura 4.10: Distribución Gamma de la variable aleatoria X

5. Para calcular el intervalo de interés se necesita conocer la varianza de la distribución,


entonces:
σ 2 = αβ 2 = (2)(3,9)2 = 30,42
p
σ = 30,42 = 5,515

Entonces se tiene la probabilidad del intervalo:


P (µ − σ ≤ X ≤ µ + σ) = P (7,8 − 5,51 ≤ X ≤ 7,8 + 5,51)
= P (X ≤ 13,31) − P (X ≤ 2,29)
= 0,85 − 0,12 = 0,74

185
Se tiene que desde la media hasta una desviación estándar se tiene una probabilidad
de 74 % de que haya un consumo desde 2.29 y 13.31 millones de litros de agua. Donde
se puede observar en la siguiente gráfica:

Figura 4.11: Distribución Gamma de la variable aleatoria X para (µ − σ, µ + σ)

Ejemplo 4.23
Suponga que el tiempo empleado por un estudiante seleccionado al azar que utiliza
una terminal conectada a un sistema de computadoras de tiempo compartido tiene
una distribución gama con media de 20 min y varianza de 80 min2 .

1. ¿Cuáles son los valores de α y β?

2. ¿Cuál es la probabilidad de que un estudiante utilice la terminal durante entre


20 y 40 min?

Solución

1. Para encontrar los parámetros de la distribución Gamma, se hace uso de µ y σ 2 ,


entonces:

µ = αβ = 20
σ 2 = αβ 2 = 80

Entonces el ejercicio se reduce a resolver el sistema de ecuaciones no lineal, con ello

186
tomando de la primera ecuación α = 20/β y sustituyendo en la segunda ecuación:
αβ 2 = 80
20β 2
= 80
β
β=4
Ası́ se tiene que que los parámetros son α = 5 y β = 4
2. Por el punto anterior se tiene que la función de masa de probabilidad es:
 1 x4 e− x4 Si x ≥ 0

f (x; 5, 4) = 45 Γ(5)
0 En otro caso

Ası́:
P (20 ≤ X ≤ 40) = P (X ≤ 40) − P (X ≤ 20)
= 0,97 − 0,56 = 0,41
Donde se puede observar:

Figura 4.12: Distribución Gamma de la variable aleatoria X

4.7. Otras distribuciones


Entre la familia de las distribuciones existen muchas situaciones prácticas en las cuales el
experimento que el investigador posee no se adapta a las ya estudiadas, entonces muchos
investigadores han desarrollado otras distribuciones que se adaptan a sus situaciones que a
través del tiempo han tenido una gran utilidad para experimentos especificos.
En esta sección por el momento se mostratá su estructura para que el lector pueda cono-
cer su existencia, pero por el momento no se hará un tratamiento detallado como en las
distribuciones anteriores.

187
4.7.1. Distribución Weibull
El fı́sico sueco Waloddi Weibull introdujo la familia de distribuciones Weibull en 1939; su
artı́culo de 1951 “A Statistical Distribution Function of Wide Applicability” (J. Applied
Mechanics, vol. 18: 293-297).

Se dice que una variable aleatoria X que posee una Distribución Weibull con parámetros
α > 0 y β > 0, donde sus componentes son:
Función de masa de probabilidad.
   α 
 α xα−1 exp − x Para x ≥ 0
f (x; α, β) = β α β (4.29)
0 Para x < 0

Funcion de probabilidad acumulada:



0   α  Para x < 0
F (x; α, β) = x (4.30)
1 − exp − Para x ≥ 0
β
Valor esperado y varianza de la variable aleatoria continua X que tiene una distribución
Weibull:
 
1
µX = E[X] = βΓ + (4.31)
α
(     2 )
2 2 1
σX = V (X) = β 2 Γ 1 + − Γ 1+ (4.32)
α α

Gráficamente se puede ver representado la distribución Weibull variando sus parámetros:

188
4.7.2. Distribución Lognormal
la distribución normal logarı́tmica es una distribución de probabilidad continua de una va-
riable aleatoria cuyo logaritmo está normalmente distribuido. Es decir, si X es una variable
aleatoria con una distribución normal, entonces exp(X) tiene una distribución log-normal.Por
lo general la distribución lognormal se usa para el análisis de fiabilidad y en aplicaciones fi-
nancieras, como modelar el comportamiento de las acciones.

Los componentes de la distribución Lognormal son:


Función de masa de probabilidad:

(ln(x) − µ)2
  
 √ 1
exp − Para x ≥ 0
f (x; µ, σ) = σx 2π 2σ 2 (4.33)
0 Para x < 0

Función de probabilidad acumulada.


 
ln(x) − µ
F (x; µ, σ) = Φ Para x > 0 (4.34)
σ

El valor esperado y varianza de la variable aleatoria X que tiene una distribución


Lognormal:

σ2
 
E[X] = exp µ + (4.35)
2
V (X) = exp(2µ + σ 2 )(exp(σ 2 ) − 1) (4.36)

Hay que tener cuidado aquı́; los parámetros µ y σ no son la media y la desviación estándar de
X sino de ln(X). Graficamente se puede ver representado la distribución Lognormal variando
sus parámetros:

189
4.7.3. Distribución Beta
De todas las familias de distribuciones continuas estudiadas hasta el momento, excepto la
distribución uniforme, tienen densidad positiva a lo largo de un intervalo infinito (aunque
por lo general la función de densidad se reduce con rapidez a cero más allá de unas cuantas
desviaciones estándar de la media). La Distribución Beta proporciona densidad positiva
sólo para X en un intervalo de longitud finita.

Como en la distribución Gamma, se posee la función beta como:


Z 1
B(α, β) = xα−1 (1 − x)β−1 dx (4.37)
0
Donde esta función posee las siguientes propiedades:

1. B(α, β) = B(β, α)
Γ(α)Γ(β)
2. B(α, β) =
Γ(α + β)
Con ello los componentes de la Distribución beta son:

Función de masa de probabilidad:

xα− (1 − x)β−1
f (x; α, β) = Para 0 < x < 1 (4.38)
B(α, β)

Función de probabilidad acumulada:

B(x; α, β)
F (x, α, β) = (4.39)
B(α, β)

El valor esperado y varianza de la variable aleatoria continua X que tiene una distri-
bución Beta:
α
µ = E[X] = (4.40)
α+β
αβ
σ 2 = V (X) = (4.41)
(α + β + 1)(α + β)2

Graficamente se puede ver representado la distribución Beta variando sus parámetros:

190
4.8. Ejercicios
1. Sea X la cantidad de espacio ocupado por un artı́culo colocado en un contenedor de
un pie3 . La función de masa de probabilidad de X es:
(
90x8 (1 − x) Para 0 < x < 1
f (x) = (4.42)
0 En otro caso

a) Grafique la función de densidad de probabilidad. Luego obtenga la función de


distribución acumulativa de X y grafiquela.
b) ¿Cúal es P (X ≤ 0,5)?
c) ¿Cúal es P (0,25 ≤ X ≤ 0,5)?
d ) ¿Cúal es el percentil 75 de la distribución?
e) Calcular E[X] y σ.
2. Una familia de funciones de densidad de probabilidad que ha sido utilizada para apro-
ximar la distribución del ingreso, el tamaño de la población de una ciudad y el tamaño
de firmas es la familia Pareto. La familia tiene dos parámetros, k y θ, ambos > 0 y la
función de masa de probabilidad es:
 k
 kθ
Si x ≥ θ
f (x; k, θ) = xk+1
0 Si x < θ
a) Verifique en es una función de masa de probabilidad.
b) Encuentre su función de probabilidad acumulada.
c) Encuentre el valor esperado, varianza y desviación estándar de una variable alea-
toria continua X que posee función de masa de probabilidad de la familia Pareto
para k ̸= 1.

191
d ) ¿Cúal es el valor esperado de la variable aleatoria X que tiene una función de
masa de probabilidad asociada a la familia de Pareto cuando k = 1?

3. Sea X una variable aleatoria continua con función de distribución acumulada:



0    Si x ≤ 0


 x 4
F (x) = 1 + ln Si 0 < x ≤ 4 (4.43)

 4 x

1 Si x > 4

Determinar:

a) P (X ≤ 1)
b) P (1 ≤ X ≤ 3)

4. La concentración de un contaminante se distribuye uniformemente en el intervalo de 0


a 30 millones. Una concentración se considera tóxica a partir de 8 millones. Calcular:

a) Probabilidad de que al tomar una muestra la concentración resulte tóxica.


b) Concentración media y varianza.
c) Probabilidad de que la concentración sea menor de 8 millones

5. Realizar el Ejercicio 4.1.

6. En cada caso, determine el valor de la constante c que hace que el enunciado de


probabilidad sea correcto.

a) Φ(c) = 0,9838
b) P (0 ≤ Z ≤ c) = 0,291
c) P (c ≤ Z) = 0,121
d ) P (−c ≤ Z ≤ c) = 0,668

7. Un técnico realiza un test de 100 ı́tems a unos 200 opositores. Suponiendo que las
puntuaciones X obtenidas por los opositores siguen una distribución normal de media
65 puntos y desviación tı́pica 15 puntos. Se pide obtener:

a) P (X ≥ 70) d ) P (40 ≤ X80) g) P (|X − 65| ≤ 20)


b) P (X ≤ 80) e) P (X ≥ 36)
c) P (X ≥ 56) f ) P (|X − 65| ≥ 20)

8. La fuerza de cierto material X posee una función de distribución X = ey donde Y


se distribuye normalmente Y ∼ N (10, 1). Calcular P (10000 ≤ X ≤ 20000). Nota: al
realizar el tratamiento de la probabilidad se puede ver que para cualquier x, F (x) =
P (X ≤ x) = P (eY ≤ x) = P (Y ≤ ln(x))

9. Realizar el Ejercicio 4.2.

192
10. El tiempo de vida media de un marcapasos sigue una distribución exponencial con
media 15 años. Se pide:

a) Probabilidad de que a una persona a la que se ha implantado un marcapasos se


le deba de implantar otro antes de 20 años.
b) Si el marcapasos lleva funcionando correctamente 5 años en un paciente, ¿cuál es
la probabilidad de que haya de cambiarlo antes de 25 años?

11. El tiempo de revisión del motor de un avión sigue aproximadamente una distribución
exponencial, con media 22 minutos.

a) Hallar la probabilidad de que el tiempo de la revisión sea menor de 10 minutos.


b) El costo de la revisión es de 200 dólares por cada media hora o fracción. ¿Cuál es
la probabilidad de que una revisión cueste 400 dólares?
c) Para efectuar una programación sobre las revisiones del motor, ¿cuánto tiempo
se debe asignar a cada revisión para que la probabilidad de que cualquier tiempo
de revisión mayor que el tiempo asignado sea solo de 0,1?

12. Si un componente eléctrico falla una vez cada 10 horas, ¿cuál es el tiempo medio
que transcurre hasta que fallan dos componentes? ¿Cuál es la probabilidad de que
transcurran 15 horas antes de que fallen los dos componentes?

13. En una ciudad se observa que el consumo diario de energı́a (en millones de kilowatt-
hora) es una variable aleatoria que sigue una distribución gamma con parámetros α = 3
y β = 2. Si la planta de energı́a que suministra a la ciudad tiene una capacidad diaria
de generar un máximo de 15, ¿cuál es la probabilidad de que haya un dı́a donde no se
pueda satisfacer la demanda?

14. Si X tiene una distribución gamma estándar con α = 7 evalúe lo siguiente:

a) P (X ≤ 5)
b) P (X < 5)
c) P (X > 8)
d ) P (3 ≤ X ≤ 8)
e) P (3 < X < 8)
f ) P (X < 4 o X > 6)

193
194
Vectores Aleatorios
5
En la vida diaria existen situaciones experimentales en las cuales al investigador le interesa
analizar más de una variable aleatoria. Para seguir un orden adecuado se hará el trabajo
para dos variables aleatorias tanto continuas como discretas, posteriormente se extiende a n
variables aleatorias.

La función de masa de probabilidad de una sola variable aleatoria discreta o continua X


especifica cuánta probabilidad existe en cada valor posible de X. Ahora la función masa
de probabilidad conjunta (es decir de dos variables aleatorias discretas o continuas X e Y )
describe cuánta probabilidad existe en cada par posible de valores (o par ordenado) (x, y).

5.1. Función de masa de probabilidad conjunta


Definición 5.1
Función de masa de probabilidad conjunta de dos variables aleatorias
discretas X y Y

Sean X e Y dos variables aleatorias discretas definidas en el espacio muestral Ω de un


experimento. f (x, y) se define como:

f (x, y) = P (X = x, Y = y)
Debe cumplirse que:

1. f (x, y) ≥ 0
P P
2. x y f (x, y) = 1
PP
3. Para un evento A ∈ Ω, P ((X, Y ) ∈ A) = (x,y)∈A f (x, y)

195
Ejemplo 5.1
En el lanzamiento de dos dados equilibrados, para cada uno de los 36 resultados se
sabe que se tiene una probabilidad de 1/36, sea X el resultado más pequeño y Y el
más alto de los dados. Calcular la función de masa de probabilidad conjunta.

Solución

Para entender un poco mejor este ejercicio, suponga que al lanzar los dos dados se tiene un
resultado de (3, 2), entonces los valores observados son X = 2 (el valor más bajo) y Y = 3 (el
valor más alto). Este caso también hubiera podido ocurrir si al lanzar los dados se hubiera
obtenido el resultado (2, 3)

Entonces, si se quisiera calcular la probabilidad del evento {X = 2, Y = 3}, serı́a 2/36 ya que
solo tenemos dos posibilidades para obtener este resultado. ¿Existe alguna otra posibilidad?

Ahora piense en los resultados que se tienen par, es decir, (i, i) donde i ∈ 1, . . . , 6 en este
caso se tiene el evento {X = i, Y = i} y solo se tiene una única vez, entonces su probabilidad
serı́a de 1/36.

Entonces con esto se tienen dos opciones, o que el resultado de los dos dados sean iguales
o que X < Y , entonces ası́ se puede plantear la siguiente función de masa de probabilidad
conjunta: (
1/36 Si 1 ≤ x = y ≤ 6
f (x, y) =
2/36 Si 1 ≤ x < y ≤ 6
en muchas ocasiones se suele usar tabla de distribución conjunta, donde los resultados
se pueden resumir en una tabla para poder visualizar mucho mejor.

Si se toma los resultados del ejemplo 5.1, se tiene:

Y
1 2 3 4 5 6
X
1 1/36 2/36 2/36 2/36 2/36 2/36
2 1/36 2/36 2/36 2/36 2/36
3 1/36 2/36 2/36 2/36
4 1/36 2/36 2/36
5 1/36 2/36
5 1/36
Tabla 5.1: Tabla de distribución Conjunta Ejemplo 5.1

Con ello ya se puede calcular la probabilidad de cualquier combinación de parejas ordenadas


(x, y) que se requiera.

196
Para mejorar el concepto se realizará el siguiente Ejemplo:

Ejemplo 5.2
Una gasolinera cuenta tanto con islas de autoservicio como de servicio completo. En
cada isla, hay una sola bomba de gasolina con dos mangueras. Sea X el número de
mangueras utilizadas en la isla de autoservicio y en un tiempo particular y sea Y el
número de mangueras en uso en la isla de servicio completo en ese tiempo. La función
masa de probabilidad conjunta de X y Y se puede ver en la tabla 5.2.
Calcular:

1. La probabilidad P (X = 1, Y = 1)

2. La probabilidad P (X ≤ 1, Y ≤ 1)

Y
0 1 2
X
0 0.10 0.04 0.02
1 0.08 0.20 0.06
2 0.06 0.14 0.30
Tabla 5.2: Tabla de distribución Conjunta Ejemplo 5.2

Solución:
1. La probabilidad P (X = 1, Y = 1) es:
P (X = 1, Y = 1) = 0,20
O lo que se podrı́a verificar mucho mas fácil en la tabla, cuando X = 1 y Y = 1:

Y
0 1 2
X
0 0.10 0.04 0.02
1 0.08 0.20 0.06
2 0.06 0.14 0.30

2. Para encontrar la probabilidad P (X ≤ 1, Y ≤ 1) se puede pensar en fijar una variable y


variar la otra, es decir, si se fija X = 1 entonces la otra variable tendrı́a valor Y = 0 y 1,
con ello entonces los casos posibles para encontrar dicha probabilidad es:
P (X ≤ 1, Y ≤ 1) = P (X = 0, Y = 0) + P (X = 0, Y = 1)+
P (X = 1, Y = 0) + P (X = 1, Y = 1)
= 0,10 + 0,04 + 0,08 + 0,20
= 0,42

197
Y
0 1 2
X
0 0.10 0.04 0.02
1 0.08 0.20 0.06
2 0.06 0.14 0.30

O se puede verificar visualmente en la tabla:


Definición 5.2
Función de densidad de probabilidad conjunta de dos variables aleatorias
continuas X y Y

Sean X y Y dos variables aleatorias continuas X y Y , su función de densidad conjunta


es una función f (x, y) que satisface:

1. f (x, y) ≥ 0
Z ∞Z ∞
2. f (x, y) dxdy = 1
−∞ −∞

Recordemos que una variable aleatoria se dice continua cuando existe una función de
densidad que permite calcular la probabilidad de que X este en A integrando sobre A
la función de densidad:
Z Z
P [(X, Y ) ∈ A] = f (x, y) dxdy (5.1)
A

En particular sirve para calcular cualquier probabilidad,


Z bZ d
P [(X, Y ) ∈ A] = P (a ≤ X ≤ b, c ≤ Y ≤ d) = f (x, y) dxdy (5.2)
a c

Nota: El orden de integración no afecta el cálculo, siempre que los lı́mites de integra-
ción sean los correctos

Ejemplo 5.3

Sea f (x, y) = x + y, donde 0 ≤ x ≤ 1, 0 ≤ y ≤ 1. Comprobar que f (x, y) es función


de densidad.

Solución: Aplicando la definición se tiene que:


Z ∞Z ∞ Z 1Z 1 1
1
x2
Z 
f (x, y) dxdy = (x + y) dxdy = + yx dy
−∞ −∞ 0 0 0 2 0
Z 1 2 1
  y 
1 x y
= + y dy = + = 1.
0 2 2 2 0

198
Ejemplo 5.4

Sea (X, Y ) una variable aleatoria bidimensional con función de densidad:


 1 si |y| < x; 0 < x < 1
f (x, y) =
0 en otro caso

1. Comprobar que f (x, y) es función de densidad.


   
1 1 1 1
2. Hallar las probabilidades: P X < ; Y < 0 y ;P X > ; − < Y <
2 2 2 2

Solución:
Z ∞ Z ∞
1. f (x, y) es función de densidad si se verifica: f (x, y) dxdy = 1, entonces to-
−∞ −∞
mando la función del ejemplo se tiene:

Z ∞ Z ∞ Z 1 Z x
f (x, y) dxdy = dxdy
−∞ −∞ 0 −x
Z 1 Z x  Z 1
= dy dx = [y]x−x dx
0 −x 0
Z 1
= 2x dx = [x2 ]10 = 1
0

en consecuencia, f (x, y) es función de densidad.

Figura 5.1: Gráfica de la función de densidad. Ejemplo 5.4

199
2. Probabilidades:
Por la definición de la función de densidad, la función valor absoluto deuna recta es una

1
función par como se muestra en la figura 5.1, por tanto, para hallar P X < ; Y < 0
2
se toma el intervalo de −x hasta 0 para los valores de Y ,

  Z 1/2 Z 0
1
P X < ;Y < 0 = f (x, y) dxdy
2 0 −x
Z 1/2 Z 0 
= dy dx
0 −x
Z 1/2 Z 1/2
= [y]0−x dx = x dx
0 0
1/2
x2

1
= =
2 0 8

  Z 1 Z 1/2
1 1 1
P X > ;− < Y < = f (x, y) dxdy
2 2 2 −1/2 −1/2
Z 1 Z 1/2 !
= dy dx
1/2 −1/2
Z 1 Z 1
1/2
= [y]−1/2 dx = dx
1/2 1/2
1/2 1
= [x2 ]1 = .
2

5.2. Distribuciones marginales

Si en un experimento se define más de una variable aleatoria, es importante distinguir entre


la distribución conjunta de X e Y y la distribución de cada una de ellas por separado,
por tanto, al analizar una distribución bidimensional, uno puede centrar su estudio en el
comportamiento de una de las variables, con independencia de como se comporta la otra, a
la distribución individual de cada una de ellas se llama distribución marginal.

200
Definición 5.3
Si X e Y son variables aleatorias discretas con función de probabilidad conjunta P (x, y)
se tiene,

1. La función de probabilidad marginal de X es


X
pX (x) = P (X = x) = P (X = x, Y = y) (5.3)
y

2. La función de probabilidad marginal de Y es


X
p(y) = P (Y = y) = P (X = x, Y = y) (5.4)
x

Ejemplo 5.5

Sea (X, Y ) una variable aleatoria. bidimensional discreta con función masa de proba-
bilidad dada por la tabla 5.3. Calcular las distribuciones marginales de X y de Y

Y
0 1 2 3
X
1 1/14 0 2/14 1/14
2 0 1/14 3/14 1/14
3 2/14 1/14 0 2/14
Tabla 5.3: Tabla de distribución Conjunta Ejemplo 5.6

Solución: De la tabla 5.3 tenemos las funciones de masa de probabilidad de X y Y . En


efecto para X

3
X 1 2 1 4
Px (1) = P (X = 1) = P (X = 1, Y = j) = +0+ + =
j=0
14 14 14 14
3
X 1 3 1 5
Px (1) = P (X = 2) = P (X = 2, Y = j) = 0 + + + =
j=0
14 14 14 14
3
X 2 1 2 5
Px (3) = P (X = 1) = P (X = 3, Y = j) = + +0+ =
j=0
14 14 14 14

201
y para Y
3
X 1 2 3
PY (0) = P (Y = 0) = P (X = i, Y = 0) = +0+ =
i=1
14 14 14
3
X 1 1 2
PY (1) = P (Y = 1) = P (X = i, Y = 1) = 0 + + =
i=1
14 14 14
3
X 2 3 5
PY (2) = P (Y = 2) = P (X = i, Y = 2) = + +0=
i=1
14 14 14
3
X 1 1 2 4
PY (3) = P (Y = 3) = P (X = i, Y = 3) = + + =
i=1
14 14 14 14

Ası́ la función de distribución marginal tanto para X e Y está dada por:




 0 si y<0
 
3/14 si 0≤y<1


 0 si x < 1 


4/14 si 1 ≤ x < 2 FY (y) = 5/14 si 1≤y<2
Fx (x) = 
9/14 si 2 ≤ x < 3 10/14 si 2≤y<3



 


si x ≥ 3
1 si y≥3

1

Ejemplo 5.6
Un banco está interesado en saber el número de tarjetas de sus clientes y las compras
por semana con cada una de ellas.

Solución:

X= número de tarjetas de crédito.

Y = número de compras por semana.

La función de masa conjunta está dada por:

Y
0 1 2 3 Px (x)
X
1 0.08 0.07 0.04 0.01 0.20
2 0.10 0.35 0.26 0.09 0.80
PY (y) 0.18 0.42 0.30 0.10 1.00
Tabla 5.4: Tabla de distribución Conjunta Ejemplo 5.5

Por tanto, la distribución marginal de X se obtiene sumando, para cada valor de la variable
X, las filas de la tabla 5.5, mientras que la distribución marginal de Y se obtiene sumando,
para cada valor de la variable Y , las columnas de la tabla 5.5.

202

0,2
 Si x = 1
PX (x) = 0,8 Si x = 2

1 Si x ≥ 3



0,18 Si y =0

0,42 Si y =1



PY (y) = 0,30 Si y =2

0,30 Si y =3





1 Si y ≥4

Como en el desarrollo de esta sección también las funciones de probabilidad marginal tienen
su equivalencia en cuanto se tiene variables aleatorias continuas.

Definición 5.4
Si X e Y son variables aleatorias continuas con función de probabilidad conjunta
f (x, y) se tiene

1. La función de probabilidad marginal de X es


Z ∞
f (x) = f (x, y) dy (5.5)
−∞

2. La función de probabilidad marginal de Y es


Z ∞
f (y) = f (x, y) dx (5.6)
−∞

Ejemplo 5.7
Suponga que la alimentación de los atletas que practican determinado deporte está
dada por la función:
4

 xy para 0 ≤ x ≤ 1; 2 ≤ y ≤ 3

f (x, y) = 5

0 en otro caso

X: Cantidad de Proteı́nas que debe consumir el atleta.


Y : Cantidad de Minerales que debe consumir el atleta.

1. Calcular las distribuciones marginales de X y de Y .

2. ¿Las marginales. Son realmente una función de densidad?

203
Solución: Aplicando la definición se tiene que:
1. Calculando las distribuciones marginales se tiene que:

a) Para Y
1  1
4y x2
Z Z
4
f (y) = f (x, y) dx = xy dx =
x 0 5 5 2 0
 
4y 1 2y
= =
5 2 5
Por lo tanto
2

 y si 2 ≤ y ≤ 3

f (y) = 5

0 en otro caso

b) Para X
3  3
4x y 2
Z Z
4
f (x) = f (x, y) dy = xy dy =
y 2 5 5 2 2
 
4x 5
= = 2x
5 2
Por lo tanto

 2x si 0≤x≤1
f (x) =
0 en otro caso

2. Veamos si realmente es una función de densidad:



 2y Si 2 ≤ y ≤ 3
f (y) = 5
0 En otro caso

f (x) = 2x ≥ 0; 0 ≤ x ≤ 1
Z
f (x) dx = 1
x
1 1
x2
Z 
2x dx = 2
0 2
 0
1
=2 = 1.
2

Entonces se puede decir que tanto f (y) como f (x) son funciones de densidad.

204
5.3. Distribuciones condicionales

Cuando se definen dos variables aleatorias en un experimento, el conocimiento que se tiene


de una de ellas puede afectar a las probabilidades asociadas con los valores que toma la
otra variable. En muchas situaciones, la información sobre el valor observado de una de las
dos variables X e Y da información sobre el valor de la otra variable, de la definición de
probabilidad condicionada para los eventos A y B, se tiene, P (B|A) = P (A ∩ B)/P (A). A
continuación se da una definición análoga de la independencia de dos variables aleatorias.

Definición 5.5
Si X e Y son variables aleatorias discretas con función de probabilidad conjunta p(x, y)

1. La función de probabilidad de Y condicionada a X = x (p(x) > 0):

P (X = x, Y = y) p(x, y)
p(y|x) = P (Y = y|X = x) = = (5.7)
P (X = x) p(x)

2. La función de probabilidad de X condicionada a Y = y (p(y) > 0):

P (X = x, Y = y) p(x, y)
p(x|y) = P (X = x|Y = y) = = (5.8)
P (Y = y) p(y)

Definición 5.6
Si X e Y son variables aleatorias continuas con función de probabilidad conjunta
f (x, y)

1. La función de probabilidad de Y condicionada a X = x (f (x) > 0):

f (x, y)
f (y|x) = (5.9)
f (x)

2. La función de probabilidad de X condicionada a Y = y (f (y) > 0):

f (x, y)
f (x|y) = (5.10)
f (y)

205
Ejemplo 5.8
En el experimento aleatorio del lanzamiento de tres monedas se consideran las variables

1. X1 : Número de caras.

2. X2 : Diferencia, en valor absoluto, entre el número de caras y el número de sellos.

Calcular la distribución condicionada de X1 a X2 = 1 y la condicionada de X2 a X1 = 2.

Solución:

Las funciones de masa de probabilidad conjunta y marginales de (X1 , X2 ) están dadas por

X2
0 1 2 3
X1
1 0 3/8 3/8 0 6/8
3 1/8 0 0 1/8 2/8
1/8 3/8 3/8 1/8
Tabla 5.5: Tabla de distribución Conjunta Ejercicio 5.7

A partir de la tabla 5.5, calculamos la función masa de probabilidad de las distribuciones


condicionales.

1. Función masa de probabilidad de X1 condicionada a X2 = 1:

P (X1 = 0, X2 = 1)
P (X1 = 0/X2 = 1) = =0
P (X2 = 1)
P (X1 = 1, X2 = 1) 3/8 1
P (X1 = 1/X2 = 1) = = =
P (X2 = 1) 6/8 2
P (X1 = 2, X2 = 1) 3/8 1
P (X2 = 1/X2 = 1) = = =
P (X2 = 1) 6/8 2
P (X1 = 3, X2 = 1)
P (X3 = 1/X2 = 1) = =0
P (X2 = 1)

Se deduce que si X2 = 1, la variable X1 sólo toma los valores 1 y 2, cada uno de ellos
con probabilidad 1/2. Esto indica que si se sabe que la diferencia, en valor absoluto,
entre el número de caras y el número de sellos es uno, necesariamente han salido una
o dos caras, y cada uno de estos sucesos tiene probabilidad 1/2.

206
2. Función masa de probabilidad de X2 condicionada a X1 = 2:

P (X1 = 2, X2 = 1) 3/8
P (X2 = 1/X1 = 2) = = =1
P (X1 = 2) 3/8
P (X1 = 2, X2 = 3) 3/8
P (X2 = 3/X1 = 2) = = =0
P (X2 = 2) 6/8

Esto es, si X1 = 2, entonces X2 = 1, lo que indica que si se sabe que han salido dos caras,
la diferencia en valor absoluto entre el número de caras y sellos es, necesariamente, uno.

5.4. Independencia entre variables aleatorias


Dos variables aleatorias son independientes si el valor que toma una no aporta información
sobre el valor que tomará la otra, es decir, en algunos experimentos, el conocimiento de una
variable X no afecta a la probabilidad asociada con los valores de Y , por tanto se dice que
dos variables son independientes si:

1. Variables discretas: X e Y son independientes si para todo x e y se cumple alguna


de estas condiciones

p(y|x) = p(y)
p(x|y) = p(x)
p(x, y) = p(x)p(y).

2. Variables continuas: X e Y son independientes si para todo x e y se cumple alguna


de estas condiciones

f (y|x) = f (y)
f (x|y) = f (x)
f (x, y) = f (x)f (y).

En general X e Y son independientes si su función de distribución conjunta puede escribirse


como producto de las marginales, F (x, y) = F (x)F (y) para todos x e y.

5.4.1. Función Generadora de Momentos


Sean, en principio X e Y dos v.a. independientes, entonces la función generadora de la suma
X + Y es el producto de las funciones generadoras, es decir:

mX+Y (t) = mX (t)mY (t)

207
Sean X y Y variables aleatorias independientes. Entonces

Z ∞ Z ∞
t(X+Y )
mX+Y (t) = E[e ]= et(x+y) fXY (x, y) dx dy
−∞ −∞
Z ∞Z ∞
= etx ety fX (x)fY (y) dx dy
Z−∞

−∞
Z ∞
tx
= e fX (x) dx ety fY (y) dy
−∞ −∞
tX tY
= E[e ]E[e ] = mX (t)mY (t)

A continuación, usando la función generadora de momentos se tiene

Ejemplo 5.9

Si X ∼ P (λ) e Y ∼ P (µ) son variables aleatorias independientes, X + Y ∼ P (λ + µ).


En efecto
t t t
mX+Y (t) = mX (t)mY (t) = eλ(e −1) eµ(e −1) = e(λ+µ)(e −1)

se tiene la función generadora de momentos de una v. a. Poisson con parámetro (λ+µ).


Recordemos que la función generadora de momentos determina la distribución de la
variable aleatoria.

Ejemplo 5.10
Sean X1 , X2 , X3 , · · · , Xn , n variables aleatorias independientes e igualmente distribui-
das con distribución exponencial de parámetro λ > 0, entonces, Z := X1 + · · · + Xn
tiene distribución gamma de parámetros n y λ. En efecto, la función generadora de
momentos de Z := X1 + · · · + Xn está dada por:
n
Y
tZ
mZ (t) = E[e ] = E[etXk ]
k=1
n  
Y λ
= , si t < λ
k=1
λ−t
 n
λ
= , si t < λ
λ−t

la cual corresponde a la función generadora de momentos de una variable aleatoria con


distribución gamma de parámetros n y λ.

208
5.5. Valores esperados, covarianza y correlación
Al ser variables aleatorias, los vectores aleatorias están caracterizados por unas cantidades
que resumen la información sobre ellos:

Definición 5.7
Media o Esperanza: Dado un vector aleatorio X ′ = (X1 , X2 , X3 , · · · , Xn ), la media o
valor esperado del vector es otro vector cuyos componentes son los valores esperados
de cada uno de los componentes
 
E[X1 ]
 E[X2 ] 
 
 E[X3 ] 
µ = E[X] =   (5.11)
 .. 
 . 
E[Xn ]

Para definir la covarianza, necesitamos definir la esperanza de una función de dos variabes
aleatorias h(X, Y ). La definición es simplemente una extensión de la usada en el caso de una
variable aleatoria:
 XX


 h(x, y)p(x, y) si X, Y son discretas
x y
E[h(X, Y )] = Z ∞ (5.12)
h(x, y)f (x, y) dxdy si X, Y son continuas



−∞

Notas Importantes 5.1

El valor de E[h(X, Y )] representa el valor medio de h(X, Y ) que se esperarı́a si se


repite el experimento un gran número de veces.
Importante: Si dos variables X e Y son independientes entonces E[XY ] = E[X]E[Y ]

Ejemplo 5.11
Suponga que la alimentación de los atletas que practican determinado deporte está
dada por la función:
4

 xy para 0 ≤ x ≤ 1; 2 ≤ y ≤ 3

f (x, y) = 5

0 en otro caso

1. ¿Cuál es el número esperado de Proteı́nas que un atleta debe consumir?

2. ¿Es el número de Proteı́nas independientes del número de Minerales que un


atetla consume?

Solución:

209
1. El número esperado de Proteı́nas que un atleta debe consumir es:

Z
E[X] = f (x) dx
x
 3 1
x 2
E[X] = 2 =
3 0 3

Se concluye entonces que el valor esperado de Proteı́nas que un atleta debe consumir
es de aproximadamente 0,66.

2. Se tiene que:

f (x, y) = f (x)f (y)


 
4 2
xy = (2x) y
5 5
4 4
xy = xy
5 5

Esto se cumple, lo cual quiere decir que la cantidad de Proteı́nas que consume un atleta
es independiente a la cantidad de Minerales que consume.

Definición 5.8
Covarianza: Dadas dos variables aleatorias X e Y , la covarianza definida por:

Cov(X, Y ) = E[(X − E[X])(Y − E[Y ])] = E[XY ] − E[X]E[Y ] (5.13)

Sea X e Y variables aleatorias definidas sobre el mismo espacio de probabilidad y tales


que E[X 2 ] < ∞ y E[Y 2 ] < ∞. Entonces:

1. Cov(X, Y ) = E[XY ] − E[X]E[Y ].

2. Cov(X, Y ) = Cov(Y, X).

3. V ar(X) = Cov(X, Y ).

4. Cov(aX + b, Y ) = aCov(X, Y ), para todo a, b ∈ R.

Hay otra medida de la relación lineal entre dos variables aleatorias y que tiene una interpre-
tación más sencilla que la covarianza (ya que la magnitud de la covarianza se ve afectada
por los cambios de escala).

210
Definición 5.9
Correlación: La correlación es una medida adimensional de la relación lineal entre
dos variables,
Cov(X, Y )
ρ(X, Y ) = Corr(X, Y ) = p (5.14)
V ar[X]V ar[Y ]
La correlación tiene las siguientes propiedades:

1. Si X e Y son independientes, ρ(aX + b, cY + d) = ρ(X, Y ).

2. Para dos variables aleatorias cualesquiera X e Y , −1 ≤ ρ(X, Y ) ≤ 1.

3. Si X e Y son independientes, entonces ρ = 0, pero ρ = 0 no implica indepen-


dencia..

4. ρ = 1 o −1 si y sólo si Y = aX + b con algunos números a y b con a ̸= 0.

Notas Importantes 5.2


La correlación ρ mide el grado de asociación lineal entre X e Y y sólo cuando las dos
variables están perfectamente relacionadas de una manera lineal ρ será tan positivo
o negativo como pueda ser. Un ρ menor que 1 en valor absoluto indica sólo que la
relación no es completamente lineal, sino que aún puede haber una fuerte relación
no lineal. Además, ρ = 0 no implica que X e Y son independientes, sino sólo que
existe una ausencia completa de relación lineal. Cuando ρ = 0, se dice que X y Y no
están correlacionadas. Dos variables podrı́an estar no correlacionadas y no obstante
ser altamente dependientes porque existe una fuerte relación no lineal, ası́ que se debe
tener cuidado de no concluir demasiado del hecho de que ρ = 0.

5.5.1. Posibles relaciones entre las variables aleatorias


Suponga que X e Y tienen una fuerte relación positiva entre ellas, lo que significa que los
valores grandes de X tienden a ocurrir con valores grandes de Y y los valores pequeños
de X con los valores pequeños de Y . Entonces la mayor parte de la masa o densidad de
probabilidad estará asociada con (x − µX) y (y − µY ) o ambos positivos (tanto X como
Y sobre sus respectivas medias) o ambos negativos, ası́ que el producto (x − µX)(y − µY )
tenderá a ser positivo. Por tanto con una fuerte relación positiva, Cov(X, Y ) deberá ser
bastante positiva. Con una fuerte relación negativa los signos de (x−µX) y (y−µY ) tenderán
a ser opuestos, lo que da un producto negativo. Por tanto con una fuerte relación negativa,
Cov(X, Y ) deberá ser bastante negativa. Si X e Y no están fuertemente relacionadas, los
productos positivo y negativo tenderán a eliminarse entre sı́, lo que da una covarianza cerca
de 0. La Figura 5.2 ilustra las diferentes posibilidades. La covarianza depende tanto del
conjunto de pares posibles como de las probabilidades. En la figura 5.2, las probabilidades
podrı́an ser cambiadas sin que se altere el conjunto de pares posibles y esto podrı́a cambiar
drásticamente el valor de Cov(X,Y).

211
Figura 5.2: Gráfica de posibles relaciones de variables aleatorias

Ejemplo 5.12
Tomando el ejemplo 5.6, un banco está interesado en saber el número de tarjetas de
sus clientes y las compras por semana, con cada una de ellas calcular la covarianza y
el coeficiente de correlación.

Solución:

Aplicando la propiedad 1. de la definición 5.8, la covarianza está dada por:

Cov(X, Y ) = E[XY ] − E[X]E[Y ]

Entonces,

E[XY ] =1(0)(0,08) + 1(1)(0,07) + 1(2)(0,04) + 1(3)(0,01) + 2(0)(0,10)


+ 2(1)(0,35) + 2(2)(0,26) + 2(3)(0,09) = 2, 46

y,

E[X] = 1(0,2) + 2(0,08) = 1, 8


E[Y ] = 0(0,18) + 1(0,42) + 2(0,30) + 3(0,10) = 1, 32

Por lo tanto

Cov(X, Y ) = E[XY ] − E[X]E[Y ]


= 2, 46 − (1,8)(1,32)
= 0,084

212
Ahora, el coeficiente de correlación está dado por:
Cov(X, Y ) 0,084
ρ(X, Y ) = = = 0,053
σX σY (1,8)(0,88)
En conclusión, se puede observar que la correlación es muy próxima a cero, es decir, no existe
una relación lineal, por tanto, si los clientes adquieren tarjetas de créditos no es necesario
que éstos realicen compras en la misma semana que adquirieron dicha tarjeta.

5.6. Matriz de varianzas y covarianzas


La matriz varianza-covarianza es una matriz que tiene el mismo número de filas y columnas y
que tiene distribuidas las varianzas en la diagonal principal y las covarianzas en los elementos
fuera de la diagonal principal.

Definición 5.10
Sean X1 , X2 , X3 , · · · , Xn un vector aleatorio con E[Xj2 ] < ∞; para todo j = 1, · · · , n.
La matriz de varianzas y covarianzas denotada por Σ se define como:
 
V ar(X1 ) Cov(X1 , X2 ) · · · Cov(X1 , Xn )
 Cov(X2 , X1 ) V ar(X2 ) · · · Cov(X2 , Xn )
Σ=
 
.. .. .. .. 
 . . . . 
Cov(Xn , X1 ) Cov(Xn , Xn ) · · · V ar(Xn )

Notas Importantes 5.3

Obsérvese que Σ = E([X − E(X)]T [X − E(X)])

Ejemplo 5.13
Sea X1 y X2 variables aleatorias discretas con distribución conjunta dada por:
X1 /X2 -1 0 1
1 1/6 2/6 0
2 1/6 1/6 1/6

Solución:
Calculando el valor esperado de X = (X1 , X2 ) es igual a:
E(X1 ) = 1(1/2) + 2(1/2) = (1/2) + 1 = (3/2)
E(X2 ) = −1(1/3) + 0(1/2) + 1(1/6) = (1/2) + 1 = (−1/6)
Ası́,
 
3 −1
E(X) = ,
2 6

213
Por tanto, aplicando la nota 5.3, la matriz de varianzas y covarianzas está dada por:
 
1 1
Σ =  14 12
 
17 
12 36
Se deja como ejercicio verificar la nota 5.3, para hallar la matriz de varianzas y covarianzas
del ejercicio anterior.

214
5.7. Ejercicios
1. Se lanzan dos dados simultáneamente. Sea X=número de puntos obtenidos por el
primer dado e Y = el número mayor de los puntos obtenidos con los dos dados. Se
pide:
a) La función masa de probabilidad conjunta.
b) Las funciones masa de probabilidad marginales.
c) La función masa probabilidad de la variable X condicionada a Y = 4.
d ) P (X = 2, Y = 4) y P (X = 3).
e) ¿Son independientes las variables X e Y ?
2. Supóngase que la distribución conjunta de las variables aleatorias X e Y está dada por

X/Y 1 2 3 4
0 0.1 0 0 0
-1 0.1 0.1 0 0
-2 0.1 0.1 0.1 0
-3 0.1 0.1 0.1 0.1

Calcular:
a) P (X ≥ −2, Y ≥ 2)-
b) P (X ≥ −2 ∨ Y ≥ 2).
c) Las distribuciones marginales de X e Y .
d ) La distribución de Z := X + Y .
3. Sea (X, Y ) una v.a. bidimensional con función de densidad conjunta:
 −(x+y)
 e si x > 0, y > 0
f (x, y) =
0 en caso contrario

a) Obtener las funciones de densidad marginales.


b) ¿Son independientes las variables?
c) Obtener la función de distribución conjunta.
d ) Calcular P ((0 < X < 1) ∨ (1 ≤ X < 2)).
e) Obtener la función de densidad de Y condicionada a X = 3.
f ) Calcular la esperanza de X 2 Y .
g) Calcular Cov(X, Y ).¿Son no correlacionadas las variables?

4. Una urna contiene 3 bolas rojas y 2 negras. Se extrae una muestra aleatoria de tamaño
2, sin reemplazo. sea X el número de bolas rojas seleccionadas y Y el número de las
bolas negra seleccionadas. Calcular ρ(X, Y ).

215
5. La variable aleatoria bivariante (X, Y ) está definida en el rectángulo OBCD. O =
(0, 0), B = (1, 0), C = (1, 2), D = (0, 2) con función de densidad

f (x, y) = ky 2

a) Determinar el valor de k.
b) Calcular las densidades marginales.
c) Calcular las densidades condicionadas f (x|y), f (y|x).
d ) ¿Son X e Y independientes?
e) Calcular P (Y − 2X < 0).

6. Diez clientes entre los que se encuentran Juan y Marı́a llegan a un almacén entre las
8:00 am y el mediodı́a. suponiendo que los clientes llegan independientemente unos de
otros y que el tiempo de llegada de cada uno de ellos es una variables aleatoria con
distribución uniforme sobre el intervalo [0, 4]. Calcular

a) La probabilidad de que Juan llegue antes de las 11:00 am.


b) La probabilidad de que Juan y Marı́a lleguen ambos antes de las 11:00 am.
c) El número esperado de clientes que llegan antes de las 11:00 am.

7. Se han clasificado 100 familias según el número de hijos e hijas, en la siguiente tabla:

H/M 0 1 2 3 4
0 4 6 9 4 1
1 5 10 7 4 2
2 7 8 5 3 1
3 5 5 3 2 1
4 2 3 26 1 0

a) Hallar las medias, varianzas y desviaciones tı́picas marginales.


b) ¿Qué número medio de hijas hay en aquellas familias que tienen 2 hijos?
c) ¿Qué número medio de hijos hay en aquellas familias que no tienen hijas?
d ) ¿Qué número medio de hijos tienen aquellas familias que a lo sumo tienen 2 hijas?
e) Hallar la covarianza Cov(H, M ).

8. La variable aleatoria bidimensional (X, Y ) toma los valores (i, j),con i = 0, 1, 2 y j =


−1, 1. Se sabe que P (X = 0) = 1/6, P (X = 1) = 2/3 y P (X = 2) = 1/6 y que Y toma
los valores −1 y 1 con probabilidad 1/2 cada uno. Además es P (X = 1, Y = 1) = 1/2.
Determina la función de probabilidad conjunta de (X, Y ).

9. Supónga que se lanza una moneda corriente tres veces consecutivas y sean las variables
aleatorias definidas como sigue:
X= número de las caras obtenidas en los dos primeros lanzamientos,
Y = número de caras obtenidas en los dos últimos lanzamientos.

216
a) Hallar la distribución conjunta.
b) Hallar las distribuciones marginales.
c) Calcular P (X ≤ 2, Y = 1); P (X ≤ 3, Y ≤ 1) y P (X ≤ 2 ∨ Y ≤ 1)

10. Ejercicio adaptado de Freund y Miller (2000).


En un salón de la universidad A se encuentran reunidos dos estudiantes de matemáticas,
tres de ingenierı́a, y cuatro de economı́a; se escogen aleatoriamente dos estudiantes para
aplicarles una encuesta acerca de la calidad de la educación superior.
A continuación se definen las variables aleatorias,

X1 : numero de estudiantes de ingenierı́a entre los dos seleccionados.


X2 : número de estudiantes de matemáticas entre los dos seleccionados.

Se desea encontrar las probabilidades asociadas con todos los pares posibles de valores
para las variables aleatorias X1 y X2 , la función de probabilidad conjunta fX (x1 , x2 ).

217
218
Intervalos de Confianza
6
6.1. Inferencia

Las Probabilidades y los Modelos probabilı́sticos unidos a la Estadı́stica descriptiva, que se


estudiaron anteriormente, van a ser la base de un nuevo procedimiento en la Estadı́stica, se
habı́a estudiado el comportamiento dentro de la muestra desde la parte descriptiva hasta la
parte probabilı́stica, pero no se ha dicho nada sobre la población, por ello se introducirá un
nuevo concepto que es La Inferencia. Con ella se puede estudiar el comportamiento de un
fenómeno de manera global.

En otras palabras, la Inferencia estadı́stica es el conjunto de métodos y técnicas que permiten


inferir o inducir, a partir de una muestra, cual podrı́a ser el comportamiento de la población,
de la que fue extraı́da, con un error medible en términos de probabilidad.

Ejemplo 6.1
Se desea estimar la proporción de estudiantes que no tienen conexión a internet desde
hace una semana o más.

Supongamos que se decide entrevistar a 200 estudiantes. Las preguntas se que se


pueden pensar son:

1. ¿Cómo se puede asegurar que la muestra sea aleatoria?

2. ¿Querrán contestar a la pregunta? Problema de falta de respuesta (missing data).

3. ¿Dirán la verdad? Problema de error de medida.

4. Si resulta que entre los 200 estudiantes no hay ninguna mujer, ¿estaremos satis-
fechos con el estimador que obtengamos?

219
Ejemplo 6.2
Dos proveedores A y B suministran a un fabricante el mismo producto quı́mico
cuya caracterı́stica de interés es la pureza (en %), que es una variable aleatoria con
distribución supuestamente normal. El fabricante está interesado en comparar los
productos suministrados por ambos proveedores.

De nuevo se plantean una serie de interrogantes naturales a los que sólo se puede dar
respuesta mediante el uso de las técnicas estadı́sticas apropiadas:

1. ¿Cuánto valen aproximadamente µ y σ en cada caso? (Estimación).

2. ¿Entre qué valores se encuentran con ciertas garantı́as de acierto (95 % ó 99 %)?
(Intervalos de Confianza).

3. El fabricante necesita saber cuál de los dos proveedores es mejor. Puede com-
prar del proveedor que ofrece el producto a un mejor precio? (Contraste de
Hipótesis).

4. ¿Los modelos son normales? Y si no lo son? (Test de ajuste).

Para responder a estas preguntas se tiene que tomar muestras de la Pureza para
cada uno de los proveedores y estudiar la información que aportan sobre los
modelos de ambas poblaciones. Surgen entonces otras preguntas adicionales:

5. ¿De qué tamaño tienen que ser las muestras?, ¿Cómo se eligen las muestras?
(Muestreo).

Ejemplo 6.3
Con el fin de determinar si la aspirina tiene algún efecto preventivo en los ataques
cardı́acos, se desarrolló un estudio controlado (aproximadamente 22.000) de individuos
entre 40 y 84 años que tomaron una aspirina (325 mg.) o bien un placebo, durante
cinco años. Los resultados del estudio fueron los siguientes:
Sufren ataque No sufren ataques Ataques por
cardı́acos cardı́acos cada 1000 personas
Aspirina 104 10933 9,42
Placebo 189 10845 17,13
Se plantea aquı́ un problema de decisión o el contraste de una hipótesis.

6.2. Conceptos básicos


Para responder todas las preguntas anteriormente planteadas, se comienza a desarrollar cada
uno de los conceptos básicos de la inferencia estadı́stica.

220
Figura 6.1: Esquema de Inferencia Estadı́stica

Población: se utiliza para representar al conjunto formado por los elementos que se
tiene interés en estudiar.

Muestra: En la mayorı́a de los casos no es posible reunir la información de todos los


elementos de la población, por lo que se hace una descripción aproximada de toda la
población a partir de un subconjunto de sus elementos, llamado muestra.

Variabilidad: aspecto clave, los elementos de una población no son todos iguales ni
tienen las mismas caracterı́sticas.

Variables: Generalmente el interés se centra en estudiar una o varias caracterı́sticas


de los elementos de la población. A las observaciones o mediciones correspondientes a
tales caracterı́sticas se les conoce como variables.

Cuando se tiene toda la información (relevante) de una población, se utiliza la estadı́stica


descriptiva para resumirla y presentarla adecuadamente.

La Estadı́stica inferencial o inferencia estadı́stica se usa para tratar de dar concluciones so-
bre una o varias variables en la población entera a partir de observar estas variables en una
muestra.

La forma de hacer inferencias depende del número de elementos en la población. Si la po-


blación tiene un número finito de elementos entonces se conoce como población finita. Hacer
inferencias en poblaciones finitas es el objeto de estudio del muestreo.

Se utiliza el término población infinita para representar al modelo de población que potencial-
mente pudiera tener infinitos elementos. Para estudiar una caracterı́stica en una población

221
infinita se utilizan los modelos de probabilidad.

Si se observa una muestra lo suficientemente grande, las frecuencias de los valores de las
variables de interés corresponden a las probabilidades dadas por la distribución.

La inferencia estadı́stica presenta dos enfoques:

1. Inferencia paramétrica: se supone que los datos siguen una cierta distribución tipo
con uno o más parámetros (caracterı́sticas poblacionales) desconocidos. El objetivo de
la inferencia paramétrica es “decir algo”sobre el valor de dichos parámetros en base a
la información parcial sobre la población que proporciona una muestra.

2. Inferencia no paramétrica: sin suposiciones previas sobre la distribución de los datos


(acaso ciertas suposiciones de simetrı́a o continuidad), se establece una hipótesis sobre el
comportamiento aleatorio de los mismos (sobre su mediana, aleatoriedad, distribución,
independencia, igualdad de distribución, etc.) y, mediante un contraste de hipótesis se
acepta (no se rechaza) dicha hipótesis si no es incompatible con los datos.

Los métodos paramétricos de la inferencia estadı́stica se pueden dividir, básicamente, en tres


niveles complementarios:

1. Estimación puntual: su objetivo es dar a una caracterı́stica poblacional desconocida


un valor “razonable”, normalmente el valor que toma para una muestra concreta un
estadı́stico, reflejo muestral de la caracterı́stica poblacional: la media muestral para
estimar la media poblacional, el coeficiente de correlación muestral para estimar el
coeficiente de correlación poblacional, etc.

2. Intervalo de confianza: su objetivo es obtener un intervalo de posibles valores de la


caracterı́stica poblacional en el que confiamos, en cierta medida, que se encuentre su
verdadero valor, esto es, un intervalo que cubra al verdadero valor con una determinada
probabilidad/confianza.

3. Contraste de hipótesis: enunciada una hipótesis sobre una caracterı́stica poblacio-


nal (y su contraria), su objetivo es, en principio, aceptar (no rechazar) la hipótesis más
acorde con los datos.

Estos métodos se basan en el conocimiento teórico de la distribución de probabilidad


del estadı́stico muestral que se utiliza como estimador de un parámetro. Entonces

Estimador Estadı́stico: se usa para estimar un parámetro.


Estimador Puntual: función de la muestra que da como resultado un único
valor. La correspondiente realización se llama estimación puntual del parámetro.
Estimador por intervalos: función de la muestra que da como resultado un
intervalo de valores, determinado por un lı́mite inferior y otro superior, llamados
lı́mites de confianza, dentro del cual se espera que estará el valor verdadero o

222
parámetro poblacional.

Un buen estimador debe cumplir con tres requisitos fundamentales:


• Insesgadez: Un estimador es insesgado cuando la esperanza matemática del
este es igual al parámetro que se desea estimar ˆ(θ). Por tanto, la diferencia
entre el parámetro a estimar y la esperanza de nuestro estimador tendrı́a que
ser 0. Es decir: E[θ̂] = θ, si θ̂ no es insesgado, la diferencia E[θ̂] − θ se conoce
como sesgo de θ.
• Consistencia: Un estimador consistente es aquel que a medida que la medida
que la muestra crece se aproxima cada vez más al valor real del parámetro. Por
lo tanto, cuantos más y valores entran en la muestra, el parámetro estimado
será más preciso.
• Eficiente: Un estimador es más eficiente o tiene la capacidad de estimar de
forma precisa cuando su varianza es reducida. Por lo tanto ante 2 estimadores,
siempre elegiremos el que tenga una varianza menor.

6.3. Estimación por intervalos de confianza


Una estimación puntual no proporciona un valor exacto del parámetro poblacional a determi-
nar. En la mayorı́a de los casos, no se tiene información sobre la precisión de tal estimación,
de forma que su valor único no dice sobre la probabilidad de que se encuentre cerca o lejos
del valor verdadero. Esto se consigue mediante la estimación por intervalos de confianza, en
la cual se calcula un intervalo sobre el que podamos establecer que, con cierta probabilidad,
está contenido el parámetro poblacional desconocido.

Definición 6.1
Estimador de intervalos de confianza

Un estimador de un intervalo de confianza de un parámetro poblacional es una re-


gla para hallar (basándose en la información muestral) un intervalo que es probable
que incluya ese parámetro. La estimación correspondiente se llama estimación de un
intervalo de confianza.

Definición 6.2
Intervalo de confianza y nivel de confianza

Sea θ un parámetro desconocido. Supongamos que basándose en la informacion mues-


tral, se hallan variables aleatorias A y B tales que P (A < θ < B) = 1 − α, donde α
es cualquier número comprendido entre 0 y 1. Si los valores muestrales especı́ficos de
A y B son a y b, entonces el intervalo de a a b se llama intervalo de confianza de θ al
100(1 − α) %. La cantidad 100(1 − α) % se llama nivel de confianza del intervalo.

223
Un intervalo de confianza del 95 % indica que el 95 % de todas las posibles muestras, por
ejemplo, de una µ (media poblacional) estarı́a en este intervalo y su complemento, 5 % de las
muestras, producirá un intervalo erróneo. Cuanto mayor sea el nivel de confianza se podrá
creer que el valor del parámetro que se estima está dentro del intervalo.

La siguiente figura muestra la probabilidad de que una variable aleatoria normal estándar se
encuentre entre los números -1,96 y 1,96 es 0,95.

De la figura anterior se tiene la P (−1, 96 < z < 1, 96) = 0, 95, donde z es una variable
aleatoria normal estándar.

6.4. Intervalos de confianza para la media


Sea x1 , x2 , · · · , xn muestra aleatoria de n observaciones extraı́das de una población que sigue
una distribución normal de media µ desconocida y varianza conocida σ 2 . Supongamos que
queremos un intervalo de confianza de la media poblacional al 100(1 − α) %

1 − α = P (−zα/2 < z < zα/2 )


!
X −µ
=P −zα/2 < < zα/2
√σ
n
 
σ σ
= P −zα/2 √ < X − µ < zα/2 √
n n
 
σ σ
1 − α = P X − zα/2 √ < µ < X + zα/2 √
n n

Supongamos que la población en estudio sigue una distribución normal y que como estima-
dor puntual de la media poblacional µ se usa la media muestral X.

224
Definición 6.3
Intervalos de confianza de la media de una población que sigue una
distribución normal:Varianza poblacional σ2 conocida:

Considere una muestra aleatoria de n observaciones extraı́das de una población que


sigue una distribución normal de media µ y varianza σ 2 . Si la media muestral es X,
entonces el intervalo de confianza al 100(1 − α) % de la media poblacional, cuando la
varianza es conocida, viene dado por
σ σ
X − zα/2 √ < µ < X + zα/2 √ (6.1)
n n

Notas Importantes 6.1


De la ecuación 5.1 resulta el margen de error dado por
σ
ME = √ (6.2)
n

Ejemplo 6.4
Existe una empresa fabricante de focos que tienen duración aproximadamente dis-
tribuida de forma normal, con una desviación estándar de 50 horas. Si se toma una
muestra aleatoria de 45 focos y se obtiene una duración promedio de 830 horas, encon-
trar en un intervalo de confianza del 95 %, la media de todas las bombillas que produce
la empresa. ¿De qué tamaño debe ser la muestra para que el error de estimación sea
de 10 horas en un intervalo de confianza del 95 %?

Solución:

σ σ
X − zα/2 √ < µ < X + zα/2 √
n n
50 50
830 − 1, 96 √ < µ < 830 + 1, 96 √
45 45
50 50
830 − 1, 96 √ < µ < 830 + 1, 96 √
45 45
830 − 14, 61 < µ < 830 + 14, 61
815 < µ < 845

Por lo tanto Con la evidencia tomada se puede afirmar que en el 95 % de todas las muestras
de tamaño 45, la duración de los focos estará entre 845 y 815 horas.

225
σ
M E = zα/2 √
n
zα/2 × σ 2
 
n=
ME
 2
1, 96 × 50
n=
10
n = 96, 04 ≈ 96
El tamaño de muestra debe ser de aproximadamente 96 bombillas.

Varianza poblacional σ 2 desconocida y n > 30


30:

En general, la desviación estándar”de la población se desconoce, de forma que, estrictamente,


no se puede aplicar la expresión (5.1) para calcular el intervalo de confianza. Sin embargo,
cuando la muestra es grande, la desviación estándar muestral S suele ser un estimador muy
preciso de σ, de forma que, en primera aproximación, el intervalo de confianza se puede
construir sustituyendo ”por S, y se tiene que
S S
X − zα/2 √ < µ < X + zα/2 √ (6.3)
n n
Varianza poblacional σ 2 desconocida y n < 30
30:

Cuando las muestras son pequeñas la varianza muestral puede variar considerablemente de
muestra a muestra, por lo que la aproximación anterior no se considera válida. En estos
casos, el intervalo confianza se puede construir recordando que la variable
X −µ
t=
√S
n

sigue una distribución t de Student con n − 1 grados de libertad. Por lo tanto, al ser la
distribución t también simétrica, se puede expresar que
 
S S
P X − tα/2,n−1 √ < µ < X + tα/2,n−1 √ =1−α
n n
Definición 6.4
Intervalo de confianza para la media de una distribución normal de
varianza desconocida y muestra pequeña

El intervalo de confianza de nivel (1 − α) para la media de una distribución normal de


varianza desconocida y muestra pequeña es
S S
X − tα/2,n−1 √ < µ < X + tα/2,n−1 √ (6.4)
n n

226
6.5. Intervalo de confianza para una proporción (dis-
tribución binomial)
Definición 6.5
Intervalo de confianza para una proporción

Suponga que la población sigue una distribución binomial con parámetro desconocido
P . Ya se ha visto como la proporción de éxitos p (número de éxitos dividido por el
número de ensayos) constituye un buen estimador de P . Además la distribución mues-
tral del estadı́sstico p puede aproximarse a la distribución normal cuando la muestra
(o número de ensayos) es grande. La distribución muestral de una proporción con me-
dia p varianza P (1 − P )/n. Entonces, aproximando la distribución por una normal, se
obtiene r r
p(1 − p) p(1 − p)
p − zα/2 < P < p + zα/2 (6.5)
n n

La varianza muestral se ha substituido P por p, lo cual es una buena aproximación si la


muestra es grande. Para muestras pequeñas (n < 30) la aproximación realizada de substituir
la binomial por una normal es posible que no sea buena, especialmente si p se acerca a 0 ó a
1. Cuando se cumpla que conjuntamente nP > 5 y n(1 − P ) > 5, la aproximación anterior
es válida incluso para muestras pequeñas.

Ejemplo 6.5
En un control de calidad se analizó una muestra aleatoria de 750 tornillos resultando
defectuosos 80 de ellos. Hallar:

1. Un intervalo de confianza para la proporción de tornillos defectuosos en el con-


junto de producción con 99 % de confianza.

2. ¿Cuál es el error máximo cometido en la estimación anterior?

3. Si deseamos que el error cometido, con el mismo nivel de confianza, sea la décima
parte dele apartado anterior, ¿cuál ha de ser el tamaño de la muestra?

Solución:

1. Intervalo de confianza del 99 %

1 − α = 0, 99 zα/2 = z0,005 = 2, 575


α = 1 − 0, 99 = 0, 01

Donde la proporción de éxitos es


80
p= = 0, 11
750

227
Aplicando el intervalo de confianza del 95 % se tiene
r r
p(1 − p) p(1 − p)
p − zα/2 < P < p + zα/2
r n rn
0, 11(0, 89) 0, 11(0, 89)
0, 11 − 2, 575 < P < 0, 11 + 2, 575
750 750
0, 080 < P < 0, 139

2. El máximo error cometido es


r
p(1 − p)
M E = zα/2
r n
0, 11(0, 89)
= 2, 575
750
0, 029

3. El tamaño de la muestra con la décima parte del error anteior 0, 10 × 0, 029 = 0, 0029
es
r
p(1 − p)
M E = zα/2
n
2 p(1 − p)
n = zα/2
M E2
0, 11(0, 89)
= 2, 5752
o, 002292
= 77186, 46 ≈ 77187
Para que se cumplan las condiciones, y como n tiene que ser entero, debe ser mayor o
igual que 77187. Si la muestra es de menor tamaño, el error será mayor de 0,2 %.
Ejemplo 6.6
Si al lanzar 80 veces una moneda se obtienen 45 caras, ¿se puede aceptar que la moneda
está trucada, con un nivel de significación del 5 % ?

Solución:

Con un nivel de significación α = 5 %, es decir se tiene un intervalo de confianza del 95 %.


1 − α = 0, 95 zα/2 = z0,025 = 1, 96
α = 1 − 0, 95 = 0, 05
Donde la proporción de éxitos es
45
p= = 0, 5625
80

228
Aplicando el intervalo de confianza del 95 % se tiene
r r
p(1 − p) p(1 − p)
p − zα/2 < P < p + zα/2
r n nr
0, 5625(0, 4375) 0, 5625(0, 4375)
0, 5625 − 1, 96 < P < 0, 5625 + 1, 96
80 80
0, 4538 < P < 0, 6712

Como 0,5 está dentro del intervalo hallado, no podemos aceptar que la modeda está trucada.

6.6. Intervalos de confianza para la diferencia de me-


dias
Suponga que se tienen dos poblaciones normales n(µ1 , σ1 ) y n(µ2 , σ2 ). Se puede determinar
un intervalo de confianza para la diferencia de medias µ1 − µ2 a partir de muestras aleatorias
independientes de tamaños n1 y n2 extraı́das de cada población respectivamente.

Un buen estimador puntual para la diferencia de medias es la diferencia de medias muestrales


X 1 − X 2 . La distribución muestral de la diferencia de medias es normal con media µX 1 −X 2 =
2 σ12 σ22
µ1 − µ2 y varianza σX 1 −X 2
= n1
+ n2
, por lo tanto, se puede escribir
 s s 
σ12 σ22 σ12 σ22 
P X 1 − X 2 − zα/2 + < µ1 − µ2 < X 1 − X 2 + zα/2 + =1−α (6.6)
n1 n2 n1 n2

Definición 6.6
Intervalos de confianza para la diferencia de medias con varianzas pobla-
cionales conocidas pero diferentes

El intervalo de confianza de nivel (1 − α) para la diferencia de medias de dos distribu-


ciones normales de varianzas conocidas es
s s
σ12 σ22 σ12 σ22
X 1 − X 2 − zα/2 + < µ1 − µ2 < X 1 − X 2 + zα/2 + (6.7)
n1 n2 n1 n2

Ejemplo 6.7

Construya un intervalo de confianza del 94 % para la diferencia real entre las duraciones
de dos marcas de focos, si una muestra de 40 focos tomada al azar de la primera marca
dio una duración media de 418 horas, y una muestra de 50 focos de otra marca dieron
una duración media de 402 horas. Las desviaciones estándares de las dos poblaciones
son 26 horas y 22 horas, respectivamente

229
Solución:

Se tiene que X 1 = 418, X 2 = 402, σ1 = 26, σ2 = 22, n1 = 40, n2 = 50. Entonces,

1 − α = 0, 94 zα/2 = z0,003 = 1, 88
α = 1 − 0, 94 = 0, 06

El intervalo de confianza es

s s
σ12 σ22 σ12 σ22
X 1 − X 2 − zα/2 + < µ1 − µ2 < X 1 − X 2 + zα/2+
n1 n2 n1 n2
r r
262 222 262 222
(418 − 402) − 1, 88 + < µ1 − µ2 < (418 − 402) + 1, 88 +
40 50 40 50
6, 3 < µ1 − µ2 < 25, 7

Con un nivel de confianza del 94 % la diferencia real entre las duraciones de dos marcas de
focos esta entre 6,3 y 25,7.

6.6.1. Varianzas desconocidas e iguales (σ12 = σ22 )


Cuando las varianzas son desconocidas, se debe realizar previamente una prueba estadı́stica
para verificar si éstas son iguales o diferentes. Como se desconocen las varianzas de la po-
blación, se usan las varianzas de las muestras como estimadores.
El procedimiento a seguir para el cálculo del int ervalo de confianza para la diferencia de dos
medias será el siguiente:

1. El estadı́stico usado com o estimador puntual de la diferencia de medias µ1 − µ2 será


X 1 − X 2 , que es un estimador suficiente.

2. La variable aleatoria asociada con el estimador es la variable definida como (se usa t
en caso de muestras pequeñas):

X1 − X2 − (µ1 − µ2 )
t= r
1 1
Sp +
n1 n2

donde Sp es un estimador combinado de las S 2 , mejor que S12 , S22 por separado, denotado
por:

(n1 − 1)S12 + (n2 − 1)S22


Sp2 =
n1 + n2 − 2

230
3. Para calcular el intervalo de confianza se debe tener en cuenta el nivel de confianza
que se quiere considerar y los grados de libertad se calculan por:

g.l. = n1 + n2 − 2

Definición 6.7
Intervalos de confianza para la diferencia de medias con varianzas pobla-
cionales conocidas e iguales

Sea X1 , X2 , S12 , S22 son las medias y las varianzas de dos muestras aleatorias de tamaños
n1 , n2 , respectivamente, tomadas de dos poblaciones normales e independientes con va-
rianzas desconocidas pero iguales, entonces un intervalo de confianza para la diferencia
entre medias µ1 − µ2 esta dado por:
r r
1 1 1 1
X 1 − X 2 − tα/2 Sp + < µ1 − µ2 < X 1 − X 2 + tα/2 Sp + (6.8)
n1 n2 n1 n2

Ejemplo 6.8
La siguiente tabla presenta los resultados de dos muestras aleatorias para comparar el
contenido de nicotina de dos marcas de cigarrillos.

Marca A Marca B
ni 10 8
X 3,1 2,7
Si 0,5 0,7

Suponiendo que los conjuntos de datos provienen de muestras tomadas al azar de


poblaciones normales con varianzas desconocidas e iguales, construya un intervalo de
confianza del 95 % para la diferencia real de nicotina de las dos marcas.

Solución: Como las varianzas son iguales, se tiene que Sp2 que está dado por:

(n1 − 1)S12 + (n2 − 1)S22


Sp =
n1 + n2 − 2
(9)(0, 5)2 + (7)(0, 7)2
=
16
= 0, 596

El intervalo de confianza del 95 % está dado por:

tα/2;g.l. = t0,025;16 = 2, 21

231
donde

r r
1 1 1 1
X 1 − X 2 − tα/2 Sp + < µ1 − µ2 < X 1 − X 2 + tα/2 Sp +
n n2 n1 n2
r1 r
1 1 1 1
3, 1 − 2, 7 − (2, 21)(0, 596) + < µ1 − µ2 < 3, 1 − 2, 7 + (2, 21)(0, 596) +
10 8 10 8
−0, 2 < µ1 − µ2 < 1,0

6.6.2. Varianzas desconocidas y diferentes σ12 ̸= σ22

1. El estadı́stico usado como estimador puntual de la diferencia de medias µ1 − µ2 , será


X 1 − X 2 , que es un estimador suficiente.

2. La variable aleatoria asociada con el estimador será la variable t definida como:

X 1 − X 2 − (µ1 − µ2 )
t= r 2 (6.9)
S1 S2
+ 2
n1 n2

Los grados de libertad están dados por:

2
S12 S22

+
n1 n2
v =  2 2  2 2 (6.10)
S1 S2
n1 n2
+
n1 − 1 n2 − 1

Definición 6.8
Si X 1 , X 2 , S12 , S22 son las medias y las varianzas de dos muestras aleatorias de tamaños
n1 , n2 , respectivamente, tomadas de dos poblaciones normales e independientes con va-
rianzas desconocidas y diferentes, entonces un intervalo de confianza para la diferencia
entre medias µ1 − µ2 es (para el caso de muestras pequeñas):
s s
2 2
S1 S S12 S22
X 1 − X 2 − tα/2 + 2 < µ1 − µ2 < X 1 − X 2 + tα/2 + (6.11)
n1 n2 n1 n2

232
Ejemplo 6.9
Cierto metal se produce, por lo común, mediante un proceso estándar. Se desarrolla
un nuevo proceso en el que se añade una aleación a la producción del metal. Los
fabricantes se encuentran interesados en estimar la verdadera diferencia entre las
tensiones de ruptura de los metales producidos por los dos procesos. Para cada metal
se seleccionan 10 ejemplares y cada uno de éstos se somete a una tensión hasta que
se rompe.

La siguiente tabla muestra las tensiones de ruptura de los ejemplares, en kilogramos


por centı́metro cuadrado:
Proceso estándar 446 401 476 421 459 438 481 411 456 427
Proceso nuevo 462 448 435 465 429 472 453 459 427 468

Si se supone que el muestreo se llevó a cabo sobre dos distribuciones normales e


independientes, obtener un intervalo de confianza del 95 % para la diferencia entre los
dos procesos.

Solución:
Calculando la media y desviación estándar de cada proceso se tiene que:

n Media S
12 443,3 24,8
12 451,4 14,9

Ahora para hallar tα/2,v calculamos los grados de libertad

2
S12 S22

+
n1 n2
v =  2 2  2 2
S1 S2
n1 n2
+
n1 − 1 n2 − 1
2
(24, 8)2 (14, 9)2

+
12 12
=  2
2  2 2

(24,8) (14,9)
12 12
+
12 − 1 12 − 1
= 18

Por tanto para un nivel de confianza de 95 % se tiene que tα/2,v = t0,025;18 = 2, 10, ası́ el
intervalo que resulta es:

233
s s
S12 S22 S12 S22
X 1 − X 2 − tα/2 + < µ1 − µ2 < X 1 − X 2 + tα/2 +
n1 n2 n1 n2
r r
(24, 8)2 (14, 9)2 (24, 8)2 (14, 9)2
(451, 4 − 443, 3) − 2, 10 + < µ1 − µ2 < (451, 4 − 443, 3) + 2, 10 +
12 12 12 12
−25, 65 < µ1 − µ2 < 9, 49

Con un nivel de confianza del95 % se tiene que la diferencia de entre la media de los dos
procesos está entre -25,65 y 9,49.

6.7. Intervalo de confianza para la diferencia de pro-


porciones
Suponga que se quiere encontrar un intervalo de confianza para la diferencia entre los paráme-
tros p1 y p2 de dos distribuciones binomiales. Un estimador puntual de esta diferencia es la
diferencia de proporciones P1 − P2 , donde P1 es la proporción de éxitos en una muestra de
tamaño n1 de la primera población, y lo mismo para P2 .

Definición 6.9
Suponiendo que las muestras son grandes, y que, por lo tanto, la distribución muestral
de la diferencia de proporciones es aproximadamente normal, el intervalo de confianza
de nivel (1 − α) para la diferencia de proporciones es
s
p1 (1 − p1 ) p2 (1 − p2 )
p1 − p2 ± zα/2 + (6.12)
n1 n2

6.8. Intervalos de confianza para la varianza


Supongamos que se extrae una muestra de tamaño n sobre la que se calcula la varianza
muestral S 2 . Por el estadı́stico (n − 1)S 2 /σ 2 sigue una distribución χ2 con n − 1 grados de
libertad. Por lo tanto se pueder espresar:

(n − 1)S 2
 
P χ21−α/2,n−1 < 2
< χ2α/2,n−1 =1−α
σ

234
Dividiendo cada t´ermino de la desigualdad por (n − 1)S 2 e invirtiendo las desigualdades,
se obtiene
!
χ21−α/2,n−1 1 χ2α/2,n−1
P < 2 < =1−α
(n − 1)S 2 σ (n − 1)S 2
!
(n − 1)S 2 (n − 1)S 2
P < σ2 < 2 =1−α
χ2α/2,n−1 χ1−α/2,n−1

Definición 6.10
Supongamos que hay una muestra aleatoria de n observaciones extraı́das de una po-
blación que sigue una distribución normal de varianza σ 2 . Si la varianza muestral
observada es S 2 , entonces se obtiene un intervalo de confianza al 100(1 − α) % de la
varianza poblacional puede escribirse como:

(n − 1)S 2 2 (n − 1)S 2
< σ < (6.13)
χ2α/2,n−1 χ21−α/2,n−1

Ejemplo 6.10
El director de Aceros Norte, S.A., quiere evaluar la variación de la temperatura en el
nuevo horno eléctrico de la empresa. Se obtiene una muestra aleatoria de 25 tempe-
raturas durante 1 semana y se observa que la varianza muestral es S 2 = 100. Halle el
intervalo de confianza al 95 % por ciento de la varianza poblacional de la temperatura.

Solución:

En el ejemplo tse tiene que n = 25 y S 2 = 100, por tanto calculando la distribución χ2 se


tiene

χ21−α/2,n−1 = χ20,975;24 = 12, 40 y χ2α/2,n−1 = χ20,025;24 = 39, 36

El intervalo de confianza al 95 por ciento de la varianza poblacional es

(n − 1)S 2 2 (n − 1)S 2
< σ <
χ2α/2,n−1 χ21−α/2,n−1
(24)(100) (24)(100)
< σ2 <
39, 36 12, 40
2
60, 97 < σ < 193, 53

Con un 95 % de confianza se tiene que la varianza poblacional de la temperatura en el nuevo


horno eléctrico de la empresa de Aceros Norte , S. A., esta entre 60,97 y 193,53.

235
6.9. Ejercicios
1. El consumo de gasolina de cierto tipo de vehı́culos se distribuye aproximadamente
normal. Si una muestra aleatoria de 64 vehı́culos tiene un consumo promedio de 16
[millas/galón] con una desviación estándar de 6 [millas/galón].
a) Encuentre un intervalo de confianza del 92 % para el consumo medio de gasolina
de todos los vehı́culos de este tipo.
b) Con un 95 % de confianza. ¿Cuál es el error si el consumo medio es tomado en 16
[millas/galón]?
c) Determine un intervalo de confianza del 94 % para la varianza.
d ) ¿De qué tamaño debe ser la muestra si queremos tener un 95 % de seguridad que
la media no difiera en más de 0, 5 [millas/galón] de la media verdadera?
2. Una encuesta de 100 votantes para conocer las opiniones respecto a dos candidatos,
muestra que 55 apoyan a A y 45 a B. Calcular un intervalo de confianza para la
proporción de votos de cada candidato, considerando un nivel de confianza del 95 %.
3. Para comparar el tiempo promedio requerido por el cuerpo humano para absorber dos
medicamentos, A y B, se toman dos muestras de tamaño 12. El tiempo necesario para
detectar un nivel especı́fico del medicamento en sangre es medido y se obtiene que para
el medicamento A la media fue de 26,8 minutos con una varianza de 15,57 minutos2 ,
mientras que para el B fue de 32,6 minutos con una varianza de 17,54 minutos2 . Si se
supone que se distribuye normalmente, calcule un intervalo de confianza del 95 % para
la diferencia del tiempo promedio. Suponga varianzas iguales.
4. El departamento de zoologı́a de la Universidad de Virginia llevó a cabo un estudio para
estimar la diferencia en la cantidad de ortofósforo quı́mico medido en dos estaciones
diferentes del rı́o James. El ortofósforo se mide en miligramos por litro. Se reunieron 15
muestras de la estación 1 y se obtuvo una media de 3.84 con una desviación estándar
de 3.07 miligramos por litro, mientras que 12 muestras de la estación 2 tuvieron un
contenido promedio de 1.49 con una desviación estándar 0.80 miligramos por litro.
Encuentre un intervalo de confianza de 95 % para la diferencia del contenido promedio
real de ortofósforo en estas dos estaciones, suponga que las observaciones vienen de
poblaciones normales con varianzas diferentes.
5. Se realizó una encuesta para conocer el costo de transporte para estudiantes que viven
en Manizales y los que viven fuera de la ciudad. Se encontró que para los que viven
en Manizales el costo promedio del pasaje es 5236,40 COP con una varianza de 3260
COP 2 , mientras que el costo promedio de los que viven fuera es de 6789,50 COP con
una varianza de 152687,88 COP 2 . Obtenga los intervalos de confianza del 95 % y del
99 % para la media de la población de la variable Costo.
6. Se desea obtener un intervalo de confianza para la esperanza poblacional al 90 % en un
experimento donde se midieron los defectos en la manufactura de unas telas. Para ello
se observaron 10 rollos de 50 metros y se encontraron en media 10,5 defectos con una
desviación de 1,36. Suponga que la variable defectos en la tela se distribuye normal.

236
7. Un fabricante de lociones está interesado en la uniformidad de la máquina utilizada para
llenar los frascos, según las especificaciones de la máquina la desviación estándar del
proceso de llenado es menor que 0.15 onzas de lı́quido. Se toma una muestra aleatoria
de 20 frascos y se observa una varianza de 0.0153. Halle el intervalo de confianza al
95 % para la verdadera varianza del volumen de llenado. Suponga que la distribución
del volumen de llenado es aproximadamente normal.

8. Un fabricante de componentes compra un lote de dispositivos de segunda mano y desea


saber la proporción de la población que están fallados. Con ese fin experimenta con
140 dispositivos elegidos al azar y encuentra que 35 de ellos están fallados.

a) Calcular un intervalo de confianza del 99 % para la proporción poblacional p.


b) ¿De qué tamaño deberá extraerse la muestra a fin de que la proporción muestral
no difiera de la proporción poblacional en más de 0.03 con un 95 % de confianza?

9. Se lleva a cabo un estudio para determinar la efectividad de una nueva vacuna contra la
gripe. Se administra la vacuna a una muestra aleatoria de 3000 sujetos, y de ese grupo
13 contraen gripe. Como grupo de control se seleccionan al azar 2500 sujetos, a los
cuales no se les administra la vacuna, y de ese grupo 170 contraen gripe. Construya un
intervalo de confianza de nivel 0.95 para la diferencia entre las verdaderas proporciones
de individuos que contraen gripe.

237
238
7
Pruebas de Hipótesis

239
240
A
Tablas

241
A.1. Distribución Normal Z ∼ N (0, 1) para z0 ≤ 0

z0 -0,09 -0,08 -0,07 -0,06 -0,05 -0,04 -0,03 -0,02 -0,01 0,00
-3,60 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0001 0,0002 0,0002
-3,50 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002 0,0002
-3,40 0,0002 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003 0,0003
-3,30 0,0003 0,0004 0,0004 0,0004 0,0004 0,0004 0,0004 0,0005 0,0005 0,0005
-3,20 0,0005 0,0005 0,0005 0,0006 0,0006 0,0006 0,0006 0,0006 0,0007 0,0007
-3,10 0,0007 0,0007 0,0008 0,0008 0,0008 0,0008 0,0009 0,0009 0,0009 0,0010
-3,00 0,0010 0,0010 0,0011 0,0011 0,0011 0,0012 0,0012 0,0013 0,0013 0,0013
-2,90 0,0014 0,0014 0,0015 0,0015 0,0016 0,0016 0,0017 0,0018 0,0018 0,0019
-2,80 0,0019 0,0020 0,0021 0,0021 0,0022 0,0023 0,0023 0,0024 0,0025 0,0026
-2,70 0,0026 0,0027 0,0028 0,0029 0,0030 0,0031 0,0032 0,0033 0,0034 0,0035
-2,60 0,0036 0,0037 0,0038 0,0039 0,0040 0,0041 0,0043 0,0044 0,0045 0,0047
-2,50 0,0048 0,0049 0,0051 0,0052 0,0054 0,0055 0,0057 0,0059 0,0060 0,0062
-2,40 0,0064 0,0066 0,0068 0,0069 0,0071 0,0073 0,0075 0,0078 0,0080 0,0082
-2,30 0,0084 0,0087 0,0089 0,0091 0,0094 0,0096 0,0099 0,0102 0,0104 0,0107
-2,20 0,0110 0,0113 0,0116 0,0119 0,0122 0,0125 0,0129 0,0132 0,0136 0,0139
-2,10 0,0143 0,0146 0,0150 0,0154 0,0158 0,0162 0,0166 0,0170 0,0174 0,0179
-2,00 0,0183 0,0188 0,0192 0,0197 0,0202 0,0207 0,0212 0,0217 0,0222 0,0228
-1,90 0,0233 0,0239 0,0244 0,0250 0,0256 0,0262 0,0268 0,0274 0,0281 0,0287
-1,80 0,0294 0,0301 0,0307 0,0314 0,0322 0,0329 0,0336 0,0344 0,0351 0,0359
-1,70 0,0367 0,0375 0,0384 0,0392 0,0401 0,0409 0,0418 0,0427 0,0436 0,0446
-1,60 0,0455 0,0465 0,0475 0,0485 0,0495 0,0505 0,0516 0,0526 0,0537 0,0548
-1,50 0,0559 0,0571 0,0582 0,0594 0,0606 0,0618 0,0630 0,0643 0,0655 0,0668
-1,40 0,0681 0,0694 0,0708 0,0721 0,0735 0,0749 0,0764 0,0778 0,0793 0,0808
-1,30 0,0823 0,0838 0,0853 0,0869 0,0885 0,0901 0,0918 0,0934 0,0951 0,0968
-1,20 0,0985 0,1003 0,1020 0,1038 0,1056 0,1075 0,1093 0,1112 0,1131 0,1151
-1,10 0,1170 0,1190 0,1210 0,1230 0,1251 0,1271 0,1292 0,1314 0,1335 0,1357
-1,00 0,1379 0,1401 0,1423 0,1446 0,1469 0,1492 0,1515 0,1539 0,1562 0,1587
-0,90 0,1611 0,1635 0,1660 0,1685 0,1711 0,1736 0,1762 0,1788 0,1814 0,1841
-0,80 0,1867 0,1894 0,1922 0,1949 0,1977 0,2005 0,2033 0,2061 0,2090 0,2119
-0,70 0,2148 0,2177 0,2206 0,2236 0,2266 0,2296 0,2327 0,2358 0,2389 0,2420
-0,60 0,2451 0,2483 0,2514 0,2546 0,2578 0,2611 0,2643 0,2676 0,2709 0,2743
-0,50 0,2776 0,2810 0,2843 0,2877 0,2912 0,2946 0,2981 0,3015 0,3050 0,3085
-0,40 0,3121 0,3156 0,3192 0,3228 0,3264 0,3300 0,3336 0,3372 0,3409 0,3446
-0,30 0,3483 0,3520 0,3557 0,3594 0,3632 0,3669 0,3707 0,3745 0,3783 0,3821
-0,20 0,3859 0,3897 0,3936 0,3974 0,4013 0,4052 0,4090 0,4129 0,4168 0,4207
-0,10 0,4247 0,4286 0,4325 0,4364 0,4404 0,4443 0,4483 0,4522 0,4562 0,4602
0,00 0,4641 0,4681 0,4721 0,4761 0,4801 0,4840 0,4880 0,4920 0,4960 0,5000

242
A.2. Distribución Normal Z ∼ N (0, 1) para 0 ≤ z0

z0 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,9980 0,9981
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,9990 0,9990
3,1 0,9990 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998
3,6 0,9998 0,9998 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999

243
A.3. Distribución Chi-cuadrado

p
0.005 0.01 0.025 0.05 0.1 0.9 0.95 0.975 0.99 0.995
ν
1 0.000 0.000 0.001 0.004 0.016 2.705 3.841 5.024 6.635 7.879
2 0.010 0.020 0.051 0.103 0.211 4.605 5.992 7.378 9.210 10.597
3 0.072 0.115 0.216 0.352 0.584 6.251 7.815 9.348 11.345 12.838
4 0.207 0.297 0.484 0.711 1.064 7.779 9.488 11.143 13.277 14.860
5 0.412 0.554 0.831 1.145 1.610 9.236 11.070 12.832 15.086 16.750
6 0.676 0.872 1.237 1.635 2.204 10.645 12.592 14.449 16.812 18.548
7 0.989 1.239 1.690 2.167 2.833 12.017 14.067 16.013 18.475 20.278
8 1.344 1.647 2.180 2.733 3.490 13.362 15.507 17.535 20.090 21.955
9 1.735 2.088 2.700 3.325 4.168 14.684 16.919 19.023 21.666 23.589
10 2.156 2.558 3.247 3.940 4.865 15.987 18.307 20.483 23.209 25.188
11 2.603 3.054 3.816 4.575 5.578 17.275 19.675 21.920 24.725 26.757
12 3.074 3.571 4.404 5.226 6.304 18.549 21.026 23.337 26.217 28.299
13 3.565 4.107 5.009 5.892 7.042 19.812 22.362 24.736 27.688 29.820
14 4.075 4.660 5.629 6.571 7.790 21.064 23.685 26.119 29.141 31.319
15 4.601 5.229 6.262 7.261 8.547 22.307 24.996 27.488 30.578 32.801
16 5.142 5.812 6.908 7.962 9.312 23.542 26.296 28.845 32.000 34.267
17 5.697 6.408 7.564 8.672 10.085 24.769 27.587 30.191 33.409 35.718
18 6.265 7.015 8.231 9.390 10.865 25.989 28.869 31.526 34.805 37.157
19 6.844 7.633 8.906 10.117 11.651 27.204 30.143 32.852 36.191 38.582
20 7.434 8.260 9.591 10.851 12.443 28.412 31.410 34.170 37.566 39.997
21 8.034 8.897 10.283 11.591 13.240 29.615 32.671 35.479 38.932 41.401
22 8.643 9.543 10.982 12.338 14.041 30.813 33.924 36.781 40.289 42.796
23 9.260 10.196 11.689 13.091 14.848 32.007 35.172 38.076 41.638 44.181
24 9.886 10.856 12.401 13.848 15.659 33.196 36.415 39.364 42.980 45.559
25 10.520 11.524 13.120 14.611 16.473 34.382 37.653 40.647 44.314 46.928
26 11.160 12.198 13.844 15.379 17.292 35.563 38.885 41.923 45.642 48.290
27 11.808 12.879 14.573 16.151 18.114 36.741 40.113 43.194 46.963 49.645
28 12.461 13.565 15.308 16.928 18.939 37.916 41.337 44.461 48.278 50.993
29 13.121 14.257 16.047 17.708 19.768 39.087 42.557 45.722 49.588 52.336
30 13.787 14.954 16.791 18.493 20.599 40.256 43.773 46.979 50.892 53.672

244
A.4. Distribución T-Student
p
0.750 0.800 0.850 0.900 0.950 0.975 0.990 0.995
ν
1 1.000 1.376 1.963 3.078 6.314 12.706 31.821 63.657
2 0.816 1.061 1.386 1.886 2.920 4.303 6.965 9.925
3 0.765 0.978 1.250 1.638 2.353 3.182 4.541 5.841
4 0.741 0.941 1.190 1.533 2.132 2.776 3.747 4.604
5 0.727 0.920 1.156 1.476 2.015 2.571 3.365 4.032
6 0.718 0.906 1.134 1.440 1.943 2.447 3.143 3.707
7 0.711 0.896 1.119 1.415 1.895 2.365 2.998 3.499
8 0.706 0.889 1.108 1.397 1.860 2.306 2.896 3.355
9 0.703 0.883 1.100 1.383 1.833 2.262 2.821 3.250
10 0.700 0.879 1.093 1.372 1.812 2.228 2.764 3.169
11 0.697 0.876 1.088 1.363 1.796 2.201 2.718 3.106
12 0.695 0.873 1.083 1.356 1.782 2.179 2.681 3.055
13 0.694 0.870 1.079 1.350 1.771 2.160 2.650 3.012
14 0.692 0.868 1.076 1.345 1.761 2.145 2.624 2.977
15 0.691 0.866 1.074 1.341 1.753 2.131 2.602 2.947
16 0.690 0.865 1.071 1.337 1.746 2.120 2.583 2.921
17 0.689 0.863 1.069 1.333 1.740 2.110 2.567 2.898
18 0.688 0.862 1.067 1.330 1.734 2.101 2.552 2.878
19 0.688 0.861 1.066 1.328 1.729 2.093 2.539 2.861
20 0.687 0.860 1.064 1.325 1.725 2.086 2.528 2.845
21 0.686 0.859 1.063 1.323 1.721 2.080 2.518 2.831
22 0.686 0.858 1.061 1.321 1.717 2.074 2.508 2.819
23 0.685 0.858 1.060 1.319 1.714 2.069 2.500 2.807
24 0.685 0.857 1.059 1.318 1.711 2.064 2.492 2.797
25 0.684 0.856 1.058 1.316 1.708 2.060 2.485 2.787
26 0.684 0.856 1.058 1.315 1.706 2.056 2.479 2.779
27 0.684 0.855 1.057 1.314 1.703 2.052 2.473 2.771
28 0.683 0.855 1.056 1.313 1.701 2.048 2.467 2.763
29 0.683 0.854 1.055 1.311 1.699 2.045 2.462 2.756
30 0.683 0.854 1.055 1.310 1.697 2.042 2.457 2.750
40 0.681 0.851 1.050 1.303 1.684 2.021 2.423 2.704
60 0.679 0.848 1.045 1.296 1.671 2.000 2.390 2.660
120 0.677 0.845 1.041 1.289 1.658 1.980 2.358 2.617
Ψ 0.674 0.842 1.036 1.282 1.645 1.960 2.326 2.576

245
A.5. Distribución Fisher (Tabla I), 1 − α = 0,90
ν1
1 2 3 4 5 6 7 8 9
ν2
1 39.863 49.500 53.593 55.833 57.240 58.204 58.906 59.439 59.858
2 8.526 9.000 9.162 9.243 9.293 9.326 9.349 9.367 9.381
3 5.538 5.462 5.391 5.343 5.309 5.285 5.266 5.252 5.240
4 4.545 4.325 4.191 4.107 4.051 4.010 3.979 3.955 3.936
5 4.060 3.780 3.619 3.520 3.453 3.405 3.368 3.339 3.316
6 3.776 3.463 3.289 3.181 3.108 3.055 3.014 2.983 2.958
7 3.589 3.257 3.074 2.961 2.883 2.827 2.785 2.752 2.725
8 3.458 3.113 2.924 2.806 2.726 2.668 2.624 2.589 2.561
9 3.360 3.006 2.813 2.693 2.611 2.551 2.505 2.469 2.440
10 3.285 2.924 2.728 2.605 2.522 2.461 2.414 2.377 2.347
11 3.225 2.860 2.660 2.536 2.451 2.389 2.342 2.304 2.274
12 3.177 2.807 2.606 2.480 2.394 2.331 2.283 2.245 2.214
13 3.136 2.763 2.560 2.434 2.347 2.283 2.234 2.195 2.164
14 3.102 2.726 2.522 2.395 2.307 2.243 2.193 2.154 2.122
15 3.073 2.695 2.490 2.361 2.273 2.208 2.158 2.119 2.086
16 3.048 2.668 2.462 2.333 2.244 2.178 2.128 2.088 2.055
17 3.026 2.645 2.437 2.308 2.218 2.152 2.102 2.061 2.028
18 3.007 2.624 2.416 2.286 2.196 2.130 2.079 2.038 2.005
19 2.990 2.606 2.397 2.266 2.176 2.109 2.058 2.017 1.984
20 2.975 2.589 2.380 2.249 2.158 2.091 2.040 1.999 1.965
21 2.961 2.575 2.365 2.233 2.142 2.075 2.023 1.982 1.948
22 2.949 2.561 2.351 2.219 2.128 2.060 2.008 1.967 1.933
23 2.937 2.549 2.339 2.207 2.115 2.047 1.995 1.953 1.919
24 2.927 2.538 2.327 2.195 2.103 2.035 1.983 1.941 1.906
25 2.918 2.528 2.317 2.184 2.092 2.024 1.971 1.929 1.895
26 2.909 2.519 2.307 2.174 2.082 2.014 1.961 1.919 1.884
27 2.901 2.511 2.299 2.165 2.073 2.005 1.952 1.909 1.874
28 2.894 2.503 2.291 2.157 2.064 1.996 1.943 1.900 1.865
29 2.887 2.495 2.283 2.149 2.057 1.988 1.935 1.892 1.857
30 2.881 2.489 2.276 2.142 2.049 1.980 1.927 1.884 1.849
40 2.835 2.440 2.226 2.091 1.997 1.927 1.873 1.829 1.793
60 2.791 2.393 2.177 2.041 1.946 1.875 1.819 1.775 1.738
120 2.748 2.347 2.130 1.992 1.896 1.824 1.767 1.722 1.684
∞ 2.706 2.303 2.084 1.945 1.847 1.774 1.717 1.67 1.632

246
A.6. Distribución Fisher (Tabla II), 1 − α = 0,90
ν1
10 15 20 24 30 40 60 120 ∞
ν2
1 60.195 61.22 61.74 62.002 62.265 62.529 62.794 63.061 63.328
2 9.392 9.425 9.441 9.450 9.458 9.466 9.475 9.483 9.491
3 5.230 5.200 5.184 5.176 5.168 5.160 5.151 5.143 5.134
4 3.920 3.870 3.844 3.831 3.817 3.804 3.790 3.775 3.761
5 3.297 3.238 3.207 3.191 3.174 3.157 3.140 3.123 3.105
6 2.937 2.871 2.836 2.818 2.800 2.781 2.762 2.742 2.722
7 2.703 2.632 2.595 2.575 2.555 2.535 2.514 2.493 2.471
8 2.538 2.464 2.425 2.404 2.383 2.361 2.339 2.316 2.293
9 2.416 2.340 2.298 2.277 2.255 2.232 2.208 2.184 2.159
10 2.323 2.244 2.201 2.178 2.155 2.132 2.107 2.082 2.055
11 2.248 2.167 2.123 2.100 2.076 2.052 2.026 2.000 1.972
12 2.188 2.105 2.060 2.036 2.011 1.986 1.960 1.932 1.904
13 2.138 2.053 2.007 1.983 1.958 1.931 1.904 1.876 1.846
14 2.095 2.010 1.962 1.938 1.912 1.885 1.857 1.828 1.797
15 2.059 1.972 1.924 1.899 1.873 1.845 1.817 1.787 1.755
16 2.028 1.940 1.891 1.866 1.839 1.811 1.782 1.751 1.718
17 2.001 1.912 1.862 1.836 1.809 1.781 1.751 1.719 1.686
18 1.977 1.887 1.837 1.810 1.783 1.754 1.723 1.691 1.657
19 1.956 1.865 1.814 1.787 1.759 1.730 1.699 1.666 1.631
20 1.937 1.845 1.794 1.767 1.738 1.708 1.677 1.643 1.607
21 1.920 1.827 1.776 1.748 1.719 1.689 1.657 1.623 1.586
22 1.904 1.811 1.759 1.731 1.702 1.671 1.639 1.604 1.567
23 1.890 1.796 1.744 1.716 1.686 1.655 1.622 1.587 1.549
24 1.877 1.783 1.730 1.702 1.672 1.641 1.607 1.571 1.533
25 1.866 1.771 1.718 1.689 1.659 1.627 1.593 1.557 1.518
26 1.855 1.760 1.706 1.677 1.647 1.615 1.581 1.544 1.504
27 1.845 1.749 1.695 1.666 1.636 1.603 1.569 1.531 1.491
28 1.836 1.740 1.685 1.656 1.625 1.592 1.558 1.520 1.478
29 1.827 1.731 1.676 1.647 1.616 1.583 1.547 1.509 1.467
30 1.819 1.722 1.667 1.638 1.606 1.573 1.538 1.499 1.456
40 1.763 1.662 1.605 1.574 1.541 1.506 1.467 1.425 1.377
60 1.707 1.603 1.543 1.511 1.476 1.437 1.395 1.348 1.291
120 1.652 1.545 1.482 1.447 1.409 1.368 1.320 1.265 1.193
∞ 1.599 1.487 1.421 1.383 1.342 1.295 1.240 1.169 1.001

247
A.7. Distribución Fisher (Tabla I), 1 − α = 0,95
ν1
1 2 3 4 5 6 7 8 9
ν2
1 161.448 199.5 215.707 224.583 230.162 233.986 236.768 238.883 240.543
2 18.513 19.000 19.164 19.247 19.296 19.330 19.353 19.371 19.385
3 10.128 9.552 9.277 9.117 9.013 8.941 8.887 8.845 8.812
4 7.709 6.944 6.591 6.388 6.256 6.163 6.094 6.041 5.999
5 6.608 5.786 5.409 5.192 5.050 4.950 4.876 4.818 4.772
6 5.987 5.143 4.757 4.534 4.387 4.284 4.207 4.147 4.099
7 5.591 4.737 4.347 4.120 3.972 3.866 3.787 3.726 3.677
8 5.318 4.459 4.066 3.838 3.687 3.581 3.500 3.438 3.388
9 5.117 4.256 3.863 3.633 3.482 3.374 3.293 3.230 3.179
10 4.965 4.103 3.708 3.478 3.326 3.217 3.135 3.072 3.020
11 4.844 3.982 3.587 3.357 3.204 3.095 3.012 2.948 2.896
12 4.747 3.885 3.490 3.259 3.106 2.996 2.913 2.849 2.796
13 4.667 3.806 3.411 3.179 3.025 2.915 2.832 2.767 2.714
14 4.600 3.739 3.344 3.112 2.958 2.848 2.764 2.699 2.646
15 4.543 3.682 3.287 3.056 2.901 2.790 2.707 2.641 2.588
16 4.494 3.634 3.239 3.007 2.852 2.741 2.657 2.591 2.538
17 4.451 3.592 3.197 2.965 2.810 2.699 2.614 2.548 2.494
18 4.414 3.555 3.160 2.928 2.773 2.661 2.577 2.510 2.456
19 4.381 3.522 3.127 2.895 2.740 2.628 2.544 2.477 2.423
20 4.351 3.493 3.098 2.866 2.711 2.599 2.514 2.447 2.393
21 4.325 3.467 3.072 2.840 2.685 2.573 2.488 2.420 2.366
22 4.301 3.443 3.049 2.817 2.661 2.549 2.464 2.397 2.342
23 4.279 3.422 3.028 2.796 2.640 2.528 2.442 2.375 2.320
24 4.260 3.403 3.009 2.776 2.621 2.508 2.423 2.355 2.300
25 4.242 3.385 2.991 2.759 2.603 2.490 2.405 2.337 2.282
26 4.225 3.369 2.975 2.743 2.587 2.474 2.388 2.321 2.265
27 4.210 3.354 2.960 2.728 2.572 2.459 2.373 2.305 2.250
28 4.196 3.340 2.947 2.714 2.558 2.445 2.359 2.291 2.236
29 4.183 3.328 2.934 2.701 2.545 2.432 2.346 2.278 2.223
30 4.171 3.316 2.922 2.690 2.534 2.421 2.334 2.266 2.211
40 4.085 3.232 2.839 2.606 2.449 2.336 2.249 2.180 2.124
60 4.001 3.150 2.758 2.525 2.368 2.254 2.167 2.097 2.040
120 3.920 3.072 2.680 2.447 2.290 2.175 2.087 2.016 1.959
∞ 3.841 2.996 2.605 2.372 2.214 2.099 2.010 1.938 1.880

248
A.8. Distribución Fisher (Tabla II), 1 − α = 0,95
ν1
10 15 20 24 30 40 60 120 ∞
ν2
1 241.882 245.95 248.013 249.052 250.095 251.143 252.196 253.253 254.314
2 19.396 19.429 19.446 19.454 19.462 19.471 19.479 19.487 19.496
3 8.786 8.703 8.660 8.639 8.617 8.594 8.572 8.549 8.526
4 5.964 5.858 5.803 5.774 5.746 5.717 5.688 5.658 5.628
5 4.735 4.619 4.558 4.527 4.496 4.464 4.431 4.398 4.365
6 4.060 3.938 3.874 3.841 3.808 3.774 3.740 3.705 3.669
7 3.637 3.511 3.445 3.410 3.376 3.340 3.304 3.267 3.230
8 3.347 3.218 3.150 3.115 3.079 3.043 3.005 2.967 2.928
9 3.137 3.006 2.936 2.900 2.864 2.826 2.787 2.748 2.707
10 2.978 2.845 2.774 2.737 2.700 2.661 2.621 2.580 2.538
11 2.854 2.719 2.646 2.609 2.570 2.531 2.490 2.448 2.404
12 2.753 2.617 2.544 2.505 2.466 2.426 2.384 2.341 2.296
13 2.671 2.533 2.459 2.420 2.380 2.339 2.297 2.252 2.206
14 2.602 2.463 2.388 2.349 2.308 2.266 2.223 2.178 2.131
15 2.544 2.403 2.328 2.288 2.247 2.204 2.160 2.114 2.066
16 2.494 2.352 2.276 2.235 2.194 2.151 2.106 2.059 2.010
17 2.450 2.308 2.230 2.190 2.148 2.104 2.058 2.011 1.960
18 2.412 2.269 2.191 2.150 2.107 2.063 2.017 1.968 1.917
19 2.378 2.234 2.155 2.114 2.071 2.026 1.980 1.930 1.878
20 2.348 2.203 2.124 2.082 2.039 1.994 1.946 1.896 1.843
21 2.321 2.176 2.096 2.054 2.010 1.965 1.916 1.866 1.812
22 2.297 2.151 2.071 2.028 1.984 1.938 1.889 1.838 1.783
23 2.275 2.128 2.048 2.005 1.961 1.914 1.865 1.813 1.757
24 2.255 2.108 2.027 1.984 1.939 1.892 1.842 1.790 1.733
25 2.236 2.089 2.007 1.964 1.919 1.872 1.822 1.768 1.711
26 2.220 2.072 1.990 1.946 1.901 1.853 1.803 1.749 1.691
27 2.204 2.056 1.974 1.930 1.884 1.836 1.785 1.731 1.672
28 2.190 2.041 1.959 1.915 1.869 1.820 1.769 1.714 1.654
29 2.177 2.027 1.945 1.901 1.854 1.806 1.754 1.698 1.638
30 2.165 2.015 1.932 1.887 1.841 1.792 1.740 1.683 1.622
40 2.077 1.924 1.839 1.793 1.744 1.693 1.637 1.577 1.509
60 1.993 1.836 1.748 1.700 1.649 1.594 1.534 1.467 1.389
120 1.91 1.750 1.659 1.608 1.554 1.495 1.429 1.352 1.254
∞ 1.831 1.666 1.571 1.517 1.459 1.394 1.318 1.221 1.001

249
A.9. Distribución Fisher (Tabla I), 1 − α = 0,975
ν1
1 2 3 4 5 6 7 8 9
ν2
1 647.789 799.5 864.163 899.583 921.848 937.111 948.217 956.656 963.285
2 38.506 39 39.165 39.248 39.298 39.331 39.355 39.373 39.387
3 17.443 16.044 15.439 15.101 14.885 14.735 14.624 14.54 14.473
4 12.218 10.649 9.979 9.605 9.364 9.197 9.074 8.980 8.905
5 10.007 8.434 7.764 7.388 7.146 6.978 6.853 6.757 6.681
6 8.813 7.260 6.599 6.227 5.988 5.820 5.695 5.600 5.523
7 8.073 6.542 5.890 5.523 5.285 5.119 4.995 4.899 4.823
8 7.571 6.059 5.416 5.053 4.817 4.652 4.529 4.433 4.357
9 7.209 5.715 5.078 4.718 4.484 4.320 4.197 4.102 4.026
10 6.937 5.456 4.826 4.468 4.236 4.072 3.950 3.855 3.779
11 6.724 5.256 4.630 4.275 4.044 3.881 3.759 3.664 3.588
12 6.554 5.096 4.474 4.121 3.891 3.728 3.607 3.512 3.436
13 6.414 4.965 4.347 3.996 3.767 3.604 3.483 3.388 3.312
14 6.298 4.857 4.242 3.892 3.663 3.501 3.380 3.285 3.209
15 6.200 4.765 4.153 3.804 3.576 3.415 3.293 3.199 3.123
16 6.115 4.687 4.077 3.729 3.502 3.341 3.219 3.125 3.049
17 6.042 4.619 4.011 3.665 3.438 3.277 3.156 3.061 2.985
18 5.978 4.560 3.954 3.608 3.382 3.221 3.100 3.005 2.929
19 5.922 4.508 3.903 3.559 3.333 3.172 3.051 2.956 2.880
20 5.871 4.461 3.859 3.515 3.289 3.128 3.007 2.913 2.837
21 5.827 4.420 3.819 3.475 3.250 3.090 2.969 2.874 2.798
22 5.786 4.383 3.783 3.440 3.215 3.055 2.934 2.839 2.763
23 5.750 4.349 3.750 3.408 3.183 3.023 2.902 2.808 2.731
24 5.717 4.319 3.721 3.379 3.155 2.995 2.874 2.779 2.703
25 5.686 4.291 3.694 3.353 3.129 2.969 2.848 2.753 2.677
26 5.659 4.265 3.670 3.329 3.105 2.945 2.824 2.729 2.653
27 5.633 4.242 3.647 3.307 3.083 2.923 2.802 2.707 2.631
28 5.610 4.221 3.626 3.286 3.063 2.903 2.782 2.687 2.611
29 5.588 4.201 3.607 3.267 3.044 2.884 2.763 2.669 2.592
30 5.568 4.182 3.589 3.250 3.026 2.867 2.746 2.651 2.575
40 5.424 4.051 3.463 3.126 2.904 2.744 2.624 2.529 2.452
60 5.286 3.925 3.343 3.008 2.786 2.627 2.507 2.412 2.334
120 5.152 3.805 3.227 2.894 2.674 2.515 2.395 2.299 2.222
∞ 5.024 3.689 3.116 2.786 2.567 2.408 2.288 2.192 2.114

250
A.10. Distribución Fisher (Tabla II), 1 − α = 0,975
ν1
10 15 20 24 30 40 60 120 ∞
ν2
1 968.627 984.867 993.103 997.249 1001.414 1005.598 1009.800 1014.020 1018.258
2 39.398 39.431 39.448 39.456 39.465 39.473 39.481 39.490 39.498
3 14.419 14.253 14.167 14.124 14.081 14.037 13.992 13.947 13.902
4 8.844 8.657 8.560 8.511 8.461 8.411 8.360 8.309 8.257
5 6.619 6.428 6.329 6.278 6.227 6.175 6.123 6.069 6.015
6 5.461 5.269 5.168 5.117 5.065 5.012 4.959 4.904 4.849
7 4.761 4.568 4.467 4.415 4.362 4.309 4.254 4.199 4.142
8 4.295 4.101 3.999 3.947 3.894 3.840 3.784 3.728 3.670
9 3.964 3.769 3.667 3.614 3.560 3.505 3.449 3.392 3.333
10 3.717 3.522 3.419 3.365 3.311 3.255 3.198 3.140 3.080
11 3.526 3.330 3.226 3.173 3.118 3.061 3.004 2.944 2.883
12 3.374 3.177 3.073 3.019 2.963 2.906 2.848 2.787 2.725
13 3.250 3.053 2.948 2.893 2.837 2.780 2.720 2.659 2.595
14 3.147 2.949 2.844 2.789 2.732 2.674 2.614 2.552 2.487
15 3.060 2.862 2.756 2.701 2.644 2.585 2.524 2.461 2.395
16 2.986 2.788 2.681 2.625 2.568 2.509 2.447 2.383 2.316
17 2.922 2.723 2.616 2.560 2.502 2.442 2.380 2.315 2.247
18 2.866 2.667 2.559 2.503 2.445 2.384 2.321 2.256 2.187
19 2.817 2.617 2.509 2.452 2.394 2.333 2.270 2.203 2.133
20 2.774 2.573 2.464 2.408 2.349 2.287 2.223 2.156 2.085
21 2.735 2.534 2.425 2.368 2.308 2.246 2.182 2.114 2.042
22 2.700 2.498 2.389 2.331 2.272 2.210 2.145 2.076 2.003
23 2.668 2.466 2.357 2.299 2.239 2.176 2.111 2.041 1.968
24 2.640 2.437 2.327 2.269 2.209 2.146 2.080 2.010 1.935
25 2.613 2.411 2.300 2.242 2.182 2.118 2.052 1.981 1.906
26 2.590 2.387 2.276 2.217 2.157 2.093 2.026 1.954 1.878
27 2.568 2.364 2.253 2.195 2.133 2.069 2.002 1.930 1.853
28 2.547 2.344 2.232 2.174 2.112 2.048 1.980 1.907 1.829
29 2.529 2.325 2.213 2.154 2.092 2.028 1.959 1.886 1.807
30 2.511 2.307 2.195 2.136 2.074 2.009 1.940 1.866 1.787
40 2.388 2.182 2.068 2.007 1.943 1.875 1.803 1.724 1.637
60 2.270 2.061 1.944 1.882 1.815 1.744 1.667 1.581 1.482
120 2.157 1.945 1.825 1.760 1.690 1.614 1.530 1.433 1.310
∞ 2.048 1.833 1.708 1.640 1.566 1.484 1.388 1.268 1.001

251
A.11. Distribución Fisher (Tabla I), 1 − α = 0,99
ν1
1 2 3 4 5 6 7 8 9
ν2
1 4052.181 4999.500 5403.352 5624.583 5763.650 5858.986 5928.356 5981.070 6022.473
2 98.503 99.000 99.166 99.249 99.299 99.333 99.356 99.374 99.388
3 34.116 30.817 29.457 28.710 28.237 27.911 27.672 27.489 27.345
4 21.198 18.000 16.694 15.977 15.522 15.207 14.976 14.799 14.659
5 16.258 13.274 12.060 11.392 10.967 10.672 10.456 10.289 10.158
6 13.745 10.925 9.780 9.148 8.746 8.466 8.260 8.102 7.976
7 12.246 9.547 8.451 7.847 7.460 7.191 6.993 6.840 6.719
8 11.259 8.649 7.591 7.006 6.632 6.371 6.178 6.029 5.911
9 10.561 8.022 6.992 6.422 6.057 5.802 5.613 5.467 5.351
10 10.044 7.559 6.552 5.994 5.636 5.386 5.200 5.057 4.942
11 9.646 7.206 6.217 5.668 5.316 5.069 4.886 4.744 4.632
12 9.330 6.927 5.953 5.412 5.064 4.821 4.640 4.499 4.388
13 9.074 6.701 5.739 5.205 4.862 4.620 4.441 4.302 4.191
14 8.862 6.515 5.564 5.035 4.695 4.456 4.278 4.140 4.030
15 8.683 6.359 5.417 4.893 4.556 4.318 4.142 4.004 3.895
16 8.531 6.226 5.292 4.773 4.437 4.202 4.026 3.890 3.780
17 8.400 6.112 5.185 4.669 4.336 4.102 3.927 3.791 3.682
18 8.285 6.013 5.092 4.579 4.248 4.015 3.841 3.705 3.597
19 8.185 5.926 5.010 4.500 4.171 3.939 3.765 3.631 3.523
20 8.096 5.849 4.938 4.431 4.103 3.871 3.699 3.564 3.457
21 8.017 5.780 4.874 4.369 4.042 3.812 3.640 3.506 3.398
22 7.945 5.719 4.817 4.313 3.988 3.758 3.587 3.453 3.346
23 7.881 5.664 4.765 4.264 3.939 3.710 3.539 3.406 3.299
24 7.823 5.614 4.718 4.218 3.895 3.667 3.496 3.363 3.256
25 7.770 5.568 4.675 4.177 3.855 3.627 3.457 3.324 3.217
26 7.721 5.526 4.637 4.140 3.818 3.591 3.421 3.288 3.182
27 7.677 5.488 4.601 4.106 3.785 3.558 3.388 3.256 3.149
28 7.636 5.453 4.568 4.074 3.754 3.528 3.358 3.226 3.120
29 7.598 5.420 4.538 4.045 3.725 3.499 3.330 3.198 3.092
30 7.562 5.390 4.510 4.018 3.699 3.473 3.304 3.173 3.067
40 7.314 5.179 4.313 3.828 3.514 3.291 3.124 2.993 2.888
60 7.077 4.977 4.126 3.649 3.339 3.119 2.953 2.823 2.718
120 6.851 4.787 3.949 3.480 3.174 2.956 2.792 2.663 2.559
∞ 6.635 4.605 3.782 3.319 3.017 2.802 2.639 2.511 2.407

252
A.12. Distribución Fisher (Tabla II), 1 − α = 0,99
ν1
10 15 20 24 30 40 60 120 ∞
ν2
1 6055.847 6157.285 6208.730 6234.631 6260.649 6286.782 6313.030 6339.391 6365.864
2 99.399 99.433 99.449 99.458 99.466 99.474 99.482 99.491 99.499
3 27.229 26.872 26.690 26.598 26.505 26.411 26.316 26.221 26.125
4 14.546 14.198 14.020 13.929 13.838 13.745 13.652 13.558 13.463
5 10.051 9.722 9.553 9.466 9.379 9.291 9.202 9.112 9.020
6 7.874 7.559 7.396 7.313 7.229 7.143 7.057 6.969 6.880
7 6.620 6.314 6.155 6.074 5.992 5.908 5.824 5.737 5.650
8 5.814 5.515 5.359 5.279 5.198 5.116 5.032 4.946 4.859
9 5.257 4.962 4.808 4.729 4.649 4.567 4.483 4.398 4.311
10 4.849 4.558 4.405 4.327 4.247 4.165 4.082 3.996 3.909
11 4.539 4.251 4.099 4.021 3.941 3.860 3.776 3.690 3.602
12 4.296 4.010 3.858 3.780 3.701 3.619 3.535 3.449 3.361
13 4.100 3.815 3.665 3.587 3.507 3.425 3.341 3.255 3.165
14 3.939 3.656 3.505 3.427 3.348 3.266 3.181 3.094 3.004
15 3.805 3.522 3.372 3.294 3.214 3.132 3.047 2.959 2.868
16 3.691 3.409 3.259 3.181 3.101 3.018 2.933 2.845 2.753
17 3.593 3.312 3.162 3.084 3.003 2.920 2.835 2.746 2.653
18 3.508 3.227 3.077 2.999 2.919 2.835 2.749 2.660 2.566
19 3.434 3.153 3.003 2.925 2.844 2.761 2.674 2.584 2.489
20 3.368 3.088 2.938 2.859 2.778 2.695 2.608 2.517 2.421
21 3.310 3.030 2.880 2.801 2.720 2.636 2.548 2.457 2.360
22 3.258 2.978 2.827 2.749 2.667 2.583 2.495 2.403 2.305
23 3.211 2.931 2.781 2.702 2.620 2.535 2.447 2.354 2.256
24 3.168 2.889 2.738 2.659 2.577 2.492 2.403 2.310 2.211
25 3.129 2.850 2.699 2.620 2.538 2.453 2.364 2.270 2.169
26 3.094 2.815 2.664 2.585 2.503 2.417 2.327 2.233 2.131
27 3.062 2.783 2.632 2.552 2.470 2.384 2.294 2.198 2.097
28 3.032 2.753 2.602 2.522 2.440 2.354 2.263 2.167 2.064
29 3.005 2.726 2.574 2.495 2.412 2.325 2.234 2.138 2.034
30 2.979 2.700 2.549 2.469 2.386 2.299 2.208 2.111 2.006
40 2.801 2.522 2.369 2.288 2.203 2.114 2.019 1.917 1.805
60 2.632 2.352 2.198 2.115 2.028 1.936 1.836 1.726 1.601
120 2.472 2.192 2.035 1.950 1.860 1.763 1.656 1.533 1.381
∞ 2.321 2.039 1.878 1.791 1.696 1.592 1.473 1.325 1.001

253

También podría gustarte