Está en la página 1de 28

MÓDULO I:

«ANALISIS DE LAS FUNCIONES


ESPECIALES»

1
ÍNDICE

MÓDULO I: ANALISIS DE LAS FUNCIONES ESPECIALES

DE PROBABILIDAD

Pág.

I. INTRODUCCIÓN A LA PROBABILIDAD 2

II. FUNCIONES ESPECIALES DE PROBABILIDAD

DISCRETA: LEYES BINOMIAL Y DE POISSON. 5

III. FUNCIONES ESPECIALES DE PROBABILIDAD

DISCRETA; LEYES HIPERGEOMÉTRICA Y

GEOMÉTRICA. 19

IV. FUNCIONES ESPECIALES DE PROBABILIDAD

CONTÍNUA LEY NORMAL Y NORMAL ESTÁNDAR 22

2
MÓDULO I

ANALISIS DE LAS FUNCIONES ESPECIALES DE PROBABILIDAD

I. INTRODUCCIÓN A LA PROBABILIDAD

1.1. Teoría de la Probabilidad.

La teoría de la probabilidad fue aplicada con éxito en las mesas de juego y, lo


que es más importante en nuestro estudio, a problemas sociales y económicos.
La industria de seguros, que surgió en el siglo XIX, requería un conocimiento
preciso acerca de los riesgos de pérdida, con el fin de calcular las primas.
Medio siglo más tarde, muchos centros de aprendizaje estaban estudiando la
probabilidad como una herramienta para el entendimiento de los fenómenos
sociales. En la actualidad, la teoría matemática de la probabilidad es la base
para las aplicaciones estadísticas, tanto en investigaciones sociales como en
la toma de decisiones.
La probabilidad constituye parte importante de nuestra vida cotidiana. En la toma de
decisiones personales y administrativas, nos enfrentamos a la incertidumbre y utilizamos la
teoría de la probabilidad, admitamos o no el uso de algo tan complejo. Cuando escuchamos
una predicción de un 70% de posibilidades de lluvia, cambiamos nuestros planes de salir de
día de campo y nos quedamos en casa divirtiéndonos con juegos de mesa. Cuando jugamos
al bridge, hacemos algunas estimaciones de probabilidad antes de intentar una jugada
arriesgada. Los administradores que se encargan de inventarios de ropa de moda para mujer
deben preguntarse sobre las posibilidades de que las ventas alcancen o excedan un cierto
nivel, y el comprador que adquiere una patineta considera la probabilidad de duración de su
pasajero capricho.
Vivimos en un mundo incapaz de predecir el futuro con total certidumbre. Nuestra necesidad
de encarar a la incertidumbre nos lleva a estudiar y utilizar la teoría de la probabilidad. En
muchos casos, nosotros, como ciudadanos preocupados, tendremos algún conocimiento
sobre los posibles resultados de una decisión. Al organizar esta información y considerarla
de manera sistemática seremos capaces de reconocer nuestras suposiciones, comunicar
nuestro razonamiento a otras personas y tomar una decisión más sólida que la que
tomaríamos si sólo diéramos palos de ciego.

3
1.2. Distribución de probabilidad.

Las distribuciones de probabilidad están relacionadas con las distribuciones de frecuencias.


Podemos pensar que una distribución de probabilidad es una distribución de frecuencias
teórica. Una distribución de frecuencias teórica es una distribución de probabilidades que
describe la forma en que se espera varíen los resultados. Como estas distribuciones
representan expectativas de que algo suceda, resultan modelos útiles para hacer inferencias
y tomar decisiones en condiciones de incertidumbre.
Ejemplo 1: Suponga que lanzamos esa moneda dos veces, los posibles resultados para este
experimento de dos lanzamientos, considerando:
Cara está representada con una H;
Cruz con una T
Los posibles resultados para este experimento de dos lanzamientos. Serían:

TABLA 1

Suponga ahora que nos interesa formular una distribución de probabilidad del número de
cruces (T) que podrían caer cuando lanzamos la moneda dos veces. Podríamos empezar
por anotar cualquier resultado que no contenga cruces. Con una moneda no alterada,
estaríamos hablando exclusivamente del tercer resultado de la tabla. Luego anotaríamos los
resultados que tuvieran sólo una cruz (segundo y cuarto resultados de la tabla), por último,
incluiríamos el primer resultado que contiene dos cruces.

TABLA 2

4
Si ordenamos los resultados para enfatizar el número de cruces contenidas en cada
resultado. En este punto, debemos tener cuidado y considerar que la tabla 3 no representa
el resultado real de lanzar una moneda no alterada dos veces; Se trata del resultado teórico,
es decir, representa la forma en que esperamos que se comporte nuestro experimento de
dos lanzamientos.

TABLA 3

Ejemplo 2: Una candidata política para un puesto en el gobierno local está considerando los
votos que puede obtener en las elecciones que se avecinan. Suponga que los votos pueden
tomar sólo cuatro valores posibles. Si la estimación de la candidata es como sigue:

Una distribución de frecuencias es un listado de las frecuencias observadas de todos los


resultados de un experimento que se presentaron realmente cuando se efectuó éste,
mientras que una distribución de probabilidad es un listado de las probabilidades de todos
los posibles resultados que podrían obtenerse si el experimento se llevara a cabo. Como
hemos visto en el ejemplo anterior y en las tablas 1-2-3, las distribuciones de probabilidad
pueden basarse en consideraciones teóricas como los lanzamientos de una moneda o en
una estimación subjetiva de la posibilidad de ciertos resultados como la estimación de la
candidata.
Las distribuciones de probabilidad se pueden basar también en la
experiencia. Poe ejemplo los actuarios de las compañías de seguros,
determinan las pólizas de seguros haciendo uso de los largos años de
experiencia que las compañías tienen acerca de los índices de
mortalidad para establecer la probabilidad de muerte entre los diferentes
grupos de edad.

5
1.3. Tipos de Distribución de frecuencias

Las distribuciones de probabilidad se clasifican como discretas y continuas. En la distribución


de probabilidad discreta está permitido considerar sólo un número limitado de valores. En
ejemplo 2 se muestra un ejemplo de distribución de probabilidad discreta, en la que
expresamos las ideas de la candidata sobre las elecciones que se avecinan. En ella, los
votos pueden tomar sólo cuatro valores posibles. De manera análoga, la probabilidad de que
usted haya nacido en un mes dado es también discreta, puesto que sólo hay 12 posibles
valores (los 12 meses del año).
En una distribución de probabilidad continua, por otro lado, la variable que se está
considerando puede tomar cualquier valor dentro de un intervalo dado. Suponga que
estamos examinando el nivel de afluencia de un cierto número de arroyos, y medimos este
nivel en partes de afluencia por millones de partes de agua. Podríamos esperar un intervalo
bastante continuo de partes por millón (ppm), en todas las corrientes, desde los niveles más
bajos en los pequeños arroyos de montaña hasta niveles en extremo altos en los arroyos
contaminados. De hecho, sería muy normal que la variable “partes por millón” tomara una
cantidad enorme de valores. Podríamos decir que la distribución de esta variable (ppm) es
una distribución continua. Las distribuciones continuas son una forma conveniente de
presentar distribuciones discretas que tienen muchos resultados posibles, todos muy
cercanos entre sí.

II. FUNCIONES ESPECIALES DE PROBABILIDAD DISCRETA: LEYES BINOMIAL


Y DE POISSON.

2.1. Ley Binomial.

Una distribución de probabilidad de variable aleatoria discreta utilizada ampliamente es la


distribución binomial. Esta distribución describe una variedad de procesos de interés para
los administradores. Por otra parte, describe datos discretos, no continuos, que son resultado
de un experimento conocido como proceso de Bernoulli, en honor del matemático suizo
nacido en el siglo XVII, Jacob Bernoulli.

6
Ejemplo 1: El lanzamiento de la moneda no
alterada un número fijo de veces es un proceso de
Bernoulli, y los resultados de tales lanzamientos
pueden representarse mediante la distribución
binomial de probabilidad.
Ejemplo 2: El éxito o fracaso de los solicitantes de
empleo, entrevistados para prueba de aptitudes,
también puede ser descrito como un proceso de
Bernoulli.
Por otro lado, la distribución de frecuencias de la
duración de las luces fluorescentes de una fábrica se podría medir mediante una escala
continua de tiempo y no se podría clasificar como una distribución binomial.

Uso del proceso de Bernoulli.

Podemos utilizar el resultado del lanzamiento de una moneda no alterada un cierto número
de veces como ejemplo de un proceso de Bernoulli. Podemos describir el proceso de la
siguiente manera:
1. Cada intento (cada lanzamiento, en este caso) tiene solamente dos resultados
posibles: cara o cruz, sí o no, éxito o fracaso.
2. La probabilidad del resultado de cualquier intento (lanzamiento) permanece fijo con
respecto al tiempo. Con una moneda no alterada, la probabilidad de obtener cara
siempre es 0.5 para cada lanzamiento, independientemente del número de veces
que se lance la moneda.
3. Los intentos son estadísticamente independientes, es decir, el resultado de un
lanzamiento no afecta el resultado de cualquier otro lanzamiento.
Cada proceso de Bernoulli tiene su propia probabilidad característica. Considere una
situación en la que, a lo largo del tiempo, siete décimas partes de todas las personas que
solicitan cierto tipo de trabajo aprueban el examen de aptitudes. Diríamos que, en este caso,
la probabilidad característica es de 0.7, pero podríamos describir el resultado del examen
como de Bernoulli sólo si tenemos la certeza de que la fracción de los que aprueban el
examen (0.7) permanece constante en el tiempo. Desde luego que las otras características
del proceso de Bernoulli también deben cumplirse. Cada examen tendría que tener
solamente dos resultados (éxito o fracaso) y los resultados de cada prueba deberían ser
estadísticamente independientes.

7
En un lenguaje más formal, el símbolo p representa la probabilidad de tener éxito (0.7 en
este ejemplo) y el símbolo q (q= 1- p) es la probabilidad de que resulte en un fracaso (0.3).
Para representar un cierto número de éxitos, utilizaremos el símbolo r, y para representar el
número total de intentos o de ensayos utilizamos el símbolo n. En las situaciones que
analizaremos, el número de ensayos está fijo desde antes de empezar el experimento.
Calculemos, para utilizar este lenguaje en un problema sencillo, las posibilidades de obtener
exactamente dos caras (en cualquier orden) en tres lanzamientos de una moneda no
alterada. Simbólicamente, expresamos los valores de la forma siguiente: • p = probabilidad
característica o probabilidad de tener éxito = 0.5

• q = 1- p probabilidad de fracaso = 0.5


• r = número de éxitos deseados = 2
• n = número de intentos hechos = 3
Podemos resolver el problema utilizando la fórmula binomial:

Aunque esta fórmula pueda parecer un tanto complicada, se le puede utilizar con bastante
facilidad.
El símbolo! significa factorial y se calcula de la manera siguiente:
3! significa 3 x 2 x 1= 6.
Para calcular 5!, multiplicamos 5 x 4 x 3 x 2 = 1 120.
En matemática se definen 0! = 1.
Utilizando la fórmula binomial para resolver nuestro problema, descubrimos que
Probabilidad de 2 éxitos en 3 intentos

Por tanto, existe una probabilidad de 0.375 de obtener dos caras en tres lanzamientos de
una moneda no alterada.

8
Para resolver problemas más grandes, se convierte en algo bastante complicado. De hecho,
haciendo uso de la fórmula binomial, no se facilitan las cosas cuando tenemos que calcular
el valor de algo como 19 factorial. Por este motivo, se han construido tablas de probabilidad
binomial.

Presentaciones gráficas de la distribución binomial.

Consideremos la siguiente situación: Es frecuente que los empleados lleguen tarde a trabajar
a la Farmacia Kerr, donde hay cinco empleados en ella. El propietario ha estudiado la
situación durante cierto periodo y determinó que hay una probabilidad de 0.4 de que
cualquier empleado llegue tarde y que las llegadas de los mismos son independientes entre
sí.
¿Cómo podríamos trazar una distribución binomial de probabilidad que ejemplifique las
probabilidades de que 0, 1, 2, 3, 4 o 5 empleados lleguen tarde simultáneamente? Para
hacerlo, necesitaríamos utilizar la fórmula binomial donde:
p= 0.4
q= 0.6
n= 5
Se deben efectuar cálculos separados para cada r, desde 0 hasta 5. Recordemos que,
matemáticamente, cualquier número elevado a la cero potencia es igual a 1. Tenemos que
empezar con la fórmula binomial:

Probabilidad de tener r llegadas tarde de n empleados =

9
Gráficamente:

10
Podemos hacer las siguientes generalizaciones:
1. Cuando p es pequeña (0.l), la distribución binomial está sesgada hacia la derecha. 2.
Conforme p aumenta (a 0.3, por ejemplo), el sesgo es menos notable.
3. Cuando p 0.5, la distribución binomial es simétrica.
4. Cuando p es mayor que 0.5, la distribución está sesgada hacia la izquierda.
5. Las probabilidades para 0.3, por ejemplo, son las mismas para 0.7, excepto que los
valores de p y q están invertidos.
Esto se aplica a cualquier pareja de valores p y q complementarios (0.3 y 0.7; 0.4 y 0.6; 0.2
y 0.8). Examinemos gráficamente lo que sucede a la distribución binomial cuando p se
mantiene constante y n aumenta. A medida que n aumenta, las líneas verticales no nada
más se hacen más numerosas, sino que también tienden a juntarse cada vez más para
asumir la forma de una campana.

Uso de las tablas Binomiales.

Resulta tedioso calcular las probabilidades mediante la fórmula binomial cuando n es un


número grande, para ello podemos utilizar la tabla Binomial para determinar con rapidez las
probabilidades binomiales.
Para ejemplificar el uso de las tablas binomiales, consideremos el siguiente problema:
¿Cuál es la probabilidad de que ocho de los 15 votantes demócratas empadronados de
Prince Street no puedan votar en las elecciones preliminares, si la probabilidad de que
cualquier individuo no pueda votar es de 0.30, y si las personas deciden de manera
independiente si votan o no?
Primero representamos los elementos de este problema en notación de distribución
binomial:
n =15 número de demócratas empadronados
p= 0.30 probabilidad de que cualquier individuo no vote
r= 8 número de individuos que no van a votar
Entonces, como el problema implica 15 ensayos, debemos encontrar la tabla
correspondiente a n =15. Como la probabilidad de que un individuo no vote es de 0.30,
buscamos en la tabla binomial hasta encontrar la columna cuyo encabezado es 0.30. Nos
desplazamos después hacia abajo de la columna hasta que estamos opuestos a la columna
r = 8, en donde tenemos la respuesta, 0.0348. ( Ver tabla ).
Ésta es la probabilidad de que ocho votantes empadronados no voten.
Se verá que las probabilidades de las tablas binomiales que se encuentran en la parte
superior de las columnas de números llegan sólo hasta 0.50. ¿Cómo resolver problemas con

11
probabilidades mayores a 0.5? Simplemente remítase a las tablas binomiales y, en este
caso, busque los valores de probabilidad que están al pie de las columnas; éstas van desde
0.50 hasta 0.99.

Medidas de tendencia central y de dispersión para la distribución binomial


La distribución binomial tiene un valor esperado o media (µ) y una desviación estándar (σ);
veremos la forma en que ambas medidas estadísticas se pueden calcular.
De manera intuitiva, podemos pensar que si una cierta máquina produce partes buenas con
p = 0.5, entonces, la media de la distribución de las partes buenas de la producción será de
0.5 veces la producción total.
Si se tiene una probabilidad de 0.5 de obtener cara al lanzar una moneda no alterada,
después de un número grande de lanzamientos, la media de la distribución binomial del
número de caras será 0.5 veces el número total de lanzamientos. Simbólicamente, podemos
representar la media de una distribución binomial como:

En la que:
• n = número de ensayos
• p = probabilidad de tener éxito

Podemos calcular la desviación estándar de una distribución binomial haciendo uso de la


fórmula:

En la que:
• n =número de ensayos
• p =probabilidad de éxito
• q probabilidad de fracaso = 1 - p

Para ver la forma en que se utilizan las ecuaciones, tomemos el caso de una máquina
empacadora que produce el 20% de paquetes defectuosos. Si tomamos una muestra

12
aleatoria de 10 paquetes, podemos calcular la media y la desviación estándar de la
distribución binomial del proceso de la siguiente manera:

Cumplimiento de las condiciones para emplear el proceso de Bernoulli Debemos ser


cuidadosos al usar la distribución binomial de la probabilidad y asegurar que se cumplan las
tres condiciones necesarias dadas anteriormente para un proceso de Bernoulli, en particular
las condiciones 2 y 3.
La condición 2 requiere que la probabilidad del resultado de cualquier intento permanezca
fija en el tiempo. En muchos procesos industriales, sin embargo, resulta en extremo difícil
garantizar que, en efecto, éste sea el caso. Cada vez que una máquina industrial produce
una parte, por ejemplo, se da un desgaste infinitesimal de la máquina. Si tal desgaste se
acumula más allá de un punto razonable, la fracción de partes aceptables producidas por la
máquina se verá alterada, y la condición 2 para el uso de la distribución binomial puede
violarse.
En el experimento del lanzamiento de una moneda no se presenta este problema, pero es
algo a considerar en las aplicaciones a la vida real de la distribución binomial de la
probabilidad.
La condición 3 requiere que los ensayos de un proceso de Bernoulli sean estadísticamente
independientes, es decir, que el resultado de un intento no afecte de ningún modo el
resultado de cualquier otro intento. Aquí, también, podemos encontrar algunos problemas
en aplicaciones reales. Tome en consideración un proceso de selección para un empleo en
el cual los candidatos con alto potencial se ven impedidos por posiciones políticas. Si el
entrevistador ha hablado con cinco candidatos no aceptables de manera consecutiva, puede
ser que no entreviste al sexto con imparcialidad completa.
Los ensayos, por tanto, no son estadísticamente independientes.

2.2. Ley de Poisson

La distribución de Poisson debe su nombre a Siméon Denis Poisson (1781-1840), un francés


que desarrolló la distribución a partir de los estudios que realizó durante la última parte de
su vida. La distribución de Poisson se utiliza para describir ciertos tipos de procesos, entre
los que se encuentran la distribución de llamadas telefónicas que llegan a un conmutador,
las solicitudes de pacientes que requieren servicio en una institución de salud, las llegadas

13
de camiones y automóviles a una caseta de cobro, y el número de accidentes registrados
en cierta intersección.
Estos ejemplos tienen en común un elemento: pueden ser descritos mediante una variable
aleatoria discreta que toma valores enteros (0, 1, 2, 3, 4, 5, etc).
El número de pacientes que llegan al consultorio de un médico en un cierto intervalo será de
0, 1, 2, 3, 4, 5 o algún otro número entero. De manera parecida, si se cuenta el número de
automóviles que llegan a una caseta de cobro de alguna carretera durante un periodo de 10
minutos, el número será de 0, 1, 2, 3, 4, 5 y así consecutivamente.

Características de los procesos que producen una distribución de probabilidad de


Poisson-
El número de vehículos que pasan por una sola caja de una caseta de cobro en una hora
pico sirve para ilustrar las características de la distribución de probabilidad de Poisson:
1. El promedio (la media) del número de vehículos que llegan por hora pico puede estimarse
a partir de datos sobre tráfico que se tengan disponibles.
2. Si dividimos la hora pico en periodos (intervalos) de un segundo cada uno, encontraremos
que las siguientes afirmaciones son verdaderas:
a) La probabilidad de que exactamente un vehículo llegue a una caja por segundo es muy
pequeña y es constante para cada intervalo de un segundo.
b) La probabilidad de que dos o más vehículos lleguen en un intervalo de un segundo es tan
pequeña que le podemos asignar un valor de cero.
c) El número de vehículos que llegan en un intervalo dado de un segundo es independiente
del momento en que dicho intervalo se presente en la hora pico.
d) El número de llegadas en cualquier intervalo de un segundo no depende del número de
llegadas en cualquier otro intervalo de un segundo.

Ahora estamos en disposición de generalizar a partir del ejemplo de la caseta de cobro y


aplicar estas características a otros procesos. Si estos nuevos procesos cumplen con las
mismas cuatro condiciones, entonces podemos utilizar la distribución de probabilidad de
Poisson para describirlos.

14
Cálculo de la probabilidad de Poisson utilizando la tabla.

La distribución de probabilidad de Poisson, como hemos mostrado, tiene que ver con ciertos
procesos que pueden ser descritos por una variable aleatoria discreta. Generalmente, la letra
X representa a esta variable discreta y puede tomar valores enteros (0, 1, 2, 3, 4, 5, etc).
Utilizamos la mayúscula X para representar a la variable aleatoria y la minúscula x para
señalar un valor específico que dicha variable pueda tomar. La probabilidad de tener
exactamente x ocurrencias en una distribución de Poisson se calcula con la fórmula:

Suponga que estamos investigando la seguridad de una peligrosa intersección. Los registros
policiacos indican una media de cinco accidentes mensuales en esta intersección. El número
de accidentes está distribuido de acuerdo con una distribución de Poisson, y el
Departamento de Seguridad de Tránsito desea que calculemos la probabilidad de que en
cualquier mes ocurran exactamente 0, 1, 2, 3 o 4 accidentes. Podemos utilizar la tabla para
evitar el tener que calcular e elevadas a potencias negativas. Aplicando la fórmula

Podemos calcular la probabilidad de que no ocurran accidentes:

15
De que ocurra exactamente un accidente:

De que ocurra exactamente dos accidentes:

De que ocurra exactamente tres accidentes:

De que ocurra exactamente cuatro accidentes:

Nuestros cálculos responderán a varias preguntas. Quizá deseemos conocer la


probabilidad de tener 0, 1 o 2 accidentes mensuales. Podemos averiguar esto
sumando la probabilidad de tener exactamente 0, 1 y 2 accidentes, de la
siguiente forma:

Tomaremos medidas para mejorar la seguridad de la intersección si la


probabilidad de que ocurran más de tres accidentes mensuales excede 0.65.
¿Debemos tomar medidas? Para resolver este problema, necesitamos calcular
la probabilidad de tener 0, 1, 2 o 3 accidentes y luego restar el resultado de 1.0
para obtener la probabilidad de más de tres accidentes. Empezamos así:

16
Como la probabilidad de Poisson de que ocurran tres o menos accidentes es de
0.26511, la probabilidad de tener más de tres accidentes debe ser 0.73489
(1.00000 - 0.26511). Debido a que 0.73489 es mayor que 0.65, es necesario
tomar medidas para mejorar la seguridad de la intersección. Podríamos
continuar calculando las probabilidades para más de cuatro accidentes y al final
construir una distribución de probabilidad de Poisson del número de accidentes
mensuales en esta intersección.
La tabla ilustra dicha distribución.

Para producir esta tabla, hemos utilizado la ecuación. La figura ilustra la


distribución de probabilidad de Poisson para la cantidad de accidentes.

17
Búsqueda de probabilidades de Poisson utilizando la tabla
Afortunadamente, realizar a mano los cálculos de las probabilidades de Poisson
no es necesario. El empleo de la tabla permite obtener los mismos resultados
que si hiciéramos los cálculos, pero ahorrándonos el trabajo tedioso.
Revisemos nuevamente el problema de la intersección presentado
anteriormente. En éste calculamos, de la siguiente manera, la probabilidad de
que hubiera cuatro accidentes:

Para utilizar la tabla todo lo que necesitamos saber son los valores de x y
λ (lambda), en este ejemplo, 4 y 5, respectivamente. Después busque en la tabla.
Primero encuentre la columna cuyo encabezado es 5; luego recórrala hacia
abajo hasta que esté a la altura del 4 y lea la respuesta directamente, 0.1755.
Eso es mucho menos trabajo, Un ejemplo más nos asegurará de que ya
dominamos el método.
Ejemplo: Las lesiones laborales graves que ocurren en una planta siderúrgica,
tienen una media anual de 2.7. Dado que las condiciones de seguridad serán
iguales en la planta durante el próximo año, ¿cuál es la probabilidad de que el
número de lesiones graves sea menor que dos?

El evento de que ocurrirán menos de dos lesiones graves, es el evento que x =


0 o bien x =1, por lo tanto,

Recuérdese que 0! = 1, por lo tanto, la probabilidad de que haya menos de dos


lesiones laborales graves el próximo año en la planta fabril de acero, es 0.249.
Por conveniencia se proporciona en la tabla de Poisson, las sumas parciales,
para la distribución de probabilidad de Poisson según valores de μ desde 0.25,
hasta 5.0, con crementos de 0.25.

18
La distribución de Poisson como una aproximación de la distribución
binomial.
En algunas ocasiones, si deseamos ahorrarnos la tediosa tarea de calcular
distribuciones binomiales de probabilidad, podemos utilizar la distribución de
Poisson. La distribución de Poisson puede ser una razonable aproximación de
la binomial, pero sólo bajo ciertas condiciones. Tales condiciones se presentan
cuando n es grande y p es pequeña, esto es, cuando el número de ensayos es
grande y la probabilidad binomial de tener éxito es pequeña. La regla que utilizan
con más frecuencia los estadísticos es que la distribución de Poisson es una
buena aproximación de la distribución binomial cuando n es igual o mayor que
20 y p es igual o menor a 0.05. En los casos en que se cumplen estas
condiciones, podemos sustituir la media de la distribución binomial (np) en lugar
de la media de la distribución de Poisson (λ), de modo que la fórmula queda:

Utilicemos la fórmula para la probabilidad binomial, y la fórmula de la


aproximación de Poisson, en el mismo problema para determinar el grado en el
que la distribución de Poisson es una buena aproximación de la binomial.
Si tenemos un hospital con 20 aparatos para diálisis y que la probabilidad de que
cualquiera de ellos no funcione bien durante un día cualquiera es de 0.02. ¿Cuál
es la probabilidad de que exactamente tres máquinas estén fuera de servicio en
el mismo día?
Mostraremos ambas respuestas a esta pregunta.

Como podemos darnos cuenta, la diferencia entre las dos distribuciones de


probabilidad es pequeña (de sólo el 10% de error, aproximadamente, en este
ejemplo)

19
III. FUNCIONES ESPECIALES DE PROBABILIDAD DISCRETA; LEYES
HIPERGEOMÉTRICA Y GEOMÉTRICA.

3.1 LEY HIPERGEOMÉTRICA

La distribución hipergeométrica es el modelo que se aplica en experimentos del siguiente


tipo:
En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la probabilidad de que al
sacar 2 bolas las dos sean blancas?
Son experimentos donde, al igual que en la distribución binomial, en cada ensayo hay tan
sólo dos posibles resultados: o sale blanca o no sale. Pero se diferencia de la distribución
binomial en que los distintos ensayos son dependientes entre sí:
Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca,
en el segundo ensayo hay una bola blanca menos por lo que las probabilidades son
diferentes (hay dependencia entre los distintos ensayos).
La distribución hipergeométrica sigue el siguiente modelo:

P(X) =

Distribución Hipergeométrica de parámetros k, n y N

Ejemplo

20
Un lote contiene 100 piezas de un proveedor de tubería local y 200 unidades de un proveedor
de tubería del estado vecino. Si se seleccionan cuatro piezas al azar y sin reemplazo,
a) ¿Cuál es la probabilidad de que todas sean del proveedor local?
b) ¿Cuál es la probabilidad de que dos o más piezas de la muestra sean del proveedor local?
c) ¿Cuál es la probabilidad de que al menos una pieza de la muestra sea del proveedor
local?
La probabilidad de que todas sean del proveedor local
Sea X igual al número de piezas de la muestra del proveedor local. Entonces, x tiene una
distribución hipergeométrica y la probabilidad pedida es P(x=4). Por consiguiente,

La probabilidad de que dos o más piezas de la muestra sean del proveedor local

La probabilidad de que al menos una pieza de la muestra sea del proveedor local

3.2 LEY GEOMÉTRICA


Esta distribución sirve para calcular la probabilidad de que ocurra un éxito por primera y
única vez en el último ensayo que se realiza del experimento.
Sea A un suceso de probabilidad P(A)=p, y sea X la variable aleatoria que expresa el número
de fracasos que tiene lugar en las repeticiones independientes de pruebas de Benouili, hasta
que ocurre A por primera vez. La variable X toma los valores de 0,1,2,….(número de
fracasos). Decimos que una variable aleatoria X sigue una distribución geométrica de
parámetros p si su función de probabilidad es

21
Dónde:
P= probabilidad de éxito en cada ensayo
x= ensayos que sean necesarios para obtener un éxito, para x = 1, 2, 3,..

Lo anterior solo se cumple si y solo si:


º Las pruebas son idénticas e independientes entre sí.
º La probabilidad de éxito es p y se mantiene constante de prueba en prueba

La función depende del parámetro p, y presenta siempre una asimetría a la derecha como
se puede observar en las siguientes gráficas:

Función Generadora de Momentos

Esperanza

Varianza

Ejemplo: Una maquina detecta fallas en los productos que elabora una fábrica. Si los
productos tienen una probabilidad de falla del 5%, calcular la probabilidad de que la maquina
encuentre su primer producto defectuoso en la octava ocasión que selecciona un producto
para su inspección.
Definir éxito: salga defectuoso el producto.
X=8

22
p = 0.05
q = 1 - 0.05 = 0.95
P(X=8) = (0.95)7(0.05) = 0.0349

IV. FUNCIONES ESPECIALES DE PROBABILIDAD CONTINUA LEY NORMAL Y


NORMAL ESTÁNDAR.
4.1 Ley Normal

Una distribución de probabilidad continua que es muy importante es la distribución normal.


Varios matemáticos han contribuido a su desarrollo, entre los que podemos contar al
astrónomo-matemático del siglo XVIII Karl Gauss. En honor a su trabajo, la distribución de
probabilidad normal también es conocida como distribución gaussiana. Existen dos razones
fundamentales por las cuales la distribución normal ocupa un lugar tan prominente en la
estadística. Primero, tiene algunas propiedades que la hacen aplicable a un gran número de
situaciones en las que es necesario hacer inferencias mediante la toma de muestras.
Segundo, la distribución normal casi se ajusta a las distribuciones de frecuencias reales
observadas en muchos fenómenos, incluyendo características humanas (peso, altura,
coeficiente intelectual), resultados de procesos físicos (dimensiones y rendimientos), y
muchas otras medidas de interés para los administradores, tanto en el sector público como
en el privado.
Características de la distribución normal de probabilidad
Observe durante un momento la figura.

Este diagrama pone de manifiesto varias características importantes de una distribución


normal de probabilidad:
1. La curva tiene un solo pico; por tanto, es unimodal. Tiene la forma de campana.
2. La media de una población distribuida normalmente cae en el centro de su curva normal.

23
3. Debido a la simetría de la distribución normal de probabilidad, la mediana y la moda de la
distribución se encuentran también en el centro; en consecuencia, para una curva normal,
la media, la mediana y la moda tienen el mismo valor.

Se trata, sin duda, del modelo continuo más importante en estadística, tanto por su aplicación
directa, veremos que muchas variables de interés general pueden describirse por dicho
modelo, como por sus propiedades, que han permitido el desarrollo de numerosas técnicas
de inferencia estadística. En realidad, el nombre de Normal proviene del hecho de que
durante un tiempo se creyó, por parte de médicos y biólogos, que todas las variables
naturales de interés seguían este modelo.

Su función de densidad viene dada por la fórmula:

Como vemos, depende de dos parámetros μ (que puede ser cualquier valor real) y σ (que
ha de ser positiva). Por esta razón, a partir de ahora indicaremos de forma abreviada que
una variable X sigue el modelo Normal así: X ~ N(μ, σ). Por ejemplo, si nos referimos a una
distribución Normal con μ = 0 y σ = 1 lo abreviaremos N(0, 1).

Como se puede ver, la función de densidad del modelo Normal tiene forma de campana, la
que habitualmente se denomina campana de Gauss. De hecho, a este modelo, también se
le conoce con el nombre de distribución gaussiana.

Propiedades del modelo Normal

1. Su esperanza es μ.
2. Su varianza es σ2 y, por tanto, su desviación típica es σ.
3. Es simétrica respecto a su media μ, como puede apreciarse en la representación
anterior.
4. Media, moda y mediana coinciden (μ).
5. Cualquier transformación lineal de una variable con distribución Normal seguirá
también el modelo Normal. Si X ~ N(μ, σ) y definimos Y = aX + b (con a ≠ 0),
entonces Y ~N(aμ + b, |a|σ). Es decir, la esperanza de Y será aμ + b y su desviación
típica, |a| σ.
6. Cualquier combinación lineal de variables normales independientes sigue también
una distribución Normal. Es decir, dadas n variables aleatorias independientes con

24
distribución Xi ~ N(μi, σi) para i = 1, 2, ..., n la combinación lineal: Y = anXn + an−1Xn−1+
... + a1X1 + a0 sigue también el modelo Normal:

4.2 Ley Normal estándar

La distribución Normal estándar es la distribución Normal N (0, 1) que tiene media y


desviación estándar. Si una variable x tiene una distribución Normal N (µ, σ) entonces
la variable estándar lo es.
Todas las distribuciones Normales son lo mismo si usamos las unidades de medida
σ alrededor de su media µ que es el centro. El proceso para cambiar nuestra
distribución a estas variables se le conoce como estandarización.
Si x es una observación de una distribución con media µ y desviación estándar σ, el
valor estándar de x lo es
z=x−µ
σ

Este valor estándar también se le conoce como valor-z. El valor-z nos indica cuantas
desviaciones estándares esta la observación original de si media y en que dirección.
Las observaciones mayores que su media toman valores positivos cuando se
estandarizan mientras los valores que son menores a su media toman valores
negativos.
Ejemplo El peso de una bolsa de “papitas” cuya etiqueta indica que es de 9oz es
aproximadamente Normal con µ = 9.12oz y σ = 0.15oz.
El peso estándar es
z = X− 9.12
0.15
Ejemplo una bolsa que pese 9.3oz, su peso estandarizado lo es
z = 9.3 − 9.12 = 1.2
0.15

25
Gráficamente:

El área bajo la curva Normal estándar a la izquierda del punto z = 1.2


Ejemplo. La tasa de rendimiento anual de ciertas acciones se distribuye aproximadamente
Normal. Desde el 1945, la bolsa de valores Standard & Poor’s 500 tiene un rendimiento anual
promedio de 12 % con una desviación estándar de 16.5 %. Se toma esta distribución Normal
para el rendimiento anual por largos periodos. ¿En qué proporción de años el mercado baja?
1. Establecer el problema: Sea x la tasa de rendimiento anual de Standard & Poor’s 500.
La variable x tiene una distribución Normal N (12, 16.5). Queremos saber la proporción
cuando x < 0. 2.
2. Estandarizamos: Restando la media de x y dividiendo por la desviación estándar,
obtenemos:

En este caso utilizamos la tabla para la distribución Normal estándar podemos ver
que el área es 0.2327. El mercado va bajar anualmente un 23.27 % del tiempo. Note
que el ´área a la derecha de −0.73 es 1 − 0.2327 = 0.7673. Lo que nos indica que la
bolsa va a estar por encima un 76.73 % del tiempo.
Área bajo la curva en una curva Normal estándar

26
27
28

También podría gustarte