Está en la página 1de 35

UNIDAD N° 1

DISTRIBUCIÓN DE PROBABILIDADES

Competencia:

-Identifica y utiliza correctamente los modelos probabilísticos en la resolución de problemas


inherentes a variables aleatorias en forma general.

Objetivos.

-Resolver correctamente todo tipo de problema que tengan que ver con la incertidumbre , mediante
la utilización de los modelos probabilísticos

Descripción general de la unidad:

-Esta unidad comprende el desarrollo de las diferentes distribuciones de probabilidades tanto


discretas como las continuas con sus respectivas características más aplicadas en el campo de la
Ingeniería
Tema Nº1 :Distribuciones Discretas
Competencia: Identifica y utiliza los Modelos de Distribuciones Discretas en la resolución de
problemas inherentes a variables aleatorias discretas
Descripción del tema:Se desarrollarán los principales Modelos de Distribución Discretos, con sus
respectivas características,para su posterior aplicación a la resolución de problemas.
Tema Nº 2:Distribuciones Continuas
Competencia: Identifica y aplica los principales Modelos de Distribución Continuos en la
resolución de problemas inherentes a variables continuas
Descripción del tema:Se desarrollarán los Modelos de distribución Continuas más utilizadas en la
Ingeniería de acuerdo a sus características,y su posterior aplicaciópn en la resolución de problemas.

Lectura:Millar/Freund/Jonson “Probabilidad y Estadística para Ingenieros”Edo.de


México 1992 Pgs. 93 al 128
Bibliografía Básica: Moya y Saravia (1988) “Probabilidad e Inferencia Estadística((2ª ed)
Perú .Pags.407 al 553

Referencia electrónica:
http://www.itchihuahua.edu.mx/academic/industrial/sabaticiruta/private/01UNIDAD%20IV.uhtm

2
INTRODUCCIÓN

Entre uno de los objetivos de la Estadística Matemática es de determinar una distribución


de probabilidad o un modelo probabilistico que satisfaga una serie de supuestos para
analizar los resultados obtenidos de un experimento aleatorio.

Entre las distribuciones de probabilidades tenemos:

a) Las distribuciones discretas como ser la Bernoulli, Binomial, Hipergeométrica,


Geométrica, Poisson, etc.
b) Las Distribuciones continuas tenemos la Uniforme, Experimental, la Normal, X2, F, t

DISTRIBUCIONES DISCRETAS
t
Son aquellas distribuciones cuya variable aleatoria es discreta

1.DISTRIBUCIÓN BERNOULLI : X∼Bernoulli (p)

Se tiene la distribución Bernoulli, cuando las pruebas ó ensayos son de carácter


dicotómico, es decir sólo tienen 2 posibles resultados:

E = éxito ; F = fracaso ⇒

ε ⇒ Ω = [ E, F ] por ejemplo: Sean los siguientes experimentos aleatorios:

ε1 : “Lanzar una moneda” ⇒ Ω1 = [C , S ]


ε 2 “Determinar el sexo del ” ⇒ Ω 2 = [V , M ]
ε 3 : “verificar el resultado de un examen” ⇒ Ω 3 = [a, r ]

DEFINICIÓN

Se dice que una v. d. X∼Bernoulli sii sv Rx= [0,1]; donde la V.A.D. x:” N° de éxitos
obtenidos en un ensayo dicotómico”; cuya

FUNCIÓN DE PROBABILIDAD O CUANTÍA p(x)=p[X=x]=px(1-p)1-x; Rx= 0.1

Donde
p = probabilidad del éxito
q = probabilidad del fracaso
de tal manera que p+q=1
ó p = 1-q
ó q = 1-p
cuya distribución de probabilidad y representación con gráfico es:

x P(x)

3
0 q
1 p

P(x)

p
q
x

0 1

FUNCION DE DISTRIBUCION ACUMULADA F (x)

F(x) = p (X ≤ x) = 0 si x<0
9 si 0 ≤ x<1
1 si x≥1

CARACTERISTICAS

Entre sus principales caracteristicas tenemos:

1) LA MEDIA
x 0 1
E ( x) = μ = ∑ xP( x) = p
P( x) 9 p
E ( x) = μ = 0(q) + 1( p ) = p
xP( x) 0 p p

Mediante la F.g.m. sabemos que uno de los teoremas de la f.g.m.

d r M x (t )
μ'r = por lo tanto debemos antes determinar
dt r t =0
[ ] ∑
la fgm = M x (t ) = E etx = etx p x q1− x desarrollando la ∑
0 1−0 1 1−1
fgm = M x (t ) = e t ( 0)
p q +e t (1)
pq = q+etp
d ' (q + e p)
t
sabemos que E ( x) = μ = μ '1 = t =0
= 0 + pet t =0 pe 0 = p
dt '

2) LA VARIANZA

V ( x) = σ 2 = E ( x 2 ) − μ 2 = ∑x 2
p x q1− x − p 2
V ( x) = σ 2 = 0 2 p 0 q1−0 + 12 pq 0 − p 2 = p (1 − P ) = p.q
mediante la f.g.m. V ( x) = σ = μ '2 − μ 2 2

donde μ ' 2 =
d ' ' M x (t ) d ' q + et p [ ]
t =0 = t =0 = pe t t =0 = pe 0 = p
dt ' ' dt '
p.

4
⇒ V ( x) = p − p 2 = p(1 − p) =

DISTRIBUCIÓN BINOMIAL X∼ B(n,p) ó b(x :np)

Se llama experimento aleatorio binomial a un N° fijo “n” de reiteraciones independientes de


un experimento aleatorio Bernoulli que tiene las siguientes característica:

1. Los resultados de cada prueba son de carácter dicotómico, es decir Bernoulli


2. Las n pruebas Bernoulli son independientes
3. La probabilidad de éxito “p” supuestamente se mantiene constante en cada prueba

DEFINICIÓN una v.a.d X∼b(n,p), donde

X : “ N° de éxitos obtenidos en “n” ensayos Bernoulli” con Rx = 0,1,2,3,... n cuya

FUNCIÓN DE PROBABILIDAD O CUANTÍA

n
P(X)= P[X=x]=( x )pxqn-x:Rx0,1,2,3...n

Donde
p = probabilidad de éxito
q = probabilidad de fracaso
n = N° de ensayos Bernoulli

FUNCIÓN DE DISTRIBUCIÓN Ó ACUMULADA F(x)

0
x
si x < 0
n
F(x)= P(X ≤ x) =B(x;np)= ∑ (k ) p k q n − x si 0 ≤ x < n
k =0
1 si x > n

CARACTERÍSTICAS

n
1) LA MEDIA E ( x) = μ = ∑ xP( x) = ∑ x( x) p x q n − x = np
Rx

n
2) LA VARIANZA V ( x) = σ 2 = E ( x 2 ) − μ 2 = ∑ x 2 ( x) p x q n − x − (np ) 2 = npq

[ ]
3) LA FGM M x (t ) = E e tx = [1 + p (e t − 1)] n

RESOLUCIÓN DE PROBLEMAS CON MODELOS PROBABILISTICOS

5
Para resolver correctamente problemas inherentes a modelos probabilisticos, se sugiere
en un principio seguir los siguientes pasos:

1. Determinar el tipo de distribución de probabilidad que sigue la v. a. X de acuerdo las


características del experimento en cuestión.
2. Definir la v. a X de manera clara y completa con su Rx.
3. Determinar los parámetros de la función de probabilidad.
4. Utilizar correctamente la función de probabilidad, ó la acumulada ó tablas ó CPU.

Ejemplo

La probabilidad de que cierto ordenador de cine marca determinada falla, ante una
descarga eléctrica es del 1%¡cuales son las probabilidades de que entre 10 ordenadores
de dicha marca en un laboratorio.

a) 3 fallen
b) a lo más 2 fallen
c) al menos 3 fallen
d) el promedio y varianza que un ordenador falle

SOLUCIÓN

1) Como todo ordenador tiene sólo 2 posibles resultados falle o no falle (dicotómico)
2) Suponiendo que cada ordenador funciona independientemente
3) Suponiendo que la probabilidad de falla de los ordenadores es casi constante

n
Entonces asumimos que la v.a.d. X∼ b(n. p) ⇒ P(x)=( x )px qn-x Rx =0,1,2....n

Donde la v. a. d. X: “N° de ordenadores que fallan ante una descarga eléctrica de entre 10”
⎛ 10 ⎞
n=10: p=0.01:q=0.99 Rx=0,1,2.......10 ⇒ P( x) = ⎜ x ⎟0.01x 0.9910 − x ; R x = 0,1,2...10
⎝ ⎠

⎛ 10 ⎞
a) 3 fallen ⇒ P( x = 3) = ⎜ 3 ⎟(0.01) 3 (0.99) 7 = 0.00011
⎝ ⎠
2
b) a los más 2 fallen ⇒ P( x ≤ 2) = ∑ P ( x) = P(0) + 1P(1) + P(2) = 0.9999
0
10
c) al menos 3 fallen ⇒ P( x ≥ 3) = ∑ P( x) = P(3) + P(4) + ... + P(10)
3
mediante el complemento ⇒ P( x ≥ 3) = 1 − P( x ≤ 2) = 1 − 0.9999 = 0.00011

d) El promedio E(x)=np=10(0.01)=0.1=10%
La Varianza V(x):npq=10(0.01)(0.99)=0.099
APLICACIÓN DE LA BINOMIAL EN EL MUESTREO

6
Considerando cada elemento de una muestra aleatoria (m.a.) como un ensayo Benoulli
entonces la Distribución Binomial puede aplicarse en el muestreo bajo las siguientes
circunstancias:

1. Cuando el muestreo es con o sin reemplazo de una población infinita o muy grande
2. Cuando el muestreo es con reemplazo de una población pequeña o finita

Bajo estas 2 circunstancias entonces la v.a.d. X se define

X:”N° de elementos de la clase de nuestro interés en una m.a. de tamaño n”

K N °de elementos denuestro int eres


Donde p = =
N Población
x n− x
⎛ ⎞⎛ k ⎞ ⎛
n k⎞
p ( x) = P[ X = x] = ⎜ x ⎟⎜ ⎟ ⎜1 − ⎟ : x = 0,1,2,3...n
⎝ ⎠⎝ N ⎠ ⎝ N⎠

NOTA.- en la práctica el muestreo se lo realiza sin reemplazo de poblaciones finitas


especialmente cuando se realiza control de calidad, por lo tanto la distribución adecuada
es la hipergeométrica.

USO DE TABLAS

Cuando el tamaño de la m.a. es muy grande (n ≥ 30) el cálculo de las probabilidades


resulta tedioso porque lo que se sugiere utilizar paquetes estadísticos ó las tablas las que
están construidas en términos de la función de distribución ó acumulada F(x); para ello se
debe utilizar las siguientes relaciones

Para probabilidades acumuladas


x
F ( x) = P[X ≤ x ] = B( x; n. p) = ∑ b(k ; n. p); x = 0,1,2....n
k =0

Para probabilidades puntuales

P(x=x)=b(x:n.p)= B(x:n;p)-B((x-1);n.p)

Ejemplo

En una importación de computadoras muy grande, se sabe que por experiencia que el
25% de las mismas están infectadas con cierto virus. Se relaciona al azar 20
computadoras del lote de importación, para efectuar un control de calidad.

a) Cual es la verdadera distribución de probabilidad y cual debe asumirse por necesidad


del N° de computadoras infectadas con el virus
b) Cual es la probabilidad de que 3 cpu estas infectados

7
c) Cual la probabilidad que más de 3 estén infectadas
d) Determinar la media, la varianza y la desviación estándar

SOLUCIÓN

a) Como se trata de realizar un control de calidad la verdadera distribución es la


hipergeométrica, pero como no se conoce la población N se asume la distribución
⎛ 20 ⎞
Binomial. X b(n,p) ⇒ p( x) = ⎜ x ⎟(0.25) x (0.75) 20− x x = 0,1.2...20
⎝ ⎠
Donde P=0.25; q=0.75; n=20; x:”N° de CPU infectados en una m.a. de 30”
Rx=0,1,2......20
⎛ 20 ⎞
b) P P( x = 3) = ⎜ 3 ⎟(0.25)3 (0.75)17 = 0.1339
⎝ ⎠
Tablas P(x=3)=b(3;20;0.25)=B(3;20;0.25)-B(2;20;0.25)=0.2252-0.0913=0.1339
c) P(x > 3) = ∑P(x) =1 − P(x ≤ 3) =1 − ⎡⎢⎛⎜ 0 ⎞⎟(0.25)0 (0.75)20 + ⎛⎜ 1 ⎞⎟0.25(0.75)19 + ⎛⎜ 2 ⎞⎟0.252 (0.75)18 + ⎛⎜ 3 ⎞⎟0.253 (0.75)17 ⎤⎥ = 0.7748P
20 20 20 20 20

4 ⎣⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎝ ⎠ ⎦
tablas P[x>3]=1-P[x ≤ 3]=1-B(3;20;0.25)=1-0.2252=0.7748
d) E ( x) = μ = np = 20(0.25) = 5 ;V ( x) = σ 2 = npq = 20(0.25)(0.75) = 3.75σ = 1.94

DISTRIBUCIÓN GEOMÉTRICA

Esta distribución es una de los casos especiales de la Binomial y se utiliza cuando existe
un proceso Bernoulli y se desea obtener el primer éxito.

DEFINICIÓN

Se dice que la v.a.d.x...G(p): donde p= probabilidad del éxito en cada intento


Donde X:”N° de ensayos Bernouli hasta obtener el 1er éxito “Rx=1,2,3...

FUNCIÓN DE PROBABILIDAD P(x)=P[x=x]=pqx-1 : Rx=1,2,3...

FUNCIÓN DE DISTRUBUCION F(x)=P[x ≤ x]= 0 si x<1


1-qx si ≥ 1
∑ xP( x) = p
1
LA MEDIA E ( x) = μ =

q
LA VARIANZA V ( x) = σ 2 = E ( x 2 ) − μ 2 =
p2
q
LA DESVIACIÓN TÍPICA σ = V ( x) =
p2

LA f.g.m M x (t ) = p[q − e t q 2 ] =
−1 p
q − et q 2

PROPIEDADES

1. No tiene memoria

8
2. Es decreciente, es decir P[x]<P(x-1) ∀x = 2,3

Ejemplo

1. Si la probabilidad que un postulante para aprobar la tesis en un intento al finalizar sus


estudios académicos es del 75% ¿cuál la probabilidad de que un postulante apruebe la
tesis?

a) En el primer intento
b) En el segundo intento
c) En el cuarto intento
d) Cual su esperanza matemática

SOLUCIÓN

Como X~G(p) ⇒ P(x)=0.75(0.25)x-1 Rx =1,2,3...donde p=0.75; q=0.75; “Nº de intentos


hasta aprobar la tesis”

a) Primer intento X=1 ) ⇒ P(x=1)=(0.75)(0.25)1-1=0.75=75%


b) Segundo intento X=2 ⇒ P(x=2)=(0.75)(0.25)2-1=0.1875 ≅ 19%
c) Tercer intento X=4 ⇒ P(x=4)=(0.75)(0.25)4-1=0.0117 ≅ 2%

Ejemplo

2. Suponga que la probabilidad de obtener línea durante la mayor congestión de llamadas


telefónicas de un canal de TV es del 3% en cada intento que se haga.

Calcular la probabilidad de que sean necesarios exactamente


a) 6 intentos para tener línea
b) A lo mas 3 intentos

SOLUCIÓN

X∼G(p) ⇒ P(x)= 0.03(0.97x-1 : Rx= 1,2,3,….

p =0.03 : q =0.97 ⇒ x: “Nº de intentos hasta obtener línea” Rx= 1,2,3,….

a) x= 6 intentos ⇒ P(x=6) = 0.03(0.97)6-1 = 0.0258


b) x ≤ 3 ⇒ P(x ≤ 3)= F(x=3)= 1-qx= 1-0.973= 0.0873
3
P(x ≤ 3)= ∑ P( x) = 0.03(0.97)0 + 0.03(0.97)1 + 0.03(0.97) 2 = 0.03 + 0.0291 + 0.02823 = 0.0873
1

DISTRIBUCION BINOMIAL NEGATIVA O PARCIAL

9
Es otro caso especial de la Binomial y es una extensión de la Geométrica, que se utiliza
cuando los experimentos aleatorios son también un proceso Bernoulli, hasta que ocurra el
n-ésimo éxito:

DEFINICIÓN

Se dice que una v.a.d. x ~. P(v. p ) donde:

r = Nº de exactos obtenidos
p = probabilidad del éxito
X:” Nº de veces o intentos que se realiza el experimento Beunoulli hasta obtener r éxitos”
tal que r ≤ x; Sii

FUNCION DE PROBABILIDAD

⎛ x − 1⎞ v x−v
P ( x) = P[x = x ] = ⎜⎜ ⎟⎟ p q : Px = v, (v − 1) : (v − 2 )...
⎝ v − 1⎠

FUNCION DE DISTRIBUCIÓN F(x)

⎧ 0 ⎛ k − 1⎞ r k − r : Si x<r
P ( x ≤ x ) = ⎨∑ ⎜⎜ ⎟⎟ p q
⎩ ⎝ r − 1⎠ : Si x≥r

LA MEDIA

⎛ x − 1⎞ v x −v v
E ( x) = μ = ∑ x⎜⎜ ⎟⎟ p q =
⎝ v − 1 ⎠ p

LA VARIANZA

rq
V ( x) = σ 2 = E ( x 2 ) − μ 2 =
p2

Ejemplo 1

Una maquina se utiliza para fabricar ciertos chips en serie se sabe que la probabilidad de
cada chip sea defectuosos es del 10%. Si se controla la calidad del CHIP producido
sabiendo que la maquina se apaga cuando se producen 4 chips defectuosos; cual es la
probabilidad de que la maquina pare en el 10mo chip producido.

p=10
q =90
v=4

10
x=10
⎛ x − 1⎞
x ~. P (v, p ) = P( x ) = ⎜⎜ ⎟⎟(0.1) (0.9 ) : Rx = 4, T ,6...
4 x−4

⎝ 4 − 1⎠
x :" N º de chips producidos hasta controlar 4 defectuosos
A :" la maquina pare ⇒ A = [x = 10]
⎛10 − 1⎞
⇒ P( A) = P[x = 10] = ⎜⎜ ⎟⎟(0.1) (0.9 ) = 84(0....... = 0.0045
4 10− 4

⎝ 4 −1 ⎠
Ejemplo 2

La probabilidad que un CPU de cierta marca expuesto a cierto virus se contagie es del
0.40. cual es la probabilidad de que la 10ma CPU expuesto sea al 3ra en contraerla

SOLUCION

p =0.40
q =0.60
v =3
x =10
⎛ x − 1⎞ v x −v
x ~. P(v, p) = P( x ) = ⎜⎜ ⎟⎟ p q : x : v, v + 1, v + 2,...
⎝ v − 1⎠
x :" N º de CPUs exp uestos al virus hasta 10 a sea la 3 a en contraerla
⎛9⎞
P[x = 10] = ⎜⎜ ⎟⎟(0.40 ) (0.60 ) = 0.0645
3 7

⎝ ⎠
2
DISTRIBUCIÓN MULTINOMIAL

Es una generalización de la distribución Binomial, se utiliza cuando se tienen ensayos o


experimentos aleatorios que tienen más de 2 posibles resultados, donde las
probabilidades de los resultados son los mismos en cada ensayo, todos los ensayos son
independientes.

DEFINICIÓN

Sea un experimento aleatorio ε que tiene las siguientes características


1) tiene K posibles resultados E1,E2.... Ek que son:

a. Mutuamente excluyentes E : Ι Ej. = φ ∀i ≠ j


k
b. Colectivamente exhaustivos Υ E i = Ω
i =1
k
2) La P[Ei ] = pi = probabilidad del éxito del i − esimo resultado tal que ∑ Pi = 1
i =1

11
Se dice que las vs.as.ds. xi ~. Multinomial (n, pi ) : i = 1,2,3...k

Donde Xi:”Nº de veces que el evento Ei ocurre en los n ensayos

Rxi=[0,1,2...n];i=1,2,3...k Sii

n!
FUNCIÓN DE PROBABILIDAD P(x1,x2.... xk)= x x x
p1 1 p 2 2 ... p k k
x1! x2 !...xk !
MEDIA E(xi)=npi

LA VARIANZA V(xi)= npiqi donde qi=1-pi i=1,2,...k

Ejemplo

Las probabilidades de que una lamparilla de cierto tipo de proyector de diapositivas dura

menos de 40 hrs. de uso continuo es 0.30


Entre 40 y 80 hrs. de uso continuo es 0.50
Ó de mas de 80 hrs. de uso continuo es 0.20 respectivamente

Calcular la probabilidad de entre 8 lamparillas:

2 duran menos de 40 hrs.


5 duran menos de 40-80 hrs.
1 dura mas de 80 hrs.

SOLUCION

Sean los eventos

E1:”Duran menos de 40 hrs” ⇒ P[E1] = 0.30


E2:”Duran entre 40 y 80 hrs” ⇒ P[E2] = 0.50
E3:”Duran menos de 80 hrs” ⇒ P[E3] = 0.30

3
Como E i Ι Ej = φ y U = Ω ademas ∑ P ( E1 ) = 1
i =1
⇒ xi ~. Multinomial (ni pi )
x :" N º devecesqueocurreeleventoEi (i = 1,2,3)entre 8 lamparillas
x1 = 2
8!
x 2 = 5 ⇒ P (2,5,1) = (0.30) 2 (0.50) 5 (0.20)1 = 0.0945
2!5!1!
x3 = 1

Ejemplo

12
La probabilidades que una declaración de impuestos sea llenado correctamente es del
60%

que tenga un error favorable del declarante es del 20%


que tenga un error favorable al fisco es del 10%
que tenga ambos tipos de errores es del 10%

Se elige al azar 10 de tales declaraciones para una auditoria

Cual es la probabilidad que

5 estan correctas; 3 tengan error favorable al declarante


1tenga error que favorece al fisco y
1temga ambos tipos de error.

SOLUCION

Sean los eventos

E1: “Declaración correcta” ⇒ P[E1] = 0.60


E2: “Declaración favorable al declarante” ⇒ P[E2] = 0.20
E3: “Declaración favorable al fisco” ⇒ P[E3] = 0.10
E4: “Declaración error de ambos tipos” ⇒ P[E4] = 0.10

Como E i Ι Ej = φ ademas P ( E1 ) = 1

UEi = Ω ⇒ x1 ~. Multinomial (10, pi )

x :" N º de veces que ocurre el evento Ei (i = 1,2,3,4)entre 10 declaraciones

10!
P(5,3,11) = (0.60) 5 (0.20) 3 (0.10)1 (0.10)1 = 0.0314
5!3!1!1!

DISTRIBUCIÓN HIPERGEOMÈTRICA

Esta distribución se utiliza generalmente cuando se realiza un muestreo sin repetición de


una población finita N conocida que se divide en : 2 clases M éxito y N-M fracasos, donde
la probabilidad del éxito ya no es constante porque en cada extracción es diferente por lo
tanto los ensayos ya no son independientes, tiene mucha aplicación cuando se efectúa
control de calidad.

DEFINICIÓN

Se dice que una v.a.d X ~ H(N,nM)ó h(x:NnM)donde

13
N =tamaño de la población
X:”Nº exactos en un m.a. de tamaño n sin reposición
n =tamaño de la m.a. ó Nº de extracciones Rx=[0,1,2..Min (n, M) Sii
M =Nº de elementos exitosos

FUNCION DE PROBABILIDAD

⎛ M ⎞⎛ N − M ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ x ⎠⎝ n − x ⎠
p ( x) = P[x = x ] : R c = 0,1,2...Min(n.M )
⎛N⎞
⎜⎜ ⎟⎟
⎝n⎠

FUNCION DE DISTRIBUCIÓN

⎧ 0 Sii x<0

⎪ ⎛ M ⎞⎛ N − M ⎞
⎪ x ⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎪ ⎝ k ⎠⎝ n − k ⎠
F ( x) = P[x ≤ x ] = ⎨∑ 0 ≤ x < Min(n, M )
⎪ k =0 ⎛N⎞
⎜⎜ ⎟⎟
⎪ ⎝n⎠ x ≥ Min ( n , M 9
⎪⎩ 1 Si

MEDIA

⎡M ⎤
E ( x) = μ = ∑ xP( x) = n⎢⎣ N ⎥⎦
VARIANZA

⎡ M ⎤⎡ M ⎤⎡ N − n ⎤
V ( x) = σ 2 = n ⎢ ⎥ ⎢1 − ⎥ ⎢ factor de corrección
⎣ N ⎦⎣ N ⎦ ⎣ N − 1 ⎥⎦

Ejemplo

Como parte de un estudio sobre la contaminación del aire un Ing. Geológico decide
examinar la emisión de gases tóxicos de 6 de los 24 camiones de una CIA si 4 de esos
camiones, emiten cantidades de gases tóxicos. Cual es la probabilidad de que:

a) Ninguno de ellos
b) Mas de 3 emitan gases

SOLUCION

Como se trata del control de calidad X~H(N,n,M)

14
N = 24
n=6
M =4 éxitos
N-M = 20 fracasos

⎛ 4 ⎞⎛ 20 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ x ⎠⎝ 6 − x ⎠
P ( x) = x = 0,1,2,3,4
⎛ 24 ⎞
⎜⎜ ⎟⎟
⎝6⎠
⎛ 4 ⎞⎛ 20 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟
⎝ 0 ⎠⎝ 6 − 0 ⎟⎠ 38.760
a) P( x = 0) = = = 0.2880
⎛ 24 ⎞ 134.596
⎜⎜ ⎟⎟
⎝6⎠
⎛ 4 ⎞⎛ 20 ⎞ ⎛ 24 ⎞
b) P[x > 3] = ∑ P( x ≥ 4) = P(4) = ⎜⎜ ⎟⎟⎜⎜
190
⎟⎟ ⎜⎜ ⎟⎟ = = 0.0014
⎝ 4 ⎠⎝ 6 − 4 ⎠ ⎝ 6 ⎠ 134596

Ejemplo

En el laboratorio de Sistemas hay 20 CPUs donde existen 6 CPUs con desperfecto. Si se


elige aleatoriamente 4 CPUs para su reparación.

a) cual es la probabilidad de que al menos 1 CPU deba ser reparado


b) cual es el Nº esperado de CPU para ser reparado y su varianza

SOLUCION

Como se trata de control de calidad y se tiene el tamaño de la población

N = 20
n=6
M =4
N-M = 14

X~H(N,nM)

Donde X: “Nº de CPUs que tienen desperfecto de entre 20”

Rx=0,1,2,3,4

15
⎛ 6 ⎞⎛14 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ 0 ⎠⎝ 4 ⎠
a ) P(x ≥ 1) = 1 − P ( x ≤ 0) = 1 − = 0.7934
⎛ 20 ⎞
⎜⎜ ⎟⎟
⎝4⎠
⎡M ⎤ ⎡6⎤
b) E ( x) = n ⎢ ⎥ = 4⎢ ⎥ = 1.2
⎣N⎦ ⎣ 20 ⎦
⎡ M ⎤⎡ M ⎤⎡ N − n ⎤ ⎡ 6 ⎤⎡ 6 ⎤ ⎡ 20 − 4 ⎤
V ( x) = n ⎢ ⎥ ⎢1 ⎥ ⎢ ⎥ = 4 ⎢ ⎥ ⎢1 − ⎥ ⎢ ⎥
⎣ N ⎦⎣ N ⎦⎣ N − 1 ⎦ ⎣ 20 ⎦ ⎣ 20 ⎦ ⎣ 20 − 1 ⎦
⎛ 24 ⎞⎛ 14 ⎞⎛ 16 ⎞ 5.376
V ( x) = ⎜ ⎟⎜ ⎟⎜ ⎟ = = 0.7074
⎝ 20 ⎠⎝ 20 ⎠⎝ 19 ⎠ 7.600

APROXIMACIÓN DE LA HIPERGEOMETRICA A LA BINOMIAL

Cuando la población N es grande con relación a n es máximo el 10% de N; n ≤ 0.1N ⇒ por


lo tanto el muestreo puede ser con o sin reemplazo, por lo tanto la probabilidad del éxito
M
son casi independiente ⇒ se puede aproximar a la binomial con p = : q = 1− M
n
x n− x
⎛ n ⎞⎛ M ⎞ ⎛ M ⎞
⇒ h( x, N , n, M ) ≅ b( x : nM ) ≅ ⎜ x ⎟⎜ ⎟ ⎜1 − ⎟ : x = 0,1,2...MIn(nM )
⎝ ⎠⎝ N ⎠ ⎝ N⎠
LA MEDIA

⎡M ⎤
E x = μ = np ≈ n ⎢ ⎥
⎣N⎦

LA VARIANZA

⎡ M ⎤⎡ M ⎤
V ( x) = σ 2 = npq ≈ n ⎢ ⎥ ⎢1 − ⎥
⎣ N ⎦⎣ N ⎦

Ejemplo

Una importación de 100 computadoras, de las cuales 25 se sabe que tienen desperfecto.
Se realiza un control de calidad para ello se toman 10 computadoras, cual es la
probabilidad:

a) de que 2 tengan desperfectos


b) cual el Nº esperado de CPUs con desperfecto y para ello utiliza la verdadera
distribución y una aproximación si se puede

16
SOLUCION

Como se trata de control de calidad


⎛ M ⎞⎛ N − M ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ x ⎠⎝ M − x ⎠
La verdadera distribución X ~ H(N.n.M) ⇒ p( x) =
⎛N⎞
⎜⎜ ⎟⎟
⎝n⎠
N = 100
n = 10
M =25
N-M =75

X: “Nº de computadores que tienen desperfecto entre 10

R x = 0,1,2....10
⎛ 25 ⎞⎛ 75 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ 2 ⎠⎝ 8 ⎠
a) P(x = 2) = = 0.292
⎛100 ⎞
⎜⎜ ⎟⎟
⎝ 10 ⎠
⎡ 25 ⎤
b) E (x ) = 10 ⎢ ⎥ = 2 .5
⎣100 ⎦

Como n=10 ≤ N 10/de 100 ⇒ se puede aproximar mediante la binomial

M 25
p= = = 0.25
N 100
M
q = 1− = 075
N
⎛10 ⎞
a) p( x − 2) = ⎜⎜ ⎟⎟(0.25) (0.75) = 0.2515
2 8

⎝2⎠
DISTRIBUCIÓN MULTIVARIADA

Es una extensión de la hipergeométrica y se aplica cuando se realiza control de calidad de


una población que se clasifica en k clases de diferentes tipos M1, M2, Mk
k
Tal que N= U M i donde se extraen un m.s. de tamaño n sea reposición de una población
i =1
tamaño N, donde:

a) Cada extracción tiene k posibles resultados


b) Los ensayos no son independientes

17
DEFINICIÓN

Se dice que los vs.as.ds. Xi ~ Multivariante

Donde Xi=”Nº de objetos del i-esimo tipo”

Rxi=0,1,2... Mn(Mi,n) Sii tal que ∑x i =n

FUNCION DE POBABILIDAD

⎛ M 1 ⎞⎛ M 2 ⎞ ⎛ M k ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟...⎜⎜ ⎟⎟
⎝ x1 ⎠⎝ x 2 ⎠ ⎝ x k ⎠
P(xi,x2... xk: N,n)=
⎛N⎞
⎜ n⎟
⎝ ⎠

Ejemplo

En un depósito hay 20 TV de los cuales 10 son de 20’’: 6 de 18’’ ;4 de 15’’, se elige al azar
10TV. Cual es la probabilidad de que haya 5 de 20’’, 3 de 18’’ y 2 de 15’’.

SOLUCION

Como N= M1+ M2+M3=10+6+4=20 ⇒ xi ~Multivariado

M1=Nº TV de 20” = 10 ⇒ x1 =5 Xi: “Nº de TV del i= esimo tipo” i=1,2,3


M2= Nº TV de 18”=6 ⇒ X2=3 Rxi=0,1,2,3,4
⎛10 ⎞⎛ 6 ⎞⎛ 4 ⎞
⎜⎜ ⎟⎟⎜⎜ ⎟⎟⎜⎜ ⎟⎟
⎝ 5 ⎠⎝ 3 ⎠⎝ 2 ⎠ 7.560
M3= Nº TV de 15”=4 ⇒ X3=2 p (5,3,2 : 20 : 10) = = = 0.1637
⎛ 20 ⎞ 46.189
⎜⎜ ⎟⎟
⎝ 10 ⎠
DISTRIBUCIÓN DE POISSON

Por su aplicación es una de las mas importantes tanto como Proceso Poisson o como
aproximación a la Binomial

1) COMO PROCESO POISSON

Se considera como proceso, cuando la v.a.d. X es el Nº de eventos que ocurren en


un intervalo de tiempo o en una región espacio o volumen.

DEFINICIÓN

Se dice que una v.a.d. x ~ p (λt )ó x~ f ( xi ; λt )

18
donde λ =Nº promedio de ocurrencias de eventos en una unidad de medida: que
pueden ser intervalo de tiempo, región especificad, dichas ocurrencias son
independientes Sii

FUNCIÓN DE PROBABILIDAD

P ( x) = P ( X = x) = λt x e − λt : x = 0,1,2,3... e = 2.71828..

donde λ t = Nº promedio de ocurrencias de los eventos en las t unidades de medida


cuando t= fijo ⇒ λ t= α

α x − e −α
P ( x) = P ( x = x) = : x = 0,1,2,3
x!

FUNCIÓN DE DISTRIBUCIÓN


⎪ 0 Si x < 0
⎪⎪ x α k e −α
F ( x) = P[x ≤ x ] = ⎨ ∑ x≥0
⎪α = 0 k!

⎪⎩
LA MEDIA E ( x) = μ = λt = α

LA VARIANZA V ( x) = σ 2 = λt = α

USO DE TABLAS

Para facilitar el calculo se tiene confeccionados tablas en función de distribución

F ( x) = P[x ≤ x ] = F ( x : λ )

En caso de valores puntuales P[x = x] = f ( x, λ ) = F ( x; λ ) − F ( x − 1 : λ )

Ejemplo

Supongan Que llegan en forma aleatoria una serie de llamadas a una central
telefónica con promedio de 3 llamadas por minuto. Calcular la probabilidad de que
ocurran:

a) 4 o más llamadas en el periodo de un minuto


b) 4 o mas llamadas en el periodo de 2 minutos
c) 4 o mas llamadas en el periodo de 20 segundos

19
SOLUCION

Como la ocurrencia de los eventos se da en periodos de tiempo x ~. P(λt )


3 x e −3
Donde λ = 3 llamadas t=1 minuto ⇒ P( x) = x = 0,1,2,3...
x!
x:”Nº de llamadas en un minuto

P( x ≥ 4) = ∑ P( x ) = 1 − P[x ≤ 3] = 1 − [P(0) + P(1) + P(2) + P(3)]
4

⎡ 3 0 e −3 31 e −3 3 2 e −3 3 3 e −3 ⎤
a) =1− ⎢ + + + ⎥
⎣ 0! 1! 2! 3! ⎦
−3 ⎡ 3 3 9 27 ⎤
0
= 1 − e ⎢ + + + ⎥ = 0.3520
⎣1 1 2 6⎦
b) λt = 3 * 2 = 6 ⇒ P ( x ≥ 4 ) = 1 − P( x ≤ 3) = 1 − F (3) = 1 − 0.151 = 0.849
c) λt = 3( 13 ) = 1 ⇒ P( x ≥ 4) = 1 − P( x ≤ 3)1 − F (3) = 1 − 0.9801 = 0.019

2) COMO APROXIMACIÓN A LA BINOMIAL

Cuando la muestra N y la probabilidad del evento es muy pequeño existe


distribución binomial, es decir p<0.1 y np ≤ 5: p ≤ 0.005: n ≥ 20: n>30

Entonces se puede utilizar la PISSON como límite o aproximación de la binomial

Donde E ( x) = np = λ ⇒ cte
λt x e − λt ⎛ λ ⎞ λ e
x −λ
P ( x) = ≈ b⎜ x i npˆ ⎟ = x = 0,1,2
x! ⎝ ⎠ x!
λ x e −λ
FUNCION DE PROBABILIDAD P( x) = x = 0,1,2,3... λ = np = cte
x!

FUNCION DE DISTRIBUCIÓN

⎧ 0x : Sik x−<λ0
⎪ λ e
F ( x) = P[x ≤ x ] = ⎨∑ : x≥0
⎪ k = 0 k !

LA MEDIA E ( x) = μ = np = λ

LA VARIANZA V ( x) = σ 2 = λ = np

20
Ejemplo

Se sabe que el 5% de la CPUs ensamblados en cierta factoría tiene ensamblaje


defectuoso. Cual la probabilidad de que 2 de 100 CPUs ensamblados estén
defectuosos:

a) mediante la verdadera distribución


b) mediante una aproximación

SOLUCION

n =100
p = 0.05
q = 0.95

⎛ 100 ⎞
a) x ~. b(100;0.05) ⇒ p( x) = ⎜ x ⎟(0.05) (0.95) ; x = 1,2,3...100
x 10 − x

⎝ ⎠
x =" N º CPUs mal ensambladas entre 500"
⎛ 100 ⎞
P ( x = 2) = ⎜ 2 ⎟(0.05) (0.95)
10 − 2
= 0.0812
2

⎝ ⎠
b)mediante una aproximación a la POISSON
5 x e −5
λ = np = 100(0.05) = 5 ⇒ P( x) = : x = 0,1,2
x!
5 2 e −5 25(e −5 )
P ( x = 2) = = = 0.0842
2! 2

PROPIEDAD REPRODUCTIVA

Si 2 o mas variables tienen una misma distribución entonces la resultante de sumar


o restar será una nueva variable que tendrá la misma distribución de probabilidad
que sus sumandos.

n
Si Xi ~ misma distribución Si ∑ x i = Y ~. misma distribución i= 1,2...n
i =1
Si X i ~. P(α i )∀ i = 1,2,...n
n
⇒Y = ∑x
i =1
i ⇒ Y ~. P (α = ∑α i

21
Ejemplo

En una fabrica el Nº de accidentes por semana sigue un proceso de POISSON con


parámetro α = 2 .

Determinar:

a) la probabilidad de que haya 4 accidentes en el transcurso de 3 semanas


b) la probabilidad que haya 2 accidentes en una semana y otros 2 accidentes en la
semana siguiente
c) Es lunes y ya hubo un accidente. La probabilidad que en aquella semana no
haya mas de 3 accidentes

SOLUCION

Definiendo las variables POISSON con parámetro α i = 2 : i = 1,2,3


X= “Nº de accidentes en cualquier semana
X1: “Nº de accidentes en la 1ra semana”
X2: “Nº de accidentes en la 2da semana”
X3: “Nº de accidentes en la 3ra semana”

Como las 3 v.a son independientes ⇒ Y = x1 + x 2 + x 3 ~. P(α = 2 + 2 + 2 = 6


6 4 e −6
a) P(Y = 4) = = 0.1339 Y :" N º de accidentes en 3 semanas"
4!
⎛ 2 2 e −2 ⎞
b) P( x1 = 2 ∧ X 2 = 2) = P( x1 = 2) P( x 2 = 2) = ⎜⎜ ⎟⎟ = 0.0733
⎝ 2! ⎠
α1 = 2 α 2 = 2
P[( x ≤ 3 ∧ P( x ≥ 1)] P(1 ≤ x ≥ 3) P( x ≤ 3) − P( x ≤ 0)
c) P (x ≤ 3 x ≥ 1) = = =
P( x ≥ 1) P( x ≥ 1) P( x ≥ 1)
0.8647 − 0.1429
= = 0.8348
0.8647

DISTRIBUCIONES CONTINUAS

Los espacios muéstrales continuos y las v.a.c. surgen cuando se trabaja con cantidades
que se miden en una escala continua (velocidad de una CPU; la cantidad de alcohol en la
sangre, la cantidad de nicotina en un cigarrillo, etc.)

Entre las principales distribuciones de probabilidad continua tenemos la uniforme, la


experimental, la norma, algunas distribuciones muéstrales como la Chi cuadrado, la t
estudiante, la Fisher, etc.)

22
LA DISTRIBUCIÓN UNIFORME X~U [a,b]

DEFINICIÓN

Se dice que una v.a.c. X tiene distribución uniforme o rectangular en el intervalo [a, b] tal
que a< b Sii

FUNCION DE PROBABILIDAD O DENSIDAD



⎪ 1
f ( x) = ⎨ ;a ≤ x ≤ b 1

⎪b − a b−a
⎪⎩ 0 ; eoc
a c d b
Para cualquier sub. intervalo [c, d] donde

a ≤ c ≤ d ≤ b ⇒ P[c ≤ x ≤ d ] = ∫c
d 1
b−a
dx =
1
b−a
[x]
d

c
=
1
b−a
[d − c] = d − c
b−a

además P(x=x) =0

Se dice distribución uniforme porque la P[c ≤ x ≤ d ] es la misma para todos los sub intervalos
que tienen la misma longitud.

FUNCION DE DISTRIBUCIÓN O ACUMULADA

x−a
F ( x) = P[x ≤ x] =
x x 1
∫ ∫
1 F(x)
dx = dx =
∝b−a ab−a b−a
⎧ 0 Si x < a
⎪x − a
F ( x ) = P[x ≤ x] = ⎨ Si a ≤ x < b
⎪⎩ b −1 a Si x ≥ ba
a b x’
LA MEDIA

a a+b

1
μ = E ( x) = x dx =
b b−a 2

LA VARIANZA

b ⎛ a+b⎞ (b − a )2 ó = (a − b )2
2


1
V ( x) = σ 2 = x2 dx − ⎜ ⎟ =
a b−a ⎝ x ⎠ 12 12

23
Ejemplo 1

Suponga que un punto es elegido al azar en el intervalo (1;4)

Calcular la probabilidad de que el punto esté:

a) En la posición 3
b) El punto este entre 3/2 y 3

SOLUCION

X ~ U[a, b]donde a =1 ; b =4
X: “posición del punto en el intervalo [1,4]”

⎧ ⎧0
⎪ ⎪ Si x < 1
⎪1 ⎪ x −1
⇒ f ( x) = ⎨ ; 1 ≤ x ≤ 4; F ( x)⎨ Si 1 ≤ x < 4
⎪3 ⎪ 4 − 1 Si x ≥ 4
⎪0 ; eoc
⎪⎩1

dx = [x ]3 = (0) = 0
3 1 1 3 1
a ) P( x = 3) = ∫
3 3 3 3

⎡3 ⎤ 31 1 3 1⎡ 3⎤ 1 ⎡3⎤ 1
b) P ⎢ < x < 3⎥ = ∫3 dx = [x ] 3 = ⎢3 − ⎥ = ⎢ ⎥ =
⎣2 ⎦ 23 3 2
3⎣ 2⎦ 3 ⎣2⎦ 2

o también mediante la función distribución acumulada

⎡3 ⎤ ⎡ 3⎤ ⎛3⎞
P ⎢ < x < 3⎥ = P[x < 3] − P ⎢ x ≤ = F (3) − F ⎜ ⎟
⎣ 2 ⎦ ⎣ 2 ⎥⎦ ⎝2⎠
2
3
− 1 2
1
3 1
= − 2 = − 2 = =
3 3 3 3 6 2

Ejemplo 2

Suponga que cierta línea de transporte publico pasa por un determinado paradero de
control o de espera, a un horario estricto con intervalos de 30 minutos durante el día. Si
un pasajero llega a ese paradero en un instante aleatorio durante el día. Calcular la
probabilidad de que tenga que esperar:

a) más de 15 minutos
b) Exactamente 7 minutos

24
SOLUCION

X ~ U[0.30]donde a = 0 ; b =30
X = “tiempo de espera en minutos del pasajero”

⎧ ⎧0
⎪ ⎪ Si x ≤ 0
⎪ 1 ⎪ x−0 x
f ( x) = ⎨ ; 0 ≤ x ≤ 30; F ( x)⎨ = Si 0 ≤ x < 30
⎪ 30 ⎪ 30 − 0 30 Si x ≥ 30
⎪⎩ 0 ; eoc ⎪⎩1

[x]15 = = minuto
30

1 1 30 15 1
a) P ( x > 15) = dx =
15 30 30 30 2
b) P[x = 7] = 0

Ejemplo 3

Sea la v.a. X...U[0,6] calcular

6
P[ x − μ > 2] : sabemos que μ=
= 3 reemplazando
2
P[ x − 3 > 2] = 1 − P[ x − 3 ≤ 2] = 1 − P[−2 ≤ x − 3 ≤ 2]
= 1 − P[1 ≤ x ≤ 5] = 1 − P[ P ( x ≤ 5) − P ( x < 1)] = 1 − F (5) + F (1)
5 1 1
=1− + =
6 6 3

DISTRIBUCIÓN EXPONENCIAL

Es un caso particular de la distribución gamma, que se aplica no solo a la ocurrencia del


1er acierto en un proceso POISSON, si no también en los tiempos de espera entre los
aciertos; también se aplica en la teoría de la confiabilidad de un sistema, y la teoría de
colas.

DEFINICIÓN X ~ EXP (λ )

Se dice que una v.a.c. X tiene distribución exponencial con parámetro (λ )

FUNCION DE PROBABILIDAD O DENSIDAD

F(x)

⎧⎪λ e − λx
;x ≥ 0
f ( x) = ⎨ λ
= 0.368λ
⎪⎩0 ; eoc e

donde e = 2.71828...:; (λ ) = Cte. >0


0 1
λ
x

25
FUNCION DE DISTRIBUCIÓN
F(x)

1
⎧0 Si x<0
F ( x) = P[ X ≤ x] = ⎨ − λx
⎩1 − e Si x≥0

1
λ
x
MEDIA



1
μ = E ( x) = xλe − λx dx =
0 λ

VARIANZA

x 2 1 1
V ( x) = σ 2 = ∫ x 2 λe −λx dx − μ 2 = − =
0 λ 2
λ 2
λ2

Ejemplo 1

Si el Nº de automovilistas que corren a cierta velocidad, que un radar detecta por hora en
cierta localidad es una v.a. POISSON con λ =8.4 hrs. Cual es la probabilidad de tomar un
tiempo de espera menos a 10 minutos entre automovilistas sucesivos?

SOLUCION

X ~ EXP( λ ) donde λ =8.4 hrs.

Donde X: “tiempo de espera en minutos”

⎧⎪8.4 e −8.4 x ; x ≥ 0 ⎧⎪0 Si x<0


f ( x) = ⎨ ; F ( x) = ⎨
⎪⎩0 ; eoc ⎪⎩1 − e − 8.4 x Si x≥0

1hora 1
Como X =10 minutos x = horas
60min 6

⎡ 1⎤
1 1

P⎢x ≤ ⎥ = ∫ 8.4e −8.4 dx = − ∫ e −8.4 x (− 8.4 )dx


6 6

⎣ 6⎦ 0 0

[ = − ⎡e] − e − 8.4( 0) ⎤
1
− 8.4 ( 1 )
= − e −8.4 x 6 6
⎢⎣0 ⎥⎦
= −[0.2466 − 1] = 0.7534

mediante la acumulada P[x < 16 ] = F (16 ) = 1 − e −8.4( 6 ) = 0.7534


1

26
Ejemplo 2

El tiempo durante el cual una marca de computadora que opera en forma efectiva antes de
su primera reparación, se distribuye exponencialmente con un promedio de fallas de 360
días

a) Si una de estas computadoras ha durado al menos 400 días, cual la probabilidad de


que dure al menos 200 días más
b) Si se están usando 5 de tales ordenadores, cual la probabilidad de que al menos 3
de ellos continúan funcionando después de 360 días

SOLUCION

X~EXP( λ ) ⇒ X ~ EXP ( 360


1
)

Como E(x)=360= λ1 ⇒ λ = 601

⎧⎪ 1 − 360
⎧⎪0 x<0
x

e ;x≥0 Si
f ( x) = ⎨ 360 ; F ( x) = ⎨
⎪⎩0 ; eoc
− x
⎪⎩1 − e 360 Si x≥0

X: “ tiempo que opera el ordenador hasta la primera falla


α −
] = ∫600
x

[x ≥ ] = p [x ≥
1
600 Ι x ≥ 400 e 360
dx
P [x ≥ 200 + 200 x ≥ 400 ] = [x ≥ 600 x ≥ 400 ] = P
600 360 − 5

= e 9

P [x ≥ 400 ] p [x ≥ ] α −

x
400 1
e 360
dx
400 360

Ó mediante la acumulada

1 − ⎡⎢1 − e 360 ⎤⎥
− 600
p[x ≥ 600] 1 − P[x < 600] 1 − F (600)
− 600 −5
⎣ ⎦ e 360 − 360 + 360
600 400
− 36
20
=e 9
= = = = 400 = e =e = e −0.5556
P[x ≥ 400] 1 − P[x < 400] 1 − F (400) ⎡ − 360
400
⎤ − 360
1 − ⎢1 − e ⎥⎦
e

RELACION ENTRE EL MODELO EXPONENCIAL Y POISSON

La distribución exponencial tiene una relación especial con la PISSON porque


X~P[ λ ]donde X: “N° de veces que ocurre un evento en un periodo “t” con promedio λ ”
⇒ la v.a. T: “tiempo entre la ocurrencia de 2 eventos consecutivos de POISSON
⇒ T ~ EXP[ λ ]

TEORIA DE LA CONFIABILIDAD (Rt)

Una de las aplicaciones principales de la distribución exponencial se da en la confiabilidad


del funcionamiento normal de un sistema o componente electrónico.

27
DEFINICIÓN

La confiabilidad (Rt) de un sistema en determinado medio ambiente, durante un periodo


“t”, se define como la probabilidad de que su tiempo para fallar (T) excede a su tiempo de
funcionamiento normal (t)

[ ]
⇒ R (t ) = P[T > t ] = 1P[T ≤ t ] = 1 − 1 − e − λt = e − λt

Ejemplo

La probabilidad de buen funcionamiento de un elemento de cierto equipo de sonido se


distribuye exponencialmente con:

⎧0.02 e 0.02t ; t > 0


f (t ) = ⎨ Determinar la confiabilidad del elemento en un periodo de 50 hrs.
⎩ 0 : eoc

SOLUCION

P[T > 50] = R(50) = e −0.02(50) = e −1 = 0.3679

DISTRIBUCIÓN NORMAL

Es la distribución mas importante de la teoría estadística, porque casi todos los fenómenos
físicos, científicos sociales psicológicos, tienen un comportamiento normal, además casi
todas las distribuciones bajo ciertos requisitos se pueden aproximar mediante la normal.

DEFINICIÓN

Se dice que una v.a.c. X ~ N( μ , σ 2 ) Sii

FUNCION DE PROBABILIDAD
1 F(x)
σ 2Π

− [( x − μ ) / σ ]2
1
f ( x) = e 2
;−∞ < x < ∞
σ 2Π

Π = 3.1416...
donde
e = 2.71828

μ = Me = Mo

28
CARACTERÍSTICAS

1. Es simétrica respecto a μ donde f ( x) = σ 1


2. Es creciente en el intervalo < −∞, μ > cuando x< μ


3. Es decreciente en el intervalo < μ , ∞ > cuando x> μ

FUNCION DE DISTRIBUCIÓN F(x) - 1

x

F ( x) = P[ x ≤ x] = x f ( x)dx

½

LA MEDIA


E ( x) = ∫ x f ( x)dx = μ
−∞

LA VARIANZA


V ( x) = ∫ x 2 f ( x)dx − μ 2 = σ 2
−∞
F(x)
1
DISTRIBUCIÓN NORMAL ESTANDAR σ 2Π
F(z)

Estandarizar la Normal significa llevar


o trasladar la distribución hasta que μ = 0 y σ 2 = 1

Mediante la v.a.e.= z = x−μ


σ
; z....N (0.1)

μ =0 z μ z x
USO DE TABLAS

Cuando la v.a.c. X ~ N( μ , σ 2 ) no esta estandarizada ( μ ≠ 0 : σ 2 ≠ 1 ), la misma se la debe


x−μ
estandarizar con z = y colocar en acumulada F(z)ó φ ( z ) = P(z ≤ z )
σ
Ejemplo

Sea X...N(5,4)cual la probabilidad de que x

a) toma valores entre 4 y 7?


b) Toma valores mayores que 10?

29
SOLUCION

x−μ
a)P[4<x<7]estandarizando mediante z =
σ

donde μ = 5; σ 2 = 4; σ = 2

⎡ 4 − 5 x − μ 7 − 5⎤
P⎢ < < = p[− 0.5 < z < 1] = p[z < 1] − P[z ≤ −0.5] = F (1) − F (−0.5) = 0.8413 − 0.3085 = 0.5328
⎣ 1 σ 2 ⎥⎦
⎡ x − μ 10 − 5 ⎤
b) P[x > 10] = P ⎢ > = P[z > 2.5] = 1 − p[z ≤ 2.5] = 1 − F (2.5) = 0.0062
⎣ σ 2 ⎥⎦

Ejemplo

El tiempo T requerido para contagiarse un computadora por cierto virus es una v.a. normal
con media 31 segundos y desviación estándar 5 segundos.

a) Cual la probabilidad que un ordenador se contagie con el virus en menos de 35


segundos
b) Si un ordenador particular se observa que no está siendo contagiado por el virus en
30 segundos, cual es la probabilidad de contagiarse antes de los 35 segundos

SOLUCION

T ~ N(31,5)
T: “tiempo requerido para contagiarse una CPU con el virus en segundos”

⎡ T − μ 35 − 31⎤ ⎡ 4⎤
a) P[T < 35] = P ⎢ < ⎥ = P ⎢ z < ⎥ = F (0.8) = 0.7881
⎣ σ 5 ⎦ ⎣ 5⎦

b) P[T < 35 / T > 30] = P


[30 < T < 35] = P[305−31 < z < 355−31 ] = P[− 0.2 < z < 0.8] = F (0.8) − F (−0.2) = 0.3674 = 0.63
P[T > 30] P[z > 305−31 ] P[z > −0.2] 1 − F (−0.2) 0.5793

PROPIEDAD REPRODUCTIVA

La distribución normal también goza de esta propiedad, es decir:


( )
Sean n.v.a. independiente : X1+ X2+...+Xn donde Xi...N μ i ; σ i 2 si sumamos dichas variables

( )
n n n

∑x = Y ~ N μ y ;σ y donde μ y = ∑ μ i ; σ y2 = ∑ σ i2
2
i
i =1 i =1 i =1

⎛ n n ⎞
⇒ Y ~. N ⎜
⎜ ∑
⎝ i =1
μ i ; σ y2 = ∑
i =1
σ i2 ⎟

30
Ejemplo

Sea una v.a. y = ⎢


⎡ xi + x 2 ⎤
⎥ ( )
− x3 donde Xi...N μ i ; σ i 2 ; i =1,2,3
⎣ 2 ⎦

μ1 = 20 ; μ 2 = 25 μ 3 = 25
σ 12 = 5 ; σ 22 = 11; σ 32 = 5

a) Cual la distribución de probabilidad Y?


b) Calcular P[Y>0]

SOLUCION

( ) (
Como Xi...N μ i ; σ i 2 =Y...N μ y ;σ y 2 )
donde
⎡ x1 + x 2 ⎤1
μ y = E ( y) = E ⎢ − x3 ⎥ [E ( x1 ) + E ( x 2 )] − Ex3
⎣ 2 ⎦2
μy =
1
[20 + 16] − 25 = −7
2
⎛x +x ⎞ 1
σ y2 = v( y ) = v⎜ 1 2 − x3 ⎟ = [v(x1 ) + v(x 2 )] + v(x3 )
⎝ 2 ⎠ 4
σ y2 = [5 + 11] + 5 = 9 ⇒ σ y = 3
1
4
⇒ Y ~. N (−7;9)
⎡ Y − μ y 0 − ( −7 ) ⎤ ⎡ 7⎤
P[Y > 0] = P ⎢ > ⎥ = P ⎢ z > ⎥ = 1 − F (2.33) = 1 − 0.9901 = 0.0099
⎣⎢ σ y 3 ⎦⎥ ⎣ 3⎦

TEOREMA CENTRAL DEL LIMITE

Este es el teorema mas importante de la estadística, porque mediante la misma nos


permite aproximar a la distribución normal sumas finitas de v.a. independientes, que
pueden tener cualquier distribución de probabilidad con media y varianzas conocidas

DEFINICIÓN

Sea una sucesión de n. v. a. i.: X1, X2, ... Xn

Cuyas medias E(Xi)= μ i y cuyas varianzas V(Xi)= σ i2 (conocidas y finitas)

⇒ Si sumamos los n.v.a.i.: X1+X2+...+ Xn=Yn, con la condición que los Xi contribuyan con
una cantidad mínima despreciable a la variación de la suma

31
n n

∑ ∑μ
i =1
xi −
i =1
i
∑μ
Yn − i
⇒ La v.a.e. de la variación: 1) Z n = = ; Z n ~. N (0.1)

∑σ
n
2
i
∑σ 2
i

i =1

CASO ESPECIAL

Cuando Xi....MISMA DISTRIBUCION


⇒ La secuencia de las n.v.a.i.: X1,X2,..., Xn
⇒ E(Xi)= μ y V(Xi)= σ 2
⇒ Yn=X1+X2+...+ Xn= ∑ x1

2) Z n = ∑ x − ∑ μ = ∑ x − nμ = ∑ x
i i i − nμ

∑σ nσ 2 σ 2 n

ó también dividiendo entre “n”

∑μ
∑ xi
− (x n − μ )
Zn = n n
= n ; Z n ~. N (0.1)
σ n σ
n

Ejemplo1

Suponiendo que la vida útil de un componente electrónico de uso continuo, tiene


distribución exponencial, con un promedio de 100 hrs. Tan pronto como se deteriora, es
reemplazado por otro para que continúe funcionando.

a) calcular la probabilidad de que durante 209,5 días se necesiten mas de 36 de estos


componente
b) cuantos de estos componentes se necesitan par que duren al menos 4536 hrs., con
una probabilidad de 0.9901

SOLUCION
Como X i ~. EXP⎛⎜ ⎞⎟ donde X: “Duración del i=esima componente” en horas” I=1,2,......36
1
⎝λ⎠
1
Donde E ( x) = = 100 ⇒ λ
λ
1
V ( x) = = 100 ; σ = 100;
2
Yn: “tiempo total de duración de los n componentes”
λ2
n=36

n.u = 36(100) ⇒ Z n = ∑x i − nμ
=
Y 36 − 3600
=
Y 36 − 3600
σ n 100 36 600
a)

32
⎡ 5028 − 3600 ⎤
P[Y36 < 5028] = estandarizando ⇒ P ⎢ Z 36 < ⎥
⎣ 600 ⎦
P[Z 36 < 2.38] = F (2.38) = 0.9913

b)
P[Yn ≥ 4.536] = 0.9901 ⇒ 1 − P[Yn ≤ 4.536] = 0.9901
P[Yn ≤ 4.536] = 1 − 0.9901 = 0.0099 estandarizado
⎡ 4.536 − 100n ⎤
P ⎢Z n ≤ ⎥ = 0.0099 donde el valor crítico
⎣ 100 n ⎦
4.536 − 100n
= −2.33 resolviendo la ecuación haciendo X = n
100 n
X = 8.018 ⇒ n = x 2 = 8.018 2 ⇒ n = 64.3 ≈ 64

Ejemplo 2

La longitud que se puede estirar sin ruptura un filamento de nylon es una v.a. exponencial
con media de 5000 pies. Cual es la probabilidad aproximadamente que la longitud media
de 100 filamentos este comprendido entre 4750 y 5550 pies.

SOLUCION

⎡ 1 ⎤
X : ~. EXP ⎢ ⎥
⎣ 5000 ⎦
X: “longitud de estiramiento sn ruptura del i-esimo filamento” i=1,2....100
1 ( xn − μ ) n
E ( x) = = 5000 por Zn = estandarizando
λ σ
⎛1⎞
2
⎡ (4570 − 5000 ) 5550 − 5000 100 ⎤
V ( x ) = ⎜ ⎟ = (5000) 2 P[4750 ≤ x100 ≤ 5550] = ρ ⎢ 100 ≤ z ≤ ⎥
⎝λ⎠ ⎣ 5000 5000 ⎦
σ = 100
P[− 0.5 ≤ z100 ≤ 1.1] = F (1) − F (−0.5) = 0.8643 − 0.3085 = 0.5558

APROXIMACIONES DE LAS DISTRIBUCIONES DISCRETAS A LA NORMAL

Mediante el teorema central del limite, se pueden aproximar distribuciones discretas a la


norma, para ello se debe convertir un v.a continuo, mediante factores de corrección de
acuerdo a las siguientes situaciones:

1) P[x = x ] = P[x − 0.5 ≤ x ≤ x + 0.5]


2) P[x ≤ x ] = P[x ≤ x ≤ x + 0.5]
3) P[x < x ] = P[x ≤ x ≤ x − 0.5]
4) P[x ≥ x ] = P[x ≥ x − 0.5]
5) P[x > x ] = P[x ≥ x + 0.5]
6) P[a ≤ x ≤ b] = P[a − 0.5 ≤ x ≤ b + 0.5]

33
RESUMEN DE LAS APROXIMACIONES MEDIANTE

Z=
∑ X − ∑μ
i i
⇒ Z ~. N (0.1)
∑σ 2
i

DISTRIBUCION REQUISITO MEDIA VARIANZA V.A ESTANDAR


CORREGIDA
BINOMIAL n > 10; p ≈ 1 λλ = np x ± 0.5 − np
2 Z≈
np > 5; p ≤ 1 V ( x) = npq npq
2
nq >; p > 1
2
Hipergeométrica n ≥ 0.1N ⎡M ⎤
μ = n⎢ ⎥ Z≈
x ± 0.5 − [MN ]
n MN [1 − MN ][ NN −−1n ]
n ≥ 0.05 N ⎣N⎦
⎡ M ⎤⎡ M ⎤⎡
V ( x ) = n ⎢ ⎥ ⎢1 − ⎥ ⎢
⎣ N ⎦⎣ N ⎦⎣

POISSON n→∞ μ =λ x ± 0.5 − nλ


Z≈
nλ > 5 σ =λ
2 nλ

Ejemplo 1

1 si la v.a. X....b(20;0.5) calcular la P[x =7]

a) De manera exacta
b) Aproximada

SOLUCION
⎛n⎞
Sabemos que P( x) = ⎜⎜ x ⎟⎟ p x q n − x ; x = 0.1.2...n
⎝ ⎠
Donde n=20
p=0.5
q=0.5

a) Exactamente o con la verdadera distribución binomial

⎛ 20 ⎞
P ( x = 7) = ⎜⎜ 7 ⎟⎟(0.5)7 (0.5)13 = 0.0739
⎝ ⎠

b) Aproximadamente mediante la Normal

Donde np =10 corrigiendo P[7 − 0.5 ≤ x ≤ 7 + 0.5]

34
P[6.5 ≤ x ≤ 7.5]
npq 10(0.5)(0.5) = 2.24 ⇒ P[6.5 ≤ x ≤ 7.5] estandarizando
[
PZ≤ 7.5 −10
2.24
]− P[Z ≤ 6.5 −10
2.24
]
= P[Z ≤ −1.12] − P[Z ≤ −1.57]
= F (− 1.12 ) − F (− 1.57 ) = 0.0732

Ejemplo 2

Suponga que la probabilidad de que cierta marca de CPU, esta en servicio después de 1
año es 0.80. Si la “U” adquiere 35 de tales CPUs. Cual la probabilidad de que

a) 7
b) al menos 5 de las CPUs adquiridos NO esta en servicio después de 1 año?

SOLUCION

X∼b(n,p) ⇒ X∼b(35;0.20)
n = 35; p =0,20; q =0,80

Como n = 35>10 y p=0.20<0.5 podemos aproximar mediante la Normal con np=7 y


npq = 5.6 = 2.3664

a)
x ± 0.5 − np
P[x = 7] = P[6.5 ≤ x ≤ 7.5] donde Z =
npq
⎡ 6.5 − 7 7.5 − 7 ⎤
⇒ P⎢ ≤Z≤ = P[− 0.2113 ≤ Z ≤ 0.2113] = P[Z ≤ 0.21] − P[Z ≤ −0.21]
⎣ 2.3664 2.3664 ⎥⎦
= F (0.21) − F (−0.21) = 0.1664

b)
P[x ≥ 5] = P[x ≥ 5 − 0.5] = P[x ≥ 4.5] = 1 − P[x < 5]
⎡ 4 .5 − 7 ⎤
= 1 − P ⎢Z ≤ = 1 − P[Z < −1.056] = 1 − F ( −1.06) = 0.8554
⎣ 2.3664 ⎥⎦

Ejemplo 3

El tiempo que un cajero de un banco emplea para atender a un cliente es una v.a. con
media 3.1 minutos y una desviación estándar de 1.7 minutos. Si se observan los tiempos
y corresponden a 64 clientes ¿Cuál la probabilidad de que el tiempo promedio de los
mismos sea por menos 3.4 minutos?

35
SOLUCIÓN

Como X ~. P(x)

μ = λ = 3.1 P[x 64 > 3.4] = 1 − P[x 64 < 3.4]


σ = λ = 3.1
2

1 − P⎢z <
(3.4 − 3.1) 64 ⎤ = 1 − P[z < 1.41]

σ = 1.7 ⎣ 1.7 ⎦
n = 64 = 1 − F (1.41)
= 1 − 0.9207 = 0.0793

36

También podría gustarte