Está en la página 1de 70

TEMA 3: Modelos de probabilidad discretos

1
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

2
TEMA 3


3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE


VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

3
Ya vimos en TEMA 2 que
VARIABLE ALEATORIA ES …

En el siguiente apartado ….
vamos a recordar conceptos del TEMA 1, junto con
su nueva designación
Los nombres son nuevos
Los conceptos no

4
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

5
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE

VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

6
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE
UNA VA DISCRETA

3.2.1. Función de cuantía y Función de


distribución
3.2.2. Parámetros estadísticos
3.2.1. Función de cuantía y Función de distribución

 LOS VALORES DE UNA VARIABLE ALEATORIA CAMBIAN DE


UN EXPERIMENTO A OTRO AL CAMBIAR LOS RESULTADOS DEL
EXPERIMENTO
 UNA VARIABLE ALEATORIA ESTÁ DEFINIDA POR
1. LOS VALORES QUE TOMA
2. LA PROBABILIDAD DE TOMAR CADA UNO DE ESOS VALORES

Función de cuantía (FUNCIÓN DE MASA DE PROBABILIDAD o


función puntual de probabilidad)
Función que indica las probabilidades de cada posible valor

PX ( xi ) = P [ X = xi ]
8
Función puntual de probabilidad (VA Discretas)

 Asigna a cada posible valor de 40%

una variable discreta su 35%

probabilidad. 30%

 Recuerda los conceptos de 25%


frecuencia relativa y diagrama de 20%
barras. 15%
 Ejemplo 10%

 Númerode caras al lanzar 3 5%

monedas. 0%
0 1 2 3

9
 La función de cuantía cumple dos propiedades que
se deducen de forma inmediata de los axiomas de la
probabilidad

0 ≤ PX ( xi ) = P [ X = xi ] ≤ 1 ∀i = 1, 2,..., n

∑P (x ) =1
i =1
X i

10
DEPARTAMENTO DE ORGANIZACIÓN INDUSTRIAL 11
12
Función de distribución (V.A.DISCRETA)
 Es la función que asocia a cada
valor de una variable, la
probabilidad acumulada
de los valores inferiores o iguales

 Piénsalo como la generalización de las


frecuencias acumuladas.
Diagrama integral

FX (x) = P [X ≤ x] ∀x ∈

FX ( x ) = ∑ PX ( xi )
xi ≤ x

13
Propiedades
p.1.-Función no negativa y está acotada

0 ≤ FX ( x ) = P [ X ≤ x ] ≤ 1 ∀x ∈

F(+ ∞) = 1
F(+ ∞) = P(-∞<X ≤ ∞)= P(Ω) = 1 lim FX ( x ) = 1
x →∞
F(-∞) = 0
F(- ∞) = P(-∞<X ≤ -∞)= P(∅) = 0 lim FX ( x ) = 0
x →−∞
p.2.- Permite calcular probabilidades de intervalos
P(x< X ≤ x+h)=F(x+h)-F(x)
P(x ≤ X≤ x+h)=F(x+h)-F(x)+P(X=x)
P(x ≤ X < x+h)=F(x+h)-F(x)-P(X= x+h) +P(X=x)
P(x < X< x+h)=F(x+h)-F(x) -P(X = x+h)

14
p.3.-Función siempre monótona no decreciente
FX ( a ) ≤ FX ( b ) ∀a ≤ b ∈
p.4.- Función continua a la derecha

∀a ∈ ⇒ lim+ FX ( x ) = FX ( a )
x →a
Si La función de distribución es continua a la izquierda se dice que es una
función de distribución continua

15
¿Para qué sirve la FUNCIÓN de distribución?

 Contrastar lo anómalo de una observación


concreta
 Relaciónalo con la idea de centil

16
Ejemplo:
Experimento consistente en lanzar una moneda cuatro veces consecutivas.
Sea la variable aleatoria X: Número de caras obtenidas. Considerando que la
probabilidad de obtener cara en cada uno de los lanzamientos es ½. Obtener
la función de cuantía y la función de distribución junto con su gráfica

Valor PX(xi) 0 si x<0


0 0.0625 0.0625 si 0 ≤ x <1

1 0.25 0.3125 si 1≤ x < 2
2 0.375 FX ( x ) = 
0.6875 si 2≤ x<3
3 0.25
0.9375 si 3≤ x < 4
4 0.0625 
1 si 4≤ x
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE
UNA VA DISCRETA

3.2.1. Función de cuantía y Función de


distribución
3.2.2. Parámetros estadísticos
3.2.2. Parámetros estadísticos

Los momentos de una VA discreta

µ r = ∑ (x i − c) P[(ξ = x i )]
r

∀x i

µ r = E[(ξ − c) r ]

19
Momentos respecto del origen C=0

α r = ∑ (x i ) r P[ξ = x i ]
∀x i

α r = E[(ξ) ] r

α0 = 1
α1 : media, valor esperado, esperanza matemática
También se puede representar mediante
E[X], E[ξ] ó µ n
E ( X ) = ∑  xi ⋅ PX ( xi ) 
i =1

20
Momentos respecto de la media C= µ

m r ∑ = (x i − E[ξ]) r P[ξ = x i ]
∀x i

m r = E[(ξ − E[ξ]) r ]

m0 = 1 m1 = 0 m2 = varianza
Se representa mediante VAR[X], V[ξ] ó σ2
Se llama desviación típica a σ

Var ( X ) = E ( X 2 ) − ( E ( X ) )
2

21
Propiedades DE LA MEDIA

p.1.- E[(ξ − E[ξ])] = 0


p.2.-
E[(ξ − E[ξ]) ] ≤ E[(ξ − b) ]
2 2
∀b
p.3.-
E[k] = k
p.4.-
E[k + ξ] = k + E[ξ]
p.5.-
E[kξ] = kE[ξ]
p.6.-
E[ξ1 ± ξ 2 ] = E[ξ1 ] ± E[ξ 2 ]
p.-7
E[ξ1 ξ 2 ] = E[ξ1 ] E[ξ 2 ] ; ξ1 y ξ 2 independientes
22
Propiedades DE LA VARIANZA

p1.- V[ξ] ≥ 0
p.2.- mínima medida de desviación cuadrática

p.3.- V[k] = 0
p.4.- V[kξ] = k V[ξ]
2

p.5.- V[k ± ξ] = V[ξ]


p.6.- V[ξ1 ± ξ 2 ] = V[ξ1 ] + V[ξ2 ] ; ξ1 y ξ 2 independientes
p.7.-
V[ξ] = α 2 − α 2
1

23
Ejemplo:
Experimento consistente en lanzar una moneda cuatro veces consecutivas.
Sea la variable aleatoria X: Número de caras obtenidas. Considerando que la
probabilidad de obtener cara en cada uno de los lanzamientos es ½, calcular
la media y varianza

Valor PX(xi)
0 0.0625
1 0.25
2 0.375
3 0.25
4 0.0625

n
E ( X ) = ∑  x i ⋅ PX ( x i )  = 0 ⋅ 0 .0 6 2 5 + 1 ⋅ 0 .2 5 + 2 ⋅ 0 .3 7 5 + 3 ⋅ 0 .2 5 + 4 ⋅ 0 .0 6 2 5 = 2
i =1

n
Var ( X ) = ∑ ( xi − E ( X ) ) ⋅ PX ( xi )  = ( −2 ) ⋅ 0.0625 + ( −1) ⋅ 0.25 + 02 ⋅ 0.375 + 12 ⋅ 0.25 + 22 ⋅ 0.0625 = 1
2 2 2

i =1
 
Otras medidas estadísticas …
Ejemplo:
Una empresa está interesada en fabricar un nuevo destornillador eléctrico. Se sabe
que la distribución de probabilidad del número de vueltas para ajustar tornillos de 10
cm es la siguiente:

¿Cuántas vueltas habrá que dar al 70 % de los tornillos?


DESIGUALDAD DE Chebyshev

26
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

27
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
 VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

28
3.3. DISTRIBUCIÓN BINOMIAL

3.3.1. Distribución de Bernoulli


3.3.2. Distribución Binomial
Hay VA DISCRETAS que aparecen con frecuencia
en el campo de la INGENIERÍA

 Experimentos dicotómicos.
 Bernoulli

 Contar éxitos en experimentos dicotómicos repetidos:


 Binomial

 Geométrica

 Poisson (sucesos raros)

30
3.3.1. Distribución de Bernoulli
Pruebas de Bernoulli
 Tenemos un experimento de Bernoulli si al realizar un experimento sólo son
posibles dos resultados:
 X=1 (éxito, con probabilidad p)
 X=0 (fracaso, con probabilidad q=1-p)

 Lanzar una moneda y que salga cara.


 p=1/2
 Elegir una PIEZA de la población y que esté DEFECTUOSA.
 p=1/1000
 Observar el sexo de un recién nacido
 Si se transmite correctamente un bit a través de un canal digital
 Aplicar un tratamiento a un enfermo y que éste se cure.
 p=95%, probabilidad de que el individuo se cure

 En experimentos donde el resultado es dicotómico, la variable queda


perfectamente determinada conociendo el parámetro p

31
Distribución de Bernoulli
Cuando un experimento tiene las siguientes características

• Sólo hay dos resultados posibles: {0, 1}


• La proporción de 0 y 1 es constante y no se modifica cualquiera que sea la
cantidad observada
PX ( 0 ) = P [ X = 0] = 1 − p PX (1) = P [ X = 1] = p
Las observaciones son independientes

1
E ( X ) = ∑ i ⋅ PX ( i )  = p
i =0

1
Var ( X ) = ∑ ( i − E ( X ) ) ⋅ PX ( i )  = p 2 ⋅ (1 − p ) + (1 − p ) ⋅ p = p ⋅ (1 − p )
 2 2

i =0
 

32
Ejemplo de distribución de Bernoulli.

Se está realizando una transmisión de datos en la que


cada bit tiene una probabilidad del 99.8% de llegar
correctamente.
La transmisión de un bit se puede considerar como una
prueba de Bernoulli en el que la probabilidad de tener
éxito en la transmisión es 0.998.
La variable B que toma el valor 1 si la transmisión se
realiza con éxito y el valor 0 si no es así, sigue una
distribución de Bernoulli de parámetro 0.998
Entonces: E ( B ) = p = 0.998
Var ( B ) = p ⋅ (1 − p ) = 0.001996
33
3.3. DISTRIBUCIÓN BINOMIAL

3.3.1. Distribución de Bernoulli


3.3.2. Distribución Binomial
3.3.2. Distribución Binomial
 Si se repite un número fijo de veces, n, un experimento de Bernoulli con parámetro p, el
número de éxitos sigue una distribución Binomial de parámetros (n, p)

X = número de veces que ocurre un suceso en las n pruebas


X ∼ Bin (n,p) X = 0,1,2,3,….n

EJEMPLO:

 Lanzar una moneda 10 veces y contar las caras.


 Bin(n=10,p=1/2)
 Lanzar una moneda 100 veces y contar las caras.
 Bin(n=100,p=1/2)
 Difícil hacer cálculos con esas cantidades. El modelo normal será más adecuado
 El número de piezas defectuosas (en una población de 500.000 piezas) sabiendo
que sale defectuosa una de cada 2000 piezas.
 Bin(n=500.000, p=1/2000)
 Difícil hacer cálculos con esas cantidades. El modelo de Poisson será más
adecuado

35
 Función de probabilidad
 n  i n−i
P[ X = i] =   p q , 0 ≤ i ≤ n
i

 Problemas de cálculo si n es grande y/o p cercano a 0 o 1.

 Media: µ =n p
 Varianza: σ2 = n p q

 E ( n + 1) ⋅ p  si ( n + 1) ⋅ p ∉
Mo ( X ) = 
( n + 1) ⋅ p y ( n + 1) ⋅ p − 1 si ( n + 1) ⋅ p ∈

36
0.5 0.5
P(x) P(x)

0.4 0.4

0.3 0.3

0.2 0.2 0.15


P(x)
0.1 0.1
x x
0.10
0.0 0.0
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8

n = 8 ; p = 0.05 n = 8 ; p = 0.25 0.05

0.5 0.5
P(x) P(x) x
0.00
0.4 0.4
0 10 20 30 40 50 60 70 80
0.3 0.3

0.2 0.2
n = 80 ; p = 0.1

0.1 0.1
x x
0.15
0.0 0.0 P(x)
0 1 2 3 4 5 6 7 8 0 1 2 3 4 5 6 7 8

n = 8 ; p = 0.7 n = 8 ; p = 0.9 0.10

0.3 0.3
P(x) P(x)
0.05

0.2 0.2
x
0.00

0 10 20 30 40 50 60 70 80
0.1 0.1

x x n = 80 ; p = 0.6
0.0 0.0
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
37
n = 20 ; p = 0.2 n = 20 ; p = 0.5
“Parecidos razonables”
 Ahí tenéis la comparación entre
valores de p no muy extremos y
una normal de misma media y
desviación típica, para tamaños
de n grandes (n>30).EN TEMA 4

 Cuando p es muy pequeño es


mejor usar la aproximación del
modelo de Poisson.

38
Ejemplo:
Un aparato electrónico contiene 40 circuitos integrados.
La probabilidad de que un circuito sea defectuoso es 0.01 y los circuitos
son independientes.
El producto funciona sólo si no hay ningún circuito defectuoso
¿Cuál es la probabilidad de que el aparato funcione?
X = número de circuitos defectuosos en los 40 de un aparato
P(X=0)???????????
¿qué distribución sigue X?
EXPERIMENTO: OBSERVAR SI UN CIRCUITO ES DEFECTUOSO O NO
SE REPITE 40 VECES Y SON INDEPENDIENTES
LA PROBABILIDAD DE SER DEFECTUOSO ES CONSTANTE E IGUAL A 0.01
 40  X ∼ Bin (40,0.01)
PX ( 0 ) = P [ X = 0] =   ⋅ 0.010 ⋅ (1 − 0.01)
40 − 0
= 0.669
0
39
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

40
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
 3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

41
3.4. Distribución Geométrica
Cuando un experimento tiene las siguientes características:

 Sólo hay dos resultados posibles


 La probabilidad de éxito se mantiene constante

 Las observaciones son independientes

 Se repite el experimento hasta que ocurre el primer éxito

X ∼ G (p) X = 1,2,3,….

Y= número de veces que hay que repetir el experimento hasta conseguir el primer éxito

(i ) = P [Y = i ] = (1 − p )
i −1
PY ⋅ p

1
E (Y ) = ∑ i ⋅ PY ( i )  =
i =1 p

1− p
Var (Y ) = ∑ ( i − E (Y ) ) ⋅ PY ( i )  = 2
2

i =1
  p
42
0.8 0.5
P(x) P(x)
0.7
0.4
0.6
0.5 0.3
0.4
0.3 0.2

0.2
0.1
0.1 x x
0.0 0.0
1 3 5 7 9 11 13 15 17 19 1 3 5 7 9 11 13 15 17 19

p = 0.8 p = 0.5
0.5 0.5
P(x) P(x)
0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1
x x
0.0 0.0
1 3 5 7 9 11 13 15 17 19 1 3 5 7 9 11 13 15 17 19

p = 0.2 p = 0.1

43
EJEMPLO:
La probabilidad de que un bit transmitido a través de un canal de
transmisión digital sea recibido como un error es 0.1. si las
transmisiones son independientes

¿Cuál es el número medio de transmisiones que hemos de observar


hasta que ocurre el primer error?

Y= número de transmisiones que hay que observar hasta encontrar el


primer error
1 1
E (Y )= = = 10
p 0 .1

44
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

45
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
 3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

46
3.5. Distribución de Poisson
min {n ⋅ p, n ⋅ (1 − p )} < 10
1781-1840

 También se denomina de sucesos raros


 Se obtiene como aproximación de una distribución binomial con
la misma media, para ‘n grande’ (n>30), ‘p pequeño’ (p<0,1) y
 Queda caracterizada por un único parámetro µ ó λ (que es a su
vez su media y varianza.) ∞

 Función de probabilidad: E ( X ) = ∑ i ⋅ PX ( i )  = λ


i =0


−µ µi Var ( X ) = ∑ ( i − E ( X ) ) ⋅ PX ( i )  = λ
2

P[ X = i ] = e , i = 0,1, 2,... i =0
 
i!
λ si λ ∉
Mo ( X ) = 
λ y λ −1 si λ ∈

47
0 .3 0 .20
P (x ) P (x )

0 .15
0 .2

0 .10

0 .1
0 .05

x x
0 .0 0 .00
0 2 4 6 8 10 12 14 16 18 0 2 4 6 8 10 12 14 16 18

λ=2 λ=8
0 .1 5 0 .1 0
P (x ) P (x )

0 .1 0

0 .0 5

0 .0 5

x x
0 .0 0 0 .0 0
0 5 10 15 20 25 30 0 5 10 15 20 25 30 35 40 45 50

λ = 15 λ = 30

48
Ejemplo de variables de Poisson
 El número de individuos que será atendido un día
cualquiera en el servicio de urgencias del Hospital LA PAZ.

 En MADRID hay 6.081.689 habitantes (INE


2007) n grande
 La probabilidad de que cualquier persona tenga un
accidente es pequeña, pero no nula. Supongamos que
es 1/10.000
 Bin (n= 6.081.689,p=1/10.000) ≈
Poisson (µ =np ó λ=np )

49
EJEMPLO: una fábrica recibe una media de 12
pedidos diarios, de manera que la variable aleatoria X
que representa el número de pedidos en un día al azar
sigue una distribución de Poisson de parámetro 12.
La probabilidad de que la fábrica reciba un número de
pedidos inferior a 15
14 14
 λ i ⋅ e−λ 
P [ X < 15] = ∑  PX ( i )  = ∑   = 0.7720
i =0 i =0  i! 

 La media y la varianza de la variable aleatoria son:

E ( X ) = Var ( X ) = λ = 12

50
PROCESO DE POISSON

La distribución para el número de ocurrencias de sucesos


en cualquier intervalo de longitud t viene dada por la expresión

−λt (λ t )i
P [ N (t ) = i ] = e , i = 0,1, 2, ...
i!
El número de ocurrencias de sucesos N(t) en el intervalo de
tiempo (0, t] se rige por una distribución de Poisson
de parámetro λt

51
Ejemplo
El proceso de llegadas de clientes a un puesto de servicio se produce de
manera estable e independiente. Por término medio llega un cliente cada
minuto
¿Cuál es la probabilidad de que no lleguen clientes en 3 minutos?

∼P(λ
X = número de clientes por minuto X∼ λ=1)
∼P(λ
Y = número de clientes en 3 minutos Y∼ λ=3)

−3 30
P [Y = 0 ] = e = e −3
0!

52
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

53
TEMA 3
3.1. INTRODUCCIÓN: RETOMANDO EL CONCEPTO DE
VARIABLE ALEATORIA (VA)
3.2. DISTRIBUCIÓN DE PROBABILIDAD DE UNA
VA DISCRETA
3.3. DISTRIBUCIÓN BINOMIAL
3.4. DISTRIBUCIÓN GEOMÉTRICA
3.5. DISTRIBUCIÓN DE POISSON
3.6. VARIABLES ALEATORIAS DISCRETAS
 BIDIMENSIONALES

54
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

3.6.1. Distribuciones marginales y


condicionadas
3.6.2. VA independientes
3.6.3. Parámetros estadísticos
Hemos estudiado distribuciones de probabilidad para una VA

Sin embargo, a menudo nos interesa más de una variable en un


experimento aleatorio.
Por ejemplo, en la clasificación de señales emitidas y recibidas,
cada señal se clasifica como de baja o alta calidad. Podemos definir
X = número de señales de baja calidad recibidas, e Y = número de
señales de alta calidad.

En general, si X e Y son dos variables aleatorias la distribución de


probabilidad que define simultáneamente su comportamiento se
llama distribución de probabilidad conjunta

56
Si el resultado de un experimento aleatorio se concreta en dos observaciones
simultáneas

(X, Y) variable aleatoria bidimensional

que podrá ser continua o discreta


cuya distribución de probabilidad viene dada por su función de distribución

F(x, y) = P(X ≤ x; Y ≤ y) = P(−∞ < X ≤ x; −∞ < Y ≤ y)

57
Si tenemos
variable aleatoria discreta
F(x,y) = ∑ ∑P(X = x ;Y = y )
i j
xi ≤x yj ≤y

PX,Y ( x i , y j ) = P  X = x i , Y = y j  = P ( X = x i ) ∩ ( Y = y j )  = Pij


∞ ∞

∑∑ P
i =1 j=1
ij =1

58
Ejemplo: En una cierta población se definen dos variables discretas: X1= fallo
suministro de energía eléctrica en la línea A y X2= fallo suministro de energía eléctrica en la
línea B, ambas con los valores 0 = no y 1 = sí

La distribución de probabilidad conjunta podría ser


X1

X2 0 1

0 0,4 0,1

1 0,3 0,2

P(0,0)=0,4 quiere decir que la probabilidad de que no haya fallo de suministro de


energía eléctrica en la línea A (X1=0) y no haya fallo de suministro de energía eléctrica
en la línea B (X2=0) es 0,4.
Obsérvese la suma de los valores sombreados en azul

59
Distribuciones marginales

variable aleatoria discreta


i ∞
ξ1 → F1 (x) = F(x, ∞) = P(X ≤ x i ) = ∑ ∑p k•
k =1 j=1
∞ j
ξ 2 → F2 (y) = F(∞, y) = P(Y ≤ y j ) = ∑ ∑p •k
i =1 k =1
∞ ∞

∑p
i =1
i• =1 ∑p
j=1
•j =1 PX ( xi ) = ∑  PX ,Y ( xi , y j )  = ∑  P  X = xi , Y = y j  
j j

PY ( y j ) = ∑  PX ,Y ( xi , y j )  = ∑  P  X = xi , Y = y j  
i i

60
Ejemplo:
X1

X2 0 1 P.j

0 0,4 0,1 0,5

1 0,3 0,2 0,5

Pi. 0,7 0,3

La probabilidad de que haya fallo en suministro de energía eléctrica


en la línea A es 0,1+0,2=0,3.

61
Distribuciones condicionadas

 X = xi  P ( X = xi ) ∩ (Y = y j )  PX ,Y ( xi , y j ) pij
PX / Y = y j ( xi ) = P  = = =
 Y = y 
j P Y = y j  PY ( y j ) p. j

Y = y j  P (Y = y j ) ∩ ( X = xi )  PX ,Y ( xi , y j ) pij
PY / X = xi ( y j ) = P   = = =
 X = xi P [ X = xi ] PX ( xi ) pi.

62
Ejemplo:
Distribución de probabilidad de la variable aleatoria (X1) condicionada
a que no hay fallo de energía eléctrica en la línea B (X2=0).

X1

P(X1/x2=0)

0 0,4/0,5=0,8

1 0,1/0,5=0,2

Obsérvese que la suma de sus valores debe ser 1

0,8 es la probabilidad de que no hay fallo de energía eléctrica en la línea


A dado que no haya fallo de energía eléctrica en la línea B

63
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

3.6.1. Distribuciones marginales y


condicionadas
3.6.2. VA independientes
3.6.3. Parámetros estadísticos
X e Y son independientes si, y sólo si, se verifica:

PX ,Y ( xi , y j ) = P  X = xi , Y = y j  = P [ X = x ] ⋅ P Y = y j  = PX ( xi ) ⋅ PY ( y j ) ∀xi , y j

65
3.6. VARIABLES ALEATORIAS DISCRETAS
BIDIMENSIONALES

3.6.1. Distribuciones marginales y


condicionadas
3.6.2. VA independientes
3.6.3. Parámetros estadísticos
E ( g ( X , Y ) ) = ∑∑  g ( xi , y j ) ⋅ PX ,Y ( xi , y j ) 
i j

•Si g(X, Y) = X, se obtiene la esperanza µX de la variable aleatoria X


•Si g(X, Y) = Y, se obtiene la esperanza µY de la variable aleatoria Y
•Si g(X, Y) = (X – µX)2, se obtiene la varianza de la variable aleatoria X
•Si g(X, Y) = (Y – µY)2, se obtiene la varianza de la variable aleatoria X
•Si g(X, Y) = X·Y , se obtiene la media de la variable aleatoria producto

•Si g(X, Y) = (X – µX)·(Y –µY), se obtiene la covarianza Cov(X, Y)

La covarianza también se puede calcular como

Cov ( X , Y ) = E ( X ⋅ Y ) − E ( X ) ⋅ E (Y )

67
¿Qué hemos visto?
 En VA hay conceptos equivalentes al TEMA 1
 Función de probabilidad  Frecuencia Relativa
 Función de densidad  histograma
 Función de distribución  diagrama Integral.
 Valor esperado  media, …

 Hay modelos de VA de especial importancia:


 Bernoulli
 Binomial
 Geométrica
 Poisson

 VA discretas bidimensionales

68
Finalizado el tema el alumno tiene que
ser capaz de:

 COMPRENDER EL CONCEPTO DE VARIABLE


ALEATORIA
 Calcular probabilidades A PARTIR DE LA FUNCIÓN DE
PROBABILIDAD O FUNCIÓN DE DISTRIBUCIÓN
 Calcular ESPERANZAS Y VARIANZAS DE VARIABLES
ALEATORIAS DISCRETAS

69
Finalizado el tema el alumno tiene que
ser capaz de:

 COMPRENDER LAS HIPÓTESIS DE LAS DISTINTAS


DISTRIBUCIONES de probabilidad discretas
presentadas
 SELECCIONAR LA DISTRIBUCIÓN DISCRETA
CORRECTA EN APLICACIONES ESPECÍFICAS
 CALCULAR probabilidades, DETERMINAR MEDIAS Y
VARIANZAS para las distribuciones de probabilidad
discretas más comunes

70

También podría gustarte