Está en la página 1de 26

Estos apuntes son de la cátedra Estadística I de la Fac.

de Ciencias Económicas
de la UNC. Cuya autora es la Dra. Angela Diblasi

UNIDAD Nº 2

VARIABLES ALEATORIAS DISCRETAS

El conjunto de los resultados de un experimento aleatorio, llamado el espacio


muestral (S), está formado por "sucesos" que pueden ser cualitativos o cuantitativos. Son
ejemplos de cualitativos el espacio muestral del experimento aleatorio de arrojar una
moneda, el que tiene dos posibles sucesos: "cara" o "sello"; el de la preferencia de un
consumidor de gaseosa entre las marcas "U", "W" y "Z", tiene tres sucesos: prefiere la
marca "U", "W" o "Z"; el experimento aleatorio de tomar los saldos bancarios de un
ejercicio económico y ver si su saldo es positivo o negativo, tiene dos sucesos: "positivo" y
"negativo". Ejemplos de sucesos cuantitativos serían los resultados del experimento de
averiguar los sueldos de un determinado centro de costo de una empresa industrial, los
resultados del experimento de tomar la cantidad de unidades de mercaderías devueltas por
mes, etc.
Por otra parte, sabemos que cuando se calcula probabilidad, precisamente a lo que
se le calcula es a los sucesos, es decir a cada elemento del espacio muestral, de modo que
resulta interesante y prácticamente necesario asociar o relacionar cada uno de estos sucesos
o resultados, especialmente los cualitativos, con una medida cuantitativa. Es así entonces
que arribamos a la definición de Variable Aleatoria

Definición: Sea S el espacio muestral ligado a un experimento aleatorio,variable


aleatoria (en adelante v.a.) es una función X que asigna a cada elemento del espacio
muestral un número del conjunto de los números reales R
X : S  R tal que s  S , X ( s )  x es un n° real

Ilustración 1 Variable Aleatoria X

1
Ejemplo 1: En el caso de arrojar una moneda el espacio muestral S está constituido
por sólo dos resultados cara y sello por lo que tendríamos v.a.: X(cara) y X(sello), las que
asignarían el numero real 0 (cero) a cara y el 1 (uno) a sello.

En resumen: X   cara    0 y X   sello    1 , lo que quiere decir que el conjunto


imagen de la v.a. es X  S    0,1

Ejemplo 2: Considere el experimento aleatorio de seleccionar dos cheques de un


total de cinco, sin reemplazo. Además tenga en cuenta que del total de los cinco cheques
hay dos de ellos que tienen error en la fecha.
Compruebe que el espacio muestral asociado a dicho experimento es finito y no
equiprobable. Y además la probabilidad de obtener :
a) los dos cheques sin error es 6/20
b) exactamente un cheque con error es 12/20
c) los dos cheques con error es 2/20
En símbolos se puede escribir como:
   20
P e, e
6
; P  e, e ;  e, e  
12
20
; P   e, e    
2
20
Asociada a este experimento, se podría definir la variable aleatoria X :”número de
cheques con error obtenidos en las dos extracciones”, es fácil ver que los valores que esta
función le hace corresponder a los posibles resultados del espacio muestral son: 0,1 y 2.
Es decir, a los pares que no tengan cheques con error, les asignará el “cero”, a los pares
que tengan exactamente un cheque con error, les asignará el “uno”, y finalmente a los pares
que tengan los dos cheques con error, les asignará el “dos”.

En símbolos, X   e, e    0 ; X   e, e    X   e, e    1 ; X   e, e    2

Luego, la función tiene el siguiente conjunto imagen X  S    0,1,2 .

De este modo, por medio de la función variable aleatoria se ha asignado a cada


suceso cualitativo de un determinado espacio muestral un número real, es así entonces que
al preguntarnos por una determinada probabilidad, nos conduciremos siempre con medidas
cuantitativas. Por supuesto que lo mismo puede hacerse con sucesos cuantitativos. Veamos
el siguiente ejemplo.

Ejemplo 3: Un exprerimento aleatorio clásico, hemos visto que es el lanzamiento de un


dado legal y observar el n° que sale en la cara hacia arriba. Se podría definir una v.a. como
X : ”n° que se observa en la cara superior del dado “, de este modo tendremos:
El espacio muestral S  1,2,3,4,5,6 finito y equiprobale y

2
X  (1)   1 , X  (2)   2 , X  (3)   3 , X  ( 4)   4 , X  (5)   5 , X  (6)   6 , de modo que
el conjunto imagen de la v.a. es X  S   1,2,3,4,5,6 .
Este es un caso particular ya que la variable aleatoria es la función identidad.

VARIABLES ALEATORIAS: DISCRETAS Y CONTINUAS

Una v.a. será discreta cuando su conjunto imagen o su espacio muestral es un


conjunto finito o infinito numerable.
En los tres ejemplos mencionados anteriormente el conjunto imagen de la v.a.
definidas en cada uno de los ellos es finito. En el primer ejemplo X  S    0,1 , en el
segundo X  S    0,1,2 y en el tercero X  S   1,2,3,4,5,6
Un ejemplo de espacio muestral infinito numerable sería el número de deudores
hipotecarios que cancelan su préstamo puntualmente por año S={0,1,2,3,.....,n}.
Estas variables corresponden a experimentos en los que se cuenta el número de
veces que ha ocurrido un suceso.
Una v.a. será continua cuando su conjunto imagen es un conjunto infinito, es decir si
sus valores consisten en uno ó más intervalos de la recta de los reales.
Un ejemplo de espacio muestral infinito sería el experimento de averiguar la
capacidad de ahorro de las familias del gran Mendoza,donde S={x/x  R} (es decir que el
valor de la v.a. podrá ser cualquier número real).

De ahora en adelante , en esta unidad, nos ocuparemos de variables aleatorias


discretas (v.a.d)

Hemos comprobado que los posibles resultados del espacio muestral tienen asociada
una cierta probabilidad, también hay formas de asociar probabilidades a los valores que
toma la variable aleatoria. Veremos dos funciones muy importantes definidas sobre el
conjunto de valores que toma una v.a. y que la vinculan con la probabilidad.

FUNCIÓN DENSIDAD DE PROBABILIDAD DE UNA VARIABLE ALEATORIA


DISCRETA

Como se acaba de ver una v.a. X representa los resultados de un experimento


aleatorio los que conforman el espacio muestral, ahora bien teniendo esto en cuenta, es
posible desarrollar una función matemática que asigne a cada realización de la v.a. X una
determinada probabilidad.
Esta función se denominará función densidad de probabilidad y se define así:

3
Sea X una v.a., se llamará función densidad de probabilidad de la v.a.d. X a
la fX :R  [0,1] de tal forma que:

fX (x)= P({s/s  S  X(s)=x)}) = P(X=x)

Gráficamente:

Ilustración 3 - Función densidad de probabilidad

En el experimento aleatorio referido a la extracción de cheques (ej. 2) , donde la v.a.


es X :”número de cheques con error obtenidos en las dos extracciones”, se obtuvo

 
X e, e  0 ;    
X e, e  X e, e  1 ; X   e, e    2

Luego el conjunto imagen es X  S    0,1,2


Obtendremos la función que acabamos de definir:

fX (x)= P(X= x)= P({s/s  S  X(s)= x})

fX (0)= P(X = 0)= P({s/s  S  X(s) = 0} = P  e, e  


6
20

fX (1)= P(X =1)= P({s/s  S  X(s)= 1}) = P  e, e ;  e, e   


12
20
2
fX (2)= P(X =2)= P({s/s  S  X(s) = 2}) = P   e, e    
20

Una forma de escribir estos resultados obtenidos es

4
 206 si x  0
 12
 si x  1
f X ( x)   202
 20 si x  2
0 en cualquier otro caso

Realice la representación gráfica correspondiente.

Notación: La función indicadora de un conjunto, se simboliza como I A tiene múltiples


usos en el contexto de la matemática, nosotros la utilizaremos para simplificar la notación
de las funciones que se acaban de definir.
La expresión más general de la función indicadora es:

1 si x  A
I A ( x)  
0 si x  A
El conjunto A nos “indica” el conjunto de valores que tomará la v.a. X.
Si se escribe la función densidad que acabamos de obtener para el caso de los cheques,
utilizando la función indicadora, resulta:
f X ( x)  6
20
I  0 ( x)  12
20 I 1 ( x ) 
2
20
I  2 ( x )

Compruebe que la función densidad para el ejemplo 3, del lanzamiento del dado, es
f X ( x)  1
6 I 1, 2,3, 4,5,6 ( x)

PROPIEDADES FUNDAMENTALES DE LA FUNCIÓN DENSIDAD DE


PROBABILIDAD

1) f X ( x)  0  xR

2) f
x j X ( s )
X (x j )  1

Verifique estas propiedades en los ejemplos vistos.

5
FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA

Sea (S,P), un espacio de probabilidad y X: S R (X una v.a. en S), se define a la función


de distribución acumulativa (o acumulada) de la variable aleatoria X, como FX: R  [0,1]
definida para cada número del conjunto de los reales de tal forma que:
FX (x)= P({s/s  S  X(s)  x}) = P(X  x)

Gráficamente:

Ilustración 2 - Función de distribución acumulativa


Esta definición es general y como veremos más adelante es válida para el caso de v.a.
discretas y continuas.

Para el ejemplo 2 de los cheques esta función será :

F X (0) = P({s/s  S  X(s)  0} = P X  0   P  e, e  


6
20

F X (1) = P({s/s  S  X(s)  1}= P  X  1  P   e, e  ;  e, e ;  e, e  


18
20

F X (2) = P({s/s  S  X(s)  2})= P X  2  P  e, e ;  e, e ;  e, e ;  e, e    


20
20
Una forma de escribir estos resultados obtenidos es

0 si x0
6
 20 si 0  x  1
FX (x)   18
 20 si 1  x  2
1 si x2

6
Realice la representación gráfica correspondiente, debería obtener un gráfico escalonado.
Esta misma función de distribución acumulativa se puede escribir utilizando la función
indicadora como:
FX ( x )  6
20 I  0,1 ( x)  18
20 I 1, 2  ( x )  I  2 ,   ( x )

Obtenga esta función para el ejemplo del dado.

PROPIEDADES FUNDAMENTALES DE LA FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA

1) lím FX(x) = 0 ; lím FX(x) = 1


x - x +

2) FX es no decreciente ó creciente en sentido amplio:


x1 < x2  FX (x1)  FX (x2)

Demostración:
Sea x1 < x2  FX(x2)= P(Xx2)= P(Xx1)+ P[x1<X  x2]= FX(x1)+ P[x1<X  x2] ,
Y como P[x1<X  x2]  0
resulta: FX(x1)  FX(x2 )

3) La función Fx es una función continua por la derecha en cada punto. Es decir que la
función es continua por intervalos y presenta discontinuidades o "saltos" en los que el valor
de la función es igual al límite por la derecha:

lím FX(x+h) = FX(x) ;  x  R


h 0+
Estas se denominan propiedades fundamentales porque:

# Cualquier función de distribución acumulativa tiene que cumplir estas 3 propiedades, si


una función no cumple alguna de ellas, no es una función de distribución.

# Cualquier gX : R  [0,1] que cumpla con estas tres propiedades es una función de
distribución acumulativa de una v.a.

RELACIÓN ENTRE FX Y fX

7
1) Dado fX se obtiene la función FX del siguiente modo:

FX ( x )  f
x j x
X (x j )   P( X
x j x
 xj)

2) Dado FX se obtiene la función fX del siguiente modo:

f X ( x)  lím FX  x  h  lím FX  x  h   FX ( x)  lím FX  x  h 


h 0  h 0  h0 

Veamos estas relaciones en el ejemplo de los cheques. Si queremos calcular:


1) la probabilidad de obtener a lo sumo un cheque con error a partir de la función de
densidad, equivale a plantear

 P X  x j    P X  x 
1
P X  1  FX (1)   f X (x j )  j
x j 1 x j 1 x j 0

P X  1  P X  0   P X  1  f X (0)  f X (1)  6
20
 1220  1820
2) la probabalidad de obtener exactamente un cheque con error a partir de la función de
distribución acumulada, equivale a plantear

P X  1  f X (1)  FX (1)  lím FX 1  h   FX (1)  FX (0)  1820  206  1220


h 0 

Se expondrán a continuación algunas medidas útiles para analizar la distribución de una v.a.

CUANTILES
En muchas ocasiones es útil determinar un valor de la v.a. que tiene una posición fija
dentro de la distribución de valores que tiene la variable. Por ejemplo, si se estudian los
sueldos de una empresa puede resultar interesante encontrar el sueldo máximo que tienen
por lo menos el 50% de los empleados de la empresa, o también el sueldo mínimo debajo
del cual se ubican el 25% de los empleados. Para encontrar estoa valores dentro de la
distribución que tiene la v.a. en estudio, se calculan loas medidas llamadas “cuantiles”

Definición: En cuantil de orden “q” , que se escribe como “ x q ”, de una variable aleatoria

X es el menor valor de la variable para el cuál P  X  x q   q donde 0  q  1 .

8
Algunos cuantiles más conocidos son aquellos que dividen a la distribución en cuatro partes
iguales , se conocen como cuartiles y son x 0.25 ; x 0.50 ; x 0.75 . En particular el valor x 0.50
recibe el nombre de mediana.

En el ejemplo 2, de los cheques con error, el valor mediana es x 0.50  1 ya que es el menor

valor de la v.a. que cumple P X  x0.50   P X  1  0.90  0.50 . Una forma de interpretar
este resultado es :”Por lo menos en el 50% de los casos se espera encontrar a lo sumo un
cheque con error”.

VALOR ESPERADO (O ESPERANZA) DE UNA V.A. DISCRETA

El desarrollo la teoría de probabilidad está fuertemente relacionada con el


tratamiento de problemas económicos – actuariales, es decir con la determinación de cierta
suma a pagar hoy para recibir una retribución dada si se verifican ciertas condiciones de
carácter eventual (sociedad europea del s. XVII). Y el hecho de obtener soluciones de estos
problemas vinculándolos metodológicamente a los juegos del azar.
Debido a las necesidades planteadas por el contexto económico – legal de estos contratos
aleatorios, (relacionados por un lado con los seguros y las rentas vitalicias y por el otro con
los juegos de azar, especialmente las loterías); los matemáticos de la época razonaron en
términos del concepto de “expectativa” o “esperanza matemática”, entendida como la
relación entre le “presente cierto” y el “futuro incierto” , entre una cantidad cierta a pagar
(apuesta) para recibir una cantidad aleatoria si un evento dado se verifica. Se genera de esta
forma una teoría basada en reglas generales que expresaban en forma cuantitativa la relación
entre el riesgo y la ganancia en un contrato aleatorio equitativo.
El concepto de “esperanza matemática “ aparece en la obra de Huygens (1669) con el
cálculo de esperanza de vida de un individuo de edad x, intentando dar una interpretación
matemática de la expectativa.
Por otro lado, relacionando este concepto con los juegos de azar, uno de los hermanos
Bernoulli asegura que en una mano concreta el jugador puede ganar o perder de modo que
el resultado de cada mano es incierto, pero a lo largo de una partida, el resultado podía
valorarse numéricamente a través de ciertos cálculos matemáticos, que llamó “esperanza
matemática”
E(juego) = ganancia . (%veces que ganaba) – pérdida . (%veces que perdía)
E(juego) = g . P(g) + p . P(p)
9
En el ambiente el juego se consideraba justo si E(juego) = 0
Dicho en otras palabras si se supone que en un juego, por la ocurrencia de un evento Aj un
apostador recibirá la cantidad xj , entonces a lo largo de “n” apuestas sobre todos los

n
eventos Aj sumarán  x j p j , donde la cantidad que recibe el apostador se puede
j 1

interpretar como una variable aleatoria X con distribución p j j  1,..., n y la suma de

n
las apuestas representa entonces el valor esperado de la v.a X ; E ( X )   x j p j
j 1

Esta suma se puede extender a infinito.

Interpretación frecuentista
La esperanza matemática también poseee una importante propiedad asociada al concepto

ni
frecuentista de probabilidad , recordando lím n  n
 p i , luego la esperanza es

n nj
xj  E ( X ) entendiendo este concepto como un “promedio”.
j 1 n
La esperanza representa el valor promedio de una v.a., después de un número
grande de experimentos; da una idea del "centro de equilibrio" o de la "Tendencia central"
de la distribución de los valores de la v.a. X.

Definición: Sea X una v.a. discreta definida en S, (S,P) el espacio de probabilidad y X(S) el
conjunto de los valores que toma X; la esperanza:

E X   x
x j X ( S )
j f X (x j )   x P X
x j X ( S )
j  xj   
(1)

Cabe aclarar que la esperanza de una v.a. puede no existir, ya que si el campo de
variación de la v.a. no es un conjunto finito, sino que es un conjunto infinito numerable; la
suma (1) es una serie infinita. Por lo que la esperanza existirá si la serie es absolutamente
convergente.

10
Obtendremos esta “medida” en el experimento aleatorio de seleccionar dos cheques
sin reemplazo: en este ejemplo, el conjunto de valores que la v.a. X le asigna al espacio
muestral es X  S    0,1,2 y además la función densidad es
f X ( x)  6
20 I  0 ( x)  12
20 I 1 ( x )  20 I  2 ( x )
2

Luego la E  X 
E X   x
x j X ( S )
j f X (x j )   x P X
x j  0 ,1, 2
j  xj 

E  X   0  P X  0  1  P X  1  2  P X  2  0  1220  204  1620

E  X   0. 8 cheques con error

Este número es un “promedio esperado”, puede como en este caso no ser un valor
observado de la variable aleatoria. Una forma de interpretar este resultado es: “Se espera
que el nº promedio de cheques con error sea de 0.8”

Ejemplo 4: La demanda (en unidades) de cierto producto varía de mes a mes, basándose
en la información obtenida en el pasado, se puede construir una distribución de
probabilidad de la demanda del producto en cuestión

Meses Demanda por mes Probabilidad


(x) (fX)
Enero 300 0,2
Febrero 400 0,3
Marzo 500 0,35
Abril 600 0,15

E(X)= 300. 0,2 + 400. 0,3 + 500. 0,35 +600. 0,15


E(X)= 445

Luego, el valor esperado o esperanza de la v.a. "demanda por mes" es de 445 unidades.

ESPERANZA DE UNA FUNCIÓN DE V.A. DISCRETA

Sea g:RR y X:S R una v.a., entonces la función compuesta g  X= g(X) es también
una v.a.
Al ser g  X  una nueva variable aleatoria se puede obtener su esperanza del siguiente
modo:

11
E g  X     g(x j ) f X (x j )
x j X ( S )

Por ejemplo, una función podría ser g  X   X 2 , entonces calcular E  X 2  equivale a :



E X2    x 2j . f X ( x j )
x j X ( S )

Algunas Propiedades de la esperanza de una v.a.

1) La esperanza de una constante es la constante misma:


X: SR, X(S)= c, sS
E(c) = c

2) Sean “g”,”h” dos funciones cualquiera definida de los reales en los reales, hemos dicho
que g(X) y h(X) también son v.a.,entonces la esperanza de la suma de dos funciones es la
suma de las esperanzas de dichas funciones:

E(g(X) + h(X)) = E(g(X)) + E(h(X))

3) La esperanza de una constante por una función, es el producto de la constante por la


esperanza de la función:
E(c g(X))= c E(g(X))

Hemos visto que la Esperanza de una v.a. nos da idea del centro de la distribución de
los valores de la v.a. X, pero no nos da información sobre la forma en que se distribuyen
dichos valores.
Puede ocurrir que tengamos dos v.a. X1 y X2 que tengan el mismo valor medio, es
decir E ( X 1 )  E ( X 2 ) y sin embargo su funciones densidad sean diferentes.
Una medida que refleja esta realidad es la Varianza.

12
VARIANZA DE UNA VARIABLE ALEATORIA DISCRETA

La varianza de una variable aleatoria da una idea de la "forma de la distribución", es


decir en cuanto se alejan los valores de la variable respecto del valor central.
var( X )  E  X  E  X     2
2

Se debe notar que g1 ( X )  E  X  E  X   2 es una función de la v.a X y que calcular la

var( X ) es calcular E  g1  X   . Además esta función tiene la siguiente particularidad, la

diferencia  X  E  X   2 nos indica cuánto se alejan los valores de la v.a. respecto de su


“media” y la varianza considera el “promedio” de todas esas distancias.
En el caso de una v.a. discreta esta nueva medida se obtiene como

 X2  var( X )  x  E X  
2
j f X (x j )
x j X ( S )

La varianza de una v.a. discreta se define como la suma de los productos entre el cuadrado
de los desvíos y su probabilidad: Notar que por su definición esta medida es no negativa.
Otra medida que suele calcularse también y que tiene una interpretación más clara es la
desviación tipica o estándar, que es la raíz cuadrada de la varianza, es decir si

 X2  var( X ) , entonces la desviación tipica o estándar es  X  var(X )

Calcularemos estas medidas en el caso del ej. 2 de los cheques, recordando que

f X ( x)  6
20 I  0 ( x)  12
20 I 1 ( x ) 
2
20 I  2 ( x) y que además E ( X )  0.8 , entonces

 X2  var( X )   x j  0.8 f X ( x j )   0  0.8  202  1  0.8  12


2 2
  2
20  2  0.8  20
2 2

 
x j  0,1, 2

 X2  0.36 (cheques con error)2

Este resultado no nos dice mucho, pero si se calcula el desvío estándar de la v.a. X ,
tendremos  X  0.36  0.6 cheques con error. Y una forma de interpretar este resultado
es decir que : “Se espera que en promedio los valores de la variables se desvíen respecto
de su media en 0.6 unidades”.

Algunas Propiedades de la varianza de una v.a.

13
1) La varianza de una constante es igual a cero:
X: SR, X(S)= c, sS E(c) = c
var (c)= E(c- E( c))2= E( 0)= 0

2) La varianza de una constante por una variable, es el producto de la constante al cuadrado


por la varianza de la variable:

var(c X)= c2 var(X)

Demostración:
var (c X)= E(c X - E(c X )) 2=
= E [(c2 X2) + (cE( X)2 -2 cX cE(X)]= E(c2X2) +c2E2(X)- 2c2E2(X)=
= c2 E(X2) - c2  2 =
= c2(E(X2) -  2) =
= c2 var(X)

3) La varianza de una constante más una variable aleatoria , es la varianza de la variable


aleatoria: var(X+c)=var(X)
La demostración queda a cargo del alumno.

MOMENTOS DE UNA VARIABLE ALEATORIA DISCRETA

Existen ciertos valores típicos de gran importancia en el estudio de las variables


aleatorias, denominados “momentos”, que describen aspectos particulares de las mismas, o
más precisamente, de sus distribuciones de probabilidades, y permiten, en cierta forma, su
caracterización.
En realidad las medidas que se definieron antes, “esperanza” y “varianza”, son casos
particulares de estos “momentos”.
Los momentos son valores esperados de ciertas funciones de X (ver "Esperanza de
una función de v.a.") y pueden definirse alrededor del cero o de la E(X), lo que da origen a
dos tipos de momentos:

14
 Momentos no centrados de orden r
 Momentos centrados de orden r

Momentos no centrados de orden r (r  N)


Sea X una v.a., el r-ésimo momento de X alrededor del cero se define por:
 r'  E  X r   x r
j f X (x j )
x j X ( S )

Notar que g ( X )  X r es una nueva v.a. ya que es una función de la v.a. X. Por otro lado,

obtener la E  X r  es calular el valor esperado de una función de la v.a. X.

Casos Particulares
1) Si r = 1, tendremos:
1'  E  X 1   x 1
j f X (x j )
es lo que hemos definido con “Esperanza” de la v.a. X y
x j X ( S )

que simplemente anotaremos como E  X   


2) Si r = 2, tendremos:
 2'  E  X 2   x 2
j f X (x j )
x j X ( S )

Que nos será de utilidad para obtener otra medida importante.

Momentos centrados de orden r (r  N)


Sea X una v.a., el r-ésimo momento central de X o el r-ésimo momento alrededor de
la media  se define por:
r  E X    r  x  r
j  f X (x j ) donde   E  X 
x j X ( S )

Casos Particulares
1) Si r = 1, tendremos:
1  E  X     E  X   E     E  X         0
1

Para cualquier v.a. el momento centrado de orden 1 es igual a cero

2) Si r = 2, tendremos:
2  E X    2  x  2
j  f X ( x j )  var( X )
x j X ( S )

15
es lo que hemos definido con “Varianza” de la v.a. X y que podemos indicarlo como:
 2  var( X ) para hacer referencia al momento centrado de orden 2, o bien var X    2

IMPORTANTE:
Una expresión que frecuentemente es utilzada para calcular la varianza de una v.a. ,
es aquella en la que se expresa esta medida en función de los respectivos momentos no
centrados de orden uno y dos de la v.a.
Se puede demostrar que  2  var( X )  E  X 2   E 2  X 

Esto efectivamente se puede probar partir de la expresión var( X )   2  E  X    2 ,


desarrollando el cuadrado de ese binomio y aplicando propiedades de la esperanza. (Queda
a cargo del alumno)
De esta forma se demuestra que la varianza es igual a la diferencia entre dos momentos no
centrados.
Calcularemos, con esta nueva expresión, la varianza de la v.a. definida en el ej. 2 de los
cheques, recordando que f X ( x)  6
20 I  0 ( x)  12
20 I 1 ( x )  20 I  2 ( x )
2
y que además
E ( X )  0.8 , entonces hemos dicho que  2  var( X )  E X 2  E 2  X   
Luego para obtener la varianza falta calcular
  x
E X2  2
j f X ( x j )  0  12  12
20  2  20  20  20  1
2 2 12 8

x j X ( S )

Y luego
 2  var( X )  E  X 2   E 2  X   1  (0.8) 2  1  0.64  0.36

MODELOS DE DISTRIBUCIÓN DE PROBABILIDAD DE V.A. DISCRETAS

En los puntos anteriores se ha definido v.a. y distribución de probabilidad y se han


desarrollado sus propiedades generales. Inmediatamente a continuación se estudiarán
algunas distribuciones de probabilidad discretas específicas que resultan ser modelos útiles
para la solución de problemas prácticos. Las mismas han sido deducidas matemáticamente
tomando como ciertas determinadas hipótesis que se suponen válidas para los fenómenos
aleatorios, es por eso que al seleccionar una determinada distribución para ser aplicada a un
caso práctico en concreto, deberá conocerse la naturaleza del mismo y las hipótesis de la
distribución a emplear.

MODELO DE BERNOULLI

16
Una v.a. será Bernoulli cuando el experimento aleatorio de lugar a sólo dos
resultados, es decir, se está frente a un determinado experimento en el que el resultado será
la ocurrencia o la no ocurrencia de un evento, a los que se llamará "éxito" (e) o "fracaso"
(f), respectivamente
Si al evento "éxito" se le asigna 1(uno) y al de "fracaso" 0(cero), tenemos:
S={e,f}; X(S)= {0,1}

fX(x)=  x (1-  )1-x I{0,1}(x)

Donde  es el parámetro de la distribución de Bernoulli y representa la probabilidad del suceso


éxito cada vez que el experimento se lleva a cabo.
Los valores que puede tomar el parámetro están comprendidos entre 0  1; para
denotar esto usaremos el símbolo  que indica el espacio del parámetro, es decir el
conjunto de todos los valores que éste puede tomar:

   : 0    1

Gráficamente:

fX(x) fX(0)= 1- 
fX(1)= 


1- 

0 1

Ilustración 2 - Fc. densidad de Bernoulli

Esperanza de la variable Bernoulli


E X   x j f X ( x j )  0  f X (0)  1  f X (1)  0  
x j X ( S )

E X   

17
Varianza de la variable Bernoulli

 2  var( X )  E  X 2   E 2  X 

Luego la E  X   x  x 2j f X ( x j )  0  f X (0)  12  f X (1)  0    


2

X (S )
j

 
var( X )  E X 2  E 2  X      2   1   

var(X )   1   

Si consideramos nuevamente el Ejemplo 1, referido al experimento aleatorio de arrojar una


moneda y tenemos en cuenta la v.a. X:n° de sellos obtenidos al arrojar la moneda, vemos
que la distribución de probabilidades de X cumple las condiciones del modelo Bernoulli.
En efecto,
S ={cara, sello} ; X:SR ; X(cara)=0 ; X(sello)=1 y
P({cara})= P(X-1 {cara})= P(X=0)= fX(0)= 1/2
P({sello})= P(X-1 {sello})= P(X=1)= fX(1)= 1/2

E(X)= 1/2
var(X)=  (1-  )= 1/4

MODELO BINOMIAL

Un proceso binomial tiene las siguientes características:


a) Debe efectuarse un número fijo de pruebas repetidas estadísticamente
independientes(n).
b) Cada prueba es una variable Bernoulli, es decir tiene dos resultados posibles éxito
y fracaso con probabilidades  y (1-  ) respectivamente.
c) La probabilidad de éxito  , permanece constante de prueba en prueba.

Son muchas las aplicaciones prácticas de este modelo, por ejemplo si un proceso de
fabricación industrial produce algunas unidades defectuosas, si la proporción de estas
unidades es constante durante un período razonable y se seleccionan, aleatoriamente y
como procedimiento de rutina, un determinado número de unidades, entonces se podrá
emplear el modelo binomial para hacer proposiciones de probabilidad con respecto al
número de artículos defectuosos. Otra aplicación muy común es en el caso de la publicidad
de un producto o servicio, ya que a una determinada inversión publicitaria, y suponiendo
18
que la probabilidad de venta es constante para todos los consumidores, la distribución
binomial será un buen modelo para emplear puesto que las personas tienen un criterio
independiente para comprar.
El interés de este modelo, a diferencia del de Bernoulli, está en determinar la
probabilidad de obtener exactamente X= x éxitos durante n ensayos.
S={0,1}; X(S)= {0,1,2,3,...,n}

n!
 x 1    I  0,1, 2,...,n ( x)
n x
f X ( x) 
x! (n  x)!

Se tendrá para cada par de valor de los parámetros, una función densidad, de ahí que
éstos definen una familia de distribuciones binomiales.

Gráficamente:

n n=5, =0,5


f(x) 0,6 f(x) 0,4
0,3
0,4
0,2
0,2 0,1
0 0
0 1 2 3 4 5 0 1 2 3 4 5

n=5, =0,8
f(x) 0,6
0,4
0,2
0
0 1 2 3 4 5

Ilustración 3 - Gráficas de la función binomial de probabilidad

(Se dibujan barras en vez de puntos, con el sólo objeto de hacer más claros sus valores)

Para obtener la Esperanza de la variable Binomial, se debería calcular

19
n
n!
E X    x j f X (x j )  x  j 1    j
x n x
j
x j X ( S ) xj 0 x j ! (n  x j )!
Se puede probar que el resultado es

E(X) = n 

Varianza de la variable Binomial


 2  var( X )  E  X 2   E 2  X 

  x
n
n!
f X ( x j )   x 2j  j 1    j
x n x
Luego la E X 
2 2
j
x j X ( S ) x j 0 x j ! (n  x j )!

Se puede probar que el resultado es


 
E X 2  n  n  1  2  n 

Reemplazando:
 
var( X )  E X 2  E 2  X   n  n  1  2  n   n 2 2
var( X )  n 2  2  n  2  n   n 2 2  n   n  2

var( X )  n  1   

Ejemplo 5: Las observaciones efectuadas durante un largo período, demuestran que un


vendedor de pólizas de seguros puede efectuar una venta con sólo una entrevista con una
probabilidad de 0,2. Suponiendo que el vendedor entrevista en forma independiente a 4
posibles compradores:

a) Definir la v.a. y la función densidad.

b) ¿Cuál es la probabilidad de que dos personas contraten el seguro?

c) ¿Cuál es el número esperado de ventas, su varianza y desviación típica?

a) X="Número de pólizas vendidas"

 4
f X ( x )   0.2 x 1  0.2 
n x
I  0 ,1, 2 ,3, 4 ( x )
 x

20
b) La probabilidad de que X=2
Parámetros: n=4 ,  =0,2

 4
f X ( x )   0.2 2  0.8 I  0 ,1,2 ,3 ,4 ( x )
2

2 Número combinatorio:
 

fX ( x ) 
4!
2!  4  2 !
0.2 2  0.8 I  0 ,1,2 ,3 ,4 ( x )
2

n n!
f X ( 2 )  0.1536  
x !( xnx )!
La probabilidad que exactamente dos personas contraten un seguro en la primera entrevista
es de aproximadamente el 15,4%.
Con el programa “R” se puede calcular esta misma probabilidad a través del comando
>dbinom(2,4,0.8)

c) E(X) = n 
E(X) = 4 x 0,2 = 0,8 pólizas

En promedio el número de pólizas vendidas en una sola entrevista de cada cuatro


efectuadas es 0,8.

var(X) = n  (1-  )
var(X) = 4 x 0,2 x 0,8 = 0,64
 =  0,64
 = 0,8 pólizas

Se espera que en promedio el número de pólizas vendidas en una sola entrevista de cada
cuatro efectuadas se desvíen respecto de su media en 0.8 unidades.

MODELO GEOMÉTRICO

La variable aleatoria que tiene distribución geométrica se define para un experimento


que es muy similar al experimento binomial. También se refiere a pruebas idénticas e
independientes, y cada una puede tener dos resultados, éxito o fracaso. La probabilidad de
tener éxito es igual a  y es constante para cada prueba. Sin embargo la variable aleatoria
geométrica X es el número de la prueba en la cual ocurre el primer éxito, en lugar del
número de éxitos que ocurren en las n pruebas. Entonces el experimento consiste en una

21
serie de pruebas que termina al obtener el primer éxito. Por consiguiente, el experimento
podría terminar en la primera prueba al obtener un éxito o podría seguir indefinidamente.
El espacio muestral S para el experimento contiene el siguiente conjunto infinito numerable
de elementos:
E1 : E (éxito en la primer prueba)
E2 : FE (fracaso en la primer prueba y éxito en la segunda)
E3 : FFE (fracasos en la primera y segunda, éxito en la tercera)
E4 : FFFE ......................................................................................
..............................................................................................................
E k : FFF
  ....
F E
k 1

Como la variable aleatoria X es el número de pruebas hasta obtener el primer éxito,


inclusive, X=1, X=2, X=3 contendrán E1 , E2, E3 ,respectivamente, y en general el suceso c
X=x contendrá solamente Ex, esto es:

P ( X  x )  P ( E x )  P( FFF
  ...
F E )
x 1

La probabilidad de la intersección de x eventos independientes da lugar a la distribución


geométrica con función de densidad de probabilidad dada por :
f X ( x )   1   
x 1
I 1, 2,3,... ( x ) siendo 0    1
Se puede probar que la esperanza y varianza de una variable aleatoria X en este modelo
teórico resulta
1 1
E( X )  y Var ( X ) 
 2
Ejemplo 6: Se estima que el 60% de una población de consumidores prefiere una marca
particular de una pasta de dientes A. ¿Cuál es la probabilidad, al entrevistar un grupo
de personas, de que se tenga que entrevistara exactamente cinco personas, para
encontrar el primer consumidor que prefiere la marca A, y al menos a cinco
personas?.

a) P ( X  5)  0.60(0.40) 4  0.01536

b) P ( X  5)  1  P ( x  4)  1  0.60(0.40 0  0.401  0.40 2  0.40 3 )  0.0256

22
MODELO DE POISSON
Este modelo tiene características similares a la distribución Binomial diferenciándose
en que se emplea cuando los sucesos no ocurren como resultado de n pruebas, sino que
cada determinadas unidades de tiempo o espacio. Como por ejemplo número de personas
que abren una cuenta bancaria por mes, cantidad diaria de solicitudes de crédito rechazadas,
número de defectos en un metro de tela, etc.

Sus características principales son:

a) El número de ocurrencia es independiente de una unidad de tiempo , espacio o volumen a


otra.

b) Los eventos ocurren con una velocidad constante en el tiempo o espacio.

c) Ofrece una aproximación excelente a la función de probabilidad binomial cuando  es


pequeño (menor o igual a 0,05) y n grande (n>20).

Sea X una v.a. que representa el número de eventos aleatorios independientes que
ocurren a una rapidez constante sobre el tiempo o espacio, se dice que X tiene una
distribución de Poisson con función de probabilidad:

e  x
f X ( x)  I N ( x)
x!

 > 0, es el parámetro de la distribución y representa el número promedio de ocurrencias


por unidades de tiempo o espacio.

 = R+

Se tendrá para cada valor del parámetro , una función densidad, definiéndose una familia
de distribución de Poisson al variar x.

Gráficamente:

23
Para obtener la Esperanza de la variable Poisson , se debería calcular
xj

e  
E X    x j f X (x j )  xj
x j X ( S ) xj 0 x j!

Se puede probar que el resultado es

E X   

Varianza de la variable Poisson

 2  var( X )  E  X 2   E 2  X 
xj
e  
Luego la E  X   x

2 2
j f X (x j )   x 2
j
x j X ( S ) xj 0 x j!

Se puede probar que finalmente el resultado es


 
E X 2  2  
Reemplazando:
 
var( X )  E X 2  E 2  X   2    2

var(X )  

Nótese que la E(X) y la var(X) son iguales al parámetro.

Ejemplo 7: El supervisor de ventas de un comercio del medio que realiza la facturación


manual, desea saber cuál es la probabilidad de que en el próximo talonario no se cometan
errores y la probabilidad de que se cometan el doble o más, la experiencia dice que los
vendedores incurren en promedio en 3 errores de facturación por talonario.
24
X ="Número de errores que cometen por talonario"

=3

e 3 3 0
P  X  0   f X (0)   0.049  5%
0!

Con el programa “R” se puede calcular esta misma probabilidad a través del comando
>dpois(0,3)

P(X6)= 1-P(X<6) = 1-P(X5)= 1 - FX(5) = 1 - 0,9161= 0,0839  8,4%


La probabilidad de que en el próximo talonario no se cometan errores es
aproximadamente el 5% y de que se cometan el doble o más es aproximadamente el 8,4%.

Con el programa “R” se puede calcular esta misma probabilidad a través del comando
>(1-ppois(5,3))

Función Generadora de Momentos de una V.A. Discreta

La función generadora de momentos (mx(t)), es un buen método alternativo para calcular la


E(X) y la var(X) de una v.a. X.
La f.g.m. es una función que tiene como dominio un entorno de los reales incluido el cero y
como codominio los reales:
mX :  0 -> R tal que mX(t)= E(etX) ;
donde t es una variable R y X una v.a.

mX(t)= Σ et xj fX(xj)
xjX(S)
Propiedad: Si mX es la función generadora de momentos de la v.a.X, entonces:

m´X(k) (0) = E(Xk) ; k= 1,2,3,...


Demostración:

m'X(t)= Σ et xj xj fX(xj)  m'X(0)= Σ xj fX(xj)= E(X)


25
xjX(S) xjX(S)

m"X(t)= Σ et xj xj2 fX(xj)  m"X(0)= Σ xj 2 fX(xj)= E(X2)


xjX(S) xjX(S)

En general:

m´X(k) (0) = E(Xk) ; k= 1,2,3,...

Nota: Existe una correspondencia biunívoca entre las f.g.m. y las funciones de densidad (y
por ende también con las funciones de distribución acumulativas), así, si las f.g.m. de dos
variables aleatorias son iguales, entonces las funciones densidad de esas v.a., son también
iguales y recíprocamente.

Función generadora de momentos de Bernoulli:

mX :  0 -> R tal que mX(t)= E(etX) ;

mX(t)= Σ et xj fX (xj)
xjX(S)
mx(t)= et0 fX(0) + et1 fX(1)
mX(t)= 1- π + et π
mX(t)= π et + (1- π)
Para este modelo,  0 =R ya que et está definido para todo t real.

26

También podría gustarte