Está en la página 1de 8

DISTRIBUCIONES DE PROBABILIDAD

ALVAREZ, Omar - BRAMARDI, Sergio

VARIABLE ALEATORIA

Se denominan variables aleatorias a aquellas variables asociadas a los resultados de


un experimento aleatoria, cuyo valor no puede determinarse sin la ejecución del experimento.
En el estudio de las ciencias existen otras variables que en contraposición a las aleatorias,
toman valores perfectamente determinados cuando se conocen las condiciones en que se ha
de ejecutar el experimento, a ellas se las denomina variables determinísticas. Por ejemplo
es relativamente fácil conocer la velocidad conque una piedra llega al suelo cuando se la deja
caer desde una altura conocida, más allá de alguna ligeras diferencias por errores de
medición.

Son variables aleatorias la suma de puntos obtenidas al arrojar dos dados, la distancia
de un impacto al centro de un blanco, la velocidad de una molécula de gas en un instante, el
número de partículas emitidas por un material radioactivo en un intervalo de tiempo, la altura
de una planta al cabo de un año, el número de goles que realizará un equipo de fútbol en un
partido, el número de lotería que saldrá sorteado, etc.

Estudiar una variable aleatoria es describir el conjunto de valores que ella tome. Este
conjunto se llama recorrido de la variable, y puede constar de un número infinito de
resultados, o finito pero muy grande. La enumeración de los mismos aún en el caso de poder
hacerlo no describe a la variable. Para una verdadera y útil descripción se debe dar el recorrido
de la variable y asignar, mediante el uso del cálculo de probabilidades, medidas a cada valor,
si se trata de una variable discreta o medidas a intervalos adecuados, si ella es continua.
Realizar estas asignaciones de probabilidad, es definir para la variable una distribución de
probabilidades.

Consideremos el siguiente ejemplo: se arroja un dardo a un blanco circular de radio


R. El espacio muestral más detallado es el conjunto de todos los puntos donde el dardo puede
llegar, los del círculo más los que están fuera del círculo. Asociado a este experimento se
pueden definir distintas variables aleatorias:

X1: "acierto o no en el blanco"

el recorrido de X1 es RX1 = {acierto; no acierto} o convencionalmente asignar 1 al acierto y 0


al no acierto, luego RX1 = {1; 0}.

La medida de probabilidad asignada a 1 debe ser estimada y eso es privativo de la


Teoría Estadística. Por ejemplo se ejecuta un número muy grande de tiros y se cuenta cuantos
de ellos aciertan en el blanco, si la frecuencia relativa es p entonces P(X=1) = p, obviamente

1
P(X=0) = (1 - p), por tratarse de un experimento dicotómico (de dos resultados). El modelo
expuesto se llama modelo de Bernouille.

Otra variable posible es:

X2: "número de tiradas necesarias para acertar en el blanco"

Ahora el recorrido es RX2 = {1, 2, 3, ....... , }, siendo p la probabilidad de acierto,


entonces:

P(X=1) = p
P(X=2) = (1-p).p
P(X=3) = (1-p)2.p
...............

P(X=x) = (1-p)x-1 . p con x = 1, 2, ..... , 

El modelo desarrollado es el modelo geométrico con parámetro p.

Sea X3: "número de aciertos en n repeticiones independientes"

El recorrido de esta nueva variable es: RX3 = {0, 1, 2, ...... , n} .


Representando con A acierto y con A el no acierto:

  
P(X=0) = P{ A A ... A } = (1-p)n
       n
P(X=1) = P{(A A ... A ) (A A ... A ) (A A ... A) } =   .p.(1-p)n-1
1 
   n
P(X=2) = P{(A A A ... A ) ......} =   .p2.(1-p)n-2
 2

  n
P(X=x) = P{(A A A ... A ) .... } =   .px.(1-p)n-x con x = 0, 1, ... , n
 x

Este modelo se conoce como modelo binomial con parámetros n y p.

En general los modelos discretos están definidos con una función como la de los
ejemplos que se llama función de cuantía y que simplificamos en la notación indicándola
como p(x)=P(X=x).

Un gráfico de ella, es similar al gráfico de frecuencias visto en la parte descriptiva, lo


que no debe extrañar, ya que vimos que la frecuencia relativa es una estimación de la

2
probabilidad.

f(X)

X
x1 x2 .................................. xn

Es así que podemos considerar a la distribución de frecuencias como la expresión


empírica del modelo teórico o distribución de probabilidad.

Igual que en las distribuciones de frecuencia, que eran caracterizadas por estadísticos
de posición y dispersión, en las distribuciones de probabilidad se habla de 'parámetros' de
posición y dispersión. Generalmente el parámetro de posición será la 'media teórica' o
esperanza:

 = E(X) = 
 x  Rx
x . p(x)

Notar que es una media de los valores de X ponderados por las respectivas probabilidades,
cuya suma es 1, por lo que no aparece en el divisor.

El parámetro de dispersión es la variancia:


2
2
 = V(X) = (xi - ) . p( x i )
 x  Rx

También este es un promedio ponderado de los cuadrados de los desvíos respecto a


la esperanza. Es usual utilizar el desvío estándar  que es la raiz cuadrada de la variancia.

En los modelos de los ejemplos anteriores es posible demostrar que:

* Modelo de Bernouilli: E(X) = p y V(X) = p.(1-p)


* Modelo Geométrico: E(X) = 1/p y V(X) = (1-p)/p2
* Modelo Binomial: E(X) = n.p y V(X) = n.p.(1-p)

3
Veamos ahora otra variable aleatoria asociada al mismo experimento del tiro al blanco;
consideremos que todos los tiros aciertan (o que los yerros tienen probabilidad cero), y
definimos la variable:
X4: "distancia del impacto al centro del blanco"

El recorrido de la variable será el intervalo real Rx = [0, R) donde R es el valor del radio
del blanco.

Se pueden hacer conjeturas tales como que los infinitos puntos del blanco tienen la
misma probabilidad de ser impactados por el dardo, pero esa probabilidad es practicamente
nula. Esto nos lleva a la conclusión de que los sucesos se pueden pensar como porciones del
blanco, y que su probabilidad es proporcional a la medida de su área.

Si discretizamos la variable X en intervalos [0,1); [1,2);.....; [R-1,R), ellos definen


coronas circulares de áreas crecientes desde el centro al borde de modo que a intervalos
iguales de X, le corresponden probabilidades distintas.

El problema de asignar medidas de probabilidad a los sucesos asociados a la variable


X, es en realidad un problema estadístico, pero en este caso en base a las suposiciones
dadas, podemos arribar un modelo teórico. Esperamos que al realizar un cierto número de
tiradas al blanco a cada corona le corresponderán frecuencias empíricas de aciertos
crecientes. Un histograma de esos datos sería como el del gráfico:

X
0 1 2 3 ............…. R

La frecuencia de impactos con distancia al centro comprendida entre 2 y 3 unidades


(2<X<3) está representada por el área rayada; como la frecuencia relativa es un estimador de
la probabilidad del suceso, el área rayada representa la P(2 < X < 3).

Para ajustar un modelo teórico, podemos ajustar un curva al polígono de frecuencias


superpuesto al histograma. Por simplicidad vamos a suponer que las frecuencias crecen

4
linealmente de modo que el modelo ajustado sería un trozo de recta con extremos en el origen
y en el punto (R,k).

f(X)

X
0 r R

Sabemos que la probabilidad de todo el recorrido de X es 1; por lo que siendo el área


bajo la curva cual a 1, se puede calcular facilmente el parámetro k, haciendo 1/2 R k = 1 de
donde k = 2/R. La ecuación de la función, que además asigna probabilidad cero a los puntos
exteriores al intervalo [0,R) es:

(2/R2) . x si 0  x < R
f(x) =
0 en otro caso

Esta función recibe el nombre de función de densidad de la variable X y es suficiente


para describir las probabilidades de sucesos asociados a ella.

Por ejemplo P(X  r) es el área del triángulo rayado en la figura, que tiene altura f(r)=(2/R2).r
de modo que P(X  r) = 1/2 . r . 2/R2 . r = r2/R2.

En general las variables aleatorias continuas tienen distribuciones de probabilidad


definidas mediante funciones de densidad, que tienen la propiedad de ser funciones no
negativas y con área bajo la curva igual a 1.

La esperanza y la variancia para esta funciones se calcula de manera similar al cálculo


respectivo en el caso discreto, pero reemplazando la sumatoria por un integral definida:

+
 = E(X) = 
-
x . f(x) . dx
+


2
 = V(X) = ( x   )2 . f(x) . dx
-

Existen muchos modelos teóricos de probabilidad, para variables continuas, pero uno en

5
particular tiene aplicación en muchísimos casos. Fue desarrollado por Moivre y luego por
Gauss, se lo conoce con el nombre de modelo normal o modelo gausseano. La función de
densidad tiene forma de campana con probabilidades altas alrededor del centro de la
distribución, luego esas probabilidades decrecen rápida y simétricamente hacia ambos lados
hasta alcanzar puntos de inflexión a partir de los cuales la curva es cóncava hacia arriba y el
decrecimiento es cada vez más lento pero extendido hasta -  y + .

f(X)

X
1 2

La esperanza y la variancia de este modelo son estimadas en una muestra de n datos


a través de la media aritmética y de la variancia usual, pero en esta última el divisor es n-1 en
lugar de n, pues de esta manera la estimación tiene propiedades interesantes.

n n
1 1

ˆ = x =
n

i=1
xi y 2 2
ˆ = S =

n -1

i=1
(x i - x )
2

También es posible demostrar que la variable Z deducida a partir de la variable normal


X, mediante la transformación:

X - x
Z
x

es una variable normal con media z = 0 y variancia z2 = 1 , y de allí el desvío estándar es
también z = 1.

La distribución de Z está representada por una curva normal centrada en el origen y


sirve de prototipo para los cálculos de probabilidades de cualquier modelo normal.

6
0.60

0.45

0.30

0.15

0.00
-3 -2 -1 0 1 2 3

Las probabilidades de sucesos de la forma P(Z  zo) = (zo) están tabulados para
distintos valores de zo pertenecientes al recorrido de Z.

Una particularidad de los modelos normales es que tomando un intervalo de un desvío


a la izquierda y a derecha de la media, el porcentaje de población encerrado es de 68,27%,
tomando dos desvíos el porcentaje asciende a 95,4% y cuando se amplía a tres desvíos
tenemos practicamente a toda la población, 99,73%.

Para calcular la probabilidad de una variable normal X con media x y desvío x sea
menor o igual que un valor xo se procede de la siguiente manera:

 X- x x 0 - x 
P(X  x 0 )  P     P(Z  z0 )
 x x 

este último, valor que es obtenido de la tabla correspondiente.

Ejemplo: un colectivo llega en promedio a la escuela a la hora 7 con 54 minutos. Si las horas
de llegada es una variable normal con 5 minutos de desvío, cuántas veces en el mes de 22
días de clases los alumnos que viajan en el colectivo llegan tarde a la escuela, siendo las 8 la
hora de entrada ?.

0.60

0.45

0.30

0.15

//
0.00
-3 -2 -1 0 1 2 3 39 44 49 54 59 64 69

7
 60-54 
P( X > 60 ) = 1 - P( X  60 ) = 1 - P  Z   = 1 - P( Z  1,2 )
 5 
= 1 - 0,8849 = 0,1151 o 1,5%

entonces el número de días es: 0,115 . 22 = 2,5 ; es decir, que entre 2 y 3 días en el mes los
alumnos llegarán tarde a clases.

Otra pregunta que podríamos plantearnos es entre qué horas (simétricas respecto a
la media) se dan el 90% de los arribos del colectivo ?.

90%
// 90%

z1 z2 x1 x2

Por la tabla de la normal estándar sabemos que z2 = 1,64 y por simetría z1 = -1,64. La
probabilidad acumulada desde -  hasta z2 es 0,95, entonces:

 x 2 -54 
P( X  x2 ) = 0,95 que equivale a P  Z   = 0,95 entonces,
 5 

x 2 -54
= 1,64 luego x2 = 1,64 . 5 + 54 = 62,2 minutos = 62 min 12 seg
5

similarmente x1 = -1,64 . 5 + 54 = 45,8 minutos = 45 min 48 seg.


El intervalo buscado será: el 90% de las veces el colectivo llega entre las 7 horas 45 min 48
seg y las 8 horas 2 minutos 12 seg.

También podría gustarte