Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1.1.1 Probabilidad
Consideremos el experimento : lanzamiento de un dado
El espacio muestra del experimento , denotado por S consta de todas las posibles salidas ( puntos muestra del experimento): S={1,2,3,4,5,6} Un evento es un subconjunto de S. por ejemplo el evento A: A={2,4} El complemento del evento A consta de todos los puntos muestra que no estan en A ={1,3,5,6}
Por otra parte se dice que dos eventos son mutuamente exclusivas o excluyentes si no tienen puntos muestra en comn, es decir, si no tienen elementos comunes. A y son mutuamente exclusivas La unin o suma de dos eventos esta integrada por todos los puntos muestra o integrantes de ambos eventos, por ejemplo. Si B={1,3,6} C={1,2,3} D= B U C = {1,2,3,6} Por otra parte A U = S La interseccin de dos eventos esta integrado por los puntos muestra o elementos comunes a los dos eventos
E= B C = {1,3} Cuando dos eventos son mutuamente exclusivas la interseccin es el cuento nulo. AB=0
para A= {2,4} B= {1,3,6} por tanto: A=0 Asociado a un evento A contenido en S esta su probabilidad de ocurrencia P(A)
En el proceso de asignacin de probabilidades a cada uno de los eventos de un espacio muestra adoptaremos un punto de vista axiomtico y partiremos de las premisas siguientes: I. P(A) 0 Por otro lado: II. P(S) = 1 El tercer postulado tiene que ver con la probabilidad de eventos mutuamente exclusivos Suponiendo que (i=1,2,) es uno de un nmero de evento en un espacio muestra S, tal que
= 0 = 1,2,
Entonces la probabilidad de la unin de estas cuentos excluyentes satisface la condicin: III P( )= ( ) Ejemplo 1: en el caso del dado donde S={1,2,3,4,5,6} a cada posible salida se asigna la probabilidad de 1/6. El cuento A={2,4} esta integrado por dos sub eventos mutuamente exclusivos A1={2} A2={4} por tanto: 2 2 P(A) = ( ) = (1 2 ) = = = 1 + (2 ) = 1/6+1/6=2/6
=1 =1
, = ()
=1
, = ()
=1
Finalmente si todas las salidas de los dos experimentos son mutuamente exclusivas
, = 1
=1 =1
La probabilidad denotada como probabilidad condicional P(A,B)=P(AB) est dado por P(A,B)= P(A) + P(B) P(AUB)
De forma equivalente P(AUB)= P(A) + P(B) P(AB) P(A) + P(B) En otras palabras la probabilidad de la unin. de dos eventos nunca excede la suma de las probabilidades de los eventos.
Ejemplo 2: por ejemplo un experimento lanzamiento de un dado se puede combinar con otro similar en el lanzamiento de dos dados
en tal caso el espacio muestra S estara integrado por 36 combinaciones (i,j) donde i,j = 1,2,..,6 Tpicamente a cada punto en el espacio muestra se le asigna la probabilidad 1/36 (eventos equiprobables ).
Siempre y cuando P(B)> 0. Por otro lado la probabilidad de B dado el evento A ser
(, ) P(B/A) = ()
para P(A)>0.
Resumiendo, un experimento real est definido matemticamente por tres casos : 1. Asignacin de un espacio muestra. 2. Definicin o determinacin de los eventos de inters. 3. Asignacin de la probabilidad correspondiente a cada evento, considerando los tres axiomas iniciales. En la solucin de problemas probabilsticos el establecimiento del adecuado modelo matemtico es la parte ms difcil. Ejemplo 3: Regresando al lanzamiento de 2 dados. El experimento consiste en observar la suma que resulta. Sabemos que el espacio muestra consta de 62 = 36 puntos muestra como se ilustra en seguida
Cada posible salida del experimento corresponde a una suma que forma valores del 2 al 12. Supongamos que estamos interesados en los 3 eventos siguientes: A= { sum = 7 } B= { 8 < sum 11} C= { 10 < sum}
Para asignar las probabilidades o estos eventos definiremos matemticamente el espacio muestra a travs de los eventos Aij = { suma (i,j) = i+j } i= rengln J= columna Podemos deducir que cada salida en este experimento es equiprobable en el caso de un lanzamiento justo, de modo que: P(Aij) = 1/36 En virtud de que los eventos Aij son mutuamente exclusivos, deben satisfacer el axioma 3. y como los eventos A,B y C son la unin de sub eventos ( eventos elementales o puntos muestra) sus probabilidades se derivan del axioma 3.
Por ende:
P(A)= (
=1
, 7 ) =
=1
, 7 = 6
1 = 1/6 36
Las dos ecuaciones anteriores se pueden relacionar por : P(A,B) = P(A/B) P(B) = P(B/A) P(A) Ntese que P(A,B) es interpretado tambin como la probabilidad de que AB ocurra. Esto es, P(A,B) denota la probabilidad de que A y B ocurran simultneamente. Ejemplo 4: del lanzamiento de un dado consideramos los eventos B= {1,3,6} y P(B)= = (1) + 3 + 6 = 3/6 C= { 1,2,3} El evento conjunto esta integrado por los puntos muestra {1,3} BC = {1,3} y P(B,C) = P(1) + P(3) = 2/6
Por tanto si P(B,C) = 2/6 la probabilidad condicional de el evento C dado que B ha ocurrido es
6 (, ) 2 = () = 3 = 3 6 2
En un experimento simple, cuando dos eventos A y B son mutuamente exclusivos AB = 0 y por ende
(, ) 0 ( ) = = =0 () ()
Si A es subconjunto de B AB = A y
, () = = ()
( ) = ( ) + ( )
Ejemplo 5: En una caja existen 100 resistencias con valor y tolerancia como se indica en la siguiente tabla
tolerancia Resistencia () 5% 10% total
22
47 100 total
10
28 24 62
14
16 8 38
24
44 32 100
Suponga que las resistencias pueden ser seleccionadas con la misma probabilidad de la caja y considere los sig. eventos
A = {resistencias de 47}
B = { resistencias con 5% de tolerancia} C= { resistencias de 100} De la tabla se tiene que P(A) = P(47) = 44/100
P(B) = P(5%) = 62/100 P(C) = P(100) = 32/100 Las probabilidades conjuntas P(AB) = P(A,B) = P(47 5%) = 28/100 P(AC) = P(A,C) = P(47 100 ) = 0 P(BC) = P(B,C) = P(5%) 100 ) = 24/100
28
100 24 (, ) ( ) = = = 32 () 32 100
24
=
=1
() =
=1
( )()
Expresin que es conocida como probabilidad total . Como AS = A comenzaremos la prueba usando
= (
=1
) =
=1
( )
= = (
=1
( )) =
=1
( )
, ()
() =
=1
( )()
Si P(A) 0, alternativamente
( ) = ()
Si P(Bn) 0. una forma del teorema de Baye es obtenido al combinar las dos ecuaciones anteriores P(BnA)= P(ABn))= P(Bn/A)P(A)= P(A/Bn)P(Bn) Esto es
() ()
( ) =
=
=1
( )()
En el teorema de Bayes P(Bn) es conocida como probabilidad a priori debido a que estas se asignan a los eventos antes del desarrollo del experimento.
Las probabilidades P(A/Bn) en el contexto de las comunicaciones son conocidas como probabilidades de transicin Finalmente las probabilidades P(Bn/A) se conocen como a posteriori porque se obtienen despus de que el experimento se ejecuta cuando algn evento A es obtenido. Ejemplo 5: Un sistema de comunicacin binario consta de un transmisor que envia uno de dos posibles smbolos (1 0 0) a travs de un canal y hacia el receptor. El canal eventualmente origina errores que causan que en el receptor el dgito 1 se recibe como 0 y viceversa. En este ejemplo el espacio muestra tiene 2 elementos 0 o 1. Denotaremos por Bi, i=1,2 al evento smbolo antes del canal es 1 o 0. Definiremos por Ai, i=1,2 al evento smbolo despus del canal es 10 0
Por otro lado las probabilidades de que el smbolo 1 y 0 sean seleccionadas por el transmisor son P(B1)= 0. 6 y P(B2)= 0.4 Y las probabilidades condicionales que describen el efecto del canal en los smbolos transmitidos, esto es las probabilidades de recepcin se consideran. P(A1/B1)= 0.9 P(A2/B1)= 0.1 P(A1/B2)= 0.1 P(A2/B2)= 0.9 En ambos casos P(A1/Bi) + P(A2/Bi) = 1 Porque A1 y A2 son eventos mutuamente exclusivos y son los unicos eventos de recepcin.
Por su forma este canal se denomina canal simtrico binario Del teorema de probabilidad total podemos calcular:
=
=1
( )()
Por lo tanto P(A1) = P(A1/B1)P(B1) + P(A1/B2)P(B2)= 0.9(0.6)+0.1(0.4)= 0.58 P(A2) = P(A2/B1)P(B1) + P(A2/B2)P(B2)= 0.1(0.6)+0.9(0.4)= 0.42
Por ende
(1 1) = 1 1 (1) 0.9 0.6 0.54 = = = 0.931 (1) 0.58 0.58
(2 1) =
Ejemplo 6: Un estudiante toma un tren para transportarse a la escuela. La probabilidad de que el estudiante llegue a clase es del 95% si el tren esta a tiempo si el 70% del tiempo el tren cumple el itinerario. Cul es la probabilidad de que el estudiante llegue a tiempo? Utilizaremos el teorema de Baye e interpretaremos el 70% como la probabilidad de que el tren est a tiempo. Suponiendo que representamos por C al evento el estudiante llega a clase
Y por T el tren llega a tiempo. El estudiante llegara a tiempo si se cumple CT La probabilidad de este evento ser P(C,T)= p(C/T)P(T) = 0.95(0.7) = 0.665 Entonces la probabilidad de que el estudiante llegue a tiempo es del 66.5% Ejemplo 7: una contiene 6 pelotas verdes, 4 pelotas negras y 10 pelotas amarillas. Todas las pelotas tienen la misma probabilidad de ser tomadas. Cul es la probabilidad de tomar 2 verdes si no se remplazan las pelotas? Suponga que el evento G representa tomar una pelota verde al aplicar frecuencia relativa, el tomar la primera pelota implica que P(G) = 6/20 = 0.33
Para la segunda toma tenemos 5 pelotas verdes, 4 negras y 10 amarillas, por ende dado que ya se tomo una verde P(G/G) = 5/19 Podemos calcular la probabilidad de tomar 2 verdes del teorema de Baye P(G,G) = P(G/G).P(G) = 5/19(0.3) = 0.0789
Por otra parte 2 eventos estadsticamente independiente no pueden ser mutuamente exclusivas, por ende, para que sean independientes se requiere que AB 0
Ejemplo 8: En un experimento se selecciona una carta dentro de un paquete de 52. se definen los siguientes eventos A = {seleccionar un rey K} B = {seleccionar un joto o quina J o K} C = {seleccionar un corazn} Intuitivamente y por conteo estos eventos tienen las probabilidades P(A) = 4/52 P(B) = 8/52 P(C) = 13/52
Por otra parte es posible establecer que: P(A,B) = 0 P(A,C) = 1/52 P(B,C) = 2/52 Determinaremos la independencia por pares de los eventos P(A,B) = 0 P(A)P(B) = 32/(52)( 52) P(A)P(C) = 4/52(13/52) = 52/52(52) = 1/52 = P(A,C) P(B)P(C) = 8/52(13/52) = 104/52(52) = 2/52 = P(B,C) Por lo tanto los eventos AyC y ByC son independientes por pares A y B son mutuamente excluyentes. En el caso de mltiples eventos se dice por ejemplo que A1, A2, y A3
Son independientes por pares y en conjunto es decir si cumplen con las siguientes ecuaciones: P(A1,A2) = P(A1)P(A2) P(A1,A3) = P(A1)P(A3) P(A2,A3) = P(A2)P(A3) P(A1,A2,A3) = P(A1)P(A2)P(A3) De forma ms general se dice que N eventos son independientes si: P(Ai,Aj) = P(Ai)P(Aj) P(Ai,Aj.Ak) = P(Ai)P(Aj)P(Ak) 1i<j<k.N : : P(A1,A2,.,AN) = P(A1)P(A2)P(AN)
Ejemplo 9: suponga que se toman 4 cartas de un paquete de 52. Considere los eventos A1,A2,A3 y A4 definido como la seleccin de un As. Consideremos dos casos En el primero cada vez que una carta es tomada esta ser devuelta antes de la siguiente toma. En este caso podemos deducir que los eventos son independientes y P(A1,A2,A3,A4) = P(A1)P(A2)P(A3)P(A4) = (4/52)(4/52)(4/52)(4/52) =3.5x105 En segundo lugar supondremos que cada vez que una carta es tomada ya no es remplazada En tal caso estos eventos ya no son independientes y lo que tendramos es lo siguiente P(A1,A2,A3,A4) = P(A1)P(A2,A3,A4/A1)
Esto significa que tenemos 9.5 veces ms de probabilidad de sacar 4 Ases cuando remplazamos las cartas que cuando no lo hacemos. Cabe aclarar que Si N eventos son independientes A1,A2,,AN, cualquiera de ellas ser independiente de cualquier otro que resulte de la unin, interseccin o complemento Por ejemplo: P(A1(A2A3)) = P(A1)P(A2)P(A3) = P(A1)P(A2A3) P(A1(A2UA3)) = P(A1)P(A2UA3)
Resulta evidente que A x B = (AxS2) (S1xB) Completando ahora la definicin de experimentos combinados considerando las asignaciones de probabilidad
Para un evento de la forma AxB donde ACS1 y BCS2 si A y B son independientes P(AxB) = P(A)P(B) P(AxS2) = P(A)P(S2) = P(A) P(S1xB) = P(S1)P(B) = P(B) Generalizando para N experimentos independientes P(A1xA2xxAN) = P(A1)P(A2).P(AN) Para AnCSn n= 1,2,,N
Ejemplo 1: Suponga un experimento que consiste en el lanzamiento de un dado y una moneda. Solucin: Determinaremos el espacio muestra en funcin a la funcin x que define la variable aleatoria. Esta esta definida del sig. Modo 1) Si del lanzamiento de la moneda sale cara (H) la salida de la funcin x ser un valor positivo igual al nmero que muestre el dado 2) Si del lanzamiento de la moneda sale con (T) la salida de la funcin x ser un valor negativo cuya magnitud ser el doble de lo que muestre el dado. Aqu el espacio muestra x mapea a 12 elementos entre -12 y 6 como se muestra a continuacin
Como S es discreto el mapeo ser hacia puntos discretos X(s) = {1,8,27,64} Si las probabilidades de los elementos de S son: P(1) = 4/24, P(2) = 3/24, P(3) = 7/24 y P(4) = 10/24 Entonces las probabilidades de los valores de la variable aleatoria sern
P(x=1) = 4/24 , P(x=8) = 3/24 , P(x=27) = 7/24 y P(x=64) = 10/24 Debido al mapeo uno a uno. Una variable aleatoria continua por el contrario tiene un rango continuo de valores. Estos no pueden ser producidos a partir de un espacio muestra discreto o por un espacio muestra mixto Ejemplo 3: Suponga que la temperatura en un punto geogrfico es modelado por una variable aleatoria continua T cuyo valor es sabido que se encuentra en el rango -60F a 120F . Para fines de ilustracin consideraremos que todos los valores {-60 t 120} son igualmente probables. Usando argumentos de frecuencia relativa podemos llegar al razonamiento de que los valores t de T que caen en una regin dt centrada en el rango -60F a 120F tendrn la probabilidad dt/120-(-60) = dt/180
Usando este razonamiento si deseamos calcular la probabilidad de cualquier temperatura simple dentro dt tendramos que dt0 y esto tambin sera 0. Existen tambin variables aleatorias mixtas para las cuales algunas de sus valores son discretos y otras continuas
Tpicamente las propiedades 1,2,4 y 6 pueden ser utilizadas para verificar que una funcin Gx(x) sea valida. Si x es una variable aleatoria discreta su funcin de distribucin tiene una forma escalonada
La amplitud de cada escaln ser igual a la probabilidad de ocurrencia de el valor de X en ese intervalo. Si el valor de X est denotado por xi, podemos escribir
=
=1
= ( )
Ejemplo 4: suponga que X es una variable aleatoria que toma valores {-1,-0.5,0.7, 1.5, 3} y que las probabilidades correspondientes son {0.1, 0.2, 0.1, 0.4, 0.2} Obtenga la funcin de distribucin de la variable aleatoria. Aplicando la definicin:
=
=1
( )
Fx(x) = P(-1) U(x+1) + P(-0.5)u(x+0.5) + P(0.7)U(x-0.7)+ P(1.5)U(x-1.5) + P(3)U(x-3) Fx(x) = 0.1 U(x+1) + 0.2u(x+0.5) + 0.1U(x-0.7)+ 0.4U(x-1.5) + 0.3U(x-3)
Graficando
Por otra parte una variable aleatoria continua es aquella que tiene una funcin de distribucin continua
En este caso la probabilidad de {x0} es cero, no existe espacio muestra. Para 0< x 12 la probabilidad de {0 < X x} incrementa linealmente.
]
(
=
=1
( )
Sabiendo que
() = ()
Pp
() =
( )
=1
Ejemplo 6: Retomando el ejemplo en el que x tiene valores {-1, -0.5, 0.7, 1.5, 3} y probabilidades {0.1, 0.2, 0.1, 0.4, 0.2}. La funcin de densidad sera :
() =
=1
Ejemplo 7: para el caso de la ruleta. Tenemos que la derivada de una pendiente es una constante y la de una constante cero por lo tanto
La existencia de la funcin de densidad depende de la existencia de la derivada de la funcin de distribucin. PROPIEDADES DE LA FUNCIN DE DENSIDAD Las propiedades que la funcin de densidad debe tener Se listan a continuacin: 1) 0 fx(x) para todo x (existencia)
2)
. = 1
3)
4)
1 < 2 =
1
Es evidente que satisface la condicin de existencia puesto que es nonegativa Para que satisfaga la condicin 2 de existencia esto es para que
0 +
= 1
0
Se requiere que:
0 + 0 () =1 2
.a=1
Por lo tanto
a = 1/ Suponiendo que a = 1/ para encontrar la funcin de distribucin primero construiremos la funcin por segmentos a) Para x < x0- gx(x)= 0 b) Para x0- < x < x0 construiremos la funcin en trminos de los dos puntos que pasan por la recta (x0- , 0 y x0 , 1/ 1 1 = = 2 Pendiente = 2 1 =
2 1 0 0 +
y y1 = m( x-x1) quedara
0 =
=
1 ( 0 +) 2
1 ( 0 +) 2
() = 1 ( 0 +) 2
c) Para el intervalo x0 < x < x0+ tenemos una recta con 1 pendiente negativa igual a 2 por tanto construyendo la funcin a partir de los puntos (x0, 1/ y x0, , 0 Nos queda que y y1 = m( x-x1)
1 1 = 2 ( 0 )
1 1 2 ( 0 )
0 > > 0 +
Gx(x) = 0
x < x0-
1 1 2 + = | | + | 0 0 2 2 2 0 0 0
b)
Gx(x) =
0
1 2 (0 )2 = 2 0 + 0 0 + (0 ) 2 2
1 2 0 2 20 +2 = 2 0 + 0 2 0 + 0 +2 2 2
1 2 0 2 2 = 2 + + 0 + 0 2 2 2
1 2 + 0 2 +2 + 2 20 2 0 2 2
1 ( 0 )2 +2 + 2( 0 ) 2 2
1 ( 0 + )2 2 2
0 < < 0
=
0
=
0
+
0
=
0
1 0 + = 2
2 0 | | + | 2 2 0 2 0 0
0 2 (0 )2 0 2 0 (0 ) 0 2 0 = 2 + + 2 2 2 2 2 2 2 2 2 0 (0 20 + 0 0 0 0 = + + +1 2 2 2 2 2 2
0 2 0 2 0 2 0 2 0 1 = + + + 1 = 2 2 2 2 2 2 2 2 2 2
=
0
1 1 1 2 2 0 = | 2 | 0 | 0 2 0 0
0 1 2 0 2 1 1 2 0 2 2 = 2 0 + 0 = 0 2 + 0 2 2 2 2 1 1 1 1 2 2 = 0 + 2 = ( 0 )2 0 0 0 2 2 2 2
=
0
=
0
+
0
0 0 +
=
0
1 1 0 + 1 2 0 + 0 + 2 0 = | 2 | 0 | 0 2 0 0
0 + 0 1 0 + 0 2 = 2 0 0 + + 0 2 2 2 0 0 1 0 2 2 0 2 1 2 1 1 2 = +1 2 + 0 + 0 +0 = 1 2 =1 = 2 2 2 2 2 2
En suma:
0 1 ( 0 +)2 2 () = 2 1 1 1 + 0 0 2 2 2 1 < 0 0 < < 0
2
Grficamente:
=
2 2 1 ( ) 2 2
Donde los parmetros de la variable aleatoria gaussiana son: x > 0 desviacin estndar - < m x < media La variable aleatoria gaussiana es de las ms importantes puesto que muchos fenmenos pueden ser modelados a travs de ella. Por ejemplo: La agitacin trmica y aleatoria de los electrones origina el ruido trmico tpicamente modelado como gaussiano. Por otra parte, la funcin de distribucin de una variable aleatoria gaussiana esta dada por la integral
1 2
( )
2 2
Esta integral no tiene una solucin cerrada y tpicamente debe ser evaluada mediante aproximaciones numricas. Tpicamente la funcin Fx(x) se normaliza considerando que mx= 0 y x= 1 de tal modo que para valores negativos de x se puede utilizar la siguiente relacin: F(-x) = 1 F(x)
Por otra parte es posible calcular la funcin de distribucin de una variable aleatoria a partir de la funcin normalizada F(x) haciendo en siguiente cambio de variable:
( ) = = 1 2
Algunos valores de esta funcin se muestran en la tabla siguiente para valores positivos de x (x 0)
Partiendo de
=
1 2
( )
2 2
Haciendo
=> = + = => = =
< < < + < < <
Y los lmites
1 2
= (
Una forma alternativa de F(x) es encontrada a partir de la funcin Q(x) del siguiente modo: F(x) = 1 Q(x)
Donde a y b son constantes. Para a=0.339 y b=5.51 el error de aproximacin de Q es del 0.27%
Ejemplo 9: Encuentre la probabilidad del evento {x 5.5} para una variable aleatoria gaussiana que tiene una mx= 3 y x=2 P{ x 5.5} = Fx(5.5) = F(5.5-3/2)= F(1.25) Por tabla F(1.25) = 0.8944 Ejemplo 10: Suponga que la altura de las nubes se puede modelar como una variable aleatoria gaussiana con mx= 1830m y x=460m. Encuentre la probabilidad de que las nubes estn por encima de 2750m Queremos evaluar P{x 2750} = 1-P{x 2750} = 1- Fx{2750}= 1 F(2750-1830/460) = 1-F(920/460) = 1-F(2) = 1-0.9772 = 0.0228 La probabilidad de que las nubes estn por encima de los 2750m es del 2.28%
=
=0
0 < < 1
= 1,2,
! = ! !
=
=0
La funcin de distribucin binomial se puede aplicar al modelado de juegos de azar, problemas de deteccin en radar y sonar y en general a diversos experimentos en donde se tengan dos posibles salidas. En la siguiente grfica se ilustra una funcin de densidad y distribucin binomial para N=6 y p=0.25
f(x)
3 X
F(x)
0.5 0.4 0.3 0.2 0.1 0
3 X
=0
( )
=
=0
( )
La distribucin de Poisson se aplica a una gran variedad de aplicaciones de conteo, por ejemplo: El nmero de muestras defectuosas tomadas en una muestra de una lnea de produccin, el nmero de llamadas telefnicas realizadas en un intervalo de tiempo, el nmero de electrones emitidos por una seccin de un ctodo, etc.
Si el intervalo de inters tiene una duracin T y los eventos que estn siendo contados ocurren a una tasa y tiene una distribucin de Poisson, entonces b= T Ejemplo 11: Suponga que tenemos un flujo de automviles llegando a una gasolinera el cual se modela mediante una variable aleatoria de Poisson. La tasa de arribos es de 50/h la estacin tiene slo una bomba. Si los autos requieren de aproximadamente 1 minuto para llenar el tanque Cul es la posibilidad de esperar la atencin de la bomba? En primera instancia, la espera ocurrira si dos o ms autos arriban a la estacin en cualquier intervalo de 1 minuto. Por lo tanto la probabilidad de este evento ser 1-P( ningn auto llegue a la estacin en lo que uno esta siendo atendido) si = 50/60 , T=1 minuto => b=(50/60)(1) = 5/6
Retomando el planteamiento anterior: Probabilidad de espera en la lnea = 1-P ( ningn auto llegue a la estacin en lo que uno esta siendo atendido) Nos resta calcular P(ningn auto llegue a la estacin en lo que uno esta siendo atendido) = P{x1} = Fx(0)+ Fx(1)
5
=0
(5 6) + !
0
6 !
2
(1 )
3
=0
6 0!
5
5 1 +
6
5 0 +
6 2!
5 1 +
6 3!
1!
5 1 + 6 0
5 + 1 = 0.7967 6
Por lo tanto Probabilidad de esperar =1- 0.7967 = 0.2032 en la lnea Por lo tanto los usuarios tendrn que esperar por el servicio de la bomba el 20.32% de el tiempo
Distribucin uniforme
La funcin de densidad y distribucin estn definidas de la siguiente forma: 1
= 0
= 0 1
< <
< <
< <
Grficamente
Una aplicacin de esta distribucin es el modelado de las seales cuantizadas en un sistema de comunicaciones digital. El proceso de cuantizacin implica el redondeo del valor de una muestra a una ms cercana de entre un conjunto de nmeros discretos, denominados niveles de cuantizacin.
Distribucin Exponencial
Las funciones de densidad y distribucin exponencial estan definidas como
1 ( ) = 0
> <
( ) 1 = 0
> <
< <
> 0
Una aplicacin de la distribucin exponencial es por ejemplo el modelado de la intensidad de la seal recibida en un sistema de radar y para ciertos tipos de naves, o bien para el modelado de la duracin de las llamadas o tiempo entre arribos en los sistemas telefnicos. Ejemplo 12: La potencia reflejada por un avin cuya forma es compleja y que es recibida por un radar puede ser modelada como una variable aleatoria exponencial P cuya densidad es:
1 = 0 0
0
> 0 < 0
Donde Po es la potencia promedio recibida. En algunos instantes P puede tomar valores distintos a su valor promedio.
Cul es la probabilidad de que la potencia recibida sea mayor a la promedio? Debemos calcular
> 0 = 1 0 = 1 0 =1 0 1 1 0 = 1 0 0 0 0 = 1 + 0 = 0.3678
0
0 0
0 = 1 + 1 1 = 1
Distribucin Rayleigh
Las funciones de densidad y distribucin Rayleigh son:
2 ( )2 ( ) = 0
1 ( ) = 0
2
<
<
< <
> 0
Grficamente
Si denotamos por A al evento {X x} para una variable aleatoria X, la probabilidad P{X x/B} estar definida como la funcin de distribucin condicional, Fx(x/B)
( ) = { , } = ()
El evento conjunto X x y B consta de todas las salidas S tal que X(S) x y SvB
1) ( ) = 0 2) ( ) = 1 3) 0 ( ) 1 4) (1 ) 2 1 < 2 5) (1 < 2 ) = 2 (1 ) 6) ( + ) = ( )
Al igual que en la funcin de distribucin condicional para la funcin de densidad condicional se cumplen las propiedades estudiadas anteriormente
1) ( ) 0 2)
(
) = 1 )
3) ( ) 4) (1 <
( 2 ) = 2 1
A continuacin realizaremos un ejemplo para ilustrar la aplicacin de funciones de densidad y distribucin condicionales Ejemplo 13: 2 cajas tienen pelotas rojas, verdes y azules de acuerdo con la siguiente tabla
Caja Xi 1 2 3 total color Rojo Verde Azul 1 5 35 60 100 2 80 60 10 150 total 85 95 70 250
El experimento constara en seleccionar una caja y luego una pelota. La caja 2 es ligeramente ms larga que la 1 por lo que esta caja se selecciona con mayor frecuencia.
Supongamos la notacin B2= seleccionar la caja larga B1= seleccionar la caja pequea Y considerando que P(B1)= 2/10 P(B2)= 2/10 Encontramos las funciones de densidad y distribucin condicionales y no. Definiremos por x a la variable aleatoria cuyas salidas pueden ser x1=1, x2=2 yx3=3 cuando se trata de una pelota roja, verde y azul respectivamente. B ser el evento con salidas B1 y B2. De la tabla tenemos que:
P(x=1/B=B1) = 5/100 P(x=1/B=B2)=80/150 P(x=2/B=B1) = 35/100 P(x=2/B=B2)=60/150 P(x=3/B=B1) = 60/100 P(x=3/B=B2)=10/150 Por lo tanto de la definicin de funcin de densidad para el caso discreto
=
=1
( )
En el caso condicional
= ( ) 1 + (2 1 ) 2 + (3 1 ) 3
= 5 35 60 1 + 2 + ( 3) 100 100 100
Grficamente:
Para fines de comparacin, exclusivamente calcularemos la funcin de densidad y distribucin a partir del teorema de probabilidad total
( )
=1
Por ende
= 1 = ( = 1 ) 1 + ( = 1 2 ) 2
= 5 80 10 640 2/10 + 8/10 = + = 0.437 100 150 1000 1500
= 2 =
= 3 =
Por tanto
Grficamente
1.3 Promedios Estadsticos de Variables Aleatorias 1.3.1 Valor Esperado de una Variable Aleatoria
Al proceso de promediar las posibles salidas de una variable aleatoria se le llama valor esperado. La notacin tpica para denotar el valor esperado, esperanza matemtica, el valor medio o el promedio estadstico de x es: E{x} E[x] Si x es una variable aleatoria cuyas posibles salidas tienen probabilidad P(xi) su valor esperado est definido por:
{} = =
Si x es una variable aleatoria discreta con N posibles valores xi con probabilidad de ocurrencia P(xi), entonces:
( ) =
=1
( )
{} =
=1
1 1
{ } =
=1
{} =
=1
( )
0 = (0 )
= => =
{ } =
=1
=
=1
( )
> <
Resolviendo
{} =
. 0 +
( ) =
Por tabla
1 = ( 2 )
= =
2 |
= =
=
=1
( )
Ejemplo2: Ciertos niveles de voltaje pueden ser representados a travs de una variables aleatoria rayleigh, v, cuya funcin de densidad esta dada por:
2 ( )2 ( ) = 0
<
Con a=0 y b=5. Este voltaje es aplicado a un dispositivo que genera una salida Y=g(v) = v.v, que es igual, numricamente a la potencia que disipa un resistor de 1 . Encuentre la potencia promedio
=
= 2
. 0 +
2 .
2
= 0 = 5
=
0
2 .
2 5
= 2/5
0
2 = 5
5 = 2
=
0
2 5 5 = 5 5 2
5
0
Aplicando
1 ) 2
= 5 1 = 5 0
= 5 1 |
{ } =
<
Por tanto :
{ } =
1.3.4 Momentos
El clculo de los momentos de una variable aleatoria es una aplicacin directa del valor esperado. Son 2 los momentos de interes: Aquellos que estn alrededor del origen y alrededor de la media. MOMENTOS ALREDEDOR DEL ORIGEN la funcin
( ) = = 0,1,2, ..
Aplicando a la definicin de E{g(x)} produce los momentos en torno al origen de una variable aleatoria x, los cuales se denotan por m. En particular el n-simo momento de una variable aleatoria dado por mn es :
Claramente
0 0 =
= 1
En tanto
1 1 =
MOMENTOS CENTRALES Son los momentos alrededor de la media y estn denotados como Mn. Estn definidas por el valor esperado de la funcin
=
= 0,1,2, ..
= ( ) =
( )
Es claro que
0 = ( )0 =
= 1
( )
En tanto que
1 = ( )
( ) = 0
1 =
= = 0
En particular el segundo momento central es de gran importancia y tpicamente se denota como la varianza de variable aleatoria, 2
Por lo tanto :
2 = 2 = ( )2 =
( )2
2 2 + 2
2 2 + 2 = 2 2 2 + 2 = 2
+ 2 =
2 = 2 {}2
2 = 2 1 2
Ejemplo 3-. Suponga que se tiene una variable aleatoria x con funcin de densidad exponencial
1 ( ) = 0
> <
Encuentre la varianza.
2 =
( )2 =
( )2 . +
( )2
( )2 ( )
Por tanto
2 =
( )/ = 2 2 2 + 2 3
( ) =
2 2 2 23 |
( ) =
( )
( )2 2 2 ( ) 2 3
2 =
( )
( )
( )2 2 2 ( ) 2 2
2 = ( )2 2 2 ( ) 2 2
2 = ( + )2 + 2 2
una forma alternativa de obtener este resultado es a travs de Sabiendo de un ejercicio previo que m1=(a+b) El tercer momento central 3 = ( )3 es una medida de la asimetra de la funcin de densidad fx(x) en tanto a m1. Este se denomina el skew (sesgo) de la funcin de densidad. Si la funcin de densidad es simtrica en torno a x= tiene skew cero. El tercer momento central normalizado se conoce como skewness o coeficiente de skewness
3 3
2 = 2 1 2
Ejemplo 4: continuemos con el clculo del tercer momento central para la variable aleatoria exponencial del ejemplo 3. Sabemos que
3 = (
)3
)3
( )3 ( )
3 =
( )/ = =
3 2
( )
3 6 6 2 + 3 4
( ) =
3 32 2 6 3 6 4 |
( ) =
( + )
( )3 3 2 ( )2 6 3 6 4
= ( )3 3 ( )2 6 2 6 3
= ( + )3 3 2 ( ) 5 3
Como
= +
3 = 3 2 5 3 = 3 3 5 3 = 2 3 3 = 2 3
Lmite de Chernoff
{ }
( ) ( )
Tarea : genere una secuencia de 100 nmeros aleatorios como en el ejemplo 3.5.3 Repita lo mismo para una secuencia de 100 nmeros aleatorios exponenciales (a partir de una secuencia uniforme)
=
=
, ,
fx,y(x,y)
Es importante antes de continuar definir la funcin de distribucin conjunta como la probabilidad del evento conjunto
, : , (, ) = { , }
De aqu la funcin de densidad conjunta est denotada como fx,y(x,y) y est definida por la segunda derivada de la funcin de distribucin conjunta
2 , ( , ) ( , ) = ,
Regresando a la funcin de distribucin de la suma de 2 variables aleatorias independientes, por definicin la funcin de densidad de 2 variables aleatorias independientes es
, ( , ) = ( ) ( )
Por tanto:
( ) =
()
=
() =
Esta expresin es conocida como la integral de convolucin. Por lo tanto se dice que la funcin de densidad de 2 variables aleatorias estadsticamente independientes es la convolucin de sus funciones de densidad individuales.
Suma de ms de 2 variables aleatorias El resultado obtenido para la suma de 2 variables aleatorias independientes se puede atender a la suma de N variables aleatorias independientes. Esto es para :
Y =X1+X2+X3++XN
La funcin de densidad esta dada por
= 1 1 . 1 1
Todos estos ejemplos son procesos estocsticos Denotaremos entonces con X(t) A la variables aleatoria en funcin del tiempo que representa nuestro proceso estocstico. Por definicin un proceso estocstico X(t) es un ensamble de funciones muestra o variables aleatorias en distintos instantes
1 > 2 > 3 > . >
En general el proceso estocstico X(t) estar caracterizado por las variables aleatorias ( ) = 1,2, , Al mismo tiempo el proceso estocstico estar caracterizado por la funcin de densidad conjunta
( , , . . , , )
Se dice que el proceso es estacionario en el sentido estricto. Esto significa que la estadstica de un proceso estocstico es invariante para cualquier traslacin con respecto al eje del tiempo. Cuando las PDFs son distintas el proceso es no estacionario
En general el valor del n-simo momento depender de el instante ti. Cuando el proceso es estacionario, sabemos que f(Xti+t) = f(Xti) para todo t. la PDF es independiente del tiempo y en consecuencia el nsimo momento es independiente del tiempo. Por otra parte, consideraremos las dos variables aleatorias Xti =X(ti) i=1,2, la correlacin entre Xt1 y Xt2 es medida a travs del
Momento conjunto
, 2 =
2 1 , 2 1 2
(1 , 2 ) .
Procesos Estocsticos
. Una variable aleatoria real es una regla de correspondencia entre los resultados de un experimento aleatorio y puntos en la recta de nmeros reales R, y se denota por X(). . Un proceso estocstico real es una regla de correspondencia entre los resultados de un experimento aleatorio y funciones reales del tiempo, y se denota por X(t, ), donde t representa tiempo. . Una seal aleatoria es un proceso estocstico, esto es , un conjunto de funciones del tiempo. -------------------------------------------------------