Está en la página 1de 133

Unidad 1.

Introduccin a la Teora de Probabilidad y Procesos Aleatorios


1.1 Introduccin a la sealizacin Digital y a la Teora de Probabilidad La teora de probabilidad y los procesos estocsticos son una herramienta matemtica esencial en el diseo de sistemas de comunicacin digital, es decir: Para el modelado estocstico de las fuentes de informacin. En el proceso de digitalizacin de fuentes de salida. En la caracterizacin de un canal a travs del que la informacin ser transmitida. En el diseo del receptor que procesara la informacin recibida. En la evaluacin del desempeo del sistema digital.

1.1.1 Probabilidad
Consideremos el experimento : lanzamiento de un dado

El espacio muestra del experimento , denotado por S consta de todas las posibles salidas ( puntos muestra del experimento): S={1,2,3,4,5,6} Un evento es un subconjunto de S. por ejemplo el evento A: A={2,4} El complemento del evento A consta de todos los puntos muestra que no estan en A ={1,3,5,6}

Por otra parte se dice que dos eventos son mutuamente exclusivas o excluyentes si no tienen puntos muestra en comn, es decir, si no tienen elementos comunes. A y son mutuamente exclusivas La unin o suma de dos eventos esta integrada por todos los puntos muestra o integrantes de ambos eventos, por ejemplo. Si B={1,3,6} C={1,2,3} D= B U C = {1,2,3,6} Por otra parte A U = S La interseccin de dos eventos esta integrado por los puntos muestra o elementos comunes a los dos eventos

Continuando con el ejemplo anterior

E= B C = {1,3} Cuando dos eventos son mutuamente exclusivas la interseccin es el cuento nulo. AB=0
para A= {2,4} B= {1,3,6} por tanto: A=0 Asociado a un evento A contenido en S esta su probabilidad de ocurrencia P(A)

En el proceso de asignacin de probabilidades a cada uno de los eventos de un espacio muestra adoptaremos un punto de vista axiomtico y partiremos de las premisas siguientes: I. P(A) 0 Por otro lado: II. P(S) = 1 El tercer postulado tiene que ver con la probabilidad de eventos mutuamente exclusivos Suponiendo que (i=1,2,) es uno de un nmero de evento en un espacio muestra S, tal que

= 0 = 1,2,

Entonces la probabilidad de la unin de estas cuentos excluyentes satisface la condicin: III P( )= ( ) Ejemplo 1: en el caso del dado donde S={1,2,3,4,5,6} a cada posible salida se asigna la probabilidad de 1/6. El cuento A={2,4} esta integrado por dos sub eventos mutuamente exclusivos A1={2} A2={4} por tanto: 2 2 P(A) = ( ) = (1 2 ) = = = 1 + (2 ) = 1/6+1/6=2/6
=1 =1

Si B= {1,3,6} la P(AUB) donde A y B son mutuamente excluyentes es:

P(AUB) = P(A) + P(B)= 1/3+3/6= 5/6

1.1.2. Eventos Conjuntos y Probabilidades Conjuntas


En general si un experimento tiene las posibles salidas Ai, i=1,2,3,..,n y un segundo experimento tiene las posibles salidas Bj, j=1,2,3,...m entonces el experimento combinado tiene las salidas (Ai,Bj) i= 1,,n j= 1,,m Asociada a cada salida conjunto (Ai , Bj) esta la probabilidad conjunta P(Ai,Bj) que satisface la condicin: 0 P(Ai , Bj) 1 Si las salidas Bj, j=1,2,..,m son mutuamente exclusivas

, = ()
=1

Si las salidas Ai, i=1,2,,n son mutuamente exclusivas

, = ()
=1

Finalmente si todas las salidas de los dos experimentos son mutuamente exclusivas

, = 1
=1 =1

La probabilidad denotada como probabilidad condicional P(A,B)=P(AB) est dado por P(A,B)= P(A) + P(B) P(AUB)

De forma equivalente P(AUB)= P(A) + P(B) P(AB) P(A) + P(B) En otras palabras la probabilidad de la unin. de dos eventos nunca excede la suma de las probabilidades de los eventos.

Ejemplo 2: por ejemplo un experimento lanzamiento de un dado se puede combinar con otro similar en el lanzamiento de dos dados

en tal caso el espacio muestra S estara integrado por 36 combinaciones (i,j) donde i,j = 1,2,..,6 Tpicamente a cada punto en el espacio muestra se le asigna la probabilidad 1/36 (eventos equiprobables ).

1.1.3 Probabilidades Condicionales


Consideraremos ahora un experimento combinado en el cual eventos conjuntos ocurren con probabilidad P(A,B). Suponiendo que el evento B ha ocurrido y queremos determinar la ocurrencia del evento A; denominaremos a esta probabilidad la probabilidad condicional del evento A dado el evento B. Esto est definido como: (, ) P(A/B) =
()

Siempre y cuando P(B)> 0. Por otro lado la probabilidad de B dado el evento A ser
(, ) P(B/A) = ()

para P(A)>0.

Resumiendo, un experimento real est definido matemticamente por tres casos : 1. Asignacin de un espacio muestra. 2. Definicin o determinacin de los eventos de inters. 3. Asignacin de la probabilidad correspondiente a cada evento, considerando los tres axiomas iniciales. En la solucin de problemas probabilsticos el establecimiento del adecuado modelo matemtico es la parte ms difcil. Ejemplo 3: Regresando al lanzamiento de 2 dados. El experimento consiste en observar la suma que resulta. Sabemos que el espacio muestra consta de 62 = 36 puntos muestra como se ilustra en seguida

(1,1) (2,1) (3,1) (4,1) (5,1) (6,1)

(1,2) (2,2) (3,2) (4,2) (5,2) (6,2)

(1,3) (2,3) (3,3) (4,3) (5,3) (6,3)

(1,4) (2,4) (3,4) (4,4) (5,4) (6,4)

(1,5) (2,5) (3,5) (4,5) (5,5) (6,5)

(1,6) (2,6) (3,6) (4,6) (5,6) (6,6)

Cada posible salida del experimento corresponde a una suma que forma valores del 2 al 12. Supongamos que estamos interesados en los 3 eventos siguientes: A= { sum = 7 } B= { 8 < sum 11} C= { 10 < sum}

Para asignar las probabilidades o estos eventos definiremos matemticamente el espacio muestra a travs de los eventos Aij = { suma (i,j) = i+j } i= rengln J= columna Podemos deducir que cada salida en este experimento es equiprobable en el caso de un lanzamiento justo, de modo que: P(Aij) = 1/36 En virtud de que los eventos Aij son mutuamente exclusivos, deben satisfacer el axioma 3. y como los eventos A,B y C son la unin de sub eventos ( eventos elementales o puntos muestra) sus probabilidades se derivan del axioma 3.

Por ende:

P(A)= (
=1

, 7 ) =
=1

, 7 = 6

1 = 1/6 36

P(B)= 9(1/36)= 1/4 P(C)= 3(1/36)= 1/12

Las dos ecuaciones anteriores se pueden relacionar por : P(A,B) = P(A/B) P(B) = P(B/A) P(A) Ntese que P(A,B) es interpretado tambin como la probabilidad de que AB ocurra. Esto es, P(A,B) denota la probabilidad de que A y B ocurran simultneamente. Ejemplo 4: del lanzamiento de un dado consideramos los eventos B= {1,3,6} y P(B)= = (1) + 3 + 6 = 3/6 C= { 1,2,3} El evento conjunto esta integrado por los puntos muestra {1,3} BC = {1,3} y P(B,C) = P(1) + P(3) = 2/6

Por tanto si P(B,C) = 2/6 la probabilidad condicional de el evento C dado que B ha ocurrido es
6 (, ) 2 = () = 3 = 3 6 2

En un experimento simple, cuando dos eventos A y B son mutuamente exclusivos AB = 0 y por ende
(, ) 0 ( ) = = =0 () ()

Si A es subconjunto de B AB = A y
, () = = ()

Si B es subconjunto de A AB = B y por ende


, = (, ) ( ) = =1 () ( )

Dados 3 eventos A, B, C si queremos


( ) = ( ) ) + ( )) = = +

( ) = ( ) + ( )

Ejemplo 5: En una caja existen 100 resistencias con valor y tolerancia como se indica en la siguiente tabla
tolerancia Resistencia () 5% 10% total

22
47 100 total

10
28 24 62

14
16 8 38

24
44 32 100

Suponga que las resistencias pueden ser seleccionadas con la misma probabilidad de la caja y considere los sig. eventos

A = {resistencias de 47}

B = { resistencias con 5% de tolerancia} C= { resistencias de 100} De la tabla se tiene que P(A) = P(47) = 44/100
P(B) = P(5%) = 62/100 P(C) = P(100) = 32/100 Las probabilidades conjuntas P(AB) = P(A,B) = P(47 5%) = 28/100 P(AC) = P(A,C) = P(47 100 ) = 0 P(BC) = P(B,C) = P(5%) 100 ) = 24/100

Y las probabilidades condicionales


100 28 (, ) ( ) = = = 62 () 62 100
( ) = (, ) = 0 ()

28

100 24 (, ) ( ) = = = 32 () 32 100

24

1.1.4 Probabilidad Total


La probabilidad P(A) de cualquier evento A definido en un espacio muestra S puede expresarse en trminos de probabilidades condicionales. Supongamos que tenemos N eventos mutuamente excluyentes, Bn, n= 1,2,3,..N cuya unin es S

Estos eventos satisfacen BmBn = 0 mn = 1,2,,N

=
=1

Podemos probar que:

() =
=1

( )()

Expresin que es conocida como probabilidad total . Como AS = A comenzaremos la prueba usando

= (
=1

) =
=1

( )

Aplicaremos el axioma 3 a estos eventos y tendremos que


= = (
=1

( )) =
=1

( )

De la expresin de probabilidad condicional


( ) =

, ()

() =
=1

( )()

1.1.5 Teorema de Baye


La definicin de probabilidad condicional aplica a cualquier par de eventos. En particular, siendo Bn uno de los eventos definidos de una seccin de la probabilidad total
( ) = ()

Si P(A) 0, alternativamente
( ) = ()

Si P(Bn) 0. una forma del teorema de Baye es obtenido al combinar las dos ecuaciones anteriores P(BnA)= P(ABn))= P(Bn/A)P(A)= P(A/Bn)P(Bn) Esto es
() ()

( ) =

Por otra parte sabemos que

=
=1

( )()

Por ende la forma alternativa del teorema de baye es:


( ) = ( )() ( 1) 1 + + ( )( )

En el teorema de Bayes P(Bn) es conocida como probabilidad a priori debido a que estas se asignan a los eventos antes del desarrollo del experimento.

Las probabilidades P(A/Bn) en el contexto de las comunicaciones son conocidas como probabilidades de transicin Finalmente las probabilidades P(Bn/A) se conocen como a posteriori porque se obtienen despus de que el experimento se ejecuta cuando algn evento A es obtenido. Ejemplo 5: Un sistema de comunicacin binario consta de un transmisor que envia uno de dos posibles smbolos (1 0 0) a travs de un canal y hacia el receptor. El canal eventualmente origina errores que causan que en el receptor el dgito 1 se recibe como 0 y viceversa. En este ejemplo el espacio muestra tiene 2 elementos 0 o 1. Denotaremos por Bi, i=1,2 al evento smbolo antes del canal es 1 o 0. Definiremos por Ai, i=1,2 al evento smbolo despus del canal es 10 0

Por otro lado las probabilidades de que el smbolo 1 y 0 sean seleccionadas por el transmisor son P(B1)= 0. 6 y P(B2)= 0.4 Y las probabilidades condicionales que describen el efecto del canal en los smbolos transmitidos, esto es las probabilidades de recepcin se consideran. P(A1/B1)= 0.9 P(A2/B1)= 0.1 P(A1/B2)= 0.1 P(A2/B2)= 0.9 En ambos casos P(A1/Bi) + P(A2/Bi) = 1 Porque A1 y A2 son eventos mutuamente exclusivos y son los unicos eventos de recepcin.

Por otro lado el canal frecuentemente se ilustra como se ver a continuacin.

Por su forma este canal se denomina canal simtrico binario Del teorema de probabilidad total podemos calcular:

=
=1

( )()

Por lo tanto P(A1) = P(A1/B1)P(B1) + P(A1/B2)P(B2)= 0.9(0.6)+0.1(0.4)= 0.58 P(A2) = P(A2/B1)P(B1) + P(A2/B2)P(B2)= 0.1(0.6)+0.9(0.4)= 0.42

Del teorema de Bayes podemos entonces calcular las probabilidades a posteriori


( ) = () ()

Por ende
(1 1) = 1 1 (1) 0.9 0.6 0.54 = = = 0.931 (1) 0.58 0.58

2 2 (2) 0.9 0.4 0.36 (2 2) = = = = 0.857 (2) 0.42 0.42

Y las probabilidades de error


2 1 (1) 0.1 0.6 0.06 (1 2) = = = = 0.143 (2) 0.42 0.42
1 2 (2) 0.1 0.4 0.04 = = = 0.069 (1) 0.58 0.58

(2 1) =

Ejemplo 6: Un estudiante toma un tren para transportarse a la escuela. La probabilidad de que el estudiante llegue a clase es del 95% si el tren esta a tiempo si el 70% del tiempo el tren cumple el itinerario. Cul es la probabilidad de que el estudiante llegue a tiempo? Utilizaremos el teorema de Baye e interpretaremos el 70% como la probabilidad de que el tren est a tiempo. Suponiendo que representamos por C al evento el estudiante llega a clase

Y por T el tren llega a tiempo. El estudiante llegara a tiempo si se cumple CT La probabilidad de este evento ser P(C,T)= p(C/T)P(T) = 0.95(0.7) = 0.665 Entonces la probabilidad de que el estudiante llegue a tiempo es del 66.5% Ejemplo 7: una contiene 6 pelotas verdes, 4 pelotas negras y 10 pelotas amarillas. Todas las pelotas tienen la misma probabilidad de ser tomadas. Cul es la probabilidad de tomar 2 verdes si no se remplazan las pelotas? Suponga que el evento G representa tomar una pelota verde al aplicar frecuencia relativa, el tomar la primera pelota implica que P(G) = 6/20 = 0.33

Para la segunda toma tenemos 5 pelotas verdes, 4 negras y 10 amarillas, por ende dado que ya se tomo una verde P(G/G) = 5/19 Podemos calcular la probabilidad de tomar 2 verdes del teorema de Baye P(G,G) = P(G/G).P(G) = 5/19(0.3) = 0.0789

1.1.6 Eventos Independientes


Se dice que dos eventos A y B con probabilidades distintas P(A)0 , P(B) 0 son eventos estadsticamente independientes si la probabilidad de ocurrencia de un evento no esta afectado por la probabilidad de ocurrencia del otro evento. Matemticamente esto es equivalente a decir que: P(A/B) = P(A) P(B/A) = P(B) La independencia implica que la probabilidad conjunta de dos eventos es igual al producto de sus probabilidades P(A,B) = P(A)P(B) Lo que resulta al sustituir las expresiones anteriores en la definicin de condicionalidad La independencia estadstica de los eventos puede en muchas ocasiones simplificar los problemas de probabilidad

Por otra parte 2 eventos estadsticamente independiente no pueden ser mutuamente exclusivas, por ende, para que sean independientes se requiere que AB 0

Ejemplo 8: En un experimento se selecciona una carta dentro de un paquete de 52. se definen los siguientes eventos A = {seleccionar un rey K} B = {seleccionar un joto o quina J o K} C = {seleccionar un corazn} Intuitivamente y por conteo estos eventos tienen las probabilidades P(A) = 4/52 P(B) = 8/52 P(C) = 13/52

Por otra parte es posible establecer que: P(A,B) = 0 P(A,C) = 1/52 P(B,C) = 2/52 Determinaremos la independencia por pares de los eventos P(A,B) = 0 P(A)P(B) = 32/(52)( 52) P(A)P(C) = 4/52(13/52) = 52/52(52) = 1/52 = P(A,C) P(B)P(C) = 8/52(13/52) = 104/52(52) = 2/52 = P(B,C) Por lo tanto los eventos AyC y ByC son independientes por pares A y B son mutuamente excluyentes. En el caso de mltiples eventos se dice por ejemplo que A1, A2, y A3

Son independientes por pares y en conjunto es decir si cumplen con las siguientes ecuaciones: P(A1,A2) = P(A1)P(A2) P(A1,A3) = P(A1)P(A3) P(A2,A3) = P(A2)P(A3) P(A1,A2,A3) = P(A1)P(A2)P(A3) De forma ms general se dice que N eventos son independientes si: P(Ai,Aj) = P(Ai)P(Aj) P(Ai,Aj.Ak) = P(Ai)P(Aj)P(Ak) 1i<j<k.N : : P(A1,A2,.,AN) = P(A1)P(A2)P(AN)

Ejemplo 9: suponga que se toman 4 cartas de un paquete de 52. Considere los eventos A1,A2,A3 y A4 definido como la seleccin de un As. Consideremos dos casos En el primero cada vez que una carta es tomada esta ser devuelta antes de la siguiente toma. En este caso podemos deducir que los eventos son independientes y P(A1,A2,A3,A4) = P(A1)P(A2)P(A3)P(A4) = (4/52)(4/52)(4/52)(4/52) =3.5x105 En segundo lugar supondremos que cada vez que una carta es tomada ya no es remplazada En tal caso estos eventos ya no son independientes y lo que tendramos es lo siguiente P(A1,A2,A3,A4) = P(A1)P(A2,A3,A4/A1)

= P(A1)P(A2/A1)P(A3,A4/A1,A2) = P(A1)P(A2/A1)P(A3/A1,A2)P(A4/A1,A2,A3) = 4/52(3/51)(2/50)(1/49) = 3.69106

Esto significa que tenemos 9.5 veces ms de probabilidad de sacar 4 Ases cuando remplazamos las cartas que cuando no lo hacemos. Cabe aclarar que Si N eventos son independientes A1,A2,,AN, cualquiera de ellas ser independiente de cualquier otro que resulte de la unin, interseccin o complemento Por ejemplo: P(A1(A2A3)) = P(A1)P(A2)P(A3) = P(A1)P(A2A3) P(A1(A2UA3)) = P(A1)P(A2UA3)

1.1.7 Experimentos Combinados


Un experimento combinado es el resultado de combinar varios experimentos individuales para formar un experimento simple. A esos experimentos individuales los denotaremos como subexperimentos. Supondremos ahora que tenemos 2 subexperimentos cada uno con espacio muestra S1 y S2. Si tiene M elementos y S2 N el nuevo espacio muestra o el espacio muestra combinado ser S = S1 x S2 (MN elementos) Supondremos ahora que tenemos 2 subexperimentos A,B con espacios muestra S1 y S2 respectivamente y que queremos encontrar C =A x B

Resulta evidente que A x B = (AxS2) (S1xB) Completando ahora la definicin de experimentos combinados considerando las asignaciones de probabilidad

Para un evento de la forma AxB donde ACS1 y BCS2 si A y B son independientes P(AxB) = P(A)P(B) P(AxS2) = P(A)P(S2) = P(A) P(S1xB) = P(S1)P(B) = P(B) Generalizando para N experimentos independientes P(A1xA2xxAN) = P(A1)P(A2).P(AN) Para AnCSn n= 1,2,,N

1.2 Variables Aleatorias, Distribuciones y Densidades de Probabilidad


En la seccin anterior introducimos el concepto de evento para describir las caractersticas de las salidas de un experimento . En esta seccin introduciremos un concepto nuevo que nos permitir definir de una forma ms consistente a los eventos y que constituye una poderosa herramienta en la solucin de problemas prcticos: La variable aleatoria

1.2.1 El Concepto de Variable Aleatoria


Definiremos a una variable aleatoria real como una funcin de los elementos de un espacio muestra S. Nuestra notacin en adelante ser la siguiente : - Con las letras maysculas representaremos a las variables aleatorias W, X Y - Con minsculas cualquier valor particular de la variable aleatoria w ,x y Dado entonces un experimento definido por un espacio muestra S con elementos s, de acuerdo con alguna regla de asignacin una variable aleatoria estar denotado por: X(s) Una variable aleatoria es entonces una funcin que mapea todos los elementos de un espacio muestra en puntos en una lnea real u otra parte.

Ejemplo 1: Suponga un experimento que consiste en el lanzamiento de un dado y una moneda. Solucin: Determinaremos el espacio muestra en funcin a la funcin x que define la variable aleatoria. Esta esta definida del sig. Modo 1) Si del lanzamiento de la moneda sale cara (H) la salida de la funcin x ser un valor positivo igual al nmero que muestre el dado 2) Si del lanzamiento de la moneda sale con (T) la salida de la funcin x ser un valor negativo cuya magnitud ser el doble de lo que muestre el dado. Aqu el espacio muestra x mapea a 12 elementos entre -12 y 6 como se muestra a continuacin

1.2.2 Condiciones para que una Variable Aleatoria lo sea


Para que una funcin pueda considerarse como variable aleatoria se requiere que cumpla con las siguientes condiciones: 1) Se requiere que la funcin no sea multivaluada, es decir, que a cada punto en S corresponda un solo valor de la variable aleatoria. 2) Para el espacio muestra S con elementos S el conjunto {X x} es un evento para cualquier x que corresponde al espacio muestra para el cual X(s) no excede x. La probabilidad de este evento P{X x} Es igual a la suma de las probabilidades de todos los eventos elementales correspondientes a {X x} . 3) La segunda condicin implica que la P(X = -} = 0 P{X = } = 0

1.2.3 Variables Aleatorias Discretas y Continuas


Una variable aleatoria discreta es aquella que solamente toma valores discretos. El espacio muestra de la variable aleatoria puede ser discreto o continuo o una mezcla. Ejemplo 2: Un espacio muestra esta definido por S = {1,2,3,4} Una variable aleatoria X est definida como
= = 3

Como S es discreto el mapeo ser hacia puntos discretos X(s) = {1,8,27,64} Si las probabilidades de los elementos de S son: P(1) = 4/24, P(2) = 3/24, P(3) = 7/24 y P(4) = 10/24 Entonces las probabilidades de los valores de la variable aleatoria sern

P(x=1) = 4/24 , P(x=8) = 3/24 , P(x=27) = 7/24 y P(x=64) = 10/24 Debido al mapeo uno a uno. Una variable aleatoria continua por el contrario tiene un rango continuo de valores. Estos no pueden ser producidos a partir de un espacio muestra discreto o por un espacio muestra mixto Ejemplo 3: Suponga que la temperatura en un punto geogrfico es modelado por una variable aleatoria continua T cuyo valor es sabido que se encuentra en el rango -60F a 120F . Para fines de ilustracin consideraremos que todos los valores {-60 t 120} son igualmente probables. Usando argumentos de frecuencia relativa podemos llegar al razonamiento de que los valores t de T que caen en una regin dt centrada en el rango -60F a 120F tendrn la probabilidad dt/120-(-60) = dt/180

Usando este razonamiento si deseamos calcular la probabilidad de cualquier temperatura simple dentro dt tendramos que dt0 y esto tambin sera 0. Existen tambin variables aleatorias mixtas para las cuales algunas de sus valores son discretos y otras continuas

1.2.1 Funciones de Distribucin


Ya sabemos que la P{X x} es un nmero que depende de x. Denotaremos a esta funcin por Fx(x) y la llamaremos funcin de distribucin de probabilidad acumulativa (cumulative probability density funtion cdf ) Fx(x) = P {X x} Tambin se conoce como funcin de distribucin de x. En virtud de que Fx(x) es una probabilidad tendr las siguientes propiedades: 1) Fx(-) = 0 2) Fx() = 1 3)0 Fx(x) 1 4) Fx(x1) Fx(x2) si x1< x2 5)P{x1< X x2} = Fx(x2) - Fx(x1) 6)Fx( + ) = Fx(x)

Tpicamente las propiedades 1,2,4 y 6 pueden ser utilizadas para verificar que una funcin Gx(x) sea valida. Si x es una variable aleatoria discreta su funcin de distribucin tiene una forma escalonada

La amplitud de cada escaln ser igual a la probabilidad de ocurrencia de el valor de X en ese intervalo. Si el valor de X est denotado por xi, podemos escribir

=
=1

= ( )

Donde U(x) es la funcin escaln definida por:


0 U(x) = 1 0 <0 y donde N puede ser infinita para algunas variables aleatorias. Simplificando la notacin P{X = xi} = P(xi) Y por ende
= ( )
=1

Ejemplo 4: suponga que X es una variable aleatoria que toma valores {-1,-0.5,0.7, 1.5, 3} y que las probabilidades correspondientes son {0.1, 0.2, 0.1, 0.4, 0.2} Obtenga la funcin de distribucin de la variable aleatoria. Aplicando la definicin:

=
=1

( )

Fx(x) = P(-1) U(x+1) + P(-0.5)u(x+0.5) + P(0.7)U(x-0.7)+ P(1.5)U(x-1.5) + P(3)U(x-3) Fx(x) = 0.1 U(x+1) + 0.2u(x+0.5) + 0.1U(x-0.7)+ 0.4U(x-1.5) + 0.3U(x-3)

Graficando

Por otra parte una variable aleatoria continua es aquella que tiene una funcin de distribucin continua

Ejemplo 5: Suponga una ruleta numerada del 1 al 12 su funcin de distribucin sera

En este caso la probabilidad de {x0} es cero, no existe espacio muestra. Para 0< x 12 la probabilidad de {0 < X x} incrementa linealmente.

1.2.2 Funcin de Densidad de una Variable Aleatoria


La funcin de densidad probabilstica denotada por fx(x) esta definida como la derivada de la funcin de distribucin
= ()

En el caso de variables aleatorias discretas


= [
=1

]
(

=
=1

( )

Sabiendo que
() = ()

Pp
() =

( )
=1

Ejemplo 6: Retomando el ejemplo en el que x tiene valores {-1, -0.5, 0.7, 1.5, 3} y probabilidades {0.1, 0.2, 0.1, 0.4, 0.2}. La funcin de densidad sera :

() =
=1

= 1 1 + 2 2 + 3 3 + 4 4 + 5 5 = 0.1 + 1 + 0.2 + 0.5 + 0.1 0.7 + 0.4 1.5 + 0.2( 3)

Ejemplo 7: para el caso de la ruleta. Tenemos que la derivada de una pendiente es una constante y la de una constante cero por lo tanto

La existencia de la funcin de densidad depende de la existencia de la derivada de la funcin de distribucin. PROPIEDADES DE LA FUNCIN DE DENSIDAD Las propiedades que la funcin de densidad debe tener Se listan a continuacin: 1) 0 fx(x) para todo x (existencia)

2)

. = 1

3)

4)

1 < 2 =
1

Ejemplo 8: Suponga que se tiene la funcin de densidad gx(x) dado por

Es evidente que satisface la condicin de existencia puesto que es nonegativa Para que satisfaga la condicin 2 de existencia esto es para que
0 +

= 1
0

Se requiere que:
0 + 0 () =1 2

.a=1

Por lo tanto
a = 1/ Suponiendo que a = 1/ para encontrar la funcin de distribucin primero construiremos la funcin por segmentos a) Para x < x0- gx(x)= 0 b) Para x0- < x < x0 construiremos la funcin en trminos de los dos puntos que pasan por la recta (x0- , 0 y x0 , 1/ 1 1 = = 2 Pendiente = 2 1 =
2 1 0 0 +

Por lo tanto la recta

y y1 = m( x-x1) quedara
0 =
=

1 ( 0 +) 2

1 ( 0 +) 2
() = 1 ( 0 +) 2

Por tanto para x0- < x < x0

c) Para el intervalo x0 < x < x0+ tenemos una recta con 1 pendiente negativa igual a 2 por tanto construyendo la funcin a partir de los puntos (x0, 1/ y x0, , 0 Nos queda que y y1 = m( x-x1)
1 1 = 2 ( 0 )

1 1 2 ( 0 )

Por lo tanto para este intervalo


() = 1 1 2 ( 0 )

d) Finalmente para x > x0+ gx(x) = 0

1 gx(x) = 2 0 + ; 0 < < 0 1 1 2 0 ; 0 < < 0 +

0 > > 0 +

Integrando para obtener la funcin de distribucin


a)

Gx(x) = 0

x < x0-
1 1 2 + = | | + | 0 0 2 2 2 0 0 0

b)

Gx(x) =
0

1 2 (0 )2 = 2 0 + 0 0 + (0 ) 2 2

1 2 0 2 20 +2 = 2 0 + 0 2 0 + 0 +2 2 2
1 2 0 2 2 = 2 + + 0 + 0 2 2 2

1 2 + 0 2 +2 + 2 20 2 0 2 2
1 ( 0 )2 +2 + 2( 0 ) 2 2
1 ( 0 + )2 2 2

0 < < 0

c) Para el penltimo intervalo


0

=
0

=
0

+
0

Resolviendo la primera integral


0

=
0

1 0 + = 2

2 0 | | + | 2 2 0 2 0 0

0 2 (0 )2 0 2 0 (0 ) 0 2 0 = 2 + + 2 2 2 2 2 2 2 2 2 0 (0 20 + 0 0 0 0 = + + +1 2 2 2 2 2 2

0 2 0 2 0 2 0 2 0 1 = + + + 1 = 2 2 2 2 2 2 2 2 2 2

Resolviendo la segunda integral

=
0

1 1 1 2 2 0 = | 2 | 0 | 0 2 0 0

0 1 2 0 2 1 1 2 0 2 2 = 2 0 + 0 = 0 2 + 0 2 2 2 2 1 1 1 1 2 2 = 0 + 2 = ( 0 )2 0 0 0 2 2 2 2

d) Finalmente para el ultimo intervalo x > x0+


0 0 +

=
0

=
0

+
0

No estara nicamente el clculo de la segunda integral


0 +


0 0 +

=
0

1 1 0 + 1 2 0 + 0 + 2 0 = | 2 | 0 | 0 2 0 0

0 + 0 1 0 + 0 2 = 2 0 0 + + 0 2 2 2 0 0 1 0 2 2 0 2 1 2 1 1 2 = +1 2 + 0 + 0 +0 = 1 2 =1 = 2 2 2 2 2 2

Por ende Gx(x)= + =1 para x > x0+

En suma:
0 1 ( 0 +)2 2 () = 2 1 1 1 + 0 0 2 2 2 1 < 0 0 < < 0
2

0 < < 0 + > 0 +

Grficamente:

1.2.2 Principales Funciones de Distribucin y Densidad 1.2.2.1 La Variable Aleatoria Gaussiana


Se dice que una variable aleatoria es Gaussiana si su funcin de densidad est dada por

=
2 2 1 ( ) 2 2

Donde los parmetros de la variable aleatoria gaussiana son: x > 0 desviacin estndar - < m x < media La variable aleatoria gaussiana es de las ms importantes puesto que muchos fenmenos pueden ser modelados a travs de ella. Por ejemplo: La agitacin trmica y aleatoria de los electrones origina el ruido trmico tpicamente modelado como gaussiano. Por otra parte, la funcin de distribucin de una variable aleatoria gaussiana esta dada por la integral

1 2

( )

2 2

Esta integral no tiene una solucin cerrada y tpicamente debe ser evaluada mediante aproximaciones numricas. Tpicamente la funcin Fx(x) se normaliza considerando que mx= 0 y x= 1 de tal modo que para valores negativos de x se puede utilizar la siguiente relacin: F(-x) = 1 F(x)

Grficamente tenemos que:

Por otra parte es posible calcular la funcin de distribucin de una variable aleatoria a partir de la funcin normalizada F(x) haciendo en siguiente cambio de variable:
( ) = = 1 2

Algunos valores de esta funcin se muestran en la tabla siguiente para valores positivos de x (x 0)

Partiendo de
=

1 2

( )

2 2

Haciendo

=> = + = => = =
< < < + < < <

Y los lmites

Por ende sustituyendo


= 1 2

1 2

= (

Una forma alternativa de F(x) es encontrada a partir de la funcin Q(x) del siguiente modo: F(x) = 1 Q(x)

Donde la funcin Q esta dada por:


= 1 2

Y es tambin resuelta por mtodos numricos. Una aproximacin de Q es la siguiente


1 1 + 2 +
2

Donde a y b son constantes. Para a=0.339 y b=5.51 el error de aproximacin de Q es del 0.27%

Ejemplo 9: Encuentre la probabilidad del evento {x 5.5} para una variable aleatoria gaussiana que tiene una mx= 3 y x=2 P{ x 5.5} = Fx(5.5) = F(5.5-3/2)= F(1.25) Por tabla F(1.25) = 0.8944 Ejemplo 10: Suponga que la altura de las nubes se puede modelar como una variable aleatoria gaussiana con mx= 1830m y x=460m. Encuentre la probabilidad de que las nubes estn por encima de 2750m Queremos evaluar P{x 2750} = 1-P{x 2750} = 1- Fx{2750}= 1 F(2750-1830/460) = 1-F(920/460) = 1-F(2) = 1-0.9772 = 0.0228 La probabilidad de que las nubes estn por encima de los 2750m es del 2.28%

Variable Aleatoria Binomial


Una variable aleatoria binomial se caracteriza por tener la siguiente funcin de densidad:

=
=0

0 < < 1

= 1,2,

! = ! !

Por otro lado, la funcin de distribucin binomial esta dada por

=
=0

La funcin de distribucin binomial se puede aplicar al modelado de juegos de azar, problemas de deteccin en radar y sonar y en general a diversos experimentos en donde se tengan dos posibles salidas. En la siguiente grfica se ilustra una funcin de densidad y distribucin binomial para N=6 y p=0.25

0.4 0.35 0.3 0.25

f(x)

0.2 0.15 0.1 0.05 0

3 X

1 0.9 0.8 0.7 0.6

F(x)
0.5 0.4 0.3 0.2 0.1 0

3 X

Variable Aleatoria de Poisson


Una variable aleatoria tiene la funcin de densidad y distribucin siguiente:


=0

( )

=
=0

( )

La distribucin de Poisson se aplica a una gran variedad de aplicaciones de conteo, por ejemplo: El nmero de muestras defectuosas tomadas en una muestra de una lnea de produccin, el nmero de llamadas telefnicas realizadas en un intervalo de tiempo, el nmero de electrones emitidos por una seccin de un ctodo, etc.

Si el intervalo de inters tiene una duracin T y los eventos que estn siendo contados ocurren a una tasa y tiene una distribucin de Poisson, entonces b= T Ejemplo 11: Suponga que tenemos un flujo de automviles llegando a una gasolinera el cual se modela mediante una variable aleatoria de Poisson. La tasa de arribos es de 50/h la estacin tiene slo una bomba. Si los autos requieren de aproximadamente 1 minuto para llenar el tanque Cul es la posibilidad de esperar la atencin de la bomba? En primera instancia, la espera ocurrira si dos o ms autos arriban a la estacin en cualquier intervalo de 1 minuto. Por lo tanto la probabilidad de este evento ser 1-P( ningn auto llegue a la estacin en lo que uno esta siendo atendido) si = 50/60 , T=1 minuto => b=(50/60)(1) = 5/6

Retomando el planteamiento anterior: Probabilidad de espera en la lnea = 1-P ( ningn auto llegue a la estacin en lo que uno esta siendo atendido) Nos resta calcular P(ningn auto llegue a la estacin en lo que uno esta siendo atendido) = P{x1} = Fx(0)+ Fx(1)
5

=0

(5 6) + !
0

6 !
2

(1 )
3

=0

6 0!
5

5 1 +
6

5 0 +

6 2!

5 1 +

6 3!

1!

5 1 + 6 0

5 + 1 = 0.7967 6

Por lo tanto Probabilidad de esperar =1- 0.7967 = 0.2032 en la lnea Por lo tanto los usuarios tendrn que esperar por el servicio de la bomba el 20.32% de el tiempo

Distribucin uniforme
La funcin de densidad y distribucin estn definidas de la siguiente forma: 1
= 0
= 0 1


< <

< <

< <

Grficamente

Una aplicacin de esta distribucin es el modelado de las seales cuantizadas en un sistema de comunicaciones digital. El proceso de cuantizacin implica el redondeo del valor de una muestra a una ms cercana de entre un conjunto de nmeros discretos, denominados niveles de cuantizacin.

Distribucin Exponencial
Las funciones de densidad y distribucin exponencial estan definidas como
1 ( ) = 0

> <

( ) 1 = 0

> <

< <

> 0

Una aplicacin de la distribucin exponencial es por ejemplo el modelado de la intensidad de la seal recibida en un sistema de radar y para ciertos tipos de naves, o bien para el modelado de la duracin de las llamadas o tiempo entre arribos en los sistemas telefnicos. Ejemplo 12: La potencia reflejada por un avin cuya forma es compleja y que es recibida por un radar puede ser modelada como una variable aleatoria exponencial P cuya densidad es:
1 = 0 0
0

> 0 < 0

Donde Po es la potencia promedio recibida. En algunos instantes P puede tomar valores distintos a su valor promedio.

Cul es la probabilidad de que la potencia recibida sea mayor a la promedio? Debemos calcular
> 0 = 1 0 = 1 0 =1 0 1 1 0 = 1 0 0 0 0 = 1 + 0 = 0.3678
0

0 0

0 = 1 + 1 1 = 1

En otras palabras, la potencia recibida es mayor al promedio el 36.78% de las veces

Distribucin Rayleigh
Las funciones de densidad y distribucin Rayleigh son:
2 ( )2 ( ) = 0
1 ( ) = 0
2

<

<

< <

> 0

Grficamente

Funciones de Distribucin y Densidad Condicionales Distribucin Condicional


La probabilidad condicional sabemos que est definida como
( ) = ( ) (, ) = ( ) ()

Si denotamos por A al evento {X x} para una variable aleatoria X, la probabilidad P{X x/B} estar definida como la funcin de distribucin condicional, Fx(x/B)
( ) = { , } = ()

El evento conjunto X x y B consta de todas las salidas S tal que X(S) x y SvB

Las propiedades de la distribucin condicional se ilustran en seguida:

1) ( ) = 0 2) ( ) = 1 3) 0 ( ) 1 4) (1 ) 2 1 < 2 5) (1 < 2 ) = 2 (1 ) 6) ( + ) = ( )

1.2.3 Densidad Condicional


La funcin de densidad condicional de la variable aleatoria X esta definida como la derivada de la funcin de distribucin condicional. Si denotamos a la densidad por fx(x/B) entonces
( ) ( ) =

Al igual que en la funcin de distribucin condicional para la funcin de densidad condicional se cumplen las propiedades estudiadas anteriormente
1) ( ) 0 2)
(

) = 1 )

3) ( ) 4) (1 <

( 2 ) = 2 1

A continuacin realizaremos un ejemplo para ilustrar la aplicacin de funciones de densidad y distribucin condicionales Ejemplo 13: 2 cajas tienen pelotas rojas, verdes y azules de acuerdo con la siguiente tabla
Caja Xi 1 2 3 total color Rojo Verde Azul 1 5 35 60 100 2 80 60 10 150 total 85 95 70 250

El experimento constara en seleccionar una caja y luego una pelota. La caja 2 es ligeramente ms larga que la 1 por lo que esta caja se selecciona con mayor frecuencia.

Supongamos la notacin B2= seleccionar la caja larga B1= seleccionar la caja pequea Y considerando que P(B1)= 2/10 P(B2)= 2/10 Encontramos las funciones de densidad y distribucin condicionales y no. Definiremos por x a la variable aleatoria cuyas salidas pueden ser x1=1, x2=2 yx3=3 cuando se trata de una pelota roja, verde y azul respectivamente. B ser el evento con salidas B1 y B2. De la tabla tenemos que:

P(x=1/B=B1) = 5/100 P(x=1/B=B2)=80/150 P(x=2/B=B1) = 35/100 P(x=2/B=B2)=60/150 P(x=3/B=B1) = 60/100 P(x=3/B=B2)=10/150 Por lo tanto de la definicin de funcin de densidad para el caso discreto
=
=1

( )

En el caso condicional

= ( ) 1 + (2 1 ) 2 + (3 1 ) 3
= 5 35 60 1 + 2 + ( 3) 100 100 100

Por integracin directa


( 1 ) = 5 35 60 1 + 2 + ( 3) 100 100 100

Grficamente:

Para fines de comparacin, exclusivamente calcularemos la funcin de densidad y distribucin a partir del teorema de probabilidad total

( )
=1

Por ende

= 1 = ( = 1 ) 1 + ( = 1 2 ) 2
= 5 80 10 640 2/10 + 8/10 = + = 0.437 100 150 1000 1500

= 2 =

35 60 2/10 + 8/10 = 0.390 100 150

= 3 =

60 10 2/10 + 8/10 = 0.173 100 150

Por tanto

= 0.437 1 + 0.390 2 + 0.173( 3)


Y
( ) = 0.437 1 + 0.390 2 + 0.173( 3)

Grficamente

1.3 Promedios Estadsticos de Variables Aleatorias 1.3.1 Valor Esperado de una Variable Aleatoria
Al proceso de promediar las posibles salidas de una variable aleatoria se le llama valor esperado. La notacin tpica para denotar el valor esperado, esperanza matemtica, el valor medio o el promedio estadstico de x es: E{x} E[x] Si x es una variable aleatoria cuyas posibles salidas tienen probabilidad P(xi) su valor esperado est definido por:

{} = =

Si x es una variable aleatoria discreta con N posibles valores xi con probabilidad de ocurrencia P(xi), entonces:

( ) =
=1

( )

Por tanto su valor esperado sera


{} =

=1

1 1

{ } =
=1

{} =
=1

( )

De las propiedades de la funcin impulso


0 = (0 )

Regresando a nuestro calculo

= => =

{ } =
=1

=
=1

( )

Ejemplo 1: Determine el valor esperado de la variable aleatoria exponencial definida por:


1 ( ) = 0

> <

Resolviendo

{} =

. 0 +

( ) =

Por tabla

1 = ( 2 )

aplicando este resultado



= 1 2 = +

= =

2 |

= =

1.3.2 Valor Esperado de una Funcin de Variables Aleatorias


El valor esperado de una funcin de variables aleatorias esta dado por el caso continuo por:

Si x es una variable aleatoria discreta

=
=1

( )

Ejemplo2: Ciertos niveles de voltaje pueden ser representados a travs de una variables aleatoria rayleigh, v, cuya funcin de densidad esta dada por:
2 ( )2 ( ) = 0

<

Con a=0 y b=5. Este voltaje es aplicado a un dispositivo que genera una salida Y=g(v) = v.v, que es igual, numricamente a la potencia que disipa un resistor de 1 . Encuentre la potencia promedio
=

= 2

. 0 +

2 .
2

= 0 = 5

=
0

2 .

2 5

= 2/5
0

Haciendo el cambio de variable


2 = 5 = 5 => = 5
0 < < 0 < 5 < 0 < <

2 = 5

5 = 2

=
0

2 5 5 = 5 5 2

5
0

Aplicando

1 ) 2
= 5 1 = 5 0

= 5 1 |

Por tanto la potencia promedio que disipa el resistor de 1 es de 5W

1.3.3 Valores Esperados Condicionales


El valor esperado condicional de una variable aleatoria, x, dado un evento B y denotado por E{x/B)} est dado por

{ } =

Donde para el caso en el que B={xb}


( ) / = 0
0

<

Por tanto :
{ } =

1.3.4 Momentos
El clculo de los momentos de una variable aleatoria es una aplicacin directa del valor esperado. Son 2 los momentos de interes: Aquellos que estn alrededor del origen y alrededor de la media. MOMENTOS ALREDEDOR DEL ORIGEN la funcin
( ) = = 0,1,2, ..

Aplicando a la definicin de E{g(x)} produce los momentos en torno al origen de una variable aleatoria x, los cuales se denotan por m. En particular el n-simo momento de una variable aleatoria dado por mn es :

Claramente
0 0 =

= 1

En tanto

1 1 =

MOMENTOS CENTRALES Son los momentos alrededor de la media y estn denotados como Mn. Estn definidas por el valor esperado de la funcin
=

= 0,1,2, ..

= ( ) =

( )

Es claro que

0 = ( )0 =

= 1

( )

En tanto que
1 = ( )

( ) = 0

1 =

= = 0

En particular el segundo momento central es de gran importancia y tpicamente se denota como la varianza de variable aleatoria, 2

Por lo tanto :

2 = 2 = ( )2 =

( )2

2 2 + 2


2 2 + 2 = 2 2 2 + 2 = 2

+ 2 =

2 = 2 {}2

2 = 2 1 2

La raz cuadrada de la varianza es la desviacin estndar

Ejemplo 3-. Suponga que se tiene una variable aleatoria x con funcin de densidad exponencial
1 ( ) = 0

> <

Encuentre la varianza.

2 =

( )2 =

( )2 . +

( )2

( )2 ( )

Haciendo el cambio de variable


= = + = =

< < < + < < <

Por tanto

2 =

( )/ = 2 2 2 + 2 3

( ) =

2 2 2 23 |

( ) =

( )

( )2 2 2 ( ) 2 3

2 =

( )

( )

( )2 2 2 ( ) 2 2

2 = ( )2 2 2 ( ) 2 2

2 = ( + )2 + 2 2

una forma alternativa de obtener este resultado es a travs de Sabiendo de un ejercicio previo que m1=(a+b) El tercer momento central 3 = ( )3 es una medida de la asimetra de la funcin de densidad fx(x) en tanto a m1. Este se denomina el skew (sesgo) de la funcin de densidad. Si la funcin de densidad es simtrica en torno a x= tiene skew cero. El tercer momento central normalizado se conoce como skewness o coeficiente de skewness
3 3
2 = 2 1 2

Ejemplo 4: continuemos con el clculo del tercer momento central para la variable aleatoria exponencial del ejemplo 3. Sabemos que

3 = (

)3

)3

( )3 ( )

Haremos el cambio de variable


= = + = =

< < < + < < <

3 =

( )/ = =
3 2

( )

3 6 6 2 + 3 4

( ) =

3 32 2 6 3 6 4 |

( ) =

( + )

( )3 3 2 ( )2 6 3 6 4

= ( )3 3 ( )2 6 2 6 3

= ( + )3 3 2 ( ) 5 3

Como
= +

3 = 3 2 5 3 = 3 3 5 3 = 2 3 3 = 2 3

Algunos resultados importantes en el rea de probabilidad son: Desigualdad de Chebychev


2 2 < 1 2

Lmite de Chernoff

{ }

( ) ( )

Tarea : genere una secuencia de 100 nmeros aleatorios como en el ejemplo 3.5.3 Repita lo mismo para una secuencia de 100 nmeros aleatorios exponenciales (a partir de una secuencia uniforme)

1.4 Suma de Variables Aleatorias


El problema de encontrar la funcin de distribucin y densidad de la suma de variables aleatorios estadsticamente independientes X y Y N = x+y Es ampliamente aplicable a problemas prcticos. Por ejemplo: X puede representar una seal de voltaje y Y una seal de ruido a W la seal ms el ruido. Por definicin la funcin de distribucin est definida como:
= = { + }

=
=

, ,

Donde la probabilidad conjunta de las 2 variables aleatorias esta definida como:

fx,y(x,y)
Es importante antes de continuar definir la funcin de distribucin conjunta como la probabilidad del evento conjunto
, : , (, ) = { , }

De aqu la funcin de densidad conjunta est denotada como fx,y(x,y) y est definida por la segunda derivada de la funcin de distribucin conjunta
2 , ( , ) ( , ) = ,

Regresando a la funcin de distribucin de la suma de 2 variables aleatorias independientes, por definicin la funcin de densidad de 2 variables aleatorias independientes es
, ( , ) = ( ) ( )

Por tanto:

( ) =

()
=

Se puede aplicar la regla de Leibniz para llegar a

() =

Esta expresin es conocida como la integral de convolucin. Por lo tanto se dice que la funcin de densidad de 2 variables aleatorias estadsticamente independientes es la convolucin de sus funciones de densidad individuales.
Suma de ms de 2 variables aleatorias El resultado obtenido para la suma de 2 variables aleatorias independientes se puede atender a la suma de N variables aleatorias independientes. Esto es para :

Y =X1+X2+X3++XN
La funcin de densidad esta dada por
= 1 1 . 1 1

Teorema del Lmite Central


El teorema del lmite central establece que la funcin de densidad de la suma de un gran nmero de variables aleatorias se aproxima a una distribucin gaussiana. Aunque el teorema se aplica en algunos casos a la suma de variables aleatorias dependientes la mayora de las aplicaciones de las que se tiene conocimiento estn relacionadas con la suma de variables aleatorias estadsticamente independientes.

1.5 Procesos Estocsticos


Muchos de los fenmenos aleatorios que ocurren en la naturaleza son funciones del tiempo . Por ejemplo algunos fenmenos meteorolgicos como las fluctuaciones de la temperatura del aire, la presin, etc. En una circuito el voltaje del nudo trmico generado en un resistor es tambin funcin del tiempo. Una seal de audio que es transmitido sobre un canal telefnico tambin funcin del tiempo. En el estudio de sistemas digitales de comunicacin encontraremos la presencia de seales aleatorias que varan con el tiempo, as tenemos las generadas por las fuentes de informacin, o bien a el modelado y caracterizacin del canal de comunicaciones, el ruido generado en el receptor y en el procesamiento en el receptor de la seal

Todos estos ejemplos son procesos estocsticos Denotaremos entonces con X(t) A la variables aleatoria en funcin del tiempo que representa nuestro proceso estocstico. Por definicin un proceso estocstico X(t) es un ensamble de funciones muestra o variables aleatorias en distintos instantes
1 > 2 > 3 > . >

En general el proceso estocstico X(t) estar caracterizado por las variables aleatorias ( ) = 1,2, , Al mismo tiempo el proceso estocstico estar caracterizado por la funcin de densidad conjunta
( , , . . , , )

1.5.1 Procesos Estocsticos Estacionarios


Suponga las variables aleatorias Xti y Xti+t obtenidos del proceso estocstico X(t) en cualquier instante 1 > 2 > 3 > . > y caracterizado estadsticamente por su PDF ( , , . . , , ) . Si Xti =X(ti) y Xti+t =X(ti+t) y se cumple que
1 , 2 , . . , = ( 1+ , 2+ , . , + )

Se dice que el proceso es estacionario en el sentido estricto. Esto significa que la estadstica de un proceso estocstico es invariante para cualquier traslacin con respecto al eje del tiempo. Cuando las PDFs son distintas el proceso es no estacionario

1.5.2 Promedios Estadsticos de un Proceso Estocstico


Los promedios estadsticos de un proceso estocstico se conocen como los promedios de ensamble. Suponiendo que X(t) denota el proceso aleatorio Xti =X(ti) . El n-simo momento de la variable aleatoria Xti esta definido como:

En general el valor del n-simo momento depender de el instante ti. Cuando el proceso es estacionario, sabemos que f(Xti+t) = f(Xti) para todo t. la PDF es independiente del tiempo y en consecuencia el nsimo momento es independiente del tiempo. Por otra parte, consideraremos las dos variables aleatorias Xti =X(ti) i=1,2, la correlacin entre Xt1 y Xt2 es medida a travs del

Momento conjunto

, 2 =

2 1 , 2 1 2

Este momento conjunto es tambin denotado como

(1 , 2 ) .

Procesos Estocsticos
. Una variable aleatoria real es una regla de correspondencia entre los resultados de un experimento aleatorio y puntos en la recta de nmeros reales R, y se denota por X(). . Un proceso estocstico real es una regla de correspondencia entre los resultados de un experimento aleatorio y funciones reales del tiempo, y se denota por X(t, ), donde t representa tiempo. . Una seal aleatoria es un proceso estocstico, esto es , un conjunto de funciones del tiempo. -------------------------------------------------------

También podría gustarte