P. 1
Teoria de La Probabilidad y Procesos Estocasticos

Teoria de La Probabilidad y Procesos Estocasticos

|Views: 1.120|Likes:
Publicado pordog_gy

More info:

Published by: dog_gy on Sep 10, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

08/21/2013

pdf

text

original

TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS La teoría de la probabilidad es, junto con la teoría de señales, uno de los dos pilares matemáticos

sobre los que se asienta el análisis de sistemas de comunicaciones digitales. En este capítulo se presentan nociones básicas de probabilidad y procesos aleatorios. Se revisan los conceptos de variable aleatoria y procesos estocásticos y sus propiedades, en particular aquellas de interés en comunicaciones digitales. PROBABILIDAD El concepto de probabilidad está ligado a realización (física o mental) de un experimento “aleatorio”, entendiéndose por tal un experimento cuyo resultado es desconocido (es decir, no predecible) por un observador. Suele ponerse el ejemplo de lanzamiento de un dado: el resultado puede ser cualquier número entre 1 y 6, pero es a priori impredecible ni siquiera por el lanzador. La probabilidad es una medida de la incertidumbre que, para un observador, tiene el resultado de un experimento, y es, por tanto, una medida subjetiva: así, por ejemplo, el contenido de un mensaje enviado a través de un canal de comunicaciones digitales es completamente desconocido por el receptor antes de iniciarse la comunicación, pero no por el transmisor, que puede predecirlo con exactitud en la medida que “conoce” el mensaje transmitido. El desconocimiento puede ser total o parcial. Si consideramos el experimento “lanzar dos dados y sumar sus puntos”, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible, pero también sabemos que el 7 es un resultado más “esperable” que el 2. Lo sabemos por naturaleza del experimento o por información estadística. La probabilidad es pues esencialmente, una medida de incertidumbre sobre el resultado del experimento y es, por tanto, dependiente de la cantidad de información disponible por el observador en cada momento. Para acercarnos a una definición más formal, se precisan varios elementos: Un espacio muestral, Ω, que es el conjunto de todos los resultados posibles de un experimento aleatorio. Un conjunto de sucesos, Φ= {S, S ⊂ Ω}. Un suceso es cualquier subconjunto de Ω1. Ejemplos de sucesos en el ejemplo de los dados son que la suma sea: 2, un número impar, un número menor que 8, etc. En total hay 211 posibles sucesos. Definimos ahora una medida de probabilidad Pr como toda una funcion que, aplicada sobre cualquier suceso S ⊂ Ω, devuelve un numero real Pr{S} que verifica las siguientes propiedades P1. 0< Pr {S}<1 P2. Pr {φ}=0 P3. Pr {Ω}=1

se verifica = Asignación de probabilidades a sucesos Supongamos que el experimento aleatorio puede repetirse un número indefinido de veces. suponiendo que la probabilidad de cada posible resultado es 1/6. tras N repeticiones del experimento. además.2 La asignación de probabilidades a los 6 resultados posibles del lanzamiento del dado permite calcular un valor de probabilidad para cualquier otro suceso. Pr es una buena medida de incertidumbre sobre el resultado del experimento si dado cualquier suceso S ⊂ Ω. efectivamente. lo que nos invita a hacer la asignación Pr {1} = Pr {2} =… = Pr {6} = 1/6. tenemos la oportunidad de ensayar el lanzamiento de este dado cierto numero N de veces. Ejemplo 3. siendo un dado no cargado esencialmente simétrico. En apoyo de esta asignación está el hecho de que ha resultado ser razonablemente acertada con otros muchos dados anteriormente. Diremos que una probabilidad Pr es un buen modelo de incertidumbre para dicho experimento en la medida en que sea capaz de predecir con exactitud la frecuencia con la que se repiten los diferentes sucesos del experimento. Pero. denominado Ns al número de veces que se produce algún resultado que está en S. piénsese que ninguna de estas evidencias es definitiva a favor del modelo equiprobable frente a todos los posibles. el cociente Ns/N converge a P{S} cuando N tiende a infinito. Dado un conjunto finito (o infinito numerable) de sucesos Si ε Φ disjuntos (Si ∩ Sj = φ).1 Considere el experimento consistente en lanzar un dado no cargado y mirar el resultado: un número entero entre 1 y 6. podemos confiar en la bondad de esta asignación. por ejemplo. en todo caso. no hay razón para pensar que uno de los resultados tenga mayores oportunidades de producirse que el otro. podremos comprobar si. Así. la probabilidad de que se obtenga un número par será 2 ∪ 4 ∪ 6 = 2 + 4 + 6 = 1 2 . Ejemplo 3. Es decir. Si. Si es así. la frecuencia de “5” o de cualquier otro resultado se parece a 1/6. y que el resultado de cada experimento es independiente de los demás. ¿Cómo asignar probabilidades al suceso “5”? la física del problema sugiere que.P4.

siΩ’ es continuo. Ejemplo 3. sucesos formados por un solo resultado posible). La diferencia entre variables discretas y continuas es sustancial. es también un suceso) respetando las propiedades 1 a 3.VARIABLES ALEATORIAS Estrictamente hablando. finito o infinito numerable). = 0. que asigna a cada posible resultado un numero. la notación suele simplificarse y. − 1 . . ξ ∈ Ω ⊂ ℝ). A consecuencia de imperfecciones del canal. de forma general escribiremos X. a un receptor distante a través de un canal de comunicaciones digitales. la secuencia de dígitos binarios detectada en recepción. el espacio muestral original se proyecta sobre un subconjunto de la recta real. suele preferirse caracterizar la variable aleatoria X a partir de los sucesos de la forma ≤ . Como hemos visto anteriormente. considere el experimento consistente en comparar las secuencias transmitida y recibida y determinar cuál de los resultados siguientes se ha producido: = “Hay errores de transmisión”. Si llamamos Ω’ al espacio muestral imagen ( es decir. es posiblemente diferente a la transmitida. podemos distinguir entre: Variables aleatorias discretas:Ω’ es discreto (es decir. … . por tanto. si el espacio muestral imagen es finito o infinito numerable. o contiene algún subconjunto continuo. En la práctica. Ω = X(ξ). Además. simplemente. Dado el resultado ∈ Ω. de acuerdo con la definición anterior. Puede definirse la variable aleatoria Z dada por Ζ( ) = 0 y Ζ( )=1. no es posible calcular su probabilidad a partir de las probabilidades de los sucesos atómicos. De este modo. = 0. Ζ = 1 es la probabilidad de que se haya producido algún error en la transmisión. ¡la mayoría de los sucesos atómicos tienen probabilidad nula! Cuando Ω’ es continuo. que llamaremos espacio muestral imagen. variable aleatoria es toda aplicación de Ω en la recta real. La función que devuelve la probabilidad de este suceso para cada valor de X se denomina función de distribución acumulada o. y calcular las probabilidades de los demás sucesos aplicando la propiedad 4. … . Variables aleatorias continuas:Ω’ es continuo. Sin embargo. Lo último es posible porque puede construirse cualquier suceso mediante la unión contable de sucesos atómicos (esto es. para caracterizar la variable aleatoria en términos probabilísticos es suficiente con asignar un valor de probabilidad a cada posible resultado (que. omitiendo el argumento. Para evaluar el rendimiento de la comunicación. − 1 . la variable aleatoria X tomara un valor ( ) ∈ ℝ. Mediante el uso de variables aleatorias. función de distribución . .3 Un transmisor envía una secuencia de dígitos binarios (ceros y unos). o bien = “No hay errores de transmisión”. aquellos sucesos que contengan un conjunto infinito y no numerable de resultados posibles no pueden construirse como unión contable de sucesos atómicos y.

la probabilidad del =1 . Por el contrario. Si la variable es discreta. aunque la primera se aplica a sucesos y la segunda a números. conociendo su distribución puede calcularse la probabilidad de cualquier caso. que se conoce como función de densidad de probabilidad (abreviadamente. si X puede tomar los valores )=1 Probabilidad y distribución de probabilidades son esencialmente lo mismo. P4. Así. (3) = . 0 ≤ P2. Dada una variable aleatoria discreta X. devuelve su probabilidad. la densidad de probabilidad define completamente una variable aleatoria. Por ejemplo. si la variable aleatoria es continua. P3. por ejemplo. la distribución de probabilidades no resulta útil. y suele recurrirse a la función de distribución acumulada o bien a su derivada. como aquella que. P2. en el sentido de que permite calcular la probabilidad de cualquier suceso. se define su distribución de probabilidades (o simplemente distribución).La función de distribución tiene las siguientes propiedades. fdp) ( )= ( )≥0 ( )= ( ) ( ) Las siguientes propiedades son una consecuencia inmediata de esta definición. y de las propiedades de la función de distribución enunciadas anteriormente: P1. ( ) Además. que se deducen directamente de su definición: P1. P3. para cada posible valor x de X. (∞) = 1 ( )≤1 ( )= ≤ (−∞) = 0 Distribución de probabilidades y función de densidad de probabilidad ( ) es una función monótona creciente ( ( )≤ ( ) si < ).0 ≤ ≤ ( =3 − 1 resulta Obviamente. que llamaremos ( ).

Supongamos. el valor supremo). … . la probabilidad del suceso ∈ ( + ∆) − ∆ < se puede calcular como La propiedad (3. puede definirse la función de probabilidad acumulada (o de distribución) de una variable discreta. que se observan N realizaciones . Suponiendo < <⋯< . = 0. Para completar el paralelismo entre variables discretas y continuas. − 1 de la variable aleatoria X. 0 ≤ i ≤ M − 1 se define como = = ( ) La esperanza matemática también tiene una interpretación frecuencial. en virtud de la propiedad 4. el promedio de todas ellas será . y las continuas mediante su función de densidad de probabilidad. dada por ( ) = ≤ = ( ). puede escribirse ( ) = ( ) − ( ). Esperanza matemática La media o esperanza matemática de la variable aleatoria discreta X de espacio muestral Ω = x .suceso < partición ≤ se puede calcular teniendo en cuenta que el conjunto ≤ = = = ≤ ≤ ( )− = ∈ ∪ + < ≤ < ( )= ( ) ≤ ( ) ≤ admite la Luego. La función de distribución cumple ( ) = 1. por tanto ≤ ≤ De forma general. por ejemplo. Y. ( ).9) puede ayudarnos a interpretar la función derivada. las variables aleatorias discretas pueden caracterizarse mediante su distribución de probabilidades. ( ) = lim ∆→ ( ) ( ): partiendo de la definición de < ≤ ∆ +∆ = lim ∆→ La expresión final explica la denominación de “densidad de probabilidad” para Resumiendo. donde es el máximo valor posible de X (estrictamente hablando. Asimismo. las probabilidades pueden expresarse a partir de la función de distribución.

resulta = 1 Siendo el numero de sumandos iguales a . ( ) = ( ) ( ) ( )a Existiendo algunos casos particulares de especial interés: • • • • Valor cuadrático medio: Varianza: = ( − ) = − Momento de orden : Momento central de orden : ( − ) = Y. en general. . Dado que el cociente Ni/N se aproxima a medida que aumenta N. La esperanza matemática puede aplicarse a cualquier función de X.= Agrupando los sumandos iguales. el promedio se aproxima a la media. ( ) = ( ) ( ) = De modo análogo se escribe la esperanza matemática de una variable aleatoria continua: ( ) Los casos particulares definidos anteriormente también son de aplicación a variables continuas.

X es una variable aleatoria de espacio muestral Ω = 0. = 0 y = 1. con distribución de probabilidades ( )= (1 − ) = ! ! ( − )! = 0. Geométrica. Una variable aleatoria X se dice de Bernoulli si su espacio muestral tiene solamente dos elementos: Ω = . Binomial. puede demostrarse que.1. esta variable aleatoria resulta útil en comunicaciones para analizar sucesos del tipo “Se ha transmitido un bit de valor 1” o bien “El mensaje recibido contiene errores”.2. con probabilidades ( )=1− ( )= Habitualmente. … . … . . La distribución geométrica surge. Supongamos que cierto experimento aleatorio se repite n veces (independientes). en cuyo caso la distribución de probabilidades admite una representación más compacta: ( ) = (1 − ) La ocurrencia o no de cierto suceso S en un experimento aleatorio puede modelarse como una variable de Bernoulli dada por • • X(“se ha producido S”) = 1 X(“no se ha producido S”) = 0 Así. Su media es . La distribución de probabilidades viene dada por ( ) = (1 − ) ≥0 Donde es un parámetro de la distribución. Las distribuciones de esta forma se denominan binomiales. por ejemplo. cuando se desea evaluar la primera vez que se produce un suceso S de probabilidad p es una sucesión infinita de realizaciones independientes de . por ejemplo. y desea evaluarse el número de veces que se produce cierto suceso S de probabilidad = . en tal caso. .DISTRIBUCIONES DE INTERES Variables Aleatorias Discretas Bernoulli. Considerando la variable aleatoria X que toma el valor k si el suceso S se ha producido k veces. El espacio muestral de la distribución geométrica es el conjunto de todos los enteros no negativos.

podemos escribir = − (1 − ) − (1 − ) = 1 1 −1 −1 (1 − ) La distribución geométrica es útil en comunicaciones digitales para estimar el tiempo medido transcurrido antes de producirse un error en una transmisión digital. y su función de probabilidad se define como ( )= ! Su medida y su varianza coinciden con λ.cierto experimento aleatorio. Su valor medio (que es el tiempo medido de aparición del suceso) puede calcularse como = ( )= (1 − ) (1 − ) Sabiendo que (1 − ) =− (1 − ) . Una variable continua X se denomina uniforme si su función de densidad de probabilidad tiene la forma ( )= Su media es = Y su varianza ( − ) = 1 − ( − ) = 1 − ( − ) ( − ) − 3 3 1 . Variables aleatorias continuas ≥0 Uniforme. La variable aleatoria de Poisson también toma valores enteros no negativos. − 0. Poisson. = ≤ 1 − ≤ + 2 = .

La probabilidad de que supere un valor x se calcula como ≥ = ( ) = 1 2 La integral en la ecuación anterior no tiene solución analítica. . . es un buen modelo del ruido en numerosos dispositivos eléctricos y electrónicos.= Gausiana.2 muestra estas cotas junto a la función Q. Las cotas superiores más utilizadas son ( )≤ ≥0 ( )< Y una inferior es ( )< ≥0 ≥0 1− La figura 3. conocida por función de Q. La distribución gausiana es un buen modelo para muchos procesos aleatorios presentes en la naturaleza. donde podemos apreciar que tanto las ecuaciones anteriores con muy ajustadas para valores grandes de x. observe además que el termino dominante para valores grandes de x en las tres cotas es el mismo. Una variable continua X se dice gausiana o normal si su función de densidad de probabilidad tiene la forma ( )= 1 2 ( ) 1 ( − ) 12 Su media coincide con el valor del parámetro µ y su varianza con . que se define como ( )= 1 2 Una alternativa al uso de tablas o aproximaciones numéricas de la función Q consiste en el establecimiento de cotas superiores e inferiores de la misma. sin embargo se dispone de la solución en forma de una función tabulada. y en sistemas de comunicaciones digitales. En particular. La variable gausiana de media cero y varianza unidad se conoce como una variable normal unitaria.

>0 La distribución exponencial se utiliza frecuentemente para el modelado de la duración media de paquetes de datos. Es la distribución Gamma de parámetro ( )= . por = + sigue una distribución Rayleigh con = 2 . = 1. >0 >0 Gamma. Variables de este tipo las encontramos con frecuencia en ciertos detectores en comunicación digitales. Una variable Weibull de parámetros ≥ 0 y densidad de probabilidad ( )= ( ) ≥ 0 se caracteriza por una función de . Lognormal.Weibull. • Distribución Chi-cuadrado ( ). la variable dada y se define por . En este caso. ≥0 En el caso = 2 y Rayleigh = 1/ . La variable aleatoria de tipo gamma de parámetros b y > 0 se define por Donde Γ( ) = • es la función de Gamma. La función densidad de probabilidad lognormal de parámetros ( )= ( )= ( ) ( ) Alternativamente. podemos definir una variable aleatoria de tipo Rayleigh a partir de dos variables gausianas: si y son gausianas independientes de media cero y varianza . la fdp en la ecuación de Gamma antes mencionada se reduce a . Se dice que una variable aleatoria tiene una distribución con grados de libertad si se ajusta a una distribución Gamma con los parámetros = 1/2 y = /2. ≥0 Que es la derivada de una función de distribución de expresión más sencilla: ( )=1− ( ) . la fdp en la ecuación se simplifica en una distribución conocida como ( )= ≥0 . resultando Hay dos casos particulares de especial interés: Distribución exponencial.

a su vez. que es una función estrictamente creciente. otra variable aleatoria. = ( ) es otra variable ) . un razonamiento análogo conduce a ( )= ≤ = ≥ ℎ( ) = 1 − (ℎ( )) ( )= ≤ ℎ( ) = (ℎ( )) . respectivamente.…. resulta ( )= = = Si la transformación no es uno a uno (porque para uno o mas ≠ ).….También podemos definir una variable aleatoria tipo con grados de libertad como la suma de los cuadrados de variables aleatorias normales unitarias independientes: sean . ( )= 0≤ <∞ Función de una variable aleatoria Cualquier transformación sobre una variable aleatoria es. … . variables aleatorias gausianas de media nula y varianza unidad independientes entre sí. según se trate de una variable discreta o continua. . . puede definirse la función inversa = ℎ( ) = ( ). y la ecuación anterior se reescriben como Por el contrario. puede escribirse ( )= ≤ = una variable aleatoria continua e ( )≤ Supongamos. Note que la distribución con dos grados de libertad ( = 2) es un caso particular de una distribución de Rayleigh. si la transformación es = se verifica que ( ) = ( ( ) Si es una variable discreta de espacio muestral Ω = aleatoria de dominio Ω = = ( ). Sea = ( ). A partir de aquí podemos también definir la distribución distribución . se comprueba fácilmente que ( )= ( ) = ( ) ) con El análisis en el caso continuo es algo más complejo. Además. caracterizable por su función de probabilidad o de densidad de probabilidad. Entonces. que seria la que posee la variable = . en primer lugar. esta posee una con grados de libertad. si definimos la variable aleatoria como = + ⋯+ . = ( invertible. si es estrictamente decreciente. En tal caso.

para = ( ). es una variable lognormal.Derivando las dos ecuaciones inmediatas anteriores. según se trate de una función creciente o decreciente. (ln( )) = y varianza . de modo análogo al caso discreto: la fdp resulta de la suma ( )= ( ) ( ) ( ) . ℎ( ) ( ) La ecuación ( )= (ℎ( )) ( ) = ( ) puede reescribirse como ( ) = ℎ( ) ( )= Esta expresión puede generalizarse para funciones con tramos crecientes y decrecientes. la variable ( ( ) ) (ℎ( )) ℎ( ) = tiene una >0 Y por tanto. resulta ( )= Ejemplo 3.4 Si es una variable aleatoria gausiana de media distribución ( )= Sabiendo que.

( ) = ( ) ( ) Cabe preguntarse si ambos procedimientos conducen al mismo resultado.Ejemplo 3. supondremos que es una función estrictamente creciente. La función y en el tramo creciente es ( ) Obtenemos ( ) ( ) + = −2 2 + 2 ( ) Si es una variable aleatoria gausiana de media ( )= 2 2 1 ( y varianza ) .5 Considere la variable aleatoria = ℎ( ) = ( ) tiene como derivada ( ) ( > 0). Llamando ℎ = a su inversa. Para simplificar. En el tramo decreciente la función inversa es . y haciendo el cambio de variable = ( ). = ( ) = ( ) puede calcularse O bien como esperanza matemática de ( ). Aplicando ( )= ( )= = 2 y un tramo decreciente ( < 0) y un tramo creciente con fdp = ℎ( ) = − ( ) ) ( ) (− 2 ( ) y la variable aleatoria = ( )= . ( ) + Esperanza matemática De acuerdo con la definición de esperanza matemática. la integral inmediata anterior puede escribirse como ( ) = (ℎ( )) (ℎ( )) . la media de por dos procedimientos: como esperanza matemática de .

que la variable aleatoria continua tiene media y varianza . si es el resultado de lanzar el dado 1 y es el resultado de lanzar el dado 2. la media de es = = + = ( + ) ( ) + = ( ) + Y su varianza = − ( − ) = ( + − ) = ( − ) = Variables aleatorias conjuntamente distribuidas Considere el experimento consistente en lanzar dos dados y observar el resultado. “ = 4” como = 6. Si estamos interesados en el valor que toma cada dado. y su probabilidad puede medirse recurriendo a la probabilidad de la ocurrencia simultanea de dos dados específicos. podemos definir la función de probabilidad . Un caso particular de interés es aquel en el que la relación entre las variables es lineal. Esta propiedad es válida para cualquier función . siendo y constantes conocidas. por ejemplo.Sabiendo que (ℎ( )) Resulta ( ) = (ℎ( )) = ℎ( ) ℎ( ) ( ) Por último. su inversa también lo es. Supongamos. De forma general. no necesariamente creciente. podemos calcular las probabilidades de la configuración “ = 6”. Por ejemplo. el valor medio es independiente de la variable que se utilice para su cálculo. de modo que resulta ( ) = ( )= ( ) (ℎ( )) ℎ( ) y teniendo en cuenta que. si = ℎ( ) ( ) es estrictamente = ( ). en virtud de creciente. y se define la variable = + . De acuerdo con la ecuación inmediata anterior. el “resultado” es la combinación de los resultados de cada dado. = 4 . Por tanto.

denotaremos esta . Esta operación suele denominarse marginalización.…. De forma general. devuelve la probabilidad del En cuyo caso la función de probabilidad conjunta admite la representación A partir de esta definición.….conjunta suceso “ De forma general. . su probabilidad de ocurrencia simultanea. ( . … . por ejemplo.…. ( ) . ). = 0. = ( . puede construirse el vector aleatorio función como = ⋮ Variables discretas .…. se define la función de probabilidad conjunta de las variables en como aquella función que devuelve. y . … )= … = ∈ . Así. . ) ) ∈ ∈ ∈ de un vector aleatorio = tiene una definición similar al de una variable escalar ∈ … ∈ . no es difícil demostrar que la función de probabilidad asociada a un subconjunto de las variables en se puede obtener a partir de la probabilidad conjunta.…. dada una colección de variables aleatorias = .…. Asimismo. ”y“ ) que. para cada posible valor de = ”. ( . para cada configuración posible de valores de las variables.…. ( . . mediante suma sobre todos los valores posibles de las otras variables.…. Ó ( )= La media ∈ ( ). ( . − 1 de espacios muestrales ∈ ℝ. respectivamente.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->