TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS La teoría de la probabilidad es, junto con la teoría de señales, uno de los dos pilares matemáticos

sobre los que se asienta el análisis de sistemas de comunicaciones digitales. En este capítulo se presentan nociones básicas de probabilidad y procesos aleatorios. Se revisan los conceptos de variable aleatoria y procesos estocásticos y sus propiedades, en particular aquellas de interés en comunicaciones digitales. PROBABILIDAD El concepto de probabilidad está ligado a realización (física o mental) de un experimento “aleatorio”, entendiéndose por tal un experimento cuyo resultado es desconocido (es decir, no predecible) por un observador. Suele ponerse el ejemplo de lanzamiento de un dado: el resultado puede ser cualquier número entre 1 y 6, pero es a priori impredecible ni siquiera por el lanzador. La probabilidad es una medida de la incertidumbre que, para un observador, tiene el resultado de un experimento, y es, por tanto, una medida subjetiva: así, por ejemplo, el contenido de un mensaje enviado a través de un canal de comunicaciones digitales es completamente desconocido por el receptor antes de iniciarse la comunicación, pero no por el transmisor, que puede predecirlo con exactitud en la medida que “conoce” el mensaje transmitido. El desconocimiento puede ser total o parcial. Si consideramos el experimento “lanzar dos dados y sumar sus puntos”, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible, pero también sabemos que el 7 es un resultado más “esperable” que el 2. Lo sabemos por naturaleza del experimento o por información estadística. La probabilidad es pues esencialmente, una medida de incertidumbre sobre el resultado del experimento y es, por tanto, dependiente de la cantidad de información disponible por el observador en cada momento. Para acercarnos a una definición más formal, se precisan varios elementos: Un espacio muestral, Ω, que es el conjunto de todos los resultados posibles de un experimento aleatorio. Un conjunto de sucesos, Φ= {S, S ⊂ Ω}. Un suceso es cualquier subconjunto de Ω1. Ejemplos de sucesos en el ejemplo de los dados son que la suma sea: 2, un número impar, un número menor que 8, etc. En total hay 211 posibles sucesos. Definimos ahora una medida de probabilidad Pr como toda una funcion que, aplicada sobre cualquier suceso S ⊂ Ω, devuelve un numero real Pr{S} que verifica las siguientes propiedades P1. 0< Pr {S}<1 P2. Pr {φ}=0 P3. Pr {Ω}=1

denominado Ns al número de veces que se produce algún resultado que está en S. Ejemplo 3.P4. y que el resultado de cada experimento es independiente de los demás. por ejemplo. el cociente Ns/N converge a P{S} cuando N tiende a infinito. efectivamente. se verifica = Asignación de probabilidades a sucesos Supongamos que el experimento aleatorio puede repetirse un número indefinido de veces. además. piénsese que ninguna de estas evidencias es definitiva a favor del modelo equiprobable frente a todos los posibles. Pr es una buena medida de incertidumbre sobre el resultado del experimento si dado cualquier suceso S ⊂ Ω. siendo un dado no cargado esencialmente simétrico. Dado un conjunto finito (o infinito numerable) de sucesos Si ε Φ disjuntos (Si ∩ Sj = φ). tras N repeticiones del experimento. podemos confiar en la bondad de esta asignación. suponiendo que la probabilidad de cada posible resultado es 1/6. En apoyo de esta asignación está el hecho de que ha resultado ser razonablemente acertada con otros muchos dados anteriormente. Si es así. Ejemplo 3. Así. lo que nos invita a hacer la asignación Pr {1} = Pr {2} =… = Pr {6} = 1/6. Si. tenemos la oportunidad de ensayar el lanzamiento de este dado cierto numero N de veces.1 Considere el experimento consistente en lanzar un dado no cargado y mirar el resultado: un número entero entre 1 y 6. Pero. la frecuencia de “5” o de cualquier otro resultado se parece a 1/6. en todo caso. no hay razón para pensar que uno de los resultados tenga mayores oportunidades de producirse que el otro. Diremos que una probabilidad Pr es un buen modelo de incertidumbre para dicho experimento en la medida en que sea capaz de predecir con exactitud la frecuencia con la que se repiten los diferentes sucesos del experimento. Es decir.2 La asignación de probabilidades a los 6 resultados posibles del lanzamiento del dado permite calcular un valor de probabilidad para cualquier otro suceso. la probabilidad de que se obtenga un número par será 2 ∪ 4 ∪ 6 = 2 + 4 + 6 = 1 2 . podremos comprobar si. ¿Cómo asignar probabilidades al suceso “5”? la física del problema sugiere que.

para caracterizar la variable aleatoria en términos probabilísticos es suficiente con asignar un valor de probabilidad a cada posible resultado (que. o contiene algún subconjunto continuo. … . la notación suele simplificarse y. siΩ’ es continuo. sucesos formados por un solo resultado posible). y calcular las probabilidades de los demás sucesos aplicando la propiedad 4. Si llamamos Ω’ al espacio muestral imagen ( es decir. omitiendo el argumento. ¡la mayoría de los sucesos atómicos tienen probabilidad nula! Cuando Ω’ es continuo. la secuencia de dígitos binarios detectada en recepción. por tanto. ξ ∈ Ω ⊂ ℝ). si el espacio muestral imagen es finito o infinito numerable. la variable aleatoria X tomara un valor ( ) ∈ ℝ. es posiblemente diferente a la transmitida. Como hemos visto anteriormente. De este modo. que asigna a cada posible resultado un numero. de forma general escribiremos X. Para evaluar el rendimiento de la comunicación. = 0. no es posible calcular su probabilidad a partir de las probabilidades de los sucesos atómicos. finito o infinito numerable). Sin embargo. … . La función que devuelve la probabilidad de este suceso para cada valor de X se denomina función de distribución acumulada o. podemos distinguir entre: Variables aleatorias discretas:Ω’ es discreto (es decir. es también un suceso) respetando las propiedades 1 a 3. suele preferirse caracterizar la variable aleatoria X a partir de los sucesos de la forma ≤ . Ζ = 1 es la probabilidad de que se haya producido algún error en la transmisión. La diferencia entre variables discretas y continuas es sustancial. A consecuencia de imperfecciones del canal.VARIABLES ALEATORIAS Estrictamente hablando. o bien = “No hay errores de transmisión”. el espacio muestral original se proyecta sobre un subconjunto de la recta real. variable aleatoria es toda aplicación de Ω en la recta real. Ω = X(ξ).3 Un transmisor envía una secuencia de dígitos binarios (ceros y unos). Dado el resultado ∈ Ω. Además. a un receptor distante a través de un canal de comunicaciones digitales. función de distribución . que llamaremos espacio muestral imagen. − 1 . aquellos sucesos que contengan un conjunto infinito y no numerable de resultados posibles no pueden construirse como unión contable de sucesos atómicos y. Ejemplo 3. = 0. En la práctica. Variables aleatorias continuas:Ω’ es continuo. Mediante el uso de variables aleatorias. Lo último es posible porque puede construirse cualquier suceso mediante la unión contable de sucesos atómicos (esto es. . considere el experimento consistente en comparar las secuencias transmitida y recibida y determinar cuál de los resultados siguientes se ha producido: = “Hay errores de transmisión”. de acuerdo con la definición anterior. − 1 . . simplemente. Puede definirse la variable aleatoria Z dada por Ζ( ) = 0 y Ζ( )=1.

(∞) = 1 ( )≤1 ( )= ≤ (−∞) = 0 Distribución de probabilidades y función de densidad de probabilidad ( ) es una función monótona creciente ( ( )≤ ( ) si < ). que se conoce como función de densidad de probabilidad (abreviadamente. para cada posible valor x de X. fdp) ( )= ( )≥0 ( )= ( ) ( ) Las siguientes propiedades son una consecuencia inmediata de esta definición. P3. por ejemplo. aunque la primera se aplica a sucesos y la segunda a números. Por el contrario. Así. la probabilidad del =1 . en el sentido de que permite calcular la probabilidad de cualquier suceso. como aquella que. Por ejemplo. P4. P2. si la variable aleatoria es continua. y de las propiedades de la función de distribución enunciadas anteriormente: P1. si X puede tomar los valores )=1 Probabilidad y distribución de probabilidades son esencialmente lo mismo. y suele recurrirse a la función de distribución acumulada o bien a su derivada. 0 ≤ P2. la densidad de probabilidad define completamente una variable aleatoria. Dada una variable aleatoria discreta X.0 ≤ ≤ ( =3 − 1 resulta Obviamente. P3.La función de distribución tiene las siguientes propiedades. que se deducen directamente de su definición: P1. conociendo su distribución puede calcularse la probabilidad de cualquier caso. se define su distribución de probabilidades (o simplemente distribución). (3) = . que llamaremos ( ). ( ) Además. Si la variable es discreta. devuelve su probabilidad. la distribución de probabilidades no resulta útil.

= 0. que se observan N realizaciones . donde es el máximo valor posible de X (estrictamente hablando. la probabilidad del suceso ∈ ( + ∆) − ∆ < se puede calcular como La propiedad (3. ( ). por tanto ≤ ≤ De forma general. Suponiendo < <⋯< . 0 ≤ i ≤ M − 1 se define como = = ( ) La esperanza matemática también tiene una interpretación frecuencial. Supongamos. el valor supremo). Para completar el paralelismo entre variables discretas y continuas. ( ) = lim ∆→ ( ) ( ): partiendo de la definición de < ≤ ∆ +∆ = lim ∆→ La expresión final explica la denominación de “densidad de probabilidad” para Resumiendo. puede definirse la función de probabilidad acumulada (o de distribución) de una variable discreta. las probabilidades pueden expresarse a partir de la función de distribución. Esperanza matemática La media o esperanza matemática de la variable aleatoria discreta X de espacio muestral Ω = x . … . − 1 de la variable aleatoria X. las variables aleatorias discretas pueden caracterizarse mediante su distribución de probabilidades. el promedio de todas ellas será . La función de distribución cumple ( ) = 1. en virtud de la propiedad 4. y las continuas mediante su función de densidad de probabilidad.9) puede ayudarnos a interpretar la función derivada. Asimismo. dada por ( ) = ≤ = ( ). Y. por ejemplo.suceso < partición ≤ se puede calcular teniendo en cuenta que el conjunto ≤ = = = ≤ ≤ ( )− = ∈ ∪ + < ≤ < ( )= ( ) ≤ ( ) ≤ admite la Luego. puede escribirse ( ) = ( ) − ( ).

. resulta = 1 Siendo el numero de sumandos iguales a . Dado que el cociente Ni/N se aproxima a medida que aumenta N. en general. ( ) = ( ) ( ) ( )a Existiendo algunos casos particulares de especial interés: • • • • Valor cuadrático medio: Varianza: = ( − ) = − Momento de orden : Momento central de orden : ( − ) = Y. ( ) = ( ) ( ) = De modo análogo se escribe la esperanza matemática de una variable aleatoria continua: ( ) Los casos particulares definidos anteriormente también son de aplicación a variables continuas.= Agrupando los sumandos iguales. el promedio se aproxima a la media. La esperanza matemática puede aplicarse a cualquier función de X.

La distribución geométrica surge. Su media es . … . .1. con probabilidades ( )=1− ( )= Habitualmente. cuando se desea evaluar la primera vez que se produce un suceso S de probabilidad p es una sucesión infinita de realizaciones independientes de . y desea evaluarse el número de veces que se produce cierto suceso S de probabilidad = . por ejemplo. X es una variable aleatoria de espacio muestral Ω = 0. El espacio muestral de la distribución geométrica es el conjunto de todos los enteros no negativos. en cuyo caso la distribución de probabilidades admite una representación más compacta: ( ) = (1 − ) La ocurrencia o no de cierto suceso S en un experimento aleatorio puede modelarse como una variable de Bernoulli dada por • • X(“se ha producido S”) = 1 X(“no se ha producido S”) = 0 Así. Una variable aleatoria X se dice de Bernoulli si su espacio muestral tiene solamente dos elementos: Ω = . por ejemplo. = 0 y = 1. La distribución de probabilidades viene dada por ( ) = (1 − ) ≥0 Donde es un parámetro de la distribución. esta variable aleatoria resulta útil en comunicaciones para analizar sucesos del tipo “Se ha transmitido un bit de valor 1” o bien “El mensaje recibido contiene errores”. con distribución de probabilidades ( )= (1 − ) = ! ! ( − )! = 0. . en tal caso. … . Binomial. Las distribuciones de esta forma se denominan binomiales.2. Supongamos que cierto experimento aleatorio se repite n veces (independientes). puede demostrarse que. Geométrica.DISTRIBUCIONES DE INTERES Variables Aleatorias Discretas Bernoulli. Considerando la variable aleatoria X que toma el valor k si el suceso S se ha producido k veces.

Variables aleatorias continuas ≥0 Uniforme.cierto experimento aleatorio. y su función de probabilidad se define como ( )= ! Su medida y su varianza coinciden con λ. Su valor medio (que es el tiempo medido de aparición del suceso) puede calcularse como = ( )= (1 − ) (1 − ) Sabiendo que (1 − ) =− (1 − ) . La variable aleatoria de Poisson también toma valores enteros no negativos. Poisson. podemos escribir = − (1 − ) − (1 − ) = 1 1 −1 −1 (1 − ) La distribución geométrica es útil en comunicaciones digitales para estimar el tiempo medido transcurrido antes de producirse un error en una transmisión digital. = ≤ 1 − ≤ + 2 = . − 0. Una variable continua X se denomina uniforme si su función de densidad de probabilidad tiene la forma ( )= Su media es = Y su varianza ( − ) = 1 − ( − ) = 1 − ( − ) ( − ) − 3 3 1 .

conocida por función de Q. La variable gausiana de media cero y varianza unidad se conoce como una variable normal unitaria. . observe además que el termino dominante para valores grandes de x en las tres cotas es el mismo. La distribución gausiana es un buen modelo para muchos procesos aleatorios presentes en la naturaleza. La probabilidad de que supere un valor x se calcula como ≥ = ( ) = 1 2 La integral en la ecuación anterior no tiene solución analítica. En particular. donde podemos apreciar que tanto las ecuaciones anteriores con muy ajustadas para valores grandes de x.= Gausiana. Una variable continua X se dice gausiana o normal si su función de densidad de probabilidad tiene la forma ( )= 1 2 ( ) 1 ( − ) 12 Su media coincide con el valor del parámetro µ y su varianza con . . Las cotas superiores más utilizadas son ( )≤ ≥0 ( )< Y una inferior es ( )< ≥0 ≥0 1− La figura 3. y en sistemas de comunicaciones digitales. es un buen modelo del ruido en numerosos dispositivos eléctricos y electrónicos. sin embargo se dispone de la solución en forma de una función tabulada.2 muestra estas cotas junto a la función Q. que se define como ( )= 1 2 Una alternativa al uso de tablas o aproximaciones numéricas de la función Q consiste en el establecimiento de cotas superiores e inferiores de la misma.

Variables de este tipo las encontramos con frecuencia en ciertos detectores en comunicación digitales.Weibull. Lognormal. Es la distribución Gamma de parámetro ( )= . • Distribución Chi-cuadrado ( ). >0 La distribución exponencial se utiliza frecuentemente para el modelado de la duración media de paquetes de datos. En este caso. Una variable Weibull de parámetros ≥ 0 y densidad de probabilidad ( )= ( ) ≥ 0 se caracteriza por una función de . ≥0 Que es la derivada de una función de distribución de expresión más sencilla: ( )=1− ( ) . Se dice que una variable aleatoria tiene una distribución con grados de libertad si se ajusta a una distribución Gamma con los parámetros = 1/2 y = /2. ≥0 En el caso = 2 y Rayleigh = 1/ . resultando Hay dos casos particulares de especial interés: Distribución exponencial. = 1. por = + sigue una distribución Rayleigh con = 2 . la fdp en la ecuación de Gamma antes mencionada se reduce a . la fdp en la ecuación se simplifica en una distribución conocida como ( )= ≥0 . podemos definir una variable aleatoria de tipo Rayleigh a partir de dos variables gausianas: si y son gausianas independientes de media cero y varianza . La variable aleatoria de tipo gamma de parámetros b y > 0 se define por Donde Γ( ) = • es la función de Gamma. la variable dada y se define por . La función densidad de probabilidad lognormal de parámetros ( )= ( )= ( ) ( ) Alternativamente. >0 >0 Gamma.

si definimos la variable aleatoria como = + ⋯+ . puede escribirse ( )= ≤ = una variable aleatoria continua e ( )≤ Supongamos. respectivamente. … . según se trate de una variable discreta o continua. .…. en primer lugar. variables aleatorias gausianas de media nula y varianza unidad independientes entre sí. Entonces. se comprueba fácilmente que ( )= ( ) = ( ) ) con El análisis en el caso continuo es algo más complejo. y la ecuación anterior se reescriben como Por el contrario. resulta ( )= = = Si la transformación no es uno a uno (porque para uno o mas ≠ ). que es una función estrictamente creciente. En tal caso. Además.…. esta posee una con grados de libertad. ( )= 0≤ <∞ Función de una variable aleatoria Cualquier transformación sobre una variable aleatoria es.También podemos definir una variable aleatoria tipo con grados de libertad como la suma de los cuadrados de variables aleatorias normales unitarias independientes: sean . un razonamiento análogo conduce a ( )= ≤ = ≥ ℎ( ) = 1 − (ℎ( )) ( )= ≤ ℎ( ) = (ℎ( )) . si es estrictamente decreciente. a su vez. = ( ) es otra variable ) . si la transformación es = se verifica que ( ) = ( ( ) Si es una variable discreta de espacio muestral Ω = aleatoria de dominio Ω = = ( ). otra variable aleatoria. . Note que la distribución con dos grados de libertad ( = 2) es un caso particular de una distribución de Rayleigh. puede definirse la función inversa = ℎ( ) = ( ). A partir de aquí podemos también definir la distribución distribución . caracterizable por su función de probabilidad o de densidad de probabilidad. = ( invertible. que seria la que posee la variable = . Sea = ( ).

para = ( ). (ln( )) = y varianza . es una variable lognormal. de modo análogo al caso discreto: la fdp resulta de la suma ( )= ( ) ( ) ( ) . resulta ( )= Ejemplo 3. la variable ( ( ) ) (ℎ( )) ℎ( ) = tiene una >0 Y por tanto.Derivando las dos ecuaciones inmediatas anteriores.4 Si es una variable aleatoria gausiana de media distribución ( )= Sabiendo que. ℎ( ) ( ) La ecuación ( )= (ℎ( )) ( ) = ( ) puede reescribirse como ( ) = ℎ( ) ( )= Esta expresión puede generalizarse para funciones con tramos crecientes y decrecientes. según se trate de una función creciente o decreciente.

La función y en el tramo creciente es ( ) Obtenemos ( ) ( ) + = −2 2 + 2 ( ) Si es una variable aleatoria gausiana de media ( )= 2 2 1 ( y varianza ) . = ( ) = ( ) puede calcularse O bien como esperanza matemática de ( ). y haciendo el cambio de variable = ( ). Llamando ℎ = a su inversa.Ejemplo 3. supondremos que es una función estrictamente creciente. ( ) = ( ) ( ) Cabe preguntarse si ambos procedimientos conducen al mismo resultado. Para simplificar. ( ) + Esperanza matemática De acuerdo con la definición de esperanza matemática. Aplicando ( )= ( )= = 2 y un tramo decreciente ( < 0) y un tramo creciente con fdp = ℎ( ) = − ( ) ) ( ) (− 2 ( ) y la variable aleatoria = ( )= . la integral inmediata anterior puede escribirse como ( ) = (ℎ( )) (ℎ( )) .5 Considere la variable aleatoria = ℎ( ) = ( ) tiene como derivada ( ) ( > 0). En el tramo decreciente la función inversa es . la media de por dos procedimientos: como esperanza matemática de .

si es el resultado de lanzar el dado 1 y es el resultado de lanzar el dado 2. Por ejemplo. si = ℎ( ) ( ) es estrictamente = ( ).Sabiendo que (ℎ( )) Resulta ( ) = (ℎ( )) = ℎ( ) ℎ( ) ( ) Por último. y se define la variable = + . su inversa también lo es. Si estamos interesados en el valor que toma cada dado. podemos definir la función de probabilidad . “ = 4” como = 6. el valor medio es independiente de la variable que se utilice para su cálculo. siendo y constantes conocidas. que la variable aleatoria continua tiene media y varianza . podemos calcular las probabilidades de la configuración “ = 6”. Esta propiedad es válida para cualquier función . De acuerdo con la ecuación inmediata anterior. la media de es = = + = ( + ) ( ) + = ( ) + Y su varianza = − ( − ) = ( + − ) = ( − ) = Variables aleatorias conjuntamente distribuidas Considere el experimento consistente en lanzar dos dados y observar el resultado. Un caso particular de interés es aquel en el que la relación entre las variables es lineal. = 4 . De forma general. en virtud de creciente. por ejemplo. Por tanto. de modo que resulta ( ) = ( )= ( ) (ℎ( )) ℎ( ) y teniendo en cuenta que. el “resultado” es la combinación de los resultados de cada dado. Supongamos. y su probabilidad puede medirse recurriendo a la probabilidad de la ocurrencia simultanea de dos dados específicos. no necesariamente creciente.

( . no es difícil demostrar que la función de probabilidad asociada a un subconjunto de las variables en se puede obtener a partir de la probabilidad conjunta.….…. para cada configuración posible de valores de las variables. respectivamente. − 1 de espacios muestrales ∈ ℝ. Así.…. ).….conjunta suceso “ De forma general. ( . y . ( ) . su probabilidad de ocurrencia simultanea.…. denotaremos esta . Asimismo. De forma general. = 0. … . ”y“ ) que.…. . = ( . por ejemplo. mediante suma sobre todos los valores posibles de las otras variables. .…. se define la función de probabilidad conjunta de las variables en como aquella función que devuelve. ( . Esta operación suele denominarse marginalización. ) ) ∈ ∈ ∈ de un vector aleatorio = tiene una definición similar al de una variable escalar ∈ … ∈ . . Ó ( )= La media ∈ ( ). dada una colección de variables aleatorias = . … )= … = ∈ . para cada posible valor de = ”. ( . devuelve la probabilidad del En cuyo caso la función de probabilidad conjunta admite la representación A partir de esta definición.…. puede construirse el vector aleatorio función como = ⋮ Variables discretas .

Sign up to vote on this title
UsefulNot useful