Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Sistemas de comunicaciones
No obstante su naturaleza aleatoria, estas señales tienen propiedades que pueden ser medidas y
analizadas.
2
Probabilidad
• Podemos discutir filosóficamente la naturaleza causal/aleatoria de las cosas…
3
Axiomas de Probabilidad
• Podemos entonces hacer una definición formal de un Sistema de Probabilidad:
I. P[S] = 1
II. 0 ≤ P[A] ≤ 1
III. Si A ⋃ B es la unión de dos eventos mutuamente excluyentes, luego P[A ⋃ B] = P[A] + P[B]
4
Probabilidad: ejemplos…
• El subconjunto del evento de que la moneda caiga por el mismo lado las dos veces sería:
εx = {CC, SS}
5
Probabilidad Condicional
• Supongamos que tenemos dos experimentos (variables aleatorias) X y Y que no son
independientes.
• La probabilidad de una, depende de la ocurrencia de la otra. Ejemplo, dos dados.
Probabilidad conjunta
Ejercicio: Demuestre que
*Bayes
6
Probabilidad: ejercicios…
• Un experimento consiste en sacar una bola de una urna que contiene 4 bolas rojas numeradas 1,
2, 3, 4 y tres bolas negras numeradas 1, 2, 3. Se definen los siguientes eventos:
– E1: El número en la bola es par.
– E2: El color de la bola es rojo y su número es mayor a 1.
– E3: El número en la bola es menor a 3.
– E 4: E 1⋃ E 3.
– E5: E1⋃ (E2⋂E3).
• Encontrar:
1. P(E2)
2. ¿Cuál es la probabilidad de que el número sea menor a 3 dado que el color de la bola es rojo y su número mayor a
uno?
3. P(E2|E4⋂E3)
4. ¿Son E3 y E5 independientes?
7
Ejemplo BSC
Ejercicio: Canal* Binario Simétrico
¿Cuál es el canal de comunicaciones más sencillo
que podemos describir matemáticamente?
• Es un canal discreto, sin memoria, pero con ruido.
8
Juego de dados
El Chevalier de Méré...
... de Méré calculó la probabilidad de obtener un seis en 4 lanzamientos como 4/6 = 2/3.
Entonces vamos a jugar a los dados...
Luego de hacer mucho dinero, la gente se cansó de su juego, y de Méré quiso atraer más jugadores con otra apuesta:
lanzando dos dados.
Adivinen qué calculó de Méré:
La probabilidad de obtener un doble seis en 24 lanzamientos de dos dados como 24/36 = 2/3.
Entonces vamos otra vez a jugar a los dados...
Ejercicio:
¿Cuál es el mejor juego que pudo haber propuesto de Méré para atraer jugadores con dos dados?
... se dice que la consulta que de Méré formuló a Pascal, resuelta entre Pascal y Fermat, dio origen a la Teoría de
Probabilidad!
9
Variable Aleatoria
• A veces los eventos de un espacio muestral no son aptos para ser tratados matemáticamente.
Por ejemplo, los eventos {1… 6} son mucho más aptos que los eventos “cara” o “sello”.
11
Variable Aleatoria
• Hagamos un ejercicio: La estatura como variable aleatoria
13
Distribuciones importantes
- Distribución de Bernoulli: Variable que puede tomar dos valores: Éxito con probabilidad p y fracaso
... con qué probabilidad? ____________.
Ejercicio: ¿Qué distribución de probabilidad nos sirve para representar una variable de Bernoulli?
- Distribución Uniforme: Una variable que toma igual valor probabilidad en cualquiera de sus infinitos
resultados.
Ejercicio: Dibuje la pdf y la CDF de:
15
Esperanza y Momentos
Las distribuciones describen completamente una variable aleatoria. Para simplificar dicha descripción
tomamos los momentos de la distribución:
En particular, los más útiles, son los primeros momentos: la media y la varianza.
Media:
(o valor esperado) Estimador
Varianza:
Estimador
17
Variable aleatoria Gaussiana
Una variable aleatoria Gaussiana o Normal, es una de las más encontradas en la naturaleza diferentes
fenómenos y se caracteriza por la distribución de densidad (pdf):
Media
Varianza
- Al sumarle una constante a una variable Gaussiana obtenemos otra Gaussiana con la media corrida por la
constante.
- Al multiplicar una constante a una Guassiana obtenemos con la media multiplicada por la constante y la
varianza multiplicada por la constante^2.
- Si dos variables Gaussianas tienen covarianza = 0, luego son independientes. * Ver diapositiva anterior.
18
Variable aleatoria Gaussiana
Función acumulativa (CDF) normalizada (N(0,1), media = 0, varianza = 1):
19
Variable aleatoria Gaussiana
Ejemplo: Y = A + N, con N un ruido Gaussiano.
¿Cuál es la probabilidad de error?
0 A
Demostrar:
Error tipo I
Ayuda
22
Procesos aleatorios (estocásticos)
Ahora vamos a combinar el concepto de variable aleatoria con el concepto de función en el tiempo*.
De un espacio muestral, ahora cada muestra entregará una función del tiempo.
*En realidad puede ser función de cualquier variable, pero se usa casi siempre el tiempo.
25
Procesos aleatorios (estocásticos)
Gráficamente
Variable Proceso
aleatoria aleatorio
• El mismo ejemplo anterior puede ser modificado con la diferencia que ahora no se tendrán las mediciones
durante 10 días sino que se hará la medición simultánea, con 10 termómetros idénticos, de la temperatura
en un solo día. En este caso podría verse como un estudio del comportamiento de los termómetros, más
que de la temperatura misma.
27
Procesos aleatorios (estocásticos)
Autocorrelación
Si antes definimos la covarianza entre dos variables aleatorias, entonces podemos calcular
Autocorrelación
como la covarianza entre dos variables aleatorias del mismo proceso estocástico.
Esta expresión la llamamos: autocorrelación del proceso en los instantes t1 y t2.
Luego es un proceso estacionario en sentido amplio; como lo son los procesos estocásticos analizados en este
curso.
28
Procesos aleatorios (estocásticos)
Un ejemplo de un proceso estocástico Gaussiano (?) para el instante t = Fecha de examen 1.
Espero que este proceso no sea estacionario en ningún sentido y su media se corra notablemente a la
derecha de la gráfica….
29
Procesos aleatorios (estocásticos)
Autocorrelación y PSD
Algunas propiedades
Proceso E. que
varía lentamente
Proceso E. que
varía rápidamente
De la misma manera que vimos la autocorrelación para señales (presentación 3), esta nos sirve para analizar el
comportamiento espectral de los procesos estocásticos a través de la densidad espectral de potencia,
nuestra querida PSD! Algunas propiedades
30
Ruido en sistemas de comunicaciones
El ruido en sistemas de comunicaciones se refiere a todas las señales eléctricas indeseadas que esconden la
señal deseada o dificultan su recuperación.
El ruido puede ser generado por el hombre: como picos de corriente de inicio, “transientes” de
interruptores, inducción de señales electromagnéticas… o por fuentes naturales: efectos atmosféricos, el sol
u otras fuentes externas.
Un buen diseño de un sistema de comunicaciones puede eliminar casi por completo todos los efectos de los
ruidos mencionados por medio de filtros, apantallamiento, selección de una buena modulación etc, no
obstante, hay un ruido de fuente natural que nunca puede ser eliminado: el ruido térmico.
El ruido térmico es el producido por el movimiento de los electrones en cualquier elemento eléctrico (cables,
resistencias etc.). Los mismos electrones que producen la corriente eléctrica de las señales de comunicaciones,
son los responsables de ese ruido.
31
Ruido en sistemas de comunicaciones
La buena noticia es que el ruido térmico podemos modelarlo como un proceso estocástico Gaussiano de
media cero!
t
t
Además, su principal característica es que su PSD es constante en todas las frecuencias de interés en
comunicaciones (desde 0 hasta 1012 Hz) por lo tanto, se conoce como Ruido blanco y es fácil de modelar
matemáticamente como:
Donde el factor 1/2 se incluye para asociar la mitad de la potencia a las frecuencias negativas y la otra mitad a
las frecuencias positivas.
PSD Autocorrelación
32
Ruido en sistemas de comunicaciones
¿Cómo podemos interpretar la función de autocorrelación?
QUIZ
Rta:/ El valor del ruido no tiene correlación en dos instantes de tiempo diferentes, y como son v.a. Gaussianas,
eso implica independencia.
Este modelo de ruido compone el modelo más importante de un canal de comunicaciones (la piedra
fundamental de teoría de comunicaciones), se conoce como el canal AWGN, al canal cuya respuesta Y = X + W,
donde W es un ruido AWGN:
Y está caracterizado por un solo valor: como tiene media cero, su varianza lo determina completamente.
33
BER Bit Error Ratio
Ahora que conocemos la forma básica del ruido en los canales de comunicaciones, necesitamos una medida del
desempeño de las diferentes técnicas de transmisión/recepción.
Las diferentes aplicaciones que carga un sistema requieren diferentes tasas de error. Veamos algunos ejemplos:
• Para voz codificada se requiere 10-2 > BER > 10-3.
• Para datos en canales inalámbricos 10-5 > BER > 10-6.
• Para transmisión de vídeo 10-7 > BER > 10-12, dependiendo de la calidad.
• Para datos financieros BER < 10-11.
La variable que se usa en modulaciones digitales para observar el comportamiento del BER es:
35
Probabilidad de error
Ahora vamos a retomar el ejemplo anterior, en el que transmitimos un símbolo en un canal con ruido
Gaussiano.
El ejemplo completo podemos llamarlo propiamente: Probabilidad de error de B-ASK (PAM binaria) en un
canal AWGN.
Solo dos posibles hipótesis sobre el bit transmitido
36
Probabilidad de error
Probabilidad de error de PAM binaria en un canal AWGN
Si el umbral de decisión es ,
la probabilidad de error es minimizada y es igual a
37
Probabilidad de error
Probabilidad de error de PAM binaria (o B-ASK) en un canal AWGN
¿Cómo podemos convertir en una función de Eb/N0?
1) La varianza del ruido en un tiempo de símbolo es*
2) La energía del símbolo transmitido es
3) Mientras que la energía del bit Eb y la amplitud de la señal A están relacionadas de la siguiente manera:
Luego:
BASK
BPSK
* Demostración completa en Haykin 10.2 ¿Cuál es mejor?
Probabilidad de error
De la misma manera podemos demostrar los siguientes resultados:
40
BER Bit Error Ratio
Una última observación importante:
En las modulaciones M arias, la probabilidad de error de símbolo no es exactamente la tasa de errores
BER, pues en cada símbolo hay varios bits.
Hay una forma óptima para hacer que cada error de símbolo equivalga solo a un error de bit y no a varios bits:
poniendo los símbolos vecinos a que difieran en solo un bit.
Así, solo en el caso muy improbable de un canal con mucho ruido, si el receptor no detecta un símbolo vecino,
un error de símbolo traerá varios errores de bit.
41