Está en la página 1de 14

REPBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA DEFENSA UNIVERSIDAD NACIONAL EXPERIMENTAL POLITCNICA DE LA FUERZA ARMADA

UNEFA NCLEO CARABOBO EXTENSIN GUACARA

AUTORES: SECCIN: G-003-N ING. DE TELECOMUNICACIONES

GUACARA, DE JULIO DE 2010

Transmisin de informacin en canales discretos: La teora de la informacin es el estudio de la transmisin de informacin. Vamos a suponer que la fuente y el canal de transmisin son discretos, por lo que puede medir la cantidad de informacin transferida y definir la capacidad del canal. Shannon afirm que, con la codificacin adecuada, la transmisin de informacin casi sin errores disponible en un canal con ruido si la tasa no exceda la capacidad del canal. Este teorema fundamental ser examinado conjuntamente con el binario canal simtrico, un modelo de canal importante para el anlisis de sistema de comunicacin digital.

Informacin mutua. Formalmente, la informacin mutua de dos variables aleatorias discretas X e Y puede definirse como:

Donde p(x,y) es la funcin de distribucin de probabilidad conjunta de X e Y, y p1(x) y p2(y) son las funciones de distribucin de probabilidad marginal de X e Y respectivamente. En el caso continuo, reemplazamos la suma con una integral doble definida:

Donde p(x,y) es de nuevo la funcin de distribucin de probabilidad conjunta de X e Y, y p1(x) y p2(y) son las distribuciones de probabilidad marginales de X e Y respectivamente. Estas definiciones son ambigas porque la base del logaritmo no se ha especificado. Para evitarlo, la funcin I puede parametrizarse como I(X,Y,b) donde b es la base. Alternativamente, como la unidad de medida ms comn de informacin mutua es el bit, se puede especificar base 2.

Intuitivamente, la informacin mutua mide la informacin que X e Y comparten: mide en cunto el conocimiento de una variable reduce nuestra incertidumbre sobre la otra. Por ejemplo, si X e Y son independientes, entonces conocer X no da informacin sobre Y y viceversa, por lo que su informacin mutua es cero. En el otro extremo, si X e Y son idnticas entonces toda informacin proporcionada por X es compartida por Y: saber X determina el valor de Y y viceversa. Por ello, la informacin mutua es igual a la informacin contenida en Y (o X) por s sola, tambin llamada la entropa de Y (o X: claramente si X e Y son idnticas tienen idntica entropa). La informacin mutua cuantifica la dependencia entre la distribucin conjunta de X e Y y la que tendran si X e Y fuesen independientes. La informacin mutua es una medida de dependencia en el siguiente sentido: I(X; Y) = 0 si y slo si X e Y son variables aleatorias independientes. Esto es fcil de ver en una direccin: si X e Y son independientes, entonces p(x,y) = p(x) p(y), y por tanto:

Capacidad de un canal discreto. En un canal discreto sin memoria: Ejemplos de canal Canal binario sin ruido Canal ruidoso con salidas no solapadas Mquina de escribir ruidosa Canal binario simtrico (BSC) Canal binario con borrado (BEC) Canal MUC (M-ary Uniform Channel) La capacidad de un canal discreto sin memoria viene dada por:

Ejemplo: Canal Simtrico Binario (BSC) I(X;Y) = H (Y) - H (Y|X) = H (X) - H (X|Y) H (X|Y) = H (X|Y=0)*P (Y=0) + H (X|Y=1)*P(Y=1) H (X|Y=0) = H (X|Y=1) = Pelog (1/Pe) + (1-Pe) log (1/ 1-Pe) = Hb (Pe) H (X|Y) = Hb (Pe) => I(X; Y) = H(X) - Hb (Pe) H (X) = P0 log (1/P0) + (1-P0) log (1/ 1-P0) = Hb (p0) => I (X; Y) = Hb (P0) - Hb (Pe)

Definicin para canales discretos

Un canal discreto (sin memoria) est definido por

el

alfabeto

de

entrada,

que

es

el

conjunto

de

smbolos

que pueden ser transmitidos por el canal

el alfabeto de salida,

, que es el conjunto de smbolos y los de salida , esta

que pueden ser recibidos a la salida del canal

las relaciones estadsticas entre los smbolos de entrada

informacin viene definida por la matriz de probabilidades condicionadas del canal donde Se define la entropa de entrada, entropa de

salida y entropa de entrada condicionada por la salida como

La informacin mutua entre la entrada y la salida del canal la denotamos por y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa

Esta informacin mutua entrada

depende de la distribucin de probabilidad de la alcanza un

. Para una determinada distribucin de entrada,

mximo, este mximo es precisamente lo que se conoce como la capacidad del canal

Codificacin para canal binario simtrico. Canal binario simtrico El canal simtrico mas utilizado es el llamado canal binario simtrico, el nombre binario quiere decir que n = m = 2, es decir tanto el alfabeto de entrada como el de salida tienen dos elementos. Denotando estos por 0 y 1 en ambos alfabetos el esquema del canal binario simtrico y su matriz son 0p p1 p

Ejemplos de canales discretos Canal binario simtrico

Canal binario simtrico, la probabilidad de error de bit es p.

Para el caso del canal binario simtrico con probabilidad de error de bit p, su capacidad viene dada por

La funcin

es una funcin que

aparece mucho en teora de la informacin. Se trata de una funcin cncava (y por tanto cumple la desigualdad de Jensen) y alcanza su mximo, igual a 1, cuando p = 0.5, por otro lado, cuando p = 0 o p = 1 vale 0. La capacidad de este canal es cero cuando p = 0.5, esto tiene sentido ya que en este

caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que es un canal inservible para enviar informacin, su capacidad es nula. Note que si un canal tuviese probabilidad de error de bit p = 1 eso no significa que sea un canal malo, todo lo contrario. Bastara con invertir los bits antes de enviarlos para tener un canal ideal (con probabilidad p = 0).

Canales continuos y comparacin de sistemas: Vamos a comenzar con la medida de la informacin de una fuente que emite una continua seal. El material puede parecer pesado va al principio, pero entonces a hacer un poco su posiciones razonables sobre la transmisin de seales continuas para expresar canal de capacidad en trminos de ancho de banda y la relacin seal-ruido, un resultado conocido como la ley de Hartley-Shannon. Este resultado nos lleva a la definicin de una comunicacin idea sistema, que sirve como un estndar para la comparacin del sistema y una gua para el diseo de sistemas de comunicacin. Canales analgicos para transmitir informacin Capacidad del canal: Mxima velocidad a la que se pueden transmitir los datos en un canal o ruta de comunicacin de datos

Conceptos relacionados con la capacidad del canal Velocidad de transmisin de datos: bps a la que se pueden transmitir los datos Ancho de banda (W) (Hz): Ancho de banda de la seal transmitida Transmisor Naturaleza del medio Ruido: Nivel medio del ruido a travs del camino de transmisin Tasa de errores (p): Tasa a la que ocurren los errores

Informacin contina. Continuo de informacin Una fuente de informacin continua produce una seal variable en el tiempo x (t). Vamos a tratar el serie de seales de posibles como un conjunto de formas de onda generadas por algunos al azar proceso, supone que ergdica. Nos daremos por supuesto que an ms el proceso tiene una finita ancho de banda, lo que significa que x (t) ha sido completamente caracterizada en trminos de la muestra peridico valores. Por lo tanto, en cualquier instante de muestreo, la coleccin de valores de muestra posible constituye una variable X descrito por su densidad de probabilidad funcin p (x).

La cantidad media de informacin por muestra el valor de x (t) se mide por la funcin de entropa donde, como antes, la base logartmica es b = 2. Esta expresin ha sirnilar iti es obvia a la definicin de la entropa de una fuente discreta. Sin embargo, la ecuacin. (I) resulta como una medida relativa de la informacin en lugar de una medida absoluta. El entropa absoluta de una fuente continua puede, en principio, debe definirse desde el siguiente limitar la operacin. Capacidad de canal contino. La definicin de capacidad para canales continuos es un poco diferente y exige utilizar el Teorema del muestreo y algunos otros conceptos de teora de la seal, adems de los conceptos puramente estadsticos vistos en el apartado anterior.

Ampliando los estudios del fsico Harry Nyquist, compaero en los Laboratorios Bell, Claude Shannon demostr en 1949 que la capacidad terica mxima de un canal de comunicaciones limitado en banda con ruido AWGN (ruido blanco aditivo gausiano) responde a la ecuacin: bits/s (bps) La ecuacin anterior muestra que la capacidad de un canal est limitada por su ancho de banda (B) y por su relacin seal/ruido (SNR). En trminos de eficiencia espectral resulta:

bps/Hz Es decir, la eficiencia espectral mxima depende de la calidad del canal (de su nivel de ruido).

Sistemas ideales de comunicaciones. Prcticamente todos los sistemas de comunicacin realista es capaz de transmitir continua seales, con algunas limitaciones de energa y ancho de banda. Por otra parte, si excluyen la transmisin de radio con la decoloracin, el diseo cuidadoso sistema en gran medida puede eliminar de todas las contaminaciones, excepto el ruido trmico inevitable. El canal AWGN por lo tanto sirve como un modelo razonable en estas condiciones, y el de Shannon-Hartley ley otorga a la tasa mxima para una comunicacin confiable. Por lo tanto, aqu definir. Shannon describi la operacin de dicho sistema ideal de la siguiente manera.

El sistema ideal tiene la estructura del diagrama en la figura. 16.3-1. Informacin de la fuente se observa para los intervalos de T segundos y codificados como equiprobables smbolos M-ario, de tal manera que (log M) / T = R. Para cada smbolo, el generador de seales emite una onda nica x (t), seleccionadas de un conjunto de M = 2RT seales. Estas seales son generados por un proceso gaussiano blanco limitado en banda, y se almacenan las copias estn disponibles en el destino. El detector de seal se compara la seal recibida y (t) = x (t) + n (t) con las copias almacenadas y elige el ms probable para descodificacin. Las operaciones de codificacin en la fuente y la deteccin de seales en el destino resultar en un retraso total de 2T segundo, llamado el retraso de codificacin. Comparacin de sistemas. Habiendo determinado las propiedades de un sistema de comunicacin ideal, estamos listos para reexaminar los diferentes sistemas de los captulos anteriores y comparar su rendimiento a la luz de la teora de la informacin. Estas comparaciones proporcionan orientaciones importantes para el desarrollo de sistemas de comunicacin nuevos o mejorados, tanto digitales como analgica. Para todas las comparaciones, vamos a asumir un canal AWGN con transmisin BT ancho de banda y la relacin seal-ruido (SIN), = S, INoBT en el receptor. Consideremos primero el caso de transmisin de banda base binaria. Anteriormente, se encontr 2BT la tasa de sealizacin de error mximo y mnimo de transmisin probabilidad. Con lo suficientemente elaborados de control de errores de codificacin, podemos obtener la transferencia de informacin casi sin error debido a la entropa mxima de una seal binaria sin ruido es un poco por smbolo. Por lo tanto, tenemos que usar Mario de sealizacin para acercarse a un rendimiento ideal cuando (SIN); 1. Esta observacin ha llevado a la sofisticada tcnica conocida como decodificacin softdecisin en la que palabras en clave binaria se descodificada de valores de la muestra de la forma de onda continua de la seal de ms de ruido, en lugar que de una regeneracin (dura-decisin) de forma de onda binaria. Ahora vamos a examinar el desempeo de los sistemas de comunicacin digital M-aria sin control de errores de codificacin. Vamos a suponer una fuente binario que emite equiprobables smbolos en rb tasa. Si la probabilidad de error es pequeo, entonces la informacin tasa es de ya que casi todos

los dgitos binarios correctamente transmitir informacin hasta el destino. Espacio de seal: Como hemos visto, la transmisin digital es la forma ms eficiente de la comunicacin a la luz de la teora de la informacin. Por lo tanto debemos prestar cierta atencin a la teora de deteccin digital. En primer lugar, sin embargo, necesitamos un mtodo de representacin de seales, que es el propsito de esta seccin. En particular, vamos a introducir las importantes tcnicas de la representacin de seales como vectores, una tcnica originada por su teora de la inmunidad al ruido ptima. Seales como vectores. Un espacio de la seal es un espacio multidimensional en el que los vectores representan un determinado conjunto de las seales. Mediante la descripcin de las seales como vectores, las relaciones familiares y las ideas de geometra puede ser ejercida en el anlisis de seales y sistema de comunicacin diseo. Aqu te presentamos los aspectos de la teora de la seal del espacio correspondiente a la digital deteccin, restringir nuestra atencin sobre el caso de seales reales de la energa. Considere la posibilidad de cualquiera de los dos reales de la energa u seales (t) y w (t). Si a y P son finitos real constantes, entonces la combinacin lineal z (t) = Au (t) + VP (t) es tambin una seal de energa. Formalmente, podemos decir que el conjunto de todas las seales reales de la energa es cerrado bajo lineales combinacin, que es el requisito esencial para el establecimiento de un espacio lineal. Nosotros por lo tanto definir el espacio de la seal I? ser un espacio lineal en el que los vectores como u y v representan la energa u seales (t)Adems de los Vectores y escalares multiplicador obedecer las reglas de costumbre, y no existe un elemento cero. Sin embargo, a completa la estructura geomtrica necesitamos las medidas adecuadas de longitud del vector y ngulo expresado en trminos de propiedades de la seal. (No podemos usar aqu Distancia de Hamming i f porque no estamos necesariamente trabajar con secuencias binarias.) Dado que estamos tratando (con las seales de la energa), vamos a definir la longitud o norma de un vector u seal a la j raz cuadrada de la energa de la seal, escrito como

Procedimiento Gram. Schmidt.

Donde los corchetes angulares representan el producto interior. Es evidente que

Es un vector ortogonal a . Entonces, dados los vectores GramSchmidt construye los vectores ortonormales

, el algoritmo de de la manera siguiente:

A partir de las propiedades de la proyeccin y del producto escalar, es sencillo probar que la sucesin de vectores es ortogonal.

Deteccin digital ptima: La seal / vector conceptos desarrollados en la seccin anterior se utiliza aqu para el diseo receptores ptima para seales digitales con AWGN contaminacin. Vectorial de conceptos Tambin facilitar el clculo de probabilidades de error y la seleccin de las seales de comunicacin digital eficiente.

Deteccin ptima y Receptores Mximo a Posteriori (MAP). El detector multiusuario ptimo para este esquema es un detector de mxima probabilidad a posteriori (MAP) que calcula la probabilidad de los smbolos detectados. El esquema particionado ptimo consiste entonces de un detector MAP seguido de un desentrelazador ideal y de decodificadores con algoritmo de Viterbi de entradas blandas (Soft Viterbi Algorithm - SVA). Este esquema se identificar de ahora en adelante con la sigla MAP+SVA. Los detectores MAP se implementan a partir del empleo de programacin dinmica como la del algoritmo de Viterbi, y se clasifican bsicamente en dos tipos [61]: 1. MAP Tipo I: algoritmos recursivos hacia delante y hacia atrs. Estos algoritmos estn orientados a detectar un bloque de datos. Introducen un mayor retardo de deteccin que el algoritmo de Viterbi. 2. MAP Tipo II: slo utilizan recursin hacia adelante y el retardo de deteccin es el mismo que el de un algoritmo de Viterbi. Son adecuados para deteccin continua. Para no introducir retardos de decodificacin mayores a los de un algoritmo de Viterbi se analizar la complejidad del algoritmo MAP Tipo II propuesto en [62]. La memoria requerida por el MAP Tipo II viene dada por MMAP = |X|+|X|(DMAPK+1)(Q1), (2.28) donde |X| = QK1 es la cantidad de estados y DMAP > K 1 es el retador de deteccin. Adems, las operaciones requeridas por el MAP Tipo II son OMAP =

MMAPAG, (2.29) donde indica las operaciones requeridas para calcular la mtrica de las ramas (|X| multiplicaciones y |X| sumas). Este algoritmo requiere adems operaciones de exponenciacin que incrementan notablemente su complejidad. No obstante, existen versiones subptimas con un desempeo muy prximo al ptimo. Estas versiones subptimas no requieren de operaciones de exponenciacin y su complejidad viene dada por la cantidad de memoria (2.28) y de operaciones (2.29). La complejidad del MAP crece de manera exponencial no slo con la cantidad de usuarios sino tambin con la cantidad de bits m por smbolo codificado. Esto hace que la complejidad del MAP sea excesiva para canales con alta eficiencia espectral, an cuando la cantidad de usuario no sea demasiado grande. Del anlisis anterior se desprende que la complejidad del receptor MAP+SVA est determinada fundamentalmente por la del detector MAP. Para reducir la complejidad del detector MAP, se emplean detectores multiusuarios subptimo. Entre los detectores con mejor nivel de desempeo en canales con fuerte interferencia se encuentra el detector multiusuario retroalimentado por decisiones que se denota con la sigla MDFE.

Probabilidades de error Pero la estructura de un receptor ptimo no sirve de mucho sin el conocimiento de la probabilidad de error. As que aqu formulamos en general y expresiones especficas para la probabilidad media de error en un sistema M-ario con smbolos equiprobables y ptimo deteccin. Como punto de partida, tomar un Mj. smbolo arbitrario y sea representan la probabilidad de deteccin . Donde P (c I m,) representa la

errnea de la seal correspondiente

probabilidad de deteccin correcta. Usaremos geomtrica argumentos de vectores para determinar P (e 1 MJ) o P (c (MJ).Figura 16.5-7a representa la situacin en que, cuando s (t) ha sido corrompida por ruido, (t), resultando en el vector v = sj + n. Tambin se muestra otro vector de la seal sin cuya punta a punta "distancia" de sj es d,, travesao = 11 si -. Un error de deteccin se produce si la proyeccin de n en la direccin del si - sj excede dU / 2, por lo que v cae en el lado equivocado a mitad de camino de la frontera de decisin entre si y sj. Este evento de error se denominar no por e U. T encuentre la probabilidad de P (UE) l, et los vectores se traduzca nativa y / o girar.