Está en la página 1de 17

REPBLICA BOLIVARIANA DE VENEZUELA MINISTERIO DEL PODER POPULAR PARA LA DEFENSA UNIVERSIDAD NACIONAL EXPERIMENTAL POLITCNICA DE LA INGENIERIA DE TELECOMUNICACIONES

FUERZA ARMADA BOLIVARIANA NCLEO ARAGUA SEDE MARACAY

COMUNICACIONES DIGITALES

Profesor: Ing. Pompa Ramn

Autores: Bejarano, Vctor C.I.: V-19.063.664 Faria, Fernando C.I: V-18.909.709 Leota, Alejandro C.I: V-17.273.632

Maracay, 29 Mayo 2013

NDICE

Introduccin 1 Nociones de teoras de informacin y codificacin 2 Teorema de Shannon. 4 Teorema de codificacin de fuente 5 Codificacin de Huffman. 6 Codificacin correlativa. 7 Capacidad de canal.... 7 Teorema de codificacin de canal. 8 Teorema de capacidad de canal. 8 Nociones de detencin y estimacin. 11

ii

INTRODUCCIN

La comunicacin digital es un fenmeno que ha calado en la vida cotidiana del hombre. Surge como efecto de las nuevas tecnologas que se introducen de manera vertiginosa en el campo de la comunicacin social. Intenta fusionar el periodismo con las nuevas tcnicas de la informtica, las letras con bits; lo analgico se convierte en digital.

Esta novedosa forma de comunicacin le abre numerosas puertas al usuario. Le otorga herramientas no slo para expresarse de forma escrita, sino que le permite usar imgenes, videos, grabaciones de voz, animaciones, hipervnculos, correos electrnicos, blogs, entre otros; para expresar sus pensamientos e ideas.

La era digital le brinda infinitas fuentes de investigacin al hombre; desde rpidos buscadores, hasta fuentes editables. Sin dejar a un lado las redes sociales, herramientas de inmediata y constante actualizacin que le permiten al consumidor conectarse con otras personas e informarse sobre los acontecimientos ms recientes.

Dentro de este marco de ideas, se hablar en la presente investigacin sobre: diversos estudios que realizaron varios investigadores matemticos y fsicos con el objetivo de demostrar teoras de informtica y codificacin, el teorema de Shannon, el teorema de codificacin de fuente, Huffman, teorema correlativa, capacidad de canal, entre otros aspectos de igual importancia con la cual se hace posible la comunicacin digital.

1.1 Nociones de teora de la informacin y codificacin 1.1.1 La Informacin: Es un conjunto de datos que nos permiten aclarar algo sobre aquello que se desconoce; la llegada de una informacin se puede producir, por ejemplo, como consecuencia de la recepcin de un mensaje, entendiendo por tal, un conjunto de datos que proviene de una fuente de informacin. 1.1.2 Teora de la Informacin: Es la ciencia desarrollada por Claude Shannon en sus trabajos sobre la teora matemtica de la comunicacin, se plantea, entre otros, el objetivo de hacer lo ms eficiente posible la transmisin de informacin de un punto a otro en una red de comunicaciones. La misma estudia tres aspectos importantes: como se mide la informacin, cual es la capacidad de un canal de comunicacin para transferir informacin y los aspectos de la codificacin a plena capacidad y con una tasa mnima de error. 1.1.3 Medida de la informacin: Est relacionada con la posibilidad de que la fuente pueda elegir entre varios mensajes. Luego, al poder la fuente seleccionar entre varios mensajes el que ser transmitido, es evidente que el usuario receptor tendr incertidumbre respecto al mensaje que podr recibir. Se supone entonces que cada mensaje podr tener asociado una probabilidad de ocurrencia, de forma tal que cuando mayor sea dicha probabilidad de que el mensaje sea cierto, menor ser la informacin que contiene para el usuario. La cantidad de unidades de informacin, que un usuario recibe cuando se le entrega un mensaje se define como el logaritmo de la inversa de la probabilidad de ocurrencia del suceso contenido en l; la eleccin de la base del logaritmo, que interviene en la definicin de la cantidad de informacin, implica determinar la unidad con la que se medir dicho parmetro. Por ejemplo, si se toma logaritmo en base 2, la unidad correspondiente se denomina Shannon (I(a): ), cuando se emplean logaritmos naturales, la unidad de , en caso de utilizar la base 10, la .

informacin se denomina NAT: unidad de informacin se denomina Hartley:

Las relaciones entre las diferentes unidades mencionadas son las siguientes: 1 Hartley= 3,32 Shannon 2

1 NAT= 1.44 Shannon Hartley= 2,30 NAT

1.1.4 Relacin entre la capacidad de un canal y la tasa de informacin: La tasa de informacin representa la cantidad de informacin producida por una fuente en un determinado tiempo. La capacidad de un canal medido en bps nos indica la cantidad de informacin que un canal puede transportar por unidad de tiempo; dicho valor depender de las caractersticas propias del canal, especialmente de la relacin seal a ruido y del ancho de banda, y es independiente de la tasa de informacin de la fuente. La relacin entre la tasa de informacin y la capacidad del canal est establecida a travs de la tasa de error del sistema, de forma que puede concluir que: Si la tasa de informacin es mayor que la capacidad de un canal no es posible transmitir sin errores. Esto implica que en el diseo de cualquier sistema de comunicaciones, se debe previamente calcular la tasa de informacin mxima a transmitir, para luego utilizar este dato en la determinacin de la capacidad de un canal de comunicaciones. 1.1.5 Entropa: llamaremos entropa H a la cantidad de informacin promedio por mensaje. Considerando una fuente de informacin de n smbolos, sin memoria, es decir, donde cada mensaje Mi con probabilidad Pi no tiene ninguna relacin con los mensajes anteriormente enviados. La informacin contenida en cada mensaje Mi ser: bits. Podemos decir que la entropa de una fuente es una medida

de las probabilidades de los mensajes; si la fuente tiene una distribucin de probabilidades que genera la mxima incertidumbre (todos los mensajes son equiprobables), esta ser una fuente de mxima entropa. 1.1.6 Teora de codificacin: Es uno de los usos ms importantes y ms directos de teora de informacin. Es una rama de ingeniera elctrica, comunicacin digital, matemticas, y informtica diseando mtodos eficientes y confiables de la transmisin de datos, para poder ser quitado los errores e inducir la redundancia en

los datos por un canal ruidoso que puede ser corregido. Tambin se ocupa de las caractersticas de cdigos. Hay tres clases de cdigos. a.- Codificacin de fuente (Compresin de datos) b.- Codificacin del canal (Correccin de error delantera) c.- Codificacin comn de la fuente y del canal El primer, codificacin de la fuente, procura comprimir los datos de una fuente para transmitirla ms eficientemente. Vemos esta prctica diaria en el Internet en donde la compresin de datos comn del cierre relmpago se utiliza para reducir la carga de la red y para hacer archivos ms pequeos. El segundo, codificacin del canal, agrega bits de datos adicionales para hacer la transmisin de datos ms robusta a los disturbios presentes en el canal de transmisin. El usuario ordinario puede no estar enterado de muchos usos usando la codificacin del canal.

1.1.7 Codificacin de fuente: La puntera de la codificacin de fuente es tomar los datos de fuente y hacerlos ms pequeos. Principio La entropa de una fuente es la medida de informacin. Los cdigos de fuente intentan bsicamente reducir la redundancia presente en la fuente, y representan la fuente con pocos pedacitos que lleven ms informacin. Se llama la compresin de datos que intenta explcitamente reducir al mnimo la entropa de mensajes segn un modelo particular de la probabilidad codificacin de la entropa. Las varias tcnicas usadas por esquemas de codificacin de fuente intentan alcanzar el lmite de la entropa de la fuente. C(x) H(x), donde H(x) es la entropa de la fuente (bitrate), y C(x) est el bitrate despus de compresin. Particularmente, ningn esquema de codificacin de fuente puede ser mejor que la entropa de la fuente.

1.2 Teorema de Shannon La capacidad de informacin de un sistema de comunicacin representa el nmero de smbolos independientes que pueden pasarse, a travs del sistema, en una unidad de

tiempo determinada. El smbolo fundamental es el digito binario. Por tanto, a menudo es conveniente expresar la capacidad de informacin, de un sistema, en bist por segundo (bps). En 1928, R. Hartley de los laboratorios telefnicos de Bell desarrollo una relacin til, entre el ancho de banda, la lnea de transmisin y la capacidad de informacin. Expresada en forma sencilla, la ley de Hartley es: donde: I= capacidad de informacin (bps)

B= ancho de banda (Hz) y T= lnea de transmisin (s). A partir de esa ecuacin se puede ver que la capacidad de informacin es una funcin lineal del ancho de banda y de la lnea de transmisin y es directamente proporcional a ambos. Si se cambia el ancho de banda o la lnea de transmisin, ocurrir un cambio directamente proporcional en la capacidad de informacin. En 1948, E. Shannon (tambin de los laboratorios de telfonos de Bell), publico un artculo en la revista de Bell System Technical relacionando la capacidad de informacin de un canal de comunicacin al ancho de banda y la relacin seal a ruido.

Matemticamente, el lmite de Shannon para la capacidad de informacin es: o ancho de banda (Hz) y , donde: I= capacidad de informacin (bps), B= (sin unidades).

1.3 Teorema de codificacin de fuente La salida que se tiene del codificador esta en muchos casos correlada, y algunos bist o cadenas de bits son muchos ms probables que otros. Esto provoca que se transmitan ms bist de los que son estrictamente necesarios para enviar la informacin deseada entre el transmisor y el receptor. La cantidad de informacin por smbolos generada por la fuente viene medida por su entropa. Suponiendo que cada fuente discreta es capaz de generar un total de M valores distintos, cada uno de ellos con probabilidad pi, su entropa se define como: .

La entropa proporciona el lmite inferior del nmero de bits por muestra necesarios para transmitir la informacin de la fuente sin perdida, y es la tasa de salida hacia la que debe tender un buen codificador de fuente. Cuando la tasa de transmisin es mucho mayor que la entropa de la fuente, entonces es posible que algunas de la propiedades de la

modulacin (por ejemplo su anchura espectral) no sean idnticas a los valores tericos, lo que puede dar lugar a interferencias con otros sistemas de comunicaciones. La codificacin de fuente se encarga de eliminar dicha correlacin de tal forma que los bits que aparecen a su salida estn incorrelados, y todas las cadenas de cualquier longitud son igualmente probables, obtenindose un espectro similar al terico y una cadena de bits a transmitir lo ms corta posible. Una de las formas ms habituales de realizar la codificacin de fuente es la codificacin de Huffman, en la que a cada smbolo o cadena de bits de idntica longitud se le asigna otra cadena de bits longitudes variables. Cuando mayor sea la probabilidad de aparicin de smbolo (o cadena de bits) menor ser la longitud de la cadena asignada, de tal forma que la longitud media de las cadenas resultantes sea menor que la de las cadenas de bits originales.

1.4 Codificacin Huffman En ciencias de la computacin y teora de la informacin, la codificacin Huffman es un algoritmo usado para compresin de datos. El trmino se refiere al uso de una tabla de cdigos de longitud variable para codificar un determinado smbolo (como puede ser un carcter en un archivo), donde la tabla ha sido rellenada de una manera especfica basndose en la probabilidad estimada de aparicin de cada posible valor de dicho smbolo. Fue desarrollado por David A. Huffman mientras era estudiante de doctorado en el MIT. La codificacin Huffman usa un mtodo especfico para elegir la representacin de cada smbolo, que da lugar a un cdigo prefijo (es decir, la cadena de bits que representa a un smbolo en particular nunca es prefijo de la cadena de bits de un smbolo distinto) que representa los caracteres ms comunes usando las cadenas de bits ms cortas, y viceversa. Huffman fue capaz de disear el mtodo de compresin ms eficiente de este tipo: ninguna representacin alternativa de un conjunto de smbolos de entrada produce una salida media ms pequea cuando las frecuencias de los smbolos coinciden con las usadas para crear el cdigo.

1.5 Codificacin Correlativa. La ISI (interferencia entre smbolos) es considerada un efecto no deseable que da lugar a la degradacin de las prestaciones del sistema. Su propio nombre indica que es algo a evitar, sin embargo aadiendo ISI a la seal transmitida de forma controlada, es posible transmitir una seal de tasa de 2Bt smbolos por segundo a travs de un canal de ancho de banda Bt Hz. Este procedimiento se denomina codificacin correlativa o sealizacin con respuesta parcial. El diseo de estos esquemas se basa en el hecho de que la ISI que se introduce en el transmisor es conocida, por lo que se va a poder interpretar dicha seal en el receptor de forma adecuada. La codificacin correlativa puede considerarse como una forma de lograr la mxima tasa de sealizacin 2Bt smbolos por segundo en un canal de ancho de banda Bt Hz, como fue postulado por Nyquist, pero usando filtros realizables para los que adems se permitan ciertas tolerancias.

1.6 Capacidad de canal En Teora de la Informacin, la capacidad de un canal de comunicacin es la cantidad mxima de informacin que puede transportar dicho canal de forma fiable, es decir, con una probabilidad de error tan pequea como se quiera. Normalmente se expresa en bits/s (bps). En matemtica existen dos definiciones equivalentes entre s del concepto de capacidad de un canal, una es para canales de tiempo continuo y la otra es para canales de tiempo discreto.

1.7 Teorema de codificacin de canal La codificacin de canal se refiere al tipo de transformaciones de seal diseadas para mejorar el rendimiento de las comunicaciones, posibilitando que las seales transmitidas sobrelleven los efectos nocivos del canal, tales como ruido, desvanecimientos, interferencia. Es uno de los resultados ms importantes de la teora de la informacin. Relaciona tres parmetros claves en un sistema: el ancho de banda del canal, B, la potencia transmitida promedio (o la potencia recibida promedio) y la densidad espectral de potencia a la salida del canal, con la capacidad de informacin, C. Note que es ms fcil incrementar la capacidad de informacin de un canal de comunicaciones expandiendo su ancho de banda que incrementando la potencia transmitida para una varianza de ruido determinada. log2 [ ] bps

1.8 Teorema de capacidad de canal Se llama capacidad de un canal a la velocidad, expresada en bps ( bits por segundo), a la que se pueden transmitir los datos en un canal o ruta de comunicacin Las limitaciones en el ancho de banda surgen de las propiedades fsicas de los medios de transmisin o por limitaciones que se imponen deliberadamente en el transmisor para prevenir interferencia con otras fuentes que comparten el mismo medio. Cuanto mayor es el ancho de banda mayor el costo del canal. Lo deseable es conseguir la mayor velocidad posible dado un ancho de banda limitado, no superando la tasa de errores permitida. El ancho de banda y la capacidad de un canal Para sacar mayor provecho del ancho de banda limitado por los medios, generalmente se asigna ms de un bit a la variacin de parmetros de una seal Cada elemento de seal representa un conjunto de bits La cantidad de variaciones de parmetros de una seal representa la capacidad de un canal.

1.9 Limite en la velocidad de los datos Una consideracin importante en la comunicacin datos es: Qu tan rpido se puede transmitir datos, en bit por segundo, sobre un canal? La velocidad de los datos dependen de: 1. El ancho de la banda disponible. Las limitaciones en el ancho de banda surgen de las propiedades fsicas de los medios de transmisin o por limitaciones que se imponen deliberadamente en el transmisor para prevenir interferencia con otras fuentes que comparten el mismo medio. 1. El nivel de la seal a transmitir 2. La calidad del canal (nivel de ruido).

1.10

Capacidad del sistema

La velocidad binaria de un sistema se incrementa al aumentar el nmero de niveles de seal para codificar un smbolo. Un smbolo consiste en uno o varios bits El nmero de niveles de seal se define como M A medida que el nmero de niveles aumenta, el espacio entre niveles disminuye, lo que incrementa la probabilidad de ocurrir un error por ruido en el canal.(1) Capacidad del canal de Nyquist Hartley Nyquist supuso en su teorema un canal exento de ruido (ideal). Por lo tanto la limitacin de la velocidad de transmisin permitida en el canal, es la impuesta exclusivamente por el ancho de banda del canal. En 1927, determinaron que La velocidad mxima de transmisin en bits por segundo para un canal ( sin ruido) con ancho de banda B (Hz) es: C = capacidad en bps B = ancho banda en Hz M = niveles de la seal(si es dos la ecuacin queda: C=2*B)

1.11

Ejemplo: Si suponemos que un canal de voz con un ancho de banda de 3100 Hz se utiliza con un modem para transmitir datos digitales ( 2 niveles).C = 2B= 6200 bps. Si se usan seales de ms de 2 niveles; es decir, cada elemento de seal puede representar a ms de 2 bits, por ejemplo si se usa una seal con cuatro niveles de tensin, cada elemento de dicha seal podr representar dos bits (di bits).aplicando la frmula de Nyquist tendremos: C=2 B log (4)= 2* (3100)* (2)C = 12,400 bps(2)Pero, no determina de manera precisa como el parmetro M debe depender delas estadsticas de ruido del canal, o como la comunicacin poda ser fiable en condiciones de un canal con ruido gaussiano.(

1.12 Teorema de Shannon Dado un nivel de ruido, cuanto mayor es la velocidad de transmisin mayor es la tasa de errores Shannon demuestra en MTC que la capacidad de transmitir informacin en bhp en un canal con ruido est dada por (1) Donde: C=capacidad terica mxima en bps B=ancho de banda del canal Hz.S/N=relacin de seal a ruido, S y N dados en watts.(2) Ejemplo: Supngase que el espectro de un canal est situado entre 3Mhz y 4 Mhz y que la SNR es de 24 dB. B=4Mhz- 3Mhz=1Mhz SNR=24 dB =10 log (SNR)=251 Usando la frmula de Shannon se tiene que: C= 10 log (1+251C = 8 Mbps Para un nivel de ruido dado, podra parecer que la velocidad de transmisin se puede aumentar incrementando tanto la energa de la seal como el ancho debanda .Sin embargo, al aumentar la energa de la seal, tambin lo hacen las no linealidades del sistema dando lugar a un aumento en el ruido de intermodulacin. Ya que el ruido se ha supuesto blanco, cuanto mayor sea el ancho de banda, ms ruido se introducir al sistema. Por lo tanto, cuando aumenta B , disminuye SNR

10

1.13 Diferencia entre Nyquist y Shannon La principal diferencia es que Nyquist trabaja idealmente la transmisin donde la velocidad de transmisin la limita el canal; mientras que Shannon trabaja con otros efectos que se encuentran durante la transmisin como es el ruido el cual se a crecenta a mayor velocidad de transmisin; lo cual implica una limitante para la velocidad de transmisin; la cual se ve mejorada si se utilizan canales ms puros o conductores (fibra de vidrio)En 1928 Harry Nyquist, un investigador en el rea de telegrafa, public una ecuacin llamada la Razn Nyquist que media la razn de transmisin de la sealen bauds. La razn de Nyquist es igual a 2B smbolos (o seales) por segundo, donde B es el ancho de banda del canal de transmisin. As, usando esta ecuacin, el ancho de banda de un canal telefnico de 3,000 Hz puede transmitido hasta 2x3, 000, o 6,000 bauds o Hz Teora de la Estimacin: Rama del procesado de seales y la estadstica, que estudia las tcnicas utilizadas para proporcionar un valor aprximado a un parmetro o variable, a partir de datos empricos o medidas. Modelo de Estimacin. El modelo normalmente utilizado, est compuesto por los siguientes elementos: Espacio de parmetros. Es un espacio no observable, cuyos elementos son los posibles parmetros de los que depende la generacin de datos. Espacio de observaciones. Es el espacio cuyos elementos son los datos empricos o medidas, que se van a utilizar en la estimacin. Regla de transicin probabilstica. Distribucin estadstica de las observaciones, dependiendo del parmetro o parmetros. Estimador. Funcin de los datos empricos, que se utiliza para generar la medida o estima.

11

Objetivo: Medir (estimar) el valor de utilizando un instrumento de medida (estimador), diseado usando algn criterio.

Objetivo: decidir si se ha enviado un 0 o un 1 dividiendo el espacio de observaciones en regiones, asignadas a una u otra hiptesis. Para ello se utiliza un estadstico que se compara con un umbral.

1.14 Diferencias entre Teora de la Deteccin y Teora de la Estimacin: En los problemas de deteccin, los parmetros desconocidos pueden tomar un conjunto de valores finito y numerable, de forma que el nmero de hiptesis posibles es finito. En los problemas de estimacin, los valores que puede tomar el parmetro desconocido son infinitos, por lo que no tiene sentido aplicar la teora de la deteccin. Las observaciones (datos medidos) se utilizan para estimar o inferir el valor del parmetro. El parmetro a estimar puede ser determinista o aleatorio. El parmetro cuyo valor desconocido queremos estimar (Medir de forma aproximada) puede ser:

12

Determinista. Por ejemplo, cuando queremos estimar la media de una variable aleatoria, utilizando un nmero de realizaciones de la misma. Aleatorio. Por ejemplo, la fase desconocida de una seal sinusoidal. Las seales observadas son realizaciones de una seal aleatoria, cuya fase instantnea depende de una variable aleatoria, normalmente con distribucin uniforme en [0, 2).

13

CONCLUSIONES

La comunicacin digital abre paso a una nueva y mejor forma de comunicacin. Los sistemas de comunicaciones han originado consecuencias sociales significativas, dando lugar en la actualidad a una mayor disponibilidad de informacin de todo tipo, situacin que se ha visto favorecida por los avances de la electrnica digital.

Los estudios relativos a los sistemas de comunicaciones tienen sus orgenes en dos ramas de la ingeniera: la electrnica y las telecomunicaciones, y el tema fundamental es la transmisin de mensajes. Claude Shannon es el protagonista principal de estos estudios, que toman como base a la electrnica digital, el hallo la frmula para calcular la capacidad de un canal y con ello se determino la cantidad de informacin que se puede transmitir por el mismo.

En este sentido, la digitalizacin de la seal analgica, mejor la recepcin del mensaje emitido, debido a que presentaba bajo porcentaje de errores, todo gracias a los procesos de detencin y correccin de los mismos. La codificacin es otro trmino importante dentro de la comunicacin digital.

BIBLIOGRAFA Castro, A. (1999) Teleinformtica para ingenieros en sistema de informacin. Segunda edicin (Libro Online). file:///E:/ESCRITORIO/Comunicacion%20Digital/informacion%20y%20codificaci on/Teor%C3%ADa%20de%20la%20informaci%C3%B3n%20%20Wikipedia,%20la%20enciclopedia%20libre.htm file:///E:/ESCRITORIO/Comunicacion%20Digital/informacion%20y%20codificaci on/UNIDAD%206%20%20TEOR%C3%8DA%20DE%20LA%20INFORMACI% C3%93N%20Y%20CODIFICACI%C3%93N.%20%20Sitio%20De%20Comunicaciones%20II.htm file:///E:/ESCRITORIO/Comunicacion%20Digital/teorema%20de%20shannon/TE ORIA%20DE%20SHANNON.htm file:///E:/ESCRITORIO/Comunicacion%20Digital/codificacion%20de%20fuentes/ UNIDAD_6.pdf.htm http://agamenon.tsc.uah.es/Asignaturas/it/ssii/apuntes/Estimacion.pdf http://es.scribd.com/doc/104740995/Capacidad-de-Canal http://www.cs.buap.mx/~iolmos/redes/5_Capa_Fisica.pdf http://profesores.usfq.edu.ec/renej/Contenidos%20COMII/Apuntes%20COM%20II/ ComunicacionesII_5.pdf

También podría gustarte