P. 1
Medida de la información y Codificación

Medida de la información y Codificación

|Views: 616|Likes:
Publicado porIng Luis G Lopez P

More info:

Published by: Ing Luis G Lopez P on Jan 22, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

03/07/2014

pdf

text

original

República Bolivariana de Venezuela Ministerio del Poder Popular para la Defensa “Universidad Nacional Experimental Politécnica de la Fuerza Armada

Nacional” Sede: Cumaná – Núcleo: Sucre Cumaná, Estado Sucre U.N.E.F.A

Cátedra: Comunicaciones II

Prof.: Ing. Oliscar Andradez Realizado por: Luis G. López P. C.I.: 18.212.442 María J. Malave M. C.I.: 23.684.959 Alejandro Guevara C.I.: 15.742.185 Cumaná, 7 de Diciembre de 2011 Sección: “01”

INDICE

Comunicaciones II Medidas de la Información y Codificación de Fuente 1. Medida de la Información y Codificación de Fuente. . . . . . . . . . . . . . . . . . .

4
2. Concepto y Medida de Información. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 2.1. Conceptos Básicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2. Medida de la Información. Concepto de Información, Mensaje o Autoinformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.3. Medida de Información. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.4. Unidad de Medida de Información. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.5. El Bit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.6. El Byte y sus Múltiplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 2.7. Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3. Teorema de Shannon. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9 3.1. La ley debe su nombre a Claude Shannon y Ralph Hartley. . . . . . . . . . . . . 9 4. Codificación para una Fuente Discreta Sin Memoria. . . . . . . . . . . . . . . . . . . 9 5. Codificación Predictiva para Fuentes con Memoria. . . . . . . . . . . . . . . . . . . 10
6. Transmisión de Información en Canal Discreto. . . . . . . . . . . . . . . . . . . . . .

12 6.1. Información Mutua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional

. . No vamos a tratar en este trabajo de lo que probablemente sean los resultados más interesantes (o por lo menos. . . . . . más sorprendentes) de la Teoría de 3 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . . . . . . pero sin perder información. . . . . . el camino a seguir para determinar la cantidad de información útil de unos datos y para comprimir la información de manera que los datos se representen de una manera eficiente. . . . . .2. . Canal Binario Simétrico. . .14 INTRODUCCIÓN La transmisión de datos no es tan rápida como quisiéramos.1. . . . . . Expresiones de la Información Mutua en Función de la Entropía. . . . . . . . . .Comunicaciones II Medidas de la Información y Codificación de Fuente . . . En este trabajo supondremos conocidas las características estadísticas de nuestros datos. . ¿para qué la querríamos?). . .. . . . Capacidad de un Canal Discreto. . . por lo que habrá que estimarlas de los datos existentes. . . .1. los que menos deseamos es que la mitad de los datos que recibimos. . . . . Definición para Canales Discretos. . Por supuesto. Codificación para Canal Binario Simétrico. . . . . . . encima. . . . . . . . . . . . . . . . . . . . Sería interesante reducir la cantidad de datos. las cantidades muy grandes de datos son poco manejables. . . . ya que la información tiene una naturaleza aleatoria (si supiésemos de antemano la información. . . . La Teoría de la Información se desarrolla en términos de probabilidades. . . . . 14 8. . . . . .. . . en la realidad no disponemos a priori de las probabilidades necesarias. . .12 6. . no sirvan para nada. . . . . . . . . . . . los dispositivos de almacenamiento no tienen capacidad ilimitada. . . . . . . . .13 8. . . . entre otras cosas. . . . La Teoría de la Información nos muestra. . 13 7. . . . . . .12 7.

Pragmáticos: Analizan el grado de eficiencia en que influye la información sobre el comportamiento del destinatario. etc. Semánticos: Están dirigidos a las investigaciones que pretenden resolver el problema de cómo es posible transmitir exactamente el significado del mensaje con ayuda de textos. A continuación veremos el diagrama de bloques de un sistema de transmisión digital: 4 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . extracción. velocidad de transmisión. MEDIDA DE LA INFORMACIÓN Y CODIFICACIÓN DE FUENTE El concepto de información supone dios objetos: ∗ ∗ La fuente de información(Tx) y El destinatario de la información(RX) Los tipos de problemas que surgen en el estudio de la información son de alguno de estos tres tipos: ∗ ∗ Técnicos: Relativos a la exactitud. ya que se necesitan algunos conocimientos de transmisión digital de datos. conservación.Comunicaciones II Medidas de la Información y Codificación de Fuente la información. clasificación y medida de la información. confiabilidad. ∗ Se ocupa de la descripción matemática y evaluación de los métodos y transmisión. entre otras cosas. Estos resultados establecen la capacidad máxima de transmisión fiable de datos de un canal.

La codificación se emplea para adaptar la fuente al canal para una transferencia de información con un máximo de confiabilidad. agrega ruido. con el fin de fortalecer la información frente al ruido o a la interferencia que pueda conseguir en el canal. entre otras cosas. Luego de pasar por un canal que. asignando. Por su parte. ➢ CONCEPTO Y MEDIDA DE INFORMACION CONCEPTOS BÁSICOS Los principales conceptos a desarrollar en la Teoría de la Información son: ∗ ∗ ∗ La medida de la información La capacidad de un canal de comunicación para transferir la información La codificación como medio de utilizar el canal a plena capacidad. Estos tres conceptos básicos se encuentran reunidos en lo que puede llamarse “Teorema fundamental de la teoría de la información”. el codificador de canal introducirá bits redundantes de una manera controlada. el receptor se encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje original. mas bits a los símbolos menos probables y menos bits a los más probables. 5 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . El codificador de fuente también se puede encargar de codificar eficientemente los datos binarios. por ejemplo.Comunicaciones II Medidas de la Información y Codificación de Fuente Se dice que los símbolos son generados por una fuente y a la conversión se le llama codificación de fuente (por ejemplo PCM o DPCM).

P( B )) = f ( P( A)) + f ( P( B )) = f ( P(C )) o. la información que conlleva ese mensaje definida como autoinformación es: Ecuación No 1 I A = f ( P( A)) donde f(P(A)) debe ser determinada. Al especificar la base se selecciona la unidad de información así: 6 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . Hartley demostró que K es 1. f ( P( A).Comunicaciones II Medidas de la Información y Codificación de Fuente MEDIDA DE LA INFORMACIÓN. sea I C = I A + IB La única función que satisface estas cuatro condiciones es: Ecuación No 2 f ( P( A)) = − K log b PA = K logb 1 PA Donde K es una constante positiva y b la base. P ( A )→1 lim f ( P( A)) = 0 > f ( P( A)) f ( P( B )) 3. Para encontrar f(P(A)) se suponen los siguientes requerimientos: 1. CONCEPTO DE INFORMACIÓN. f ( P( A)) ≥ 0 donde 0≤P(A) ≤1 2. MENSAJE O AUTOINFORMACIÓN Sea un mensaje “A” de probabilidad de ocurrencia “P(A)”. Para P(A)<P(B) 4.

amarillo o azul. puede representar uno de los dos valores. como: verdadero o falso. etc. El bit es la unidad mínima de información empleada en informática o en cualquier dispositivo digital. Con él. 0 ó 1. y el otro al estado de "encendido". apagado o encendido. abierto o cerrado. UNIDADES DE MEDIDA DE INFORMACIÓN En esta página se mencionan las distintas medidas utilizadas cuando hablamos de datos o de capacidades de dispositivos de almacenamiento. masculino o femenino. norte o sur.Comunicaciones II Medidas de la Información y Codificación de Fuente ∗ Unidades de orden r I A = log r 1 P( A) Shannon o bit I A = log 2 1 P( A) Hartley I A = log10 1 P( A) Natural ∗ ∗ ∗ I A = lnr 1 P( A) MEDIDA DE INFORMACIÓN En esta sección se hace un repaso sobre las medida utilizadas cuando hablamos de almacenamiento y transmisión de datos. que este sistema utiliza. blanco o negro. EL BIT Bit es el acrónimo de BInary digiT (dígito binario). Podemos imaginarnos a un bit como un bombilla que puede estar en uno de dos estados. Basta con asignar uno de esos valores al estado de "apagado". 7 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . El bit es un dígito del sistema de numeración binario y. por tanto. podemos representar dos valores cualquiera.

El primero está "encendido" y el segundo "apagado". que en español se traduce por octeto (aunque nosotros usaremos la acepción inglesa). tendremos cuatro combinaciones posibles: • • • • Los dos están "apagados". Como la base de los cálculos en informática es el bit. que es la potencia de 2 más cercana al millar). El gigabyte se representa como GB. EJEMPLOS 8 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . Si usamos dos bits. Cuando se reunen ocho. El primero está "apagado" y el segundo "encendido". que es la potencia de 2 más cercana al millón). por ejemplo. un kilobyte son 1024 bytes y se representa como KB (¡ambas letras en mayúsculas!). y éste solo admite 2 valores. el dígito binario 0 puede estar representado por 0 voltios de electricidad mientras que el dígito binario 1 puede estar representado por 5 voltios de electricidad. Para representar. Así. EL BYTE Y SUS MÚLTIPLOS Con un bit podemos representar solamente dos valores. o codificar. los siguientes múltiplos son el terabyte o TB (1024 GB). 256 valores). necesitamos una mayor cantidad de bits. azul y negro. pero en informática es 1048576 (220. el petabyte o PB (1024 TB) y el exabyte o EB (1024 PB). el prefijo mega significa comúnmente un millón. un megabyte equivale a 1024 kilobytes y se representa por MB (¡ambas letras en mayúsculas!). Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes. Por tanto.Comunicaciones II Medidas de la Información y Codificación de Fuente En un ordenador. Por ejemplo. representar los colores rojo. más información en un dispositivo digital. Siguiendo el mismo patrón. pero cuando hablamos de datos informáticos significa 1024 (210. el prefijo kilo significa comúnmente mil. estos dos estados de "apagado" y "encendido" están representados por la presencia o la ausencia de corriente eléctrica. muchas de las medidas en informática se realizan con números que son potencias exactas de 2. Podríamos. 1024 MB constituyen un gigabyte. se forma lo que se denomina byte. Un byte puede tomar 28 valores (es decir. verde. Los dos están "encendidos". Así. De la misma manera. ya que el prefijo giga significa mil millones.

he aquí algunos ejemplos: • • • • • • • • • • • • • • El tamaño de la memoria RAM de un PC de hoy en día es de 512 a 1024 MB. Una página escrita a máquina ocuparía 4 KB.Comunicaciones II Medidas de la Información y Codificación de Fuente Para familiarizarse con estas medidas. solo tienen indexado el 0.005 por ciento de los 5 exabytes que existen almacenados en la actualidad en cualquier tipo de formato: archivos digitales de ordenador. Windows 95 ocupa entre 40 y 70 MB.44 MB. etc. Windows 98. Según declara Google. películas. papel. el teorema de Shannon-Hartley es una aplicación del teorema de codificación para canales con ruido. Las obras completas de Shakespeare ocuparían 5 MB. y suele ser ampliable hasta los 4 GB. La colección completa de la Biblioteca del Congreso de los Estados Unidos ocupa 10 TB. Las obras completas de Beethoven en buena calidad ocuparían 20 GB. Los ingenieros de Google han hecho algunos cálculos y creen que tardarían unos 300 años en indexar toda la información que existe en el mundo para ponerla a disposición de los usuarios. En un disquete caben 1. entre 90 y 130 MB. En un CD-ROM estándar caben 650 MB. Un disco duro estándar tiene entre 100 y 200 GB. y los mayores llegan hasta 400 GB. Un DVD puede almacenar hasta 17 GB. Un texto de unas cuantas páginas tendrá 20 ó 30 KB. ➢ TEOREMA DE SHANNON En teoría de la información. Un programa moderno de tratamiento de textos ocupa unos 50 ó 60 MB. Una foto de una camara corriente hoy en día ocupa alrededor de 2 MB. Un caso muy 9 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .

Si un evento es conocido. la información aportada es cero.Comunicaciones II Medidas de la Información y Codificación de Fuente frecuente es el de un canal de comunicación analógico continuo en el tiempo que presenta un ruido gausiano. (W.)  N es la potencia del ruido presente en el canal. En las hipótesis de partida. que el proceso del ruido gausiano es caracterizado por una potencia conocida o una densidad espectral de potencia. milivatios.. (mW. para la correcta aplicación del teorema.  C es la capacidad del canal (tasa de bits de información bit/s)  S es la potencia de la señal útil. 1 bits I ( x i ) = Log 2 1 P ( x1 ) 10 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . El teorema establece la capacidad del canal de Shannon. que puede estar expresada en vatios. La probabilidad de un mensaje siempre estará en un valor entre cero y uno. es inversamente proporcional a la probabilidad de ocurrencia. información) que pueden ser transmitidos sobre dicho enlace de comunicaciones con de banda específico y que está sometido a la presencia de la interferencia del ruido. La ley debe su nombre a Claude Shannon y Ralph Hartley C = BLog2 (1+s/n) Donde:  B es el ancho de banda del canal. de hecho su probabilidad de ocurrencia es uno. etc. además. La información contenida en eventos independientes debería sumarse. ➢ CODIFICACIÓN PARA UNA FUENTE DISCRETA SIN MEMORIA La cantidad de información de un mensaje. etc. etc. μW.) que trata de enmascarar a la señal útil. una cota superior que establece la máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es. mW. se asume una limitación en la potencia de la señal y.

Por ejemplo. si empleamos logaritmos binarios. por lo que "recuerda" un solo símbolo anterior. tenemos la entropía condicional 11 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .02 sobre la base de la frecuencia relativa. Para formular la entropía. vamos PG ser la probabilidad de que x i símbolo es el símbolo elegido después de x. El lenguaje escrito. Tendrá como unidad el NAT. si empleamos logaritmos decimales. la memoria efecto reduce la incertidumbre y por lo tanto resulta en un valor más bajo de entropía que se calcularían en función absolutos en lugar de estadísticas básicas condicional. Tendrá como unidad el HARTLEY. si empleamos logaritmos naturales. el contenido 1 de información puede expresarse según . se rigen por reglas de ortografía y gramática. (6). La conversión de unidades podrá realizarse de acuerdo a la siguiente expresión: Log 2 a = ln a / ln 2 = log a / log 2 ➢ CODIFICACIÓN PREDICTIVA PARA FUENTES CON MEMORIA Varias fuentes de información han de memoria en el sentido de que símbolo de las probabilidades dependen de uno o más símbolos anteriores. Supongamos que una fuente tiene una memoria de primer orden. Evidentemente. Sustituyendo P v de P i en la ecuación. proporciona un buen ejemplo de una fuente con la memoria. la letra U (mayúscula o no) se produce en Inglés texto con probabilidad P (U) = 0. pero si el anterior carta es Q.. entonces la probabilidad condicional se convierte en P (U 1 Q) == 1.Comunicaciones II Medidas de la Información y Codificación de Fuente Si existe un mensaje x1. I ( xi ) tendrá como unidad el bit. con una probabilidad de ocurrencia P(x1).

12 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . lo que significa que aproximadamente la mitad de los símbolos en un largo pasaje no son esenciales para transmitir la información. Una fuente con la memoria se dice que es redundante cuando las probabilidades condicionan la reducir H (X) en comparación con el registro de límite superior M. Asimismo sigue que si la incertidumbre se reduce por efecto de memoria. Promediando sobre todos los símbolos anteriores posible. Codificación para la transmisión eficiente que puede basarse en un método de predicción. entonces los rendimientos Una expresión equivalente es aplicable al caso general de una memoria orden.Comunicaciones II Medidas de la Información y Codificación de Fuente Que representa la información media por símbolo. la notación se engorroso porque x. Aquí vamos a analizar el régimen conocido como de ejecución de predicción que codifica para una discreta fuente con la memoria. ya que el símbolo anterior fue XJ. La redundancia del texto de Inglés se ha estimado en alrededor del 50 por ciento. y hay estados posibles a considerar. Sin embargo. debe ser reemplazado por el estado de la fuentes definidas en términos de los símbolos q anterior. entonces se incrementa la previsibilidad.

dentro de la teoría de la información. asociada a la entropía: 13 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . esto se expresa de la siguiente manera: IX. vamos a ver un diagrama que nos permitirá memorizar fácilmente algunas expresiones de la información mutua. como la entropía. cuánto nos reduce la incertidumbre sobre X.Comunicaciones II Medidas de la Información y Codificación de Fuente TRANSMISIÓN DE INFORMACIÓN EN CANALES DISCRETOS ➢ INFORMACION MUTUA La información mutua es. EXPRESIONES DE LA INFORMACIÓN MUTUA EN FUNCIÓN DE LA ENTROPÍA A continuación.Y= HX. Define la información aportada por una variable aleatoria sobre otra. Matemáticamente. una medida de gran importancia.H(XY) Nos está diciendo. el conocimiento de Y.

Comunicaciones II Medidas de la Información y Codificación de Fuente De este esquema. por lo que los dos círculos estarían confundidos en uno solo. podemos obtener las siguientes expresiones relevantes: Donde se ha considerado: Como caso particular.Y ) Propiedad de la información mutua Ahora. podemos considerar que X=Y. vamos a ver unas cuantas propiedades de la información mutua: La primera propiedad nos permite acotar la información mutua: Vamos a ver unas propiedades sobre la forma de las funciones información mutua y entropía. pero sin demostrarlas: 14 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . y H[X]=H[Y]=I(X.

X).Comunicaciones II Medidas de la Información y Codificación de Fuente La segunda propiedad se puede deducir de la primera si consideramos I(X. símbolos  . ➢ CAPACIDAD DE UN CANAL DISCRETO DEFINICIÓN PARA CANALES DISCRETOS Un canal discreto (sin memoria) está definido por:  el alfabeto de entrada. esta información viene definida por la matriz de probabilidades condicionadas del canal donde  Se define la entropia de entrada. que es el conjunto de que pueden ser transmitidos por el canal el alfabeto de salida. que es el conjunto de símbolos que pueden ser recibidos a la salida del canal las relaciones estadísticas entre los símbolos de entrada y los de salida . entropía de salida y entropía de entrada condicionada por la salida como 15 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . .

este máximo es precisamente lo que se conoce como la capacidad del canal ➢ COMDIFICACION DE UN CANAL BINARIO SIMETRICO CANAL BINARIO SIMETRICO Para el caso del canal binario simétrico con probabilidad de error de bit p. alcanza un máximo. su capacidad viene dada por 16 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . Para una determinada distribución de entrada.Comunicaciones II Medidas de la Información y Codificación de Fuente La información mutua entre la entrada y la salida del canal la denotamos por y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa Esta información mutua depende de la distribución de probabilidad de la entrada .

Bastaría con invertir los bits antes de enviarlos para tener un canal ideal (con probabilidad p = 0). – Los alfabetos de entrada y salida consisten de los elementos binarios y las probabilidades condicionales son simétricas.5. La capacidad de este canal es cero cuando p = 0. cuando p = 0. Es una función que aparece mucho en teoría de la información. igual a 1. la probabilidad de error de bit es p. Canal binario simétrico. su capacidad es nula.5. P ( 0 | 1) = P (1 | 0) = ρ ∧ P (1 | 1) = P (0 | 0) = 1 − ρ 17 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .Comunicaciones II Medidas de la Información y Codificación de Fuente La función esto tiene sentido ya que en este caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que es un canal inservible para enviar información. Note que si un canal tuviese probabilidad de error de bit p = 1 eso no significa que sea un canal malo. Se trata de una función cóncava (y por tanto cumple la desigualdad de Jensen) y alcanza su máximo. cuando p = 0 o p = 1 vale 0. por otro lado. todo lo contrario.

Comunicaciones II Medidas de la Información y Codificación de Fuente 18 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .

19 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . mediante el uso de conocimiento de varios códigos la codificación es de gran ayuda para el analista de sistemas ya que le permite el alcance de un objetivo eficiente para la captura de datos que estén codificados. podemos caracterizar su distribución de frecuencias mediante algunos valores numéricos. eligiendo como resumen de los datos un valor central alrededor del cual se encuentran distribuidos los valores de la variable. En las medidas de posición se trata de encontrar medidas que sinteticen las distribuciones de frecuencias. En cuanto a la codificación efectiva los datos pueden ser capturados precisa y efectivamente. incluye como un elemento de importancia la ubicación de éstos dentro de un contexto de valores posibles. tarea que puede ser pesada.Comunicaciones II Medidas de la Información y Codificación de Fuente CONCLUSIÓN Las medidas de posición en un conjunto de datos están diseñadas para proporcionar al analista algunas medidas cuantitativas de donde está el centro de los datos en una muestra. La descripción de un conjunto de datos. En vez de manejar todos los datos sobre las variables.

el. (1997).pdf ✔ http://www. Sistemas. (2003). Estos tipos de códigos especifican permiten tratar los datos en una forma particular. Editorial Addison Wesley. Introducción a la Teoría y Sistemas de Comunicaciones. Introducción a los Sistemas de Comunicaciones. Tercera edición. Editorial Limusa. Editorial Prentice Hall. B.slideshare. Wayne.unexpo. Alan y Wilsky.net/tarazona19/semana-8 20 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .Comunicaciones II Medidas de la Información y Codificación de Fuente En los tipos de códigos vemos que cada uno de ellos tiene maneras diferentes para el maneja-miento de procesamiento de la captura de los datos. Principios de Comunicaciones.bqto. Segunda edición. Cuarta edición. ✔ Oppenheim.edu. ✔ Stremler. BIBLIOGRAFIA ✔ Lathi.P. Alan.html ✔ http://sertel. ✔ Tomasi. (1993). BIBLIOGRAFIA ELECTRONICA ✔ http://www.upc. Señales y Sistemas. ✔ Ziemer y Tranter. Editorial Prentice Hall. Sistemas de Comunicaciones Electrónicas. Ferrel. Editorial Trillas.edu/tdatos/Transparencias/CodCanPant. Modulación y Ruido.ve/jaguero/pregrado. (1983). (1998).

wikipedia.scribd.ar/catedras/teoinfo/Clase_005_2011.uc3m.com/Unidad+VI ✔ http://www.es/~hmolina/wpcontent/uploads/2010/02/lsyc_ittst_p7.wikispaces.exa.pdf 21 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .pdf ✔ http://www.unicen.com/doc/6660549/CodificaciOn-de-Fuente ✔ http://es.Comunicaciones II Medidas de la Información y Codificación de Fuente ✔ http://es.org/wiki/Teorema_de_Shannon-Hartley ✔ http://comunicaciones-ii-unefa.edu.tsc.

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->