República Bolivariana de Venezuela Ministerio del Poder Popular para la Defensa “Universidad Nacional Experimental Politécnica de la Fuerza Armada

Nacional” Sede: Cumaná – Núcleo: Sucre Cumaná, Estado Sucre U.N.E.F.A

Cátedra: Comunicaciones II

Prof.: Ing. Oliscar Andradez Realizado por: Luis G. López P. C.I.: 18.212.442 María J. Malave M. C.I.: 23.684.959 Alejandro Guevara C.I.: 15.742.185 Cumaná, 7 de Diciembre de 2011 Sección: “01”

INDICE

Comunicaciones II Medidas de la Información y Codificación de Fuente 1. Medida de la Información y Codificación de Fuente. . . . . . . . . . . . . . . . . . .

4
2. Concepto y Medida de Información. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 2.1. Conceptos Básicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2. Medida de la Información. Concepto de Información, Mensaje o Autoinformación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.3. Medida de Información. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.4. Unidad de Medida de Información. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.5. El Bit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.6. El Byte y sus Múltiplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 2.7. Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3. Teorema de Shannon. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9 3.1. La ley debe su nombre a Claude Shannon y Ralph Hartley. . . . . . . . . . . . . 9 4. Codificación para una Fuente Discreta Sin Memoria. . . . . . . . . . . . . . . . . . . 9 5. Codificación Predictiva para Fuentes con Memoria. . . . . . . . . . . . . . . . . . . 10
6. Transmisión de Información en Canal Discreto. . . . . . . . . . . . . . . . . . . . . .

12 6.1. Información Mutua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional

. . . 13 7. . . .2. pero sin perder información. . . . . . . . ..12 6. . . . Por supuesto. . . el camino a seguir para determinar la cantidad de información útil de unos datos y para comprimir la información de manera que los datos se representen de una manera eficiente. . . .Comunicaciones II Medidas de la Información y Codificación de Fuente . . . Canal Binario Simétrico. . . . . más sorprendentes) de la Teoría de 3 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . . No vamos a tratar en este trabajo de lo que probablemente sean los resultados más interesantes (o por lo menos. . por lo que habrá que estimarlas de los datos existentes. . Sería interesante reducir la cantidad de datos. . . . . . . . los que menos deseamos es que la mitad de los datos que recibimos.1. . . . . . La Teoría de la Información se desarrolla en términos de probabilidades. . . . . . . . . . ¿para qué la querríamos?). . . . . Codificación para Canal Binario Simétrico. . . .1. . . . Capacidad de un Canal Discreto. . . . . . .. . los dispositivos de almacenamiento no tienen capacidad ilimitada. . ya que la información tiene una naturaleza aleatoria (si supiésemos de antemano la información. . En este trabajo supondremos conocidas las características estadísticas de nuestros datos. . . . entre otras cosas. . . . . en la realidad no disponemos a priori de las probabilidades necesarias. . . . . . . . . Expresiones de la Información Mutua en Función de la Entropía. . . . . . . .13 8. . . . . . . . . .14 INTRODUCCIÓN La transmisión de datos no es tan rápida como quisiéramos. . .12 7. . . . . . . . . . no sirvan para nada. . . La Teoría de la Información nos muestra. . . . . 14 8. . . . . las cantidades muy grandes de datos son poco manejables. . . . encima. . . . . . Definición para Canales Discretos. . . .

extracción. etc. A continuación veremos el diagrama de bloques de un sistema de transmisión digital: 4 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . confiabilidad. Estos resultados establecen la capacidad máxima de transmisión fiable de datos de un canal. ∗ Se ocupa de la descripción matemática y evaluación de los métodos y transmisión. Pragmáticos: Analizan el grado de eficiencia en que influye la información sobre el comportamiento del destinatario. Semánticos: Están dirigidos a las investigaciones que pretenden resolver el problema de cómo es posible transmitir exactamente el significado del mensaje con ayuda de textos.Comunicaciones II Medidas de la Información y Codificación de Fuente la información. entre otras cosas. conservación. clasificación y medida de la información. velocidad de transmisión. MEDIDA DE LA INFORMACIÓN Y CODIFICACIÓN DE FUENTE El concepto de información supone dios objetos: ∗ ∗ La fuente de información(Tx) y El destinatario de la información(RX) Los tipos de problemas que surgen en el estudio de la información son de alguno de estos tres tipos: ∗ ∗ Técnicos: Relativos a la exactitud. ya que se necesitan algunos conocimientos de transmisión digital de datos.

agrega ruido. La codificación se emplea para adaptar la fuente al canal para una transferencia de información con un máximo de confiabilidad. por ejemplo. Estos tres conceptos básicos se encuentran reunidos en lo que puede llamarse “Teorema fundamental de la teoría de la información”. el receptor se encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje original. Luego de pasar por un canal que. 5 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . el codificador de canal introducirá bits redundantes de una manera controlada. mas bits a los símbolos menos probables y menos bits a los más probables. con el fin de fortalecer la información frente al ruido o a la interferencia que pueda conseguir en el canal. asignando. Por su parte. El codificador de fuente también se puede encargar de codificar eficientemente los datos binarios. ➢ CONCEPTO Y MEDIDA DE INFORMACION CONCEPTOS BÁSICOS Los principales conceptos a desarrollar en la Teoría de la Información son: ∗ ∗ ∗ La medida de la información La capacidad de un canal de comunicación para transferir la información La codificación como medio de utilizar el canal a plena capacidad. entre otras cosas.Comunicaciones II Medidas de la Información y Codificación de Fuente Se dice que los símbolos son generados por una fuente y a la conversión se le llama codificación de fuente (por ejemplo PCM o DPCM).

sea I C = I A + IB La única función que satisface estas cuatro condiciones es: Ecuación No 2 f ( P( A)) = − K log b PA = K logb 1 PA Donde K es una constante positiva y b la base. Al especificar la base se selecciona la unidad de información así: 6 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . P ( A )→1 lim f ( P( A)) = 0 > f ( P( A)) f ( P( B )) 3. Para P(A)<P(B) 4. CONCEPTO DE INFORMACIÓN.Comunicaciones II Medidas de la Información y Codificación de Fuente MEDIDA DE LA INFORMACIÓN. Para encontrar f(P(A)) se suponen los siguientes requerimientos: 1. f ( P( A)) ≥ 0 donde 0≤P(A) ≤1 2. f ( P( A).P( B )) = f ( P( A)) + f ( P( B )) = f ( P(C )) o. MENSAJE O AUTOINFORMACIÓN Sea un mensaje “A” de probabilidad de ocurrencia “P(A)”. Hartley demostró que K es 1. la información que conlleva ese mensaje definida como autoinformación es: Ecuación No 1 I A = f ( P( A)) donde f(P(A)) debe ser determinada.

UNIDADES DE MEDIDA DE INFORMACIÓN En esta página se mencionan las distintas medidas utilizadas cuando hablamos de datos o de capacidades de dispositivos de almacenamiento. blanco o negro. etc. amarillo o azul. Podemos imaginarnos a un bit como un bombilla que puede estar en uno de dos estados. como: verdadero o falso. 7 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . podemos representar dos valores cualquiera. 0 ó 1. El bit es un dígito del sistema de numeración binario y. que este sistema utiliza. norte o sur. Basta con asignar uno de esos valores al estado de "apagado". y el otro al estado de "encendido". EL BIT Bit es el acrónimo de BInary digiT (dígito binario). masculino o femenino.Comunicaciones II Medidas de la Información y Codificación de Fuente ∗ Unidades de orden r I A = log r 1 P( A) Shannon o bit I A = log 2 1 P( A) Hartley I A = log10 1 P( A) Natural ∗ ∗ ∗ I A = lnr 1 P( A) MEDIDA DE INFORMACIÓN En esta sección se hace un repaso sobre las medida utilizadas cuando hablamos de almacenamiento y transmisión de datos. Con él. El bit es la unidad mínima de información empleada en informática o en cualquier dispositivo digital. apagado o encendido. puede representar uno de los dos valores. por tanto. abierto o cerrado.

Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes. pero cuando hablamos de datos informáticos significa 1024 (210. que es la potencia de 2 más cercana al millón). representar los colores rojo. el petabyte o PB (1024 TB) y el exabyte o EB (1024 PB). más información en un dispositivo digital. un megabyte equivale a 1024 kilobytes y se representa por MB (¡ambas letras en mayúsculas!). Por ejemplo. el dígito binario 0 puede estar representado por 0 voltios de electricidad mientras que el dígito binario 1 puede estar representado por 5 voltios de electricidad. muchas de las medidas en informática se realizan con números que son potencias exactas de 2. El primero está "apagado" y el segundo "encendido". 1024 MB constituyen un gigabyte. EJEMPLOS 8 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . Si usamos dos bits. Para representar. Los dos están "encendidos". o codificar. y éste solo admite 2 valores. por ejemplo. el prefijo mega significa comúnmente un millón. un kilobyte son 1024 bytes y se representa como KB (¡ambas letras en mayúsculas!). Así. pero en informática es 1048576 (220. que en español se traduce por octeto (aunque nosotros usaremos la acepción inglesa). EL BYTE Y SUS MÚLTIPLOS Con un bit podemos representar solamente dos valores. Así. De la misma manera. Como la base de los cálculos en informática es el bit. se forma lo que se denomina byte. necesitamos una mayor cantidad de bits. El gigabyte se representa como GB. que es la potencia de 2 más cercana al millar). Siguiendo el mismo patrón. tendremos cuatro combinaciones posibles: • • • • Los dos están "apagados". Cuando se reunen ocho. el prefijo kilo significa comúnmente mil. El primero está "encendido" y el segundo "apagado". Podríamos. los siguientes múltiplos son el terabyte o TB (1024 GB). 256 valores). verde.Comunicaciones II Medidas de la Información y Codificación de Fuente En un ordenador. estos dos estados de "apagado" y "encendido" están representados por la presencia o la ausencia de corriente eléctrica. ya que el prefijo giga significa mil millones. Un byte puede tomar 28 valores (es decir. azul y negro. Por tanto.

y los mayores llegan hasta 400 GB. he aquí algunos ejemplos: • • • • • • • • • • • • • • El tamaño de la memoria RAM de un PC de hoy en día es de 512 a 1024 MB. el teorema de Shannon-Hartley es una aplicación del teorema de codificación para canales con ruido. papel. entre 90 y 130 MB. Según declara Google. Un programa moderno de tratamiento de textos ocupa unos 50 ó 60 MB. Un DVD puede almacenar hasta 17 GB. En un CD-ROM estándar caben 650 MB. Una página escrita a máquina ocuparía 4 KB. Un caso muy 9 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . solo tienen indexado el 0. En un disquete caben 1.005 por ciento de los 5 exabytes que existen almacenados en la actualidad en cualquier tipo de formato: archivos digitales de ordenador. etc.44 MB. y suele ser ampliable hasta los 4 GB. Las obras completas de Beethoven en buena calidad ocuparían 20 GB. Un disco duro estándar tiene entre 100 y 200 GB. Una foto de una camara corriente hoy en día ocupa alrededor de 2 MB. Windows 98. películas. Un texto de unas cuantas páginas tendrá 20 ó 30 KB.Comunicaciones II Medidas de la Información y Codificación de Fuente Para familiarizarse con estas medidas. Windows 95 ocupa entre 40 y 70 MB. Las obras completas de Shakespeare ocuparían 5 MB. ➢ TEOREMA DE SHANNON En teoría de la información. La colección completa de la Biblioteca del Congreso de los Estados Unidos ocupa 10 TB. Los ingenieros de Google han hecho algunos cálculos y creen que tardarían unos 300 años en indexar toda la información que existe en el mundo para ponerla a disposición de los usuarios.

La ley debe su nombre a Claude Shannon y Ralph Hartley C = BLog2 (1+s/n) Donde:  B es el ancho de banda del canal. además. El teorema establece la capacidad del canal de Shannon. para la correcta aplicación del teorema. En las hipótesis de partida. ➢ CODIFICACIÓN PARA UNA FUENTE DISCRETA SIN MEMORIA La cantidad de información de un mensaje. La probabilidad de un mensaje siempre estará en un valor entre cero y uno. etc. se asume una limitación en la potencia de la señal y.Comunicaciones II Medidas de la Información y Codificación de Fuente frecuente es el de un canal de comunicación analógico continuo en el tiempo que presenta un ruido gausiano. La información contenida en eventos independientes debería sumarse.) que trata de enmascarar a la señal útil. información) que pueden ser transmitidos sobre dicho enlace de comunicaciones con de banda específico y que está sometido a la presencia de la interferencia del ruido. Si un evento es conocido. etc. la información aportada es cero. de hecho su probabilidad de ocurrencia es uno. es inversamente proporcional a la probabilidad de ocurrencia. que el proceso del ruido gausiano es caracterizado por una potencia conocida o una densidad espectral de potencia. etc.)  N es la potencia del ruido presente en el canal.. mW. (mW. una cota superior que establece la máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es. 1 bits I ( x i ) = Log 2 1 P ( x1 ) 10 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . (W. que puede estar expresada en vatios.  C es la capacidad del canal (tasa de bits de información bit/s)  S es la potencia de la señal útil. milivatios. μW.

la memoria efecto reduce la incertidumbre y por lo tanto resulta en un valor más bajo de entropía que se calcularían en función absolutos en lugar de estadísticas básicas condicional. Tendrá como unidad el NAT. Supongamos que una fuente tiene una memoria de primer orden. I ( xi ) tendrá como unidad el bit. Sustituyendo P v de P i en la ecuación. si empleamos logaritmos naturales.Comunicaciones II Medidas de la Información y Codificación de Fuente Si existe un mensaje x1. el contenido 1 de información puede expresarse según . con una probabilidad de ocurrencia P(x1). por lo que "recuerda" un solo símbolo anterior. El lenguaje escrito. si empleamos logaritmos decimales. La conversión de unidades podrá realizarse de acuerdo a la siguiente expresión: Log 2 a = ln a / ln 2 = log a / log 2 ➢ CODIFICACIÓN PREDICTIVA PARA FUENTES CON MEMORIA Varias fuentes de información han de memoria en el sentido de que símbolo de las probabilidades dependen de uno o más símbolos anteriores. Evidentemente. vamos PG ser la probabilidad de que x i símbolo es el símbolo elegido después de x. (6).. Tendrá como unidad el HARTLEY. se rigen por reglas de ortografía y gramática. Para formular la entropía. si empleamos logaritmos binarios. Por ejemplo. tenemos la entropía condicional 11 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . la letra U (mayúscula o no) se produce en Inglés texto con probabilidad P (U) = 0. proporciona un buen ejemplo de una fuente con la memoria. entonces la probabilidad condicional se convierte en P (U 1 Q) == 1.02 sobre la base de la frecuencia relativa. pero si el anterior carta es Q.

entonces los rendimientos Una expresión equivalente es aplicable al caso general de una memoria orden. y hay estados posibles a considerar. debe ser reemplazado por el estado de la fuentes definidas en términos de los símbolos q anterior. la notación se engorroso porque x. 12 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . Una fuente con la memoria se dice que es redundante cuando las probabilidades condicionan la reducir H (X) en comparación con el registro de límite superior M.Comunicaciones II Medidas de la Información y Codificación de Fuente Que representa la información media por símbolo. Promediando sobre todos los símbolos anteriores posible. Sin embargo. La redundancia del texto de Inglés se ha estimado en alrededor del 50 por ciento. Aquí vamos a analizar el régimen conocido como de ejecución de predicción que codifica para una discreta fuente con la memoria. ya que el símbolo anterior fue XJ. Asimismo sigue que si la incertidumbre se reduce por efecto de memoria. lo que significa que aproximadamente la mitad de los símbolos en un largo pasaje no son esenciales para transmitir la información. entonces se incrementa la previsibilidad. Codificación para la transmisión eficiente que puede basarse en un método de predicción.

dentro de la teoría de la información.Y= HX. esto se expresa de la siguiente manera: IX. como la entropía. Define la información aportada por una variable aleatoria sobre otra. EXPRESIONES DE LA INFORMACIÓN MUTUA EN FUNCIÓN DE LA ENTROPÍA A continuación.H(XY) Nos está diciendo. el conocimiento de Y. vamos a ver un diagrama que nos permitirá memorizar fácilmente algunas expresiones de la información mutua. una medida de gran importancia. Matemáticamente. cuánto nos reduce la incertidumbre sobre X. asociada a la entropía: 13 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .Comunicaciones II Medidas de la Información y Codificación de Fuente TRANSMISIÓN DE INFORMACIÓN EN CANALES DISCRETOS ➢ INFORMACION MUTUA La información mutua es.

podemos considerar que X=Y. vamos a ver unas cuantas propiedades de la información mutua: La primera propiedad nos permite acotar la información mutua: Vamos a ver unas propiedades sobre la forma de las funciones información mutua y entropía. pero sin demostrarlas: 14 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . y H[X]=H[Y]=I(X.Y ) Propiedad de la información mutua Ahora.Comunicaciones II Medidas de la Información y Codificación de Fuente De este esquema. por lo que los dos círculos estarían confundidos en uno solo. podemos obtener las siguientes expresiones relevantes: Donde se ha considerado: Como caso particular.

esta información viene definida por la matriz de probabilidades condicionadas del canal donde  Se define la entropia de entrada. símbolos  . entropía de salida y entropía de entrada condicionada por la salida como 15 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . que es el conjunto de que pueden ser transmitidos por el canal el alfabeto de salida. ➢ CAPACIDAD DE UN CANAL DISCRETO DEFINICIÓN PARA CANALES DISCRETOS Un canal discreto (sin memoria) está definido por:  el alfabeto de entrada. X). que es el conjunto de símbolos que pueden ser recibidos a la salida del canal las relaciones estadísticas entre los símbolos de entrada y los de salida . .Comunicaciones II Medidas de la Información y Codificación de Fuente La segunda propiedad se puede deducir de la primera si consideramos I(X.

Para una determinada distribución de entrada.Comunicaciones II Medidas de la Información y Codificación de Fuente La información mutua entre la entrada y la salida del canal la denotamos por y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa Esta información mutua depende de la distribución de probabilidad de la entrada . este máximo es precisamente lo que se conoce como la capacidad del canal ➢ COMDIFICACION DE UN CANAL BINARIO SIMETRICO CANAL BINARIO SIMETRICO Para el caso del canal binario simétrico con probabilidad de error de bit p. alcanza un máximo. su capacidad viene dada por 16 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .

Se trata de una función cóncava (y por tanto cumple la desigualdad de Jensen) y alcanza su máximo. Es una función que aparece mucho en teoría de la información.5. Bastaría con invertir los bits antes de enviarlos para tener un canal ideal (con probabilidad p = 0). por otro lado. La capacidad de este canal es cero cuando p = 0. la probabilidad de error de bit es p.5. cuando p = 0. igual a 1. todo lo contrario. – Los alfabetos de entrada y salida consisten de los elementos binarios y las probabilidades condicionales son simétricas. P ( 0 | 1) = P (1 | 0) = ρ ∧ P (1 | 1) = P (0 | 0) = 1 − ρ 17 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . Canal binario simétrico. cuando p = 0 o p = 1 vale 0. su capacidad es nula.Comunicaciones II Medidas de la Información y Codificación de Fuente La función esto tiene sentido ya que en este caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que es un canal inservible para enviar información. Note que si un canal tuviese probabilidad de error de bit p = 1 eso no significa que sea un canal malo.

Comunicaciones II Medidas de la Información y Codificación de Fuente 18 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .

19 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . mediante el uso de conocimiento de varios códigos la codificación es de gran ayuda para el analista de sistemas ya que le permite el alcance de un objetivo eficiente para la captura de datos que estén codificados. podemos caracterizar su distribución de frecuencias mediante algunos valores numéricos. La descripción de un conjunto de datos. En vez de manejar todos los datos sobre las variables. En cuanto a la codificación efectiva los datos pueden ser capturados precisa y efectivamente. tarea que puede ser pesada. En las medidas de posición se trata de encontrar medidas que sinteticen las distribuciones de frecuencias. eligiendo como resumen de los datos un valor central alrededor del cual se encuentran distribuidos los valores de la variable. incluye como un elemento de importancia la ubicación de éstos dentro de un contexto de valores posibles.Comunicaciones II Medidas de la Información y Codificación de Fuente CONCLUSIÓN Las medidas de posición en un conjunto de datos están diseñadas para proporcionar al analista algunas medidas cuantitativas de donde está el centro de los datos en una muestra.

edu/tdatos/Transparencias/CodCanPant. Tercera edición. Editorial Prentice Hall.bqto. (1983). ✔ Oppenheim. Editorial Trillas. (1993). Sistemas de Comunicaciones Electrónicas.upc. ✔ Stremler.net/tarazona19/semana-8 20 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional . (1997). (2003).html ✔ http://sertel. Editorial Addison Wesley.edu. Editorial Prentice Hall. Editorial Limusa.slideshare. Alan. Modulación y Ruido. Wayne.P. BIBLIOGRAFIA ✔ Lathi. ✔ Tomasi. B. Señales y Sistemas.unexpo. Segunda edición.pdf ✔ http://www. (1998). Alan y Wilsky.Comunicaciones II Medidas de la Información y Codificación de Fuente En los tipos de códigos vemos que cada uno de ellos tiene maneras diferentes para el maneja-miento de procesamiento de la captura de los datos.el. Ferrel. ✔ Ziemer y Tranter. Cuarta edición. Sistemas. BIBLIOGRAFIA ELECTRONICA ✔ http://www.ve/jaguero/pregrado. Introducción a los Sistemas de Comunicaciones. Introducción a la Teoría y Sistemas de Comunicaciones. Estos tipos de códigos especifican permiten tratar los datos en una forma particular. Principios de Comunicaciones.

com/Unidad+VI ✔ http://www.edu.es/~hmolina/wpcontent/uploads/2010/02/lsyc_ittst_p7.com/doc/6660549/CodificaciOn-de-Fuente ✔ http://es.exa.org/wiki/Teorema_de_Shannon-Hartley ✔ http://comunicaciones-ii-unefa.pdf 21 Universidad Nacional Experimental Politécnica de la Fuerza Armada Nacional .ar/catedras/teoinfo/Clase_005_2011.wikipedia.wikispaces.pdf ✔ http://www.tsc.unicen.scribd.Comunicaciones II Medidas de la Información y Codificación de Fuente ✔ http://es.uc3m.

Sign up to vote on this title
UsefulNot useful