Está en la página 1de 21

Repblica Bolivariana de Venezuela Ministerio del Poder Popular para la Defensa Universidad Nacional Experimental Politcnica de la Fuerza Armada

Nacional Sede: Cuman Ncleo: Sucre Cuman, Estado Sucre U.N.E.F.A

Ctedra: Comunicaciones II

Prof.: Ing. Oliscar Andradez Realizado por: Luis G. Lpez P. C.I.: 18.212.442 Mara J. Malave M. C.I.: 23.684.959 Alejandro Guevara C.I.: 15.742.185 Cuman, 7 de Diciembre de 2011 Seccin: 01

INDICE

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente 1. Medida de la Informacin y Codificacin de Fuente. . . . . . . . . . . . . . . . . . .

4
2. Concepto y Medida de Informacin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

5 2.1. Conceptos Bsicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2. Medida de la Informacin. Concepto de Informacin, Mensaje o Autoinformacin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.3. Medida de Informacin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.4. Unidad de Medida de Informacin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.5. El Bit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 2.6. El Byte y sus Mltiplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .7 2.7. Ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3. Teorema de Shannon. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

9 3.1. La ley debe su nombre a Claude Shannon y Ralph Hartley. . . . . . . . . . . . . 9 4. Codificacin para una Fuente Discreta Sin Memoria. . . . . . . . . . . . . . . . . . . 9 5. Codificacin Predictiva para Fuentes con Memoria. . . . . . . . . . . . . . . . . . . 10
6. Transmisin de Informacin en Canal Discreto. . . . . . . . . . . . . . . . . . . . . .

12 6.1. Informacin Mutua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


2 Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

.12 6.2. Expresiones de la Informacin Mutua en Funcin de la Entropa. . . . . . . .12


7. Capacidad de un Canal Discreto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

13 7.1. Definicin para Canales Discretos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .13


8. Codificacin para Canal Binario Simtrico. . . . . . . . . . . . . . . . . . . . . . . . . .

14 8.1. Canal Binario Simtrico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .14

INTRODUCCIN La transmisin de datos no es tan rpida como quisiramos, los dispositivos de almacenamiento no tienen capacidad ilimitada, las cantidades muy grandes de datos son poco manejables... los que menos deseamos es que la mitad de los datos que recibimos, encima, no sirvan para nada. Sera interesante reducir la cantidad de datos, pero sin perder informacin. La Teora de la Informacin nos muestra, entre otras cosas, el camino a seguir para determinar la cantidad de informacin til de unos datos y para comprimir la informacin de manera que los datos se representen de una manera eficiente. La Teora de la Informacin se desarrolla en trminos de probabilidades, ya que la informacin tiene una naturaleza aleatoria (si supisemos de antemano la informacin, para qu la querramos?). Por supuesto, en la realidad no disponemos a priori de las probabilidades necesarias, por lo que habr que estimarlas de los datos existentes. En este trabajo supondremos conocidas las caractersticas estadsticas de nuestros datos. No vamos a tratar en este trabajo de lo que probablemente sean los resultados ms interesantes (o por lo menos, ms sorprendentes) de la Teora de
3 Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

la informacin, ya que se necesitan algunos conocimientos de transmisin digital de datos. Estos resultados establecen la capacidad mxima de transmisin fiable de datos de un canal, entre otras cosas.

MEDIDA DE LA INFORMACIN Y CODIFICACIN DE FUENTE

El concepto de informacin supone dios objetos: La fuente de informacin(Tx) y El destinatario de la informacin(RX)

Los tipos de problemas que surgen en el estudio de la informacin son de alguno de estos tres tipos: Tcnicos: Relativos a la exactitud, confiabilidad, velocidad de transmisin, etc. Semnticos: Estn dirigidos a las investigaciones que pretenden resolver el problema de cmo es posible transmitir exactamente el significado del mensaje con ayuda de textos. Pragmticos: Analizan el grado de eficiencia en que influye la informacin sobre el comportamiento del destinatario.

Se ocupa de la descripcin matemtica y evaluacin de los mtodos y transmisin, conservacin, extraccin, clasificacin y medida de la informacin. A continuacin veremos el diagrama de bloques de un sistema de transmisin digital:

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

Se dice que los smbolos son generados por una fuente y a la conversin se le llama codificacin de fuente (por ejemplo PCM o DPCM). El codificador de fuente tambin se puede encargar de codificar eficientemente los datos binarios, asignando, por ejemplo, mas bits a los smbolos menos probables y menos bits a los ms probables. Por su parte, el codificador de canal introducir bits redundantes de una manera controlada, con el fin de fortalecer la informacin frente al ruido o a la interferencia que pueda conseguir en el canal. Luego de pasar por un canal que, entre otras cosas, agrega ruido, el receptor se encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje original.

CONCEPTO Y MEDIDA DE INFORMACION

CONCEPTOS BSICOS Los principales conceptos a desarrollar en la Teora de la Informacin son: La medida de la informacin La capacidad de un canal de comunicacin para transferir la informacin La codificacin como medio de utilizar el canal a plena capacidad.

Estos tres conceptos bsicos se encuentran reunidos en lo que puede llamarse Teorema fundamental de la teora de la informacin. La codificacin se emplea para adaptar la fuente al canal para una transferencia de informacin con un mximo de confiabilidad.

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

MEDIDA DE LA INFORMACIN. CONCEPTO DE INFORMACIN, MENSAJE O AUTOINFORMACIN Sea un mensaje A de probabilidad de ocurrencia P(A), la informacin que conlleva ese mensaje definida como autoinformacin es: Ecuacin No 1

I A = f ( P( A))
donde f(P(A)) debe ser determinada. Para encontrar f(P(A)) se suponen los siguientes requerimientos: 1.
f ( P( A)) 0

donde 0P(A) 1

2.
P ( A )1

lim f ( P( A)) = 0
>
f ( P( A)) f ( P( B ))

3.

Para P(A)<P(B)

4.
f ( P( A).P( B )) = f ( P( A)) + f ( P( B )) = f ( P(C ))

o, sea

+ IB

La nica funcin que satisface estas cuatro condiciones es: Ecuacin No 2


f ( P( A)) = K log b PA = K logb 1 PA

Donde K es una constante positiva y b la base. Hartley demostr que K es 1. Al especificar la base se selecciona la unidad de informacin as:

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

Unidades de orden r I A = log r 1 P( A) Shannon o bit I A = log 2 1 P( A) Hartley I A = log10 1 P( A) Natural

I A = lnr

1 P( A)

MEDIDA DE INFORMACIN En esta seccin se hace un repaso sobre las medida utilizadas cuando hablamos de almacenamiento y transmisin de datos. UNIDADES DE MEDIDA DE INFORMACIN En esta pgina se mencionan las distintas medidas utilizadas cuando hablamos de datos o de capacidades de dispositivos de almacenamiento. EL BIT Bit es el acrnimo de BInary digiT (dgito binario). El bit es un dgito del sistema de numeracin binario y, por tanto, puede representar uno de los dos valores, 0 1, que este sistema utiliza. Podemos imaginarnos a un bit como un bombilla que puede estar en uno de dos estados, apagado o encendido. El bit es la unidad mnima de informacin empleada en informtica o en cualquier dispositivo digital. Con l, podemos representar dos valores cualquiera, como: verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino o femenino, amarillo o azul, etc. Basta con asignar uno de esos valores al estado de "apagado", y el otro al estado de "encendido".

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

En un ordenador, estos dos estados de "apagado" y "encendido" estn representados por la presencia o la ausencia de corriente elctrica. Por ejemplo, el dgito binario 0 puede estar representado por 0 voltios de electricidad mientras que el dgito binario 1 puede estar representado por 5 voltios de electricidad. EL BYTE Y SUS MLTIPLOS Con un bit podemos representar solamente dos valores. Para representar, o codificar, ms informacin en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles: Los dos estn "apagados". El primero est "encendido" y el segundo "apagado". El primero est "apagado" y el segundo "encendido". Los dos estn "encendidos".

Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes. Podramos, por ejemplo, representar los colores rojo, verde, azul y negro. Cuando se reunen ocho, se forma lo que se denomina byte, que en espaol se traduce por octeto (aunque nosotros usaremos la acepcin inglesa). Un byte puede tomar 28 valores (es decir, 256 valores). Como la base de los clculos en informtica es el bit, y ste solo admite 2 valores, muchas de las medidas en informtica se realizan con nmeros que son potencias exactas de 2. As, el prefijo kilo significa comnmente mil, pero cuando hablamos de datos informticos significa 1024 (210, que es la potencia de 2 ms cercana al millar). Por tanto, un kilobyte son 1024 bytes y se representa como KB (ambas letras en maysculas!). De la misma manera, el prefijo mega significa comnmente un milln, pero en informtica es 1048576 (220, que es la potencia de 2 ms cercana al milln). As, un megabyte equivale a 1024 kilobytes y se representa por MB (ambas letras en maysculas!). 1024 MB constituyen un gigabyte, ya que el prefijo giga significa mil millones. El gigabyte se representa como GB. Siguiendo el mismo patrn, los siguientes mltiplos son el terabyte o TB (1024 GB), el petabyte o PB (1024 TB) y el exabyte o EB (1024 PB). EJEMPLOS

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

Para familiarizarse con estas medidas, he aqu algunos ejemplos: El tamao de la memoria RAM de un PC de hoy en da es de 512 a 1024 MB, y suele ser ampliable hasta los 4 GB. Un disco duro estndar tiene entre 100 y 200 GB, y los mayores llegan hasta 400 GB. En un disquete caben 1.44 MB. En un CD-ROM estndar caben 650 MB. Un DVD puede almacenar hasta 17 GB. Windows 95 ocupa entre 40 y 70 MB; Windows 98, entre 90 y 130 MB. Un programa moderno de tratamiento de textos ocupa unos 50 60 MB. Una pgina escrita a mquina ocupara 4 KB. Un texto de unas cuantas pginas tendr 20 30 KB. Las obras completas de Shakespeare ocuparan 5 MB. Una foto de una camara corriente hoy en da ocupa alrededor de 2 MB. Las obras completas de Beethoven en buena calidad ocuparan 20 GB. La coleccin completa de la Biblioteca del Congreso de los Estados Unidos ocupa 10 TB. Los ingenieros de Google han hecho algunos clculos y creen que tardaran unos 300 aos en indexar toda la informacin que existe en el mundo para ponerla a disposicin de los usuarios. Segn declara Google, solo tienen indexado el 0,005 por ciento de los 5 exabytes que existen almacenados en la actualidad en cualquier tipo de formato: archivos digitales de ordenador, papel, pelculas, etc.

TEOREMA DE SHANNON En teora de la informacin, el teorema de Shannon-Hartley es una aplicacin del teorema de codificacin para canales con ruido. Un caso muy

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

frecuente es el de un canal de comunicacin analgico continuo en el tiempo que presenta un ruido gausiano. El teorema establece la capacidad del canal de Shannon, una cota superior que establece la mxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es, informacin) que pueden ser transmitidos sobre dicho enlace de comunicaciones con de banda especfico y que est sometido a la presencia de la interferencia del ruido. En las hiptesis de partida, para la correcta aplicacin del teorema, se asume una limitacin en la potencia de la seal y, adems, que el proceso del ruido gausiano es caracterizado por una potencia conocida o una densidad espectral de potencia. La ley debe su nombre a Claude Shannon y Ralph Hartley C = BLog2 (1+s/n) Donde: B es el ancho de banda del canal. C es la capacidad del canal (tasa de bits de informacin bit/s) S es la potencia de la seal til, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.) N es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a la seal til.
CODIFICACIN PARA UNA FUENTE DISCRETA SIN MEMORIA

La cantidad de informacin de un mensaje, es inversamente proporcional a la probabilidad de ocurrencia. Si un evento es conocido, la informacin aportada es cero, de hecho su probabilidad de ocurrencia es uno. La probabilidad de un mensaje siempre estar en un valor entre cero y uno. La informacin contenida en eventos independientes debera sumarse.
1

bits I ( x i ) = Log 2 1 P ( x1 )

10

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

Si existe un mensaje x1, con una probabilidad de ocurrencia P(x1), el contenido


1

de informacin puede expresarse segn

I ( xi )

tendr como unidad el bit,

si empleamos logaritmos binarios. Tendr como unidad el HARTLEY, si empleamos logaritmos decimales. Tendr como unidad el NAT, si empleamos logaritmos naturales. La conversin de unidades podr realizarse de acuerdo a la siguiente expresin:

Log 2 a = ln a / ln 2 = log a / log 2


CODIFICACIN PREDICTIVA PARA FUENTES CON MEMORIA Varias fuentes de informacin han de memoria en el sentido de que smbolo de las probabilidades dependen de uno o ms smbolos anteriores. El lenguaje escrito, se rigen por reglas de ortografa y gramtica, proporciona un buen ejemplo de una fuente con la memoria. Por ejemplo, la letra U (mayscula o no) se produce en Ingls texto con probabilidad P (U) = 0,02 sobre la base de la frecuencia relativa, pero si el anterior carta es Q, entonces la probabilidad condicional se convierte en P (U 1 Q) == 1. Evidentemente, la memoria efecto reduce la incertidumbre y por lo tanto resulta en un valor ms bajo de entropa que se calcularan en funcin absolutos en lugar de estadsticas bsicas condicional. Supongamos que una fuente tiene una memoria de primer orden, por lo que "recuerda" un solo smbolo anterior. Para formular la entropa, vamos PG ser la probabilidad de que x i smbolo es el smbolo elegido despus de x,. Sustituyendo P v de P i en la ecuacin. (6), tenemos la entropa condicional

11

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

Que representa la informacin media por smbolo, ya que el smbolo anterior fue XJ. Promediando sobre todos los smbolos anteriores posible, entonces los rendimientos

Una expresin equivalente es aplicable al caso general de una memoria orden. Sin embargo, la notacin se engorroso porque x, debe ser reemplazado por el estado de la fuentes definidas en trminos de los smbolos q anterior, y hay estados posibles a considerar. Una fuente con la memoria se dice que es redundante cuando las probabilidades condicionan la reducir H (X) en comparacin con el registro de lmite superior M. La redundancia del texto de Ingls se ha estimado en alrededor del 50 por ciento, lo que significa que aproximadamente la mitad de los smbolos en un largo pasaje no son esenciales para transmitir la informacin. Asimismo sigue que si la incertidumbre se reduce por efecto de memoria, entonces se incrementa la previsibilidad. Codificacin para la transmisin eficiente que puede basarse en un mtodo de prediccin. Aqu vamos a analizar el rgimen conocido como de ejecucin de prediccin que codifica para una discreta fuente con la memoria.

12

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

TRANSMISIN DE INFORMACIN EN CANALES DISCRETOS


INFORMACION MUTUA La informacin mutua es, como la entropa, una medida de gran importancia, dentro de la teora de la informacin. Define la informacin aportada por una variable aleatoria sobre otra. Matemticamente, esto se expresa de la siguiente manera: IX;Y= HX- H(XY) Nos est diciendo, cunto nos reduce la incertidumbre sobre X, el conocimiento de Y. EXPRESIONES DE LA INFORMACIN MUTUA EN FUNCIN DE LA ENTROPA A continuacin, vamos a ver un diagrama que nos permitir memorizar fcilmente algunas expresiones de la informacin mutua, asociada a la entropa:

13

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

De este esquema, podemos obtener las siguientes expresiones relevantes:

Donde se ha considerado:

Como caso particular, podemos considerar que X=Y, por lo que los dos crculos estaran confundidos en uno solo, y H[X]=H[Y]=I(X;Y )

Propiedad de la informacin mutua Ahora, vamos a ver unas cuantas propiedades de la informacin mutua: La primera propiedad nos permite acotar la informacin mutua:

Vamos a ver unas propiedades sobre la forma de las funciones informacin mutua y entropa, pero sin demostrarlas:

14

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

La segunda propiedad se puede deducir de la primera si consideramos I(X; X).

CAPACIDAD DE UN CANAL DISCRETO

DEFINICIN PARA CANALES DISCRETOS

Un canal discreto (sin memoria) est definido por: el alfabeto de entrada, smbolos , que es el conjunto de que pueden ser transmitidos por el canal

el alfabeto de salida, , que es el conjunto de smbolos que pueden ser recibidos a la salida del canal las relaciones estadsticas entre los smbolos de entrada y los de salida , esta informacin viene definida por la matriz de probabilidades condicionadas del canal donde

Se define la entropia de entrada, entropa de salida y entropa de entrada condicionada por la salida como

15

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

La informacin mutua entre la entrada y la salida del canal la denotamos por y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa

Esta informacin mutua

depende de la distribucin de probabilidad de la

entrada . Para una determinada distribucin de entrada, alcanza un mximo, este mximo es precisamente lo que se conoce como la capacidad del canal

COMDIFICACION DE UN CANAL BINARIO SIMETRICO

CANAL BINARIO SIMETRICO


Para el caso del canal binario simtrico con probabilidad de error de bit p, su capacidad viene dada por

16

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente


La funcin esto tiene sentido ya que en este caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que es un canal inservible para enviar informacin, su capacidad es nula. Es una funcin que aparece mucho en teora de la informacin. Se trata de una funcin cncava (y por tanto cumple la desigualdad de Jensen) y alcanza su mximo, igual a 1, cuando p = 0.5, por otro lado, cuando p = 0 o p = 1 vale 0. La capacidad de este canal es cero cuando p = 0.5,

Note que si un canal tuviese probabilidad de error de bit p = 1 eso no significa que sea un canal malo, todo lo contrario. Bastara con invertir los bits antes de enviarlos para tener un canal ideal (con probabilidad p = 0).

Canal binario simtrico, la probabilidad de error de bit es p.

Los alfabetos de entrada y salida consisten de los elementos binarios y las probabilidades condicionales son simtricas.

P ( 0 | 1) = P (1 | 0) =

P (1 | 1) = P (0 | 0) = 1

17

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

18

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

CONCLUSIN

Las medidas de posicin en un conjunto de datos estn diseadas para proporcionar al analista algunas medidas cuantitativas de donde est el centro de los datos en una muestra. En las medidas de posicin se trata de encontrar medidas que sinteticen las distribuciones de frecuencias. En vez de manejar todos los datos sobre las variables, tarea que puede ser pesada, podemos caracterizar su distribucin de frecuencias mediante algunos valores numricos, eligiendo como resumen de los datos un valor central alrededor del cual se encuentran distribuidos los valores de la variable. La descripcin de un conjunto de datos, incluye como un elemento de importancia la ubicacin de stos dentro de un contexto de valores posibles. En cuanto a la codificacin efectiva los datos pueden ser capturados precisa y efectivamente, mediante el uso de conocimiento de varios cdigos la codificacin es de gran ayuda para el analista de sistemas ya que le permite el alcance de un objetivo eficiente para la captura de datos que estn codificados.
19 Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente

En los tipos de cdigos vemos que cada uno de ellos tiene maneras diferentes para el maneja-miento de procesamiento de la captura de los datos. Estos tipos de cdigos especifican permiten tratar los datos en una forma particular.

BIBLIOGRAFIA
Lathi,

B.P.

(1997). Introduccin

la

Teora

Sistemas

de

Comunicaciones. Editorial Limusa.


Oppenheim, Alan y Wilsky, Alan. (1998). Seales y Sistemas. Editorial

Prentice Hall. Segunda edicin.


Stremler,

Ferrel.

(1993). Introduccin

los

Sistemas

de

Comunicaciones. Editorial Addison Wesley. Tercera edicin.


Tomasi, Wayne. (2003). Sistemas de Comunicaciones Electrnicas. Editorial

Prentice Hall. Cuarta edicin.


Ziemer

Tranter.

(1983). Principios

de

Comunicaciones.

Sistemas,

Modulacin y Ruido. Editorial Trillas. BIBLIOGRAFIA ELECTRONICA


http://www.el.bqto.unexpo.edu.ve/jaguero/pregrado.html http://sertel.upc.edu/tdatos/Transparencias/CodCanPant.pdf http://www.slideshare.net/tarazona19/semana-8 20 Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

Comunicaciones II Medidas de la Informacin y Codificacin de Fuente http://es.scribd.com/doc/6660549/CodificaciOn-de-Fuente http://es.wikipedia.org/wiki/Teorema_de_Shannon-Hartley http://comunicaciones-ii-unefa.wikispaces.com/Unidad+VI http://www.tsc.uc3m.es/~hmolina/wpcontent/uploads/2010/02/lsyc_ittst_p7.pdf http://www.exa.unicen.edu.ar/catedras/teoinfo/Clase_005_2011.pdf

21

Universidad Nacional Experimental Politcnica de la Fuerza Armada Nacional

También podría gustarte