Está en la página 1de 186

Raul Ibarra Quevedo Miguel Angel Serrano L6pez Carlos Calixto Garera y Gonzalez

Teoria de la informacion y encriptamiento de datos

Instituto Politecnico Nacional Mexico

PIUMERA EDlCI6N: 2001

D.R. 0 INS11Ttn'O POIMCNICO NACIONAL

Direcci6n de Publicaciones Tresguerras 27,06040, Mexico, D.E ISBN: 970-18-7650-4

Impreso en Mexico I Printed in Mexico

PROLOGO

El desarrollo de las telecomunicaciones ha tenido un rapido avance en anos recien- tes y la red global de telecomunicaciones es el mas grande y complejo sistema tecni- co que se ha creado, entendiendose por telecomunicaciones todos los procesos que hacen posible transferir voz, datos y video con ayuda de alguna forma de sistema electromagnetico, incluyendo metodos de transferencia optica. Estos rapidos cambios demandan gran conocimiento de las personas que for- man la parte activa de las modernas telecomunicaciones. Desde la decada de los cuarenta, la Teorfa de las Comunicaciones se han desa- rrollado a 10 largo de dos lfneas principales, estas Ifneas tienen sus orfgenes en el trabajo de Wiener y Shannon, y son esencialmente de naturaleza estadfstica. La rama de las comunicaciones que ha sido asociada al nombre de Shannon es la Teona de la

Informaci6n.

Wiener y Shannon trataron, en particular, el problema de codificar las senales seleccionadas de un conjunto dado, para hacer posible su apropiada reproducci6n despues de su transmisi6n sobre sistemas de comunicaci6n ruidosas. La Teorfa de la Informacion desarrollada por Shannon es una teorfa de medi- da, en el sentido de que suministra al ingeniero de comunicaciones metodos para determinar los Ifmites de ejecucion, cuando se transmite informacion a traves de un canal de comunicaci6n con ruido. Shannon ha mostrado que es posible, aun con un canal de comunicacion ruidoso, transmitir informacion a un cierto fndice finito, determinado por la linea, con una probabilidad de error que puede ser tan pequeno como sea deseado, siendo este el mayor resultado de la teona. La teona de Shannon estci relacionada con las propiedades estadisticas de los sfmbolos seleccionados a partir de adecuados alfabetos definidos (conjuntos) y no esta relacionada con el significado asociado con la seleccion de simbolos. Como Shannon establece: "estos aspectos semanticos de la comunicaci6n son irrelevantes a los problemas de la ingenieria". La Teorfa de la Informacion clasica de Shannon proporciona al ingeniero metodos para detenninar los lfmites del comportamiento para un sistema, trabajan- do sobre condiciones flsicamente determinadas, esto se proporciona solo con indi- caciones vagas de c6mo debe ser disenado un sistema de transmision de datos que

3

4

ejecute una transmisi6n libre de errores en un tiempo de transmisi6n finito. Algu- nos de los principales desarrollos en la Teona de la Informaci6n, durante los recien- tes anos, tienen que ser concemientes con el refinamiento y extensi6n de la misma y con la vital importancia de problemas pnicticos de codificaci6n y decodificaci6n de mensajes que son desarrollados en la transmisi6n libre de errores.

INDICE

PR6LOGO

3

UNlOAD I EL LENGUAJE DE LOS DATOS Valor de la infonnad6n

11

Entropia

12

Transmisi6n de datos

13

EI sistema numerico binario

13

Definici6n de bit

14

Medici6n de la infonnaci6n

14

Codificaci6n de la infonnaci6n

18

Errores y paridad

19

C6digo ASCII

21

EI espectro

de freruencias

21

Freruencia de una sefial digital

22

Freruencias de corte

22

Tipos de ruido

23

Ruido parasito

23

Ruido blanco

24

Efecto

del ruido sobre la capacidad del cana!

24

Elementos de c6digo con multiples niveles

25

Redes Bluetooth

26

Fonnaci6n de redes Bluetootlt

27

Principios bcisicos de Bluetooth

28

UNIDAD II MODELO DEL PROCESO DE COMUNICACI6N Fuente de infoIIIlaci6n Fuente codificadora de la sefial Codificador de transmisi6n al medio Decodificador del medio al receptor

de infoIIIlaci6n Fuente codificadora de la sefial Codificador de transmisi6n al medio Decodificador del medio al
de infoIIIlaci6n Fuente codificadora de la sefial Codificador de transmisi6n al medio Decodificador del medio al
de infoIIIlaci6n Fuente codificadora de la sefial Codificador de transmisi6n al medio Decodificador del medio al

35

35

36

37

5

6

Canal

37

Fuentes de informaci6n discreta y codificaci6n binaria de salidas

38

Una medida de informaci6n y funci6n de entropia

38

Propiedades

e interpretaci6n de la funci6n de entropia

41

Codificaci6n binaria de una fuente de informati6n

43

Entropia relativa y redundancia

45

Canal de

comunication

45

Representati6n de un canal

46

Una medida

de la informaci6n transmitida sobre un canal

49

Propiedades de la informaci6n mutua y la entropfa asociada

50

Capacidad del canal

51

Algunos canales simples

52

Teorema fundamental de la teona de la informacion

56

UNlOAD III

SISfEMAS CONTINUOS DE INFORMACION

 

Teorema del muestreo

59

Entropia de una funtion continua

60

Distribution maxima de la entropfa

61

Entropfa

de un conjunto de funtiones

61

Potencia de entropfa

62

Capacidad de un canal continuo

62

Capatidad de un canal por un tipo de ruido arbitrario

64

C6digos de correcci6n de error

65

Grupo de c6digos, c6digos de chequeo de paridad

66

C6digos sistematicos

66

C6digos de detecci6n de error

67

Elementos de codificati6n de comprobacion de paridad

68

C6digo de correcti6n de error simple

73

C6digo de correcti6n de error de Reed-Muller

74

C6digos de producto 0 iterados

79

C6d~gos Bose- Chaudhuri

80

UNlOAD N

TRANSMISION DE DATOS DIGITALES

Raz6n de error de bit (Ber)

91

Distorsi6n de cuantizaci6n

92

Ruido

93

Jitter

94

Scrambing

94

Transmisi6n digital de informaci6n

95

7

Combinaciones de modulaciones

98

Raz6n de modulaci6n

98

Transmision en banda base

99

ADSL

99

Senales, espectros y filtros

 

100

Impulsos peri6dicos unitarios

101

Integral de Fourier

101

Pulso triangular

103

Pulso Gaussiano

104

Distribuci6n Gaussiana 0 normal

104

Ruido en sistemas de comunicaci6n

105

Niveles de decision

114

Analisis de ruido

117

Autocorrelacion

118

Potencia del ruido

119

Ruido blanco

120

Ruido a traves de sistemas lineales

124

Filtros adaptivos

128

Ruido de banda angosta

133

Detecci6n de senales binarias

136

UNIDADV ENCRIPTAMIENTO DE DATOS Lucifer

•••

143

Participaci6n de NSA

••••

144

Elluciferoriginal

145

DES

145

Extractos del DES

145

Modos alternativos de usar el DES

146

Metodos de encriptado de datos

147

Algoritmo encriptador de datos

147

Cifrado

148

Descifrado

150

Caracteristicas del algoritmo DES

153

Modo de libro de c6digo electr6nico

158

Modo de dfrado de bloque encadenado

158

Modo de cifrado retroalimentado

160

Modo de salida retroalimentada

163

Relad6n de csc y CPS de 64 bits

163

Condiciones de secreta perfecto

165

Seguridad informatica

168

8

EDI•••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••••

170

Proyecto Bolero

172

Sistema swift

172

Conexi6n del sistema swift

173

Kerberos: arquitectura de seguridad

174

Firma digital

177

Tarjetas electr6nicas

178

Bibliografia

181

UNIDAD I

EL LENGUAJE DE LOS DATOS

Una red de comunicaciones de datos puede ser tan sencilIa como dos computadoras personales conectadas entre sf, 0 por medio de una red telef6nica publica que abar- que una red compleja de varias computadoras. En principio, la palabra comunicacion se puede emplear en varios sentidos, pero en todos ellos se hace referencia a un intercambio, al traslado de algo de un lugar a otro. En tanto el termino telecomunicacion, se refiere a un sistema y tecnica que per- mite emisi6n y recepci6n de seiiales, sonidos, imagenes, video 0 informaci6n de cualquier naturaleza por procedimientos 6pticos, electr6nicos 0 electromagneticos.

VALOR DE lA INFORMACI6N

La mayona de las personas han dado por sentado que la palabra informacion, no nece- sita definici6n alguna. Han proporcionado, obtenido y procesado informaci6n y sen- tido su necesidad. Sin embargo, cuando empezamos a considerar el tema, surge que la informaciOn tan apreciada por algunos significa poco 0 nada para otros. La noticia de que Masel Computers, Inc. cotiz6 mas bajo que los otros compe- tidores en la licitacion de un contrato con el gobiemo federal de los Estados Unidos, por ejemplo, tendrfa, evidentemente, mas significado para un grupo determinado de personas que para otro. La noticia de la ofena ganadora llevo la misma cantidad de informacion a todos los que se enteraron de esta, pero posefa un significado dife- rente en cada caso. El termino informacion carece, por 10 tanto, de todo valor, salvo el que Ie asigna quien la recibe. Pero informacion no es eso, sino un termino inherente cuantitativo, que se mide por el grado con que aclara 10 desconocido; un hecho que pueda predecirse totalmente no contiene informacion, se analizara el valor cuantita- tivo de la misma en oposicion a su valor emocional. Los parrafos que siguen revelaran con exactitud cuanta informacion contenfa la noticia de que se habfa adjudicado el contrato. La comprension de este concepto resultara utH durante el estudio de la eficiencia, los esquemas de codificaci6n y el control de errores. En la Teona de la Informacion se entiende por mensaje simplemente la salida de una fuente informativa. Si la fuente fuese un transmisor telef6nico, el mensaje

11

TEORfA DE LA INFORMACION Y ENCRlP'fAMIENTO DE DATOS

12

estaria constituido por las tensiones anal6gicas aplicadas a la linea. Si la fuente fuera una teleimpresora, el mensaje podria ser un caracter, uno de los bits que inte- gran un canicter 0 de una palabra. En consecuencia, la composici6n de un mensaje puede variar y este debe ser definido 0 comprendido de acuerdo con su uso dentro de un sistema. El valor cuantitativo de un mensaje se basa en varios factores. En primer lugar, debe establecerse cuanto se sabia del contenido del mensaje antes de que fuera reci- bido. Si se conoda que Masel era la unica compania involucrada, la noticia de que habfa ganado la licitaci6n no hubiera sido ninguna sorpresa y el contenido de infor- macion del mensaje hubiera sido cero. No obstante, un mensaje que proporcionara el valor del contrato firmado contendria derta cantidad de informacion: se sabfa que Masel intervenfa en la licitaci6n, pero se desconoda e:x:actamente el importe especi- ficado en la oferta. En segundo lugar, para poder definir aun mas la cantidad de informacion de que es portador un mensaje, debemos conocer cuantos mensajes componfan el con- junto del cual aquel fue seleccionado. Si tres companfas compiten por un contrato, para identificar a la ganadora habra que enviar uno de los tres mensajes posibles. Si las companfas ofertantes son diez, el mensaje debe ser elegido de un grupo de diez y tendria que portar mas informacion para identificar a la ganadora. En tercer lugar, para ser mas e:x:actos, habria que conocer la probabilidad de cada suceso que el mensaje podria describir. Si cada una de las diez companfas intervinientes tuviese e:x:actamente el mismo volumen de ventas, el mensaje con el nombre de la ganadora llevaria todo 10 que se puede saber sobre el resultado de la licitaci6n. Si los volumenes de ventas de cada companfa fuesen distintos, tendria- mos cierta informacion sobre el desenlace antes de conocer los resultados y, por 10 tanto, el mensaje llevaria esa misma cantidad de informacion de menos. El calculo del contenido de informacion de mensajes con probabilidades distintas resulta muy complejo. En consecuencia, para contribuir a la c1arificaci6n de este analisis se supone que la informacion es enviada en forma fortuita y, por consiguiente, que todos los mensajes son equiprobables.

ENTROPiA

En general, podemos decir que la informaci6n posee la propiedad de disminuir la incertidumbre de una situaci6n. La incertidumbre se denomina entropfa (H) y e:x:is- te en la medida en que se carece de informacion (informaci6n + entropfa = lOooAJ, 0 en forma abreviada, 1 + H = 1). Si la entropfa de una situaci6n es reducida, s6lo se requiere una pequena cantidad de informacion para c1arificarla. Si la entropfa es grande, se necesitara Mucha mas informacion antes de que la incertidumbre sea reemplazada por un grado aceptable de c1aridad.

EL LENGUA'E DE LOS DATOS

13

Si hubiese competido unicamente con Riqo Inc., la cantidad de entropia hu- biera sido pequefia; intervendrian tan solo dos fabricantes con el mismo volumen

de ventas. Si hubiese pujado contra diez competidores, la entropia hubiera sido gran- de, porque habrfa un numero mayor de compafifas, y cada una de estas habrfa teni- do una probabilidad distinta de adjudicarse el contrato. Algunos c6digos han sido concebidos para disminuir la entropia hasta el punto en que los errores cometidos durante la transmision pueden ser no solo descubiertos

y localizados, sino tambien corregidos. Estudiaremos este tema mas adelante.

TRANSMISI6N DE DATOS

EI termino datos, se refiere a la informaci6n que pudo haber side tomada de docu- mentos originales como: pedidos de venta, tarjetas de tiempo trabajado, registro de producci6n, etcetera; de algl1n medio de almacenamiento, como son las cintas mag- neticas, 0 de la memoria de una computadora. EI traslado de estos datos entre ma- quinas situadas a cierta distancia es la transmisi6n de datos. Las maquinas que se emplean en la comunicaci6n de datos son muy diversas, y los lenguajes que se usan son c6digos (generalmente binarios) muy variados, que pueden ser interpretados directamente por la maquina. En la decada de los cincuenta, los estudios efectuados por los Laboratorios Bell

y otros, revelaron que si los impulsos electricos generados por las maquinas comer-

ciales eran convertidos en tonos audibles de una garna semejante a la de la voz humana, dichos tonos podfan ser transportados por la misma red y equipos que se utilizaban para las conversiones telef6nicas ordinarias. Con el objeto de ejecutar la fund6n de conversi6n, se crearon y construyeron dispositivos denominados conversores de datos (data sets) y las maquinas comenzaron a IIconversar W entre sf a traves de la red telef6nica. De esta manera evoluciona el concepto de la transmision de datos hasta concretarse asf: datos (informacion en ellenguaje de maquina) transmi- tidos por las lfneas telef6nicas ex:istentes, pero con la alternativa de poder establecer comunicaciones orales utilizando el mismo equipo, en caso necesario. Quien estudie transmisi6n de datos debera conocer ciertos principios funda- mentales acerca de elIos que son: c6mo se miden y c6mo se diferencian de otros

tipos de informaciOn.

EL SISTEMA NUMERICO BINARIO

EI sistema numerico binario es el verdadero lenguaje de los datos, pues la mayorfa de los medios electromeccinicos y electr6nicos que operan con estos tiene dos estados;

si 0 no, mas 0 menos, etcetera. Se necesita un conocimiento basico del sistema binario

para poder llegar a entender la comunicaci6n de datos.

14

ThORfA DE LA INFORMACI6N Y ENCRIPTAMI[NTO DE DATOS

Todos los sistemas de numeraci6n presentan varios puntos en comun:

1. La base es la que da su nombre al sistema y (viceversa) es igual a la cantidad de digitos que 10 integran.

2. EI valor maximo de un dfgito del sistema no excede nunca del valor de la

base menos 1.

3. EI 0 denota que se ha llegado al termino del sistema basico.

4. Las potencias sucesivas de la base indican los valores posicionales del sistema.

Apliquemos estas reglas al sistema binario de numeraci6n:

1. El termino binario indica que el sistema esta compuesto por dos digitos y que, por ende, su base es 2.

2. El valor mas e1evado que puede tomar un dfgito del sistema es una unidad

menos que e1 valor de la base. Puesto que la base es 2, el dfgito mmmo es 1. El otro digito, naturalmente debe ser O. 3. Empezando a contar en binario partiendo de 1 como la base es 2, el nume- ro siguiente tiene que ser el ultimo de nuestro sistema basico de contabili- dad yesta situaci6n se indica mediante el uso del O. Por 10 tanto, el segundo numero, despues de uno, es 10.

DEFINICI6N DE BIT

La condici6n binaria es la que posee una cualidad biestable. Por consiguiente, puede existir uno de dos estados: encendido 0 apagado, si 0 no, marca 0 espacio, magneti- zado 0 desmagnetizado, y asf sucesivamente. En el sistema numerico binario esas dos condiciones estan representadas por los digitos 1 yO. Era inevitable que alguien abreviara la expresi6n "Binary digit- (digito binario) y, en consecuencia, surgi6 el termino "bit". Observese que ambos estados binarios se denominan bits, y no s610 el bit "1 ". Esto se debe a que los dos son portadores de la misma cantidad de informacion; la presencia de uno significa la ausencia del otro. Comparando con el sistema decimal:

la presencia del numero ocho, pongamos por caso, posee un significado preciso, ipero la mera ausencia de ese guarismo podria tener una variedad de significados!

MEDICI6N DE IA INFORMACI6N

Una vez que se ha establecido que la informacion es un termino cuantitativo, se debe determinar c6mo medirla con exactitud. Para el caso en que Masel compitiera con Riqo Inc., para designar al ganador existia la elecci6n entre dos mensajes. Casual- mente, una propiedad fundamental del bit binario (ya se trate de 1 0 0) es la de

EL LENGUAJE DE LOS DATOS

15

poder reducir a la mitad la incertidumbre de la situacion. Puesto que s610 dos com- paiiias competian por ese contrato, podria haberse utilizado el ll 1" binario para sig- nificar que habia ganado Masel, yel 110" para indicar que la victoria era de Riqo Inc., de modo que la noticia sobre el triunfo de Riqo llevaba un bit de informacion. Con el proposito de establecer una comparaci6n: icuanta informacion 0 cuantos bits son necesarios para indicar el ganador de un contrato, en cuya indicacion intervie- nen ocho compaiifas? Si se colocan las compaiifas en orden y se especifica que el bit 111" indica la mitad superior de la lista y el bit 110" la mitad inferior, podemos enviar una serle de bits para sefialar la oferta ganadora. Puesto que la firma vencedora es Masel y se encuentra en la mitad inferior de la nomina, el primer bit sera 0:

ElimintJdos

0=

I Big Brothers Inc. Do-AllData Itty Bitty Machines Riqolnc.

I Digilog Corp. Masel Computers. Inc. Picocycle Corp. Memory, Unlimited

Oespues de que se ha eliminado la parte superior, Masel se encuentra en la mitad superior del resto de la lista, de manera que enviemos un 111 ":

I Big Brothers Inc. Do-AUData Itty Bitty Machines Riqolnc.

o

I

Digilog Corp.

{ 0 -+ Masel Computers, Inc

Picocycle Corp.

Memory, Unlimited

BI bit siguiente fue 0, pues Masel esta en la parte inferior de las compafifas restantes. Por 10 tanto, se han utilizado tres bits (010) para definir una posibilidad entre oebo. Cualquiera que hubiese sido la firma oferente ganadora, s610 tres bits habrlan sido necesarios para sefialarla. Basicamente, se ha formulado una serie de preguntas (ila mitad superior?) y las respuestas han sido ·si" 0 ·no". Con este ejem-

TEoRfA DE LA INFORMACl6N Y ENCRIPfAMIENTO DE DATOS

16

plo hemos ilustrado una propiedad fundamental del bit; no s6lo constituye la partf- cula mas pequefia de informaciOn, sino que es tambien la maxima cantidad de infor- macion posible en una elecd6n de si 0 no. Con este conodmiento podemos determinar cuantos bits se necesitan para definir una elecd6n entre varias posibles. Recordando que un bit puede ser 1 0 0, podemos utiIizarlo para definir una elecci6n entre dos; dos bits definen una elec- d6n entre cuatro, tres bits una elecd6n entre ocho, y as! sucesivamente. Cada bit agregado dupIica el numero de elecciones posibles; las elecciones aumentan en po- tencias de dos.

Un bit:

21 = 2

elecciones

Dos bits:

22 =4 elecciones

Tres bits:

2 3 = 8 elecciones

etcetera

Si se conoce el numero de elecciones se puede determinar cuantos bits se re- quieren para identificar una de elIas. Si en una licitaci6n intervienen ocho compa-

fiias, entonces 8 = 2 3 , de modo que se necesitan tres bits, como hemos visto en el

ejemplo anterior. Si s6lo se hubiesen presentado cuatro compafiias, entonces

Ycon dos bits hubiera bastado. iC6mo seda en el caso de que en la Iicitaci6n hubie-

menor que 2 3 , pero mayor que 22, de manera

que serla preciso un minimo de tres bits para identificar al ganador. En cuanto a la formula 2 3 = 8, el 8 era conocido (el nUmero de compafifas licitadoras) y el2 tambien era conocido (con una situaci6n binaria), pero querla- mos encontrar el valor desconocido 3, la cantidad minima de tres bits para identifi-

car una de las ocho companias. Operando con los valores conocidos (8 y 2), el problema podrla haberse enfocado hallando ellogaritmo de 8 con respecto a la base 2 10 que se escribe lo~ 8. Sin6nimo de logaritmo es exponente, de modo que en realidad, estamos buscando el exponente de 2 que de 8 puesto que 2 3 =8, entones lo~ 8 = 3. EI numero de bits que se necesitan para identificar determinada elecci6n en un grupo de N elecciones posibles es lo&z N, siempre que todas elIas tengan igualdad de oportunidades para ser elegidas:

I = lo~ N

sen participado seis companias? Seis

4 = 2 2 ,

es

Un c6digo comun de comunicaciones posee 32 caracteres. iCuantos bits debe tener por caracter? Respuesta: lo~ 32 =5 bits. (25 =32). iCuantos bits se requieren para un c6digo que describa sin repeticiones los 26 caracteres del alfabeto? Respues-

EL LENGUAJE DE LOS DATOS

17

ta: log2 16 < log2 26 < log2 32, de manera que se necesitan log2 32, 0 sea, 5 bits. Si una pregunta tiene una sola respuesta posible, el contenido de informacion de esa respuesta es 0: I (informacion) = log2 I = O. Si la pregunta tuviese ocho respuestas posibles, como en los resultados del concurso mencionado, entonces la respuesta contiene I =log2 8 =3 bits. El ejemplo siguiente puede servir para aclarar mas este concepto. El numero de maneras diferentes en que pueden colocarse las cartas de una baraja completa es

j52f (se lee "factorial 52", y significa 52x51x50x

general, haHamos que el numero de bits que puede ser representado por el orden de

las cartas despues de un baraje (el orden podria ser un "mensaje") es:

Utilizando la formula

x3x2x1).

I =log2 52! =225.7 bits.

Durante una mezda cualquiera se divide la baraja en dos mazos aproximada- mente iguales, A y B. Las partes A y B representan una situacion binaria y la baraja tiene un total de 52 cartas, de manera que A y B pueden combinarse en 2 52 secuen- cias posibles. Podemos utilizar la formula de informacion para encontrar el mlmero maximo de bits que un baraje puede producir:

1= log2 2 52 = 52 bits

(lo~ 2 52 = 5210g 2 2 = 52 x 1 = 52)

Entonces, 225.7 dividido entre 52 es igual a 4.3, de modo que se requiere un minima de cinco barajes para tener la certeza de que las 52 cartas estan dispuestas al azar. iRecuerdelo durante su proxima partida de p6quer! De 10 que hemos visto hasta aquf, podna suponerse que todos los bits son portadores de informacion. Sin embargo no es asi, y debemos distinguir con daridad los bits informativos de aqueHos otros que no 10 son. Un digito binario puede ser 0 no portador de informacion. Una regia empirica, que la mayona de las veces da resultado, dice que si no es posible predecir con exactitud el valor del bit (1 0 O), contiene informacion. En cambio, si su valor puede vaticinarse en forma precisa, esta cumpliendo una funci6n que no es la de Hevar informacion. Por 10 tanto, los bits informativos se combinan para formar codigos que representan letras, numeros y funciones especiales; los bits no informativos se utili- zan para que el juego de equipos del sistema (hardware) pueda discriminar donde termina un caracter 0 comienza el proximo, para tener un medio de descubrir y corregir errores, y a fin de que los equipos situados en los dos extremos del circuito alcancen y mantengan la sincronizacion. Esta distincion debe tenerse presente, pues aclarara mas adelante los estudios sobre codificacion, control de errores yeficiencia del sistema.

ThoRIA DE LA INFORMACION Y ENCRlPfAMIENTO DE DATOS

18

CODIFlCACI6N DE IA INFORMACI6N

En esta parte analizaremos la forma y el contenido de informaci6n de las senales transmitidas por las maquinas comerciales. Con estos conocimientos abordaremos el estudio de los c6digos que permiten a las maquinas comunicarse.

Sfmbolos

Hasta este momenta hemos estudiado en temunos muy generales el contenido de la informaciOn de los mensajes. Definimos el mensaje como la salida de una fuente de infor- maciOn, pero, mas concretamente, podrfa ser un simbolo 0 un grupo de simbolos: bits, letras del alfabeto, nu.meros 0 caracteres espedales. Ademas de esos caracteres, tambien pueden considerarse simbolos el sincronismo y el espaciamiento entre caracteres, e in- duso el propio espado.

Definici6n de caracter

Por caracter se entiende, segt1n el diccionario, lIel simbolo que se emplea en un siste-

n Podria ser una letra, un numero 0 un simbolo con significado

especial, como el periodo 0 espacio. La codificaci6n de caracteres, para adaptarlos a un sistema de transmisi6n 0 procesamiento de la informaci6n, consiste en asignade una combinad6n discreta de bits. El caracter puede tener un numero variable de bits, segt1n el sistema de codifica-

ma de escritura

ci6n empleado (como los c6digos Baudot YASCII, de cinco y ocho bits, respectivamen- tel, pero dentro de un sistema todos los caracteres poseen el mismo nu.mero de bits.

Codificaci6n

La cantidad de informacion que puede llevar un simbolo depende del numero de simbolos que integran el conjunto del cual fue seleccionado. Ya 10 hemos ejemplificado anteriormente, ruando se requerfan tres bits para definir un simbolo entre ocho, mientras que para identificar una letra del alfabeto se necesitaban por 10 menos cinco. Esta conversi6n de un conjunto de numeros en otro se denomina codificacion. Si un sfmbolo complejo se convierte en un grupo de simbolos mas sim- ples, 0 si se pasa de un grupo de simbolos a otro mayor, la codificacwn es ascendente. Un ejemplo de ella 10 constituye la transformaci6n de una letra del alfabeto en cinco bits del c6digo Baudot. En la codificacion descendente la cantidad de sfmbolos es menor, pero cada uno contiene mas informaci6n.

EL LENGUA,E DE LOS DATOS

19

Codificaci6n reversible

Se considera que la tecnica de codificaci6n, sea ascendente 0 descendente, es reversi- ble si cada mensaje (canicter, sfmbolo, grupo de c6digo, etcetera) esta codificado de manera distinta a la de cualquier otro mensaje dentro del mismo sistema. En el c6di- go Morse, por ejemplo, la letra V se halla representada por tres puntos y una raya. Si la letra Y estuviese formada de la misma manera, la forma de codificacion no sena reversible, pues el decodificador tendna que optar arbitrariamente entre Y y V. Para que al decodificar los mensajes se pueda obtener la misma forma que tenfan antes de transmitirlos es imprescindible que el esquema de codificacion usado sea total- mente reversible.

La unidad de informaci6n mas pequeiia

EI estudio de la Teona de la informaci6n revela que el bit (ya sea el 1 0 el 0) es la unidad de informaci6n mas pequeiia, de la misma manera que el atomo es la parti- cula mas diminuta de la materia. En los medios magneticos, como la cinta 0 los discos, los bits 1 y 0 se hallan representados por puntos magnetizados 0 no magnetizados, respectivamente. Para formar los caracteres, los bits se combinan de acuerdo con diversos esque- mas, proceso que se denomina codificaci6n. En los parrafos siguientes se explican los c6digos de uso mas comunes.

ERRORES Y PARIDAD

En la transmisi6n de datos se ha producido un error si la secuencia de los bits recibi- dos no es igual a la secuencia en que fueron transmitidos. Tal condici6n es conse- cuencia de los bits perdidos 0 con un valor u orden distinto al que tenfan. Los facto- res que dan origen a esos trastornos se analizan mas adelante, pero aqui la cuesti6n es que no pueden impedirse. En consecuencia, siempre existe la posibilidad de que ocurran errores durante la transmisi6n de datos. Puesto que la exactitud es de primordial importancia en el tratamiento de la informacion, se necesita un metodo para determinar si los datos han conservado, durante el procesamiento, la transmisi6n 0 el almacenamiento, el valor 0 la forma deseados. En los c6digos para cinta de papel se agrega un bit de paridad a los bits de informacion, como medio para controlar errores. EI bit de paridad es un bit de verifi- cacion que indica que el numero total de digitos binarios "1 " de un caracter 0 pala- bra (exc1uido el bit de paridad) es impar 0 par. Si el bit de paridad indica que el numero de digitos "1" es impar, entonces el bit "0" seiiala que ese numero es par. Si el numero de bits II 1" incluido el de paridad, es siempre par, se dice que es un siste-

ThOIUA DE lA INFORMACI6N Y ENCRlPrAMIENTO DE DATOS

20

 

b 7 ----------------> b 6 ------------------> bs ------------------>

0

0

0

0

1

1

1

1

BITS

0

0

1

1

0

0

1

1

0

1

0

1

0

1

0

1

BITS

b 4

b 3

b

2

b I

Fila

Columna

0

1

2

3

4

5

6

7

 

0

0

0

0

 

0

NUL

OLE

SP

0

@

P

.

P

 

0

0

0

1

 

1

SOH

DCl

!

1

A

Q

a

q

 

0

0

1,

0

 

2

SIX

DC2

"

2

B

R

b

r

 

0

0

1

1

 

3

EIX

DC3

#

3

C

S

 

s

 

0

1

0

0

 

4

EOT

DC4

$

4

0

T

d

t

 

0

1

0

1

 

5

ENQ

NAK

%

5

E

U

e

u

 

0

1

1

0

 

6

ACK

SYN

&

6

F

V

f

v

 

0

1

1

1

 

7

BEL

ETB

I

7

G

W

g

w

 

1

0

0

0

 

8

BS

CAN

(

8

H

X

h

x

 

1

0

0

1

 

9

HT

EM

)

9

I

Y

i

Y

 

1

0

1

0

 

10

LF

SUB

:

J

Z

j

z

 

1

0

1

1

 

11 ESC

VI'

 

+

;

 

[

k

{

 

1

1

0

0

 

12 FS

FF

 

,

<

L

\

I

 
 

1

1

0

1

 

13

CR

GS

-

=

M

]

m

}

 

1

1

1

0

 

14

SO

RS

 

>

N

A

n

N

 

1

1

1

1

 

15

SI

US

I

?

0

-

0

DEL

Figura 1.1 Tabla de c6digo ASCII.

EL LENGUAJE DE LOS DATOS

21

ma de paridad par. En un sistema de paridad impar, el numero total de bits 111", incluido el bit de paridad, es siempre impar.

C6DIGO ASCII

Debido a que el numero de combinaciones posibles con el c6digo Baudot esta limi- tado y, 10 que es mas importante, porque carece de un esquema 16gico 0 secuencial, se han desarrollado nuevos c6digos, mas flexibles que se prestan facilmente a la

computaci6n.

Ala sigla ASCII, de American Standard Code for Information Interchange (C6di- go Estandar Norteamericano para el Intercambio de Informaci6n) tambien se Ie de- nomina c6digo ANSI y c6digo para el Intercambio de Datos. Se trata de un c6digo de siete canales a los que se suma un octavo de paridad par. La configuraci6n de bits del c6digo ASCII se muestra en la figura 1.1. Los carac- teres graficos (imprimibles) y de control (funciones) han sido encolumnados den- tro de lfneas dobles. Encabeza cada columna la configuraci6n de bits de orden supe- rior correspondiente a los caracteres 0 funciones de esa columna. Ala izquierda de cada fila se da la configuraci6n de los cuatro bits de orden inferior que representan los caracteres 0 funciones de esa fila. Codificando la letra F = 1 0 0 0 1 1 0 =orden superior y orden inferior.

EL ESPECfRO DE FRECUENCIAS

Las frecuencias tienen una gama de variaci6n muy amplia: empiezan en 0 y aumen- tan gradualmente a traves del espectro aa1stico, de radio, infrarrojo (calor), de luz ultravioleta, de rayos X, rayos gama y rayos c6smicos. La gama audible va de 20 Hz a 20,000 Hz aproximadamente y es muy variable de una persona a otra. La banda de radiofrecuencias se extiende desde los 14 kHz hasta mas de 10 millones de kHz. La figura 1.2 ilustra la disparidad entre las frecuencias perceptibles por el oido humano y aquellas que pueden ser transmitidas por un canal telef6nico. La voz huma- na (100 a 1100 Hz), sin embargo, cae casi en su totalidad dentro de los Hmites impues- tos por el circuito de telefonfa.

I

CANAL TELEF6NICO

(3000Hz)

I

OHz 20Hz

300Hz

3300Hz

20000 Hz

GAMAAUOmLE (ALREDEDOR DE 20 000 Hz)

)

Figura 1.2 Disparidad de frecuencias entre el ofdo humano y un canal telef6nico de frecuendas.

22

'ThORIA DE LA INFORMACION Y ENCRlPI'AMIENTO DE DATOS

FRECUENCIA DE UNA SENAL DIGITAL

La sefial con la que se efectua la comunicaci6n de datos esta compuesta por una gama de frecuencias. La frecuencia de la sefial, en un momento determinado, depen- de de la composici6n del c6digo que se transmite. Para ilustrar esto supongamos que se transmite un caracter cuya representaci6n binaria es 11110000. Si los unos binarios son una tensi6n positiva y los ceros una tensi6n negativa, s610 se habrfa transmitido un cicIo durante el tiempo requerido por un caracter: la tensi6n de linea habrfa ido de cero a una tensi6n positiva (durante los bits "1") Yluego habrfa varia- do a una tensi6n negativa pasando por cero mientras se transmitian los "0". Por ,otra parte, si se transmitiera un caracter cuyo equivalente binario fuese 10i01010, se producirfan cuatro cidos de corriente durante el mismo tiempo reque- rido i En realidad, la transmisi6n del segundo caracter hubiera dado lugar a la maxi- ma frecuencia posible para esa sefial en particular, pues se habria producido el ma- yor numero de transiciones de un estado de la sefial (positivo) al otro (negativo). Por 10 tanto, el numero de bits de que puede ser portador un canal de transmisi6n por unida~ de tiempo esta directamente relacionado con el limite superior de su rango de frecuencias utilizable.

FRECUENCIAS DE CORTE

Visto que en los medios de comunicaci6n se suponen muchas conversaciones si- multaneas (u otra informaci6n), es necesario restringir cada una de elIas a su propio canal. Los filtros electricos que se utilizan para tal fin forman una banca que deja pasar las frecuencias comprendidas dentro de cierta gama y bloquea aquellas que no 10 estan. Los puntos situados en los extremos superior e inferior de la banda pasante se denominan frecuencias de corte (vease la figura 1.3).

Frecuencias de corte

1 E a ! -1 "C -2 :e t -3
1
E
a
!
-1
"C
-2
:e
t
-3
~
~

-4

~~+-~~-----+-~-+-----~~~

a

1,2

24

3,6

Frecuencia (KHz)

Figura 1.3 Banda pasante formada con filtros.

EL LENGUAJE DE LOS DATOS

23

Si fuera posible transmitir la senal por un canal perfecto, llegarfa al destino exactamente como fue enviada. Canales de este tipo, sin embargo, s610 existen en teona; por 10 tanto, las senales se distorsionan durante la transmisi6n. Hemos dicho con anterioridad, que el ruido es un fen6meno imprevisible que puede describirse mejor estadisticamente. La distorsi6n, en cambio, afecta a la senal en forma permanente y es fund6n de cada canal en particular. Existen tres tipos de distorsi6n que un canal puede transmitir a una senal: distorsi6n de retardo, distor- si6n por atenuad6n e inestabilidad.

TIPOS DE RUIDO

El ruido de un canal esta integrado por impulsos elt~ctricosaleatorios que provienen de varias fuentes y, por 10 general, hay muchos tipos de ruido: blanco, termico, rosa, atmosferico, etcetera.

RUIDO PARASITO

EI ruido parasito es causado generalmente por el fundonamiento de maquinas y llaves, asf como por tormentas electricas. Se caracteriza por su intensidad, corta du- rad6n y esta confinado a una parte restringida del espectro de frecuendas. Dentro de la gama de audio es perceptible como chasquidos bruscos 0 rafagas de estatica (figura 1.4).

II

II

J d

Frecuencia

(A)

~

A

Frecuencia

(8)

Figura 1.4 Distribuci6n en amplitud y frecuencia (A) del ruido blanco y (B) del ruido panisito de corta duraci6n.

TEORlA DE LA INFORMACION Y ENCRJPfAMIENTO DE DATOS

24

RUIDO BLANCO (RUIDO GAUSSIANO)

La energfa del ruido blanco, por el contrario, esta repartida en una amplia regi6n del espectro de frecuencias y se escuch.a familiarmente como soplido de fondo en radio

o telefonfa. Se debe a la inducci6n de las lfneas de fuerza, la intermodulacion de

circuitos adyacentes y un conglomerado de otras senales aleatorias. Una explicacion del uso del adjetivo ublanco" para describir este tipo de ruido es que origina la "nie-

ve" visible en la pantalla de 1V cuando la senal es debil. EI ruido se hace molesto cuando su magnitud es mas de la mitad de la que tiene un elemento positivo del c6digo. A esto se debe que se tomen muestras de una senal y si el ruido supera el nivel de decisi6n se interpreta como una senal positiva (figura 1.5). Se analizara con detalle estos aspectos oportunamente.

Ruido

Nivel de

decision

c~---t-~---f---- Lugaresde

t

t

t

t

t

o

CD

o

Error

muestreo

Resultados

del muestreo

Figura 1.S Efectos del ruido sobre una seiial binaria.

EFECfO DEL RUIDO SOBRE IA CAPACIDAD DE UN CANAL (SHANNON)

Puesto que las senales que son ruido poseen muchas de las caractensticas de una senal portadora de informacion, debemos buscar alguna forma de distinguirlas con daridad. Por fortuna, el nivel de potencia (intensidad) del ruido es bastante bajo en

la mayona de los circuitos. Si la potencia de la senal informativa esta muy por enci-

ma de la potencia de ruido, el equipo receptor puede diferenciarlas con mas facili- dad. A medida que la senal y el ruido alcanzan un nivel de potencia similar, en tanto

que el ancho de banda del canal permanece constante, cada una de las condiciones

o estados discretos de la senal deben estar presentes durante periodos mas prolonga-

dos, para que el equipo de recepci6n pueda discriminar entre ellos y los estados aleatorios del ruido. C. E. Shannon fue un precursor en este campo y en 1949 desarrollo una teona segl1n la cual el regimen maximo de bits, C, que se puede enviar por un canal con un

ancho de banda BW y una relacion senaljruido SIN (donde S = intensidad de la senal y N = intensidad del ruido) esta determinada por la f6rmula siguiente:

EL LENGUAJE DE LOS DATOS

25

EL LENGUAJE DE LOS DATOS 25 Esta relaci6n de potencia SIN indica la intensidad relativa de

Esta relaci6n de potencia SIN indica la intensidad relativa de la senal con res- pecto a la del ruido en el canal, yes expresada en forma proporcional (10 3 :1, 0 en decibeles (dB). Una relaci6n de potencias SIN de 10 2 1 sena igual a 20 dB, yas! sucesivamente. Si tuviesemos un canal perfecto, con un ancho de 3000 Hz y una relaci6n SIN de 10 3 : 1 podnamos utilizar la f6rmula antedicha y calcular el regimen maximo de bits del canal:

C=BWlog 2 (I+S/N)

=300010~(1 +103)

=300010~(1001)

=3000xl0(aprox.)

=30.000

bits/seg

Observese que no se describen los metodos de codificaci6n y modulaci6n; son casi imposibles de lograr y, en verdad, no resultarfan econ6micos.

ELEMENTOS DE CODIGO CON MULTIPLES NIVELES

En presencia de ruido, una senal binaria se percibe mas exacta y facil que otta en la cual se emplean varios bits por elemento de c6digo. A medida que aumenta el con- tenido de bits (numero de niveles) de un elemento de c6digo, debe producirse un incremento proporcional en la relaci6n SIN para que los resultados de la detecci6n de una senal binaria sigan siendo los mismos. La f6rmula antes citada puede modificarse para obtener la relaci6n SIN que se necesita como minima para un regimen de bits y un ancho de banda conocido.

minima para un regimen de bits y un ancho de banda conocido. La aplicaci6n de esta

La aplicaci6n de esta f6rmula a senales binarias y de niveles multiples indicara la medida de la desventaja de ruido requerida para permitir la transmisi6n de varias senales de niveles multiples. Primero debe calcularse la relaci6n SIN de una senal binaria, para que sirva de referencia. Suponiendo un canal perfecto de 3000 Hz, puede utilizarse la velocidad establecida por Nyquist, de 6000 bps, con 10 que se obtiene una relaci6n SIN de 3:1 como minima:

S/N=2C/BW-l

S/N=26ooo/30oo_1=22_1=3

EI equivalente en decibeles de una relaci6n SIN de 3:1 es:

ThoRfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

26

dB=1010gS/N

=1010g 3 =10(4,8)=4,8

En contraste con el sistema binario mencionado, en un sistema temario (de tres niveles) se necesitaria una relaci6n de potencia SIN superior. La velocidad maxi- ma en bits de un sistema temario a traves de un canal ideal de 3000 Hz es:

bps = 2BW(log23) = 6000(1,58) = 9500

y la relaci6n SIN necesaria sent:

S/N=2C/BW-1

=29500/3000_1

=2 3 -1=7

(aprox.)

EI equivalente en decibeles de una relaci6n SIN de 7 es:

dB= 1010~=8,5

La desventaja de ruido de un sistema temario con respecto a uno binario (en un canal ideal) es, pues, 8,5-4,8 = 3.7 dB. Un sistema cuatemario requiere una dife- rencia minima de 11,7 entre los niveles de la sefial y de ruido. Por 10 tanto, tiene una desventaja de ruido de 11,7 - 4,8 = 6,9 dB por encima del binario. Estos son los requisitos minimos de un canal perfecto en cualquier otro sentido, y los ilustramos aqui para indicar ellimite de la desventaja de ruido que se requiere para aumentar la velocidad de la sefial en un canal determinado. Ademas del limite que el ancho de banda y ruido de un canal (reducida rela- ci6n sefial-ruido) imponen sobre su capacidad portadora de bits, otras imperfeccio- nes del canal y las limitaciones de los equipos actuales obligan a un minima practi- co de la relaci6n SIN del orden de 10 2 : 1 (20 dB) 0 mas.

REDES BLUETOOTH

Hoy dia, un sinmlmero de personas utilizan cuantiosos dispositivos portatiles en sus actividades profesionales y privadas tales como ordenadores, telefonos m6viles, PDA y reproductores MP3. Para la mayona, estos dispositivos se usan por separado, esto es, sus aplicaciones no interactuan. Sin embargo, en el caso que pudiesen interactuar directamente, los participantes de una reuni6n podrian compartir docu- mentos 0 presentaciones; las tarjetas de visita irian automaticamente al registro de

EL LENGUA'I: DE LOS DATOS

27

direcciones en un ordenador portatil y el numero se registraria en un telefono m6- viI. A medida que los viajeros salen de un tren cercano, sus ordenadores portatiles podrian permanecer en linea; de la misma manera, ahora el correo electr6nico en- trante podria ser derivado a sus PDA; finalmente, al entrar a la oficina, toda la comu- nicaci6n podria ser encaminada automaticamente a traves de la red inalambrica cor- porativa. Estos ejemplos de comunicaci6n inalambrica espontanea ad hoc entre disposi- tivos, podrfan ser definidos de manera informal como un esquema, al que a menu- do se denomina formaci6n de redes ad hoc, que permite a los dispositivos establecer la comunicaci6n, en cualquier momenta y en cualquier lugar, sin la ayuda de una infraestructura central. En realidad, la formaci6n de redes ad hoc como tal no es nueva, sino la configuraci6n, el uso y los participantes. En el pasado, la noci6n de redes ad hoc se asociaba con frecuencia con la comunicaci6n en los campos de com- bate y en los emplazamientos de zonas desastrosas; en la actualidad, al materializar- se nuevas tecnologias tales como Bluetooth, es probable que cambie el escenario de la formaci6n de redes ad hoc, asi como su importancia. A continuaci6n se describe el concepto de la formaci6n de redes ad hoc propor- cionando sus antecedentes y presentando algunos de los retos tecnicos que plantea. Ademas, se indican algunas de las aplicaciones que se pueden contemplar para la formaci6n de redes ad hoc.

FORMACION DE REDES BLUETOOTH

./

En todo el mundo, la industria ha mostrado mucho interes en tecnicas que propor- donen conectividad inalambrica de corto alcance. En este contexto, la tecnologia Bluetooth se ve como el componente clave. Sin embargo, la tecnologfa Bluetooth debe ser capaz de operar en redes ad hoc que puedan ser .aut6nomas, 0 parte del mundo /Ide la red IP", 0 una combinaci6n de ambas. El principal prop6sito de Bluetooth es sustituir los cables entre dispositivos electr6nicos, tales como los telefonos, los PDA, los ordenadores portatiles, las ca- maras digitales, las impresoras, y las maquinas de fax, usando un chip de radio de bajo costo. La conectividad de corto alcance tambien encaja muy bien en el con- texto del area amplia, en que puede extender la formaci6n de redes IP al dominic de la red de area persona), como se discuti6 con anterioridad. Bluetooth debe ser capaz de transportar IP eficientemente en una PAN, ya que las PAN estaran conectadas a Internet a traves de UMTS 0 UN corporativas, y contendran anfitriones con capacidad para IP. En terminos generales, una buena capacidad para transportar IP darla a las redes Bluetooth una interfaz mas amplia y mas abierta, 10 que con toda certeza impulsarfa el desarrollo de nuevas aplicaciones para Bluetooth.

ThoRfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

28

Pi co red 1

?

o

o

~

Pi co red 1 ? o o ~ Pico red 2 Unidad Bluetooth (maestra) Unidad Bluetooth

Pico red 2

Unidad Bluetooth (maestra)

Unidad Bluetooth (esclava)

Figura 1.6 Ejemplos de pica redes Bluetooth.

PRINCIPIOS BASICOS DE BLUETOOTH

Bluetooth es una temologfa de comunicaci6n inahimbrica que usa un esquema de saltos de frecuencia, una banda Industrial-Cientffica-Medica (Industrial-Scientific -Medical) ISM a 2,4 GHz que no necesita licencia. Dos 0 mas unidades Bluetooth que comparten el mismo canal forman una pica red (figura 1.6). Dentro de una pica red, una unidad Bluetooth puede representar uno de dos papeles: maestro 0 esclavo. Cada pica red solamente puede contener un maestro (y siempre debe haber uno) y hasta siete esclavos. Cualquier unidad Bluetooth puede llegar a ser maestra en una pica red. Ademas, dos 0 mas pica redes pueden ser interconectadas, formando 10 que se denomina una red dispersa (scattemet). EI punto de conexi6n entre dos pica redes consta de una unidad Bluetooth que es miembro de ambas pica redes. Una unidad Bluetooth puede ser simultaneamente un miembro esclavo de multiples pica redes, pero s610 maestro en una. Asimismo, debido a que una unidad Bluetooth unica- mente puede transmitir y recibir datos en una pico-red a la vez, su participaci6n en multiples pica redes ha de ser en regimen de multiplexaci6n por divisi6n de tiempo. El sistema Bluetooth proporciona transmisi6n duplex basada en duplicaci6n por divisi6n de tiempo TOO (time-division duplex) con intervalos, donde la dura- ci6n de cada intervalo es de 0.625 ms. No hay transmisi6n directa entre esclavos en una pica red Bluetooth, s610 de maestro a esclavo y viceversa. La comunicaci6n en una pica red esta organizada de manera que el maestro interroga a cada esclavo de acuerdo con un esquema. Un esclavo s610 tiene permiso para transmitir despues de haber sido interrogado por el maestro. El esclavo comen- zara su transmisi6n en el intervalo de tiempo esclavo-a-maestro inmediatamente

EL LENGUA'E DE LOS DATOS

29

despues de haber redbido un paquete del maestro . El maestro puede 0 no induir datos en el paquete usado para interrogar a un esdavo. Sin embargo, es posible enviar paquetes que cubran multiples intervalos. Estos paquetes multiintervaio pue- den tener una longitud de tres 0 cuatro intervalos.

Aplicadones

Las redes de paquetes de radio ad hoc han sido tomadas principalmente para usos militares, para una operacion descentralizada. En el sector comercial, los equipos para informatica inalambrica movil repre- sentan un alto costo, y no es atractivo para el publico. Pero conforme aumente la capaddad de los ordenadores m6viles, tambien aumentara la formad6n de redes, y estas se utilizaran en donde no haya ninguna infraestructura fija 0 celular. Para operadones de rescate en zonas remotas 0 para aumentar la cobertura local de modo fCipido en sitios en construcci6n. A nivellocal, las redes ad hoc pueden enlazar ordenadores portatiles para difundir y compartir informaci6n entre los par- ticipantes en una conferencia. Tambien para redes domesticas, tal como audio, vi- deo, alarmas, actualizaciones de configuraci6n y, en un futuro, redes mas 0 menos aut6nomas de robots domesticos interconectados para limpieza, vigilancia, etcete- ra. Redes de saIto multiple (redes sensoras) para monitores del medio ambiente.

Ruido ambiental y laboral

EI ruido es uno de los contaminantes mas sutiles con que el ser humane inunda el mundo. No se ve, no tiene olor ni color, no deja rastro. Pero puede generar molestia, problemas de salud, y sobre todo sordera en las personas sometidas a ruido constan- te 0 excesivo. Es imperativo conocer los riesgos que el ruido puede producir para evitar consecuencias que pueden ser irreparables. La seguridad ocupacional preten- de la inexistencia de riesgos para la vida y la salud del trabajador, y la legislacion exige que se evite la generad6n de riesgos asi como disminuir los ya existentes. Con- servar la audibilidad es responsabilidad tanto de trabajadores como de empresarios, aunque toca a los ultimos adoptar las medidas correspondientes. Sortear el ruido industrial tiene como objetivo principal proteger a los trabaja- dores de las exposiciones excesivas de ruido, con las cuales pueden presentarse per- didas auditivas. Esta es una prioridad que incluye la promulgaci6n de leyes, indicando los limi- tes de nivel maximo de ruido permisible en la maquinaria y equipos empleados en la industria, as! como la formulaci6n de recomendaciones para su ubicacion, aisla- miento, y la elaboraci6n de rutinas adecuadas de trabajo. La medici6n basica del nivel de ruido se realiza en dB (A), Yson de gran impor- tancia los valores de nivel instantaneo, nivel minimo, nivel maximo, ademas de la

TEORfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

30

dosis de ruido que incide en los oidos del personal en su horario completo de traba- jo. El analisis de frecuencia y el de ubicaci6n de las fuentes sonoras, son de gran utilidad para conocer mejor el ruido y buscar la forma mas practica y economica de atenuarlo. El ruido industrial induye todos los sonidos que se producen en una fabrica 0 instalaci6n industrial, como son: motores, ventiladores, cajas de engranes, maniobras

de carga y descarga, etcetera; asimismo el ruido generado en el proceso de produccion.

El nivel de ruido puede medirse en cualquier momento, pero hay que tomar en cuenta

que con frecuencia hay variaciones de nivel de un momento a otro, por 10 que la medici6n momentanea en dB (A) no es suficiente. Se pueden hacer graficas continuas de la fluctuacion del nivel de ruido, pero son dificiles de analizar e interpretar, por 10 que se han desarrollado descripciones mas sencillas, y la mas empleada en ruido industrial es el LEQ 0 Nivel Sonoro Conti- nuo Equivalente en dB (A), que es el promedio de energia del ruido en el tiempo que dura la medici6n. EI ruido puede ser continuo 0 estable, como en el caso de un motor electrico,

o de caracter fluctuante 0 intermitente, como en el caso de maquinaria de veloci-

dad 0 proceso variables. Todos ellos pueden medirse en LEQ para determinar el posible riesgo de dana aloido. La reglamentacion a su vez, establece mediciones por bandas de frecuencias con el objeto de caracterizar correctamente al ruido, en su caso, instalar el aislamien- to adecuado 0 identificar con facilidad la fuente probable, para el caso de reduccion de ruido. Las bandas empleadas con frecuencia son las de octava y 1/3 de octava. Las mediciones de ruido estacionario se realizan con un medidor de nivel so- noro con ponderacion A, y con respuesta lenta 0 rapida del indicador. El ruido debe medirse en la posicion de la cabeza del trabajador. Esta es practicamente una medi- cion de ruido ambiental, en la maquina que opera el trabajador sera solo una de las fuentes de ruido, y no necesariamente la mas importante, por 10 que la respuesta del

microfono debe ser omnidireccional, de tal manera que se asegure la correcta medi- cion del ruido generado por todas las fuentes involucradas. Muchos trabajadores son expuestos a un cierto numero de niveles de ruido con duracion variable, 10 que puede deberse al cicIo de trabajo de la maquinaria 0 del propio trabajador, desplazandose de un departamento a otro. Los codigos de ruido establecen procedimientos para sumar una serie de dosis parciales a las que son sometidos los trabajadores. Por ejemplo, ISO (Organizacion Internacional de Nor- malizacion) fija para ocho horas de trabajo yun nivel de ruido de 90 dB (A), la dosis de 1000/0, y para el mismo periodo de tiempo, pero con un nivel de 93 dB (A), la dosis es de 200 0 .4" por 10 que si un trabajador permanece cuatro horas a un nivel de 90 dB (A) Ylas otras cuatro horas a un nivel de 93 dB (A), se dice que ha recibido una dosis de 150°.4,. Es necesario tener presente que se fija el nivel de 105 dB (A) como el maximo nivel de ruido al que un trabajador puede ser sometido, y nunca mas de 15

EL LENCUAJE DE LOS DATOS

31

minutos al dfa. La OSHA establece una diferenda de 5 dB para dupliear el porcentaje de exposid6n, y atlualmente usa 85 dB (A}/8 horas como base para el 100 0 /0. Cuando el nivel de ruido fluctua en fonna impredecible, este puede represen- tarse por el Nivel Sonoro Continuo Equivalente, el cual tiene la misma energia acus- tica que un ruido estable del mismo valor en un periodo de tiempo igual. Este prin- cipio de igual energfa ha side adoptado por ISO, como por las normas mexicanas. Los dosimetros de ruido de uso personal se usan para medir directamente en porcentaje la dosis recibida por un trabajador, sometido a niveles de ruido con fluc- tuaciones aleatorias en un periodo nonnal de ocho horas de trabajo. En caso de requerir la realizacion de mediciones en menos tiempo, por ejemplo, cuando se efectuan muestreos 0 en los sitios en que practieamente el ruido no fluctua, siempre es posible calcular el valor correspondiente a ocho horas, aunque para el cumpli- miento de las normas nunea se aceptan mediciones de menos de dos horas, yen los casos cnticos, es indispensable medir las ocho horas. S610 para la determinaci6n del Nivel Sonoro Continuo Equivalente, se han normalizado procedimientos que re- duzcan el tiempo de medid6n por motivos de eficiencia, pero haciendo un muestreo por periodos cortos a 10 largo de jomadas enteras. Para el caso de ruidos impulsivos, no existe un criterio de Indole mundial acep- tado, en algunos pafses simplemente se suma 10 dB al nivel equivalente medido para compensar por la generaci6n subita de los ruidos impulsivos, ya que no permi- ten que actuen las defensas normales del aparato auditivo. En otros, se mide el nivel de los sonidos impulsivos y se marea un maximo de impulsos de dicho nivel por dfa. En cualquier caso, se prohlbe que los ruidos impulsivos 0 de impacto superen el nivel de 140 dB ·pico·. Debido ala falta de uniformidad en los criterios de evaluad6n de los ruidos impulsivos, los trabajadores sometidos a este tipo de ruido deben ser observados cuidadosamente desde el inicio de sus actividades, a traves de programas de conser- vacion auditiva, los cuales en algunos palses son obligatorios en los sitios en donde existen niveles de ruido por encima de los 85 dB. Con frecuenda, se requiere que los datos generados por las medidones de ruido sean utilizados como referenda para futuras mediciones, 0 para determinar atenuaciones 0 incrementos despues de cierto tiempo, 0 para cualquier otro tipo de comparaci6n, inc1uyendo aspectos legales, de ahi que convenga realizar repor- tes suficientemente detallados. El control de ruido no necesariamente tiene que ser costoso, existen muchos ejemplos de bajo costo. Cuando el control de ruido no es practico, la rotaci6n de personal en zonas ruidosas contribuye a reducir el riesgo de perdida auditiva, siempre y cuando el resto de la jornada suceda en am- bientes de bajo ruido. En ocasiones, se requiere aislar la maquinaria ruidosa con barreras parciales 0 totales, las cuales se seleccionan de acuerdo al tipo de ruido. Los protectores auditivos reducen la cantidad de ruido que en realidad perdbe el oldo; esta solud6n debera considerarse de manera permanente en la fuente, 0 se

ThORfA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

32

aisla la maquinaria. En los casos en que 10 anterior no es posible, es indispensable adiestrar de forma adecuada al personal que tendra que usar los protectores. La planeaci6n de la construcci6n futura de instalaciones industriales 0 su mo- demizacion, debe prestar especial atencion a minimizar la generacion de ruido. Re- sulta menos costoso disefiar y construir una fabrica silenciosa, que realizar acciones de control de ruido una vez que esta en operacion. En el caso del ruido ambiental, el problema rara vez consiste en la perdida de audici6n. Tipieamente se trata de un asunto de confort, y para ello existen varias normas que establecen los niveles mciximos de ruido que se pueden producir por vehiculos, por fabricas y talleres en el lindero de sus predios, y, en general, por co- mercios y centros de diversion, incluyendo casas-habitacion. Por tal raz6n se marcan zonas en las ciudades de acuerdo al uso unieo 0 mayo- ritario que tengan estas: habitacional, semiindustrial 0 industrial. El control de ruido constituye en sf mismo un problema tecnico de cierta com- plejidad, pero aunado a ello, existen ottos que dificultan el control, tales como los de caracter econ6mico, en algunos casos legislativo, falta de conocimiento 0 de inte- res por parte de las personas involucradas en la generacion de ruido, ignorancia y/o negligencia por parte de los trabajadores sujetos a proteccion personal, falta de per- sonal capacitado para realizar las instalaciones necesarias, etcetera.

UNIDAD II

MODELO DEL PROCESO DE COMUNICACION

Un diagrama a bloques de un sistema general de comunicaci6n se IIDlestra en la figura 2.1 y su equivalente binario (onloff) en la 2.2. A continuaci6n se realizara un examen de las distintas partes del sistema, asi como el proceso de codificaci6n y

decodificaci6n.

FUENTE DE INFORMACI6N

La fuente de informaci6n selecciona sfmbolos (letras, numeros, palabras, sonidos, etcetera) de un alfabeto (0 conjunto) de sfmbolos posibles. El alfabeto del cuallos sfmbolos son seleccionados es fijo e independiente de los procesos de comunica- ci6n. Las combinaciones de sfmbolos seleccionados sucesivamente (secuencialmente) forman los mensajes que serm transmitidos sobre un sistema de comunicaci6n, la selectiva y estadfstica naturaleza de la fuente es una caractenstica principal de la Teona de las Comunicaciones modema.

FUENTE CODIFlCADORA DE LA SENAL

La fuente codificadora de la senal transforma los sfmbolos seleccionados sucesiva- mente dentro de distintas senales ffsicas, estas senales deben tomar la forma de pul- sos de voltaje como en sistemas telegrcificos 0 voltaje continuo/funciones de tiem- po como en sistemas de radio y telefono. Es importante notar la distinci6n entre sfmbolos (que son seleccionados por algtin alfabeto predeterminado) y las senales (como son representadas fisicamente por los simbolos seleccionados).

Decodificador de senal a recipiente

Este decodificador opera inversamente a la fuente decodificadora de la senal. Con-

de simbolos adecuados para su uso por el recipiente. Es

tipico que las salidas de la senal a decodificar sean de teleimpresores, de radio y telefono. Es importante notar que las senales que constituyen la entrada de la senal

vierte sen ales ffsicas dentro

35

ThORIA DE LA INFORMACION Y ENCRlPfAMIENTO DE DATOS

36

al decodificador de recipiente son dependientes de las decisiones previas hechas al medio para el decodificador de recipiente.

Codificador de senal a senal

El codificador de senal a senal, convierte la senal representando un simbolo dentro de otro de forma mas compleja. EI proceso de conversi6n involucra sumando re- dundancia a las senales y es esa parte del sistema la que emplea el codificador nece- sarlo cuando emplea c6digos detectores de error 0 correctores de error.

Decodificador de senal a senal

EI codificador de transmisi6n de senal a senal opera inverso al codificador de senal a senal (los compartimientos de transmisi6n son convenientes para la salida del codificador de senal a senal) y produce una senal que idealmente debera corres- ponder directamente a la salida del codificador de la fuente a la senal.

CODIFICADOR DE TRANSMISI6N AL MEDIO

EI codificador de transmisi6n al medio (0 modulador) opera en las senales codifi- cadas que representan simbolos de informaci6n, convirtiendolos en una forma apropiada para la transmisi6n, siempre que el medio este conectado al transmisor y al receptor. Por 10 general, hay restrlcciones en las senales enviadas al termino de la transmisi6n al medio. Estas restricciones pueden tomar formas limitadas en la po- tencia, ancho de banda y duraci6n de las senales electricas usadas, y el codificador de transmisi6n al medio debe ser disenado para producir senales adecuadas.

transmisi6n al medio debe ser disenado para producir senales adecuadas. Figura 2.1 Diagrama de un sistema

Figura 2.1 Diagrama de un sistema de comunicaci6n.

MODELO DEL PROCESO DE COMUNICACION

37

DECODIFICADOR DEL MEDIO AL RECEPTOR

EI decodificador del medio al receptor (0 detector) opera inversamente al codificador de transmisi6n al medio. Este convierte las senales moduladas que son recibidas en senales similares a las de la salida del codificador de senal a senal. EI dispositiv~ a menudo actua como una decisi6n primaria al hacer en un sistema binario, debe decidir en todo caso si el pulso recibido es binario 1 0 O. Las senales de salida prove- nientes del decodificador al medio y al receptor son usados en la parte decodificadora de este ultimo.

CANAL

El canal es el medio y la terminal fija del equipo que enlaza al transmisory al recep- tor. EI termino "equipo terminal fijo" es necesario para la elaboraci6n desde la apli- caci6n de la Teona de la Informaci6n, que requiere una definici6n cuidadosa de c6mo construir un canal. Las figuras 2.1 y 2.2 muestran el codificador de transmi- si6n al medio y de este al decodificador del receptor como parte del transmisor y del receptor. Sin embargo, si los procesos de modulaci6n y demodulaci6n son fijos en el sentido que el disenador esta sujeto a cualquiera de los dos, es incapaz de tener cambios, entonces aquellos pueden formar parte de un canal. En general, en la apli- caci6n del teorema de Shannon, el canal representa que parte del sistema el disenador no puede ni podra cambiar, e induye los procesos de decisi6n llevandolos a la salida del demodulador.

de decisi6n llevandolos a la salida del demodulador. FUENTEA SENAl COIllFICADA I I 1 ---- ~oo

FUENTEA

SENAl

COIllFICADA

I

I

1

a la salida del demodulador. FUENTEA SENAl COIllFICADA I I 1 ---- ~oo ~-- I I

----

~oo

~--

I

I

SENAl A

RECIPIENTE

~ ~_~ ~_~ ~_T_ ~ ~_ ~_~::.C ~ ~_~ ~_~ ~ -' DECOIlIflCAIlOO

SENAlA CODIFICADOR DESENAl
SENAlA
CODIFICADOR
DESENAl

I

I

I

I

I

I

I

I

I

I

I

I

I

MEDIOA:

RECEPTOR

DECODIFICADOR I

I

TRANSMISORA

CODIFICADOR

DE MEDIO

TRANSMIS~R---------t---CANAL ---r---------RE~EPTORL

SE~AlA DECODIFICADOR DE SE~
SE~AlA
DECODIFICADOR
DE SE~

~I

Figura 2.2 Diagrama de un sistema de comunicaci6n binario.

ThomA DE LA INFORMACION Y ENCRIPTAMIENTO DE DATOS

38

FUENTES DE INFORMACION DISCRETA Y CODIFICACION BINARIA DE SALIDAS

Las fuentes de informacion generan mensajes haciendo selecciones sucesivas de un alfabeto de simbolos posibles. Las fuentes pueden ser discretas 0 continuas. Una fuente de informaci6n discreta es aquella que selecciona simbolos de

, x3 de acuerdo a las reglas de probabilidad. La telegrafia

es un ejemplo simple de una fuente discreta y de un sistema de transmisi6n. Una fuente de informaci6n continua es aquella que hace selecciones de un alfabeto que es continuo dentro de su rango. Un ejemplo de la salida de una fuente continua es la posici6n tomada por el apuntador de un instrumento usado para medir la amplitud de algunas variables, que pueden tomar algtln valor dentro de los limites de un cierto rango. Esta unidad considera s610 aquellas fuentes conocidas matematicamente como fuentes ergodic. Una fuente ergodic es aquella en la cual cada secuencia de simbolos producidos por la fuente es la misma en propiedades estadisticas. Si esta se observa 10 suficiente, dicha fuente producira, con una probabilidad aproximada a la unidad, una secuencia de simbolos que es tipica. En terminos simples significa que si una secuencia es 10 suficientemente grande, contendra casi con toda certeza numeros de simbolos y combinaciones de simbolos que son inde- pendientes de la secuencia particular. Se dice que una fuente de informacion no tiene memoria 0 tiene memoria cero, si los simbolos sucesivos generaqos por la fuente son estadisticamente inde-

una serie finita de xl, x2,

pendientes. Esto es, una fuente tiene una memoria cero si cada simbolo es seleccio- nado sin la influencia de todas las selecciones previas. Si los simbolos previamente seleccionados influyen en la seleccion de un simbolo, entonces, se dice que la fuente posee memoria. Si la selecci6n de simbolos esta influenciada s610 por el simbolo que la precede inmediatamente, la fuente es conocida matematicamente como una fuente Markov. Si la seleccion esta influenciada por los m simbolos previamente

seleccionados, la fuente posee memoria y a veces es Hamada una fuente U Markov de Um-esimo orden ll

U

UNA MEDIDA DE INFORMACION Y FUNCION DE ENTROPIA

Definici6n. Si un evento Xi ocurre con una probabilidad P(xi) entonces la cantidad de informaci6n asociada con la ocurrenda conocida del evento esta definida por:

I(xi) =108xlp(xi)]-1

Si, en la definicion, los logaritmos son base 2, las unidades de informaci6n estan en bits (una forma acortada de digitos binarios). Si los logaritmos son torna- dos con base e, las unidades de informaci6n estcin en «nats» (una forma acortada

MODELO DEL PROCI:SO DE COMUNICACION

39

de unidades naturales). Ysi los logaritmos son tomados con base 10, las unidades de informaci6n estan en «Hartleys» (despues RVL Hartley).

1 hartley =3.322 bits.

1 nat = 1.443 bits.

Una medida de informaci6n obtenida de una fuente de memoria cero: si una

, xn, y las pro-

, p(x)n, respectivamen-

te, entonces (de la definicion de arriba) la informacion generada cada vez que se

selecciona un simbolo xi es:

babilidades de seleccionar los simbolos son p(xl), p(x2),

fuente de memoria cero selecciona simbolos de un alfabeto xl, x2,

log2[p(xi»)·1 bits

2.1

El simbolo Xi sera seleccionado, en promedio, NP(xi) veces en un total de N selecciones, la cantidad promedio de informacion H' obtenida de N selecciones es:

promedio de informacion H' obtenida de N selecciones es: Por 10 tanto, la cantidad promedio de

Por 10 tanto, la cantidad promedio de informaci6n por seleccion de simbolo es:

promedio de informaci6n por seleccion de simbolo es: Esto es: H = ~~=lP(xi)log2[p(xi)rl = -~~=lP(xi)logp(xi)

Esto es:

H =~~=lP(xi)log2[p(xi)rl =-~~=lP(xi)logp(xi)bits I sfmbolo

2.2

La cantidad H dada por i.2 es Hamada funci6n de entrop{a. Este termino es usado debido a que la forma de la ecuacion 2.2 es la misma que se deriva de la mecanica estadistica, para la cantidad de entropia termodinamica. Nota: la informaci6n asociada con N selecciones de la serie estadisticamente independiente es, en promedio, igual a N veces la informacion por selecci6n. Una medida de informacion obtenida de una fuente con memoria, cuya me- moria se extiende mas aHa de msimbolos, la dependencia sobre las selecciones pre- vias puede ser expresada matematicamente en terminos de una probabilidad condi- cional. Esto da la probabilidad de que la fuente seleccionara xi, dado que las m selec- ciones previas fueron xu' x 12 ' •••, x 1m ' donde x 1m es el simbolo seleccionado inmedia- tamente antes de la seleccion de xi, y xn es el sfmbolo seleccionado m sfmbolos antes de la selecci6n de Xi. Esta probabilidad condicional puede ser escrita:

40

Tham DE LA INFORMACION Y ENCRlPI'AMJENTQ DE DATOS

40 Tham DE LA INFORMACION Y ENCRlPI'AMJENTQ DE DATOS , m, puede ser rualquiera de los

, m, puede ser rualquiera de los n

sfmbolos fuente posibles; Xl' ~,

Una fuente ruya memoria se extiende mas alIa de m simbolos se dice que esta en el estado (xu' x 12 ' •••, x 1m ) ruando los m simbolos previamente seleccionados fue-

ron X.l' x 12 ' •••, X.m Claramente, para una seleccion de un alfabeto de n sfmbolos posibles, y con una memoria extendida mas alIa de m sfmbolos, hay un maximo de nil! posibles

estados, oscilando desde el estado (Xl' Xl ,

Se puede ver que la eruacion 2,1 para una fuente en el estado (xu' x 12 ' •••, x tm ),

la informacion generada por la seleccion de un sfmbolo Xi es:

Debera ser entendido aquf que ~l' i=l,2,

, X n

, Xl) hasta el estado (xn' x n ' x n ).

• , Xl) hasta el estado (xn' x n ' x n ). x2, Y debido

x2,

Y debido a que la fuente puede seleccionar rualquiera de los simbolos; xl, , xn. la cantidad promedio de informacion generada por seleccion ruando la

fuente esta en el estado ( xu' x 12 ' •••, x lm ) es:

H[xl(Xil,X,'2,

Xlog2 { pxil(Xd,.",Xim)}-

,Xim)]

= l:;:'1 p[xi I Xil'···'Xim]

1

bits

2.3

La funcion H[xl(xll' x 12 ' ••• 'X llll )] es llamada la "entropia condicional" yes una

medida de la cantidad

estado (X.l' x 12 ' •••, x.m) ruando se selecciona un sfmbolo fuente. Debido a que la fuente puede estar en rualquiera de los nm estados posibles,

esto sigue que, si la probabilidad esta en el estado "i" es' denotado por p(xu' x 12 ' •••,

x 1m ), entonces las cantidades promedio de informacion generadas por la fuente la selecci6n de un sfmbolo es:

en

informaci6n generada por una fuente en el

promedio de

H =L: 1 P(xi1"."xim).

xlog2 { p[xi I(XiI'

~~lp[xi l(xiI (xiI"",Xim»]

bits

2.4

'Xim)]}-1

Por 10 tanto, usando el teorema de Bayes, este puede ser reescrito por:

H =L: 1 L~lp(xi,Xil,···,xlm)

xlog2{ p[xil(Xil'

'Xim)]}-1

bits

2.4

La informacion generada por la fuente en la seleccion de N simbolos es H" = NH.

MODELO DEL PROCESO DE COMUNICACION

41

PROPIEDADES E INTERPRETACI6N DE LA FUNCI6N DE ENTROpfA

La fund6n de entropia tiene un mlmero de propiedades que son consideradas como una medida razonable de informaci6n. Algunas de estas propiedades son las si- guientes:

A) H = -L~=lP(xi)logp(xi) es continuo en P(xi)

B) Silas probabilidades P(xi) son iguales [p(xi) = l/n] entonces H= log n, yes por 10 tanto, una fund6n que se incrementa con el aumento de n. Esta es una pro- piedad razonable de una medida de informaci6n debido a que, entre mas sim- bolos disponibles haya para la seleccion, hay una incertidumbre inicial mas grande, y de aqui que haya un mayor cambio que va de un estado de incerti- dumbre a uno de certidumbre asociado con la selecci6n de un simbolo particu- lar.

C) H = 0 si Ysolo si todas las P(xi) son cero excepto una que es la unidad. Esta es, otra vez, una propiedad razonable de una medida de informacion, debido a que si el resultado de una selecci6n es conocido antes, de que la seleccion sea hecha, entonces cuando se haga, no se aprendera algo de eso.

D) Para una n dada, esto es, un mlmero dado de simbolos fuente, H es un maximo

e igual al log n cuando todas las P(Xi)

tambien una propiedad razonable debido a que es la situaci6n que intuitivamente tiene mayor elecd6n 0 incertidumbre asodada con este.

sean iguales [p(xi) = l/n]. Esta es

Si una fuente de informacion selecciona de un alfabeto solo dos simbolos, se dice que es una fuente binaria, si la probabilidad de la ocurrenda de los simbolos es P y q ( = 1 - P), respectivamente, la funci6n de entropia para una fuente de memo- ria cero es:

la funci6n de entropia para una fuente de memo- ria cero es: Esta funci6n es mostrada

Esta funci6n es mostrada en la figura 2.3. La salida de una fuente binaria esta en digitos binarios "binits". La distinci6n entre el binit que es una medida de informacion, y el bit que es un simbolo binario de salida, debera ser cuidadosamente notificado. La figura 2.3 muestra que en pro- medio, las cantidades de informacion proporcionadas por una fuente binaria son siempre igual 0 menores que 1 bit/binit. La fuente binaria proporciona un bit de informaci6n para cada simbolo seleccionado solo cuando los dos simbolos son equiprobables.

42

ThaRIA DE LA INFORMACION Y ENCRlJ7fAMIENTO DE DATOS

Sin considerar si una fuente posee memoria 0 no, la funci6n de entropfa puede ser interpretada como la cantidad promedio de informaci6n proporcionada por la fuente por simbolo seleccionado 0 altemativamente, como la cantidad promedio de informacion necesaria para especificar que sfmbolo ha sido seleccionado. Si se per- mite que una fuente pueda seleccionar n sfmbolos donde n es un numero largo,

2nJ f secuencias de simbolos dife-

entonces seleccionani con alta probabilidad s610

rentes, cada uno y teniendo una probabilidad de ocurrencia igual a 1/ 2D/f. Esta es una interpretaci6n fisica directa de H. La cual significa que, te6ricamente, una muy

larga secuencia de n simbolos seleccionados por la fuente pueden ser codificados y retransmitidos usando solo nH dfgitos binarios, llevando cada digito un bit de in-

formaci6n.

1.0

0.9

0.8

0.7

0.6

0.5

0.4

p H 0;1.0 0
p H
0;1.0
0
 

0.1;0.9

0.469

0.2;0.8

0.722

 

0.3;0.7

0.881

-----

0.4;0.6

0.971

0.5

1.000

 

--------

0.3

0.2

--

n1 ----------

o

0.1

0.2

0.3 0.4

O.

0.6

0.7 0.8

0.9 1.0

P

Figura 2.3 La funclan de entrapfai H=Plo~P·(1-P)log2(1-p).

MODELO DEL PROCESO DE COMUNICACION

43

CODIFICACION BINARIA DE UNA FUENTE DE INFORMACION

Cuando un simbolo es seleccionado por una fuente de informaci6n, se pone en acci6n una cantidad enorme de informaci6n igual a H. Ello implica la posibilidad que se use como un codificador fuente a binaria en cada modo para ttansmitir el simbolo seleccionado. Usando unicamente digitos binarios H (H es ellimite infe- rior). Ellimite inferior puede, en general, ser obtenido por la codificaci6n en blo- ques mas grande de una fuente de simbolos. Despues, en 13 practica algunos otros dfgitos son mas usados que los te6ricamente necesarios. En esta secci6n son discu- tidos dos metodos para la codificaci6n de salida de una fuente, asi como el uso y aplicad6n cuando usamos un numero reducido de digitos binarios. La importancia practica de la codificaci6n de este tipo es 10 que lim ita, desde la redundancia gene- ral (innecesaria en los dfgitos binarios). La interferenda del ruido es corregida en los c6digos de lectura, e1 error de deteccion y error de correcci6n, con el uso de redundancia. Sin embargo, existen circunstancias particulares cuando los errores ocasionales no son demasiados serios 0, cuando la interferenda del ruido no es muy considerable, esta puede ser aprove- chada en forma de digitos binarios y es posible espedficar y transmitir un sfmbolo selecdonado. En el procedimiento de codificaci6n Shannon-Fano, los sfmbolos son dispues- tos en orden de probabilidad decredente y luego divididos en dos grupos con pro- babilidad casi igual como sea posible. El dfgito binario cero es asignado a cada sim- bolo en el grupo inferior. El proceso se repite dividiendo cada uno de los grupos en dos subgrupos de probabilidad casi igual. El cero binario es asignado a cada simbo- 10 en el subgrupo superior de cada grupo y un uno binario para cada simbolo en el subgrupo inferior de cada grupo. El proceso se continua hasta que cada subgrupo contenga solo un simbolo. Este proceso de codificad6n (tabla 2.1) tiene importantes propiedades de co- mienzo econ6mico en el uso de digitos binarios, permitiendo la codificad6n sin ambigiiedad en un sfmbolo-por-sfmbolo basico. La tabla 2.2 es un metodo alternativo de construcd6n de c6digo de palabras. C6digo de Huffman. Aunque generalmente el metodo de codificad6n de Shannon- Fano es satisfactorio, no garantiza que el numero promedio de dfgitos binarios usa- dos para representar un sfmbolo fuente sera tan pequeno como el numero prome- dio usado cuando es codificado por alg11n otto esquema. Un procedimiento de de- sarrollo codificado por Huffman (tabla 2.3) es como sigue:

Etapa 1. El sfmbolo es colocado en probabilidad de orden descendente (pri- mera colocaci6n). Etapa 2. Los dos sfmbolos de menos probabilidad son combinados para for- mar un sfmbolo simple tal, que su probabilidad es la suma de dos simbolos consti- tuyentes.

TEORfA DE LA INFORMACION Y ENCRlf7I'AMIENTO DE DATOS

44

Simbolo

Probabilidad

 

Palabras c6digo representando cada simbolo

fuente

P(Xi)

       

Palabra

Xl

0.4

0

C6digo 1

         

Palabra

X2

0.2

1

0

C6digo 2

           

Palabra

X3

0.2

1

1

0

C6digo 3

             

Palabra

X4

0.1

1

1

1

0

C6digo 4

             

Palabra

X5

0.07

1

1

1

1

0

C6digo 5

             

Palabra

X6

0.03

1

1

1

1

1

C6digo 6

 

Promedio de longitud c6digo-palabra=

 

(lxO.4)=(2x0.2)=(3xO.2)=(4xO.l)=(5xO.07)=(5xO.03)=

 

2.3 digitos binarios / simbolo

 

Tabla 2.1 Ejemplo de codificaci6n Shannon-Pano.

Etapa 3. Un nuevo conjunto de simbolos es formado despues del conjunto original, con los simbolos combinados reemplazando estos dos simbolos constitu- yentes en la lista. EI nuevo conjunto de simbolos es el promedio en orden descen- dente (segunda colocaci6n). Etapa 4. Se repite la etapa 2. Etapa 5. Se repite la etapa 3. Etapa 6. Las etapas 1 y 5 son repetidas hasta que un simbolo simple de unidad probable se obtiene. Etapa 7. Cuando, alguna vez, dos simbolos son combinados para formar un nuevo simbolo, un cero binario es asignado a un simbolo bajo en la combinaci6n. EI c6digo de palabra completo por una fuente de simbolo particular es la secuencia de digitos binarios avanzando despues del simbolo unidad-probable-final regresa a traves de varios simbolos junto al simbolo fuente en cuesti6n. Nota: EI numero promedio de digitos binarios necesarios para representar un simbolo fuente, puede ser reducido hacia el limite de entropfa, H, si una de las dos tecnicas Shannon-Fanon 0 Huffman es usada para codificar bloques de simbolos fuente, mas bien al contrario como fuente de simbolos individuales.

MODELO DtL PROCESO DE COMUNICACI6N

45

Simbolo

Probabilidad

 

Palabras c6digo representando cada sfmbolo

fuente

P(Xi)

       

Palabra

Xl

0.4

0

0

C6digo 1

         

Palabra

X2

0.2

0

1

C6digo 2

           

Palabra

X3

0.2

1

0

C6digo 3

X4

0.1

1

1

   

Palabra

0 C6digo 4

XS

0.07

1

1

 

0

Palabra

1 C6digo 5

X6

0.03

1

1

 

1

Palabra

1 C6digo 6

 

Promedio de longitud c6digo-palabra=

 

(2xO.4}+(2xO.2}+(2x0.2}=(3xO.1}+(4xO.07}=(4xO.03)=

2.3 digitos binarios I simbolo La entropia de esta fuente es cero-memoria H =0.4Iog0.4+0.2Iog0.2+0.2Iog0.2+0.llog0.1+0.07Iog0.07+0.03Iog0.03= 2.21 bits I simbolo

Tabla 2.2 Metodo alternativo de codificaci6n Shannon-Fano.

ENTROPIA REIATIVA Y REDUNDANCIA

La raz6n de la entropia como una fuente al maximo valor de entropia, que se puede tomar por el mismo conjunto de simbolos de fuente, es Hamada entropia relativa.

La redundancia R es igual a 1 menos la entropia relativa

R=

1- HI Hmax

Cuando H es la entropia y Hmax el maximo valor de la entropia.

CANAL DE COMUNlCACI6N

Los canales de comunicacion son clasificados por la naturaleza de las entradas y salidas, y la naturaleza de la probabilidad condicional relativas a sus entradas y salidas.

ThoRfA DE LA INFORMACION Y ENCRIPrAMIENTO DE DATOS

46

1 st 0.40 0.30 0.20 0.04 0.04 0.02
1 st
0.40
0.30
0.20
0.04
0.04
0.02
DE DATOS 46 1 st 0.40 0.30 0.20 0.04 0.04 0.02   0.60 1.0 0.40 0.40
 

0.60

1.0

0.40

0.40

0.40

0.40

0.30

0.30

0.30

0.20

0.20

0.30

0.06

0.10

0.04

C6digo palabra

1

00

010

0111

01100

01101

Promedio longitud de c6digo palabra=2.06 dfgitos binarios/simbolo La entropfa de la fuente=1.999 bits / sfmbolo

Tabla 2.3 Ejemplo de codificad6n Huffman.

Si la entrada y salida de un canal son discretas, se dice que el canal es discreto. Si las entradas y las salidas son continuas, se dice que el canal es continuo. Si la entrada es discreta y la salida es continua, se dice que el canal es discreto a continuo. EI canal puede ser continuo a discreto si la entrada es continua y la salida discreta. Si las probabilidades condicionales relativas a los sfmbolos de entrada y los sfmbolos de salida siguen alterando los sfmbolos que son transmitidos sucesiva- mente, se dice que el canal es constante 0 de menos memoria. Si esas probabilidades dependen en que ocurran los eventos de entrada y de salida, se dice que el canal posee memoria.

REPRESENTACI6N DE UN CANAL

Despues de que un sfmbolo 0 un mensaje ha sido seleccionado por una fuente de informacion, y la probabilidad codificada (por la tecnica de Huffman 0 como la tecnica de correccion-error), esto es, la alimentacion del canal de comunicacion. En el final del receptor de un mensaje se toma una decision de un sfmbolo 0 mensaje

MODELD DEL PROCESO DE COMUNICACION

47

que fue transmitido; 10 cual constituye la salida del canal porque de varias formas de interferencia pueden ser tomadas decisiones incorrectas tiempo a tiempo y la salida de un canal puede diferir de su entrada. La decisi6n hecha por el detector al tomar dedsiones, hace que parte del canal pueda ser reladonado a a los sfmbolos de entrada por un arreglo de probabilidad

condidonal. Si el arreglo de simbolos de n entradas es denotado, como xl, x2,

yel arreglo de k salidas como yI, y2,

entonces, el canal incluye la decisi6n al

transmitir el proceso-cread6n en el receptor final, que puede ser representado por el diagrama presentado en la figura 2.4, 0 por un canal como se muestra debajo de esta.

, m,

yn,

YJ

Y 2

Y•

Y

k

como se muestra debajo de esta. , m, yn, YJ Y 2 Y• Y k x,~--~
x,~--~ Y I
x,~--~
Y I

X

SALlDAS

~.,

x.

SALlDAS

P(yl Xl) P(yl X 2 )

'

y,

P(Yi XJ)_P(yJ Xl) P(Yi x 2 )_P(yJ X 2 )

P(y'; Xl)

P(y'; X)

Xl

X 2

Xl) P(Yi x 2 )_P(yJ X 2 ) P(y'; Xl) P(y'; X) Xl X 2 ENfRADAS
Xl) P(Yi x 2 )_P(yJ X 2 ) P(y'; Xl) P(y'; X) Xl X 2 ENfRADAS

ENfRADAS

Figura 2.4. Diagrama de un canal discreto.

ThoRfA DE LA INrORMACION Y ENCRIPrAMIENTO DE DATOS

48

1-p

~-----~----"Y2
~-----~----"Y2

1-p

Y ENCRIPrAMIENTO DE DATOS 48 1-p ~-----~----"Y2 1-p E .~~--------~------~~ 1-p El diagrama y la matriz,
E .~~--------~------~~
E
.~~--------~------~~

1-p

48 1-p ~-----~----"Y2 1-p E .~~--------~------~~ 1-p El diagrama y la matriz, las representadones del canal

El diagrama y la matriz, las representadones del canal P(yi/xi) son llamadas pro- babilidades de adelanto, P(yi/xi) que se refieren ala probabilidad de una decision, la cual puede ser tomada en los resultados de un sfmbolo de salida yi, ruando en realidad el sfmbolo transmitido fue xj. Claramente, desde que un simbolo de entrada particular en decisi6n puede ser alcanzada u observado en un sfmbolo de salida:

tp(Y./X.) =1

'J

t=l

2 5

.

La probabilidad de obtener un sfmbolo yi, como salida de un canal es:

P(Yd =t~(Xj)·P(yi/Xj)

j=l

De la regia de Bayes mostramos la probabilidad de que un sfmbolo xj fue trans- mitido, dado que la salida del canal es yi:

P(x j /y,) =

P(yi / x j) • P(x J ) P(Yi)

2.6

MODEW DEL PROCESO DE COMUNlCAC16N

49

Y por 10 tanto:

P

(

x

j

1

P(y·1 x .). P(x .) J

I

)

)

YiLP(Xj)ep(y;IXj)

2.7

P(xj/yi) es Hamada probabilidad para atnis 0 de reversa.

UNA MEDIDA DE IA INFORMACI6N TRANSMmDA SOBRE UN CANAL

Antes de la salida de un canal, la probabilidad de un simbolo es obtenida como xj, en el canal de entrada es p(xn, la entropia asociada con los simbolos de entrada es por 10 tanto:

H(X) = tP(x j )1082[p(Xj)r 1 bits I sfmbolos

1=1

2.8

Esto es una propiedad de la entropia que puede ser interpretada como el pro- medio de bits de informaci6n portada por un sfmbolo de entrada, 0 como el nume- ro promedio de bits necesarios para especificar un simbolo de entrada. Despues de recibir una salida yi, la probabilidad asociada con el simbolo de entrada es:

P(xll yl),P(x21Y2),

,P(xnl

yr)

Y la entropia asociada can el conjunto de entradas:

n

H(X J IYI)= LP(Xj IYi)log2[P(x j Iy.)]

j=l

x I, x2

-1

bits

, xn es:

Tomando el promedio de todas las posibles salidas:

H(X,y)

k

=LP(Yi)' H(X Iy.)

t=1

=LP(Yi)' tP(xjIYi)·log2[p(xjIYi)r 1

j=1

= t tp(y.). p(Xj IYi)·10g2[P(x j IYI)]-1

t=lj=1

=L LP(y.,x j )log2[P(x j IYi)]

k

n

t=lj=1

-1

bits

Isfmbolo

2.9

Tl:ORfA DE LA INFORMACION Y ENCRlPrAMIEHrO DE DATOS

50

H(X/Y) es Hamada entropia posterior 0 equivocada y puede ser interpretada como: el numero promedio de bits de informaci6n de la portadora por un sfmbolo, despues de que el sfmbolo ha sido recibido en el canal de salida, 0 como el mlmero promedio de los bits necesarios para especificar un simbolo de entrada, despues de que el simbolo ha side recibido en la salida del canal. H(X/Y) es una medida de la incertidumbre asociada con la entrada despues de que la salida ha sido recibida. Esta incertidumbre es causada por el ruido del canal. La diferencia entre una priori y una entropfa posterior es, 1= H(X) - H(X/Y). Uamada algunas veces informaci6n mutua y con mas frecuencia, el indice de infor- maci6n. La interpretad6n de H(X) y H(x/y) es una medida de la cantidad de infor- maci6n ganada por el receptor como resultado de la observad6n de la salida en el canal.

1= H(X). H(X IY) bits I simbolo

2.10

PROPIEDADES DE IA INFORMACI6N MUTUA Y LA ENTROpfA ASOCIADA

La informaci6n mutua 1tiene un numero importante de propiedades, y la entropfa asociada para satisfacer un numero importante de relaciones. Algunas propiedades re1acionadas son:

A) El valor de 1 es equivalente a lomas grande que cero. Esto significa que el

monto promedio de informaci6n recibida a traves de un canal es negativo. S) La unica condid6n bajo la cual 1=0 es cuando el canal de entrada y el canal de salida son estiticamente independientes, por ejemplo, cuando:

p(x j'

Yi) = p(x j). P(Yi); p.(x j' y,) = p(x J)

Esta es una propiedad razonable, puesto que hay independenda estatica entre el canal de entrada y el canal de salida, significa que nada se aprende del canal de entrada, sin conocimiento en el canal de salida.

C) Para un canal sin ruido, una vez que un simbolo de entrada se ha observa-

do, y no hay incertidumbre como en el sfmbolo de entrada que fue transmitidoi se tiene por 10 tanto H= (X/Y) = 0 Y 1 = H(X), la entropfa del canal de entrada. Las siguientes relaciones son mostradas para su veracidad:

A)

1= H(x). H(X IY)= H(Y). Her IX)

donde

MODELO DEL PROCESO DE COMUNICACION

51

B)

n

H(Y) = ~P(YJ)log[p(Yi)r

j=l

1

y

k

H(Y I X) = ~ ~p(Yi/Xj)log2[P(Yi I Xj)]

n

J=lt=l

-1

H(X, Y) =H(X) - H(Y I X) =H(Y) - H(X I Y)

donde

H(X, Y) = H(X) - H(Y I X) = H(Y) - H(X I Y) donde C)

C)

H(x, Y) :S H(x) - H(Y) H(x) ~ H(x Iy); H(Y) ~= H(X I X)

La igualdad en cada caso ocurre si y solo si «x» y «Y» independientes.

CAPACIDAD DEL CANAL

son estaticamente

La capaddad del canal esta definida como el maximo valor al cualla informad6n puede ser transmitida por un canal. Como puede verse de 2.8, 2.9 Y2.10; la infor- maci6n mutua 0 informaci6n valuada depende no solamente en el arreglo de pro- babilidades condicionales relacionadas al canal de entrada y salida, sino tambien en las probabilidades con las cuales los diversos canales de sfmbolos de entrada son escogidos. Para un apropiado proceso de codificaci6n, los sfmbolos de salida de la fuente pueden ser usados como formas en que los P(x)'s gobiemen el canal de sfm- bolos de entrada, maximizando el valor de transmisi6n para un determinado arre- glo de probabilidades condicionadas. EI proceso de codificaci6n es, algunas veces, referido como un arreglo estatico de la fuente y el canal. Aunque el calculo de la capaddad del canal esta, en general, un poco compro- metido algebraicamente, presenta dificultades no fundamentales, yen dertos casos el ailculo llega a ser relativamente simple.

C= mdx(Q=mdx{H(X) .H(X I YJ}

2.11

TEORfA DE LA INFORMACION Y ENCRJPI'AMIENTO DE DATOS

52

ALGUNOS CANALES SIMPLES

Canal simetricamente binario. El canal mostrado en la figura 2.S es conoddo como canal simetricamente binario, los canales de entrada y salida son binarios y las pro- babilidades son simetricas.

C =1 +plog2 P+(1.p)log2(1.p) bits

/ simbolos

2.12

Canal de borrado. EI canal mostrado en la figura 2.6 es conoddo como canal de borrado. Puede ser interpretado como el modele de un canal el cual toma la dedsi6n al final del receptor del canal, e imprime un borrado, si la raz6n de una probabilidad posterior asodada con el canal de sfmbolos de entrada no es sufiden- temente grande. La capaddad de canal es:

c = ~-qXl-log2~-q)} + ~-p -q)log2~-p -q)+p log2P bits / simbolo

Para incrementar el valor de borrado, la probabilidad de una dedsi6n inco- rrecta puede ser redudda a un valor despredable (figura 2.7). Este canal es conocido como canal de borrado binario y tiene una capaddad de:

C =l·q bits / simbolo

2.13

Canal de desvanecimiento de Rayleigh. Pierce ha considerado un canal en el cual la informadon es transmitida por Haves de cambio de frecuenda (FKS) en la presenda de atenuad6n de Rayleigh y ruido Gaussiano. En el sistema considerado por Pierce hay dos receptores, uno para cada simbolo transmitido y es usado sobre la detecdon. La seiial transmitida para que sea asodada con el receptor, dando la salida mas grande. La atenuad6n de baudios sucesiva es supuesta, para ser indepen- diente estadisticamente, como es el ruido aditivo en los receptores. Se supone tam- bien que ocurren cambios de fase y amplitud durante cada baudio. Pierce ha mos- trado que un sistema posee estas propiedades y satisface las suposidones, y puede ser representado como un canal simetrico binario con cruce probable de:

P={2 +{SOT /No)}-l

Donde SO es el promedio de potencia del transmisor, T la durad6n de baudio

y No el ruido portencia/hertz en cada receptor. EI canal es mostrado en la figura

2.8 y la fund6n:

P={2+{SOT /No)}-l

MOD[LQ DEL PROCESO DE COMUNICACION

53

Esta dada en la figura 2.9, para varios valores de relaci6n senal a ruido. La capacidad del canal, para varios valores de SO, T YNo pueden ser derivados de la ecuaci6n 2.12.

1-p

~--------~------~Y1
~--------~------~Y1

1-p

Figura 2.5 Canal simetrico binario.

1-a

X1~--------+--------4
X1~--------+--------4

1-a

Figura 2.7 Canal de borrado binario.

1-a Figura 2.7 Canal de borrado binario. Figura 2.6 Canal de borrado. 1-p 1-p Figura 2.8

Figura 2.6 Canal de borrado.

1-p