Está en la página 1de 15

UNIVERSIDAD TECNOLGICA

NACIONAL
Facultad Regional Tucumn
Anexo Concepcin

Alumnos
Asahan, Pablo
Coronel, Juan Edgardo
Elas, Pamela
Profesor
Quiroga, Jorge
Ao: 2006
MEDIDA DE LA INFORMACIN
El concepto de informacin supone dos objetos:

La fuente de informacin y
El destinatario de la informacin

Los tipos de problemas que surgen en el estudio de la informacin son de alguno


de estos tres
tipos:

Tcnicos: Relativos a la exactitud, confiabilidad, velocidad de transmisin,


etc.
Semnticos: Estn dirigidos a las investigaciones que pretenden resolver el
problema de cmo es posible transmitir exactamente el significado del
mensaje con ayuda de textos.
Pragmticos: Analizan el grado de eficiencia en que influye la informacin
sobre el comportamiento del destinatario.

TEOREMA FUNDAMENTAL DE LA TEORA DE LA INFORMACIN


Comprende los tres conceptos bsicos a desarrollar en la Teora de la Informacin:

La medida de la informacin.
La capacidad de un canal de comunicacin para transferir informacin.
La codificacin como medio de utilizar los canales en toda su capacidad.

Dada una fuente de informacin y un canal de comunicacin existe una tcnica


de codificacin tal que la informacin se puede transmitir sobre el canal a
cualquier rapidez menor que la capacidad del canal y con una frecuencia de
errores arbitrariamente pequeo, an ante la presencia de ruido.
Sea un mensaje X de probabilidad de ocurrencia P(X), la informacin que
conlleva ese mensaje definida como auto-informacin es:
I ( X ) f ( P ( X ))

Cantidad de informacin asociada con X

donde f(P(X)) debe ser determinada.


Para encontrar f(P(X)) se suponen los siguientes requerimientos:
1
Si P(X) = 1 o P(X) = 0, entonces I(X) = 0
Si 0 < P(X) < 1, entonces I(X) > 0
Si P(X) < P(Y), entonces I(X) > I(Y)
Si X e Y son acontecimientos independientes, entonces I(X,Y) = I(X)+I(Y)

2
La nica funcin que satisface estas cuatro condiciones es:
1

3 I ( X ) K log b P( X ) K log b P
(X )
Donde K es una constante positiva y b la base. Hartley demostr que K es 1.
El signo () puede provocar confusin a simple vista, pero esto se aclara con la
propiedad 2.

La base del logaritmo define la unidad de informacin. La ms usada es el log2


Bit:

I X log r

1
P( X )

Unidades de

orden r

I X log 2

1
P( X )

Shannon / bit
I X log10

1
P( X )

Hartley /

I X log e

1
P( X )

Natural

Decimal

ENTROPA
El concepto bsico de entropa tiene mucho que ver con la incertidumbre que
existe en cualquier experimento o seal aleatoria. De esta forma, podremos
hablar de la cantidad de informacin que lleva una seal. La entropa es una
medida del contenido de informacin de una variable aleatoria.
Se ha definido la auto-informacin en funcin de los mensajes individuales o
smbolos que una fuente pueda producir, pero un sistema de comunicacin no es
diseado para un mensaje en particular, sino para todos los posibles mensajes.
Por tanto aunque el flujo de informacin instantneo de una fuente pueda ser
errtico, se debe describir la fuente en trminos de la informacin promedio
producida. Esta informacin promedio se denomina Entropa de la fuente.
Ejemplo 1: consideremos algn texto escrito en espaol, codificado como una
cadena de letras, espacios y signos de puntuacin (nuestra seal ser una
cadena de caracteres). Ya que, estadsticamente, algunos caracteres no son muy
comunes (por ejemplo, 'y'), mientras otros s lo son (como la 'e'), la cadena de
caracteres no es tan "aleatoria" como podra llegar a ser. Obviamente, no
podemos predecir con exactitud cul ser el siguiente carcter en la cadena y
eso la hara aparentemente aleatoria; pero es la entropa la encargada de medir
precisamente esa aleatoriedad.
Ejemplo 2: El lanzamiento de una moneda al aire para ver si sale cara o cruz (dos
estados con probabilidad 0,5) tiene una entropa:
H = 0,5*log2(1/0,5) + 0,5*log2(1/0,5) = 0,5*log2(2) + 0,5*log2(2) = 0,5 + 0,5 = 1 bit

Definicin formal de Entropa


Definicin: La entropa nos indica el lmite terico para la compresin de datos. Es
la informacin promedio asociada con una variable aleatoria.

Sea m un alfabeto de tamao m={m1,m2,...mj}. Cuando se transmite el smbolo jsimo esto conduce una informacin: Ij log b ( 1 )
Pj

En un mensaje largo donde N (nmero de smbolos emitidos) > m, el smbolo j ocurre


alrededor de NPj veces y la info total del mensaje ser:
m

NP1I 1 NP 2 I 2 NP 3 I 3 ... NPmIm NPjIj


j 1

Cuando se divide por N se obtiene la informacin promedio por smbolo, por lo


tanto la entropa de una fuente discreta H es:
H

Pj.Ij
j 1

P . log
j

j 1

1
Pj

Para un tamao fijo del alfabeto (m fijo) la entropa depende de la probabilidad de


los smbolos y est limitada por:
0 H log 2 m

El lmite inferior H=0 implica que la fuente no entrega info y por lo tanto no existe
incertidumbre en el mensaje. Esto corresponde a una fuente que produce los m
smbolos en forma continua. Es decir que todos los smbolos tienen probabilidad
0, salvo para el smbolo de probabilidad 1.
En el otro extremo la entropa mxima debe corresponder a la mxima
incertidumbre o la mxima libertad de eleccin; es decir todos los smbolos
tienen igual probabilidad de ocurrencia
H HMax log 2 m

cuando todas las Pj = 1/m.


*Supongamos que la fuente es binaria m=2 (tamao del alfabeto). Las
probabilidades quedan relacionadas y pueden escribirse como P(0) = P y
1-P

P(1) = Q =

1
1

(1 P ) log
, donde
P
1 P

H P log

Q 1 P

1
1log1 0
0
si P 1, Q 0, H 0 H 1log1 0 log 0
si P 0, Q 1, H 0 H 0 log

si P, Q

1
2

P y Q misma probabilidad de ocurrencia, H 1


H

1
1 1
1 1
1
1 1
log 2 1 log 2 1 log 22 log 22
2
2
2
2
2 2
2
2

H 1 HMax log 2 m log 22 1

La HMax se da cuando todos los smbolos tienen la misma probabilidad de


ocurrencia.
Si ahora introducimos el elemento tiempo. Supongamos que dos fuentes tienen
igual entropa, pero una es ms rpida que la otra. Se producen ms smbolos por
unidad de tiempo. En un periodo dado se transfiere ms info de la fuente ms
rpida que de la lenta, lo cual es obvio y a su vez establece mayor demanda en el
sistema de comunicacin. Por lo tanto, la descripcin de una fuente no reside solo
en su entropa sino en la velocidad de la entropa o velocidad de la informacin.
La velocidad de la entropa de una fuente se define como:
R

donde

H
[bit / s ] Tasa de Informacin

(promedio)

es la duracin promedio del smbolo, o sea: Pjj


j 1

1
n promedio de smbolos unidad de tiempo [baudios].

As, la entropa es una medida de la informacin que recibimos cuando nos


mandan un dato.

Teorema lmites simples de una entropa : dada una variable aleatoria con m
valores posibles
X = {x1, x2, ... ,xm}
1
0 H(X) Log2(m)
2
3A) H(X) = 0 sii P(xi) = 1 para cierto i no hay entropa
4B) H(X) = Log2(m) sii P(xi) = 1/m para todo i
5
6

Entropa Condicional

Aqu se usa el concepto de probabilidad condicional, que vincula la ocurrencia de


un suceso con la ocurrencia previa de otro suceso.
Ej: En ingls siempre que ocurre una q la letra que le sigue es u. Estas
ocurrencias de q y luego u son dependientes. Con ello se reduce la incertidumbre
del mensaje y tambin el contenido de la informacin. Esta reduccin en
comparacin con el mximo posible se llama Redundancia del mensaje.
La expresin para la entropa condicional es formulada considerando la historia
pasada de la fuente.
As, si j es el smbolo o grupo de smbolos siguientes, la info llevada por j dado i
es

1
Promediando entre todas las j y todas las i la entropa condicional es:
P( j | i)
m

1
P( j | i )

Hc PiP( j | i). log 2


i 1 j 1

Tenemos que Hc H
La igualdad Hc H es vlida solamente cuando los smbolos son independientes
de quien haya aparecido antes. La fuente que produce smbolos independientes
se dice que es redundante, lo que significa que son smbolos no absolutamente
esenciales para transportar informacin.
Desde el punto de vista de la comunicacin eficiente la redundancia del mensaje
es indeseable porque la misma info podra ser enviada con menos smbolos no
redundantes. Pero en contrapartida esa redundancia es una gran ayuda para
resolver ambigedades si el mensaje es recibido con errores.
Conclusin: una transmisin ptima comprende una codificacin para reducir la
redundancia ineficiente del mensaje mas una codificacin para adicionar
redundantes, eficiente a efectos de controlar errores.
Redundancia R(%)

HMax H
100
HMax

VELOCIDAD DE INFORMACIN
Velocidades en la transmisin de datos

Descripcin
Velocidad
Velocidad
Velocidad
Velocidad

de smbolo
Binaria
en Pulso
de modulacin

Velocidad de Transmisin o razn de


entropa
Velocidad real de transmisin

Frmula
r = 1/
vd = 1/
vp = 1/Tp
RBd =
1/Tpmin
Rh = rH
vt =d*vd

Unidad
[Smb./s]
[bit/s]
[pulsos/s]
[Baud]
[Unidades de info/s]
0.6 <= d <= 0.8

CANALES
Existen dos tipos de canales:

Canal de Informacin
Canal Fsico

Canal de Informacin: Es la parte relacionada con las especificaciones externas


del sistema de comunicacin que se estudia mediante tcnicas de la Teora de la
Informacin y de la Codificacin. Se ocupa tambin de evaluar y administrar
adecuadamente los recursos del canal fsico. Se usan criterios de eficiencia, de la
velocidad de transmisin de la informacin y de la calidad con que esta es
transportada.
Canal Fsico: Es la parte relacionada con las caractersticas fsicas y elctricas del
medio de transmisin que se estudia mediante tcnicas de Ingeniera de
Comunicaciones.
Es el medio de transmisin del sistema de comunicacin. Suele consistir en un
enlace de espacio libre (con antenas), un par de alambres, un cable o una fibra
ptica. Un canal de comunicacin tiene las siguientes caractersticas:

Su estudio se ocupa de los fenmenos relativos a la transmisin de seales


tomando como criterios la calidad de la seal recibida y tambin de preservar la
integridad y fidelidad de las seales y adems de minimizar el efecto que
producen los fenmenos de ruido y distorsin.
Atenuacin: Es una disminucin de la seal causada por el desvanecimiento de la
seal, interferencias, no linealidad del sistema o limitacin de banda del sistema.
Ruido: Es una seal espurea generalmente modelada como una caracterstica del
canal, pero que no necesariamente se origina en el.
Una lnea almbrica de telecomunicaciones presenta propiedades elctricas tales
como resistencia, inductancia y capacitancia. La resistencia elctrica produce una
atenuacin de la seal, mientras que la inductancia y la capacitancia elctrica
producen una distorsin de la seal.
Todas estas caractersticas del canal tienden a degradar la calidad de la seal que
llega al receptor, e introducen la posibilidad de que la seal transmitida no se
reciba con completa fidelidad.
Receptor: El receptor recupera del canal la seal, junto con el ruido, la distorsin
y las interferencias acompaantes y la reconstruye con tanta exactitud como sea
posible a la seal de informacin original.
Informacin de una fuente de mensajes
Fuente de mensajes
Mensaje A p(A)
Mensaje B p(B)
Mensaje C p(C)
Mensaje N p(N)
Considerando que una fuente genera varios mensajes independientes y que uno
de ellos tiene una probabilidad de ocurrencia de ser seleccionado, el mensaje A
tendr una probabilidad p(A) y la informacin asociada con el mensaje A es:
Es decir que cuando menor sea la probabilidad de ocurrencia de dicho mensaje
mayor ser el contenido de informacin del mismo.
En el caso de que la fuente pueda seleccionar informacin entre dos mensajes,
que tienen p(A)=1/2 y por lo tanto, IA = IB = -log =1 bit, el contenido de informacin
de ambos mensajes ser de 1 bit, es decir la unidad de medida de la informacin.

CAPACIDAD DE UN CANAL
El canal de comunicacin de un sistema es una abstraccin fsica, es decir un
modelo que representa al vehculo de transmisin con todo los fenmenos
inherentes que tienden a restringir la transmisin para la transferencia de
informacin por los medios elctricos y electromagnticos conocidos.
Existen canales analgicos y canales digitales. Algunos canales pueden
transportar tanto seales analgicas como digitales. Otros solamente seales
digitales. En cada uno de los casos es necesario disponer de canales con las
caractersticas elctricas o electro-pticas adaptadas al tipo de transmisin.

La capacidad de un canal es una medida de la cantidad de informacin que un


canal puede transferir por unidad de tiempo. Se simboliza con C, y sus unidades
son bits/segundo. Si relacionamos la velocidad de entropa R de la fuente con la
capacidad C del canal, se tiene que:
Dado un canal de capacidad C y una fuente con una velocidad R, si R C, existe
entonces una tcnica de codificacin tal que la salida de la fuente pueda
transmitir sobre el canal con una frecuencia de errores arbitrariamente pequea,
no obstante la presencia de ruido. Si R > C no es posible transmitir sin errores.
(Teorema de Shannon).
El canal de comunicacin es una abstraccin, un modelo que representa un
vehculo de transmisin para todos los fenmenos que tienden a restringir la
transmisin. El hecho de que existan limitaciones fsicas para la transferencia de
informacin por medios elctricos conduce a la nocin de capacidad de un canal,
tal como la velocidad de entropa R mide la cantidad de informacin producida
por una fuente en un tiempo dado, la capacidad es una medida de la cantidad de
informacin que un canal pueda transferir en la unidad de tiempo. La capacidad
de canal se simboliza con C, su unidad es bit/s. Restableciendo el Teorema
general en trminos de R y C se tiene:
Dado un canal de capacidad C y una fuente con velocidad de entropa R
entonces si R C existe una tcnica de codificacin tal que la salida de la fuente
se puede transmitir sobre el canal con una frecuencia pequea de errores, no
obstante la presencia del ruido, y R es > C no es posible la transmisin sin
errores.
CANAL DISCRETO S/RUIDO
Es aquel que transmite informacin en forma sucesiva suponiendo diferentes
estados elctricos, sea U el n de estados posibles y r la velocidad de
sealizacin del estado por unidad de tiempo. Si la relacin seal a ruido es
suficientemente grande la probabilidad de error en el receptor puede ser muy
pequea, tan pequea que se puede considerar el canal s/ruido.
C= r.lg2 U [bit/seg]
La capacidad de un canal discreto es proporcional a la velocidad de sealizacin
(r) y al lg de n de estados (U).
CANAL DISCRETO C/RUIDO
Cuando el ruido no se puede despreciar la capacidad es < que r.lg a causa de los
errores. Podemos calcular la reduccin de la capacidad con un compensador de
error ficticio el cual establece las correcciones que deben realizarse sobre la seal
transmitida. Si consideramos que el canal esta operando al mximo de C bits/seg
y la velocidad de la informacin suministrada por el compensador es r bits/seg
puesto que el canal ruidoso mas el compensador son equivalentes al canal
s/ruido, la velocidad de informacin neta sobre el canal ruidoso es
C = r.lg2 U R

CANALES CONTINUOS
Son aquellos en los cuales se representan en forma de onda (funciones continuas
en el tiempo).
Los parmetros son:
B: Ancho de banda.
S/N: Relacin Seal a Ruido.
S: es la potencia media de la seal.
N: es la potencia del ruido.
Siempre se habla de relacin de seal a ruido.
Por lo general la relacin seal a ruido se especifica en decibeles (db). Shanon
estableci que la mxima velocidad de datos sobre canal ruidoso y el ancho de
banda es B y la relacin seal a ruido S/N esta dada por:
C= B.lg2 (1+S/N) [bit/seg] capacidad del canal

CODIFICACIN DE LA INFORMACIN
La informacin del ordenador se codifica siempre en unos y ceros, que como se
ha visto, son los valores elementales que el ordenador es capaz de reconocer. La
combinacin de 1 y 0 permite componer nmeros enteros y nmeros reales. Los
caracteres se representan utilizando una tabla de conversin. La ms comn de
estas tablas es el cdigo ASCII que utilizan los computadores personales. Sin

embargo existen otras y por ejemplo los grandes ordenadores de IBM utilizan el
cdigo EBCDIC.
La informacin codificada en binario se transmite entre computadoras. En las
conexiones por mdem los bits se transmiten de uno en uno siguiendo el proceso
de modulacin de la informacin. Pero adems de los cdigos originales de la
informacin, los equipos de comunicacin de datos aaden bits de control que
permiten detectar si ha habido algn error en la transmisin (Bit de paridad).Los
errores se deben principalmente a ruido en el canal de transmisin que provoca
que algunos bits se mal interpreten. La forma mas comn de evitar estos errores
es aadir a cada palabra (conjunto de bits) un bit que indica si el nmero de 1 en
la palabra es par o impar. Segn sea lo primero o lo segundo se dice que el
control de paridad es par o impar. Este simple mecanismo permite detectar la
mayor parte de errores que aparecen durante la transmisin de la informacin.
La informacin sobre longitud de la palabra (7 0 8 bits) y tipo de paridad (par o
impar) es elemental en la configuracin de los programas de comunicaciones.
Otro de los parmetros necesarios son los bits de paro. Los bits de paro indican al
equipo que recibe que la transmisin se ha completado (pueden ser uno o dos).
ASCII
ASCII, siglas de American Standard Code for Information Interchange (Cdigo
Normalizado Americano para el Intercambio de Informacin). Es un esquema de
codificacin que asigna valores numricos a las letras, nmeros, signos de
puntuacin y algunos otros caracteres. Al normalizar los valores utilizados para
dichos caracteres, ASCII permite que las computadoras y programas informticos
intercambien informacin.
ASCII incluye 256 cdigos divididos en dos conjuntos, estndar y extendido, de
128 cada uno. Estos conjuntos representan todas las combinaciones posibles de 7
u 8 bits, siendo esta ltima el nmero de bits en un byte. El conjunto ASCII
estndar, utiliza 7 bits para cada cdigo, lo que da como resultado 128 cdigos
de caracteres desde 0 hasta 127 (00H hasta 7FH hexadecimal). El conjunto ASCII
extendido utiliza 8 bits para cada cdigo, dando como resultado 128 cdigos
adicionales, numerados desde el 128 hasta el 255 (80H hasta FFH extendido).
En el conjunto de caracteres ASCII bsico, los primeros 32 valores estn
asignados a los cdigos de control de comunicaciones y de impresora
caracteres no imprimibles, como retroceso, retorno de carro y tabulacin
empleados para controlar la forma en que la informacin es transferida desde
una computadora a otra o desde una computadora a una impresora. Los 96
cdigos restantes se asignan a los signos de puntuacin corrientes, a los dgitos
del 0 al 9 y a las letras maysculas y minsculas del alfabeto latino.
Los cdigos de ASCII extendido, del 128 al 255, se asignan a conjuntos de
caracteres que varan segn los fabricantes de computadoras y programadores
de software.
EBCDIC
EBCDIC, sigla de Extended Binary Coded Decimal Interchange Code (Cdigo
Ampliado de Caracteres Decimales Codificados en Binario para el Intercambio de
la Informacin). Un esquema de codificacin desarrollado por IBM para utilizarlo
en sus computadoras como mtodo normalizado de asignacin de valores
binarios (numricos) a los caracteres alfabticos, numricos, de puntuacin y de

control de transmisin. EBCDIC es anlogo al esquema de codificacin ASCII. Se


diferencia por utilizar 8 bits para la codificacin, lo que permite 256 caracteres
posibles (a diferencia de los 7 bits y 128 caracteres del conjunto ASCII estndar).
CODIFICACIN DE LA INFORMACIN PARA LA LECTURA Y GRABACIN DE
AUDIO EN UN CD
QU ES EL CD-DA?
El sistema de audio digital basado en un soporte de Disco compacto (CD)
Inicialmente su uso fue nicamente para audio pero luego fue utilizado tambin
para grabar datos ya que el formato era digital de ceros y unos y con esto se
permita almacenar datos.
CARACTERSTICAS GENERALES

Se basa en un sistema digital que requiere que la informacin a grabar siga un


muestreo y una cuantificacin, y el medio es ptico porque la informacin se lee y
se escribe con un haz de luz.
Caractersticas del sistema ptico: La longitud de onda estndar en el aire es de
780 mm y un ancho focal de 2 mm.
Caractersticas del formato de seal: El nmero mximo de cortes en el disco
(track, canciones..) es 99.
La informacin se cuantifica a 16 bits y se muestrea con una frecuencia de 44,1
kHz.
Se usa un cdigo de correccin de errores CIRC (Cross Interleave Reed-Solomon
Code) y un sistema de modulacin ocho a catorce (EFM).
Cmo se lee un CD?
Se muestrea a 44,1 Khz, y utiliza el sistema binario para dar valores a cada una
de estas muestras captadas, en concreto usa 2 16 niveles de codificacin (16 bits),
o sea 65536 niveles discretos para representar la onda analgica que se
muestrea.

(44100 muestras)
Si muestreamos la seal 44100 veces por segundo y para cada una de estas
muestras necesitamos 16 bits, luego en cada segundo sern 705600 bits, y al
tener un canal stereo supone lo mismo para el otro canal: 705600*2=1.411.200
bits por segundo, si a esto le sumamos los bits de correccin y una codificacin

EFM, se construyen unos paquetes de informacin que sern los escritos y ledos
en el disco.

VELOCIDAD DE TRANSFERENCIA DE LA INFORMACIN


El muestreo se hace a 44,1 kHz, obteniendo de cada muestra 32 bits, 16 del canal
izquierdo y otros 16 del derecho. Por lo tanto, la fuente da datos a una velocidad
de: 44,1 1000 32 1411200 bits/s o 172,26 kbytes/s .Esta sera la velocidad de
transferencia que tendrn los datos una vez ledos y decodificados en el lector de
CD-DA. Pero la unidad bsica son 12 muestras de sonido (6 del izquierdo. y 6 del
derecho) con lo que tenemos 12 muestras 16 bits 192 bits (24 bytes)
CODIFICACIN

Se muestrean ambos canales a 44.1 kHz codificndose cada una de estas con 16
bits y ordenndolas anteponiendo la muestra del canal izquierdo al del derecho.
Pero obviamente no se pueden grabar directamente esos bits a la superficie
metlica, se necesitan unas tcnicas para el control de los errores. As el proceso
de grabacin en un CD necesitar de una codificacin y por tanto en el proceso
de la lectura se har la decodificacin.
Existen dos tipos de errores que aparecen en el CD-Da:

Errores aleatorios, que se producen y presentan aislados o en grupos de no


ms de 17 bits , un ejemplo comn de esta clase es un bulto mal impreso
en el disco.

Errores de rfaga que se presentan en grupos mayores de 17 bits, y pueden


ser producidos por ejemplo por un araazo en la superficie, que traspasa la
capa protectora, o que simplemente desva el lser que no lee el dato
correcto.

Para conseguir la codificacin final se siguen pasos definidos:


a) Codificacin CIRC (Cross Interleave Reed-Solomon Code)
Es un mtodo de deteccin y correccin de errores que bsicamente consiste en
aadir unos bytes de paridad segn la codificacion. Reed-Solomon.
b) Subcdigo
Despus de la codificacin CIRC se aade un byte de subcdigo por bloque de 32
bytes.
Los 8 bits de subcdigo se llaman P, Q, R, S, T, U, V y W. El CD-DA slo usa los bits
P y Q. Estos bits de subcdigo incluyen informacin sobre el nmero de canciones
del disco, su comienzo, final y duracin, el copyright , etc.

d) Modulacin EFM
EFM quiere decir modulacin de ocho a catorce : los 33 bytes (32 por bloque + 1
de subcdigo por bloque) se traducen a grupos de 14 bits, aadindole 6 bits al
resultado lo que se llaman channel bits.
e) Bits de unin
Los grupos de 14 bits se unen con 3 bits. Dos de los bits de unin son siempre 0,
para
evitar tener unos sucesivos entre las palabras de 14 bits(por EFM). El tercer bit,
que puede ser cero o uno, se aade para ayudar a la sincronizacin del reloj y
para reducir los componentes de baja frecuencia de la seal digital. En la
demodulacin los tres bits se unin se desechan. Cada bloque de la trama CIRC
inicial, al modularlo y aadirle los bits de unin, pasa a tener 17 bits ms(14 bits
al modular y 3 de bits de unin). Este grupo de 17 bits es el que se grabar en el
disco.
Recordemos que los errores aleatorios estaban definidos como aquellos que como
mximo tenan 17 bits. Es obvio entonces que un error aleatorio como mximo
afectar a dos smbolos contiguos de 17 bits( el peor caso es que el error
comience en el ultimo bit de un bloque y entonces afectar al siguiente bloque
entero como mximo). El codificador CIRC retarda los bytes impares en 1 bloque
como ltimo paso antes de invertir las paridades P y Q. As que al leer el disco, si
se comete un error de 17 bits, despus de la demodulacin EFM y de desechar los
bits de unin, los dos bytes contiguos se asignarn a bloques diferentes al ser
retardados los smbolos pares. Por tanto como mximo, ante un error aleatorio, se
pierde un byte por bloque. Si ocurre un error de rfaga se perdern ms bytes, y
la paridad Q, en la medida de los posible, los corregir.
f) Adicin de la sincronizacin y formato de la trama
Los grupos de 564 bits finales (33 x 14 channel bits + 34 x 3 bits de unin)
resultantes deben ser diferenciados unos de otros. Se usa por tanto una palabra
de 24 bits de sincronizacin al inicio de cada grupo, que es nica y no puede
confundirse con ningn dato. La palabra en cuestin, a la que se habr de aadir
los bits de unin, es
1000 0000 0001 0000 0000 0010---> 3 transiciones separadas por 10 ceros. El
formato de la trama final que se graba en el disco est formado por 588 bits: 24
bits de este sincronismo, y 564 bits de cada grupo que sern los que se imprimen
en el policarbonato del CD.

También podría gustarte