Está en la página 1de 28

Repblica Bolivariana de Venezuela

Ministerio del Poder Popular para la Defensa y Educacin


Universidad Nacional Experimental Politcnica de la Fuerza Armada
UNEFA
Ncleo Anzotegui Sede San Tom
Ingeniera en Telecomunicaciones
Comunicaciones II

Teora de la Informacin y
Codificacin

Facilitador:
Norgeilys Maita

Bachilleres:
Fernndez, Jos C.I
Freitas, Oriana C.I: 20.741.846
Gonzlez, Evelyn C.I:
Lpez, Beatriz C.I:
Requena, Manuel C.I:
Torrealba, Miguel C.I: 23.519.438
Valera
6to semestre, seccin D-01

Octubre, 2014

NDICE
Contenido
Pg
INTRODUCCIN
MEDIDA DE LA INFORMACIN Y CODIFICACIN DE LA FUENTE.............4

CONCEPTO Y MEDIDA DE INFORMACION...................................................5

ENTROPA E INFORMACIN........................................................................9

TEOREMA DE SHANNON............................................................................ 9

CODIFICACIN PARA UNA FUENTE DISCRETA SIN MEMORIA....................10

CODIFICACIN PREDICTIVA PARA FUENTES CON MEMORIA.....................10

TRANSMISIN DE INFORMACIN EN CANALES DISCRETOS................12

INFORMACIN MUTUA............................................................................. 12

CAPACIDAD DE UN CANAL DISCRETO......................................................14

CODIFICACIN PARA EL CANAL BINARIO SIMTRICO...............................15

CANALES CONTINUOS Y COMPARACIN DE SISTEMAS.......................17

INFORMACIN CONTINUA........................................................................17

CAPACIDAD DE CANAL CONTINUO...........................................................18

SISTEMAS IDEALES DE COMUNICACIONES...............................................19

COMPARACIN DE SISTEMAS...................................................................20

ESPACIO DE SEAL.........................................................................21

SEALES COMO VECTORES.....................................................................21

PROCEDIMIENTO DE GRAM-SCHMIDT......................................................22

DETECCIN DIGITAL PTIMA...........................................................23

DETECCIN DIGITAL PTIMA...................................................................23

DETECCIN PTIMA Y RECEPTORES MXIMO A POSTERIORI (MAP)........23

PROBABILIDADES DE ERROR...................................................................24

CONCLUSIN
BIBLIOGRAFA

INTRODUCCIN
La transmisin de datos no es tan rpida como se quisiera, los dispositivos
de almacenamiento no tienen capacidad ilimitada, las cantidades muy grandes de
datos son poco manejables... los que menos se desea es que la mitad de los
datos que se reciben, encima, no sirvan para nada. Sera interesante reducir la
cantidad de datos, pero sin perder informacin.
La Teora de la Informacin muestra, entre otras cosas, el camino a seguir
para determinar la cantidad de informacin til de unos datos y para comprimir la
informacin de manera que los datos se representen de una manera eficiente.
La Teora de la Informacin se desarrolla en trminos de probabilidades, ya que la
informacin tiene una naturaleza aleatoria (si supisemos de antemano la informacin,
para qu la querramos?). Por supuesto, en la realidad no disponemos a priori de las
probabilidades necesarias, por lo que habr que estimarlas de los datos existentes.

MEDIDA DE LA INFORMACIN Y CODIFICACIN DE LA FUENTE

El concepto de informacin supone dos objetos:

La fuente de informacin(Tx) y

El destinatario de la informacin(RX)

Los tipos de problemas que surgen en el estudio de la informacin son de


alguno de estos tres tipos:

Tcnicos: Relativos a la exactitud, confiabilidad, velocidad de


transmisin, etc.

Semnticos: Estn dirigidos a las investigaciones que pretenden


resolver el problema de cmo es posible transmitir exactamente el
significado del mensaje con ayuda de textos.

Pragmticos: Analizan el grado de eficiencia en que influye la


informacin sobre el comportamiento del destinatario.

Se ocupa de la descripcin matemtica y evaluacin de los mtodos y


transmisin, conservacin, extraccin, clasificacin y medida de la informacin.
A continuacin veremos el diagrama de bloques de un sistema de
transmisin digital:

Se dice que los smbolos son generados por una fuente y a la conversin se
le llama codificacin de fuente (por ejemplo PCM o DPCM). El codificador de
fuente tambin se puede encargar de codificar eficientemente los datos binarios,
asignando, por ejemplo, mas bits a los smbolos menos probables y menos bits a

los ms probables. Por su parte, el codificador de canal introducir bits


redundantes de una manera controlada, con el fin de fortalecer la informacin
frente al ruido o a la interferencia que pueda conseguir en el canal.
Luego de pasar por un canal que, entre otras cosas, agrega ruido, el receptor
se encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje
original.

CONCEPTO Y MEDIDA DE INFORMACION


CONCEPTOS BSICOS
Los principales conceptos a desarrollar en la Teora de la Informacin son:

La medida de la informacin

La capacidad de un canal de comunicacin para transferir la informacin

La codificacin como medio de utilizar el canal a plena capacidad.

Estos tres conceptos bsicos se encuentran reunidos en lo que puede


llamarse Teorema fundamental de la teora de la informacin.
La codificacin se emplea para adaptar la fuente al canal para una
transferencia de informacin con un mximo de confiabilidad.
MEDIDA DE LA INFORMACIN.
CONCEPTO DE INFORMACIN, MENSAJE O AUTOINFORMACIN
Sea un mensaje A de probabilidad de ocurrencia P(A), la informacin que
conlleva ese mensaje definida como autoinformacin es:
I A f ( P( A))

Ecuacin No 1

donde f(P(A)) debe ser determinada.


Para encontrar f(P(A)) se suponen los siguientes requerimientos:
f ( P( A)) 0
1.

donde 0P(A) 1

lim f ( P( A)) 0

P ( A )1

2.
f ( P( A))
3.

f ( P( B ))
>

Para P(A)<P(B)

f ( P( A).P( B )) f ( P( A)) f ( P( B )) f ( P(C ))


4.

o, sea

IA IB

La nica funcin que satisface estas cuatro condiciones es:


f ( P( A)) K log b PA K log b

1
PA

Ecuacin No 2
Donde K es una constante positiva y b la base.
Hartley demostr que K es 1.
Al especificar la base se selecciona la unidad de informacin as:
I A log r

Unidades de orden r
I A log 2

1
P( A)

Shannon o bit
I A log10

1
P( A)

Hartley

I A ln r

1
P( A)

1
P( A)
Natural

MEDIDA DE INFORMACIN
En esta seccin se hace un repaso sobre las medidas utilizadas cuando
hablamos de almacenamiento y transmisin de datos.
UNIDADES DE MEDIDA DE INFORMACIN

En esta pgina se mencionan las distintas medidas utilizadas cuando


hablamos de datos o de capacidades de dispositivos de almacenamiento.
EL BIT
Bit es el acrnimo de BInary digiT (dgito binario). El bit es un dgito
del sistema de numeracin binario y, por tanto, puede representar uno de los dos
valores, 0 1, que este sistema utiliza. Podemos imaginarnos a un bit como un
bombilla que puede estar en uno de dos estados, apagado o encendido.
El bit es la unidad mnima de informacin empleada en informtica o en
cualquier dispositivo digital. Con l, podemos representar dos valores cualquiera,
como: verdadero o falso, abierto o cerrado, blanco o negro, norte o sur, masculino
o femenino, amarillo o azul, etc. Basta con asignar uno de esos valores al estado
de "apagado", y el otro al estado de "encendido".
En un ordenador, estos dos estados de "apagado" y "encendido" estn
representados por la presencia o la ausencia de corriente elctrica. Por ejemplo, el
dgito binario 0 puede estar representado por 0 voltios de electricidad mientras que
el dgito binario 1 puede estar representado por 5 voltios de electricidad.
EL BYTE Y SUS MLTIPLOS
Con un bit podemos representar solamente dos valores. Para representar, o
codificar, ms informacin en un dispositivo digital, necesitamos una mayor
cantidad de bits. Si usamos dos bits, tendremos cuatro combinaciones posibles:

Los dos estn "apagados".

El primero est "encendido" y el segundo "apagado".

El primero est "apagado" y el segundo "encendido".

Los dos estn "encendidos".

Con estas cuatro combinaciones podemos representar hasta cuatro valores


diferentes. Podramos, por ejemplo, representar los colores rojo, verde, azul y
negro. Cuando se reunen ocho, se forma lo que se denomina byte, que en espaol
se traduce por octeto (aunque nosotros usaremos la acepcin inglesa). Un byte
puede tomar 28 valores (es decir, 256 valores).
Como la base de los clculos en informtica es el bit, y ste solo admite 2
valores, muchas de las medidas en informtica se realizan con nmeros que son
potencias exactas de 2. As, el prefijo kilo significa comnmente mil, pero cuando

hablamos de datos informticos significa 1024 (210, que es la potencia de 2 ms


cercana al millar). Por tanto, un kilobyte son 1024 bytes y se representa como KB.
De la misma manera, el prefijo mega significa comnmente un milln, pero
en informtica es 1048576 (220, que es la potencia de 2 ms cercana al milln).
As, un megabyte equivale a 1024 kilobytes y se representa por MB (ambas letras
en maysculas!).
1024 MB constituyen un gigabyte, ya que el prefijo giga significa mil millones.
El gigabyte se representa como GB. Siguiendo el mismo patrn, los siguientes
mltiplos son el terabyte o TB (1024 GB), el petabyte o PB (1024 TB) y
el exabyte o EB (1024 PB).
EJEMPLOS
Para familiarizarse con estas medidas, he aqu algunos ejemplos:

El tamao de la memoria RAM de un PC de hoy en da es de 512 a 1024


MB, y suele ser ampliable hasta los 4 GB.

Un disco duro estndar tiene entre 100 y 200 GB, y los mayores llegan
hasta 400 GB.

En un disquete caben 1.44 MB.

En un CD-ROM estndar caben 650 MB.

Un DVD puede almacenar hasta 17 GB.

Windows 95 ocupa entre 40 y 70 MB; Windows 98, entre 90 y 130 MB.

Un programa moderno de tratamiento de textos ocupa unos 50 60 MB.

Una pgina escrita a mquina ocupara 4 KB.

Un texto de unas cuantas pginas tendr 20 30 KB.

Las obras completas de Shakespeare ocuparan 5 MB.

Una foto de una camara corriente hoy en da ocupa alrededor de 2 MB.

Las obras completas de Beethoven en buena calidad ocuparan 20 GB.

La coleccin completa de la Biblioteca del Congreso de los Estados Unidos


ocupa 10 TB.

Los ingenieros de Google han hecho algunos clculos y creen que tardaran
unos 300 aos en indexar toda la informacin que existe en el mundo para
ponerla a disposicin de los usuarios. Segn declara Google, solo tienen
indexado el 0,005 por ciento de los 5 exabytes que existen almacenados en
la actualidad en cualquier tipo de formato: archivos digitales de ordenador,
papel, pelculas, etc.

ENTROPA E INFORMACIN

La informacin es tratada como magnitud fsica, caracterizando la


informacin de una secuencia de smbolos utilizando la entropa. Se parte
de la idea de que los canales no son ideales, aunque muchas veces se
idealicen las no linealidades, para estudiar diversos mtodos de envo de
informacin o la cantidad de informacin til que se pueda enviar a travs
de un canal.
La informacin necesaria para especificar un sistema fsico tiene que
ver con su entropa. En concreto, en ciertas reas de la fsica, extraer
informacin del estado actual de un sistema requiere reducir su entropa, de
tal manera que la entropa del sistema ( ) y la cantidad de informacin ( )
extrable estn relacionadas por:

TEOREMA DE SHANNON
En teora de la informacin, el teorema de Shannon-Hartley es una aplicacin
del teorema de codificacin para canales con ruido. Un caso muy frecuente es el
de un canal de comunicacin analgico continuo en el tiempo que presenta
un ruido gaussiano.

El teorema establece la capacidad del canal de Shannon, una cota superior


que establece la mxima cantidad de datos digitales que pueden ser transmitidos
sin error (esto es, informacin) que pueden ser transmitidos sobre dicho enlace de
comunicaciones con de banda especfico y que est sometido a la presencia de
la interferencia del ruido.
En las hiptesis de partida, para la correcta aplicacin del teorema, se asume
una limitacin en la potencia de la seal y, adems, que el proceso del ruido
gaussiano es caracterizado por una potencia conocida o una densidad espectral
de potencia.
La ley debe su nombre a Claude Shannon y Ralph Hartley
C = BLog2 (1+s/n)
Donde:
B es el ancho de banda del canal.
C es la capacidad del canal (tasa de bits de informacin bit/s)
S es la potencia de la seal til, que puede estar expresada en vatios,
milivatios, etc., (W, mW, etc.)
N es la potencia del ruido presente en el canal, (mW, W, etc.) que trata
de enmascarar a la seal til.

CODIFICACIN PARA UNA FUENTE DISCRETA SIN MEMORIA


La cantidad de informacin de un mensaje, es inversamente proporcional a la
probabilidad de ocurrencia. Si un evento es conocido, la informacin aportada
es cero, de hecho su probabilidad de ocurrencia es uno. La probabilidad de un
mensaje siempre estar en un valor entre cero y uno. La informacin contenida
en eventos independientes debera sumarse.
I x i Log 2 1
P x1
1
bits

Si existe un mensaje x1, con una probabilidad de ocurrencia P(x1), el contenido


I xi

de informacin puede expresarse segn .


tendr como unidad el bit, si
empleamos logaritmos binarios. Tendr como unidad el HARTLEY, si
empleamos logaritmos decimales. Tendr como unidad el NAT, si empleamos
logaritmos naturales. La conversin de unidades podr realizarse de acuerdo a
la siguiente expresin:
1

Log 2 a ln a / ln 2 log a / log 2


CODIFICACIN PREDICTIVA PARA FUENTES CON MEMORIA
Varias fuentes de informacin han de memoria en el sentido de que smbolo
de las probabilidades dependen de uno o ms smbolos anteriores. El lenguaje
escrito, se rigen por reglas de ortografa y gramtica, proporciona un buen ejemplo
de una fuente con la memoria. Por ejemplo, la letra U (mayscula o no) se
produce en Ingls texto con probabilidad P (U) = 0,02 sobre la base de la
frecuencia relativa, pero si el anterior carta es Q, entonces la probabilidad
condicional se convierte en P (U 1 Q) == 1. Evidentemente, la memoria efecto
reduce la incertidumbre y por lo tanto resulta en un valor ms bajo de entropa que
se calcularan en funcin absolutos en lugar de estadsticas bsicas condicional.
Supongamos que una fuente tiene una memoria de primer orden, por lo que
"recuerda" un solo smbolo anterior. Para formular la entropa, vamos PG ser la
probabilidad de que x i smbolo es el smbolo elegido despus de x,. Sustituyendo
P

de

en

la

ecuacin.

(6),

tenemos

la

entropa

condicional

Que representa la informacin media por smbolo, ya que el smbolo anterior


fue XJ. Promediando sobre todos los smbolos anteriores posible, entonces los
rendimientos

Una expresin equivalente es aplicable al caso general de una memoria


orden. Sin embargo, la notacin se engorroso porque x, debe ser reemplazado por
el estado de la fuentes definidas en trminos de los smbolos q anterior, y hay
estados posibles a considerar. Una fuente con la memoria se dice que es
redundante cuando las probabilidades condicionan la reducir H (X) en
comparacin con el registro de lmite superior M. La redundancia del texto de
Ingls se ha estimado en alrededor del 50 por ciento, lo que significa que
aproximadamente la mitad de los smbolos en un largo pasaje no son esenciales
para transmitir la informacin. Asimismo sigue que si la incertidumbre se reduce
por efecto de memoria, entonces se incrementa la previsibilidad. Codificacin para
la transmisin eficiente que puede basarse en un mtodo de prediccin. Aqu
vamos a analizar el rgimen conocido como de ejecucin de prediccin que
codifica para una discreta fuente con la memoria.

TRANSMISIN DE INFORMACIN EN CANALES DISCRETOS


INFORMACIN MUTUA

La informacin mutua es, como la entropa, una medida de gran importancia, dentro
de la teora de la informacin.
Define la informacin aportada por una variable aleatoria sobre otra.
Matemticamente, esto se expresa de la siguiente manera:

Y
X /
I ( X ; Y )=H ( X )H
Nos est diciendo, cunto nos reduce la incertidumbre sobre X, el conocimiento de
Y.
EXPRESIONES DE LA INFORMACIN MUTUA EN FUNCIN DE LA ENTROPA
A continuacin, vamos a ver un diagrama que nos permitir memorizar fcilmente
algunas expresiones de la informacin mutua, asociada a la entropa:

De este esquema, podemos obtener las siguientes expresiones relevantes:

Donde se ha considerado:

Como caso particular, podemos considerar que X=Y, por lo que los dos crculos
estaran confundidos en uno solo, y H[X]=H[Y]=I(X;Y )

Propiedad de la informacin mutua


Ahora, vamos a ver unas cuantas propiedades de la informacin mutua:

La primera propiedad nos permite acotar la informacin mutua:

Vamos a ver unas propiedades sobre la forma de las funciones informacin mutua y
entropa, pero sin demostrarlas:

La segunda propiedad se puede deducir de la primera si consideramos I(X; X).

CAPACIDAD DE UN CANAL DISCRETO


DEFINICIN PARA CANALES DISCRETOS

Un canal discreto (sin memoria) est definido por:

el alfabeto de entrada, , que es el conjunto de smbolos


que pueden ser transmitidos por el canal

el alfabeto de salida, , que es el conjunto de smbolos


que pueden ser recibidos a la salida del canal

las relaciones estadsticas entre los smbolos de entrada


y los de salida , esta
informacin viene definida por la matriz de probabilidades condicionadas del
canal

donde

Se define la entropia de entrada, entropa de salida y entropa de entrada


condicionada por la salida como

La informacin mutua entre la entrada y la salida del canal la denotamos


por
y es una medida de lo que el conocimiento de la entrada reduce la
incertidumbre sobre la salida y viceversa

Esta informacin mutua

depende de la distribucin de probabilidad de la

entrada
. Para una determinada distribucin de entrada,
alcanza un
mximo, este mximo es precisamente lo que se conoce como la capacidad del canal

CODIFICACIN PARA EL CANAL BINARIO SIMTRICO


CANAL BINARIO SIMETRICO
Para el caso del canal binario simtrico con probabilidad de error de bit p, su capacidad
viene dada por

La funcin
esto tiene sentido ya
que en este caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que
es un canal inservible para enviar informacin, su capacidad es nula. Es una funcin que aparece
mucho en teora de la informacin. Se trata de una funcin cncava (y por tanto cumple
la desigualdad de Jensen) y alcanza su mximo, igual a 1, cuando p = 0.5, por otro lado,
cuando p = 0 o p = 1 vale 0.
La capacidad

de este canal es cero cuando p = 0.5,

Note que si un canal tuviese probabilidad de error de bit p = 1 eso no significa que sea un
canal malo, todo lo contrario. Bastara con invertir los bits antes de enviarlos para tener un canal
ideal (con probabilidad p = 0).

Canal binario simtrico, la probabilidad de error de bit es p.

Los alfabetos de entrada y salida consisten de los elementos binarios y las probabilidades
condicionales son simtricas.

P 0 | 1 P(1 | 0)

P(1 | 1) P(0 | 0) 1

CANALES CONTINUOS Y COMPARACIN DE SISTEMAS


INFORMACIN CONTINUA
Continuo de informacin Una fuente de informacin continua produce una
seal variable en el tiempo x (t). Vamos a tratar el serie de seales de posibles
como un conjunto de formas de onda generadas por algunos al azar proceso,
supone que ergdica. Nos daremos por supuesto que an ms el proceso tiene
una finita ancho de banda, lo que significa que x (t) ha sido completamente
caracterizada en trminos de la muestra peridico valores. Por lo tanto, en
cualquier instante de muestreo, la coleccin de valores de muestra posible
constituye una variable X descrito por su densidad de probabilidad funcin p (x).

La cantidad media de informacin por muestra el valor de x (t) se mide por


la funcin de entropa donde, como antes, la base logartmica es b = 2. Esta
expresin ha sirnilar iti es obvia a la definicin de la entropa de una fuente
discreta. Sin embargo, la ecuacin. (I) resulta como una medida relativa de la
informacin en lugar de una medida absoluta. El entropa absoluta de una fuente
continua puede, en principio, debe definirse desde el siguiente limitar la operacin.
CAPACIDAD DE CANAL CONTINUO
La definicin de capacidad para canales continuos es un poco diferente y
exige utilizar el Teorema del muestreo y algunos otros conceptos de teora de la
seal, adems de los conceptos puramente estadsticos vistos en el apartado
anterior.

Ampliando los estudios del fsico Harry Nyquist, compaero en los

Laboratorios Bell, Claude Shannon demostr en 1949 que la capacidad terica


mxima de un canal de comunicaciones limitado en banda con ruido AWGN (ruido
blanco aditivo gausiano) responde a la ecuacin:
bits/s (bps)
La ecuacin anterior muestra que la capacidad de un canal est limitada por su
ancho de banda (B) y por su relacin seal/ruido (SNR). En trminos de eficiencia
espectral resulta:

bps/Hz
Es decir, la eficiencia espectral mxima depende de la calidad del canal (de su
nivel de ruido).
SISTEMAS IDEALES DE COMUNICACIONES
Prcticamente todos los sistemas de comunicacin realista es capaz de transmitir
continua seales, con algunas limitaciones de energa y ancho de banda. Por otra
parte, si excluyen la transmisin de radio con la decoloracin, el diseo cuidadoso
sistema en gran medida puede eliminar de todas las contaminaciones, excepto el
ruido trmico inevitable. El canal AWGN por lo tanto sirve como un modelo
razonable en estas condiciones, y el de Shannon-Hartley ley otorga a la tasa
mxima para una comunicacin confiable. Por lo tanto, aqu definir.
Shannon describi la operacin de dicho sistema ideal de la siguiente manera.

El sistema ideal tiene la estructura del diagrama en la figura. 16.3-1. Informacin


de la fuente se observa para los intervalos de T segundos y codificados como
equiprobables smbolos M-ario, de tal manera que (log M) / T = R. Para cada
smbolo, el generador de seales emite una onda nica x (t), seleccionadas de un
conjunto de M = 2RT seales. Estas seales son generados por un proceso
gaussiano blanco limitado en banda, y se almacenan las copias estn disponibles
en el destino. El detector de seal se compara la seal recibida y (t) = x (t) + n (t)
con las copias almacenadas y elige el ms probable para descodificacin. Las
operaciones de codificacin en la fuente y la deteccin de seales en el destino
resultar en un retraso total de 2T segundo, llamado el retraso de codificacin.
COMPARACIN DE SISTEMAS
Habiendo determinado las propiedades de un sistema de comunicacin
ideal, estamos listos para reexaminar los diferentes sistemas de los captulos
anteriores y comparar su rendimiento a la luz de la teora de la informacin. Estas
comparaciones proporcionan orientaciones importantes para el desarrollo de
sistemas de comunicacin nuevos o mejorados, tanto digitales como analgica.
Para todas las comparaciones, vamos a asumir un canal AWGN con transmisin
BT ancho de banda y la relacin seal-ruido (SIN), = S, INoBT en el receptor.
Consideremos primero el caso de transmisin de banda base binaria.
Anteriormente, se encontr 2BT la tasa de sealizacin de error mximo y mnimo
de transmisin probabilidad.

Con lo suficientemente elaborados de control de errores de codificacin,


podemos obtener la transferencia de informacin casi sin error debido a la
entropa mxima de una seal binaria sin ruido es un poco por smbolo. Por lo
tanto, tenemos que usar M-ario de sealizacin para acercarse a un rendimiento
ideal cuando (SIN); 1. Esta observacin ha llevado a la sofisticada tcnica
conocida como decodificacin soft-decisin en la que palabras en clave binaria se
descodificada de valores de la muestra de la forma de onda continua de la seal
de ms de ruido, en lugar que de una regeneracin (dura-decisin) de forma de
onda binaria. Ahora vamos a examinar el desempeo de los sistemas de
comunicacin digital M-aria sin control de errores de codificacin. Vamos a
suponer una fuente binaria que emite equiprobables smbolos en rb tasa. Si la
probabilidad de error es pequeo, entonces la informacin tasa es de ya que casi
todos los dgitos binarios correctamente transmitir informacin hasta el destino.

ESPACIO DE SEAL
Un espacio de la seal es un espacio multidimensional en el que los
vectores representan un determinado conjunto de las seales. Mediante la
descripcin de las seales como vectores, las relaciones familiares y las ideas de
geometra puede ser ejercida en el anlisis de seales y sistema de comunicacin
diseo. Aqu te presentamos los aspectos de la teora de la seal del espacio
correspondiente a la digital deteccin, restringir nuestra atencin sobre el caso de
seales reales de la energa. Considere la posibilidad de cualquiera de los dos
reales de la energa u seales (t) y w (t). Si a y P son finitos real constantes,
entonces la combinacin lineal z (t) = Au (t) + VP (t) es tambin una seal de
energa. Formalmente, podemos decir que el conjunto de todas las seales reales
de la energa es cerrado bajo lineales combinacin, que es el requisito esencial
para el establecimiento de un espacio lineal. Nosotros por lo tanto definir el
espacio de la seal I? ser un espacio lineal en el que los vectores como u y v
representan la energa u seales (t)Adems de los Vectores y escalares
multiplicador obedecer las reglas de costumbre, y no existe un elemento cero. Sin
embargo, a completa la estructura geomtrica necesitamos las medidas
adecuadas de longitud del vector y ngulo expresado en trminos de propiedades
de la seal. (No podemos usar aqu Distancia de Hamming i f porque no estamos
necesariamente trabajar con secuencias binarias.) Dado que estamos tratando

(con las seales de la energa), vamos a definir la longitud o norma de un vector u


seal a la j raz cuadrada de la energa de la seal, escrito como

SEALES COMO VECTORES


Como hemos visto, la transmisin digital es la forma ms eficiente de la
comunicacin a la luz de la teora de la informacin. Por lo tanto debemos prestar
cierta atencin a la teora de deteccin digital. En primer lugar, sin embargo,
necesitamos un mtodo de representacin de seales, que es el propsito de esta
seccin. En particular, vamos a introducir las importantes tcnicas de la
representacin de seales como vectores, una tcnica originada por su teora de
la inmunidad al ruido ptima.
PROCEDIMIENTO DE GRAM-SCHMIDT

Donde los corchetes angulares representan el producto interior. Es evidente que

Es un vector ortogonal a . Entonces, dados los vectores


GramSchmidt construye los vectores ortonormales

, el algoritmo de
de la manera siguiente:

A partir de las propiedades de la proyeccin y del producto escalar, es sencillo probar que la
sucesin de vectores
es ortogonal.
DETECCIN DIGITAL PTIMA
DETECCIN DIGITAL PTIMA

La seal / vector conceptos desarrollados en la seccin anterior se utiliza


aqu para el diseo receptores ptima para seales digitales con AWGN
contaminacin.

Vectorial

de

conceptos

Tambin

facilitar

el

clculo

de

probabilidades de error y la seleccin de las seales de comunicacin digital


eficiente.

DETECCIN PTIMA Y RECEPTORES MXIMO A POSTERIORI (MAP)


El detector multiusuario ptimo para este esquema es un detector de
mxima probabilidad a posteriori (MAP) que calcula la probabilidad de los
smbolos detectados. El esquema particionado ptimo consiste entonces de un
detector MAP seguido de un desentrelazador ideal y de decodificadores con
algoritmo de Viterbi de entradas blandas (Soft Viterbi Algorithm - SVA). Este
esquema se identificar de ahora en adelante con la sigla MAP+SVA. Los
detectores MAP se implementan a partir del empleo de programacin dinmica
como la del algoritmo de Viterbi, y se clasifican bsicamente en dos tipos [61]:
1. MAP Tipo I: algoritmos recursivos hacia delante y hacia atrs. Estos algoritmos
estn orientados a detectar un bloque de datos. Introducen un mayor retardo de
deteccin que el algoritmo de Viterbi.

2. MAP Tipo II: slo utilizan recursin hacia adelante y el retardo de deteccin es
el mismo que el de un algoritmo de Viterbi. Son adecuados para deteccin
continua. Para no introducir retardos de decodificacin mayores a los de un
algoritmo de Viterbi se analizar la complejidad del algoritmo MAP Tipo II
propuesto en [62]. La memoria requerida por el MAP Tipo II viene dada por MMAP
= |X|+|X|(DMAPK+1)(Q1), (2.28) donde |X| = QK1 es la cantidad de estados y
DMAP > K 1 es el retador de deteccin. Adems, las operaciones requeridas por
el MAP Tipo II son OMAP = MMAPAG, (2.29) donde

indica las operaciones

requeridas para calcular la mtrica de las ramas (|X| multiplicaciones y |X| sumas).
Este algoritmo requiere adems operaciones de exponenciacin que incrementan
notablemente su complejidad. No obstante, existen versiones subptimas con un
desempeo muy prximo al ptimo. Estas versiones subptimas no requieren de
operaciones de exponenciacin y su complejidad viene dada por la cantidad de
memoria (2.28) y de operaciones (2.29). La complejidad del MAP crece de manera
exponencial no slo con la cantidad de usuarios sino tambin con la cantidad de
bits m por smbolo codificado. Esto hace que la complejidad del MAP sea excesiva

para canales con alta eficiencia espectral, an cuando la cantidad de usuario no


sea demasiado grande. Del anlisis anterior se desprende que la complejidad del
receptor MAP+SVA est determinada fundamentalmente por la del detector MAP.
Para reducir la complejidad del detector MAP, se emplean detectores multiusuarios
subptimo. Entre los detectores con mejor nivel de desempeo en canales con
fuerte interferencia se encuentra el detector multiusuario retroalimentado por
decisiones que se denota con la sigla MDFE.
PROBABILIDADES DE ERROR
La estructura de un receptor ptimo no sirve de mucho sin el conocimiento
de la probabilidad de error. As que aqu formulamos en general y expresiones
especficas para la probabilidad media de error en un sistema M-ario con smbolos
equiprobables y ptimo deteccin. Como punto de partida, tomar un Mj. smbolo
arbitrario y sea
seal correspondiente

representan la probabilidad de deteccin errnea de la


.

Donde P (c I m,) representa la probabilidad de

deteccin correcta. Usaremos geomtrica

argumentos de

vectores para

determinar P (e 1 MJ) o P (c (MJ).Figura 16.5-7a representa la situacin en que,


cuando s (t) ha sido corrompida por ruido, (t), resultando en el vector v = sj + n.
Tambin se muestra otro vector de la seal sin cuya punta a punta "distancia" de sj
es d,, travesao = 11 si -. Un error de deteccin se produce si la proyeccin de n
en la direccin del si - sj excede dU / 2, por lo que v cae en el lado equivocado a
mitad de camino de la frontera de decisin entre si y sj. Este evento de error se
denominar no por e U. T encuentre la probabilidad de P (UE) l, et los vectores se
traduzca nativa y / o girar.

CONCLUSIN
Las medidas de posicin en un conjunto de datos estn diseadas para
proporcionar al analista algunas medidas cuantitativas de donde est el centro de
los datos en una muestra.
En las medidas de posicin se trata de encontrar medidas que sinteticen las
distribuciones de frecuencias. En vez de manejar todos los datos sobre las
variables, tarea que puede ser pesada, se puede caracterizar su distribucin de
frecuencias mediante algunos valores numricos, eligiendo como resumen de los
datos un valor central alrededor del cual se encuentran distribuidos los valores de
la variable. La descripcin de un conjunto de datos, incluye como un elemento de
importancia la ubicacin de stos dentro de un contexto de valores posibles.
En cuanto a la codificacin efectiva los datos pueden ser capturados precisa
y efectivamente, mediante el uso de conocimiento de varios cdigos la codificacin
es de gran ayuda para el analista de sistemas ya que le permite el alcance de un
objetivo eficiente para la captura de datos que estn codificados.
En los tipos de cdigos se ve que cada uno de ellos tiene maneras diferentes
para el maneja-miento de procesamiento de la captura de los datos. Estos tipos de
cdigos que se especifican permiten tratar los datos en una forma particular.

BIBLIOGRAFA
http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_informaci%C3%B3n

http://es.slideshare.net/tarazona19/semana-9
html.rincondelvago.com/introduccion-a-la-teoria-de-la-informacion.html