Está en la página 1de 3

CANTIDAD DE INFORMACIÓN

LA CANTIDAD DE INFORMACIÓN ES PROPORCIONAL A LA


PROBABILIDAD DE UN SUCESO
-SI LA PROBABILIDAD DE UN ESTADO FUERA 1 (MÁXIMA):
LA CANTIDAD DE INFORMACIÓN QUE APORTA SERÍA 0.
-SI LA PROBABILIDAD SE ACERCARA A 0:
LA CANTIDAD DE INFORMACIÓN TENDERÁ A INFINITO: UN
SUCESO QUE NO PUEDE SUCEDER APORTARÁ UNA
CANTIDAD INFITA DE INFORMACIÓN SI LLEGARA A
OCURRIR

I=log2 (1/P)
LA I DE LOS MENSAJES ES IGUAL A LA CANTIDAD DE BITS DE
CADA MENSAJE
ENTROPÍA
LA ENTROPÍA ES LA INFORMACIÓN PROMEDIO .

PROPORCIONAL A LA LONGITUD MEDIA DE LOS


MENSAJES QUE SE NECESITARÁ PARA CODIFICAR UNA SERIE DE
VALORES DE UNA VARIABLE

H=∑ Pj LOG2 (1/Pj) bits

LA ENTROPÍA DE UNA VARIABLE ALEATORIA ES EL NÚMERO MEDIO


DE BITS QUE SE NECESITARÁN PARA CODIFICAR C/U DE LOS
ESTADOS DE LA VARIABLE
VELOCIDAD DE LA FUENTE

REPRESENTA LA VELOCIDAD DE LA TRASFERECIA DE LA


INFORMACIÓN

R= H/T bits/seg

T ES EL TIEMPO REQUERIDO PARA EVIAR EL MENSAJE

También podría gustarte