Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Presentación Chida de Los Chidos
Presentación Chida de Los Chidos
Teora de la Informacin
Seguridad Informtica y Criptografa
Ultima actualizacin del archivo: 01/03/06
Este archivo tiene: 59 diapositivas
v 4.1
Material Docente de
Libre Distribucin
Este archivo forma parte de un curso completo sobre Seguridad Informtica y Criptografa. Se autoriza el uso,
reproduccin en computador y su impresin en papel, slo con fines docentes y/o personales, respetando los
crditos del autor. Queda prohibida su comercializacin, excepto la edicin en venta en el Departamento de
Publicaciones de la Escuela Universitaria de Informtica de la Universidad Politcnica de Madrid, Espaa.
Pgina 179
Pgina 180
Teora de la informacin
Definicin de informacin:
Es el conjunto de datos o mensajes inteligibles
creados con un lenguaje de representacin y que
debemos proteger ante las amenazas del entorno,
durante su transmisin o almacenamiento, usando
tcnicas criptogrficas entre otras herramientas.
La teora de la informacin mide la
Qu significa
cantidad de informacin que
cantidad de
contiene un mensaje a travs del
informacin y
codificador
nmero medio de bits necesario para
ptimo?
codificar todos los posibles mensajes
con un codificador ptimo.
Jorge Rami Aguirre
Pgina 181
Representacin de la informacin
Puede ser numrica, alfabtica, simblica, por lenguaje.
Ejemplo: 15/01/05 15-01-05 15-1-05 15/01/2005
01/15/05 01-15-05 1-15-05 01-15-2005 ...
- Todos son el da 15 de enero del ao 2005.
Vitaminas: B12, C, ...
Veamos la informacin
Grupo sanguneo: A2 Rh+ ...
que contiene el mensaje
Elementos: Fe, Si, Hg ...
Hace calor all?
Compuestos qumicos: H2O, CO2 ...
Ms comn
Lenguaje con cdigo: Hace calor all?
Pgina 182
Pgina 183
Pgina 184
Pgina 185
Respuesta
Respuesta1:
1:S,
S,muchsimo.
muchsimo.Es
Esinsoportable.
insoportable.
Respuesta 2: En esta poca del ao, la temperatura es
ms suave y el tiempo muy agradable.
Dnde hay una mayor cantidad de informacin?
Pgina 186
Pgina 187
Pgina 188
Incertidumbre e informacin
Ante varios mensajes posibles, en principio todos equiprobables, aquel
que tenga una menor probabilidad de aparicin ser el que contenga
una mayor cantidad de informacin.
En el ejemplo anterior:
Al ser ms extenso el nmero de calles y sus nmeros en una
ciudad que el nmero de ciudades en Espaa, y esto ltimo mayor
que los pases en Europa, la ltima respuesta tendr una mayor
incertidumbre.
Si suponemos todos los estados equiprobables, entonces la
cantidad de informacin de la respuesta tercera ser mayor que las
dems.
Las siguientes diapositivas resumen el estudio de Claude Shannon sobre la
entropa en su artculo A Mathematical Theory of Communication que
puede descargarlo en formato pdf desde esta direccin:
http://cm.bell-labs.com/cm/ms/what/shannonday/paper.html
Jorge Rami Aguirre
Pgina 189
Como:
0 pi 1
Entonces:
pi = 1
i=1
para i = 1, 2, ..., n
La probabilidad de que ocurra p1 o
p2 o p3, etc. ser siempre la unidad
porque seguro ser uno de ellos.
Pgina 190
ci = - log2 (pi )
pi
0
Pgina 191
Grado de indeterminacin
ci =
Combinacin 5
Combinacin 2
Combinacin 3
Combinacin 6
Combinacin 7
Combinacin 4
Combinacin 8
Si hay equiprobabilidad
entonces p(xi) = 1/8
Pgina 192
Combinacin 5
Combinacin 2
Combinacin 3
Combinacin 6
Combinacin 7
Combinacin 4
Combinacin 8
Pgina 193
Pgina 194
Pgina 195
Combinacin 5
Combinacin 2
Combinacin 3
Combinacin 6
Combinacin 7
Combinacin 4
Combinacin 8
Se acaba la indeterminacin!
Pgina 196
H = - pi log2 pi
i=1
Pgina 197
Definicin de entropa
La entropa de un mensaje X, que se representa por H(X),
es el valor medio ponderado de la cantidad de informacin
de los diversos estados del mensaje.
k
Esto lo
veremos ms
adelante...
Pgina 198
Propiedades de la entropa
a) La entropa es no negativa y se anula si y slo si un estado de la
variable es igual a 1 y el resto 0. Esta demostracin es sencilla.
b) La entropa ser mxima, hay mayor incertidumbre del mensaje,
cuando exista una equiprobabilidad en todos los valores de la
variable X. La demostracin emprica es muy fcil; no obstante
la demostracin matemtica de este mximo no es directa. El
valor mximo de H(X) para una variable de n estados ser log2 n.
Si hay n estados equiprobables, entonces pi = 1/n.
Luego:
H(X) = - pi log2 pi = - n(1/n) log2 (1/n) = - (log2 1 - log2 n)
i
H(X)mx = log2 n
Jorge Rami Aguirre
Pgina 199
Veamos un ejemplo
de codificacin
Pgina 200
Ocurrencias
Frecuencia
1 vez
2 veces
3 veces
3 veces
6 veces
M=1
15
Cdigo ptimo:
= 01 A = 000
A
I
I = 0010 E = 0011
Pgina 201
Pgina 202
La entropa se
reduce: hay ms
orden y menos
incertidumbre.
Pgina 203
x=4
x=1
Pgina 204
Pgina 205
Pgina 206
Pgina 207
Pgina 208
Pgina 209
Pgina 210
Pgina 211
M = __H__B__N__V__Z__N__C__R__C__
Jorge Rami Aguirre
Pgina 212
Pgina 213
Pgina 214
Pgina 215
p(M) = 1
M
p(C) = 1
Claves
p(K) = 1
Pgina 216
Pgina 217
Secreto perfecto
p(M) = pC(M)
Pgina 218
pM(C) = p(K)
donde EK(M) = C
kj / Ekj(Mi) = Ci
pM(C) = p(C)
para todo valor de M
Pgina 219
Pgina 220
M1
Espacio de Claves
Espacio de Cifrados
C1
k1
k3
k2
k2
M2
k3
C2
k1
k3
k1
M3
C3
k2
p(M) = 1/3
pM(C) =1/3
para todo M
p(C) = 1/3
pC(M) = 1/3
Pgina 221
Espacio de Claves
Espacio de Cifrados
k1
p(M1) = 1/3
p(M2) = 1/3
p(M3) = 1/3
M1
k3
k2
M2
M3
C1
p(C1) = 3/9
C2
p(C2) = 2/9
C3
p(C3) = 2/9
C4
p(C4) = 2/9
k2
k3
k1
k3
k1
k2
Algo ms
Pgina 222
M1
C1
k3
k2
k2
M2
C2
k3
K1
K3
M3
k1
C3
k2
pC4(M1) = 0
pC3(M3) = 1/2
C4
pM1(C1) = 1/3
pM2(C1) = 1/3
pM3(C1) = 1/3
pM3(C2) = 0
pM2(C4) = 1/3
Pgina 223
La distancia de unicidad
Se entender por Distancia de Unicidad al bloque N de
texto cifrado o criptograma mnimo necesario para que se
pueda intentar con ciertas expectativas de xito un ataque
en bsqueda de la clave usada para cifrar.
Este valor se obtiene cuando la equivocacin de la clave
HC(K) se acerca a cero o tiende a anularse.
A medida que se tenga un criptograma ms largo, y por
tanto ms informacin, se supone que la tarea de ataque
del criptoanalista se va facilitando.
Se busca el tamao N de criptograma que permita esperar
que la solucin de K sea nica. Suponiendo un cifrador
aleatorio, llegamos al modelo de la diapositiva siguiente.
http://www.cs.ucla.edu/~jkong/research/security/shannon1949/node14.html
Jorge Rami Aguirre
Pgina 224
Pgina 225
Pgina 226
M1
M2
M3
2RN
2rN
C1
C3
Mensajes
Operaciones de
cifra usando
una clave
Criptogramas
C2
2RN - 2rN
Mensajes Sin Sentido
Veamos ahora los escenarios del modelo de cifra para slo dos claves k1 y k2.
Jorge Rami Aguirre
2RN
Pgina 227
Espacio de Claves
Espacio de Cifrados
k1
M1
C1
k2
M2
C2
k1
k2
k2
M3
C3
k1
k1
k2
M4
C4
C5
SV: C3 = Ek1(M5)
C4 = Ek1(M2)
C6
C6 = Ek2(M1)
C7 = Ek1(M3)
C9 = Ek1(M6)
C10 = Ek2(M6)
k1
M5
k2
M6
k1
k2
M7
Soluciones:
Falsas SF
C7
Verdaderas SV
M8
C8
SF: C2 = Ek1(M4)
C2 = Ek2(M4)
C9
C5 = Ek2(M2)
C5 = Ek2(M5)
C1 = Ek1(M1)
C1 = Ek2(M3)
C10
Pgina 228
log2 SF = H(K) - DN
Pgina 229
Pgina 230
(B)
(A)
(C)
H(M/C)
N
Solucin nica
(D)
n
Cantidad de caracteres
(A) Inicialmente hay que hacer un arduo trabajo para obtener algo
coherente. Nos encontraremos con muchas soluciones falsas.
(B) Cuando se tiene una cantidad adecuada de texto cifrado, la
cantidad de trabajo disminuye. Se descartan algunas soluciones.
(C) Cuando se anula la equivocacin de la clave, H(M/C) = 0,
disminuyen las soluciones falsas y la solucin tiende a ser nica.
Jorge Rami Aguirre
Pgina 231
Pgina 232
Pgina 233
Pgina 234
Cuestiones y ejercicios (1 de 2)
1. Al despertar ponemos la radio y escuchamos noticias que no nos
llaman la atencin. Por qu decimos que no haba informacin?
2. Justifique la definicin logartmica de cantidad de informacin, es
decir la razn de que ci = - log (pi).
3. Por qu usamos la base 2 en el logaritmo que define ci?
4. Cul es el nmero mnimo -e inteligente- de preguntas que hay que
hacer para pasar de la incertidumbre a la certeza en un sistema de n
estados equiprobables? Y si ahora no son equiprobables?
5. Por qu la entropa es no nula y se anula si y slo si uno de los
estados de la variable es igual a la unidad?
6. Codificamos en binario un sistema con 256 estados equiprobables.
Si no usamos un codificador ptimo, cuntos bits son necesarios?
Mediante un codificador ptimo, usaremos ms o menos bits?
Jorge Rami Aguirre
Pgina 235
Cuestiones y ejercicios (2 de 2)
7. Qu representa la expresin log2 [1/p(x)] en la entropa H(X)? Si
p(x1)=0,6; p(x2)=0,3; p(x3)=0,1 calcule log2 [1/p(x)]. Qu opina?
8. Definimos un alfabeto con 71 elementos (maysculas y minsculas,
minsculas acentuadas, dgitos, punto, coma). Si estos elementos
son equiprobables, cul es la ratio absoluta de este alfabeto?
9. La ratio verdadera es mayor o menor que la absoluta? Por qu?
10. Un alfabeto consta de 8 elementos equiprobables. Cuntos posibles
mensajes de tamao 4 existen? De stos, cuntos mensajes podran
tener sentido si esos 8 elementos representan al idioma castellano?
11. Cundo decimos que un sistema tiene secreto perfecto? En un
sistema real, es eso posible? Piense en algn ejemplo y comntelo.
12. Por qu se dice que hay que minimizar las soluciones falsas SF en
el modelo aleatorio para romper la clave? Es la clave k nica?
Jorge Rami Aguirre
Pgina 236
1.
2.
3.
4.
5.
http://www.criptored.upm.es/software/sw_m001c.htm