Está en la página 1de 21

Tema 1 Conceptos Bsicos

1.1 Criptografa 1.2 Criptosistema Claves dbiles 1.3 Esteganografa 1.4 Criptoanlisis 1.5 Compromiso entre Criptosistema y Criptoanlisis 1.6 Seguridad en Sistemas Informticos Tipos de Autenticacin

1.1 Criptografa
Criptografa proviene de la unin de los trminos griegos (Oculto) y Escritura, y su definicin es Arte de escribir en clave secreta o de un modo enigmtico. Obviamente la criptografa hace aos dejo de ser un arte para convertirse en un conglomerado de tcnicas, que tratan sobre la proteccin de la informacin. Entre los aportes cabe destacar la teora de la informacin, Teora de nmeros matemtica discreta, donde se estudian los nmeros enteros y la complejidad algortmica. Existen dos trabajos fundamentales sobre lo que se apoya toda la teora criptogrfica, Uno de ellos desarrollado por Claude Shannon, en sus artculos A MathematicalTheory of Communication (1948) y CommunicationTheory of SecrecySystems (1949). Sienta las bases de la teora de la informacin y de la Criptografa moderna. El segundo, Publicado por WhitfieldDiffie y Martin

Hellman en 1976, se titulaba New Directions in Cryptography, e introduca al concepto de criptografa Asimtrica, abriendo enormemente el abanico de aplicacin de esta disciplina. El concepto criptografa slo hace referencia al uso de cdigos para ocultar la informacin, por lo que no engloba a las tcnicas que se usan para romper dichos cdigos, conocidas en su conjunto como criptoanlisis. En cualquier caso ambas disciplinas estn ntimamente ligadas, ya que si es posible cifrar informacin es posible hacer el proceso de ingeniera inversa para descifrarlo, a eso se llama criptoanlisis.

1.2 Criptosistema
Definiremos un criptosistema como una quntupla de los siguientes conjuntos (M,C,K,E,D), donde: M representa el conjunto de todos los mensajes sin cifrar (lo que se denomina texto claro, o plaintext). C representa el conjunto de todos los mensajes cifrados. K Representa el conjunto de claves que se pueden emplear en el criptosistema. E es el conjunto de transformaciones de cifrado o familia de funciones que se aplica a cada elemento de M para obtener un elemento de C. Existe una tranasformacin diferente Ekpara cada valor posible de K. D el conjunto de transformaciones de descifrado anlogo a E.

Todo Criptosistema ha de cumplir la siguiente condicin.

(1.1)

DK(Ek(m))=m

Es decir si tenemos un mensaje m, lo ciframos empleando la clave k y luego lo desciframos empleando la misma clave, obtenemos de nuevo el mensaje original m. Existen dos tipos fundamentales de criptosistemas: Criptosistemas simtricos de clave privada. Son aquellos que emplean la misma clave K tanto para cifrar como para descifrar, Presentan el inconveniente de que para ser empleados en comunicaciones de clave K debe estar tanto en el emisor como en el receptor, lo cual nos lleva preguntarnos cmo transmitir la clave de forma segura. Criptosistemas asimtricos o de clave pblica, que emplea una doble clave

(Kp,Kp)Kpse

conoce como calve privada, Kp se conoce como clave pblica Una de ellas sirve para la transformacin E de cifrado y la otra para la transformacin D de descifrado. En muchos

casos pero no en todos, son intercambiables, esto es, si empleamos una para cifrar la otra sirve para descifrar y viceversa. Importante, estos sistemas deben cumplir adems que el conocimiento de la clave pblica

Kp,

no permita calcular la clave privadaKp. Ofrecen

grandes posibilidades, pudiendo emplearse para establecer comunicaciones seguras por canales inseguros (SSL TLS ejemplo). Puesto que nicamente viaja por el canal la clave pblica, tambin se ha visto las posibilidades de llevar a acabo de autentificaciones. E la prctica se emplea una combinacin de estos dos tipos de ciptosistemas, puesto que los segundos (criptosistemas asimtricos) presentan inconvenientes de ser computacionalmente mucho ms costosos que los primeros, en el mundo real se codifican los mensajes (largos) mediante algoritmos simtricos, que suelen ser muy eficientes, y luego se hace uso de criptografa asimtrica para codificar las claves simtricas (cortas).

Claves Dbiles
En la inmensa mayora de los casos los conjuntos M y C definidos anteriormente son iguales. Esto quiere decir que tanto los textos claros como los textos cifrados se representan empleando el mismo alfabeto, por esa razn puede darse la posibilidad de los siguientes casos: Caso 1 de clave Dbil.

( )

(1.2)
Este caso sera catastrfico ya que nuestros mensajes se quedaran sin codificar. Caso 2 de clave Dbil.

Caso 2 de clave Dbil ( ( ))

(1.3)
Lo cual quiere decir que basta con volver a codificar el criptograma para recuperar el texto claro original

La existencia de estas claves depende en gran medida, de las peculiaridades de cada algoritmo de los parmetros escogidos a la hora de aplicarlos. Llamaremos en general a las claves que no codifican correctamente los mensajes claves dbiles. (WeakKeys) Normalmente en un buen criptosistema la cantidad de claves dbiles es cero o muy pequea en comparacin al nmero total de claves posibles.

1.3 Esteganografa
La esteganografa. Empleo de canales subliminales- consiste en ocultar en el interior de una informacin, aparentemente inocua, otro tipo de informacin (cifrada o no). Este mtodo ha cobrado bastante importancia ltimamente debido a que permite enviar un mensaje fuera de su pas, evitando la censura. Si lo codifica, las autoridades jams permitirn que el mensaje atraviese las fronteras independientemente de que puedan acceder a su contenido.

1.4 Criptoanlisis
El criptoanlisis consiste en comprometer la seguridad de un criptosistema. Esto se puede hacer descifrando un mensaje sin conocer la llave, o bien obteniendo a partir de uno o ms criptogramas la clave que ha sido empleada en su codificacin. No se considera criptoanlisis el descubrimiento de un algoritmo secreto de cifrado; hemos de suponer por el contrario que los algoritmos siempre son conocidos. En general el criptoanlisis se duele llevar a cabo estudiando grandes cantidades de pares de mensajes. Criptogramas generados con la misma clave. Uno de los tipos de anlisis ms interesantes es el texto claro escogido, que parte de que conocemos una serie de pares de textos claros, elegidos por nosotros y sus criptogramas correspondientes. Esta situacin se suele dar cuando tenemos acceso al dispositivo de cifrado y este nos permite efectuar operaciones, pero no nos permite leer su clave. El nmero de pares necesarios para obtener la clave desciende entonces significativamente. Cuando el sistema es dbil, pueden ser suficientes unos cientos de mensajes para obtener informacin que permitas deducir la clave empleada. Fuerza Bruta. Tambin es posible aplicar el algoritmo de descifrado, con todas y cada una de las clases, a un mensaje codificado, y comprobar cules de las salidas que se obtienen tienen sentido como

posible texto claro. En general, todas las tcnicas que buscan exhaustivamente por el espacio de claves K se denominan fuerza bruta, y no suelen considerarse como autnticas tcnicas de criptoanlisis. Para algoritmos Asimtricos Otro tipo de anlisis, esta vez para los algoritmos asimtricos, consistira en tratar de deducir la llave privada a partir de la pblica, Suelen ser tcnicas analticas que bsicamente intentan resolver los problemas de elevado coste computacional en los que se apoyan estos criptosistemas: Factorizacin, Logaritmos discretos, Etc. Mientras estos problemas genricos permanezcan sin solucin eficiente, podremos seguir codificando en estos algoritmos. La criptogrqafa no slo se emplea para proteger informacin, tambin se utiliza para permitir su autenticacin, es decir, para identificar al autor de un mensaje e impedir que nadie suplante su personalidad. En estos casos surge un nuevo tipo de criptoanlisis, que est encaminado a permitir que elementos falsos pasen por buenos.

1.5Compromiso entre criptosistema y Criptoanlisis


La informacin posee un tiempo de vida, y pierde su valor mientras transcurre el tiempo. Ser suficiente, pues, tener un sistema que garantice que el tiempo que se puede tardar en comprometer su seguridad, es mayor que el tiempo de vida de la propia informacin que ste alberga. Otro punto a tener en cuenta en si la informacin que queremos proteger vale ms que el esfuerzo de criptoanlisis que va a necesitar. Tampoco conviene depositar excesiva confianza en el algoritmo de cifrado, puesto que en el proceso de proteccin de la informacin existen otros puntos dbiles que pueden ser tratados. Ejemplo. No tiene sentido en emplear un algoritmo con niveles de seguridad extremadamente elevados si luego escogemos contraseas ridculamente fciles de adivinar. Ya sean nombres fechas, lugares, etc.

1.6 Seguridad en Sistemas Informticos


Todo Sistema que procese, almacene o transmita informacin tiene que cumplir una serie de requisitos: Se engloban estos tres.

Integridad: En primer lugar, ha de preservar la informacin frente a alteraciones tanto fortuitas como deliberadas, debidas a fallos en el software o en el hardware, provocado por agentes externos, incendios, interrupciones del suministro elctrico, etc. Confidencialidad: En segundo lugar, es necesario evitar accesos no autorizados tanto al sistema como a su contenido. Disponibilidad:Finalmente el sistema debe garantizar que la informacin est disponible cuando sea necesario. Garantizar la seguridad informtica en un objetivo mucho ms amplio y complejo que la simple proteccin de los datos mediante tcnicas criptogrficas. De hecho, hemos de tener en cuenta mltiples factores, tanto internos como externos. En esta seccin comentaremos algunos de los ms relevantes, de manera no exhaustiva. Quizs la primera pregunta que haya que responder a la hora de identificar los requerimientos de seguridad de un sistema sea la siguiente. est conectado con el exterior?. En este sentido podemos hacer la siguiente subdivisin. 1. Sistemas aislados. 2. Sistemas Interconectados En cuanto a cuestiones de seguridad propiamente dichas, citaremos las ms relevantes: 1. 2. 3. 4. 5. 6. Seguridad fsica. Seguridad de canales de comunicacin Control de acceso a los datos Autentificacin No repudio Anonimato

Tarea 1
1. 2. 3. 4. 5. 6. 7. Investigue de tres programas que apliquen el concepto de Esteganografa Seguridad fsica. Seguridad de canales de comunicacin Control de acceso a los datos Autentificacin No repudio Anonimato

TEMA 2 Teora de la Informacin


2.1) Introduccin 2.2) Cantidad de Informacin 2.3) Entropa 2.4) Entropacondicionada 2.5) Cantidad de informacin entre variables 2.6) Criptosistema seguro de Shannon 2.7) Redundancia 2.8) Ejercicios Propuestos

2.1) Introduccin
Que es la teora de la informacin? La teora de la informacin es una disciplina que se ocupa del como almacenar y transmitir informacin entre dispositivos, esencialmente se busca como representar un tipo de informacin mediante bits, letras, sonido, imgenes, una de las ms grandes reas de investigacin es la compresin de datos, donde se busca representaciones que usen pocos bits para la representacin de la informacin que nos interesa,estableciendo los lmites de cuanto se puede comprimir la informacin y de cul es la mxima velocidad a la que se puede transmitir informacin, otra de las grandes areas es la codificacin para la correccin de errores. Aqu se buscan representaciones tales que si se pierden bits, podamos recuperar el contenido original que tenamos almacenado. Esta teora naci en el ao 1948 con una publicacin de Claude Shannon, A MathematicalTheory of CommunicationyCommunicationTheory of SecrecySystems (1949). A Shannon se le ocurri una forma muy general de modelar a lo que l llam un canal de comunicaciones, de un lado un transmisor enva bits 1 por vez, del otro lado un receptor recibe esos datos, pero el canal puede modificar introduciendo errores algunos 1 por 0 y viceversa al azar, la probabilidad en que ocurren estos errores depende del fenmeno fsico particular que se est modelando. Lo importante que el mismo tipo de modelo, permite una gama de aplicaciones altsima, de esta forma Shannon fundo las bases tericas que utilizamos hasta el da de hoy. Figura 2.1, modelo canal de comunicaciones de Shannon

2.2) Cantidad de Informacin


Para una fcil comprensin se introducir este concepto por medio de ejemplos simples, que ilustren a cabalidad el concepto cantidad de informacin.

Ejemplo 1)Supongamos que tenemos una bolsa con nueve bolas negras y una blanca.

1.- Cuanta informacin obtenemos si alguien nos dice que ha sacado una bola blanca de la bolsa? 2.- y cuanta obtenemos si despus saca otra y nos dice que es negra?

Figura 2.2 Representando las bolas negras y una bola blanca

Respuestas 1) Obviamente la respuesta a la primera pregunta es que aporta bastante informacin, puesto que estbamos casi seguros que la bola tena que salir negra. Por otro lado anlogamente, si en ese suceso en vez de sacar la bola blanca sacaba negra, diramos que ese suceso no nos extraa ya que la probabilidad de que salga negra era mucha ms alta que la primera y en tal caso nos aportara poca informacin.

2) Claramente podemos contestar de que el suceso no proporciona ninguna informacin, ya que al no quedar bolas blancas sabamos que saldran bolas negras.

Figura 2.3 Estado de la bolsa despus de sacar la nica bola blanca Entonces hasta este punto podemos argumentar lo siguiente:

Podemos fijarnos en la cantidad de informacin como una medida de la disminucin de la incertidumbre acerca de un suceso.

Ejemplo 2)Si el nmero que ha salido de un dado nos dicen que es menor de dos, estamos
recibiendo ms informacin que sin nos dicen que el nmero que ha salido es impar. Entonces podemos decir que:

La cantidad de informacin crece cuando el nmero de posibilidades es mayor Es decir: Caso1Supone mayor informacin conocer la combinacin ganadora de la lotera, Caso2
que saber si una moneda lanzada al aire va a caer cara o cruz, teniendo en cuenta que son casos equiprobables. Obviamente es mucho ms fcil acertar el segundo caso, ya que la incertidumbre es menor.

Entonces:
La cantidad de informacin es proporcional a la probabilidad de un suceso

Regresamos al ejemplo de la bolsa con nueve bolas negras y una bola blanca. Si hablamos probabilistamente tenemos:

Probabilidad de sacar bola negra=90% Probabilidad de sacar bola blanca=10%


Anlogamente podemos decir: Nuestra certeza es de 90% para la bola negra, por lo tanto sacar la bola negra aumentara nuestra certeza a en un 100%, lo cual nos proporciona una ganancia de informacin del 10%. Caso Contrario:

Sacar una bola blanca aumenta esa misma certeza en un 90%, puesto que la probabilidad era de 10%.

Podemos afirmar la disminucin de la incertidumbre es proporcional al aumento de la probabilidad


Por lo cual diremos que sacar bola negra aporta menos informacin. A partir de ahora, con objeto de simplificar la notacin, vamos a emplear una variable aleatoria Vpara representar los posibles sucesos que podemos encontrar. Notaremos el suceso i-simo como , ( ) ser la probabilidad asociada a dicho suceso, y n ser el nmero de casos posibles.

Supongamos ahora que sabemos con toda seguridad que el nico valor que puede tomar V es , saber el valor de V no aporta ninguna informacin, ya que la conocemos de antemano. Por el contrario, si tenemos una certeza del 99% sobre la posible ocurrencia de un valor cualquiera , el hecho de obtener un diferente proporciona bastante informacin, como ya se vio en los ejemplos. Este concepto de informacin es cuantificable y se puede definir de la siguiente forma: Ecuacin de la cantidad de informacin 2.1 ( ( ))

2.3) Entropa
Efectuando una suma ponderada de las cantidades de informacin de todos los posibles sucesos de una variable aleatoria V, obtenemos. Ecuacin de la entropa 2.2 ( ) ( ) ( ( ))

( ) ( ) ( ( ) )

Esta magnitud H(V) se conoce como entropa de la variable aleatoria V. Sus propiedades son las siguientes: I. II. III. ( ) ( ) ( ( ) ) ( ( ) ) si ( )

Si observamos la propiedad 1 la entropa es proporcional a la longitud media de los mensajes que se necesitara para codificar una serie de valores de V de manera ptima dado un alfabeto cualquiera. Esto quiere decir que cuanto ms probable sea un valor individual, aportar menos informacin cuando aparezca, y podremos codificarlo empleando un mensaje ms corto. Es decir: Si ( ) el valor de no necesitaremos ningn mensaje, puesto que sabemos de antemano que V tomara .

Pero si ( ) aumenta el grado de certeza de la aparicin del suceso, por tanto sera ms lgico emplear mensajes cortos para representar el suceso y largos para los restantes, ya que el valor que ms veces va a aparecer en una secuencia de sucesos es precisamente . Las unidades dependen de la base de los logaritmos:

Entonces concluimos que: La entropa determina el lmite mximo al que se puede comprimir un mensaje usando un enfoque smbolo a smbolo sin ninguna prdida de informacin (demostrado analticamente por Shannon), el lmite de compresin (en bits) es igual a la entropa multiplicada por el largo del mensaje. Tambin es una medida de la informacin promedio contenida en cada smbolo del mensaje.

2.4) Entropa Condicionada


Supongamos que tenemos ahora una variable aleatoria bidimensional (X,Y) recordemos las distribuciones de probabilidad ms usuales que podemos definir sobre dichas variables , teniendo n posibles casos para X y m para Y:

I. II.

Distribucin conjunta de (X,Y):


( )o ( )

Distribuciones marginales de X e Y
( ) ( ) ( ) ( )

III.

Distribuciones condicionales de X sobre Yy viceversa


( ) ( ( ) ) ( ) ( ( ) )

A continuacin se definirn la entropa de las distribuciones que acabamos de referir: ( ) ( ) ( ( ))

) (

Haciendo la suma ponderada de los condicionada de X dado y. ( )

) obtenemos la expresin del a entropa

( ) (

( (

))

( (

))

As como existe una ley de probabilidad total, anlogamente se define la ley de entropas totales. ( ) ( ) ( )

Cumplindose adems, si X e Y son variables independientes: ( ) ( ) ( )

La entropa condicionada simplemente nos dice, conocer algo acerca de la variable Y puede que nos ayude a saber ms sobre X, lo cual se debera traducir a una reduccin de la entropa, pero en ningn caso podr hacer que aumente nuestra incertidumbre.

2.5) Cantidad de informacin entre dos variables


Shannon propuso una medida para la cantidad de informacin que aporta sobre una variable el conocimiento de otra. Se definir, pues, la cantidad de informacin de Shannon que la variable x contiene sobre y como:
( ) ( ) ( )

La explicacin intuitiva de esta magnitud es la siguiente, Inicialmente, nosotros poseemos un grado determinado de incertidumbre sobre la variable aleatoria Y. Si antes de medir una realizacin concreta de Y, medimos la de otra variable X, parece lgico que nuestra incertidumbre sobre Y se reduzca o permanezca igual. Por ejemplo. Supongamos que Y representa el estado del tiempo (lluvia, sol, viento, nueve, etc), mientras que X representa el atuendo de una persona que entra en nuestra misma habitacin. Inicialmente tendremos un nivel determinado de entropa sobre Y. Si, acto seguido, la citada persona aparece con un paraguas mojado, seguramente para nosotros aumentar la probabilidad para el valor lluvia de Y, modificando su entropa. Esa disminucin o no de entropa es precisamente lo que mide I(X,Y). Las propiedades de la cantidad de informacin entre dos variables son las siguientes: Propiedad simtrica: ( Propiedad de Cota Mnima: ( Propiedad de Cota mxima: ( ( ) ) ( ) ( ) ) ( ) ) ( )

2.6) Criptosistema Seguro de Shannon


Diremos que un criptosistema es seguro si la cantidad de informacin que aporta el hecho de conocer el mensaje cifrado c sobre la entropa del texto claro m vale cero. En concreto, consideraremos una variable aleatoria C, compuesta por todos los criptogramas posibles, y cuya observacin corresponder el valor concreto c del criptograma enviado, y otra variable M, definida anlogamente para los textos en claro m. En ese caso, tendremos que: ( )

Esto significa sencillamente que la distribucin de probabilidad que nos inducen todos los posibles mensajes en claro el conjunto M no cambia si conocemos el mensaje cifrado. Para entenderlo mejor supongamos que s se modifica dicha distribucin: El hecho de conocer un mensaje cifrado, al variar la distribucin de probabilidad sobre M hara unos mensajes ms probables que otros, y por consiguiente unas claves de cifrado ms probables que otras. Repitiendo esta operacin muchas veces con mensajes diferentes, cifrados con la misma clave, podramos ir modificando la distribucin de probabilidad sobre la clave empleada hasta obtener un valor clave mucho ms probable que todos los dems, permitindonos romper el criptosistema. Si por el contrario el sistema cumpliera la condicin (3.8), jams podramos romperlo, ni siquiera empleando una mquina con capacidad de proceso infinita. Por ello los criptosistemas que cumplen la condicin de Shannon se denominan tambin Criptosistemas ideales. Se puede demostrar tambin que para que un sistema sea criptoseguro segn el criterio de Shannon, la cardinalidad del espacio de claves ha de ser al menos igual que la del espacio de mensajes, En otras palabras, que la clave ha de ser al menos tan larga como el mensaje que queramos cifrar. Esto vuelve intiles a estos criptosistemas en la prctica, porque si la clave es tanta o ms larga que el mensaje, a la hora de protegerla nos encontraremos con el mismo problema que tenamos para proteger el mensaje.

2.7) Redundancia
Si una persona lee un mensaje en el que faltan algunas letras, normalmente puede reconstruirlo. Esto ocurre porque casi todos los smbolos de un mensaje en lenguaje natural contienen informacin que se puede extraer de los smbolos de alrededor informacin que, en la prctica, se est enviando dos o ms veces, o en otras palabras, porque el lenguaje natural es redundante. Puesto que tenemos mecanismos para definir la cantidad de informacin que presenta un suceso, podemos intentar medir el exceso de informacin (redundancia) de un lenguaje. Para ello vamos a dar una serie de definiciones: ndice de un lenguaje. Definiremos el ndice de un lenguaje L para mensajes de longitud K como:

Indic de un lenguaje ( )

( ) La entropa de todos los mensajes de longitud k que tienen sentido en L. En sntesis Siendo estamos midiendo el nmero en mensajes de una longitud determinada. Para idiomas como el espaol, suele valer alrededor de 1,4 bits por letra para valores pequeos de K. ndice absoluto de un lenguaje. Es el mximo nmero de bits de informacin que pueden ser codificados en cada carcter, asumiendo que todas las combinaciones de caracteres son igualmente probables. Suponiendo m smbolos diferentes en nuestro alfabeto este ndice vale: ( ( ) ) ( ) ( )

Finalmente, la redundancia de un lenguaje se define como la diferencia entre las dos magnitudes anteriores:

Tambin se define el ndice de redundancia como el siguiente cociente:

Desgraciadamente, para medir la autntica redundancia de un lenguaje, hemos de tener en cuenta secuencias de cualquier nmero de caracteres, por lo que la expresin (3.9) debera calcularse en realidad como: ( ) Hay principalmente dos aplicaciones fundamentales de la teora de la Informacin, relacionadas directamente con la redundancia: o Compresin de datos:simplemente trata de eliminar la redundancia dentro de un archivo, considerando cada byte como un mensaje elemental, y codificndolo con ms o menos bits segn su frecuencia de aparicin, en este sentido se trata de codificar exactamente la misma informacin que transporta el archivo original, pero empleando un nmero de bits lo ms pequeo posible. Cdigos de Redundancia Cclica (CRC): permiten introducir un campo de longitud mnima en el mensaje, tal que ste proporcione la mayor redundancia posible. As, si el mensaje original resultase alterado, la probabilidad de que el CRC aadido siga siendo correcto es mnima.

Ntese que, concidos los patrones de redundancia de un lenguaje, es posible dar de forma automtica una estimacin de si una cadena de smbolos corresponde o no a dicho lenguaje. Esta caracterstica es aprovechada para efectuar ataques por fuerza bruta, ya que ha de asignarse una probabilidad de cada clave individual en funcin de las caractersticas del mensaje obteniendo al decodificar el criptograma con dicha clave. El nmero de claves suele ser tan elevando que resulta imposible una inspeccin visual. Una estrategia bastante interesante para protegerse contra este tipo de ataques, y que suele emplearse con frecuencia, consiste en comprimir los mensajes antes de codificarlos. De esa manera eliminamos la redundancia y hacemos ms difcil a un atacante apoyarse en las caractersticas del mensaje original para recuperar la clave.

Tarea Nro 2
Docente: Ing. Ditmar David Castro Angulo Tema: Teorema de la Informacin Ejercicio 1
Se lanza una moneda trucada al aire y esta tiene la probabilidad de 1/8 de salir cara y de 7/8 de salir cruz, determinar cul de los casos tiene menor incertidumbre, y en que afecta la probabilidad. Fecha de Emisin: 29/09/11 Fecha de Entrega: 06/10/11

Ejercicio 2
Se extrae una bola al azar de una urna con bolas blancas y negras con los siguientes casos. Caso 1 Composicin 1Negra y 1Blanca Caso 2 Composicin 9 Negras y 1 Blanca Caso 3 Composicin 99 Negras y 1 Blanca Se pide interpretar los resultados de la entropa obtenida en los 3 casos.

Ejercicio 3
Calcule la cantidad de informacin asociada a conocer el ganador de una carrera en la que compiten quince atletas, si suponemos que a priori todos los corredores tienen las mismas probabilidades de ganar. Calcule tambin la cantidad de informacin asociada a conocer tambin quienes quedan en segundo y tercer puesto respectivamente.

Ejercicio 4
Suponga un equipo de ftbol que nunca empata, que cuando no llueve vence el 80% de sus partidos, y que si llueve slo gana el 25% de las veces. La probabilidad de que llueve es un partido es de 15%. Cul es la cantidad de informacin que aporta la variable aleatoria lluvia sobre la variable ganar partido?

Ejercicio 5

TEMA 3 Cifrado Por Bloques


3.1) Introduccin 3.3) El Cifrado de Lorenz 3.4) Algoritmo Des 3.5) Variantes de Des 3.6) Algoritmo IDEA 3.7) El algoritmo Rijdael (AES) 3.8) Modos de Operacin para Algoritmos de Cifrado

TEMA 4 Cifrado Por Bloques


3.1) Introduccin 3.3) El Cifrado de Lorenz 3.2) Algoritmo Des 3.3) Variantes de Des 3.4) Algoritmo IDEA 3.5) El algoritmo Rijdael (AES) 3.6) Modos de Operacin para Algoritmos de Cifrado

También podría gustarte