Está en la página 1de 83

Matemticas Discretas

Fundamentos de Matemticas
Discretas
Fundamentos de
matemticas
discretas
Introduccin
En la presentacin se abordara el tema:

Teora de la informacin computacional

La teora de la informacin es conocida tambin como teora


matemtica de la comunicacin.

Esta teora se relaciona con las leyes matemticas que rigen:

La transmisin y procesamiento de la informacin.

La medicin y representacin de la informacin.

La capacidad de los sistemas de comunicacin para transmitir y


procesar informacin.
La teora de la informacin es una rama de la teora
de la matemtica y de las ciencias de la
computacin.

La teora de la informacin estudia la informacin y


todo lo relacionado con ella: canales, compresin
de datos y criptografa, etc.
Conceptos
Informacin
Definicin del Diccionario de la Lengua Espaola:

Comunicacin o adquisicin de conocimientos que


permiten ampliar o precisar los que se poseen sobre
una materia determinada.

Definicin de RedUSERS, comunidad de tecnologa:

Comprende todo elemento intercambiado entre


dispositivos, tanto de gestin de acceso y
comunicacin, como de usuario final (texto,
hipertexto, imgenes, msica, video, etc.).
El concepto de informacin es definido en trminos
estrictamente estadsticos, bajo el supuesto que puede
ser tratado de manera semejante a como son tratadas
las cantidades fsicas como la masa y la energa.

La palabra "informacin" no est relacionada con lo


que decimos, sino ms bien, con lo que podramos
decir.

El concepto de informacin se relaciona con la libertad


de eleccin que tenemos para seleccionar un mensaje
determinado de un conjunto de posibles mensajes.
Si nos encontramos en una situacin en la que
tenemos que elegir entre dos nicos mensajes
posibles, se dice, de un modo arbitrario, que la
informacin correspondiente a esta situacin es la
unidad.

La Teora de la Informacin, entonces,


conceptualiza el trmino informacin como el
grado de libertad de una fuente para elegir un
mensaje de un conjunto de posibles mensajes.
Teora de la informacin
Aspectos importantes en la
evolucin de la Teora de la
Informacin.

Andrei A. Markovi (1910).

Ralp V. L. Hartley (1927).

Alan turing (1936).

Claude Elwood Shannon y


Warren Weaver
(1948-1949).
Fuente de informacin

A travs de un transmisor

El modelo Se emite una seal


propuesto por
Shannon es un La seal viaja por un canal
sistema
general de la
La seal puede ser interferida por algn ruido
comunicacin
que parte de:
La seal sale del canal

Llega a un receptor

El receptor decodica la informacin (mensaje)

El mensaje se pasa al des,natario


Con el modelo de la teora de la informacin se trata de
llegar a determinar la forma ms econmica, rpida y
segura de codificar un mensaje, sin que la presencia de
algn ruido complique su transmisin.

El destinatario debe comprender la seal correctamente;


el problema es que aunque exista un mismo cdigo de
por medio, esto no significa que el destinatario va a captar
el significado que el emisor le quiso dar al mensaje.

La codificacin puede referirse tanto a la transformacin


de voz o imagen en seales elctricas o
electromagnticas, como al cifrado de mensajes para
asegurar su privacidad.
Un concepto fundamental en la teora de la informacin
es que la cantidad de informacin contenida en un
mensaje es un valor matemtico bien definido y
medible.

El trmino cantidad no se refiere a la cuanta de datos,


sino a la probabilidad de que un mensaje, dentro de un
conjunto de mensajes posibles, sea recibido.

En lo que se refiere a la cantidad de informacin, el


valor ms alto se le asigna al mensaje que menos
probabilidades tiene de ser recibido. Si se sabe con
certeza que un mensaje va a ser recibido, su cantidad
de informacin es cero.
Fuente de la informacin
Selecciona el mensaje deseado de un conjunto de
mensajes posibles.

Una fuente es todo aquello que emite mensajes.

Por ejemplo, una fuente puede ser una computadora y


mensajes sus archivos; una fuente puede ser un
dispositivo de transmisin de datos y mensajes los
datos enviados, etc.

Una fuente es en s misma un conjunto finito de mensajes:


todos los posibles mensajes que puede emitir dicha
fuente.
Por la naturaleza generativa de sus mensajes, una
fuente puede ser:

Aleatoria: no es posible predecir cul es el


prximo mensaje a emitir por la misma.

Determinista.
Por la relacin entre los mensajes emitidos, una fuente puede ser:

Estructurada: cuando posee un cierto nivel de redundancia.

No estructurada (o catica): conocida tambin como de


informacin pura, es aquella en que todos los mensajes son
absolutamente aleatorios sin relacin alguna ni sentido
aparente.

Este tipo de fuente emite mensajes que no se pueden


comprimir; un mensaje, para poder ser comprimido, debe
poseer un cierto grado de redundancia; la informacin pura
no puede ser comprimida sin que haya una prdida de
conocimiento sobre el mensaje.
Transmisor
Transforma o codifica la informacin en una forma
apropiada al canal.
Seal
Mensaje codificado por el transmisor.
Canal
Medio a travs del cual las seales son
transmitidas al punto de recepcin.
Ruido
Conjunto de distorsiones o adiciones no deseadas
por la fuente de informacin que afectan a la seal.

Por ejemplo:

Pueden consistir en distorsiones del sonido


(radio, telfono), distorsiones de la imagen (T.V.),
errores de transmisin (telgrafo), etc.
Receptor
Decodifica o vuelve a transformar la seal
transmitida en el mensaje original o en una
aproximacin de este hacindolo llegar a su
destino.
Mensaje
Un mensaje es un conjunto de ceros y unos.

Por ejemplo: un archivo, un paquete de datos


que viaja por una red y cualquier cosa que tenga
una representacin binaria.

El concepto de mensaje se aplica tambin a


alfabetos de ms de dos smbolos, pero debido a
que tratamos con informacin digital nos
referiremos casi siempre a mensajes binarios.
Destinatario
Es quien recibe la informacin.
Entropa
Las definiciones que propone el Diccionario de la Lengua
Espaola, son las siguientes:

Magnitud termodinmica que mide la parte de la


energa no utilizable para realizar trabajo y que se
expresa como el cociente entre el calor cedido por un
cuerpo y su temperatura absoluta.

Medida del desorden de un sistema. Una masa de una


sustancia con sus molculas regularmente ordenadas,
formando un cristal, tiene entropa mucho menor que la
misma sustancia en forma de gas con sus molculas
libres y en pleno desorden.
El concepto bsico de entropa en teora de la
informacin tiene mucho que ver con la
incertidumbre que existe en cualquier experimento
o seal aleatoria.

Es tambin la cantidad de "ruido" o "desorden" que


contiene o libera un sistema.

De esta forma, se puede establecer como la


cantidad de informacin que lleva una seal.
Shannon ofrece una definicin de entropa que
satisface las siguientes afirmaciones:

La medida de informacin debe ser proporcional


(continua). Es decir, el cambio pequeo en una
de las probabilidades de aparicin de uno de los
elementos de la seal debe cambiar poco la
entropa.

Si todos los elementos de la seal son


equiprobables a la hora de aparecer, entonces la
entropa ser mxima.
La informacin es tratada como magnitud fsica,
caracterizando la informacin de una secuencia de
smbolos utilizando la entropa.

Se parte de la idea de que los canales no son


ideales, aunque muchas veces se idealicen las no
linealidades, para estudiar diversos mtodos de
envo de informacin o la cantidad de informacin
til que se pueda enviar a travs de un canal.
La informacin necesaria para especificar un
sistema fsico tiene que ver con su entropa.

En concreto, en ciertas reas de la fsica, extraer


informacin del estado actual de un sistema
requiere reducir su entropa, de tal manera que la
entropa del sistema (S) y la cantidad de
informacin (I) extrable estn relacionadas por:

S SI 0
De acuerdo a la teora de la informacin, el nivel de
informacin de una fuente se puede medir segn
la entropa de la misma.

Los estudios sobre la entropa son de suma


importancia en la teora de la informacin y se
deben principalmente a Shannon.

Existe, a su vez, un gran nmero de propiedades


respecto de la entropa de variables aleatorias
debidas a A. Kolmogorov.
Dada una fuente F que emite mensajes, resulta
frecuente observar que los mensajes emitidos no
resulten equiprobables sino que tienen una cierta
probabilidad de ocurrencia dependiendo del mensaje.

Para codificar los mensajes de una fuente


intentaremos pues utilizar menor cantidad de bits para
los mensajes ms probables y mayor cantidad de bits
para los mensajes menos probables, de forma tal que
el promedio de bits utilizados para codificar los
mensajes sea menor a la cantidad de bits promedio
de los mensajes originales. Esta es la base de la
compresin de datos.
A este tipo de fuente se la denomina fuente de
orden-0, pues la probabilidad de ocurrencia de un
mensaje no depende de los mensajes anteriores.

A las fuentes de orden superior se las puede


representar mediante una fuente de orden-0
utilizando tcnicas de modelizacin apropiadas.

Definimos la probabilidad de ocurrencia de un


mensaje en una fuente como la cantidad de
apariciones de dicho mensaje dividido entre el
total de mensajes.
Supongamos que Pi es la probabilidad de ocurrencia
del mensaje-i de una fuente, y supongamos que Li es
la longitud del cdigo utilizado para representar a
dicho mensaje.

La longitud promedio de todos los mensajes


codificados de la fuente se puede obtener como:

Promedio ponderado de las longitudes de los cdigos


de acuerdo a sus probabilidades de ocurrencia, al
nmero H se lo denomina Entropa de la fuente.
La entropa de la fuente determina el nivel de
compresin que podemos obtener como mximo para
un conjunto de datos.

Si consideramos como fuente a un archivo y obtenemos


las probabilidades de ocurrencia de cada carcter en el
archivo podremos calcular la longitud promedio del
archivo comprimido.

Se demuestra que no es posible comprimir


estadsticamente un mensaje/archivo ms all de su
entropa. Lo cual implica que considerando nicamente
la frecuencia de aparicin de cada carcter la entropa
de la fuente nos da el lmite terico de compresin.
El objetivo de la compresin de datos es encontrar
los Li que minimizan a H, adems los Li se deben
determinar en funcin de los Pi, pues la longitud de
los cdigos debe depender de la probabilidad de
ocurrencia de los mismos (los ms ocurrentes
queremos codificarlos en menos bits).

Entonces, se puede plantear:


A partir de aqu y tras intrincados procedimientos
matemticos que fueron demostrados por Shannon
oportunamente se llega a que H es mnimo cuando
f(Pi) = log2 (1/Pi).

Entonces:
La longitud mnima con la cual puede codificarse
un mensaje puede calcularse como Li=log2(1/Pi) =
-log2(Pi).

Esto da una idea de la longitud a emplear en los


cdigos a usar para los caracteres de un archivo
en funcin de su probabilidad de ocurrencia.
Reemplazando Li podemos escribir H como:
De aqu se deduce que la entropa de la fuente
depende nicamente de la probabilidad de
ocurrencia de cada mensaje de la misma, por ello
la importancia de los compresores estadsticos
(aquellos que se basan en la probabilidad de
ocurrencia de cada carcter).

Shannon demostr, oportunamente que no es


posible comprimir una fuente estadsticamente
ms all del nivel indicado por su entropa.
Informacin mtua
Se define la entropa de S como H(S):

Mide la incertidumbre ante un experimento S.

Mide la informacin media que cabe esperar del


resultado.

La entropa es mxima si todos los casos son


equiprobable: 0 <= H(S) <= log2(J).
Ejemplos:

Lanzamiento de una moneda H(S) = 1 bit.

Lanzamiento de un dado H(S) = 2.58 bits.

Transmisin QPSK, H(S) = 2 bits.


S = {si, sj} con probabilidades {pi, pj} = {p, p-1}

H(S) = {-p * log2(p)} - {-(1-p) * log2 (1-p)}

Si p = 0 p = 1 Entonces H(S)=0

Si p =1/2, H(S) es mxima e igual a 1 bit.


Dada una fuente S con J posibles smbolos,
decidimos codificarla utilizando para cada smbolo sj
una palabra binaria bj de longitud lj (dgitos binarios).

La longitud media de una palabra cdigo (o nmero


medio de dgitos binarios por smbolo es:

El teorema de codificacin de fuente de Shannon,


establece que:

La eficiencia de un codificador de fuente, n es:


Considere el conjunto S de posibles resultados de
un examen: S = {NP, SU, NO, SO, MH} con
probabilidades de {0.1, 0.15, 0.4, 0.2, 0.1, 0.05}

La entropa de fuente es:


Si codificamos de la siguiente forma:
Si codificamos de la siguiente forma:
Consideremos un conjunto posible de smbolos
emitidos S = {sj}, j = 0..J-1 y otro conjunto posible
de smbolos recibidos R = {rk}, k = 0..K-1

Definimos H(S | rk) de la siguiente forma:

Como entropa de S condicionada a la recepcin


del smbolo rk (incertidumbre que queda respecto
a S una vez recibido rk).
S = {carta de baraja (40
posibilidades)}, R = {Con
figura, Sin figura}

H(S) = 5.32

H(R) = 0.88

H(S | Con figura) = 3.58

H(S | Sin figura) = 4.8


Definamos la entropa de S condicionada a R como
la incertidumbre promedio que queda respecto a S
una vez recibido R.
Siguiendo con el ejemplo de las cartas: S = {carta de
baraja (40 posibilidades)}, R = {Con figura, Sin figura}

H(S) = 5.32

H(R) = 0.88

H(S | Con figura) = 3.58

H(S | Sin figura) = 4.8

H(S|R) = p(Con figura) * H(S| Con figura) + p(Sin figura) *


H(S | Sin figura)

H(S|R) = 0.3 * 3.58 + 0.7 * 4.8 = 4.43


La informacin mtua entre S y R se define como:
I(S;R) = H(S) - H(S|R) y mide la cantidad de
informacin que R tiene sobre S (o tambin S
sobre R).

Continuando con el ejemplo de las barajas

I(S;R) = 5.32 - 4.43 = 0.89 bits


Cmo se obtiene la frmula:

Consideremos dos experimentos S y R:

Antes de conocer R el desconocimiento de S


es: H(S).

Conocida R el desconocimiento de S: H(S|R).

Cuando R aporta informacin sobre S, se


tiene: I(S;R) = H(S) - H(S|R).
Proceso de
codificacin,
decodificacin y
distorsin de mensaje
Cdigo
De un conjunto de palabras (por ejemplo: Posibles
palabras binarias de una longitud determinada),
Cdigo es un subconjunto

Ejemplo:

Cdigo: Palabras de tres bits con slo un dgito a


1.

En las palabras binarias de longitud 3: {000, 001,


010, 011, 100, 101, 110, 111}
Codificacin
La codificacin de caracteres, es el mtodo que permite convertir un
carcter de un lenguaje natural, en un smbolo en otro sistema de
representacin, como un nmero o una secuencia de pulsos elctricos en
un sistema electrnico, aplicando normas o reglas de codificacin.

La Codificacin consiste en establecer una correspondencia entre cada


uno de los smbolos de un alfabeto fuente y una secuencia de smbolos
de una alfabeto destino. Al alfabeto destino se le denomina alfabeto
cdigo y a cada una de las secuencias de smbolos de este alfabeto que
se corresponda con un smbolo del alfabeto fuente se denomina palabra
de cdigo.

Se debe de recordar que todo cdigo tiene la caracterstica de ser


arbitrario, porque tiene la caracterstica de ser determinado y adecuado
para una sociedad, un tiempo especfico, donde todo parte de una
convencin.
Decodificacin
Es el proceso por el cual se convierten smbolos en
informacin entendible por el receptor. Su proceso
contrario es la codificacin.

Se puede entender como la interpretacin que


hace un receptor de un mensaje mediante la
aplicacin del mismo cdigo en que fue cifrado
por el emisor.
Distorsin de mensaje
En algunas situaciones concretas interviene una
fuente de interferencias, distorsin o ruido que
produce una diferencia significativa entre la seal
original emitida por el transmisor y la recibida por
el receptor.

Esta diferencia entre las seales provoca que el


mensaje que llega al destino no coincida con el
que originariamente fue seleccionado en la fuente
de informacin, frustrndose de esta manera el
proceso o el intento comunicativo.
Una persona se encuentra en casa y, recordando que hoy es el da en el
que un amigo suyo cumple aos, decide realizar una llamada telefnica
para felicitarle.

Bajo ciertas circunstancias, puede ocurrir que en la lnea telefnica, se


produzcan interferencias o distorsiones que hagan variar la seal original
emitida por el transmisor de tal forma que el receptor, el aparato telefnico
del amigo, reciba una seal distinta.

Esa variacin en la seal elctrica recibida acostumbra a provocar que,


en aparato receptor del amigo, se escuchen nuevos sonidos o que se
supriman algunos de los sonidos que en un principio aparecan en el
mensaje original.

Esta variacin de mensajes puede, en muchas ocasiones, hacer peligrar


seriamente la comunicacin entre los dos personajes.
Proceso de
deteccin y control
de errores de
informacin
Deteccin de errores
En informtica (entre varios ordenadores o en el interior de ellos)
la informacin circula entre diferentes dispositivos y reposa en
ciertos dispositivos

Posibles errores:

Ruidos en las comunicaciones

Defectos en las superficies de los discos, etc.

Los errores consisten en la modificacin de la informacin desde


que se emite (o almacena) hasta que se recibe (o se recupera)

Cambio de valor de algunos bits (0 1).


Tipos de errores

Aislados: Bit afectado rodeado de bits correctos

Simples: 1 bit afectado

Mltiples: Ms de 1 bit afectado

Rfagas de errores: Secuencia de bits contiguos


con errores.
Control de errores
En lugar de manipular la informacin, se definen
cdigos en los que se incluye la informacin que
permite detectar y/o corregir errores:

Cdigos correctores de errores:

Uso: Se recibe la informacin, si se detecta el


error se corrige

Situaciones: Cuando no es conveniente


retransmitir la Informacin.
Cdigos detectores de errores:

Uso: Se recibe la informacin, si se detecta el


error se solicita la retransmisin.

Situaciones:

Suele ser ms costoso corregir que detectar.

Cuando es posible la retransmisin, se solicita.


Tratamiento de errores
Comprobacin de paridad.

Paridad vertical, longitudinal y cruzada.

Cdigo i en n.

Cdigos de redundancia cclica (CRC) (Cyclic


Redundancy Codes).
Comprobacin de paridad

VRC (Vertical Redundancy Checking)

La informacin se coloca en bloques de longitud fija

A los bloques se les aade un bit llamado de paridad y que, normalmente, precede
a la informacin

Criterios para la paridad

Bit de paridad par:

N total de 1 par: Bit de paridad = 0

N total de 1 impar: Bit de paridad = 1

Bit de paridad impar:

N total de 1 par: Bit de paridad = 1

N total de 1 impar: Bit de paridad = 0


Bit de paridad par:

N total de 1 par: Bit de paridad = 0

N total de 1 impar: Bit de paridad = 1

Bit de paridad impar:

N total de 1 par: Bit de paridad = 1

N total de 1 impar: Bit de paridad = 0


Teora
combinatoria de
la informacin
La combinatoria es la parte de las matemticas que
estudia las diversas formas de realizar agrupaciones con
los elementos de un conjunto, formndolas y calculando
su nmero.

Existen distintas formas de realizar estas agrupaciones:

segn se repitan los elementos o no

segn se puedan tomar todos los elementos de que


disponemos o no, y

si influye o no el orden de colocacin de los elementos.


El desarrollo de la combinatoria est fuertemente
ligado con su aplicacin en la teora de la
probabilidad, pero tambin es importante en otras
ciencias como la informtica, por ejemplo en la
teora de la codificacin y en el anlisis de
algoritmos.
Combinatoria
enumerativa
versus
combinatoria
extremal
La teoria combinatoria
enumerativa
La teora de la combinatoria enumerativa tiene
como objeto contar los elementos de conjuntos
finitos.

En general, este es un problema muy difcil, pero


tan fundamental que sin importar en qu rama de
la matemtica uno trabaje, en algn momento
tendr que resolver problemas de enumeracin.
Principio de la adicin.

Suponga que hay n1 objetos x que satisfacen


P1, n2 objetos x que satisfacen P2, ... , nk objetos
x que satisfacen Pk.

Y que las propiedades P1 , . . . , Pk son


mutuamente excluyentes: no hay ninguna x que
satisfaga dos tales propiedades
simultneamente.

Si P es la propiedad. Alguna de las Pi, entonces


hay n1 + + nk elementos x que satisfacen P.
Principio de la multiplicacin.

Suponga que cada objeto x se puede describir


nivocamente por la lista (x1, . . . , xk) de objetos.

Y que hay ni objetos que satisface Pi para i = 1,


, k.

Si P(x) es la propiedad P1(x1) y P2(x2) y ... Pk(xk).

Entonces hay n1 * . . . * nk elementos x que


satisfacen P.
En una pequea comunidad hay 10 hombres y cada uno
tiene 3 hijos. Si se va a dar el premio al Pap e hijo del
ao cuntas posibles parejas se lo pueden ganar?

La palabra importante es parejas, porque dice


exactamente lo que estn pidiendo enumerar.

Cada una de las parejas se puedes escribir como x =


(p, h), pap e hijo.

Y para todas y cada una de las parejas es cierto que


hay 10 elementos que satisfacen ser p y 3 que son h.

El principio de la multiplicacin nos dice entonces que


hay 30 = 103 posibles parejas.
Si al siguiente ao en la misma comunidad, hay dos nios menos Cuntas
parejas de pap-hijo hay compitiendo por el premio?; Hay dos casos a
considerar.

Si los que desaparecieron no son hermanos, entonces hay 8 paps con 3


hijos cada uno, y 2 paps con dos hijos cada uno.

Estas dos condiciones son mutuamente excluyentes: una pareja tiene


pap con 3 hijos, con 2 hijos.

Usando el principio de la adicin y el de la multiplicacin en cada tipo de


pareja, resulta que en este caso hay 8 3 + 2 2 = 28 posibles parejas.

Si los desaparecidos son hermanos, entonces hay 93+11 = 28 posibles


parejas.

La respuesta es 28.

Pregunta: por qu no se usa el principio de adicin para decir que hay


28 + 28 = 56 posibles respuestas?
Cuntas placas para carros se pueden formar si
los primeros dos espacios son letras, y los
siguientes 4 son dgitos?

Cada placa es una lista (L, L, N, N, N, N). Hay 26


posibilidades para cada L, y 10 posibilidades para
cada N.

El principio de la multiplicacin dice entonces que


hay 262 104 posibles placas.
Cuntas placas son posibles si a los conductores se
les ofrece la opcin de usar los dos tres primeros
espacios como letras?; Hay dos formas de solucionar
este problema:

La primera es notando que hay dos opciones disjuntas:


cada placa es de la forma (L, L, N, N, N, N) (L, L, L, N,
N, N, N), por tanto hay (262 104) + (263 103) posibles
placas.

Tambin se puede pensar que la tercera posicin es del


tipo LN = letra nmero que tiene 36 posibilidades.
Entonces toda placa es de la forma (L, L, LN, N, N, N) y
hay 262 36 103 placas.
Cuntas funciones se pueden establecer entre los
conjuntos {1, , 10} y {a, b, c}?

Una funcin f entre dichos conjuntos es una lista:


(f(1), f(2), , f(10)), donde cada entrada tiene 3
posibilidades.

La respuesta es 310.
Hay 3 profesores de Matemticas, 4 de Historia, 5
de Qumica y 6 de Ingeniera. Se debe escoger un
comit de tres profesores, de manera que todos
sean de Departamentos distintos. De cuntas
formas se puede hacer esto?

Hay cuatro casos disjuntos, dependiendo de qu


Departamento no se usa. Por ejemplo, si no se usa
un profesor de Matemticas, entonces hay 4 5
6 posibles comits.

Considerando todos los casos resulta en:


(456)+(356)+(346)+(345)
La teoria combinatoria
extremal
El Principio Extremal tiene aplicaciones en casi todos los campos
de las Matemticas; sin embargo, no es fcil de reconocer, y debe
ser por tanto entrenado.

Tratamos de probar la existencia de un objeto con ciertas


propiedades.

El Principio Extremal nos dice que seleccionemos un objeto que


maximiza o minimiza alguna funcin. Se demuestra que el objeto
resultante tiene la propiedad deseada probando que una pequea
variacin aumentara o disminuira la funcin dada.

Si hay varios objetos ptimos, normalmente da igual cul usar.


Adems, el Principio Extremal es muchas veces constructivo,
dando un algoritmo para construir el objeto.
En el parlamento de Sikinia cada miembro tiene a lo sumo
tres enemigos entre los restantes miembros. Probar que se
puede dividir el parlamento en dos salas de manera que
cada miembro tenga a los sumo un enemigo en su sala.

Consideremos todas las posibles particiones del


parlamento en dos salas. Para cada particin contamos el
nmero total de enemigos E que tiene cada miembro en
su sala.

La particin con E mnimo tiene la propiedad requerida.


En efecto, si algn miembro tuviese al menos dos
enemigos en su sala, entonces tendr un enemigo a lo
sumo en la otra sala. Si cambiamos a esta persona de
sala disminuira E, lo cual es una contradiccin.
Bibliografa
Barrantes D. Teorema de Sperner y sus
aplicaciones. Universidad de Costa Rica.

Lpez A.; Parada A.; Simonetti F. 1995. Extracto de


Introduccin a la psicologa de la Comunicacin.
Ed. Universidad Catlica de Chile.

Ortiz C.; Mndez A.; Sendra E. 2011. Tema 1:


Combinatoria. Universidad Politcnica de Madrid.

También podría gustarte