Está en la página 1de 110

Teoría de Codificación y Manejo de

Información
Instituto Politécnico Nacional (IPN)

MSc. Ing. Alberto Díaz

Ciudad de México
2020
Sistema Digital de Comunicaciones
A continuación se muestra el sistema digital de
comunicaciones en forma completa. En este se puede
observar las etapas esenciales inherentes a cualquier sistema
de comunicaciones, y las no esenciales que pueden o no
integrarse al sistema que se desea y cuya función es hacer mas
robusto, confiable y seguro a nuestro sistema.
Optional
Information Essential
Source
Source Channel
Format Encrypt Multiplex Modulate
encode Encode
Digital
Frequency
Input
Spread
Information
Sink Digital Multi
Bit
Wave form access
Stream Synchronization
Format
Digital
MT
Output
Source
decode Channel

Channel Frequency Multi


Decrypt Demultiplex Demodulate RCV
Decode Spread access
Source To other Channel
Bit destinations bits
Etapa de Formato
La etapa de formato es la encargada de la adecuación de la señal
analógica o digital para hacerla compatible con el sistema de
comunicación que se maneja. En el caso de los sistemas analogos se
tendrá que tener en cuenta las fuentes que manejan información
pudiendo ser audio, video, datos.

Señal Señal
AWP - Analoga Digital
Determinista Aleatoria
Etapa de Codificación
La codificación de la fuente refiere a la compresión necesaria para la
transmisión de información de acuerdo a las características de esta
(video, audio, datos).
Codificación Codificación
fuente canal
Codificación

Redundancia
Codificación de canal
Tx Canal (expandir)
Cod Huffman: MP3, AIFF, WAV
Video TRF mpeg, mov,
Codificación de fuente comprimir Audio TDC mp4, wmv, jpeg
Datos TDS
Lempel zip: zip, zif, ziv
Etapa de Codificación de Canal
La etapa de codificación de canal es la encargada de crear la
redundancia necesaria para solventar los problemas existentes en el
canal de comunicación.
Se puede observar en la siguiente figura que la redundancia define una
nueva probabilidad de código la cual se desea lo mas baja posible.

Cod Dec Pe (código)


Canal Canal Pe > Pe (código)

Pe = 1x10^-3 bits (un bit de error entre cada millón)


Encriptación
La etapa de encriptación por objetivo la protección de la información
para que fuentes ajenas a nuestro sistema de información
(comunicación) no tengan acceso a ella. El proceso de encriptación esta
basado en técnicas antiguas para el manejo de información como son:
conmutación y llaveo.
Conmutación: La técnica de conmutación fue empleada en la
antigüedad para ocultar los mensajes mediante una simple
permutación de caracteres. En el siglo pasado basándose en este
principio se creaban para la conmutación de datos.
mf
D1 D3
0
D2 D4
1
D3 D1
0
D4 D6
1
D5 D2
1
D6 D5
1

Llaveo: Para sistemas de comunicación se utiliza doble llaveo


Técnicas de llaveo DASS, DESS, 3 DESS

A = Nlog(B) C = Xlog(A)
web
D = Nlog(C) E = Xlog(D)

Usuario
Password
Etapa de Multiplexaje
La etapa de multiplexación es la encargada de integrar diferentes tipos
de información al sistema de comunicación para ser transmitidos por el
mismo canal.
Video

Código Código
Video Formato Encrypt Mux
fuente Canal

Datos
Etapa de Modulación
La modulación se define como el proceso de multiplicación entre dos
señales
 

En el punto de vista de comunicaciones analógicas la modulación


refiere al proceso de multiplicación de una señal f(t) generada a una
frecuencia de banda base por otra señal a una frecuencia superior la
cual debe ser ortogonal y ortonormal (señal portadora) para modificar
las características de la segunda y poder transmitir a esta frecuencia
superior AM
  FM
Señal a Tx, frecuencia PM
Señal portadora
banda base Frecuencia superior
En los sistemas básicos recordamos que la transmisión es una
transmisión de banda base tal como se muestra en la siguiente figura

Tx Canal Rx

Modulación Digital: Desde el punto de visto de las comunicaciones


digitales la modulación refiere a la adecuación de la señal digital que se
esta manejando a una señal compatible con el canal de comunicación

Bit stream
Mod Canal Dem
Actualmente se desea transmitir el mayor número de bits en el canal
de comunicación, actualmente las técnicas mayormente empleadas son
PSK (Phase Shift Key) y QAM (Quanta Amplitude Modulation).
Es importante definir que para los sistemas de comunicación digital, la
transmisión es una transmisión de banda base debido a que las
(técnicas) frecuencias de generación y transmisión están en el mismo
rango.
Espectro Disperso
Esta técnica fue creada con el objeto de dispersar la señal de
información en el canal existente de comunicación. En sus inicios se
empleaba un pseudoruido para poder lograr simular este efecto, en la
actualidad es mayormente empleada en los nuevos sistemas de
telefonía
Multiple Access
Los sistemas digitales permiten la transmisión de múltiples usuarios
sobre un mismo canal de comunicación tal como se muestra en la
siguiente figura.
Usuario A
V, A, D

Usuario C
Multiple Access Canal
V, A, D

Usuario B
V, A, D
Las técnicas mas empleadas para este acceso son:
TDMA = Time Division Multiple Access
FDMA = Frequency Division Multiple Access
CMDA = Code Division Multiple Access
SDMA = Space Division Multiple Access

La técnica de TDMA consiste en la asignación de un tiempo definido


para el uso de la comunicación a una misma frecuencia con esto
diversos usuarios pueden emplear el mismo sistema. El ejemplo mas
común es la telefonía celular de primera generación.
Para FDMA se estable una frecuencia fija para todos los usuarios en un
tiempo indefinido
En el caso de CDMA se realizan variaciones de tiempo y frecuencia esto
con objeto de hacer una comunicación mucho mas segura

La técnica de SDMA consiste en la realización de las frecuencias para


diferentes áreas geográficas el ejemplo mas común son las
comunicaciones satelitales
Etapa de Sincronización
La sincronización proviene del griego cronos (tiempo) y refiere a 2 tipos
básicos en el sistema de información
Síncrono (con tiempo) Asíncrono (sin tiempo)
Por tanto podemos definir señales con estructuras de tiempo definidas
y otras carentes de este. Desde el punto de vista del manejo de la señal
se entiende por tanto 3 tipos básicos de sincronización
1. Sincronización de bits
2. Sincronización de forma de onda
3. Sincronización de símbolos, Camera o Portadora
Un símbolo son 2 o mas bits en la señal.
Teoría de la información
Se establece esta teoría en 1998 por Claude Shannon en su libro del
mismo nombre. Se da una definición matemática basándose en
enunciados como a continuación:

MEXICO 1 Vs. USA 4


Mas
probabilidad MEXICO 3 Vs. USA 1
de ocurrencia
MEXICO 6 Vs. USA Ø Menor probabilidad
de ocurrencia
Pm : Probabilidad de ocurrencia del mensaje.

b : Base binaria para este caso


Todas las comunicaciones
son meramente
probabilística.
Ejemplo: Calcule las entropías para las fuentes de información que se
muestran en las siguientes tablas.
Símbolo Prob
 

Símbolo Prob Símbolo Prob

0,4 .8

0,3 .1

0,2 0.05

0,1 0.05
 
 

 
 
Operador de Lagrange
 

 
 
Para todo caso
Para P(ā), P(au cours de),
P(pand unt)
 
Para P(dans), P(eu)
Análisis de canal y elementos de teoría de
la información

Conjunto de Condición Espacio


eventos
 
Al primer momento se le conoce como esperanza matemática y tal como
es el valor mas esperado de una función de densidad de probabilidad

F.D.P.
F.D.P. Función de
Función de densidad de distribución de
probabilidad probabilidad

 
E(x)=c

 
• Varianza: Se define dentro del segundo momento central mostradas a
continuación.  
F.D.P.

 
 

V(x)

Así por ejemplo la siguiente figura


muestra diferentes funciones de densidad
V(x)
de probabilidad con misma esperanza
matemática pero diferente varianza.
E(x V(x)
)
Ejemplo: Podemos obtener la esperanza y varianza de la función
mostrada en la siguiente figura.
 

 
   
Probabilidad conjunta para eventos
independientes

 
Probabilidad conjunta para eventos
condicionales

Evento etapa ll

Ya dado
       

   

   
   
Conjunto
Marginal
Análisis de canal
Desde el punto de vista de teoría de la información los canales de
información son meramente probabilísticos y establecen relaciones que
guardan múltiples comportamientos entre los canales mas
comúnmente analizados tenemos:
Channel Capacity
  9=1-P
 

1
  p

  q 9=1-P
p
p e Binary erasure
Channel
Canal simétrico binario
9

  p p  

9=1-p

Símbolo Probabilidad
0
1
1
0 1
 
0
1
2   3   4  
0 1
0 1
0

Ejemplo:
Símbolo
0
1
 

   
Ejemplo:
Obtenga las diversas entropías para los símbolos de las siguientes tablas
que se transmiten en el canal de comunicación.
Capacidad de canal

   
 
1
 
  1  

   
 
Codigos

x s

Símbolo Código
Código decodificable únicamente
Se define como código decodificable únicamente cuando a cada uno de
los elementos del espacio a mapear te corresponde uno y solo uno de
sus elementos del otro espacio.
Símbolo Código

S1 00

S2 1111

S4 111

S5 10101

S100 0
Código de bloques
Se define a un código para un numero finito de elementos del espacio, a
mapear así, por ejemplo, en comunicaciones los códigos de bloques se
definen para elementos en base 2 como puede ser 2,4,1024, etc. La
siguiente figura muestra un código de bloques con estas características.
X S
Símbolo Código
    S1
S2 0111
S3 01
S4 0
Códigos de extensión
Se definen a todo código que puede ser transmitido para N cantidad de
tiempo discretizado. La siguiente tabla muestra un código de extensión
para 2 unidades de tiempo
Source
Símbolo Código Code
Symbol
S1 S1 S1 00
S2 11 S1 S2 011
S3 00 S1 S3 000
S4 01 S1 S4 001
S2 S1 110
  S2 S2 1111
S2 S3 1100
No permite hacer la diferenciación de
palabra de código con un intervalo de S2 S4 1101
tiempo
Códigos Instantáneos
Se define a un código que puede ser recuperado en forma inmediata sin
importar la extensión de tiempo en el que es transmitido. La siguiente
tabla muestra un código decodificable únicamente de bloques y de
extensión que cumple con estas características.
El que hacer de la teoría de la información es la creación
Símbolo Code de códigos instantáneos que transmitan con la menor
S1 0 redundancia posible la técnica mayormente empleada
para este efecto esta basada en la frecuencia o
S2 10
probabilidad de ocurrencia de los diferentes símbolos y
S3 110 los códigos mayormente utilizados son:
S4 1110 • Código Shannon – Fano
• Código Shannon – Fano mejorado
• Código Huffman
Código Shannon - Fano
Para la creación de este código se procede de la siguiente forma.
1. Se ordenan los símbolos de mayor a menor probabilidad como se
muestra en la siguiente tabla.
Símbolo Código 2. Se divide la tabla de acuerdo al
S1 0,3
sistema digital que se desea diseñar en
S2 0,20
S3 0,20
nuestro caso lo dividiremos en 2 por
Frecuencia
Código S4 0,15 tratarse de un sistema digital binario.
S5 0,10 Dejando la mayor parte de las
S6 0,03 contribuciones de probabilidad en la
S7 0,02 parte superior sino es posible la igualdad
entre ambos.
3. Asignamos cero a los elementos de la parte superior y 1 a los de la
parte inferior.
4. Se repiten los pasos 2 y 3 hasta quedar completamente diferenciador
todas las palabras de código.
Símbolo Código

S1 0,3 00
S2 0,2 01

S3 0,2 1 00
S4 0,15 1 01

S5 0,10 110

S6 0,03 1 1 10
S7 0,02 1 1 11
Shannon Fano Mejorado
1. Se ordena de mayor a menor las probabilidades para los símbolos.
2. Se divide nuevamente de acuerdo al sistema digital que se este
mejorando, sin embargo, en este caso, se permitirá reacomodar un
elemento para lograr que las contribuciones de probabilidad superior
e inferior sean iguales de no ser así la contribución de probabilidad
mayor se dejara en la parte superior.
3. Se asignan ceros en la parte superior, unos a la parte inferior.
4. Se repiten los pasos 2 y 3 hasta obtener el código instantáneo en
caso de que existan varios cambios para el caso #2, solo se permitirá
un cambio por subdivisión.
Código Huffman
Para este código se procede de la siguiente manera:
1. Se ordenan de mayor a menor probabilidad.
2. Se agrupan los símbolos de la parte inferior de la tabla de acuerdo o
según al sistema digital que se maneje y se reordenan en la tabla si
su valor es igual a otro existente este será considerado de mayor
valor.
3. Repito el paso anterior hasta tener únicamente el numero de
elementos del sistema digital que maneja.
4. Se asigna cero al elemento de mayor probabilidad y uno al del
menor.
Código Símbolo Prob.
01 S1 0,3
10 S2 0,2
11 S3 0,2
001 S4 0,15
0000 S5 0,10
0001 0 S6 0,03
0001 1 S7 0,2
Longitud promedio y eficiencia
 

 
  Cana  
l
LEMPEL - ZIV
1 2 3 4 5 6 7 8 9 10
Capacidad de Canal para Canales
Continuos
Shannon demostró que para un canal continúo la siguiente es la relación
que define al sistema. A continuación se muestra la relación matemática
definida por Shannon.
El ruido del
canal limita
la
transferencia
de
información.
 

v v
Códigos de Canal
Codificación: La codificación de canal permite solventar los problemas
existentes provocados por el ruido, atenuación u las mismas características
del medio. En forma general podemos decir que la etapa de codificación de
canal basa su diseño en la creación de redundancia, aunque técnicas mas
elaboradas logran que esta sea casi mínima. A continuación se muestra un
sistema de comunicación basado en las etapas de codificación.
Indude check bits to
build a code word

Estimate what Word


has been sent
Cod Dec
Canal
Canal Canal

 
• Código A5: Se muestra a continuación. Basado en el ejemplo anterior
obtenga.
Símbolo Código
00000
11111

• Código B4: Para tratar de compensar el · de bits de información


transmitidos con la redundancia generada se crearon nuevos códigos
como el código mostrado a continuación. Este código transmite 2 bits
de información protegiendo a 1 de ellos con el código A3.
Símbolo Código
 
A3
A3

 
 
Símbolo Código  
  Inf bits Codeword
000 000000
001 100011
010 010101
011 001110
100 011011
101 101101
110 110110
111 111000
Velocidad de transferencia

 
“Cuantos bits por unidad de tiempo”
Information bits Code word
000 000000
001 100011
010 010101
011 001110
100 011011
101 101101
110 110110
111 111000
Distancia Hamming

000000
100011
010101
001110
011011  
101101
110110
111000
Detección de error
Para un código de bloques cualquiera se podrá detectar un error si la
distancia Hamming cumple con lo siguiente

   
Palabra
código

(x) error
Detección y corrección de errores

000
  010 corregir
110
Corrige 1 bit error
111
Códigos de Línea

Los códigos de línea fueron diseñados para la transmisión de


información enviando la misma etapa de formato y fueron los
primero códigos que trataron de solucionar los problemas del
canal de comunicaciones.
El siguiente diagrama muestra la etapa de formato y la etapa
de modulación, etapa donde se realizó la implementación de
los códigos de línea.
Códigos de línea
A continuación se muestra alguno de los códigos de la línea clásicos para
pasar posteriormente su análisis.

“Solo cambia de cero a uno, antes no y regresa”

 
“Regresa a cero”

Unipolar RZ “Regresa a cero”

RZ-AMI  
Los códigos de línea no pueden ser analizados, para si análisis
se requiere compararlos con otros códigos para saber si uno u
otro código son adecuados para una aplicación en especifico,
Los puntos de análisis y comparación entre códigos son:
Componente directo, ancho de banda, inmunidad al ruido, reloj
interno y sincronía, detección y corrección de errores.
Componente directo
El primer termino de la serie de Fourier corresponde al nivel de
referencia sobre el cual va montada la señal. Este termino. Para el caso
de los pulsos define el uso de energía empleado para efectos de
transmisión. De forma practica, podemos entender la necesidad de
fuentes simétricas para la optimización de la componente directa, la
siguiente figura.  
   
       
w
 
 

   
     
 
El uso de la componente directa impacta en la implementación del
código de línea, por lo que tener sistemas cuyo componente directo
tendrá cero, es mucho mas costoso que sistemas basados en una sola
fuente.
Para los códigos de la línea en general, la componente directa crea 2
grandes grupos: el grupo de los códigos unipolares y el grupo de los
códigos bipolares.
 
 
Unipolar RZ
 

   
 
 
Delay modulation

o
Du ary
bin

NRZ
Dicode NRZ
Bi-Phase

0,2 0,4 0,6 0,8 1


Inmunidad al ruido
Los códigos de línea se pueden dividir también en 2 grupos a partir de la
definición. Un grupo formado por los códigos que transmiten la
información por medio de “nivel” y el otro por aquellos que transmiten
la información por cambio de nivel; A continuación se muestran estos 2
grupos donde el mayor mente utilizado y conocido es el código
Manchester. Un ejemplo claro de un código que emplea cambio de
nivel.

Nivel

Manchester Cambio de nivel


reloj
The RZ
Bipolar Nivel de
 
referencia

Nivel de decisión
 
 
unipolar Nivel de decisión
Sincronía y reloj interno
Se entiende como reloj a todos acción que se repite a intervalos iguales
de tiempo, por tanto podemos considerar que para los códigos de línea,
existirán estructuras que nos permitan tener relojes. Estos códigos son
conocidos como códigos síncronos mientras que aquellos que carecen
de estructuras son conocidos como códigos asíncronos.
Síncrono A síncrono
Con tiempo Sin tiempo
Los códigos asíncronos al no contar con una estructura de tiempo
requieren de bits extras.
1 0 1 0 1 0 1 1 0 1 0 1 0 1

Video # de bits
iniciales de
sincronización Bits de inf.
Para la recuperación podemos mencionar que los métodos asíncronos
requieren estructuras de flip - flops básicas y fáciles de implementar
mientras que los métodos síncronos requieren de estructuras complejas
conocidas como PLL.

  Canal s Síncrono
c

  Canal   Asíncron
o
Análisis de código de línea
Como ejemplo de análisis de código de línea compararemos Manchester
y AMI por ser estos frecuentemente utilizados en aplicaciones actuales.
ron o
í nc
as

 
En lo que respecta a la inmunidad al ruido el código Manchester
presenta un mayor diseño debido a un esquema de cambios de nivel con
lo que la señal de ruido deberá ser mayor o igual a 2vcc ara afectar la
transmisión de este código.

Para el Reloj Interno y Sincronía al código AMI es un código asíncrono


mientras que el código Manchester es un código síncrono y tendrá que
ser recuperado por el receptor por medio de filtros y PLL’S
respectivamente.
Sistema de detección y corrección de
errores
La mayor parte de los códigos de línea no presentan esquemas para la
corrección de errores sin embargo en estructuras como la del código
AMI puede ser posible su detección creando violaciones a la
transmisión del código.

1 0 1 0 1 0 0 0 1 0

 
 
 
Error x
violación
al código
Para los códigos de línea y principalmente para los que transmiten
empleando el nivel de referencia no es deseable tener un sistema por
largas cadenas a este nivel. Para nuestro caso no será recomendable
tener cadenas de mas de 5 bits cero aunque en algunas aplicaciones no
se permiten cadenas de mas de 3 bits.

 
 
 
Código de Bloques
Los códigos de línea están formados por palabras de código que
cumplen con los principios de un espacio vectorial cotidiano
considerando las siguientes acciones y operaciones como básicas.
Operación Acción

De acuerdo con esto un espacio Euclidiano podrá formar sub espacios


vectoriales los cuales podrán definir un numero mayor de vectores o
elementos de ese espacio en nuestro caso supongamos un numero
infinito de elementos de los cuales tomamos un numero finito para la
creación de nuestro código de línea. La siguiente figura muestra un sub
espacio vectorial de un espacio mucho mayor.
. . . . . .01. . . . . . . . . . . . . 1. . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . .10000000011000000001100000000000000000001………..
. .101 ..
  101010  
. . . . . . . . . . . . . . . . . . . . . . . . . .0001000
.
...........................
...........................
En general los códigos de línea son sub espacios de palabras de código
de la misma longitud que son formados por sub espacios contenidos
dentro de este; A continuación se muestra un sub espacio y los vectores
ortogonales que lo conforman.

Vectores Ortogonales &


Ortonormales
 
Hay que recordar que estos vectores ortogonales
empleando las operaciones binarias sirven para
  generar todo el espacio vectorial. Sin embargo
para el caso de los códigos de línea existen
comportamientos ya definidos.
Message Vector Code Vector
000
001
010
011
100
101
110
111

Redundancia
mensaje

síndrome
 
 
M=101 Mensaje G   100 Posición Error

 
La base fundamental para la creación de códigos de bloques es la matriz
Generatriz (G), la cual esta constituida por una parte de paridad y otra
parte de identidad. La paridad, para el caso de estos códigos, deberá ser
par con el objeto de lograr una recuperación correcta del mensaje. A
continuación se ilustra una matriz generatriz definida, para la creación
del código de bloques.
 

paridad identidad
     
 

 
 
Matriz de recuperación o chequeo de
paridad

De tal manera que para nuestro sistema es


posible la detección del error mediante el
empleo de esta matriz de recuperación.
Este procedimiento es conocido como síndrome e identifica la posición
de error existente en el canal de comunicación, el procedimiento para la
obtención del mismo es:
 

m  
 
     

 
A continuación se muestra el patrón de comportamiento del error y el
síndrome de la matriz de recuperación, donde es importante observar su
relación con la matriz generatriz. Error Patter
000000
Syndrame
000
000001 101
    000010 011
000100 110
001000 001
010000 010
100000 100
010001 111
 

   
Error Pattern Sindrome
010001 111

 
 

NO hay
error
Códigos de convolución
+

 
m bits 2 salidas o más
 
registros
+
sumador
11 10 11 00
t E S
00 00 00 00
1 0 00
2 0 00 11 10 11 00
3 1 11
4 0 10 11 10 00 10 11 00
5 0 11
6 0 00
11 10 11 00
 
00 00 00 00
t E S
11 10 11 00
1 1 11
Bits
2 0 10 individuales
11 10 00 10 11 00
3 1 00
4 0 10
5 0 11 Entrada 1 0 1 0 0 0
6 0 00 *bits serie*
Salida 11 10 00 10 11 00
Diagramas de estado
El circuito de convolución tiene su mejor representación mediante el
empleo de un diagrama de estado el cual representa el código anterior y
siguiente de los registros.
Para esto analice la siguiente tabla donde se muestra los registros para
los diversos cambios de eso.
En general, una señal para el análisis de CTO de edo deberá estar
conformada por entradas estables y cambios ya sea en forma par o
impar.
Branch Word at
Input mi Reg contents Stated time ti Stated tim ti+1 time ti+1
Y1 Y2
- 000 00 00 -
1 100 00 10 1 1
1 110 10 11 0 1
0 011 11 01 0 1
1 101 01 10 0 0
1 110 10 11 0 1
0 011 10 01 0 1
0 001 01 00 1 1

0/00

0/11 a=00
1/11

1/00

C=01 b=10
0/10

0/01 d=11 1/01

1/10
Trellis

El diagrama que se muestra a continuación es conocido como el


diagrama de trellis y es otra representación grafica en tiempo de los
estados de un circuito de convolución. Este diagrama tiene por
objeto ubicar la existencia de posible errores en la transmisión.
A su vez es empleado en la creación de programas de su
recuperación de código.
t0 t1 t2 t3 t4 t5 t6

0/00 0/00 0/00 0/00 0/00 0/00


a= 00
0/11 0/11 0/11 0/11

1/11 1/11 1/11 1/11 1/11 1/11


b = 10

1/00 1/00 1/00 1/00

0/10 0/10 0/10 0/10 0/10


c = 01

0/01 0/01 0/01 0/01

1/01 1/01 1/01 1/01 1/01


d = 11
1/10 1/10 1/10 1/10
t0 t1 t2 t3 t4 t5 t6
+1 +3 +0
0/00 0/00 0/00 0/00 0/00 0/00 +0
a= 00
0/11 0/11 0/11 0/11

1/11 1/11 1/11 1/11 1/11 1/11


+0 +3
b = 10 +0

1/00 1/00 1/00 1/00

0/10 0/10 0/10 0/10 0/10


c = 01 +0
+0
0/01 0/01 0/01 0/01

1/01 1/01 1/01 1/01 1/01


d = 11
1/10 1/10 1/10 1/10

R 11 10 00 10 11 00
e 00 00 00 00 00 00
U 11 10 00 10 11 00
m 1 0 1 0 0 0
IN OUT

t0 t1 t2 t3 t4 t5 t6

0/00 +1 Costo 0/00 +2 0/00 0/00 +3 0/00 +3 0/00 +3


a= 00 +2
0/11 0/11 0/11 0/11

1/11 1/11 1/11 1/11 1/11 1/11


+1Costo +2 +5
b = 10 +2 +3 +6
1/00 1/00 1/00 1/00
1/01

0/10 0/10 0/10 0/10


0/10
c = 01
+1 +3 +5
0/01 0/01 0/01 0/01

1/01 1/01 1/01 1/01


d = 11 +5
+2 1/10 1/10 +3 1/10 1/10

R 01 10 10 11 11 00
e 10 00 10 01 00 00
U 11 10 00 10 00 10
m 1 0 1 0 1 0

También podría gustarte