Está en la página 1de 17

3.2.

Control de congestion TCP

Un algoritmo de control de congestión consta de dos componentes: un


algoritmo fuente que ajusta dinámicamente su tasa xs (t) en respuesta a los precios
½l (t) en su ruta y un algoritmo de enlace que actualiza, implícita o explícitamente,
su precio ½l (t) y lo devuelve, implícita o explícitamente, a fuentes que usan el
enlace l. En Internet actual, el algoritmo de origen se lleva a cabo mediante TCP y el
algoritmo de enlace se lleva a cabo mediante la gestión de colas (activa) (AQM)

3.3. TCP Reno/RED.

En la gran mayoría de las implementaciones TCP actuales, el algoritmo de


control de congestión se puede modelar como

Donde Ts es el tiempo de ida y vuelta (RTT) de la fuente s, es decir, el tiempo que


tarda s en enviar un paquete y recibir su acuse de recibo desde el destino. Aquí
asumimos que Ts es una constante, aunque en realidad su valor depende del nivel
de congestión y generalmente varía en el tiempo. El mecanismo AQM de RED [10]
mantiene dos variables internas, la longitud instantánea de la cola bl (t) y la longitud
promedio de la cola rl (t). Estas variables se actualizan como

donde! l 2 (0; 1). Luego, el protocolo de detección temprana aleatoria (RED) marca
un paquete con una probabilidad ½l (t) que es lineal por partes, aumentando la
función de rl (t) con constantes ²1; ² 2; Ml; ¯ b1 y bl:

 TCP Vegas/Drop Tail.


Vegas usa el retraso de la cola como la medida de congestión ½l (t)
Dbl (t) = cl, donde bl (t) es la longitud de la cola en el tiempo t. La regla
de actualización Gl (yl (t); ½ l (t)) viene dada por (dividiendo ambos
lados de (10.9) por cl)

AQM para Vegas no involucra ninguna variable interna. La regla de


actualización Fs (xs (t); qs (t)) para la tasa de origen viene dada por

donde Þs es un parámetro, ds es el retardo de propagación de ida y


vuelta de la fuente sy Ts (t) Dds Cqs (t) es el RTT en el tiempo t. Para
FAST / DropTail, ifds es el retraso de propagación de ida y vuelta de la
fuente s; ½ l (t) el retraso de espera en el enlace l en el tiempo t; qs (t)
D l Rls½l (t), el retraso de espera de ida y vuelta , o en notación
vectorial, q (t) DRTλ (t), luego cada fuente s adapta su ventana Ws (t)
periódicamente

3.4. Optimización del protocolo MAC.

Considere una red ad hoc representada por un gráfico dirigido G


(V; E), p. como en la figura 10.1, donde V es el conjunto de nodos y E
es el conjunto de enlaces lógicos. Definimos Lout (n) como un conjunto
de enlaces salientes desde el nodo n; Lin (n) como un conjunto de
enlaces entrantes al nodo n; tl como el nodo transmisor del enlace ly rl
como el nodo receptor del enlace l.

Además, definimos NI a (l) como el conjunto de nodos cuya


transmisión causa interferencia al receptor del enlace l, excluyendo el
nodo transmisor del enlace l (es decir, tl), y LIfrom (n) como el conjunto
de enlaces cuya transmisión sufre interferencia de la transmisión del
nodo n, excluyendo los enlaces salientes del nodo n (es decir, l 2 Lout
(n)). Por lo tanto, si el transmisor del enlace ly un nodo en el conjunto
NI para (l) transmitir
datos simultáneamente, la transmisión del enlace l falla. Si el nodo ny
el transmisor del enlace l en el conjunto LI de (n) transmiten datos
simultáneamente, la transmisión del enlace l también falla.

Para la resolución de contención con un protocolo de retroceso


exponencial (EB) basado en ventanas, cada enlace l mantiene su
tamaño de ventana de contención Wl, el tamaño de ventana actual
CWl y los tamaños de ventana mínimo y máximo Wmin l y Wmax l.
Después de cada contención de transmisión, se actualizan el tamaño
de la ventana y el tamaño de la ventana actual. Si la transmisión es
exitosa, el tamaño de la ventana de contención se reduce al tamaño
mínimo de la ventana (es decir, Wl D Wmin l); de lo contrario, se
duplica hasta alcanzar el tamaño máximo de ventana Wmax l (es decir,
Wl Dminf2Wl; Wmax l g). Luego, el tamaño de ventana actual CWl se
elige para que sea un número entre (0; Wl) uniformemente al azar.
Disminuye en un intervalo de tiempo excesivo, y cuando se convierte
en cero, el enlace transmite datos. En el estándar IEEE 802, el tamaño
de la ventana se duplica después de cada falla de transmisión y el
protocolo aleatorio cruzado en la función de coordinación distribuida
(DCF) se denomina protocolo de retroceso exponencial binario (BEB),
que es un caso especial de los protocolos EB.

En este caso, cada enlace transmite datos con una probabilidad pl, que
se conoce como la probabilidad de persistencia del enlace l. Después
de cada intento de transmisión, si la transmisión es exitosa sin
colisiones, entonces el enlace l establece su probabilidad de
persistencia como su valor máximo pmax l. De lo contrario, reduce
multiplicativamente su probabilidad de persistencia en un factor þl (0
<þ l <1) hasta alcanzar su valor mínimo pmin l. Este nodo de
probabilidad de persistencia no tiene memoria y se aproxima al
comportamiento promedio del protocolo EB.

Dado que en el protocolo EB basado en ventanas, el tamaño de


ventana actual CWl del enlace l se selecciona aleatoriamente entre (0;
Wl), cuando su tamaño de ventana es Wl, podemos pensar que el
enlace l transmite datos en un intervalo de tiempo con una probabilidad
de intento 1 = Wl, que corresponde a la probabilidad de persistencia pl
en el nuevo modelo para el comportamiento promedio de los
protocolos EB. En el protocolo basado en ventanas, después de cada
transmisión exitosa, la probabilidad de intento se establece en su valor
máximo (es decir, 1 = Wmin l), que corresponde a pmax l en nuestro
modo, y después de cada falla de transmisión, se establece la
probabilidad de intento ser una fracción de su valor actual hasta que
alcance su valor mínimo, lo que corresponde a reducir la probabilidad
de persistencia por un factor de þ D0: 5 en BEB (y en general þ 2 (0; 1)
en EB) hasta alcanzar el mínimo probabilidad de persistencia pmin l. El
algoritmo de actualización para la probabilidad de persistencia ahora
se puede escribir como

3.6. Control de la congestión y enrutamiento.


En esta sección discutiremos la interacción TCP / IP. En la
secuela usaremos los siguientes supuestos y notación:

H define el conjunto de rutas acíclicas disponibles para cada


fuente y W define cómo el equilibrio de carga de las fuentes a
través de las rutas. Su producto define una matriz de enrutamiento
L ð N RDHW que especifica la fracción de flujo s0s en cada enlace
l. El conjunto de todas las matrices de enrutamiento de ruta única
es

y el conjunto de todas las matrices de enrutamiento


multitrayecto es

La diferencia entre el enrutamiento de ruta única y el


enrutamiento de múltiples rutas es la restricción de enteros en W y
R. Una matriz de enrutamiento de ruta única en Rn es una matriz 0-
1

mientras que la matriz de enrutamiento multirruta en Rm es


aquella cuyas entradas están en el rango [0,1]

La ruta de la fuente s se denota por rs D [R1s ÐÐÐRLs] T, la


columna de la matriz de enrutamiento R. Consideremos primero la
situación en la que TCP-AQM opera a una escala de tiempo más
rápida que una actualización de enrutamiento. Asumimos por ahora
que se selecciona una sola ruta para cada par de origen-destino
que minimiza la suma de los costos del enlace en la ruta, para una
definición adecuada del costo del enlace. Sea R (t) 2 Rn el
enrutamiento (ruta única) en el período t. Deje que las tasas de
equilibrio x (t) Dx (R (t)) y los precios λ (t) D λ (R (t)) generados por
TCP-AQM en el período t, respectivamente, sean las soluciones
primarias y duales óptimas

 Control de la congestión y asignación de recursos físicos.


Considere una red inalámbrica de múltiples tiendas con una topología
lógica establecida representada por R o equivalentemente fS (l) g; 8l,
donde algunos nodos son fuentes de transmisión y algunos nodos
actúan como nodos de retransmisión. Según el NÚMERO básico de la
ecuación (10.1), observamos que en una red inalámbrica con
interferencia limitada, las velocidades de datos que se pueden obtener
en los enlaces inalámbricos no son números fijos c como en la
ecuación (10.1), y pueden escribirse como funciones del vector de
potencia de transmisión P como cl (P) D log [1CKSIRl (P)] = T; 8l,
donde T es el período del símbolo, que se supondrá que es una
unidad, y KD constante [1 = log (2BER)], con 1 y 2 son constantes
dependiendo de la modulación y BER la tasa de error de bit requerida.
La relación señal-interferencia para el enlace l se define como SIRl (P)
D PlGll = (k6Dl PkGlk Cnl) para un conjunto dado de pérdidas de ruta
Glk. Los factores TheGlk incorporan pérdida de propagación, ganancia
de propagación y otras constantes de normalización. Observe que Gll
es mucho más grande que Glk; k 6Dl, y suponiendo que no se
transmiten demasiados nodos cercanos al mismo tiempo, KSIR es
mucho más grande que 1. En este régimen de SIR alta, cl puede
aproximarse como log [KSIRl (PAGS)]. Con los supuestos anteriores,
el NUM generalizado con capacidades de enlace "elástico" se
convierte en

donde las variables de optimización son tanto las tasas de fuente x


como las potencias de transmisión P. La diferencia clave del problema
(10.4) es que cada capacidad de enlace cl ahora es una función de las
nuevas variables de optimización: las potencias de transmisión P. El
espacio de diseño se amplía desde x tanto a x como a P, que ahora
están acoplados en el problema (10.30). Las restricciones de flujo
lineal en x se convierten en restricciones no lineales en (x, P). En la
práctica, el problema (10.30) también está limitado por las potencias de
transmisión máximas y mínimas permitidas en cada transmisor en el
enlace l: Pl; min Pl Pl; max; 8l.
Los principales desafíos son las dos dependencias globales en el
problema (10.30) Las tasas de origen xy las capacidades de enlace c
están globalmente acopladas a través de la red, como se refleja en el
rango de suma fs 2 S (l) g en las restricciones en (10.30). Además,
cada capacidad de enlace cl (P), en términos de la velocidad de datos
alcanzable bajo un vector de potencia dado, es una función global de
todas las potencias interferentes. En la continuación, nos enfocamos
en el precio basado en el retraso y una actualización de la ventana
TCP Vegas, y la correspondiente maximización de la utilidad
logarítmica sobre (x, P), donde Þs es un parámetro constante en TCP
Vegas:

 Congestión y control de contención.


El problema NUM para MAC y TCP basados en acceso aleatorio
puede formularse como la siguiente optimización sobre (x, P, p):

Este es un problema de optimización convexo después de un


cambio de registro de variablesfpl; Paquete Su solución ahora
puede llevarse a cabo de manera distributiva utilizando el enfoque
de función de penalización o el enfoque de relajación lagrangiana
basado en la descomposición dual. Ambos tienen propiedades de
convergencia estándar, pero ahora producen diferentes
implicaciones para la escala de tiempo de la interacción TCP /
MAC. Comenzamos con el enfoque de la función de penalización
definiendo
 Control de la congestión, enrutamiento y programación.
Considere una red inalámbrica ad hoc con un conjunto N de nodos y
un conjunto L de enlaces lógicos. Se asume una forma de control de
potencia para que cada enlace lógico l tenga una capacidad fija cl
cuando esté activo. La región de velocidad factible en la capa de
enlace es el casco convexo de los vectores de velocidad
correspondientes de conjuntos independientes del gráfico de conflicto.
Para la región de velocidad factible, la velocidad de flujoxk i generada
en el nodo i para el destino k, cuando hay una cola para cada destino k
en cada enlace (i; j), es la cantidad de capacidad de enlace (i; j)
asignada a los fl ujos en ese enlace para un destino final k; f k ij.
Considere el siguiente NUM generalizado en variables xs ½0; f k ij ½0:

donde xs es una abreviatura de xk i. La primera restricción es una


ecuación de equilibrio de flujo: el flujo originado desde el nodo i para el
destino final k más la capacidad total asignada para los flujos de
tránsito a través del nodo i para el destino final k no debe ser más que
la capacidad total que sale del nodo i para el destino final k. La
segunda restricción está en la capacidad de planificación. El doble
problema de (10.45) se descompone en minimizar la suma de los
valores resultantes de los siguientes dos subproblemas

El primer subproblema es el control de congestión, donde ½s es el


precio de congestión local en la fuente s D (i; k). El segundo
subproblema corresponde a un problema conjunto de enrutamiento de
múltiples rutas y asignación de capacidades de enlace. Por lo tanto,
por descomposición dual, el problema de optimización de flujo se
descompone en problemas de optimización local separados que
interactúan a través de los precios de congestión

3.7. Métodos de descomposición.


Comenzamos con la descomposición primaria y doble para
desacoplar las restricciones, luego la fijación de precios de
coherencia para desacoplar la función objetivo y finalmente las
descomposiciones alternativas

 Desacoplo de las restricciones acopladas.

Como se ilustra en la figura 10.5, los métodos de descomposición


primarios tienen la interpretación de que el problema maestro da
directamente a cada subproblema una cantidad de recursos que puede usar;
El papel del problema maestro es, entonces, asignar los recursos existentes
adecuadamente.

En terminología de ingeniería informática, el problema principal adapta la


división de recursos entre las demandas en competencia. En los métodos de
descomposición dual, el problema principal establece el precio de los
recursos para cada subproblema que tiene que decidir la cantidad de
recursos que se utilizarán en función de los precios.

El papel del problema principal es obtener la mejor estrategia de precios. En


muchos casos, es preferible resolver el problema maestro de forma
distributiva a través del envío de mensajes, que puede ser total o global,
implícito o explícito.

En resumen, el mecanismo de ingeniería que se da cuenta de la


descomposición dual es la retroalimentación de precios, mientras que la
comprensión de la descomposición primaria es el corte adaptativo.

En general, la terminología de "primal-dual" tiene varios significados


diferentes. Por ejemplo, el 'método de punto interior dual primario' es una
clase de algoritmos para el cálculo centralizado de un óptimo para la
optimización convexa y el 'algoritmo distribuido dual primario' a veces se usa
para describir cualquier algoritmo que resuelva los problemas primarios y
duales simultaneamente.
 Acoplamiento de restricciones.

No todas las restricciones de acoplamiento se pueden descomponer


fácilmente mediante descomposiciones primarias o duales. Por ejemplo, el
conjunto de factibilidad de SIR en los problemas de control de potencia de la
red celular inalámbrica está acoplado de una manera que no tiene una
estructura de descomposición evidente. Se requiere una reparametrización
del conjunto de restricciones antes de la descomposición dual. A veces, el
acoplamiento es invariable en el tiempo, como en más redes de acceso de
banda ancha, y se puede usar un precio estático muy eficiente para
desacoplar dicho ‘acoplamiento estático

 Descomposiciones alternativas.

Una de las técnicas que conducen a alternativas de arquitecturas


distribuidas es aplicar descomposiciones primarias y duales de forma
recursiva, como se ilustra en la figura 10.6.

Las descomposiciones básicas se aplican repetidamente a un problema para


obtener subproblemas cada vez más pequeños. Por ejemplo, considere el
siguiente problema sobre y, fxig, que incluye una variable de acoplamiento y
una restricción de acoplamiento:

Este problema puede descomponerse tomando primero una


descomposición primaria con respecto a la variable de acoplamiento y y luego
una descomposición dual con respecto a la restricción de acoplamiento i hi
(xi) c. Un enfoque alternativo sería primero tomar una descomposición dual y
luego una primitiva. Otro ejemplo que muestra la flexibilidad en términos de
diferentes descomposiciones es el siguiente problema con dos conjuntos de
restricciones:

Una forma de lidiar con este problema es a través del problema dual con una
relajación total de ambos conjuntos de restricciones para obtener la función
dual g (λ; μ). En este punto, en lugar de minimizar g directamente con
respecto a λ y μ, se puede minimizar en un solo conjunto de multiplicadores
de Lagrange primero y luego en el resto: minλminμg (λ; μ). Este enfoque
corresponde a la primera aplicación de una descomposición dual completa y
luego a una primitiva sobre el problema dual.

3.8. Optimización de la tasa de asignación distribuida.

En la mayoría de las investigaciones recientes sobre la asignación


de tarifas de red, es común suponer que los flujos de tráfico son
elásticos, lo que significa que tienen funciones de utilidad cóncavas
y continuas. Estos supuestos críticos conducen a la posibilidad de
trazabilidad de los modelos analíticos para la asignación de tasas
en función de la maximización de la utilidad de la red, discutida
hasta ahora en este capítulo, pero también limitan la aplicabilidad
de los protocolos de asignación de tasas resultantes.

Hay dos formas comunes de modelar la función de utilidad de


tráfico inelástica: una función de utilidad no cóncava basada en el
modelo de percepción del usuario (por ejemplo, utilidad sigmoidal
para el tráfico de voz basado en puntajes MOS) o una función de
utilidad discontinua basada en el modelo donde se alcanzan los fl
ujos en tiempo real utilidad cero si la tasa está por debajo de un
umbral y una utilidad positiva constante (o utilidad creciente
cóncava) por encima del umbral.

Si eliminamos la suposición crítica de que fUsg son funciones


cóncavas y permitimos que sean funciones no lineales, el problema
de optimización resultante se vuelve no convexo y
significativamente más difícil de analizar y resolver, incluso por
métodos computacionales centralizados. En particular, un óptimo
local puede no ser un óptimo global y la brecha de dualidad puede
ser estrictamente positiva. Los algoritmos distributivos estándar que
resuelven el problema dual pueden producir una asignación de tasa
inviable o subóptima

3.9. Optimización no convexa.


En esta sección, discutimos un esquema óptimo de control de
congestión y contención conjunta que maximiza el rendimiento de
la red y al mismo tiempo proporciona QoS de extremo a extremo
para el tráfico multimedia.

 Modelo del sistema.


Consideramos una red de malla inalámbrica (WMN) con topología que
consiste en un conjunto de fuentes S que se comunican a través de enlaces
inalámbricos de 2 L. Denotamos la velocidad de flujo de cada fuente s como
xs. Algunos fl ujos se transmiten a través de múltiples saltos, mientras que
otros usan un solo salto. Queremos determinar, para tal escenario de
comunicación, los medios necesarios para que un flujo multimedia restringido
por retraso pueda ser soportado con éxito.

Para estos fines, definimos un parámetro al que determina la probabilidad de


acceso medio en el enlace l. Este parámetro puede interpretarse como la
probabilidad de que el enlace l capture el medio para la transmisión entre los
otros enlaces en conflicto dentro de una camarilla máxima n en el gráfico de
conflicto, donde L0 (n) denota el conjunto de enlaces en la camarilla n.
Definimos una matriz de con fl icto F con entradas fnl como

y dimensión N ðL, donde N y L denotan el número total de camarillas y


enlaces máximos en la red, respectivamente.

Para cada camarilla máxima n, la suma de las probabilidades de acceso


medio de los enlaces que están en conflicto debe satisfacer la desigualdad
l2L (n) fnlal "n, donde" n 2 [0; 1] denota la porción utilizable de un canal
después de excluir el efecto de colisiones; "n D1 corresponde al caso de una
programación perfecta donde no hay colisión. Para IEEE 802.11," n³0: 85 y
puede mantener el mismo valor para una gran cantidad de estaciones cuando
está listo para enviar / borrar para- Se utiliza el mecanismo de envío (RTS /
CTS).

Para modelar diferentes fuentes de retraso en la red, nos referimos al


ejemplo de 802.11 donde la DCF (función de coordinación distribuida) se
utiliza para compartir el canal de manera justa y resolver el problema de
colisión mediante la señalización RTS / CTS y la definición de una fase de
retroceso. El objetivo principal de la fase de retroceso es minimizar la
probabilidad de colisión, lo que sucede después de que el canal es liberado
por el nodo de captura y luego los nodos comienzan a competir para
capturarlo. En nuestro modelo de demora, utilizamos el algoritmo de
retroceso exponencial binario estándar (BEB), que selecciona el tiempo de
retroceso de una distribución geométrica con el parámetro p de un algoritmo
de persistencia p.

Un nodo m que intenta acceder al enlace l escucha continuamente (en un


sentido de portadora) el canal, excepto en el período en que captura el canal
para su transmisión. Durante la fase de escucha, al detectar el canal inactivo,
espera un período de I (DIFS o espacio entre tramas distribuido). Si ningún
otro nodo captura el canal durante el período I, el nodo m comienza la
transmisión y retiene el canal durante un tiempo de transmisión de paquetes
T. Si otro nodo captura el canal durante el DIFS del nodo m, el nodo m lo
envía nuevamente al canal y tan pronto como sea posible. detecta el canal
inactivo, comienza la fase de retroceso. El tiempo de retroceso se divide en
intervalos de duración 1 y se mide mediante un contador de intervalo de
retroceso, que inicialmente se establece en tiempo de retroceso = 1 y se
reduce en cada intervalo inactivo. Durante el período de retroceso, otro nodo
puede capturar el canal y luego el nodo m detiene la cuenta regresiva del
contador de retroceso hasta que el canal esté inactivo nuevamente. La
transmisión del nodo m comienza solo cuando el contador llega a cero y el
recuento promedio de intervalos de retroceso se da como (1 p) = p, donde el
período promedio de retroceso B (p) del algoritmo de persistencia p se
denota simplemente como B (p) D 1 (1 p) = p.

3.10. Optimización de la multidifusión por capas.

La transmisión por capas se refiere a la técnica en la que la


información se codifica en capas, y un subconjunto de estas capas
se envía a los receptores, según los requisitos del receptor, y la
congestión de la ruta desde la fuente hasta el receptor. La
multidifusión en capas es una forma de multidifusión múltiple, ya
que diferentes receptores en el mismo grupo de multidifusión
pueden recibir tráfico a diferentes velocidades.

Se prefiere la transmisión multicapa cuando los receptores del


mismo grupo de multidifusión tienen características diferentes.
Típicamente, las transmisiones multicapa se logran mediante la
codificación jerárquica de señales en tiempo real. En este enfoque,
una señal se codifica en varias capas que se pueden combinar de
forma incremental para proporcionar un refinamiento progresivo. En
la multidifusión en capas, los receptores se adaptan a la congestión
agregando o soltando capas. Con la transmisión multicapa, la red
se puede utilizar de manera más eficiente y los receptores pueden
recibir datos más acordes con sus capacidades.

En la multidifusión en capas, las velocidades del receptor están


limitadas a tomar solo un conjunto de valores discretos, que están
determinados por los anchos de banda de la capa. En esta sección,
tomamos en cuenta tales restricciones y posproblema el control
óptimo del mínimo en un programa discreto / entero.
Desafortunadamente, incluso algunos casos especiales del
programa entero pueden ser NP-hard. Al abordar esta
programación entera directamente y utilizando una combinación de
relajación lagrangiana y programación dinámica en esta sección,
mostramos que es posible lograr tasas que están muy cerca de lo
óptimo, sin hacer la aproximación de que las frecuencias del
receptor toman un conjunto continuo de valores.

3.11. Optimización de la QoS. Optimización de la red. Control de la


potencia.

Los problemas y las metodologías cubiertas en las Secciones


10.6 y 10.7 se combinan en esta sección para discutir las
compensaciones de retraso por la programación óptima de la
utilidad en una red general con canales que varían en el tiempo, lo
que implica una programación dinámica.

 Optimización de la red.

La programación geométrica (GP) pertenece a una clase de


problemas de optimización no lineales y no convexos que se han
utilizado para resolver una serie de problemas en las
comunicaciones inalámbricas debido a sus útiles propiedades
teóricas y computacionales. GP puede convertirse en un problema
de optimización convexa; por lo tanto, un óptimo local también es
un óptimo global, la brecha de dualidad de Lagrange es cero en
condiciones moderadas y un óptimo global siempre se puede
calcular de manera muy eficiente. Hay dos formas equivalentes de
GP: la forma estándar y la forma convexa. La primera es una
optimización restringida de un tipo de función llamada posinomial y
la segunda forma se obtiene de la primera a través de un cambio
logarítmico de variable.

 Control de la potencia.
En esta sección consideramos una red inalámbrica (celular o
multishop) con n pares lógicos de transmisor / receptor. Las potencias de
transmisión se denotan como P1; :::; Pn. En el caso del enlace ascendente
celular, todos los receptores lógicos residen en la estación base. En el caso
de múltiples tiendas, dado que el entorno de transmisión puede ser diferente
en los enlaces que comprenden una ruta de extremo a extremo, los
esquemas de control de potencia deben considerar cada enlace a lo largo de
la ruta de un fl ujo.
En el desvanecimiento de Rayleigh, la potencia recibida del transmisor j en
el receptor i viene dada por Gij Fij Pj, donde Gij ½ 0 representa la ganancia
del camino. También puede incluir la ganancia de antena y la ganancia de
codificación. A menudo, Gij se modela para ser proporcional a d ij, donde
denota distancia, es el factor de caída de potencia y el desvanecimiento de
Rayleigh del modelo de Fij y son independientes y se distribuyen
exponencialmente con la media de la unidad. La distribución de la potencia
recibida del transmisor j en el receptor i es entonces exponencial con el valor
medio E [Gij Fij Pj] D Gij Pj. El SIR para el receptor en el enlace lógico i es

4. SEGURIDAD

Un componente necesario de la seguridad de la red es la capacidad de


autenticar de manera confiable a los socios de comunicación y otras entidades
de la red. Por esta razón, comenzaremos este capítulo discutiendo los
protocolos de autenticación [1–19]. La atención se centrará en un enfoque
sistemático para el diseño de los protocolos en lugar de describir un protocolo
específico utilizado en la práctica. La siguiente sesión discutirá las arquitecturas
de seguridad. Los principios de distribución de claves se tratarán en la tercera
sección, seguida de algunas soluciones específicas en redes ad hoc, redes de
sensores, sistemas GSM y UMTS.

4.1. Autenticación.
Muchos diseños relacionados con la autenticación en redes o sistemas
distribuidos combinan los problemas de autenticación con los de distribución
de claves. Estos diseños generalmente suponen que todas las partes de la
red comparten una clave con una entidad de confianza común, un centro de
distribución de claves (KDC), desde el cual pueden obtener claves
compartidas por pares para llevar a cabo protocolos de autenticación mutua.
Estos protocolos se denominan protocolos de autenticación de tres partes y
se han estudiado ampliamente [5, 6, 10–12, 15, 16]. La mayoría de las
implementaciones correspondientes [10] requieren el intercambio de
mensajes largos, lo cual es posible para los protocolos de capa de aplicación,
pero los hace inadecuados para su uso en protocolos de red de capa inferior
donde los tamaños de paquetes limitados son una consideración importante.
Algunos requieren relojes o contadores sincronizados que plantean
problemas de administración del sistema y de inicialización, como se discutirá
a continuación.

Los protocolos de autenticación de dos partes se utilizan en muchas redes.


Algunos de estos usan criptografía de clave pública [1–3, 18]. Con un sistema
criptográfico de clave pública, cada parte solo tiene que conocer y verificar la
clave pública de la otra parte, y no hay necesidad de compartir claves
secretas. El método de autenticación más utilizado en los entornos de red
hoy en día consiste en pedirles a los usuarios que demuestren su identidad
demostrando el conocimiento de un secreto que conocen, una contraseña.
Esta técnica generalizada pero antigua tiene varias debilidades.

Ataques sobre autenticación criptográfica simple.


El protocolo de autenticación bidireccional simple ilustrado en la Figura
15.1 (d) tiene varios defectos

Protocolo canónico de autenticación.


Se han desarrollado varios protocolos que cumplen los requisitos
anteriores [13, 14]. Algunos de estos protocolos se resumen en la Figura
15.7. Dado que la atención se centra en los protocolos de autenticación que
usan nonces, la forma canónica más general para todos estos protocolos se
muestra en la Figura 15.7 (P1). Aquí, A envía algo de nonce N1 toB: B se
autentica enviando una función u () de varios parámetros, incluyendo al
menos su secreto K1 y el desafío N1 que recibió de A: también envía un
desafío N2 aA. A finalmente completa el protocolo al autenticarse con una
función v () de varios parámetros que incluyen al menos su secreto K2 y el
desafío N2 de B: Como se indicó en la sección anterior sobre ataques, para
que este protocolo resista los ataques de oráculo, el Las funciones u () yv ()
deben ser diferentes entre sí, lo que significa que un mensaje criptográfico de
fl ujo (2) nunca puede usarse para derivar el mensaje necesario para fl ujo
(3).

Los protocolos deben trabajar con cualquiera de los sistemas criptográficos


simétricos o asimétricos. Con este último, los secretos K1 andK2 serían las
claves privadas de B y A; respectivamente. Sin embargo, con sistemas
simétricos, K1 y K2 serían claves secretas compartidas. De hecho, en
muchos escenarios típicos, serían la misma clave secreta compartida. En la
secuela continuaremos bajo esa suposición porque abre la puerta a ataques
que de otra manera no serían posibles, pero tiene ventajas de eficiencia y
facilidad de migración de sistemas existentes sobre soluciones que usan
diferentes claves para A y B: Cualquier protocolo que resiste ataques
intercalados usando claves simétricas iguales también es seguro con los
asimétricos, mientras que lo contrario no es cierto.

También podría gustarte