Documentos de Académico
Documentos de Profesional
Documentos de Cultura
El presente capı́tulo describe los conceptos básicos que se sugieren revisar para contextualizarse
con la sı́ntesis de secuencias discretas multifractales que exhiben dependencia de rango largo. Ini-
cialmente se retoma la definición de Mandelbrot de lo que son conjuntos fractales y se describen
algunas de sus caracterı́sticas más relevantes: autosimilitud, invarianza en la escala y dimensión
fractal. Más adelante se presenta la autosimilitud de segundo orden y su relación con la dependen-
cia de rango largo (LRD). Seguidamente, se expone el modelo wavelet multifractal y su relación
directa con una cascada conservativa binomial. El capı́tulo concluye con la descripción de las ca-
racterı́sticas de los coeficientes multiplicadores de las cascadas multiplicativas que permiten ajustar
el parámetro de Hurst en las secuencias discretas multifractales.
1. Introducción
La primera vez que escuché hablar de los fractales, vino a mi mente, por alguna razón que desco-
nozco, los vitrales que adornan la mayorı́a de iglesias adscritas a la fe católica. Tal vez la palabra
me sonaba parecido, o tal vez los colores y formas que luego verı́a en los conjuntos fractales se me
parecı́an al arte recién mencionado. Varios años han pasado, y desde esa idea vaga, he tenido que
revisar los conceptos de autosemejanza, dimensión fractal, parámetro de Hurst, dependencia de
rango largo y multifractales, entre muchos otros.
Además, durante el camino recorrido, me asombré con las enormes similitudes del modelo ma-
temático subyacente y nuestra realidad: la forma de los árboles, el recorrido que hace un relámpago
en el cielo y la increı́ble distribución del sistema circulatorio, por ejemplo, comenzaron a entretejer
en mi mente la inquietud de cómo la evolución de nuestra naturaleza tenı́a implı́cito un increı́ble
tinte de optimización, evolución, belleza y complejidad.
No he visto el fin del camino y lo he transitado cual artista encaramado en zancos de gigante: quién
solo pisa lo que su andar le permite. Sin embargo, la curiosidad sigue, los conceptos se revisan y se
pulen, y las aplicaciones de los multifractales siguen apareciendo, como diciendo que las similitudes
no son un mera coincidencia y nada más.
2. Conjuntos fractales
Aunque Benoit Mandelbrot no fue el primero, si es reconocido como el cientı́fico que identificó,
estudió y divulgó la necesidad de proponer una geometrı́a diferente y más compleja a la euclidiana
para describir los fenómenos de la naturaleza (Frame y Cohen, 2015). En efecto, la forma de los
árboles, la estructura de los tejidos orgánicos, la complejidad de los sistemas circulatorio y nervioso;
muestran que la naturaleza presenta una geometrı́a diferente, irregular y de mayor complejidad
(Mandelbrot, 1982).
A partir del trabajo de Mandelbrot (1982), la comunidad académica y cientı́fica se ha volcado con
cierto interés hacia los fractales: aquellos objetos matemáticos que describió Mandelbrot como irre-
gulares, autosimilares, invariantes en la escala y que tienen una dimensión mayor a la topológica.
Los matemáticos empezaron a navegar por imaginarios paradójicos de objetos de área finita con
contorno infinito; por objetos que se repiten a si mismos en todas escalas; por conjuntos de números
descritos con algoritmos iterativos (Falconer, 1990; Flake, 1998b). Por su parte, los ingenieros en-
contraron un puente para solucionar problemas de la vida real inspirándose en la naturaleza: desde
antenas de banda ancha con geometrı́a fractal, hasta algoritmos bioinspirados (Kumar, Arjunan,
y Aliahmad, 2017; Alzate, Obregón, y Peñaranda, 2012; Frame y Cohen, 2015). De igual manera,
los biólogos y los médicos no se han escapado de curiosear con la geometrı́a fractal (Di Leva, 2016;
Haidekker, 2011; Frame y Cohen, 2015). ¿Cómo no hacerlo, cuándo se aprecia la forma de un riñón,
la estructura de los alveólos o la estructura de la corteza cerebral? Cuando se estudian los conjun-
tos fractales, es difı́cil dejar de pensar que están en todos lados. Y ası́ es, en la literatura cientı́fica
se pueden encontrar estudios que afirman la sospecha: fractales en tejidos, señales biomédicas con
dimensión fraccionaria, imágenes biomédicas con contornos irregulares (Haidekker, 2011).
Es por esto que en esta sección se presentan los aspectos más relevantes de la geometrı́a fractal.
Inicialmente, se retoma la definición del término fractal, acuñado por Mandelbrot, para luego
resaltar el concepto de dimensión fractal y culminar en la descripción de las caracterı́sticas de los
conjuntos fractales. Adicionalmente, en esta sección se expone el concepto de autosimilitud, que
se requiere para estudiar las secciones siguientes.
Parece ser que los fractales no son un invento moderno, ni mucho menos del siglo pasado (aunque
al verlos por primera vez parezcan novedosos); sin embargo, y sin demeritar el enorme aporte de
los diferentes cientı́ficos, hechos siglos atrás, es de reconocer que Benoit Mandelbrot fue el que
empezó a formalizar los conceptos como se merecen. De hecho, en su libro: ✭✭The fractal Geometry
of Nature✮✮, Mandelbrot (1982) se autoproclama el creador de la palabra fractal.
Según Mandelbrot (1982) la palabra la derivó del adjetivo latino fractus con el objetivo que signi-
ficara tanto irregular como fragmentado (o que está roto en pedazos) y él resalta que la pronun-
ciación adecuada es /’frakt(@)l/, con el stress en la penúltima sı́laba. Mandelbrot (1982) continúa
su presentación de la palabra, afirmando que: un fractal es, por definición, un conjunto
cuya dimensión de Hausdorff - Besicovitch, D, excede estrictamente a la dimensión
topológica, DT . ¿Cuáles son esas dos dimensiones? Y luego: ¿las dimensiones que se estudian en
los cursos básicos de matemáticas no son las únicas?
Se comenzará respondiendo el segundo de estos interrogantes: no, no lo son. Basta con reconocer
que los conceptos asociados a la dimensión, que se estudian en los cursos de primaria y básica
secundaria, no superan los primeros minutos de presentación de un curso de Topologı́a, en un
programa de pregrado en Matemáticas, para darse cuenta de que la abstracción debe ir más allá
de las dos, o tres dimensiones, que parecen naturales para la mayorı́a.
De hecho, ese es el primer obstáculo: confundir la dimensión fractal con la topológica. Parece
imposible no pensar en cómo serı́a un objeto en 2.5 dimensiones o en 1.8, cuándo se define la
dimensión (topológica) como un mero número de coordenadas. La realidad es que son conceptos
diferentes. Por ejemplo, todas las imágenes de conjuntos fractales que se presentan en el presente
capı́tulo podrı́an conformarse por: una nube de puntos, de dimensión topológica 0 o una colección
de segmentos de recta, de dimensión topológica 1. En ambos casos la dimensión de Hausdorff, de
los mismos conjuntos, será diferente a la topológica. Una vez más, las dimensiones topológicas y
de Hausdorff - Besicovitch, no son las mismas y no representan lo mismo, aunque se comparen sus
magnitudes para definir a los conjuntos fractales.
Para comenzar a responder la primera de las preguntas planteadas en la sección 2.1, se utilizará el
conjunto fractal conocido como triángulo de Sierpinski. En la Figura 1 se muestran las primeras
tres iteraciones de uno de los algoritmos que permiten llevar al conjunto mencionado.
Tabla 1: Escala y cantidad de objetos congruentes, para cada iteración del algoritmo de Sierpinski
Estas dos variables: cantidad de objetos congruentes y escala, son las que se utilizan para definir
la dimensión fractal. Formalmente, la dimensión de Hausdorff - Besicovitch, o dimensión fractal,
es el exponente de la ley de potencias expresada en (1).
1
N= (1)
sD
Por lo tanto, se puede definir la dimensión fractal con la expresión (2):
log N
D=− = − logs (N) (2)
log s
En el caso del triángulo de Sierpinski, para cualquier iteración del algoritmo, la dimensión Hausdorff
- Besicovitch es D = log2 (3) ≈ 1,5849. Ahora bien, con respecto a la dimensión topológica DT , en
el lı́mite, cuando el número de iteraciones tiende a infinito, el objeto estará conformado por una
nube de puntos, tal que el área total sea igual a cero, al igual que su dimensión topológica. En este
orden de ideas, y de acuerdo con la definición establecida por Mandelbrot (1982), la forma lı́mite
del triángulo de Sierpinski es un conjunto fractal. En la Figura 2 se muestra una aproximación al
fractal recién expuesto.
Muchos de los conjuntos fractales que se estudian en la literatura, se pueden obtener por medio
de los sistemas de Lindenmayer o L-systems (Flake, 1998c). En los L-systems se parte de una
axioma, sobre el que se aplican unas reglas de producción de forma iterativa, de manera similar
a como se construyó el triángulo de Sierpinski de la sección 2.2. Por ejemplo, en la Figura 3 se
muestran las primeras cuatro iteraciones que llevan al conjunto fractal de D = log3 (5) ≈ 1,465 y
DT = 1, considerando los datos consignados en la tabla 2. En este caso el axioma es un segmento
de recta (F ) y la regla de producción se puede apreciar en la primera iteración del algoritmo
(F 7→ F − F + F + F − F , ángulo = 90◦ ). En concreto, F indica avanzar y los signos más y menos,
que se debe girar, el ángulo indicado, en sentido horario y antihorario, respectivamente.
Tabla 2: Escala y cantidad de objetos congruentes, para cada iteración mostrada en la Figura 3
De manera similar, en la Figura 4 se muestran las primeras cuatro iteraciones del sistema de
Lindenmayer con axioma (F −−F −−F , ángulo = 60◦ ) y regla de producción (F 7→ F −F ++F −F ,
ángulo = 60◦ ). Además, en la tabla 3, se resumen los valores que permiten calcular la dimensión
D = log3 (4) ≈ 1,2619 del conjunto fractal en cuestión. Nótese que para este caso, la cantidad de
objetos congruentes, en la primera iteración, es equivalente a la cantidad de efes encontradas en la
regla de producción; mientras que la escala se obtiene relacionando la longitud de cada segmento
congruente de la primera iteración, con la longitud del segmento semejante del axioma.
Tabla 3: Escala y cantidad de objetos congruentes, para cada iteración mostrada en la Figura 4
En los diferentes ejemplos presentados en las secciones 2.2 y 2.3, se pueden identificar tres carac-
terı́sticas propias de los conjuntos fractales: dimensión de Hausdorff no entera, invarianza
en la escala y autosimilitud. La primera caracterı́stica es necesaria para diferenciar la geometrı́a
fractal de la euclidiana. En efecto, un triángulo o un cuadrado tienen la misma dimensión fractal
que su dimensión topológica (D = DT = 2), puesto que cualquiera de ellos se puede dividir en n2
objetos congruentes y semejantes al objeto original para una escala correspondiente de 1/n. De
manera similar, un tetraedro o un cubo se pueden dividir en n3 objetos congruentes y semejantes
al objeto original, para la escala 1/n; conduciendo a que D = DT = 3. De esta manera, el hecho
que la dimensión de Hausdorff no sea entera (fraccional) es una caracterı́stica distintiva de los
conjuntos fractales (Mandelbrot, 1982).
Finalmente, es de destacar que los fractales podrı́an ofrecer dos caracterı́sticas adicionales y bas-
tante llamativas: emergencia y optimización. La emergencia, caracterı́stica de los sistemas
complejos, se podrı́a presentar en la medida que se presente algún grado de interacción de los com-
ponentes básicos que conformen el conjunto fractal, como la que se presenta en el sistema nervioso
y que permite movimientos, reacciones y sensaciones de dolor y de placer. De igual manera, la
optimización parece estar implı́cita en la naturaleza fractal: los relámpagos describen un fractal
natural, a la vez que muestran los caminos de menor resistencia; de forma análoga, la compleja es-
tructura del sistema circulatorio describe otro fractal, que asegura el transporte óptimo de oxı́geno
y nutrientes a cada célula del cuerpo humano, con el menor gasto de energı́a.
La autosimilitud exacta es muy restrictiva para fines prácticos. A diferencia de las abstracciones
matemáticas de los conjuntos expuestos en la sección 2, en la naturaleza es imposible la existencia
de infinitas escalas de observación y D podrı́a ser ligeramente distinto en cada una de ellas. Los
helechos, por ejemplo, se parecen a si mismos en unas cuantas escalas de observación (desde la
escala del helecho entero, pasando por las escalas de las ramas, hasta llegar a la escala de las hojas).
En este caso se suele hablar de autosimilitud aproximada.
La autosimilitud estocástica, por su parte, se presenta cuando las caracterı́sticas estadı́sticas se
mantienen invariantes en la escala. Para medir la autosimilitud estocástica se pueden utilizar las
estadı́sticas de segundo orden (Park y Willinger, 2000), como se mostrará en las secciones 3.1 y
3.2.
mi
1 X
X (m) [i] = X[k] (3)
m
k=m(i−1)+1
2 h
σX i
γ[k] = (k + 1)2H − 2k 2H + (k − 1)2H (4)
2
Además, X es asintóticamente autosimilar de segundo orden si:
2 h
m σX 2H 2H 2H
i
lı́m γ [k] = (k + 1) − 2k + (k − 1) (5)
m→∞ 2
Nótese que cuando H = 0,5, las funciones de autocovarianza mostradas en (4) y (5) se hacen iguales
a cero y por lo tanto, los valores de X (o X (m) ) no estarı́an correlacionados. Esta situación ocurre
en las secuencias discretas de valores independientes, como los vectores aleatorios que se pueden
generar con el método de la inversa. Por otra parte, cuando H = 1, la función de autocovarianza
es igual a la varianza de X, llevando a un caso bastante particular. En este orden de ideas, el
caso interesante es 0,5 < H < 1 que implica la dependencia de rango largo (LRD) (Park y
Willinger, 2000). Además, si el proceso X[k] es exacta o ası́ntóticamente autosimilar, la varianza
muestral del proceso agregado es (6).
2 2 2H−2
SX (m) = σX m , 0,5 ≤ H < 1 (6)
Nótese el parecido de la estructura de la ecuación (6) con la de la dimensión Hausdorff (2). Ambas
expresiones se describen con una ley de potencias, en donde N se podrı́a relacionar con las varianzas
2
muestrales: SX (m) ; la escala s, se puede relacionar con el nivel de agregación m; y la dimensión
fractal D, con el exponente 2H −2. En este orden de ideas, el parámetro de Hurst se puede entender
como una medida de la dimensión fractal de la serie de tiempo X[k] y la dependencia de rango
largo es análoga a la condición pruesta por Mandelbrot (1982) (D > DT , en un conjunto fractal;
H > 0,5, en LRD).
2 2
log SX (m) = log σX + (2H − 2) log m (7)
2
De (7) se puede inferir que la gráfica de y = log SX (m) contra x = log m, es una lı́nea recta de
pendiente 2H − 2 y que el parámetro de Hurst se puede estimar por medio de una regresión lineal
simple. A dicha gráfica se le conoce en la literatura como el diagrama varianza - tiempo (Sheluhin
y cols., 2007).
De acuerdo con el análisis presentado en la sección 3.1, el diagrama varianza tiempo, permitirı́a de-
tectar la dependencia de rango largo en series de tiempo, por medio de la estimación del parámetro
de Hurst: H. En concreto, si H = 0,5, X[k] es completamente no correlacionado, o con dependen-
cia de rango corto (SRD); en cambio, si 0,5 < H < 1, X[k] presenta dependencia de rango largo
(LRD).
Por ejemplo, en la Figura 8 se muestra el diagrama varianza tiempo de una secuencia discreta
aleatoria obtenida con el método de la inversa. Todos los datos de la secuencia son exponencial-
mente distribuidos e independientes y en consecuencia, se justifica que H = 0,5. En contraste,
en la Figura 9 se muestra el diagrama varianza tiempo para una secuencia discreta obtenida de
los tiempos entre arribos consecutivos de los paquetes recibidos en los laboratorios de Bellcore
(SIGCOMM, 2008). En este caso se detecta la dependencia de rango largo en los datos reales.
3.3. Multifractales
La transformada wavelet discreta representa una señal real X(t) en términos de versiones despla-
zadas y dilatadas de una función wavelet pasabanda, ψ(t), y versiones dilatadas de una función de
escala pasabajos φ(t) (Daubechies, 1992). Para selecciones especiales de las funciones wavelet y de
escala, las expresiones (8) y (9), forman una base ortonormal (Daubechies, 1992):
j
ψj,k := 2 2 ψj,k 2j t − k
j, k ∈ Z (8)
j
φj,k := 2 2 φj,k 2j t − k
j, k ∈ Z (9)
X ∞ X
X
X(t) = UJ0 ,k φJ0 ,k (t) + Wj,k ψJ0 ,k (t) (10)
k j=J0 k
En donde:
Z
Wj,k := X(t)ψj,k (t)dt (11)
Z
Uj,k := X(t)φj,k (t)dt (12)
Para una wavelet ψ(t) centrada en el instante de tiempo cero y frecuencia f0 , el coeficiente wavelet
Wj,k mide el contenido de la señal alrededor del tiempo 2−j k y frecuencia 2j f0 . El coeficiente de
escala Uj,k mide la media local alrededor del tiempo 2−j k. En la transformada wavelet, j indexa
la escala de análisis: J0 indica la escala más amplia (la resolución más baja del análisis), y valores
de j superiores a J0 corresponde a mayores resoluciones del análisis (R. Riedi y cols., 1999).
En la práctica se trabaja con una señal en tiempo discreto X (n) [k] que aproxima a la señal X(t) a
la resolución 2−n . En este caso, se reemplaza la suma semi-infinita de (10) con una suma sobre el
número finito de escalas j = 0, 1, 2, . . . , n − 1. Para la wavelet de Haar, los coeficientes de escala y
wavelet pueden calcularse recursivamente con las expresiones (13) y (14) (R. Riedi y cols., 1999):
1
Uj,k = 2− 2 (Uj+1,2k + Uj+1,2k+1 ) (13)
1
Wj,k = 2− 2 (Uj+1,2k − Uj+1,2k+1 ) (14)
1
Uj+1,2k = 2− 2 (Uj,k + Wj,k ) (15)
1
Uj+1,2k+1 = 2− 2 (Uj,k − Wj,k ) (16)
En este orden de ideas, la secuencia discreta X (n) [k], se puede representar en términos de los
coeficientes de escala (R. Riedi y cols., 1999) dados en (17).
n
X (n) [k] = 2− 2 Un,k k = 0, 1, 2, . . . , 2n − 1 (17)
Por último, es de aclarar que la secuencia discreta X (n) [k] es positiva, si y sólo si se cumple la
condición (18).
El MWM puede interpretarse por medio de la sı́ntesis descrita en lo siguientes pasos (R. Riedi y
cols., 1999):
2. En la escala j, se generan los multiplicadores aleatorios Aj,k y se calculan los Wj,k con la
expresión (19), para k = 0, 1, 2, . . . , 2j − 1.
3. En la escala j, se utilizan los Aj,k y los Wj,k para calcular los coeficientes de la escala j + 1:
Uj+1,2k y Uj+1,2k+1 para k = 0, 1, 2, . . . , 2j − 1.
4. Se iteran los pasos 2 y 3, reemplazando j por j + 1, hasta alcanzar la escala más fina, j = n.
Nótese que al reemplazar (19) en (15) y (16), se pueden combinar los pasos 2 y 3 para obtener la
expresiones (20) y (21).
1 + Aj,k
Uj+1,2k = √ Uj,k (20)
2
1 − Aj,k
Uj+1,2k+1 = √ Uj,k (21)
2
La implementación del MWM se puede simplificar al considerar que los multiplicadores Aj,k , se
pueden expresar en términos de los coeficientes dados en (22):
En (22) los coeficientes Bj,k = p, son variables aleatorias idénticamente distribuı́das, que toman
valores en el intervalo [0, 1] y son simétricas con respecto a 0.5. Luego la media de Bj,k , es E[Bj,k ] =
0,5.
Finalmente, el algoritmo se puede describir de la siguiente forma: Se comienza en la escala 0 con
el valor U (U0,0 ). En la siguiente escala, esta cantidad se distribuye en dos intervalos de acuerdo al
valor de p y su complemento. A continuación, en la tercera escala, cada uno de estos dos valores
se distribuyen en otros dos; cada pareja con un p distinto. El proceso de distribución continúa
hasta la escala n, en donde se tendrán 2n intervalos con fracciones del U inicial. De acuerdo a los
valores de p (y 1 − p), algunos intervalos tendrán valores cercanos a cero, ası́ como otros cercanos a
U0,0 . De esta forma se consigue la alta variabilidad de los datos. Esta sı́ntesis del MWM se puede
identificar con la construcción de una cascada conservativa binomial (Contreras, Ospina, y Alzate,
2006; R. Riedi, 2009; R. Riedi y cols., 1999) como se ilustra en la figura 10.
U0,0 j=0
..
.
Figura 10: Sı́ntesis del MWM mediante una cascada conservativa binomial
En las secciones 4.3 y 4.4 se estableció que, para garantizar la generación de datos positivos
con caracterı́sticas multifractales, los coeficientes multiplicadores (p y 1 − p) deben ser variables
aleatorias, idénticamente distribuı́das, con media 0,5, que tomen valores en el intervalo [0,1]. Es de
resaltar que la distribución beta tiene las caracterı́sticas deseadas si los parámetros α y β se igualan.
En efecto, la distribución beta es una distribución de probabilidad continua, con dos parámetros,
α y β, cuya función de densidad de probabilidad, (23), es cero para cualquier valor real que no
pertenezca al intervalo (0, 1) (Canavos, 1998).
(
Γ(α+β) α−1
Γ(α)Γ(β)
x (1 − x)β−1 0 < x < 1, α, β > 0
fX (x; α, β) = (23)
0 x∈
/ (0, 1)
α 2 αβ
E[X] = σX = (24)
α+β (α + β + 1)(α + β)2
Cuando los parámetros α y β son iguales, la función de densidad de probabilidad beta es simétrica
con respecto a 0,5 y por lo tanto la media, dada en (24), toma el valor de 0,5. En (25) se muestra
la función de densidad de probabilidad beta simétrica con parámetro α = β y en la Figura 11 se
muestra la gráfica respectiva para β = {1, 2, 3, 4, 5}.
(
Γ(2β) β−1
Γ(β)2
x (1 − x)β−1 0 < x < 1, β>0
fX (x; β, β) = (25)
0 x∈
/ (0, 1)
1 2 1
E[X] = σX = (26)
2 4(2β + 1)
Nótese que puesto que Γ(2) = Γ(1) = 1, fX (x; 1, 1) es la misma función de densidad de probabilidad
uniforme continua, en el intervalo (0, 1).
R. Riedi y cols. (1999), proponen una función de densidad de probabilidad beta simétrica como
la expresada en (25), para los multiplicadores de los coeficientes wavelets (denominando ası́ al
modelo como βMWM). Ellos demuestran como es posible controlar el parámetro de Hurst cuando
se modifica el parámetro β de los multiplicadores. La relación propuesta por R. Riedi y cols. (1999),
se presenta en (27) y en la Figura 12 se muestra la gráfica respectiva para 0,51 ≤ H ≤ 0,99.
22H−1 − 1
β= 0,5 < H < 1 (27)
2 − 22H−1
Como se destacó al final de la sección 4.4, el MWM es equivalente a una cascada conservativa
binomial. Esta caracterı́stica facilita su implementación y permite generar trazas de datos (series
de tiempo) multifractales con LRD. Por ejemplo, considerando las restricciones planteadas en las
secciones 5.1 y 5.2, el algoritmo esbozado en la sección 4.4 se puede codificar en MATLAB® , como
se muestra a continuación:
En la Figura 13 se muestra una realización del βMWM, para n = 20, U0,0 = 1 y parámetro de
Hurst, H = 0,9.
A partir del trabajo realizado por R. Riedi y cols. (1999), López Chávez y Alzate (2012) diseñaron
un algoritmo para generar trazas sintéticas con LRD, media muestral y parámetro de Hurst mues-
tral dados (nominado por los autores como MFH). En el MFH se utilizó una cascada conservativa
binomial dentro de un algoritmo iterativo que garantiza las estadı́sticas muestrales requeridas.
Las trazas sintéticas obtenidas con MFH muestran un comportamiento multifractal, aunque no
capturan caracterı́sticas multifractales especı́ficas.
Continuando con la investigación, Tuberquia-David, Vela-Vargas, López-Chávez, y Hernández
(2016) desarrollaron un algoritmo para generar series de tiempo multifractales con parámetro
de Hurst y ancho del espectro multifractal, muestrales y ajustables, llamado MultiFractal Hurst
Spectrum Width (MFHSW). El algoritmo MFHSW se basa en el MFH y en el MWM para construir
las series de tiempo a través de una cascada multiplicativa binomial. La principal contribución del
algoritmo MFHSW es precisamente permitir el ajuste, tanto del parámetro de Hurst, como del an-
cho del espectro multifractal. Lo anterior se logró modificando apropiadamente las distribuciones
beta que conforman la cascada binomial.
Referencias
Alzate, M., Obregón, N., y Peñaranda, V. (2012). Derivas de Complejidad. Aplicaciones y Medi-
ciones. Bogotá, Colombia: Universidad del Rosario.
Canavos, G. (1998). Algunas Distribuciones Continuas de Probabilidad. En Probabilidad y es-
tadı́stica aplicaciones y métodos (pp. 130–184). México: McGraw-Hill.
Contreras, S., Ospina, G., y Alzate, M. (2006). Cascadas Conservadoras Aplicadas a la Predicción
de Tráfico Multifractal. Revista INGENIERÍA, 11 .
Daubechies, I. (1992). Discrete Wavelets Transforms: Frames. En Ten lectures on wavelets (pp.
53–106).
Di Leva, A. (2016). The Fractal Geometry of the Brain (1.a ed.). Springer Series in Computational
Neuroscience.
Falconer, K. (1990). Fractal Geometry (First ed.). John Wiley &Sons.
Feldmann, A., Gilbert, A., y Willinger, W. (1998). Data Networks as Cascades: Investigating the
Multifractal Nature of Internet WAN Traffic. En Acm sigcomm ’98 conference on applica-
tions, technologies, architectures, and protocols for computer communication. ACM.
Flake, G. W. (1998a). Affine Transformation Fractals. En The computational beauty of nature.
computer explorations of fractals, chaos, complex systems, and adaptation (pp. 93–110).
Flake, G. W. (1998b). Fractals. En The computational beauty of nature. computer explorations of
fractals, chaos, complex systems, and adaptation (pp. 59–136). MIT press eBooks.
Flake, G. W. (1998c). L-Systems and Fractal Growth. En The computational beauty of nature.
computer explorations of fractals, chaos, complex systems, and adaptation (pp. 77–92).
Frame, M., y Cohen, N. (2015). Benoit Mandelbrot: A Life in Many Dimensions (Fractals and
Dynamics in Mathematics, Science, and the Arts: Theory and Applications) (1.a ed.). World
Scientific Publishing Company.
Gao, J., y Rubin, I. (2000). Multifractal Analysis and Modelling of VBR Video Traffic. Electronics
Letters, 36 (6).
Haidekker, M. (2011). Fractal Approaches to Image Analysis. En Advanced biomedical image
analysis (pp. 310–349). Wiley-IEEE Press.
Kumar, D., Arjunan, S., y Aliahmad, B. (2017). Fractals: Applications in Biological Signalling
and Image Processing. CRC Press.
Leland, W., Taqqu, M., Willinger, W., y Wilson, D. (1994). On the self-similar nature of Ether-
net traffic (extended version). IEEE/ACM Transactions on Networking, 2 (1), 1–15. doi:
10.1109/90.282603
López Chávez, H. I., y Alzate, M. (2012). Generation of LRD Traffic Traces with Given Sample
Statistics. En Ieee 2012 workshop on engineering applications (pp. 1–6). Bogotá, Colombia:
IEEE. doi: 10.1109/WEA.2012.6220077
Mandelbrot, B. (1982). The Fractal Geometry of Nature (First Edit ed.). W. H. Freeman and
Company.
Park, K., y Willinger, W. (2000). Self-similar Network Traffic: an overview. En Self-similar network
traffic and performance evaluation (1.a ed., pp. 1–38). New York: John Wiley & Sons, Inc.
Riedi, R. (2009). Multifractal Scaling: general Theory and Approach by Wavelets. En Scaling,
fractals and wavelets (pp. 139–173).
Riedi, R., Crouse, M., Ribeiro, V., y Baraniuk, R. (1999, apr). A multifractal wavelet model with
application to network traffic. IEEE Transactions on Information Theory, 45 (3), 992–1018.
doi: 10.1109/18.761337
Riedi, R. H., y Vehel, L. (1997). Multifractal Properties of TCP Traffic: A Numerical Study.
Sheluhin, O., Smolskiy, S., y Osin, A. (2007). Principal Concepts of Fractal Theory and Self-
Similar Processes. En Self-similar processes in telecomunications (First ed., pp. 1–47). John
Wiley & Sons.
SIGCOMM, A. C. M. (2008). Traces available in the Internet Traffic Archive (Vol. 2009) (n.o
diciembre). Descargado de http://ita.ee.lbl.gov/html/traces.html
Tuberquia-David, M., Vela-Vargas, F., López-Chávez, H., y Hernández, C. (2016). A multifractal
wavelet model for the generation of long-range dependency traffic traces with adjustable
parameters. Expert Systems with Applications, 62 , 373–384. doi: 10.1016/j.eswa.2016.05.010
Wang, S.-h., y Qiu, Z.-d. (2005). A Novel Multifractal Model of MPEG-4 Video Traffic. En Ieee
international symposium on communication and information technology, iscit 2005. IEEE.