Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FACULTAD DE INFORMÁTICA
MEDIDAS AUTOSEMEJANTES EN EL
PLANO, MOMENTOS Y MATRICES
DE HESSENBERG
TESIS DOCTORAL
MEDIDAS AUTOSEMEJANTES EN EL
PLANO, MOMENTOS Y MATRICES
DE HESSENBERG
2012
Memoria presentada por Marı́a del
INTRODUCCIÓN 1
1. PRELIMINARES 7
2.4. Teorema del punto fijo para matrices de momentos de medidas auto-
semejantes en D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
i
ii ÍNDICE GENERAL
2.5. Teorema del punto fijo para matrices de momentos de medidas auto-
semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.5.1. Espacios métricos de matrices infinitas asociados a un SFI . . 55
2.5.2. Aproximación de la matriz de momentos y velocidad de con-
vergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.6. Fórmulas explı́citas para los momentos . . . . . . . . . . . . . . . . . 61
2.6.1. Inversa de una matriz triangular inferior . . . . . . . . . . . . 62
2.6.2. Expresiones de los momentos para la convolución de Bernoulli 66
In the first chapter, we will start with a detailed introduction to the self-similar
measurements in the complex plane and to the iterated functions systems, also in-
cluding the concepts of measure theory needed to describe them. Next, we introduce
the necessary tools from orthogonal polynomials, infinite matrices and operators.
In the second and third chapter we will translate the geometric properties of self-
similar measures to the moments and Hessenberg matrices. From these results, we
will describe algorithms to calculate these matrices from the corresponding iterated
functions systems. To be precise, we obtain explicit formulas and approximation
algorithms for the moments and moment matrices of fractal measures from a new
fixed point theorem for matrices. Moreover, using techniques from operator theory, we
extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96].
This result is the base to define a stable algorithm that approximates the Hessenberg
matrix associated to a fractal measure and obtains exact finite sections of Hessenberg
matrices associated to a sum of measurements.
In the last chapter, we consider more general measures, µ, and study the asym-
ptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with
its impact on the properties of the associated measure. In the main result we de-
monstrate that, if the associated polynomials are dense in L2 (µ), then necessarily
follows that the minimum eigenvalue of the finite sections of the moments matrix
goes to zero.
INTRODUCCIÓN
Las medidas han sido tratadas desde dos puntos de vista diferentes. Un enfoque
es el de la teorı́a de la medida, donde las medidas son funciones definidas sobre una
σ-álgebra de conjuntos en un espacio topológico. En el otro enfoque, las medidas
aparecen asociadas a funcionales lineales positivos definidos sobre un espacio de
funciones continuas. Riesz [Rie23], estableció que los dos enfoques son equivalentes.
Por otro lado, la teorı́a de los polinomios ortogonales tiene una fuerte relación
con la teorı́a de operadores y puede parecer, en principio, muy alejada del estudio
de las medidas autosemejantes. Sin embargo, el análisis de las propiedades de una
medida a partir del comportamiento de los coeficientes de la fórmula de recurrencia
(elementos de la trididiagonal de Jacobi) se remonta a O. Blumenthal [Blu898],
aunque el verdadero iniciador de la aplicación de la teorı́a de operadores al estudio
de los polinomios ortogonales es M.H. Stone que, en [Sto32], dedica una amplı́sima
1
INTRODUCCIÓN
relacionadas con este problema, ver por ejemplo [JW35], [Erd39], [PS96], [Ma00],
[Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11], [HOS11]. En [Ass10] se
plantean una serie de problemas abiertos relacionados con el trabajo que hemos
desarrollado.
5
Capı́tulo 1
PRELIMINARES
Para introducir otro tipo de medidas más adecuado para el estudio de estos con-
7
PRELIMINARES
En este caso decimos que (µ, A, X) es un espacio de medida y que los elementos
de A son los conjuntos µ-medibles. Recordemos que la σ-álgebra de Borel, B, es la
mı́nima σ-álgebra que contiene a los conjuntos abiertos.
Existe también un concepto de medida más amplio denominado medida exterior
utilizado en geometrı́a fractal donde la función de conjunto se define sobre partes de
X, P(X).
1. µ∗ (∅) = 0.
Definición 1.1.4. Sea (µ, A, X) un espacio de medida. Se dice que µ es una medida
finita si µ(X) < ∞ y que es una medida de probabilidad cuando µ(X) = 1. Se dice
∪
que µ es una medida σ-finita si existen A1 , A2 , . . . ∈ A con X ⊂ ∞i=1 Ai tal que
µ(Ai ) < ∞. Se dice que µ es una medida de Borel si los conjuntos de Borel son
µ-medibles.
El soporte de una medida es el conjunto Supp(µ) formado por los puntos x tales
que µ(E) > 0 para todo conjunto E que tiene x como punto interior. El soporte
puntual de µ es el conjunto A(µ) = {x ∈ X | µ(x) > 0} de los puntos con masa
o átomos. Una medida se dice continua o discontinua dependiendo de si el soporte
puntual es vacı́o o no. Se dice que µ es puramente atómica si µ(A(µ)) = µ(X).
Diremos que es singular, si es continua y existe un conjunto E de Borel de medida
de Lebesgue cero y tal que µ está concentrada en E, es decir, µ(X \ E) = 0. Diremos
que µ es absolutamente continua respecto de ν, esto es µ << ν, si µ(E) = 0 para
todo conjunto de Borel E con ν(E) = 0. Por último, diremos que una medida es
absolutamente continua respecto de la medida de Lebesgue, si µ(E) = 0 para todo
conjunto de Borel E de medida de Lebesgue cero. Este caso se da si y sólo si existe
9
PRELIMINARES
Definición 1.1.5. Diremos que una sucesión de medidas {µn } ⊂ MP (X) converge
débilmente a µ ∈ MP (X) si
∫ ∫
lı́m f dµn = f dµ, para toda función f ∈ C0 (X),
n→∞
Si llamamos
{∞ }
∑ ∪
∞
Hδs (A) = ı́nf diams (Si ) : A ⊂ Si , diam(Si ) ≤ δ ,
i=1 i=1
i) Si f es una isometrı́a (es decir |f (x) − f (y)| = |x − y|, ∀x, y), entonces
H s (f (A)) = H s (A).
ii) Si f es una homotecia de razón λ (es decir |f (x) − f (y)| = λ|x − y|, ∀x, y),
entonces
H s (f (A)) = λs H s (A).
11
PRELIMINARES
iii) Si f es lipschitziana (es decir ∃c > 0 tal que |f (x) − f (y)| ≤ c|x − y|, ∀x, y),
entonces
H s (f (A)) ≤ cs H s (A).
{ } { }
dim(A) = sup s ∈ R+ | H s (A) = ∞ = ı́nf s ∈ R+ | H s (A) = 0 .
Si A tiene medida finita y positiva 0 < H s (A) < ∞, entonces diremos que A es
un s-conjunto o un s-fractal.
Las propiedades geométricas de esta dimensión permiten calcular directamente la
dimensión de Hausdorff de un conjunto en algunos casos particulares. Sea A ⊂ Rn y
supongamos que existe una semejanza, f , de razón r (0 < r < 1), de forma que f (A)
es una parte de A para la que sabemos determinar la proporción t (0 < t < 1) de su
medida con respecto a la medida de A. Entonces, teniendo en cuenta las propiedades
de las s-medidas, para cada s ≥ 0 se verifica:
H (f (A)) = r H (A)
s s s
⇒ rs H s (A) = tH s (A).
s s
H (f (A)) = tH (A)
y si existe un s para el que 0 < H s (A) < ∞ (y, por tanto, dim(A) = s), entonces se
ha de cumplir que
log t
rs = t ⇒ s = ·
log r
12
1.1 Medidas autosemejantes
Una vez obtenido s de esta forma habrá que demostrar que 0 < H s (A) < ∞
puesto que podrı́a no existir tal s.
Veamos un ejemplo que, además de ilustrar este método, nos permitirán calcular
la dimensión de algunos de los conjuntos fractales clásicos.
eliminar el central, este proceso se itera sobre cada uno de los triángulos que quedan
en cada paso sucesivo, de manera que el conjunto lı́mite será el triángulo, como se
muestra en la figura.
Puesto que este conjunto se compone de tres partes iguales (las partes del con-
junto T 1 que corresponden a los tres triángulos T0 , T1 , T2 de la primera etapa de
2
log 3
s= ·
log 2
dimH E = s,
1
dims (C) = s, siendo s el único valor que cumple 2 = 1.
3s
log 2
Es decir, el conjunto de Cantor C tiene dimensión s = .
log 3
15
PRELIMINARES
{∫ ∫ }
′ ′
dH (µ, µ ) = sup f dµ − f dµ | f : X → R continua, |f (x) − f (y)| ≤ d(x, y), ∀x, y ∈ X .
Teorema 1.1.15. Sea (X, d) un espacio métrico completo. Entonces el espacio MP (X)
con la métrica de Hutchinson dH es un espacio métrico compacto.
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },
∑
k
donde pi > 0 para todo i ∈ {1, 2, . . . , k} y pi = 1.
i=1
El operador de Markov asociado al SFI, es una función T : MP (X) → MP (X)
definida por
∑
k
T (µ) = pi µ ◦ φ−1
i .
i=1
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }.
infinitas y operadores
La teorı́a de los polinomios ortogonales es una disciplina muy amplia que puede ser
abordada desde muy diferentes puntos de vista. La conexión directa de las medidas
y los polinomios ortogonales está presente en la propia definición de ortogonalidad,
es claro que las propiedades de una medida influyen en la sucesión de polinomios
17
PRELIMINARES
Denotaremos por D = {z; |z| < 1} el disco unidad y T = {z; |z| = 1} denotará la
circunferencia unidad. Dada una matriz D (finita o infinita) denotaremos por DT la
matriz traspuesta de D y por D∗ la traspuesta conjugada de la matriz D y en la
misma forma lo haremos para vectores. Si D es un operador, D⋆ denotará el operador
adjunto de D. Consideraremos N0 = N ∪{0}.
18
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores
Sea {z n }∞
n=0 la base canónica, aplicando el proceso de Gram Schmidt se obtiene
una sucesión de polinomios ortonormales, abreviadamente SPON, {Pn (z)}∞
n=0 aso-
19
PRELIMINARES
Consideramos el espacio C00 de las sucesiones complejas con una cantidad finita
de términos no nulos, es decir,
C00 = {(vn )∞
n=0 tales que existe n0 ∈ N con vn = 0 para n ≥ n0 }.
La identificación de P[z] con el espacio C00 nos permite usar la matriz infinita de
momentos para representar el producto interior. Ası́, si p(z) = v0 + · · · + vn z n lo
identificamos con el vector infinito v = (v0 , . . . , vn , 0, 0, . . . ) ∈ C00 .
Dados dos polinomios cualesquiera p(z), q(z) ∈ P[z], digamos p(z) = v0 +· · ·+vn z n
y q(z) = w0 + · · · + wm z m , y los vectores correspondientes v = (v0 , . . . , vn , 0, 0, . . . ) y
w = (w0 , . . . , wm , 0, 0, . . . ), podemos representar el producto interior matricialmente
a través de la matriz de momentos M (µ)
∫ ( ) v0
p(z)q(z)dµ = w0 w1 . . . M (µ)
v 1
= wM (µ)v t = vM t (µ)w∗ ,
.
..
P[z] in L2 (µ). Si dada una medida µ, los polinomios son densos en L2 (µ) tenemos
que P 2 (µ) = L2 (µ) y se dice que estamos en un caso completo.
A continuación veremos cómo el hecho de que el soporte de la medida asociada
esté contenido en la recta real, en la circunferencia unidad o en el plano complejo,
determina diferentes tipos de matrices de momentos.
Sea µ una medida con soporte en la recta real. En este caso los momentos cij son
reales y se tiene que para cada i, j ∈ N0
∫ ∫
cij = i j
z z dµ = xi+j dµ = si+j ∈ R,
R
1 1/2 1/3 . . .
1/2 1/3 1/4 . . .
H= ,
1/3 1/4 1/5 . . .
.. .. .. . .
. . . .
donde c−i = ci y c0 = ν(T) ∈ R. Estas matrices que son constantes en todas las
subdiagonales principales son conocidas como matrices de Toeplitz. En el siguiente
ejemplo veremos una matriz de momentos de este tipo.
cada (an )∞
n=1 ∈ ℓ (N0 ).
2
22
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores
por z
Proposición 1.2.6. Sea µ una medida de Borel de probabilidad con soporte acotado
en C, Sµ y Nµ el operador multipiplicación por z en P 2 (µ) y en L2 (µ), respectiva-
mente. Entonces, se tiene que Nµ siempre es normal y Sµ es subnormal y se verifica
que Nµ = men(Sµ ), donde men(Sµ ) denota la mı́nima extensión normal de Sµ .
dµ(z) = ⟨dEz e0 , e0 ⟩.
hace que este espacio sea pre-Hilbert y denotaremos por P 2 (M ) el espacio de Hilbert
obtenido como su compleción. Aplicando Gram-Schmidt a z n para n = 0, 1, 2, . . . ,
obtenemos una sucesión de polinomios ortonormales asociada a M , {Pn (z)}∞
n=0 , que
Observación 1.2.8. Los productos de matrices anteriores están bien definidos pues-
to que las matrices infinitas T, T ∗ , (T ∗ )−1 , T −1 son triangulares y D y S definen
operadores acotados en ℓ2 (N0 ). En la demostración de este resultado la matriz de
Hessenberg superior D se obtiene a partir de la matriz M, de una manera puramente
25
PRELIMINARES
que existe una medida de Borel µ con soporte acotado en el plano complejo tal que
M es la matriz de momentos asociada a dicha medida, es decir, que para todo i, j ≥ 0
∫
cij = z i z j dµ.
Es bien conocido que en los casos de medidas con soporte en R o con soporte en
la circunferencia unidad, basta con que la matriz M sea definida positiva para que
exista una medida cuya matriz de momentos co8incida con M . En el contexto general
26
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores
1 1 1 1 ...
1 2 2 2 ...
M =
1 2 3 3 ... .
1 2 3 4 ...
.. .. .. .. . .
. . . . .
Por tanto,
1 0 0 0 1 0 0 0 1 1 1 1 1 −1 0 0
1 0 0 0 0 2 2 2 2 0 0
−1 1 0 1 −1
= .
0 1 0 0 0 2 3 3 3 0 1 −1
0 −1 1 0
0 0 1 0 0 0 −1 1 2 3 4 4 0 0 0 1
27
PRELIMINARES
Teorema 1.2.10. Una matriz M infinita HDP , es una matriz de momentos para
el caso acotado, si y sólo si, la matriz de Hessenberg infinita D a asociada a M es
acotada y define un operador subnormal en ℓ2 (N0 ).
La medida µ, que es única, está determinada por la medida espectral del operador
normal N , mı́nima extensión normal del operador D, que notaremos como men(D),
28
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores
es decir
dµ(z) = ⟨dEz e0 , e0 ⟩.
29
Capı́tulo 2
MATRICES DE MOMENTOS DE
MEDIDAS AUTOSEMEJANTES
En este capı́tulo presentaremos un teorema del punto fijo para matrices de mo-
mentos de medidas autosemejantes. Veremos que la propiedad de autosemejanza de
la medida invariante, µ, asociada a un SFI de semejanzas contractivas en el plano
complejo con probabilidades, se traduce en una ecuación matricial que verifica la
matriz de momentos de la medida. De esta relación obtenemos a su vez la expresión
del comportamiento recurrente de los momentos cij (µ) que generaliza el caso real
[Ma96]. Además nos va a permitir definir un algoritmo iterativo definido sobre un
espacio muy amplio de matrices que aproxima la matriz de momentos de la medida
µ y determinar su velocidad de convergencia.
A lo largo de este capı́tulo vamos a considerar que los SFI con probabilidades
∑
k
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk } con ps > 0 para s = 1, 2, . . . , k y ps = 1,
s=1
31
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
por semejanzas
Proposición 2.1.1. Sea µ una medida con soporte en el plano complejo C y sea Mn
la sección de orden n de su matriz de momentos. Sea f (z) = αz + β una semejanza
en C. Consideramos la medida imagen de µ por f , µf = µ ◦ f −1 . Entonces la sección
de orden n de la matriz de momentos M f de µf viene dada por
( )
j − 1 i−1 j−i
α β si j ≥ i
f ⋆ n
Mn = Af,n Mn Af,n , siendo Af,n = (aij )i,j=1 = i−1
0 si j < i,
(2.1)
iii) A−1
αz+β,n = A z − β ,n .
α α
rrencia
El resultado siguiente nos permite obtener fórmulas de recurrencia para los mo-
mentos de las medidas autosemejantes en el plano complejo que generaliza la dada
por G. Mantica para el caso real [Ma96]. En el capı́tulo 1 sección 1.1.2, se introdujeron
las medidas autosemejantes asociadas a SFI con probabilidades, y el espacio métrico
(MP (X), dH ) de las medidas de probabilidad Borel con la métrica de Hutchinson.
Como ya hemos dicho, a lo largo de este capı́tulo vamos a considerar el SFI con
probabilidades, formado por semejanzas contractivas
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }.
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },
34
2.2 Matrices de momentos y fórmulas de recurrencia
∫ ∑
k ∫ ∑
k ∫
f dµ = ps f ◦ φs = ps f ◦ φs dµ, (2.3)
X s=1 X s=1 X
∑
k ∑
k
Mn = ps Mnφs = ps A⋆s,n Mn As,n .
s=1 s=1
∑
k ∑i,j ( )( )
i j i−m j−l m l
cij = ps β βs αs αs cml
s=1 m=0,l=0
m l s
∑i,j ( )( ) (∑ k
)
1 i j j−l
= ps βsi−m βs αsm αs l cml .
∑ k
m=0,l=0
m l s=1
1− ps αsi αs j (m,l)̸=(i,j)
s=1
√
Φ = {φ1 (z) = z/2−1/2, φ2 (z) = z/2+1/2, φ3 (z) = z/2+ 3i/2; p1 = p2 = p3 = 1/3}
35
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
de Legendre.
La convolución infinita de Bernoulli (ver trabajos de P. Erdös [Erd39], A. Garsia
[Gar63] y B. Jessen y A. Wintner [JW35] ) ha sido estudiada desde 1935 y todavı́a
quedan muchas cuestiones sin resolver. Una de estas cuestiones es saber cuándo
la medida µr es absolutamente continua o singular. Erdös [Erd40] y Salem [Sal44]
probaron que si r es el inverso de cierto tipo de números algebraicos, los números de
Pisot-Vajayaraghvan, µr es singular. Un ejemplo de este tipo es el caso del inverso de
la razón áurea. A finales del siglo pasado, se han vuelto a retomar estas cuestiones y
se han publicado numerosos resultados que se derivan del carácter autosemejante de
esta medida [EST03, Fis95, GW93, Hu97, Ma96]. En 1996, B. Solomyak [PS96, Sol98]
1
probó que para < r < 1 la convolución infinita de Bernoulli µr es absolutamente
2
continua casi en todo punto.
Según la sección anterior, la relación entre las secciones de las matrices de mo-
mentos de µ y las de las medidas inducidas por φ1 y φ2 serán
( )
j − 1 i−1
r (r − 1)j−i si j ≥ i
Mnφ1 = A⋆1,n n
Mn A1n , con A1,n = (aij )i,j=1 = i − 1
0 si j < i,
( )
j − 1 i−1
r (1 − r)j−i si j ≥ i
Mnφ2 = A⋆2,n n
Mn A2,n , con A2,n = (aij )i,j=1 = i − 1
0 si j < i,
(2.7)
En este caso las dos matrices usadas para obtener la matriz de momentos de la
medida imagen por las dos semejanzas del SFI son muy parecidas, porque los radios
de contracción son iguales y los coeficientes de traslación son opuestos, ası́ se tiene
37
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
siendo S0 = 1; y los momentos de orden √ impar son nulos por la simetrı́a. Si además
5−1 r 1
r es el inverso de la razón áurea, r = y se verifica que = .
2 1−r r
Sustituyendo en la fórmula anterior tenemos
n−1 ( )( )
(r2 )2n ∑ 2n S2j
S2n = , n = 1, 2, 3, . . . ,
1 − r2n j=0 2j r2j
1
Ejemplo 2.2.3. En el caso de la convolución infinita de Bernoulli cuando r = , µr
3
es la medida uniforme sobre el conjunto ternario de Cantor en el intervalo [−1, 1].
La expresión de la fórmula de recurrencia de los momentos es
n−1 ( )( )
22n ∑ 2n S2j
S2n = 2n , n = 1, 2, 3, . . . ,
3 − 1 j=0 2j 22j
1 7
1 0 0
2 20
0 1
0 7
0
2 20
M5 = 1
2 0 7
0 205
20 728
0 7
0 205
0
20 728
7 205 10 241
20
0 728
0 42 640
2 4 8 16
1 0 0 0 0 1
3 9 27 81
2 1
0 0 0 0 1 4 4 32
3 3 3 9 9 81
A2,5 =
4 4 1
0 0
∗ 1
, A2,5 = 0 0 9
2 8
9 9 9
9 27
8 4 2 1
0 0 0 0 1 8
27 9 9 27 27 81
16 32 8 8 1 1
81 81 27 81 81
0 0 0 0 81
1 1
Verificándose que M5 = M5φ1 + M5φ2 .
2 2
Usando la fórmula recurrente para los momentos vista en el Teorema 2.2.1, cal-
culamos los momentos de la medida invariante para el sistema Φ y obtenemos
1 7 205 10241
s0 = 1, s1 = 0, s2 = , s3 = 0, s4 = , s5 = 0, s6 = , s7 = 0, s8 = .
2 20 728 42640
Cantor.
x,
1
x2 − ,
2
7
x3 − x,
10
97 333
x4 − x2 + ,
91 1820
1785 3 143833
x5 − x + x,
1517 552188
189964505 4 7410073867 2 156207248595
x6 − x + x − ,
112825966 9251729212 1683814716584
4548711144551 5 6972489245973139 3 4855955749246420947
x7 − x + x − x,
2534028699430 7481466332197132 39876215550610713560
1,0
0,5
K
0,5
K
1,0
y
1 − 13 5
− 117
35 739
9 1755
−1 5
− 117
35 739
− 127
34 495
3 9 1755 413
M5 =
9
5
− 117
35 739
− 127
34 495 593 765 .
1755 413 1656 369
35
− 117 739
− 127
34 495 593 765
− 1360 743 665
1755 413 1656 369 5431 233 951
739
1755
− 127
34 495
413
593 765
1656 369
− 1360 743 665
5431 233 951
1068 026 794 537
3340 208 879 865
2 1
Verificándose ahora que M5 = M5φ1 + M5φ2 .
3 3
1 1
1 0 0
3 5
0 1
0 5 0
1
3
M5φ1 = 1
3 0 1
0 1 .
7
5
0 15 0 17 0
1 1 1
5
0 7 0 9
En este caso las matrices A1,5 y A⋆1,5 serán
1 1 1 1
1 0 0 0 0 1
2 4 8 16
1 1
0 0 0 0 1 1 3 1
2 2 2 2 8 4
A1,5 =
1 1 1 ⋆
0 0 y A1,5 = 0 0 4 38
1 3 .
4 2 4
8
1 3 3 1
0 0 0 0 18 1
8 8 8 8 4
1 1 3 1 1 1
16 4 8 4 16
0 0 0 0 16
1 1
Luego se verifica que M5 = M5φ1 + M5φ2 . Nótese que por la simetrı́a se tiene que
2 2
φ1 i+j φ2
Mn (i, j) = (−1) Mn (i, j).
∑
k ∑n ( )
n n−j j
Sn = ps β α s Sj . (2.8)
s=1 j=0
j s
∑
k
(βs x)
F (x) = ps F (αs x) e .
s=1
∑
k
F (x) = F (αx) ps e(βs x) .
s=1
42
2.2 Matrices de momentos y fórmulas de recurrencia
∏
∞ ( )
(β2 +β1 )αk x (β2 − β1 )αk x
F (x) = e 2 cosh
k=0
2
∏ ( )
(β2 +β1 )αk x ∏
∞ ∞
(β2 − β1 )αk x
= e 2 cosh
k=0 k=0
2
( )
(β2 +β1 )x ∏
∞
(β 2 − β 1 )α k
x
= e 2(1−α) cosh .
k=0
2
En el caso de que la convolución infinita de Bernoulli esté en [0, 1], tenemos que
1
0 < α = r < 1, β1 = 0, β2 = 1 − r y las dos probabilidades iguales a la función
2
generatriz, será
∏∞ ( )
x (1 − r)rk x
F (x) = e 2 cosh .
k=0
2
1
Si r = , se obtiene la medida de Lebesgue en [0, 1], por lo que la fórmula anterior
2
para este valor de r, coincide con el inverso de la función generatriz exponencial de
los números de Bernoulli,
( )
∏
∞
1+e
1
2k
x
ex − 1
F (x) = = .
k=1
2 x
43
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . .pk , }
Observación 2.3.2. Nótese que la transformación TΦ está bien definida, puesto que
para cada s, la matriz M φs (ν) = A⋆s M (ν)As es la matriz de momentos de la medida
inducida ν ◦ φ−1
s como la combinación lineal convexa de medidas de probabilidad con
∑
k
T (ν) = ps ν ◦ φ−1
s .
s=1
Pc → Pc → Pc → ··· Pc → Pc
ν → T (ν) → T 2 (ν) → ··· T n (ν) → µ
↕ ↕ ↕ ↕ ↕
M (ν) → TΦ (M (ν)) → TΦ2 (M (ν)) → · · · TΦn (M (ν)) → M (µ)
Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los
momentos de la medida invariante.
1 1 1 1 1
1 0 0 0 0 0 1 2 4 8 16 32
1 1
0 1 1 3 1 5
2 0 0 0 0
2
2 2 8 4 32
1
1 0
1 1 1 3 3 5
0 0 0 0
TΦ (M (ν)) =
4 2 4 M (ν)
4 8 8 16
2 1 3 3 1
0 0 0 0 0 1 1 5
8 8 8 8 8 4 16
1 1 3 1 1
0 1 5
16 4 8 4 16 0 0 0 0 16 32
1 5 5 5 5 1 1
32 32 16 16 32 32
0 0 0 0 0 32
1 0 0 0 0 0 1 − 21 1
4
− 18 1
16
− 32
1
−1 1
0 1
− 21 3
− 14 5
2 0 0 0 0
2
2 8 32
1
1 − 12 0 − 38 − 16
1 1 3 5
0 0 0 0
+ 4 4 M (ν) 4 8 .
2
−1 3
− 38 1
0
0
0 0 0 1
− 14 5
8 8 8 8 16
1 −1 3
− 14 16
1
0 1
− 32
5
16 4 8 0 0 0 0 16
− 32
1 5
32
− 16
5 5
16
− 32
5 1
32
0 0 0 0 0 1
32
46
2.3 Algoritmo para matrices de momentos de medidas autosemejantes
1,0 0,0 0,3333333333 0,0 0,2000000000 0,0
0,0 0,3333333333 0,0 0,2000000000 0,0 0,1428571429
0,3333333333 0,0 0,2000000000 0,0 0,1428571429 0,0
.
0,1111111111
0,0 0,2000000000 0,0 0,1428571429 0,0
0,2000000000 0,0 0,1428571429 0,0 0,1111111111 0,0
0,0 0,1428571429 0,0 0,1111111111 0,0 0,09090909091
Esta matriz aproxima (con diez dı́gitos de precisión) a la sección de orden seis de la
bien conocida matriz de momentos de la medida de Lebesgue.
47
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
1 0 0 0 0 1 − 23 4
− 27
8 16
9 81
2
− 1
0 0 0 0 1
− 94 4
− 81
32
3 3 3 9
1
4
− 49 1
0 M (ν) 1
− 92 8 .
2 0
0 0
9 9
9 27
8
− 27 4
− 29 1
0 0 0 0 1
− 81
8
9 27 27
16
81
− 32
81
8
27
− 81
8 1
81
0 0 0 0 1
81
1 0 0 0 0 0
0 1 0 0 0 0
20
0 0 1 0 0 0
TΦ =
0 0 0 1 0 0
0 0 0 0 1 0
0 0 0 0 0 1
1,0 0,0 0,5000000000 0,0 0,3500000000 0,0
0,0 0,5000000000 0,0 0,3500000000 0,0 0,2815934066
0,5000000000 0,0 0,3500000000 0,0 0,2815934066 0,0
,
0,2401735460
0,0 0,3500000000 0,0 0,2815934066 0,0
0,3500000000 0,0 0,2815934066 0,0 0,2401735460 0,0
0,0 0,2815934066 0,0 0,2401735460 0,0 0,2113091906
48
2.4 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes en D
2.4. Teorema del punto fijo para matrices de mo-
siguiente observación.
Esto implica que |α| + |β| ≤ 1 y por lo tanto |β| ≤ 1. Además, se verifica que |α| < 1
por ser φ contractiva.
Teorema 2.4.2. Sea φ(z) = αz + β una semejanza con |α| < 1 y |α| + |β| < 1. Sea
Aφ la matriz asociada definida en la Proposición 2.1.1.
Tφ (M ) = A⋆φ M Aφ , (2.9)
( ′ )∞
Demostración. Sean M = (mij )∞ ′
i,j=0 ∈ M1 y M = mij i,j=0 ∈ M1 . Para ver que Tφ
50
2.4 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes en D
En particular, para c00 se tiene que c00 = (1, 0, 0..)t (M − M ′ )(1, 0, 0..) = 0 ya que
m00 − m′00 = 1 − 1 = 0.
Para el resto de términos (i, j) ̸= (0, 0) tenemos
∑
i,j ( )( )
i j i−k j−l k l
cij = β β α α (mkl − m′kl )
k=0,l=0
k l
(k,l)̸=(0,0)
de donde
∑ ( )( )
i,j
i j j−l
|cij | ≤ |β|i−k β |α|k |α|l |mkl − m′kl |
k=0,l=0
k l
(k,l)̸=(0,0)
∑
i,j ( )( )
i j
≤ |β|i+j−k−l |α|k+l sup |mkl − m′kl |
k=0,l=0
k l k,l
(k,l)̸=(0,0)
∑
i,j ( )( )
i j
= sup |mkl − m′kl | |β|i+j−k−l |α|k+l .
k,l
k=0,l=0
k l
(k,l)̸=(0,0)
Por tanto,
51
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Por tanto, Tφ es una contracción en (M1 , ∥.∥sup ) con razón (|α| + |β|), si α ̸= 0 y es
constante si α = 0.
Para acabar, hay que probar que la transformación Tφ está bien definida, es decir
que si M ∈ M1 se tiene que Tφ (M ) ∈ M1 . Por un lado, es claro que el primer
término (0, 0) de Tφ (M ) es 1. Por otro lado, de forma análoga a como se ha obtenido
(2.10), se tiene que
∥Tφ (M )∥sup ≤ ∥M ∥sup .
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },
de forma que cada semejanza φs (z) = αs z + βs verifica que |αs | < 1 y |αs | + |βs | < 1,
para cada s ∈ {1, 2, . . . , k}.
Se define la transformación TΦ : M1 → M1 de la forma
∑
k
TΦ (M ) = ps A⋆s M As , (2.11)
s=1
donde As es la matriz asociada a la semejanza φs definida en la Proposición 2.1.1.
∑
k
TΦ (M ) = ps Tφs (M ) ∈ M1 .
s=1
∑
k
1. Si llamamos C = (cij )∞
i,j=0 = TΦ (M ), entonces c00 = ps = 1.
s=1
2. La matriz C es acotada con la norma del supremo por ser combinación lineal
convexa finita de matrices acotadas con la norma del supremo.
52
2.5 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }
Entonces TΦ es una aplicación contractiva que tiene como punto fijo la matriz de
momentos M (µ) de la medida autosemejante determinada por Φ.
( ′ )∞
Demostración. Sean M = (mij )∞ ′
i,j=0 ∈ M1 y M = mij i,j=0 ∈ M1 , entonces
∑
k
′
∥TΦ (M ) − TΦ (M )∥sup ≤ ps ∥Tφs (M ) − Tφs (M ′ )∥sup
s=1
∑k
≤ ps ∥M − M ′ ∥sup (|αs | + |βs |)
s=1
∑
k
′
≤ ∥M − M ∥sup ps sup(|αs | + |βs |)
s
s=1
Como hemos visto en la sección anterior, cuando las razones de las semejanzas de
un SFI verifican las propiedades del Teorema 2.4.5 de la sección anterior, el soporte
de la medida autosemejante está dentro de la bola unidad, y la matriz de momentos
53
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
es acotada con la norma del supremo. En otros casos, la norma del supremo no
es suficiente para garantizar la contractividad del operador TΦ definido por (2.11),
ya que si la medida invariante asociada a Φ tiene parte de su soporte fuera de D,
los momentos de la medida no están acotados. En caso de existir alguna semejanza
φs (x) = αs x + βs de Φ, verificando |αs | + |βs | ≥ 1, podemos trasladar el problema a
la bola unidad cerrada. En esta sección definiremos otro espacio de matrices y una
norma adecuada que nos permitirá trasladar el problema a la bola unidad cerrada y
obtener los resultados de contractividad obtenidos en el Teorema 2.4.5 de la sección
anterior en el caso general.
z δ z δ
f ◦ g ◦ f −1 (z) = f ◦ g( − ) = f (α( − ) + β)
γ γ γ γ
αz αδ
= γ(( − ) + β) + δ
γ γ
= αz − αδ + γβ + δ
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }.
dado por
f Φf −1 = {f ◦ φ1 ◦ f −1 , f ◦ φ2 ◦ f −1 , . . . , f ◦ φk ◦ f −1 ; p1 , p2 , . . . pk }.
µf Φf −1 = µΦ ◦ f −1 .
SFI
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },
tomaremos una homotecia f (z) = αf z, de forma que αf sea real y positivo, verifi-
cando además que
1 − |αs |
αf < mı́n ·
s=1,2,...,k |βs |
De esta forma, las Observaciones 2.5.2 y 2.4.1 nos aseguran que la medida auto-
semejante asociada al SFI f Φf −1 , tiene como soporte f (K) ⊂ D. En el caso en que
K ⊂ D, tomamos f como la aplicación identidad.
con la norma,
Demostración. Para probar ||M ||f = ||M ′ ||sup es una norma en M∞,f , veamos pri-
mero que la aplicación Tf : M∞,f −→ M∞ tal que Tf (M ) = A⋆f M Af = M ′ es
biyectiva.
( )∞ ( )∞
Sean M1 = m1ij i,j=0 y M2 = m2ij i,j=0 , tales que Tf (M1 ) = Tf (M2 ) entonces
tenemos que αfi+j m1ij = αfi+j m2ij para todo i, j, por tanto m1ij = m2ij , por lo que
Tf es inyectiva. Además, como las matrices A⋆f y Af son invertibles con inversas
A⋆f −1 y Af −1 , respectivamente, tenemos que si Tf (M ) = M ′ podemos escribir M =
A⋆f −1 M ′ Af −1 y por tanto Tf es biyectiva.
Que Tf sea biyectiva y el hecho de que (M∞ , ∥ .∥sup ) sea un espacio métrico
completo demuestran que se verifican las siguientes propiedades para M, M1 , M2 ∈
M∞,f ,
56
2.5 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes
∑
k ∑
k
TΦ (M ) = ps A⋆s M As = ps Tφs (M ),
s=1 s=1
como en (2.11).
Es claro que (Mf , ∥.∥f ) es un subespacio cerrado de (M∞,f , ∥·∥f ) y por lo tanto
completo, por lo que tenemos el siguiente teorema.
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },
1 − |αs |
αf < mı́n .
s=1,2,...,k |βs |
=Tf Φf −1 (M ′ ) ∈ M1 .
Luego TΦ es contractiva.
Probaremos ahora que su punto fijo es la matriz de momentos MΦ de la medida
autosemejante µΦ .
Por el Lema 2.5.3 se tiene que µf Φf −1 = µΦ ◦ f −1 , por tanto Mf Φf −1 = A∗f MΦ Af
de donde MΦ = A∗f −1 Mf Φf −1 Af −1 ∈ Mf , luego
∑
k
A∗f TΦ (MΦ )Af = ps A∗f A∗s A∗f −1 Mf Φf −1 Af −1 As Af
s=1
=Tf Φf −1 (Mf Φf −1 )
=Mf Φf −1 .
58
2.5 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes
de convergencia
Observación 2.5.7. En las condiciones del Teorema 2.5.6, se tiene que que la veloci-
dad de convergencia del algoritmo es del orden de rn , siendo r la razón de contracción
de SFI Φ, es decir, r = máx {|αs |}.
s=1,...,k
||TΦ (M1 −M2 )||f ≤ máx {|αs |+|αβs |}||M1 −M2 ||f ≤ máx {|αs |+|εβs |}||M1 −M2 ||f .
s=1,...,k s=1,...,k
Por tanto la razón de contracción es menor o igual que máx {|αs | + ε|βs |} para todo
s=1,...,k
Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los
momentos de una medida autosemejante asociada a un SFI con probabilidades.
dado por Φ = {φ1 = 1/2x − 1/2, φ2 = 1/2x + 1/2; p1 = p2 = 1/2}. Como vimos en
el ejemplo 2.3.4, la sección de orden seis de la matriz de momentos MΦ de la medida
µ se aproxima con diez dı́gitos de precisión por TΦ20 (Id).
Puesto que |α| + |β| = 1/2 + 1/2 = 1. Es suficiente tomar una homotecia f
que traslada el soporte en el interior del disco unidad. Por ejemplo si consideramos
x
f (x) = , el SFI f Φf −1 es
2
x 1 x 1
f Φf −1 = {f ◦ φ1 ◦ f −1 = − , f ◦ φ2 ◦ f −1 = + ; p1 = p2 = 1/2}.
2 4 2 4
Usando los resultados del Teorema 2.5.6 tenemos ||TΦ (M )||f = ||Tf Φf −1 (A∗f M Af )||sup
y que la norma de Tf Φf −1 está acotada por la razón de contracción α + 1/2|β| = 3/4.
Por tanto, podemos asegurar que
Esto muestra que la cota obtenida no es muy ajustada a la realidad. Esta cota se
puede mejorar si tenemos en cuenta la observación anterior. En este caso r = 1/2 y
se tiene
1
||TΦ20 (I−MΦ )||f ≤ ||A∗ (I−MΦ )Af ||sup ≈ 0,0000009536743164||A∗f (I−MΦ )Af ||sup .
220 f
Ejemplo 2.5.9. Sea T el triángulo de Sierpinski con base en el intervalo [−1, 1].
log 3
Consideramos la medida uniforme µ en T , es decir, la medida de Hausdorff log 2
-
dimensional de T , que es la medidad autosemejante para el SFI con probabilidades
dado por
√
z 1 z 1 z 3i 1
Φ = {φ1 (z) = − , φ2 (z) = + , φ3 (z) = + ; p1 = p2 = p3 = }.
2 2 2 2 2 2 3
∑
3
1
Entones, M (µ) es el punto fijo de la transformación TΦ (M (ν)) = A∗φi M (ν)Aφi .
i=1
3
Si iteramos la transformación 20 veces comenzando con la matriz identidad, ob-
tenemos una aproximación de la sección de orden 5 de la matriz de momentos de la
60
2.6 Fórmulas explı́citas para los momentos
medida µ:
1,0 −0,5773497187 i −0,3333326976 0,4123924989 i 0,6190467108
−0,7056492891 i −0,6825382899
0,5773497187 i 0,7777771420 0,8918905074 i
TΦ (Id) =
20
−0,3333326976 0,7056492891 i 0,9802453594 −1,129649109 i −1,376602322 .
−0,4123924989 i −0,6825382899 −2,130064540 i
1,129649109 i 1,609688046
0,6190467108 −0,8918905074 i −1,376602322 2,130064540 i 3,121089384
Podemos comparar este resultado con los momentos exactos dados por la fórmula
recurrente obtenida en (2.2.1):
1,0 −0,5773502693 i −0,3333333333 0,4123930495 i 0,6190476190
0,5773502693 i −0,7056503292 i −0,6825396825 0,8918923515 i
0,7777777778
−0,3333333333 0,7056503292 i 0,9802469136 −1,129651479 i −1,376605792 .
−0,4123930495 i −0,6825396825 −2,130070359 i
1,129651479 i 1,609691778
0,6190476190 −0,8918923515 i −1,376605792 2,130070359 i 3,121098767
Como se puede observar en este caso la velocidad de aproximación es más lenta que
en el primer ejemplo. Sin embargo, la cota de la razón de contracción obtenida en la
observación anterior nos da una cota más ajustada del error cometido. En este caso
se tiene que r = 1/2 para las secciones de orden cinco se tiene
1
||TΦ20 (Id5 − Mϕ,5 )||f ≤ 20
||A∗f,5 (I − MΦ )5 Af,5 ||sup
2
1
≤ 20 ||A∗f,5 || ||(I − MΦ )5 || ||Af,5 ||sup
2
3
≤ 20 = 0,000002861022949,
2
lo que asegura los cinco dı́gitos de precisión que se observan en este ejemplo.
se tiene que su matriz inversa A−1 = C = (cij ) está definida por las siguientes
expresiones
c11 = 1
ci1 = ai1 + ai2 a21 + ai3 (a31 + a32 a21 ) + · · · + ai,i−1 (ai−1,1 + ai−1,2 a21 + . . .
∑
= ai,αk aαk ,αk−1 . . . aα1 ,1 para i > 1
1 < α1 < α2 < . . . < αk < i
{α1 , . . . , αk } ⊂ {2, . . . , i − 1}
cim = ai,m + ai,m+1 am+1,m + ai,m+2 (am+2,m + .. + ai,i−1 (ai−1,m + ai−1,2 a2m + ..)
∑
= − ai,αk aαk ,αk−1 . . . aα1 ,m para i > m > 1
m< α1 < α2 < . . . < αk < i
{α1 , . . . , αk } ⊂ {m + 1, . . . , i − 1}
62
2.6 Fórmulas explı́citas para los momentos
∑
i−1
cim = aij cjm si i > m,
j=m,m<i
cim = 0, en otro caso.
∑ ∑
ai,αk aαk ,αk−1 . . . aα1 ,1 = ai,1 + ai,2 a2,1 + . . .
{α1 ,...,αk }⊂{2,...,i−1} {α1 ,..αk−1 }⊂∅
∑
· · · + ai,αk aαk ,αk−1 . . . aα1 ,1 + . . .
{α1 ,...,αk−1 }⊂{2,...,αk −1}
∑
· · · + ai,i−1 ai−1,αk−1 . . . aα1 ,1 .
{α1 ,...,αk−1 }⊂{2,...,i−2}
∑
ai,αk aαk ,αk−1 . . . aα1 ,1
{α1 ,...,αk }⊂{2,...,i−1}
= ai,1 c11 + ai,2 c2,1 + ai,3 c3,1 + · · · + ai,αk cαk ,1 + · · · + ai,i−1 ci−1,1
∑
i−1
= aij cj1 = ci,1 para i > 1.
j=1
63
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
b 0 0 0 ...
1
a21 b2 0 0 ...
A=
a31 a32 b3 0 ... ,
a41 a42 a43 b4 ...
.. .. .. .. ..
. . . . .
una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij ) viene
dada por las siguientes expresiones
1
c1,1 = ,
b1
∑ (−1)k+1
ci1 = ai,αk aαk ,αk−1 . . . aα1 ,1 para i > 1,
bi bαk bαk−1 . . . bα1 b1
1 < α1 < α2 < . . . < αk < i,
{α1 , . . . , αk } ⊂ {2, . . . , i − 1}
∑ (−1)k
cim = ai,αk aαk ,αk−1 . . . aα1 ,m para i > m > 1,
bi bαk bαk−1 . . . bα1 bm
m< α1 < α2 < . . . < αk < i
{α1 , . . . , αk } ⊂ {m + 1, . . . , i − 1}
64
2.6 Fórmulas explı́citas para los momentos
una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij ) viene
dada por las siguientes expresiones
c11 = 1,
∑ ( )( ) ( )
i−1 αk α1 (−1)k+1
ci1 = ... ,
αk αk−1 0 bi−1 bαk bαk−1 . . . bα1
0 < α1 < α2 < . . . < αk < i − 1
{α1 , . . . , αk } ⊂ {1, . . . , i − 2}
∑ ( )( ) ( )
i−1 αk α1 (−1)k
cim = ... .
αk αk−1 m − 1 bi−1 bαk bαk−1 . . . bα1 bm−1
m − 1 < α1 < α2 < . . . < αk < i − 1
{α1 , . . . , αk } ⊂ {m, . . . , i − 2}
i−2 ( ) ( )( )
1 ∑ i−1 1 ∑i−2
−1 1 i − 1 α2 1
ci1 = + − + ...
bi−1 bi−1 j=1 j bj bi−1 1=α1 <α2
α2 α1 bα2 bα1
( )( ) ( )
i−1 i−2 2 (−1)i−1
··· + ... ·
i−2 i−3 1 bi−1 bi−2 . . . b2 b1
65
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Bernoulli
1 0 0 ... 0 ... S0 1
(1 ) ( )0
(1−r)1 r
−1 0 ... 0 ... S1 0
2(1−r1 ) 0
(2 ) (
1−r
)0 (2 ) ( )1
(1−r)2 (1−r)2
r r
−1 . . . 0 . . . S2 0
2(1−r2 ) 0 1−r 2(1−r2 ) 1 1−r = .
.. .. .. . .. ..
. . . .. . .
(1−r)n (n) ( r )0 (1−r)n (n) ( r )1
· · · −1 · · · Sn 0
2(1−rn ) 0 1−r 2(1−rn ) 1 1−r
.. .. .. . . .. ..
. . . . . .
(2.15)
Para despejar vamos a aplicar los resultados de la sección anterior para calcular
la matriz inversa de A. Para ello expresamos esta matriz de la forma A = D1 T D2
( )i
(1 − r)i r
siendo D1 = diag{1, , i = 1, . . . , n}, D2 = diag{ , i = 1, . . . , n} y
2(1 − ri ) ( ) 1−r
i−1
T la matriz triangular inferior dada por tij = si i > j > 1 y en la diagonal
j−1
2(1 − ri )
t11 = 1 y tii = − si i ∈ N.
ri
66
2.6 Fórmulas explı́citas para los momentos
(1) 0 0 ... 0 ···
1 S0′ 1
2(1 − r ) 1
− ···
0
0 ... 0
(0) ( r) S1′
2 (1 − r2 )
2
−2 ···
... 0 S2′ 0
0 1 r2 = .
. .. ..
.. .. .. ..
.
.. . .
( ) ( )
.
( )
. .
n n n n) Sn′ 0
· · · −2 (1−r ···
0 1 2 rn ..
. . .. .. ..
.. .. .. . .
. . .
(2.16)
A partir de esta expresión se obtiene de forma inmediata el siguiente resultado.
∑ ( )∏
k
(1 − r)n n r αj
=
2(1 − rn ) n − αk , αk − αk−1 , . . . , α2 − α1 , α1 j=1
2(1 − rαj )
0 < α1 < α2 < . . . < αk < n
{α1 , . . . , αk } ⊂ {1, . . . , n − 1}
67
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
1 0 0 0 0
(1 ) ( )0
(1−r)1 r
−1 0 0 0
2(1−r1 ) 0 1−r
( )( )0 (2) ( )1
(1−r)2 2 r (1−r)2 r
−1 0
2(1−r2 ) 0 2(1−r2 ) 1
0
(3 ) (
1−r
)0 (3) (
1−r
)1 (3) ( )2
(1−r)3 (1−r)3 (1−r)3
r r r
−1 0
2(1−r3 ) 0 1−r 2(1−r3 ) 1 1−r 2(1−r3 ) 2 1−r
(1−r)4
(4 ) ( )0 (1−r)4
(4) ( )1 (1−r)4
(4) ( )2 (1−r)4
(4) ( )3
2(1−r4 ) 0
r
1−r 2(1−r4 ) 1
r
1−r 2(1−r4 ) 2
r
1−r 2(1−r4 ) 3
r
1−r
−1
∑ ( )∏k
(1 − r )n n ra1 +a2 +···+aj
Sn =
2(1 − rn ) ak , . . . , a2 , a1 j=1 2(1 − ra1 +a2 +···+aj )
ak+1 + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k; ∀k ≥ 1
( )n ∑ ( ) k+1
∏
1−r n ra1 +a2 +···+aj
=
r ak , . . . , a2 , a1 j=1 2(1 − ra1 +a2 +···+aj )
ak+1 + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k + 1; ∀k ≥ 1
69
Capı́tulo 3
MATRICES DE HESSENBERG Y
MEDIDAS AUTOSEMEJANTES
por semejanzas
α2 α3 α4 αn
αd00 + β d
|α| 01
d
|α|2 02
d
|α|3 03
... d
|α|n−1 0n−1
|α|d α2 α3 αn−1
10 αd11 + β d
|α| 12
d
|α|2 13
... d
|α|n−2 1n−1
α2 αn−2
0 |α|d21 αd22 + β d ... d
f
Dn =
|α| 23 |α|n−3 2n−1 . (3.1)
0 0 |α|d32 αd33 + β ... αn−3
d
|α|n−4 3n−1
.. .. .. .. ..
..
.
. . . . .
0 0 0 0 . . . αdn−1n−1 + β
Esto es
Dnf = α Un⋆ Dn Un + βIn ,
diag(A⋆f T ) = (tii αi )∞ ⋆ i ∞
i=0 y diag(T Af ) = (tii α )i=0 .
de modo que la matriz Te = A⋆f T U tenga diagonal real y positiva es la matriz diagonal
dada por
diag(U ) = (ejiθ )∞
j=0 .
73
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Si ahora utilizamos las fórmulas D = T ⋆ S(T ∗ )−1 y Df = Te⋆ S(Te∗ )−1 vistas en el
capı́tulo 1, tendremos
= α U ⋆ DU + βI.
74
3.1 Transformaciones de matrices de Hessenberg por semejanzas
i i 0 0 0 ...
0 1 0 0 ...
1 i i 0 0 ...
1 0 1 0 ...
0 1 i i 0 ...
D=
0 1 0 1 ... =⇒ D =
f
.
0 0 1 i i ...
0 0 1 0 ...
0 0 0 1 i ...
.. .. .. .. . .
. . . . . .. .. .. .. .. . .
. . . . . .
Esta es una distribución sobre una recta diferente del eje real y por tanto ya no es
una matriz tridiagonal de Jacobi.
D⋆ D = (S ⋆ + I)(S + I) = S ⋆ S + S ⋆ + S + I = 2I + S ⋆ + S.
Análogamente
DD⋆ = (S + I)(S ⋆ + I) = SS ⋆ + S ⋆ + S + I.
Luego
D⋆ D − DD⋆ = I − SS ⋆ .
(S + I) [2I + S ⋆ + S] − [2I + S ⋆ + S] (S + I)
= S [2I + S ⋆ + S] − [2I + S ⋆ + S] S
= SS ⋆ − S ⋆ S = SS ⋆ − I ̸= 0.
das
77
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
∑
m
donde pi = 1 y pi ≥ 0 para cada i = 1, 2, . . . m.
i=1
∞
Sean {D(i) }m
i=1 las correspondientes matrices de Hessenberg y sea D = (djk )j,k=0
Señalemos en primer lugar que todas las matrices D(i) están acotadas en ℓ2 (N0 ),
por ser compacto el soporte de las correspondientes medidas. En segundo lugar,
que cada matriz {D(i) }m 2
i=1 define un operador acotado y subnormal en ℓ (N0 ), (ver
∑
−1
donde, para n = 0, la suma dk,0 Pk (z) se considera igual a cero.
k=0
Lema 3.2.2. Sea N un operador normal acotado. Dada una sucesión de polinomios
que satisfacen la fórmula (3.3) de recurrencia larga. Entonces N satisface la identidad
∑
n−1
dn+1,n Pn+1 (N ) = (N − dnn )Pn (N ) − dk,n Pk (N ), n ≥ 0. (3.4)
k=0
78
3.2 Matriz de Hessenberg de una suma de medidas
∑
n−1
dn+1,n Pn+1 (S) = (S − dnn I)Pn (S) − dk,n Pk (S), n ≥ 0. (3.5)
k=0
79
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Proposición 3.2.5. Sea {µi }mi=1 una familia de medidas con soporte compacto en
∑m ∞ ∞
C y dµ = i=1 pi dµi la medida suma. Sea {Pn }n=0 la SP ON y D = (djk )j,k=0
medidas {µi }m
i=1 . Entonces se verifican las siguientes identidades
(i)
∑
n−1
(i)
dn+1,n vn+1 = [D(i) − dnn I]vn(i) − dkn vk , n ≥ 0, i = 1, . . . , m (3.8)
k=0
∑
m
(i)
dkn = pi ⟨D(i) vn(i) , vk ⟩, k = 0, 1, 2, . . . , n, (3.9)
i=1
donde
vn(i) = Pn (D(i) )e0 , n ≥ 0, i = 1, . . . , m y e0 = (1, 0, 0, . . . )T
donde Ω = Supp(µ).
Por otro lado si consideramos la función Pk (z)zPn (z), es obvio que para la mı́ni-
ma extensión normal N (i) de D(i) , por tratarse de operadores normales y ser dEµi
la medida espectral correspondiente, se cumplirá por el teorema de representación
espectral que
∫
[ ]⋆ [ ]
Pk (N (i) ) N (i) Pn (N (i) ) = Pk (z)zPn (z)dEµi . (3.11)
σ(N (i) )
[ ] [ (i) ]
(i) ⋆ ∫
Pk (D ) D Pn (D )
(i)
= Pk (z)zPn (z)dEµi
σ(N (i) )
Aplicaremos esta identidad a ee0 = (e0 , 0), donde 0 es el vector nulo de (ℓ2 )⊥
complemento ortogonal de ℓ2 (N0 ). Multiplicando por e0 y teniendo en cuenta que
dµi = ⟨dEµi ee0 , ee0 ⟩ = ⟨dEµi e0 , e0 ⟩, se tiene
[ ]H [ (i) ]
⟨ Pk (D(i) ) D Pn (D(i) ) e0 , e0 ⟩ = ⟨D(i) Pn (D(i) )e0 , Pk (D(i) )e0 ⟩
∫
= Pk (z)zPn (z)⟨dEµi e0 , e0 ⟩
σ(N (i) )
∫
= Pk (z)zPn (z)dµi
σ(N (i) )=Ωi
81
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
(i)
Utilizando la definición de los vn , para todo i = 1, 2, . . . , m se tiene
(i) [ ]H [ (i) ]
⟨D(i) vn(i) , vk ⟩ = ⟨ Pk (D(i) ) D Pn (D(i) ) e0 , e0 ⟩,
de donde
∑
m ∑
m ∫
(i)
pi ⟨D(i) vn(i) , vk ⟩ = pi Pk (z)zPn (z)dµi
Ωi
i=1
∫
i=1
[ m ]
∑
= Pk (z)zPn (z) pi dµi = dkn .
Ω i=1
Para diseñar el algoritmo que nos permite obtener con exactitud la matriz D a
partir de las {D(i) }m
i=1 generalizaremos los resultados que Mantica obtuvo en [Ma00]
donde
(i) (i)
wn+1 = dn+1,n vn+1 , i = 1, 2, . . . , m,
∑
m
(i) (i)
∑
m
(i) (i)
pi ⟨wn+1 , wn+1 ⟩ = pi d2n+1,n ⟨vn+1 , vn+1 ⟩
i=1 i=1
∑
m
= d2n+1,n pi ⟨Pn+1 (D(i) )e0 , Pn+1 (D(i) )e0 ⟩
∫i=1
= d2n+1,n |Pn+1 (z)|2 dµ = d2n+1,n .
Ω
82
3.2 Matriz de Hessenberg de una suma de medidas
(i)
La anterior proposición nos servirá para obtener dn+1,n , conociendo los wn+1 . A
(i) (i) (i)
continuación, dado que vn+1 = wn+1 /dn+1,n , podemos determinar vn+1 , i = 1, 2, . . . , m.
De esta forma podemos definir el siguiente algoritmo.
µ. Consideramos la SP ON {Pn }∞
n=0 y la matriz de Hessenberg D asociada a µ y
(i)
{D(i) }m T
i=1 como antes. Se denota por v0 = (1, 0, 0, . . . ) para cada i = 1, . . . , m.
∑
m
(i)
dk,n = pi ⟨D(i) vn(i) , vk ⟩, k = 0, 1, . . . , n (3.12)
i=1
Demostración. Las expresiones (3.12), (3.13), (3.14) y (3.15) han sido probadas en
las proposiciones precedentes.
secciones.
(i)
i=1 }k=0 , Dn+1 ) por inducción.
Veamos como obtener ({{vk }m n
(i)
Para n = 0, conocemos ({v0 }m
i=1 , D1 ):
(i)
v0 = e0 para cada i = 1, . . . , m, y
∑
m ∑
m
(i)
D1 = (d00 ) donde d00 = pi ⟨D(i) e0 , e0 ⟩ = pi d00
i=1 i=1
({ }m )
(i) (i) (i)
Supongamos conocido el valor de v0 , v 1 , . . . , v n , Dn+1 , i.e., esto es cono-
i=1
83
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
?
[ (i) ] (i) ∑
n−1
(i)
(i)
wn+1 = D − dnn I vn − dk,n vk , i = 1, . . . , m (3.13)
k=0
? v
u m
u∑
=t
(i) (i)
dn+1,n pi ⟨wn+1 , wn+1 ⟩ (3.14)
i=1
?
(i)
(i) wn+1 (i) (i) (i)
vn+1 = (3.15) v0 , v 1 , . . . , v n
dn+1,n
@
@
@
@R
@
∑
m
(i) (i)
dk,n+1 = pi ⟨D(i) vn+1 , vk ⟩, k = 0, . . . , n + 1 (3.12)
i=1
Se observa que hay fórmulas que pueden ser escritas en forma matricial.
Corolario 3.2.8. Llamemos V (i) a la matriz triangular superior infinita que tiene
(i) (i) (i) (i) (i) (i)
por columnas los vectores v0 , v1 , v2 , . . ., de ℓ2 (N0 ), es decir V (i) = (v0 , v1 , v2 , . . .).
Entonces se cumple que
∑
m
D= pi [V (i) ]⋆ D(i) V (i) .
i=1
84
3.2 Matriz de Hessenberg de una suma de medidas
∑
m
pk [V (k) ]⋆ V (k) = I.
k=1
Obviamente ⟨Pi (z), Pj (z)⟩ = δij . Por el teorema de representación espectral, al ser
dEµk la medida espectral correspondiente a la extensión normal de D(k) , resulta
inmediato que
∫
⟨Pi (D (k)
)e0 , Pj (D (k)
)e0 ⟩ = Pi (z)Pj (z)⟨dEµk e0 , e0 ⟩.
Ω
1 1
M = I + M (2) .
2 2
85
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Sabemos que la matriz D(1) = S, es decir, el shift-right. Por otro lado por construc-
ción D(2) = S + I. La matriz D correspondiente a M , obtenida vı́a descomposición
de Cholesky, restringiéndonos a 4 × 4, tras hacer D4 = T4−1 M4′ (T4∗ )−1 , será
√ √
2
1 5
10
0 − 330
330
√ √
5 1 10
0
D4 = 2 2 10
.
0 4√10 1
√
7 660
10
√
2 660
660 1
0 0 20 2
86
3.2 Matriz de Hessenberg de una suma de medidas
0 0 0 0 −1/2 1
√
1 2 5 1 0 0 0
1
0
d0,1 = ⟨ , ⟩
2 5 0 1 0 0 0
0
0 0 1 0 0 0
1 0 0 0 1/2 1
√
1 2 5 1 1 0 0
1
0
+ ⟨ , ⟩
2 5 0 1 1 0 0
0
0 0 1 1 0 0
√
5
= 0+ .
10
0 0 0 0 −1/2 −1/2
√ √
1 2 5
1 0 0 0 1
2 5 1
d1,1 = ⟨ , ⟩
2 5 0 1 0 0 0 5 0
0 0 1 0 0 0
1 0 0 0 1/2 1/2
√
1
√
2 5 1
1 2 5 1 1 0 0
+ ⟨ , ⟩
2 5 0 1 1 0 0 5 0
0 0 1 1 0 0
1 −2 1 7 5 1
= ( )+ = = .
2 5 2 5 10 2
√
Ejemplo 3.2.11. Sea a ∈ R. Consideramos las distribuciones dµ1 = 1 − (x − a)2 dx
√
y dµ2 = 1 − (x + a)2 dx correspondientes a los polinomios de Chebyshev de segun-
da clase sobre los intervalos [a − 1, a + 1] y [−a − 1, −a + 1], respectivamente. Sea
1 1
µ = µ1 + µ2 la medida suma.
2 2
Las correspondientes matrices de Jacobi son
87
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
1
1
a 0 0 0 0 −a 0 0 0 0
2
2
1 1 1 1
a 0 0 0 −a 0 0 0
2 2 2 2
1 1 1 1
0 a 0 0 0 −a 0 0
2 2 2 2
D (1)
= , D =
(2)
.
0 0
1
a
1
0 0 0
1
−a
1
0
2 2 2 2
1 1
1
−a
1
0 0 0
2
a
2 0 0 0
2 2
1 1
0 0 0 0 a 0 0 0 0 −a
2 2
√
4a2 +1
0 0 0 0
2
√ √
4a2 +1 16a2 +1
2 0 √ 0 0
2 4a2 +1
√ √
0 16a2 +1
√ 0 256a 6 4
√ +80a√+44a +1
2
0 .
2 4a2 +1 2 16a2 +1 4a2 +1
√
6 4 2
√
8 +6144a6 +896a4 +100a2 +1
256a
√ +80a√+44a +1 16384a
√ √
0 0 0
2 16a2 +1 4a2 +1 2 16a2 +1 256a6 +80a4 +44a2 +1
√
16384a8 +6144a6 +896a4 +100a2 +1
0 0 0 √ √ 0
2 16a2 +1 256a6 +80a4 +44a2 +1
Observamos que los soportes de las medidas iniciales son disjuntos si a > 1.
Cuando a = 0, tenemos los polinomios de Chebyshev sobre el intervalo [−1, 1] y
cuando 0 ≤ a < 1 tenemos una suma de medidas con soportes solapados.
autosemejante
En esta sección vamos a aplicar los resultados del Teorema 3.2.7 junto con la Pro-
posición 3.1.1 para calcular la matriz de Hessenberg de una medida autosemejante.
Para ello vamos a considerar en toda la sección un SFI con probabilidades
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },
88
3.3 Matriz de Hessenberg asociada a una medida autosemejante
∑
k
µΦ = ps µΦ ◦ φ−1
s ,
s=1
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },
∑
m
[ ]
D(µ) = ps [V (s) ]⋆ αs [U (s) ]⋆ D(µ)U (s) + βs I V (s) ,
s=1
( )∞
donde las matrices U (s) son matrices diagonales tales que U (s) = δnm e(n−1)θs i n,m=1 ,
siendo αs = |αs |eθs i .
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },
∑
k
[ ]
TΦ (D(ν)) = ps [V (s) ]⋆ αs [U (s) ]⋆ D(ν)U (s) + βs I V (s) ,
s=1
donde U (s) y αs son como en el corolario anterior y V (s) como en el Corolario 3.5.2
para µs = µ ◦ φ−1
s .
89
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },
Por otro lado, llamaremos Algoritmo I al método que consiste en aplicar el pro-
ceso iterativo para matrices de momentos de medidas autosemejantes descritas en
el capı́tulo anterior y recuperar la matriz de Hessenberg usando la factorización de
Cholesky (1.3).
Algoritmo II. Comenzando con la sección 5 de la matriz S del shift right, y haciendo
∑
m
[ ]
30 iteraciones de la transformación TΦ (D) = pi [V (i) ]⋆ αi [U (i) ]⋆ DU (i) + βi I V (i)
i=1
del Teorema 3.3.4 obtenemos la siguiente matriz
0,0 0,5773502692 0,0 −0,2133333332 · 10−9 0,0
−0,1 · 10−9
0,5773502691 0,0 0,5163977796 0
0,0 0,5163977796 0,0 0,5070925526 0,0 .
0,0 0,0 0,5070925529 0,0 0,5039526304
0,0 0,0 0,0 0,5039526307 0,0
Algoritmo II. Comenzando con la sección de orden 4 de la matriz del shift right,
y haciendo 20 iteraciones de TΦ (D) obtenemos la siguiente matriz.
0,5773497186 i −0,2 · 10−9 −0,4182428884 i −1,3 · 10−10 + 2,09 · 10−43 i
10−9 − 5,2 · 10−43 i 3,2 · 10−42 − 0,3487499858 i
0,6666666668 0,5773497190 i
.
0 0,7888106377 −1,5 · 10−42 + 0,5773497186 i −3,3 · 10−10 − 10−41 i
0 0 0,7737179434 − 3,1 · 10−54 i −1,4 · 10−41 + 0,5773497189 i
0,5773502693 i 0,0 −0,4182428886 i 0,0
−0,3487499856 i
0,6666666667 0,5773502693 i 0,0
.
0,0 0,7888106375 0,5773502693 i 0,0
0,0 0,0 0,7737179430 0,5773502693 i
0,0992 + 1,2029i −0,2046 − 0,1459i −1,799 · 10−6 − 0,3176i −0,0123 + 0,0555i
0,5538 + 1,3 · 10−10 i
0,1439 + 0,8415i 0,0208 − 0,0718i −0,0396 − 0,3027i
.
5,68 · 10−10 + 1,7 · 10−21 i 0,6848 + 5,36 · 10−10 i
0,0390 + 0,7027i 0,0117 − 0,0461i
5,39 · 10−9 + 8,09 · 10−10 i 7,12 · 10−9 − 2,64 · 10−10 i 0,7116 − 2,39 · 10−10 i 0,07365 + 0,6745i
Algoritmo II. Comenzando con la sección cuarta de la matriz S del shift right, y
haciendo 7 iteraciones de TΦ (S) obtenemos la siguiente matriz
0,099218 + 1,202963i −0,204629 − 0,145941i −0,0000179 − 0,317680i −0,012314 + 0,055542i
0,5538131313 0,143933 + 0,841541i 0,020889 − 0,0718614i −0,039695 − 0,302772i
0,684812 + 2,05958 · 10−12 i
.
0 0,0390029 + 0,702786i 0,011747 − 0,046155i
0 0 0,711680 + 1,54964 · 10−12 i 0,0736565 + 0,674541i
0,0625 + 0,1082531755i 0,0021374549 − 0,003702180487i 0,04874098508 − 0,2610232725i 0,1007995886 − 0,002813009752i
0,4061164311 0,1017659280 + 0,4526242191i −0,07918289508 − 0,08407913301i −0,005267584405 − 0,3789834853i
0,0 0,6472315398 0,07376706430 + 0,4160651343i 0,01865543829 + 0,01575640500i
0,0 0,0 0,6863040829 −0,01522931965 + 0,4338707470i
94
3.4 Comparativa de algoritmos y ejemplos
1 1+i 1 1−i
Φ = {φ1 (z) = z + , φ2 (z) = z + ,
4 2 4 2 }
1 −1 + i 1 −1 − i 1
φ3 (z) = z + , φ4 (z) = z + ; pi =
4 2 4 2 4
Algoritmo II. Comenzando con la sección de orden 5 de la matriz del shift right,
y haciendo 10 iteraciones de TΦ (D) obtenemos la siguiente matriz
0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i −0,5534617900 + 0,0 i 0,0 + 0,0 i
−0,1728136412 + 0,0 i
0,7302967435 0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i
4,0 × 10−11 + 0,0 i .
0,0 0,7720611574 0,0 + 0,0 i 0,0 + 0,0 i
0,0 0,0 0,8042685430 0,0 + 0,0 i 0,0 + 0,0 i
0,0 0,0 0,0 0,6168489588 0,0 + 0,0 i
95
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Estas dos matrices coinciden con 8 dı́gitos de precisión con la matriz de orden 5
de la matriz de Hessenberg de la medida.
0,0 0,0 0,0 −0,5534617899
0,7302967432 0,0 0,0 0,0
.
0,0 0,7720611580 0,0 0,0
0,0 0,0 0,8042685432 0,0
de matrices HDP
D = Dp(1)
1
· · · Dp(m)
m
.
de la forma
∑
m
D= pi [V (i) ]⋆ D(i) V (i) ,
i=1
siendo
V (i) = [T (i) ]⋆ (T ∗ )−1 , i = 1, . . . , m,
Demostración. Consideramos
∑
m
M′ = pi M ′ .
(i)
(3.16)
i=1
ya que V (i) = [T (i) ]⋆ (T ∗ )−1 , entonces (T ∗ )−1 = ([T (i) ]∗ )−1 V (i) y T −1 = [V (i) ]⋆ [T (i) ]−1 .
Multiplicando (3.16) por T −1 and (T ∗ )−1 tenemos
∑
m
−1 ′ ∗ −1
D=T M (T ) = pi T −1 [M ′ ](i) (T ∗ )−1
i=1
∑m
= pi [V (i) ]⋆ [T (i) ]−1 [M ′ ](i) ([T (i) ]∗ )−1 V (i)
i=1
∑
m
= pi [V (i) ]⋆ D(i) V (i) .
i=1
a0j
..
.
∑j
∑j
(T ) ej =
∗ −1
ajj
=
ajk ek = ajk [S]k e0 ,
k=0
k=0
0
..
.
98
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
∑
j
donde Pj (z) = akj z k y S es la matriz del shift right.
k=0
Puesto que D(i) = [T (i) ]⋆ S([T (i) ]∗ )−1 , entonces [D(i) ]k = [T (i) ]⋆ [S]k ([T (i) ]∗ )−1 , para
todo k = 0, 1, 2, . . ., de aquı́ que [D(i) ]k [T (i) ]⋆ = [T (i) ]⋆ [S]k .
Por lo tanto,
∑
j
(i) (i) ⋆ ∗ −1 (i) ⋆
Vj = [T ] (T ) ej = [T ] ajk [S]k e0
k=0
∑j
( ) ∑ (j
)
= ajk [T (i) ]⋆ [S]k e0 = ajk [D(i) ]k [T (i) ]⋆ e0
k=0 k=0
∑j
= ajk [D(i) ]k e0 = Pj (D(i) )e0 ,
k=0
Observación 3.5.4. Las fórmulas del Teorema [3.2.7] siguen siendo ciertas para la
m-suma. Estas fórmulas nos permiten definir un algoritmo recursivo para calcular
las secciones de orden n, Dn , de la m-suma D, partiendo de las secciones de orden n
(i)
de las matrices componentes Dn .
a) Dp D1−p = D (Idempotencia).
99
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
[ ] [ ]
(1) (2) (3) (1) (2) (3)
c) Dp1 Dp2 Dp3 = Dp1 Dp2 Dp3 ∀D(1) , D(2) , D(3) ∈ D (Asociativa).
Ejemplo 3.5.7. Sea D(1) y D(2) las matrices de Hessenberg asociadas con las matri-
ces hermitianas definidas positivas cuyas entradas vienen definidas por los números
binomiales:
( ) ( )
(1) i+j−2 (2) i+j−2
cij = · i · j y cij = (i + j − 1),
i−1 i−1
1 1 (−1)n+1
2 − ··· ···
2 3 n
2 1 0 ··· 0 ···
3
··· ···
0 1 0
2
4
0 0 ··· 0 ···
3
D(1) = , n ≥ 2,
.. .. .. ..
. . . .
··· ···
0 0 0 1
n+1
0 0 0 ··· ···
n
.. .. .. .. ..
. . . . .
y √ √ √
− 2 3 (−1)n n
2 ... ...
√
2 3 n
2 1 0 ... 0 ...
√ √
2 3
0 1
√ √
... 0 ...
2
0 0
3 4
... 0 ...
D(2) =
. .
3
. .
, n ≥ 2.
.. .. .. ..
0 0 0 ... 1 ...
√
n(n + 1)
0 0 0 ...
n
...
. . . . ..
.. .. .. .. .
En este ejemplo, las matrices D(1) y D(2) definen operadores que no son sub-
normales y es fácil comprobar que la m-suma no es hiponormal y por tanto no es
subnormal.
1
Ejemplo 3.5.8. Sea M (1) = I, y
2
1
2 a 0 0 ···
a a2 + 1 a 0 ···
M (2) =
2 .
0 1
a ···
a a2 +
2
.. .. .. .. . .
. . . . .
Entonces, D(1) = S, y
a −a2 a3 . . . (−1)n+1 an . . .
1 0 0 ... 0 ...
D(2) =
0 1 0 ... 0 ... , n ≥ 1,
0 0 1 ... 0 ...
.. .. .. .. ..
. . . . .
102
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
Uno de los ejemplos más sencillos de analizar es aquel en que la matriz M del
producto escalar es diagonales. Cuando esta matriz es de momentos, la medida co-
rrespondiente tiene simetrı́a concéntrica respecto del origen. La matriz de Hessenberg
asociada a una matriz HDP diagonal es un shifts con pesos y será subnormal cuan-
do M sea de momentos. Consideramos el espacio de Hilbert P 2 (M ) con la SPON
{Pn }∞
n=0 . Siguiendo a Stampfli [Sta66], diremos que S es un shift si verifica que
103
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Entonces la m-suma D = Da,p Db,q es un shift con pesos, con sucesión de pesos
dada por la siguiente fórmula
v
u ∏ ∏
u n 2 n
tp a k + q b2k
k=1 k=1
dn = v , para n ≥ 1, (3.17)
u n−1
u ∏ 2 ∏
n−1
tp ak + q b2k
k=1 k=1
∏
n
cnn = a2k para n ≥ 1 y c00 = 1.
k=1
Por la definición de la m-suma, se tiene que pMa + qMb = M (D) donde M (D) es la
matriz HDP asociada a m-suma de Da y Db .
En este caso los vectores auxiliares que se construyen en el proceso serán
∏
n
ak
v0 = e0 y vn(a) = v
(a) k=1
en , n = 1, 2, . . .
u ∏ ∏
u n n
tp a2k + q b2k
k=1 k=1
donde {en }∞ 2
n=0 son los vectores de la base canónica de ℓ (N0 ).
104
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
{ }
1
an | a1 = , a2 = a, an = 1 para todo n ≥ 3
2
y
{ }
1
bn | b1 = , b2 = b, bn = 1 para todo n ≥ 3 ,
2
respectivamente.
Entonces, usando (3.17) tenemos que m-suma D = Da,1/2 Db,1/2 es un shift con
pesos, con sucesión
{ √ }
1 a2 + b2
dn | d1 = , d2 = √ , dn = 1 para todo n ≥ 3 .
2 2
Observamos que en este ejemplo los tres shifts con pesos Da , Db y D tienen vienen
definidos por el mismo tipo de sucesión a1 = b1 = d1 = 21 , a2 = a, b2 = b, d2 = d y
an = bn = dn = 1 para todo n ≥ 3.
⊕
⊗ D hiponormal no subnormal, y
× ◦ ⊕ +: Da y Db ambos hiponormales
×: no hiponormales
◦
+ ◦ ⊗ ◦: uno hiponormal y otro no hiponormal
⊗ D no hiponormal, y
◦ ⊗: uno hiponormal y otro no hiponormal
⊕ × ⊕
⊗ ⊕: ambos no hiponormales
1
√
√1 1 2
2 2
a2 + b2 = 2.
Debido a que todo shift monótono es hiponormal, podemos tomar en este ca-
so 1
2
≤ d2 < 1, para mantener la monotonı́a y evitar la subnormalidad. Como
consecuencia nos encontramos en la región comprendida entre las circunferencias
1
≤ a2 + b2 < 2.
2
En la figura esta región está marcada con los sı́mbolos +, ◦ and ×, que se corres-
ponden con las siguientes posibilidades.
1 1
≤a≤1 y ≤ b ≤ 1.
2 2
1
Esta región se corresponde con los valores d2 < 2
o d2 > 1, es decir, con las
regiones
1
a2 + b2 < y a2 + b2 > 2,
2
que están marcadas en la figura con los sı́mbolos ⊗ y ⊕, dando lugar a los si-
guientes casos.
107
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
108
Capı́tulo 4
AUTOVALORES MÍNIMOS DE
MATRICES DE MOMENTOS
109
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS
entonces
b0
b
1
c00 c01 c02 . . .
( )
..
.
⟨p, q⟩ = a0 a1 . . . an 0 ...
c10 c11 c12 . . .
. (4.1)
. bm
.. .. .. ..
. . .
0
.
..
1
Sea {Pen (z)}∞ e
n=0 , donde Pn (z) = Pn (z), denota la sucesión de polinomios mónicos,
vn,n
∑n
donde Pn (z) = k=0 vk,n z k denota el polinomio ortonormal. Recordemos que, para
∑
cada n ∈ N, n-núcleo z, w ∈ C se define como Kn (z, w) = nk=0 Pk (z)Pk (w).
Denotamos por λn el autovalor mı́nimo de Mn . Es fácil ver que la sucesión {λn }∞
n=0
tiene que
Lema 4.1.1. Sea M una matriz HDP y sea Mn la sección de orden (n + 1). Sea
{v0 , . . . , vn } la base ortonormal de Cn+1 con respecto al producto interior inducido
por Mn con vi = (v0,i , . . . , vi,i , 0, . . . , 0) para i = 0, . . . , n y vi,i > 0. Entonces,
1 ( ) 1 1
∑n = ı́nf{ 1 w Mn : w ∈ Cn } = , (4.2)
i=0 |v0,i |
2
w∗ e0 Mn−1 e∗0
1 ( ) 1
∑∞ = ı́nf{ 1 w M : w ∈ c00 }, (4.3)
i=0 |v0,i |
2
w∗
∑
donde el lado izquierdo es cero si ∞ i=0 |v0,i | = ∞.
2
112
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn
∑
Demostración. Cada vector (1, w) ∈ Cn+1 puede ser expresado como (1, w) = ni=0 ai vi ,
∑
con la condición ni=0 ai v0,i = 1. De aquı́,
( n ) ( n )∗ n
( ) 1 ∑ ∑ ∑
ı́nf{ 1 w Mn : w ∈ Cn } = ı́nf{ ai vi Mn a i vi : ai v0,i = 1},
∗
w i=0 i=0 i=0
Es claro que |Cn | = 1 y Cn−1 existe. Por otro lado, si denotamos por D(∥α0 ∥2 , . . . , ∥αn ∥2 )
la matriz diagonal de orden (n+1)×(n+1) con entradas ∥αi ∥2 , i = 0, . . . , n, entonces:
Por tanto Mn = (Cn∗ )−1 D(∥α0 ∥2 , . . . , ∥αn ∥2 )Cn−1 y ası́ Mn−1 se puede expresar como:
1 1
Mn−1 = Cn D( ,..., )C ∗ .
∥α0 ∥2 ∥αn ∥2 n
Por lo tanto
1 1 ∑ |α0,k |2 n
e0 Mn−1 e∗0 = e0 Cn D( , . . . , )C ∗ ∗
e = ,
∥α0 ∥2 ∥αn ∥2 n 0 k=0 ∥αk ∥2
ası́
1 1
∑n = .
i=0 |v0,i |
2 e0 Mn−1 e∗0
La versión infinita (4.3) es ahora una consecuencia fácil.
113
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS
Si M es una matriz de momentos, el Lema 4.1.1 puede ser aplicado para obtener las
propiedades extremales de los n-núcleos en 0 (ver p.e. [Ass97]).
Corolario 4.1.2. Sea M (µ) una matriz de momentos HDP asociada a la medida
µ con soporte en C y sea {Pk (z)}∞
k=0 la sucesión de los polinomios ortonormales
El resultado es una consecuencia del Lema 4.1.1, y el hecho de que v0,k = Pk (0), para
cada k.
Lema 4.1.3. Sea M (µ) una matriz de momentos infinita HDP asociada a una medi-
da µ con soporte en C, λn el autovalor mı́nimo de Mn y sea z0 con |z0 | < 1. Entonces
∑ ∑ −1
λn ≤ ( nk=0 |z0 |2k ) ( nk=0 |Pk (z0 )|2 ) , para cada n ∈ N. Como consecuencia,
( )−1
∑
∞
lı́m λn ≤ (1 − |z0 |2 ) |Pk (z0 )|2 .
n→∞
k=0
1
Demostración. Puesto que Mn es hermitiana, tenemos que λn = . Por otro
∥Mn−1 ∥
lado, si |z0 | < 1 y v = (1, z0 , . . . , z0n ), por algunos resultados análogos en [Bre80]
(pág. 52) y [Sze75] (pág. 377), tenemos
∑
n
1 ∑
n
|Pk (z0 )| = Kn (z0 , z0 ) =
2
vMn−1 v ∗ ≤ ( |z0 |2k ).
k=0
λn k=0
∑n ∑ −1
Por tanto λn ≤ ( k=0 |z0 |2k ) ( nk=0 |Pk (z0 )|2 ) . Tomando lı́mites cuando n tiende
a infinito se prueba el resultado.
114
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn
Lema 4.1.5. Sea M (µ) una matriz HDP asociada a una medida positiva µ en C y
sea m la medida normalizada de Lebesgue T. Entonces las siguientes afirmaciones
son equivalentes:
1. lı́mn→∞ λn > 0.
Lema 4.1.6. Sea r ∈ (0, 1) y sea M (µ) una matriz de momentos asociada a la
medida µ en D(0; r). Entonces, para cada n ∈ N, se tiene que
1
∥Mn ∥ ≤ µ(D(0; r)) .
1 − r2
115
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS
∑
n
∥Mn ∥ = βn ≤ T raza(Mn ) = ci,i =
i=0
n ∫
∑ ∑
n
1
z i z i dµ ≤ µ(D(0; r)) r2i ≤ µ(D(0; r)) .
i=0 D(0;r) i=0
1 − r2
∫
1 1
2
dis ( , P 2 (µ)) = lı́m ı́nf | − qn (z)|2 dµ
z − z0 n→∞ qn (z)∈Pn [z] z − z0
∫
dµ
= lı́m ı́nf|1 − (z − z0 )qn (z)|2
n→∞ qn (z)∈Pn [z] |z − z0 |2
∫
dµ
= lı́m ı́nf |qn+1 (z)|2 .
n→∞ qn+1 (z)∈Pn+1 [z],qn+1 (z0 )=1 |z − z0 |2
Por las propiedades extremales del n-núcleo en z0 (ver [Ass97]) tenemos que
∫
1
∑n+1 = ı́nf |qn+1 (z)|2 dµ,
k=0 |Pk (z0 )|
2 qn+1 (z)∈Pn+1 [z],q (z
n+1 0 )=1
Corolario 4.1.8. Sea µ una medida con infinitos puntos en su soporte compacto en
C. Supongamos que z0 ∈
/ Supp(µ), entonces las siguientes afirmaciones son equiva-
lentes:
116
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn
1
1. La función ∈ P 2 (µ).
z − z0
∑∞
2. n=0 |Pn (z0 )|2 = ∞.
Teorema 4.1.9. Sea M (µ) la matriz de momentos asociada a una medida µ con
soporte compacto en C e infinitos puntos de crecimiento efectivo. Si los polinomios
son densos en L2 (µ), es decir, P 2 (µ) = L2 (µ), entonces
lı́m λn = 0,
n→∞
Demostración. Sea R > 0 tal que Ω = Supp(µ) ⊂ {z ∈ C : |z| ≤ R}. Para probar el
resultado consideramos varios casos:
Primer caso: 0 ∈/ Supp(µ). Puesto que 1/z ∈ P 2 (µ), se sigue, por el Corolario 4.1.8,
∑
que ∞ n=0 |Pn (0)| = ∞ y entonces, por el Lema 4.1.3, lı́mn→∞ λn = 0.
2
Segundo caso: 0 ∈ Supp(µ) y µ({0}) = 0. En este caso lı́mr→0 µ(D(0; r)) = 0. Su-
pongamos que P 2 (µ) = L2 (µ) y que existe λ > 0 tal que λn ≥ λ, para todo n ∈ N.
2 ≤ 2 . De-
1 λ
Consideramos r suficientemente pequeño para asegurar que µ(D(0; r)) 1−r
notamos por µcr la restricción al conjunto Ω\D(0; r) de la medida µ, y µr la restricción
∑
a D(0; r) de µ. Sea n ∈ N fijo y v = (v0 , . . . , vn ) ∈ Cn+1 con nk=0 |vk |2 = 1. Puesto
que Mn (µ) = Mn (µr ) + Mn (µcr ) y ∥Mn (µr )∥ ≤ λ
2
por el Lema 4.1.6, se sigue que:
λ
vMn (µcr )v ∗ = vMn (µ)v ∗ − vMn (µr )v ∗ ≥ vMn (µ)v ∗ − .
2
λ λ
λn (M (µcr )) ≥ λn (M (µ)) − ≥ . (4.4)
2 2
117
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS
Por otro lado, teniendo en cuenta que L2 (µ) = P 2 (µ) tenemos también L2 (µcr ) =
P 2 (µcr ). Ahora, aplicando el primer caso a la medida µcr obtenemos que
lı́m λn (M (µcr )) = 0.
n→∞
Tercer caso: 0 ∈ Supp(µ) y µ({0}) > 0. Supongamos de nuevo que P 2 (µ) = L2 (µ) y
que existe λ > 0 tal que λn ≥ λ > 0 para todo n ∈ N. Por el Lema 4.1.5, para cada
polinomio p(z), tenemos que:
∫ ∫
|p(z)| dµ ≥ λ
2
|p(z)|2 dm.
T
∫ ∫ ∫ ∫
R 2
|q(z)| dµ0 ≥
2
|zq(z)| dµ ≥ λ
2
|zq(z)| dm = λ
2
|q(z)|2 dm.
Ω0 Ω T T
Por tanto:
∫ ∫
λ
|q(z)| dµ0 ≥ 2
2
|q(z)|2 dm.
Ω0 R T
λ
λn (M (µ0 )) ≥ .
R2
Puesto que µ0 es una medida que satisface que µ0 ({0}) = 0, aplicando el segundo caso
obtenemos que L2 (µ0 ) ̸= P 2 (µ0 ). De nuevo, esto es imposible porque L2 (µ) = P 2 (µ).
Esto finaliza la prueba del teorema.
Observación 4.1.10. El recı́proco del Teorema 4.1.9 no es cierto. Para probar esto
mostraremos a continuación dos ejemplos.
118
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn
sigue que lı́mn→∞ λn = 0. Por otro lado, aplicando el Lema 4.1.7, se sigue que
1 1
dis 2 ( , P 2 (µ)) = ∑∞ = 1.
z−1 n=0 |Pn (1)|
2
1
Por lo que ∈ L2 (µ) no puede ser aproximado por polinomios y en consecuencia
z−1
P 2 (µ) ̸= L2 (µ).
Ejemplo 2. Sea M la matriz de Toeplitz
2 1 0 0 ...
1 2 1 0 ...
0 1 2 1 ...
.
0 0 1 2 ...
.. .. .. .. . .
. . . . .
Para probarlo, usaremos inducción sobre n para mostrar que para cada n tenemos
|Mn | = n + 2.
Puesto que lı́mn→∞ e0 Mn−1 e∗0 = lı́mn→∞ |Mn−1 |/|Mn | = 1, entonces, por el Corolario
1
4.1.2 y el Corolario 4.1.8, tenemos que ∈
/ P 2 (µ) y en consecuencia P 2 (µ) no es
z
denso en L2 (µ). Este resultado se puede probar utilizando el teorema de Szegö (ver
[Con91]).
Observación 4.1.11. El Teorema 4.1.9 es cierto para medidas con soporte com-
pacto en la recta real. Además, las medidas con soporte compacto en R son siem-
pre determinadas (o equivalentemente lı́mn→∞ λn = 0 por lo visto en [BCI02]) y
P 2 (µ) = L2 (µ).
Proposición 4.1.13. Sea µ una medida con soporte compacto en C tal que 0 ∈
/
Supp(µ). Las siguientes igualdades son equivalentes:
∑∞
1. n=0 |Pn (0)|2 = ∞.
1 1
2. P 2 (µ) = [1, z, , z 2 , 2 , . . . ].
z z
1 1 1 1
Donde [1, z, , z 2 , 2 , . . . ] es el cierre del subespacio generado por {1, z, , z 2 , 2 , . . . }.
z z z z
120
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn
∫ ∫
1 1 1 1
| 2 − v0 − v1 − v2 z − · · · − vn z n−1 |2 dµ = | − v0 − v1 z − . . . vn z n |2 dµ
z z |z|2 z
1 1
≤ 2
dis 2 ( , Pn [z]).
α z
Tomando ı́nfimos sobre v0 , . . . , vn y n ∈ N tenemos que
1 1 1
dis 2 ( 2
, P 2 (µ)) ≤ 2 dis 2 ( , P 2 (µ)).
z α z
1
Procediendo en la misma forma probamos que ∈ P 2 (µ) para k ∈ N.
zk
(2) implica (1) es consecuencia del Corolario 4.1.8.
y por tanto
∑
∞
|Pk (0)|2 < ∞.
k=0
121
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS
Terminamos esta sección con un resultado que relaciona el comportamiento del auto-
valor mı́nimo λn con la norma de los polinomios mónicos en relación con un resultado
en [BS11]:
Lema 4.1.15. Sea µ una medida con soporte compacto en C. Para cada n ∈ N, sea
∑
Pn (z) = nj=0 vj,n z j el polinomio ortonormal de grado n. Si k ≤ n, entonces
1
λ n ≤ ∑k .
j=0 |vj,k |
2
1 1
λ n ≤ ∑k ≤ 2
.
j=0 |vj,k |
2 vk,k
Entonces, puesto que Pn (z) = vn,n Pen (z), obtenemos trivialmente que λn ≤ ∥Pen (z)∥2 .
∑
n ∑
n
(n)
Kn (z, w) = Pk (z)Pk (w) = aj,k z j wk ,
k=0 j,k=1
1 |Mn |
lı́m ∥Pen (z)∥2 = lı́m = lı́m = 1 ̸= 0.
n→∞ en M −1 ∗ n→∞ |Mn−1 |
n en
n→∞
1
∥Pen (z)∥2 = ∑n ,
k=0 |Pk (0)|
2
y por tanto,
1
lı́m ∥Pen (z)∥2 = lı́m ∑n .
k=0 |Pk (0)|
n→∞ n→∞ 2
Proposición 4.2.1. Sea µ una medida con infinito soporte en D y supongamos que
ν = µ/T tiene infinito soporte en T. Entonces:
123
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS
Demostración. Puesto que Mn (ν) ≤ Mn (µ), tenemos vMn (ν)v ∗ ≤ vMn (µ)v ∗ . Enton-
ces
( ) v∗ ( ) v∗
∥Pen (z; ν)∥2 = ı́nfn v 1 Mn (ν) ≤ ı́nfn v 1 Mn (µ) = ∥Pen (z; µ)∥2 .
v∈C v∈C
1 1
Como consecuencia,
lı́m ∥Pen (z; ν)∥ ≤ lı́m ∥Pen (z; µ)∥.
n→∞ n→∞
Por tanto, si lı́mn→∞ ∥Pen (z; µ)∥ = 0, entonces lı́mn→∞ ∥Pen (z; ν)∥ = 0.
Por otro lado, supongamos que lı́mn→∞ ∥Pen (z; µ)∥ = c > 0. Puesto que la sucesión
{∥Pen (z; µ)∥}∞ e
n=0 es no creciente, entonces ∥Pn (z; µ)∥ ≥ c para cada n ∈ N. Sea n fijo
∫ ∫ ∫
|z p(z)| dη +
k 2
|p(z)| dν =
2
|z|2k |p(z)|2 dµ ≥ ∥Φn+k (z; µ)∥2 ≥ c2 .
D T D
Proposición 4.2.2. Sea µ una medida con infinito soporte en D, y sea ν = µ/T. Si
M (µ) y M (ν) son las matrices de momentos asociadas a µ y a ν, respectivamente,
entonces:
Demostración. Como en la Proposición 4.2.1 tenemos que Mn (ν) ≤ Mn (µ) para todo
n ∈ N. En consecuencia:
∫ ∫ ∫ ∫
|z p(z)| dµ =
n 2
|z p(z)| dη +
n 2
|p(z)| dν ≥ C
2
|p(z)|2 dm.
D D T T
de aquı́ que,
∫ ∫
|p(z)| dν ≥ C
2
|p(z)|2 dm.
T T
125
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS
el teorema de Mergelyan (ver p.e. [Gai87]) los polinomios son densos en el espacio
de las funciones continuas en Supp(ν) = {zn : n ∈ N} ∪ {z0 } con la norma del
1
supremo, y por tanto P 2 (ν) = L2 (ν). Esto implica que ∈ P 2 (ν) y por el Corolario
z
∑
4.1.8, se sigue que ∞k=0 |Pn (0; ν)|2
= ∞. Consideramos ahora la medida µ = ν + dδ0
donde dδ0 es la medida con masa d concentrada únicamente en el punto {0} y las
sucesiones de polinomios {Pn (z; ν)}∞ ∞
n=0 y {Pn (z; µ)}n=0 . Para cada n ∈ N tenemos
Proposición 4.2.4. Sea µ una medida con soporte en D y con Supp(µ/T) infinito,
tal que P 2 (µ) = L2 (µ). Entonces:
1
0 = ∑∞ = lı́m ∥Pen (z; ν)∥2 .
n=0 |P n (0; ν)|2 n→∞
126
4.2 Resultados relacionados para medidas en D
y lı́mn→∞ ∥Pen (z)∥2 = 0. Si embargo L2 (η) ̸= P 2 (η), puesto que P 2 (η) consiste en
∑ ∑∞ |an |2
todas las funciones analı́ticas ∞ n
n=0 an z tales que n=0 n+1 < ∞.
127
Capı́tulo 5
CONCLUSIONES Y LÍNEAS
FUTURAS DE INVESTIGACIÓN
131
Bibliografı́a
[Aki65] N. I. Akhiezer, The Classical Moment Problem, Oliver and Boyd, London,
1965.
[Atz75] A. Atzmon, A Moment Problem for Positive Measures on the Unit Disc,
Pacific J. Math. 59 (1975), pp. 317–325.
[Fal90] K. J. Falconer, Fractal Geometry, John Wiley and Sons, New York, 1990.
[GW93] W. Goh and J. Wimp, Asymptotics for the moments of singular distri-
butions, J. Approx. Theory, 74 (1993), pp. 301–334.
[Hal84] P.R. Halmos, A Hilbert Space Problem Book, Springer Verlag, New York,
1984.
[Hu97] T. J. Hu, The local dimension of the Bernoulli convolution associated with
the golden number, Trans. Amer. Math. Soc., 349 (1997), pp. 2917–2940.
[JW35] B. Jessen and A. Wintner, Distribution functions and the Riemann zeta
function, Trans. Amer. Math. Soc., 38 (1935), pp. 48–88.
[Sch94] A. Schief, Separation properties for self-similar sets., Proc. Amer. Math.
Soc., pages 111–115, 1994.
[Sol98] B. Solomyak, Measure and dimension for some fractal families, Math.
Proc. Cambridge Phil. Soc., 124 (1998), pp. 531–546.
[Sze36] G. Szegö, On some Hermitian forms associated two given curves of the
complex plane, Trans. Amer. Math. Soc. 40 (1936) 450-461.
140