Está en la página 1de 156

UNIVERSIDAD POLITÉCNICA DE MADRID

FACULTAD DE INFORMÁTICA

MEDIDAS AUTOSEMEJANTES EN EL
PLANO, MOMENTOS Y MATRICES
DE HESSENBERG

TESIS DOCTORAL

MARÍA DEL CARMEN ESCRIBANO IGLESIAS

Lda. en Ciencias Matemáticas


2012
DEPARTAMENTO DE MATEMÁTICA APLICADA
FACULTAD DE INFORMÁTICA

MEDIDAS AUTOSEMEJANTES EN EL
PLANO, MOMENTOS Y MATRICES
DE HESSENBERG

Autora: Marı́a del Carmen Escribano Iglesias

Lda. en Ciencias Matemáticas

Directores: M. Asunción Sastre Rosa

Dra. por la UPM, Lda. En Ciencias Matemáticas

Emilio Torrano Giménez

Dr. en Ciencias Matemáticas

2012
Memoria presentada por Marı́a del

Carmen Escribano Iglesias para la

obtención del tı́tulo de Doctor.


A Helena, Inés y Vicente
Agradecimientos

Debo comenzar expresando mi más sincero agradecimiento a mis directores Sonia


Sastre y Emilio Torrano que han hecho posible, con mucha paciencia, que la lectura
de esta tesis llegue por fin a término. Gracias por compartir conmigo todas las horas
de discusión de seminarios y cafés que están detrás del trabajo que se presenta en
esta tesis. Incluyo también en este agradecimiento, especialmente a Raquel Gonzalo y
Antonio Giraldo que han estado detrás de este trabajo. Gracias también a Venancio
Tomeo por su optimismo argumentado aleccionador.
Mi agradecimiento también, por un tiempo en el que he aprendido muchas cosas y
en el que he descubierto que hay muchas más por aprender. Pero sobre todo porque
el tiempo dedicado ha sido, para mı́, un tiempo divertido, de entusiasmo por el
descubrimiento y el asombro, en el que Sonia y Emilio son grandes maestros.
Son muchas las personas entre familiares y amigos que me han, literalmente
empujado, a terminar este trámite, y a las que agradezco mucho el empujón.

Carmen Escribano Iglesias


Madrid, diciembre 2012.
Índice general

INTRODUCCIÓN 1

1. PRELIMINARES 7

1.1. Medidas autosemejantes . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.1. Medida y dimensión de Hausdorff . . . . . . . . . . . . . . . . 10

1.1.2. Sistemas de funciones iteradas . . . . . . . . . . . . . . . . . . 13

1.1.3. Medidas invariantes . . . . . . . . . . . . . . . . . . . . . . . . 16

1.2. Teorı́a de polinomios ortogonales, matrices infinitas y operadores . . 17

1.2.1. Matrices de momentos y polinomios ortogonales . . . . . . . 19

1.2.2. Matrices de Hessenberg y el operador multiplicación por z . . 23

1.2.3. Matrices de Hessenberg asociadas a matrices HDP . . . . . . 25

2. MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJAN-


TES 31

2.1. Transformaciones de matrices de momentos por semejanzas . . . . . . 32

2.2. Matrices de momentos y fórmulas de recurrencia . . . . . . . . . . . 34

2.2.1. Caso real y la convolución infinita de Bernoulli . . . . . . . . 36

2.2.2. Función generatriz exponencial de momentos . . . . . . . . . . 42

2.3. Algoritmo para matrices de momentos de medidas autosemejantes . . 44

2.4. Teorema del punto fijo para matrices de momentos de medidas auto-
semejantes en D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
i
ii ÍNDICE GENERAL

2.5. Teorema del punto fijo para matrices de momentos de medidas auto-
semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.5.1. Espacios métricos de matrices infinitas asociados a un SFI . . 55
2.5.2. Aproximación de la matriz de momentos y velocidad de con-
vergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.6. Fórmulas explı́citas para los momentos . . . . . . . . . . . . . . . . . 61
2.6.1. Inversa de una matriz triangular inferior . . . . . . . . . . . . 62
2.6.2. Expresiones de los momentos para la convolución de Bernoulli 66

3. MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJAN-


TES 71
3.1. Transformaciones de matrices de Hessenberg por semejanzas . . . . . 72
3.1.1. Propiedades de invarianza . . . . . . . . . . . . . . . . . . . . 75
3.2. Matriz de Hessenberg de una suma de medidas . . . . . . . . . . . . . 77
3.3. Matriz de Hessenberg asociada a una medida autosemejante . . . . . 88
3.4. Comparativa de algoritmos y ejemplos . . . . . . . . . . . . . . . . . 91
3.5. Matriz de Hessenberg asociada a una suma de matrices HDP . . . . . 96
3.5.1. m-Suma de matrices de Hessenberg . . . . . . . . . . . . . . . 97
3.5.2. m-Suma de shifts con pesos . . . . . . . . . . . . . . . . . . 103

4. AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS 109


4.1. Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2. Resultados relacionados para medidas en D . . . . . . . . . . . . . . . 123

5. CONCLUSIONES Y LÍNEAS FUTURAS DE INVESTIGACIÓN 129


RESUMEN
La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS Y MA-
TRICES DE HESSENBERG se enmarca entre las áreas de la teorı́a geométrica de
la medida, la teorı́a de polinomios ortogonales y la teorı́a de operadores. La memoria
aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la
óptica de las matrices infinitas de momentos y de Hessenberg asociadas a estas me-
didas que en la teorı́a de los polinomios ortogonales las representan. En particular se
centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio
definidas por un sistema de funciones iteradas (SFI).

Los conjuntos autosemejantes son conjuntos que tienen la propiedad geométri-


ca de descomponerse en unión de piezas semejantes al conjunto total. Estas piezas
pueden solaparse o no, cuando el solapamiento es pequeño la teorı́a de Hutchinson
[Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del
solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de
la complejidad de este problema se plantea con las convoluciones infinitas de distri-
buciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes
en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema,
lejos de ser sencillo ha sido estudiado durante más de setenta y cinco años y si-
guen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en
1962. El interés que ha despertado este problema ası́ como la complejidad del mismo
está demostrado por las numerosas publicaciones que abordan cuestiones relacio-
nadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96],
[Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11].

En el primer capı́tulo comenzamos introduciendo con detalle las medidas auto-


semejante en el plano complejo y los sistemas de funciones iteradas, ası́ como los
conceptos de la teorı́a de la medida necesarios para describirlos. A continuación se
introducen las herramientas necesarias de teorı́a de polinomios ortogonales, matrices
infinitas y operadores que se van a usar.
En el segundo y tercer capı́tulo trasladamos las propiedades geométricas de las
medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamen-
te. A partir de estos resultados se describen algoritmos para calcular estas matrices
a partir del SFI correspondiente. Concretamente, se obtienen fórmulas explı́citas y
algoritmos de aproximación para los momentos y matrices de momentos de medidas
fractales, a partir de un teorema del punto fijo para las matrices. Además utilizando
técnicas de la teorı́a de operadores, se han extendido al plano complejo los resultados
que G. Mantica [Ma00, Ma96] obtenı́a en el caso real. Este resultado es la base para
definir un algoritmo estable de aproximación de la matriz de Hessenberg asociada a
una medida fractal u obtener secciones finitas exactas de matrices Hessenberg aso-
ciadas a una suma de medidas. En el último capı́tulo, se consideran medidas, µ, más
generales y se estudia el comportamiento asintótico de los autovalores de una matriz
hermitiana de momentos y su impacto en las propiedades de la medida asociada. En
el resultado central se demuestra que si los polinomios asociados son densos en L2 (µ)
entonces necesariamente el autovalor mı́nimo de las secciones finitas de la matriz de
momentos de la medida tiende a cero.
ABSTRACT
The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg
Matrices” is framed among the geometric measure theory, orthogonal polynomials
and operator theory. The work studies measures with compact support on the com-
plex plane from the point of view of the associated infinite moments and Hessenberg
matrices representing them in the theory of orthogonal polynomials. More preci-
sely, it concentrates on the study of the self-similar measures that are equilibrium
measures in a iterated functions system.

Self-similar sets have the geometric property of being decomposable in a union


of similar pieces to the complete set. These pieces can overlap. If the overlapping
is small, Hutchinson’s theory [Hut81] works well, however, when it has no restric-
tions, the theory does not hold. The overlapping problem consists in controlling the
measure of the overlap. The complexity of this problem is exemplified in the infinite
convolutions of Bernoulli’s distributions, that are an example of self-similar measures
in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem,
that far from being simple, has been studied during more than 75 years. The main
cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this pro-
blem, together with its complexity, is demonstrated by the number of publications
that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96],
[Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11].

In the first chapter, we will start with a detailed introduction to the self-similar
measurements in the complex plane and to the iterated functions systems, also in-
cluding the concepts of measure theory needed to describe them. Next, we introduce
the necessary tools from orthogonal polynomials, infinite matrices and operators.

In the second and third chapter we will translate the geometric properties of self-
similar measures to the moments and Hessenberg matrices. From these results, we
will describe algorithms to calculate these matrices from the corresponding iterated
functions systems. To be precise, we obtain explicit formulas and approximation
algorithms for the moments and moment matrices of fractal measures from a new
fixed point theorem for matrices. Moreover, using techniques from operator theory, we
extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96].
This result is the base to define a stable algorithm that approximates the Hessenberg
matrix associated to a fractal measure and obtains exact finite sections of Hessenberg
matrices associated to a sum of measurements.
In the last chapter, we consider more general measures, µ, and study the asym-
ptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with
its impact on the properties of the associated measure. In the main result we de-
monstrate that, if the associated polynomials are dense in L2 (µ), then necessarily
follows that the minimum eigenvalue of the finite sections of the moments matrix
goes to zero.
INTRODUCCIÓN

Esta memoria se dedica principalmente al estudio de las medidas de equilibrio


asociadas a un sistema de funciones iteradas, más concretamente un sistema forma-
do por semejanzas contractivas. Estas medidas se llaman medidas autosemejantes y
tienen su soporte en un conjunto autosemejante. Intuitivamente, un conjunto autose-
mejante es aquel que se puede descomponer en varias partes, cada una semejante al
total. Esta estructura se repite a diferentes escalas. Esta propiedad geométrica apa-
rece en las formas y procesos naturales. Por ello hay un fuerte interés en el estudio
de estos conjuntos y medidas.

Las medidas han sido tratadas desde dos puntos de vista diferentes. Un enfoque
es el de la teorı́a de la medida, donde las medidas son funciones definidas sobre una
σ-álgebra de conjuntos en un espacio topológico. En el otro enfoque, las medidas
aparecen asociadas a funcionales lineales positivos definidos sobre un espacio de
funciones continuas. Riesz [Rie23], estableció que los dos enfoques son equivalentes.

Por otro lado, la teorı́a de los polinomios ortogonales tiene una fuerte relación
con la teorı́a de operadores y puede parecer, en principio, muy alejada del estudio
de las medidas autosemejantes. Sin embargo, el análisis de las propiedades de una
medida a partir del comportamiento de los coeficientes de la fórmula de recurrencia
(elementos de la trididiagonal de Jacobi) se remonta a O. Blumenthal [Blu898],
aunque el verdadero iniciador de la aplicación de la teorı́a de operadores al estudio
de los polinomios ortogonales es M.H. Stone que, en [Sto32], dedica una amplı́sima
1
INTRODUCCIÓN

sección al estudio de la tridiagonal de Jacobi. En otro orden hay que situar a G.


Szegö [Sze36] o Shohat [ST43] interesados en la caracterización la medida, en el caso
de la circunferencia unidad o la recta real, pero sin utilizar técnicas propias de la
teorı́a de operadores. El teorema de E.A. Rakhmanov [Rak83, Rak87] es uno de
los resultados clave de los últimos años en la teorı́a de los polinomios ortogonales
reales. La aparente simplicidad de su enunciado despertó el interés de numerosos
investigadores que han tratado de aproximarse a los problemas abiertos de su entorno,
retomando las técnicas usadas por M.H. Stone, como es el caso de J. Dombrowski
[Dom78, Dom80, Dom84, Dom85, Dom87].

Las relaciones de recurrencia de los polinomios ortogonales han sido representa-


das por operadores definidos por matrices cuyas entradas guardan mucha informa-
ción sobre la medida. Es en este contexto matricial donde desarrollaremos nuestra
investigación con el objeto de descubrir propiedades de las medidas en términos de
propiedades de las matrices de momentos y de Hessenberg asociadas a estas medidas.

El estudio de las medidas y conjuntos autosemejantes fue introducido por Hut-


chinson en [Hut81]. El problema del solapamiento consiste en controlar el tamaño del
solapamiento entre las piezas en que se descomponen los conjuntos autosemejantes.
Estas piezas pueden solaparse o no, cuando el solapamiento es pequeño la teorı́a de
Hutchinson funciona bien, pero cuando no existen restricciones no se puede aplicar
y no se conoce ni la dimensión del conjunto ni el comportamiento de la medida.

Un ejemplo de la complejidad de este problema se plantea con las convoluciones


infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas
autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaban
este problema, que lejos de ser sencillo ha sido estudiado durante más de setenta y
cinco años y siguen sin resolverse las principales cuestiones planteadas por A. Garsia
[Gar62] en 1962. El interés que ha despertado este problema ası́ como la complejidad
del mismo está demostrado por las numerosas publicaciones que abordan cuestiones
2
INTRODUCCIÓN

relacionadas con este problema, ver por ejemplo [JW35], [Erd39], [PS96], [Ma00],
[Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11], [HOS11]. En [Ass10] se
plantean una serie de problemas abiertos relacionados con el trabajo que hemos
desarrollado.

La mayor parte de los resultados que se van a presentar en la memoria utilizan


técnicas que requieren de la teorı́a de la medida, polinomios ortogonales, teorı́a de
operadores y análisis funcional.

En el primer capı́tulo se introducen con detalle los sistemas de funciones iteradas


y las medidas autosemejantes, ası́ como los conceptos de la teorı́a de la medida nece-
sarios para describirlos. Para entender básicamente la definicón de medida autoseme-
jante se definen los conceptos de medida y dimensión de Hausdorff y a continuación
el concepto de sistema de funciones iteradas y medidas invariantes. En la última
parte del capı́tulo se introducen las herramientas necesarias de la teorı́a de polino-
mios ortogonales, matrices infinitas de momentos y de Hessenberg, y conceptos de la
teorı́a de operadores que se van a utilizar mas adelante. También recordaremos las
expresiones que relacionan las matrices de momentos y las matrices de Hessenberg
ası́ como la consistencia de las mismas que verifican sus secciones finitas, dadas en
[Tor87] y en [GT93].

En el segundo capı́tulo presentamos las transformaciones de matrices de mo-


mentos que aparecen al considerar la medida inducida por una transformación de
semejanza. Este resultado aplicado al caso de matrices de momentos de medidas
autosemejantes permitirá definir una transformación entre matrices de momentos
que replique la propiedad de invarianza para la matriz de momentos de la medida
invariante. De esta manera trasladamos las propiedades geométricas de las medidas
autosemejantes a las matrices de momentos. Las ecuaciones matriciales que se obtie-
nen dan lugar a formalizar un teorema de punto fijo en un espacio de matrices que
permite construir algoritmos de aproximación para calcular estas matrices a partir
3
INTRODUCCIÓN

del SFI correspondiente. Este punto fijo es necesariamente la matriz de momentos


de la medida autosemejante. Se analiza su velocidad de convergencia y se presentan
varios ejemplos. Además se obtienen funciones generatrices, fórmulas recursivas para
los momentos de estas medidas y más concretamente, se obtienen expresiones explı́ci-
tas en términos de números multinómicos y composiciones de números naturales para
los momentos y matrices de momentos de las convoluciones de Bernoulli.

El tercer capı́tulo está dedicado al estudio de las matrices de Hessenberg siguien-


do por el mismo camino que en el capı́tulo anterior para las matrices de momentos.
Partiendo de la matriz de Hessenberg de una medida, se analiza la transformación
de esta matriz cuando consideramos la medida inducida por una semejanza. A con-
tinuación, se estudia la matriz de Hessenberg asociada a una suma de medidas y
se establece un algoritmo para calcular, de forma exacta, la matriz de Hessenberg
de esta suma a partir de las matrices de Hessenberg de las medidas componentes.
Estos resultados, aplicados al caso de medidas autosemejantes nos van a permitir
definir una transformación de matrices de Hessenberg, y en definitiva de los poli-
nomios ortogonales. De esta manera trasladamos las propiedades geométricas de las
medidas autosemejantes a las matrices de Hessenberg. Las ecuaciones matriciales que
se obtienen dan lugar a un algoritmo en el que se utilizan técnicas de la teorı́a de
operadores y extiende al plano complejo los resultados que G. Mantica [Ma00, Ma96]
obtenı́a en el caso real. Este resultado es la base para definir un algoritmo estable
para aproximar la matriz de Hessenberg asociada a una medida fractal con soporte
en el plano complejo.

La última idea que se presenta en este capı́tulo se basa en técnicas puramente


algebraicas que nos permiten definir lo que hemos llamado m-suma de matrices de
Hessenberg, incluso cuando no estemos respaldados por una medida. Se analizan pro-
piedades en relación a los diferentes tipos de normalidad de las matrices componentes
en todos los casos de Shifts monótonos. Destacamos que en los ejemplos existe una
4
INTRODUCCIÓN

m-suma de operadores no subnormales que resulta subnormal, de lo cual se deduce


que esta forma de sumar “crea medida de donde no la hay”.
En el capı́tulo cuarto se consideran medidas más generales. Estudiaremos el com-
portamiento asintótico de los autovalores de la matriz de momentos y su impacto en
las propiedades de la medida asociada. Berg, Chen e Ismail [BCI02] probaron que
una medida µ sobre R es determinada, si y sólo si la sucesión λn de los autovalores
mı́nimos de cada sección de orden n + 1 de la matriz de momentos tiende a cero.
Recuérdese que una medida µ es determinada cuando el problema de los momentos
tiene como única solución la medida µ. Este nuevo criterio para la determinación de
una medida ha motivado el estudio de este comportamiento en el caso de medidas
con soporte compacto en el plano complejo. En este contexto, la situación es com-
pletamente diferente, ya que por ejemplo, la medida de Lebesgue normalizada en
la circunferencia unidad, que como sabemos es la solución de un problema de mo-
mentos determinado, tiene como matriz de momentos asociada la matriz identidad
I y obviamente λn = 1 para todo n ∈ N. El resultado que hemos obtenido es que
el comportamiento asintótico del autovalor mı́nimo λn está relacionado con el pro-
blema de aproximación por polinomios, esto es, con el problema de la completitud
en lugar de con el problema de la determinación. El resultado central prueba que si
los polinomios asociados a la medida µ son densos en L2 (µ) entonces el autovalor
mı́nimo de las secciones finitas de la matriz de momentos de la medida tiende a cero.

5
Capı́tulo 1

PRELIMINARES

En este capı́tulo se recuerdan las definiciones y resultados básicos de la teorı́a


de la medida, teorı́a de operadores y polinomios ortogonales que utilizaremos en los
capı́tulos posteriores. Para los resultados generales que vamos a recordar en este
capı́tulo sobre teorı́a de la medida y geometrı́a fractal se puede consultar en K. J.
Falconer [Fal90], sobre polinomios ortogonales en [Chi78], [Sze75] por T. S. Chihara
y G. Szegö, respectivamente y sobre teorı́a de operadores, ver por ejemplo J. B.
Conway [Con91] y J. Bram [Bra55].

En todo el trabajo consideraremos (X, d) un espacio métrico separable y comple-


to, que normalmente será un compacto de R, R2 o C con la métrica euclı́dea.

1.1. Medidas autosemejantes

La medida de Lebesgue trata de medir conjuntos a partir de recubrimientos con


conjuntos sencillos como son los intervalos en Rn . Sin embargo, existen conjuntos
con una estructura más complicada que no se miden bien con esta medida, como
el conjunto de Cantor u otros conjuntos fractales y para los cuales las técnicas del
cálculo integral no proporcionan una solución satisfactoria.

Para introducir otro tipo de medidas más adecuado para el estudio de estos con-
7
PRELIMINARES

juntos recordaremos varios conceptos de teorı́a de la medida y de geometrı́a fractal,


que se pueden encontrar en [Edg98].
Una σ-álgebra, A, de conjuntos en un espacio X es una familia no vacı́a de
subconjuntos de X que es cerrada con las operaciones de complementarios y uniones
numerables.

Definición 1.1.1. Una medida µ en X es una función de conjunto, definida en una


σ-álgebra de X, A, que es no negativa y σ-aditiva. Esto es, µ : A → [0, ∞] es una
medida si verifica la siguiente propiedad:
Si A1 , A2 , . . . ∈ A, disjuntos dos a dos, entonces
(∞ )
∪ ∑∞
µ Ai = µ(Ai ).
i=1 i=1

En este caso decimos que (µ, A, X) es un espacio de medida y que los elementos
de A son los conjuntos µ-medibles. Recordemos que la σ-álgebra de Borel, B, es la
mı́nima σ-álgebra que contiene a los conjuntos abiertos.
Existe también un concepto de medida más amplio denominado medida exterior
utilizado en geometrı́a fractal donde la función de conjunto se define sobre partes de
X, P(X).

Definición 1.1.2. La función de conjunto µ∗ : P(X) → [0, ∞] es una medida


exterior si verifica las siguientes propiedades.

1. µ∗ (∅) = 0.

2. µ∗ (A) ≤ µ∗ (B) para todo A ⊂ B.


(∞ )
∪ ∑∞
3. µ ∗
Ai ≤ µ∗ (Ai ).
i=1 i=1

Además un conjunto C ⊂ X es µ∗ -medible si

µ∗ (E) = µ∗ (E ∩ C) + µ∗ (E \ C) para todo E ⊂ X,

y el conjunto A∗ de los conjuntos µ∗ -medibles es un σ-álgebra.


8
1.1 Medidas autosemejantes

Observación 1.1.3. Toda medida µ definida en una σ-álgebra A, se puede extender


a una medida exterior µ∗ , de la siguiente forma

µ∗ (C) = ı́nf{µ(A) | C ⊂ A ∈ A}.

Recı́procamente, toda medida exterior restringida a la σ-álgebra de los conjuntos


medibles es una medida. Esto nos permite hablar de medida aunque nos refiramos a
una medida exterior.

Esta forma de definir medidas mediante recubrimientos es en la que se basará la


definición de medidas de Hausdorff.

Necesitaremos también los siguientes conceptos.

Definición 1.1.4. Sea (µ, A, X) un espacio de medida. Se dice que µ es una medida
finita si µ(X) < ∞ y que es una medida de probabilidad cuando µ(X) = 1. Se dice

que µ es una medida σ-finita si existen A1 , A2 , . . . ∈ A con X ⊂ ∞i=1 Ai tal que

µ(Ai ) < ∞. Se dice que µ es una medida de Borel si los conjuntos de Borel son
µ-medibles.

El soporte de una medida es el conjunto Supp(µ) formado por los puntos x tales
que µ(E) > 0 para todo conjunto E que tiene x como punto interior. El soporte
puntual de µ es el conjunto A(µ) = {x ∈ X | µ(x) > 0} de los puntos con masa
o átomos. Una medida se dice continua o discontinua dependiendo de si el soporte
puntual es vacı́o o no. Se dice que µ es puramente atómica si µ(A(µ)) = µ(X).
Diremos que es singular, si es continua y existe un conjunto E de Borel de medida
de Lebesgue cero y tal que µ está concentrada en E, es decir, µ(X \ E) = 0. Diremos
que µ es absolutamente continua respecto de ν, esto es µ << ν, si µ(E) = 0 para
todo conjunto de Borel E con ν(E) = 0. Por último, diremos que una medida es
absolutamente continua respecto de la medida de Lebesgue, si µ(E) = 0 para todo
conjunto de Borel E de medida de Lebesgue cero. Este caso se da si y sólo si existe
9
PRELIMINARES

una función f integrable Lebesgue, es decir, f ∈ L1 , de forma que



µ(E) = f (x)dx,
E

para cualquier conjunto de Borel E. Esta función f se llama densidad de µ.


En lo que sigue, MP (X) denotará el conjunto de las medidas de probabilidad Bo-
rel regulares en el espacio métrico (X, d). La convergencia débil de medidas definida
a continuación se puede ver en [Edg98].

Definición 1.1.5. Diremos que una sucesión de medidas {µn } ⊂ MP (X) converge
débilmente a µ ∈ MP (X) si
∫ ∫
lı́m f dµn = f dµ, para toda función f ∈ C0 (X),
n→∞

donde C0 (X) es el espacio de las funciones continuas en X, con soporte compacto.


Esta convergencia la notaremos por µn → µ.

Teorema 1.1.6. Una sucesión {µn } de medidas en MP (X) es débilmente conver-


gente a µ ∈ MP (X) si y sólo si, µn (E) → µ(E) para todo conjunto E de X tal que
µ(∂E) = 0, donde ∂E denota la frontera del conjunto E.

1.1.1. Medida y dimensión de Hausdorff

Uno de los métodos de construcción de medidas es el método de Carathéodory o


Método II. Este procedimiento consiste en recubrir el conjunto a medir con conjuntos
de diámetro menor que δ, evaluar los conjuntos del recubrimiento con una función
de conjunto, para después tomar el ı́nfimo y hacer tender δ a cero. Variando el tipo
de conjuntos que se utilizan para recubrir y la función que determina qué evaluar
de estos conjuntos, se obtienen diferentes medidas. Por ejemplo, si utilizamos bolas
para recubrir en la definición de H s , se obtienen las medidas de Hausdorff esféricas,
B s . La medida s-dimensional (s ∈ R+ ) de Hausdorff, H s , de un conjunto A ⊂ Rn
se define recubriendo el conjunto A por conjuntos cualesquiera con diámetro menor
10
1.1 Medidas autosemejantes

que un cierto δ. Como no podemos evaluar la medida de estos conjuntos arbitrarios,


lo que evaluamos es su diámetro elevado a s. Tomamos el ı́nfimo de estos valores,
para cada δ y hacemos tender δ a cero, es decir,
{∞ }
∑ ∪

H s (A) = sup ı́nf diams (Si ) : A ⊂ Si , diam(Si ) ≤ δ .
δ>0
i=1 i=1

Si llamamos
{∞ }
∑ ∪

Hδs (A) = ı́nf diams (Si ) : A ⊂ Si , diam(Si ) ≤ δ ,
i=1 i=1

se tiene que H s (A) = lı́m Hδs (A).


δ↓0

En el caso particular de s = 0 consideraremos por convenio que 00 = 1, y se tiene,



 card(A) si A es finito,
0
H (A) =
 ∞ si A es infinito.

Es decir, la medida H 0 es la de contar el número de elementos que tiene el


conjunto. También se puede ver que si s = 1 y γ ⊂ Rn es una curva rectificable (de
longitud finita) entonces H 1 (γ) = long(γ). Además, se puede probar que H n coincide
con Ln salvo una constante (la medida de la bola unidad en Rn ), para todo n ∈ N
(ver [Fal90]).

Teorema 1.1.7. La medida s-dimensional de Hausdorff H s es una medida exterior


y cumple las siguientes propiedades:

i) Si f es una isometrı́a (es decir |f (x) − f (y)| = |x − y|, ∀x, y), entonces

H s (f (A)) = H s (A).

ii) Si f es una homotecia de razón λ (es decir |f (x) − f (y)| = λ|x − y|, ∀x, y),
entonces

H s (f (A)) = λs H s (A).

11
PRELIMINARES

iii) Si f es lipschitziana (es decir ∃c > 0 tal que |f (x) − f (y)| ≤ c|x − y|, ∀x, y),
entonces
H s (f (A)) ≤ cs H s (A).

Como consecuencia, las s-medidas son homogéneas por semejanzas en el siguiente


sentido: Si f : Rn → Rm es una semejanza de razón r entonces para todo E ⊂ Rn se
tiene que H s (f (E)) = rs H s (E).

Definición 1.1.8. Dado un conjunto A ⊂ Rn , existe un único valor s tal que



 H t (A) = ∞ si t < s,
 H t (A) = 0 si t > s.

A este s le llamaremos dimensión de Hausdorff del conjunto A y lo notaremos por


dim(A) = s, es decir,

{ } { }
dim(A) = sup s ∈ R+ | H s (A) = ∞ = ı́nf s ∈ R+ | H s (A) = 0 .

Si A tiene medida finita y positiva 0 < H s (A) < ∞, entonces diremos que A es
un s-conjunto o un s-fractal.
Las propiedades geométricas de esta dimensión permiten calcular directamente la
dimensión de Hausdorff de un conjunto en algunos casos particulares. Sea A ⊂ Rn y
supongamos que existe una semejanza, f , de razón r (0 < r < 1), de forma que f (A)
es una parte de A para la que sabemos determinar la proporción t (0 < t < 1) de su
medida con respecto a la medida de A. Entonces, teniendo en cuenta las propiedades
de las s-medidas, para cada s ≥ 0 se verifica:

H (f (A)) = r H (A) 
s s s
⇒ rs H s (A) = tH s (A).
s s
H (f (A)) = tH (A) 

y si existe un s para el que 0 < H s (A) < ∞ (y, por tanto, dim(A) = s), entonces se
ha de cumplir que
log t
rs = t ⇒ s = ·
log r
12
1.1 Medidas autosemejantes

Una vez obtenido s de esta forma habrá que demostrar que 0 < H s (A) < ∞
puesto que podrı́a no existir tal s.
Veamos un ejemplo que, además de ilustrar este método, nos permitirán calcular
la dimensión de algunos de los conjuntos fractales clásicos.

Ejemplo 1.1.9. Triángulo de Sierpinski T 1 . La construcción del triángulo de Sier-


2

pinski T 1 consiste en dividir un triángulo en cuatro triángulos semejantes al inicial y


2

eliminar el central, este proceso se itera sobre cada uno de los triángulos que quedan
en cada paso sucesivo, de manera que el conjunto lı́mite será el triángulo, como se
muestra en la figura.

Figura 1.1: Triángulo de Sierpinski

Puesto que este conjunto se compone de tres partes iguales (las partes del con-
junto T 1 que corresponden a los tres triángulos T0 , T1 , T2 de la primera etapa de
2

la construcción del triángulo de Sierpinski) semejantes al conjunto total, podemos


calcular la dimensión por el procedimiento que acabamos de describir y se obtiene

log 3
s= ·
log 2

1.1.2. Sistemas de funciones iteradas

Los resultados que se exponen en esta sección se deben principalmente a Hutchin-


son, quien formalizó la teorı́a de conjuntos y medidas autosemejantes en [Hut81]. Se
considera el espacio H(X) de los conjuntos compactos no vacı́os de Rn con la métrica
de Hausdorff (ver [Fal90]). Este espacio métrico es completo.
13
PRELIMINARES

Sea Φ = {φ1 , φ2 , . . . , φk } un conjunto de funciones contractivas con factores de


contracción r1 , r2 , . . . , rk respectivamente. La aplicación de conjunto S Φ definida, en
el espacio H(Rn ) de los conjuntos compactos en Rn , de la forma

k
S Φ(A) = φi (A),
i=1

es una función contractiva en el espacio H(Rn ) con la métrica de Hausdorff, y su


factor de contracción es r = máx {ri | i = 1, 2, . . . , k}.
Con las siglas SFI (sistema de funciones iteradas) denotaremos un conjunto finito
Φ de semejanzas contractivas en un espacio métrico completo, sobrentendiendo la
aplicación contractiva S Φ, con su factor de contracción r. La definición de SFI es
más general ya que puede estar formado simplemente por funciones contractivas.
Como consecuencia del teorema del punto fijo para funciones contractivas en
espacios métricos completos se obtiene el siguiente resultado.

Teorema 1.1.10. Sea Φ = {φ1 , φ2 , . . . , φk } un SFI con factor de contracción r.


Entonces existe un único conjunto E ∈ H(Rn ) fijo para S Φ que cumple

E = S Φ(E) = lı́m S Φi (F ), para todo compacto F,


i→∞

donde S Φi denota la composición i-veces de S Φ consigo misma.

El conjunto E se llama atractor del SFI, ya que se puede considerar el siste-


ma dinámico discreto definido por S Φ. Para este sistema dinámico el punto fijo es
atractivo.
La dimensión de semejanza del conjunto E, si las funciones contractivas son
semejanzas y tienen los factores de contracción r1 , r2 , . . . , rk , es el único número
s ∈ R+ que verifica
r1s + r2s + · · · + rks = 1.

En general se tiene que la dimensión de semejanza es mayor o igual que la dimensión


de Hausdorff, aunque en muchos casos, como el conjunto de Cantor o el Triángulo
de Sierpinski, se da la igualdad.
14
1.1 Medidas autosemejantes

Definición 1.1.11. Diremos que un sistema Φ = {φ1 , φ2 , . . . , φk } de semejanzas


contractivas de Rn cumple la condición de abierto (OSC, del inglés “open set condi-
tion”) si existe un conjunto V abierto y acotado de Rn tal que

k
i) φi (V ) ⊂ V .
i=1

ii) φi (V ) φj (V ) = ∅ si i ̸= j.

En 1994 A. Schief [Sch94] demuestró que la condición de abierto es equivalente a la


condición fuerte de abierto, es decir V corta al conjunto autosemejante E, V ∩E ̸= ∅.

Teorema 1.1.12. Sea Φ = {φ1 , φ2 , . . . , φk } un sistema de semejanzas contractivas


de Rn con razones ri , 1 ≤ i ≤ k. Si el sistema cumple la condición de abierto entonces
el compacto invariante para Φ es autosemejante y se cumple

dimH E = s,

siendo s el único número real no negativo s tal que



k
(ri )s = 1.
i=1

Ejemplo 1.1.13. El Conjunto de Cantor. Podemos comprobar que el conjunto de


Cantor es un conjunto autosemejante, ya que se compone de dos copias iguales al
1
conjunto total, de tamaño del tamaño de éste.
3
Al ser un conjunto autosemejante y al cumplir la condición de abierto podemos
calcular su dimensión de semejanza. Para calcular su dimensión de semejanza, hay
que observar que C es el punto fijo del SFI
{ }
1 1 2
Φ = φ1 (x) = x, φ2 (x) = x + ,
3 3 3
y que cumple la condición de abierto con el conjunto abierto O = (0, 1). Por tanto,

1
dims (C) = s, siendo s el único valor que cumple 2 = 1.
3s
log 2
Es decir, el conjunto de Cantor C tiene dimensión s = .
log 3

15
PRELIMINARES

1.1.3. Medidas invariantes

Vamos a introducir las medidas autosemejantes asociadas a un SFI con probabi-


lidades. Para ello, vamos a definir una métrica en el conjunto MP (X) de las medidas
de Borel de probabilidad, definidas sobre el espacio métrico (X, d).
Además, la convergencia débil coincide con la convergencia respecto a esta métri-
ca. Recordaremos también como, gracias al teorema de punto fijo para funciones
contractivas, obtenemos las medidas autosemejantes.

Definición 1.1.14. Se define la métrica de Hutchinson para µ, µ′ ∈ MP (X), como:

{ ∫ ∫ }

′ ′
dH (µ, µ ) = sup f dµ − f dµ | f : X → R continua, |f (x) − f (y)| ≤ d(x, y), ∀x, y ∈ X .

Para la demostración de la equivalencia entre la convergencia débil y la conver-


gencia en la métrica de Hutchinson, ver [Fal97].
El siguiente teorema se puede encontrar en [Bar93] y [Hut81].

Teorema 1.1.15. Sea (X, d) un espacio métrico completo. Entonces el espacio MP (X)
con la métrica de Hutchinson dH es un espacio métrico compacto.

Definición 1.1.16. Sea (X, d) un espacio métrico. Consideramos el sistema de fun-


ciones iteradas con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },


k
donde pi > 0 para todo i ∈ {1, 2, . . . , k} y pi = 1.
i=1
El operador de Markov asociado al SFI, es una función T : MP (X) → MP (X)
definida por

k
T (µ) = pi µ ◦ φ−1
i .
i=1

Nótese, que si f : X → X es una función continua, es claro que la imagen inversa


por f de un conjunto de Borel es un conjunto de Borel, por lo que si µ ∈ MP (X)
16
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores

se tiene que µ ◦ f −1 ∈ MP (X). Los siguientes resultados se pueden encontrar en


[Bar93, pg. 350].

Lema 1.1.17. Sea T el operador de Markov asociado al SFI con probabilidades


Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }. Sea f : X → R una función simple o una función
continua. Sea µ ∈ MP (X). Entonces,
∫ ∑
k ∫
f d(T (µ)) = pi f ◦ φi dµ.
X i=1 X

Teorema 1.1.18. Sea (X, d) un espacio métrico. Consideramos el sistema de fun-


ciones iteradas con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }.

Sea r el factor de contracción del SFI. Entonces, el operador de Markov asociado


a este SFI es una función contractiva en MP (X), con factor de contracción r, es
decir,
dH (T (µ), T (µ′ )) ≤ rdH (µ, µ′ ).

En particular, existe una única medida de probabilidad µ ∈ MP (X) invariante para


T , es decir, T (µ) = µ. El soporte de esta medida es el único compacto invariante
asociado al SFI Φ. Esta medida se llamará medida autosemejante cuando Φ esté for-
mado por semejanzas.

1.2. Teorı́a de polinomios ortogonales, matrices

infinitas y operadores

La teorı́a de los polinomios ortogonales es una disciplina muy amplia que puede ser
abordada desde muy diferentes puntos de vista. La conexión directa de las medidas
y los polinomios ortogonales está presente en la propia definición de ortogonalidad,
es claro que las propiedades de una medida influyen en la sucesión de polinomios
17
PRELIMINARES

ortogonales que genera y viceversa. Las relaciones de recurrencia de los polinomios


ortogonales han sido representadas por operadores y analizados con éxito deduciendo
propiedades de las medidas ya desde M.H. Stone en 1932, O. Blumental en 1998, por
J. Dombrowski 1978-87 o por E.A. Rakhmanov 1983 -87. Estos operadores vienen
definidos por matrices cuyas entradas guardan mucha información sobre la medida.
Es en este contexto matricial donde desarrollaremos nuestra investigación con el
objeto de descubrir propiedades de las medidas en términos de propiedades de las
matrices de momentos y de Hessenberg asociadas a estas medidas. La mayor parte de
los resultados que se van a presentar en la memoria utilizan técnicas que requieren
de la teorı́a de la medida, polinomios ortogonales, teorı́a de operadores y análisis
funcional. De hecho, la sucesión de polinomios ortonormales con respecto a una cierta
medida con soporte acotado en el plano complejo es una base infinita ortonormal con
respecto a un cierto producto interior que induce la matriz de momentos. Además
el operador multiplicación por z sobre los polinomios está representado por una
matriz infinita Hessenberg superior. Estas matrices y sus secciones finitas verifican
ciertas relaciones que nos van a permitir obtener información sobre la medida. Este
es el punto esencial que nos permitirá sumergir el estudio de dichos polinomios en el
contexto más amplio de los espacios de Hilbert. Por ello las herramientas del Algebra
Lineal para espacios vectoriales de dimensión finita e infinita resultarán esenciales
en este trabajo.

En lo que sigue recordamos algunos conceptos fundamentales sobre la teorı́a de


los polinomios ortogonales.

Denotaremos por D = {z; |z| < 1} el disco unidad y T = {z; |z| = 1} denotará la
circunferencia unidad. Dada una matriz D (finita o infinita) denotaremos por DT la
matriz traspuesta de D y por D∗ la traspuesta conjugada de la matriz D y en la
misma forma lo haremos para vectores. Si D es un operador, D⋆ denotará el operador
adjunto de D. Consideraremos N0 = N ∪{0}.

18
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores

1.2.1. Matrices de momentos y polinomios ortogonales

Consideraremos a lo largo de la memoria que µ es una medida Borel de probabilidad


con soporte Supp(µ) acotado en el plano complejo y en general con infinitos puntos
de crecimiento efectivo.
denotaremos L2 (µ) el espacio de Hilbert de las funciones f : C → C tales que

|f (z)|2 dµ < ∞.

Se define en el espacio L2 (µ) el producto interior usual. Consideraremos la inclu-


sión canónica del espacio vectorial P[z] de polinomios de variable compleja en L2 (µ),
con el producto interior ∀Q(z), R(z) ∈ P[z] que viene expresado por

⟨Q(z), R(z)⟩µ = Q(z)R(z)dµ(z).
Supp(µ)

Sea {z n }∞
n=0 la base canónica, aplicando el proceso de Gram Schmidt se obtiene
una sucesión de polinomios ortonormales, abreviadamente SPON, {Pn (z)}∞
n=0 aso-

ciados a la medida µ. Los coeficientes de estos polinomios pueden ser complejos,


aunque elegiremos el coeficiente conductor del polinomio Pn (z) real y positivo para
determinarla de manera única. Asimismo si bn,n es el coeficiente conductor de Pn (z),
1
denotaremos por {Pen (z)}∞ e
n=0 , con Pn (z) = Pn (z), la sucesión de polinomios móni-
bn,n
cos. Recordemos también que para cada n ∈ N, el n-núcleo en z, w ∈ C se define

como Kn (z, w) = nk=0 Pk (z)Pk (w).
Recordemos que el momento (i, j) asociado a la medida µ es

cij = ⟨z , z ⟩ = z i z j dµ(z) para todo i, j ∈ N0 ,
i j

y que su matriz de momentos es la matriz infinita hermitiana definida positiva,


abreviadamente HDP,
 
 c00 c10 c20 ... 
 
 c01 c11 c21 ... 
 
M (µ) =  .
 c ... 
 02 c12 c22 
 
.. .. .. ...
. . .

19
PRELIMINARES

Observación 1.2.1. Si denotamos por Mn la sección n-ésima de la matriz M (µ) se


tiene que |Mn | > 0 para todo n ∈ N0 puesto que M (µ) es HDP. Si el soporte de µ
tuviera un número finito de puntos de crecimiento efectivo (soporte= número finito
de átomos) la SPON serı́a finita y M serı́a semidefinida positiva, esto es, |Mn | ≥ 0,
para todo n ∈ N0 .

Consideramos el espacio C00 de las sucesiones complejas con una cantidad finita
de términos no nulos, es decir,

C00 = {(vn )∞
n=0 tales que existe n0 ∈ N con vn = 0 para n ≥ n0 }.

La identificación de P[z] con el espacio C00 nos permite usar la matriz infinita de
momentos para representar el producto interior. Ası́, si p(z) = v0 + · · · + vn z n lo
identificamos con el vector infinito v = (v0 , . . . , vn , 0, 0, . . . ) ∈ C00 .
Dados dos polinomios cualesquiera p(z), q(z) ∈ P[z], digamos p(z) = v0 +· · ·+vn z n
y q(z) = w0 + · · · + wm z m , y los vectores correspondientes v = (v0 , . . . , vn , 0, 0, . . . ) y
w = (w0 , . . . , wm , 0, 0, . . . ), podemos representar el producto interior matricialmente
a través de la matriz de momentos M (µ)
 
∫ ( )  v0 
 
p(z)q(z)dµ = w0 w1 . . . M (µ) 
 v 1
 = wM (µ)v t = vM t (µ)w∗ ,

 . 
..

donde v t , v y v ∗ denotan los vectores traspuesto, conjugado y traspuesto conjugado


de v, respectivamente. Muchos autores representan el producto interior a través de
la última expresión vM t (µ)w∗ , y llaman matriz de momentos a la matriz traspues-
ta, M t (µ). A lo largo de este trabajo manejaremos la primera expresión salvo en
el capı́tulo 4 que para mayor comodidad de lectura de las fórmulas se utilizará la
segunda expresión.
El espacio P 2 (µ), denotará el espacio de Hilbert que consiste en la complección
de P[z] con la norma definida a partir del producto interior ⟨, ⟩µ , esto es, el cierre de
20
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores

P[z] in L2 (µ). Si dada una medida µ, los polinomios son densos en L2 (µ) tenemos
que P 2 (µ) = L2 (µ) y se dice que estamos en un caso completo.
A continuación veremos cómo el hecho de que el soporte de la medida asociada
esté contenido en la recta real, en la circunferencia unidad o en el plano complejo,
determina diferentes tipos de matrices de momentos.
Sea µ una medida con soporte en la recta real. En este caso los momentos cij son
reales y se tiene que para cada i, j ∈ N0
∫ ∫
cij = i j
z z dµ = xi+j dµ = si+j ∈ R,
R

por lo que la matriz infinita de momentos será del tipo:


 
s s s s ...
 0 1 2 3 
 
 s1 s2 s3 s4 ... 
 
 
 s s s s ... 
 2 3 4 5 .
 
 
 s3 s4 s5 s6 ... 
 
.. .. .. .. ..
. . . . .

A continuación mostraremos un ejemplo de este tipo de matriz conocida como matriz


de Hankel.

Ejemplo 1.2.2. La medida de Lebesgue en el intervalo [0, 1] tiene por momentos


∫ 1
1
cij = xi+j dx = para cada i, j ∈ N0 .
0 i+j+1

La matriz de momentos asociada a esta medida es:

 
 1 1/2 1/3 . . .
 
1/2 1/3 1/4 . . .
 
H= ,
1/3 1/4 1/5 . . .
 
 
.. .. .. . .
. . . .

que es conocida como la matriz de Hilbert.


21
PRELIMINARES

Consideramos ahora una medida ν sobre la circunferencia unidad T.


1
Teniendo en cuenta que si z ∈ T se tiene que z = entonces
z
∫ ∫
cij = i j
z z dν = z i−j dν = ci−j ∈ C,
T T

y por lo tanto la matriz de momentos será


 
c c1 c2 c3 ...
 0 
 
 c−1 c0 c1 c2 ... 
 
 
 c ... 
 −2 c−1 c0 c1 ,
 
 
 c−3 c−2 c−1 c0 ... 
 
.. .. .. .. ..
. . . . .

donde c−i = ci y c0 = ν(T) ∈ R. Estas matrices que son constantes en todas las
subdiagonales principales son conocidas como matrices de Toeplitz. En el siguiente
ejemplo veremos una matriz de momentos de este tipo.

Ejemplo 1.2.3. La medida de Lebesgue normalizada en la circunferencia unidad


1
viene dada por dν(θ) = 2π
dθ. Expresando z = eiθ = cos θ + i sen θ, los momentos
serán
∫ ∫ 2π
k−j 1
ck−j = ck,j = z dν = ei(k−j)θ dθ = δk−j
T 2π 0

donde δk−j = 0 si k ̸= j y δk−j = 1 si j = k. La matriz que queda es claramente la


matriz identidad  
 1 0 0 ... 
 
 0 1 0 ... 
 
 .
 0 0 1 ... 
 
 
.. .. .. ..
. . . .
1
En este caso la SP ON es la sucesión { √ z n }∞ 2 2
n=0 y P (m) = H es el espacio

de Hardy en el disco unidad y podemos identificar, como es usual, las funciones de
∑ ∑∞
H 2 con los vectores de ℓ2 (N0 ); más precisamente, ∥ ∞k=0 ak z ∥
k 2
H 2 = k=0 |ak | para
2

cada (an )∞
n=1 ∈ ℓ (N0 ).
2

22
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores

1.2.2. Matrices de Hessenberg y el operador multiplicación

por z

En el espacio de Hilbert P 2 (µ), consideramos el operador multipiplicación por


z que denotaremos por Sµ definido por Sµ : P 2 (µ) → P 2 (µ) con Sµ (f ) = zf para
todo f ∈ P 2 (µ). Este operador es un operador acotado puesto que el soporte de µ
es acotado.
Consideramos D = (djk )∞
j,k=0 la matriz infinita que representa este operador en

la base ortonormal que forma la SP ON {Pn (z)}∞


n=0 . Está claro que de la definición

de operador multiplicación por z se deduce la fórmula de recurrencia larga para la


SP ON

n+1
zPn (z) = dk,n Pk (z), n ≥ 0, (1.1)
k=0
con P0 (z) = 1 cuando c00 = 1.
Teniendo en cuenta esta relación se obtiene la siguiente expresión de la matriz
infinita Hessenberg superior D
 
d d d02 d03 . . .
 00 01 
 
d10 d11 d12 d13 . . .
 
 
D=
 0 d21 d22 d23 . . .
.
 
 
0 0 d32 d33 . . .
 
.. .. .. .. ...
. . . .
Podemos considerar que la matriz infinita D define un operador de Hessenberg
acotado D : ℓ2 (N0 ) → ℓ2 (N0 ), dado por D(v) = Dv, si v ∈ ℓ2 (N0 ). Por ello nos
referiremos a este operador D, aunque hablemos de la matriz D asociada a la matriz
de momentos M . De lo anterior se deduce que D es unitariamente equivalente a Sµ ,
por esto nos referiremos en general a D aunque muchos resultados sean ciertos para
Sµ .
Esta matriz de Hessenberg D es la generalización de la conocida tridiagonal de
Jacobi al plano complejo.
23
PRELIMINARES

En [Con85, Hal84] se encuentran las siguientes definiciones y resultados que usa-


remos a lo largo de la memoria en relación al tipo de normalidad de un operador
acotado D, definido en un espacio de Hilbert H.

Definición 1.2.4. Un operador D, se dice que es normal si D∗ D = DD∗ ; se dice


que es cuasinormal si DD∗ D = DD∗ D; se dice que es hiponormal si D∗ D − DD∗ ≥ 0
y, por último, se dice que es subnormal si existe un operador normal N y un espacio
Hilbert K ⊃ H, tal que N : K −→ K, con N (H) ⊂ H y D = N |H .

Proposición 1.2.5. Se verifica la siguiente cadena de implicaciones

D normal =⇒ D es cuasinormal =⇒ D es subnormal =⇒ D es hiponormal.

Proposición 1.2.6. Sea µ una medida de Borel de probabilidad con soporte acotado
en C, Sµ y Nµ el operador multipiplicación por z en P 2 (µ) y en L2 (µ), respectiva-
mente. Entonces, se tiene que Nµ siempre es normal y Sµ es subnormal y se verifica
que Nµ = men(Sµ ), donde men(Sµ ) denota la mı́nima extensión normal de Sµ .

Además la medida µ está determinada por la medida espectral del operador Nµ ,


es decir,

dµ(z) = ⟨dEz e0 , e0 ⟩.

Además el soporte de µ es el espectro de Nµ . Es decir, σ(Nµ ) = Supp(µ)

De los resultados anteriores se deduce que si D es subnormal y acotado, enton-


ces su mı́nima extensión normal admite una representación matricial, unitariamente
semejante a Nµ , que viene dada por
 
D X
N = ,
0 Y

verificándose σ(N ) = Supp(µ).


24
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores

1.2.3. Matrices de Hessenberg asociadas a matrices HDP

Muchas demostraciones de resultados que aparecen en el ámbito de los polinomios


ortogonales no requieren la existencia de una medida y son en realidad consecuencias
de propiedades algebraicas.

Dada una matriz HDP M = (cij )∞


i,j=0 , el producto interior definido por M en P[z]

hace que este espacio sea pre-Hilbert y denotaremos por P 2 (M ) el espacio de Hilbert
obtenido como su compleción. Aplicando Gram-Schmidt a z n para n = 0, 1, 2, . . . ,
obtenemos una sucesión de polinomios ortonormales asociada a M , {Pn (z)}∞
n=0 , que

es única suponiendo grado(Pn ) = n y coeficiente conductor de Pn (z) positivo. Pode-


mos definir también el operador multiplicación por z en el espacio de Hilbert P 2 (M )
y obtener la matriz D que representa este operador con respecto al anterior SP ON .
Esta matriz se denominará matriz de Hessenberg asociada a M .

En [GT93] y [Tor87] se prueba el siguiente resultado que relaciona las matrices


M y D.

Proposición 1.2.7. La matriz HDP M y su matriz de Hessenberg asociada D están


relacionadas mediante las siguientes fórmulas

D = T ∗ S(T ∗ )−1 = T −1 M ′ (T ∗ )−1 , (1.2)

donde se denota por M ′ la matriz obtenida al eliminar la primera columna de la


matriz M . Sean Mn y Mn′ las secciones n- ésimas de M y M ′ respectivamente. T
denota la matriz infinita cuya sección n-ésima es el factor triangular inferior Tn , en
la descomposición de Cholesky Mn = Tn Tn∗ y S la conocida matriz del shift-right.

Observación 1.2.8. Los productos de matrices anteriores están bien definidos pues-
to que las matrices infinitas T, T ∗ , (T ∗ )−1 , T −1 son triangulares y D y S definen
operadores acotados en ℓ2 (N0 ). En la demostración de este resultado la matriz de
Hessenberg superior D se obtiene a partir de la matriz M, de una manera puramente
25
PRELIMINARES

algebraica por secciones mediante la identidad

Dn = Tn−1 Mn′ (Tn∗ )−1 . (1.3)

La sucesión de matrices {Dn } es consistente en el sentido de que Dn es submatriz


principal de Dn+1 , con n ∈ N, en el mismo sentido lo son Mn , Tn y Tn−1 . Además se
prueba que D tiene subdiagonal estrictamente positiva y que el polinomio mónico
Pen (z) viene determinado por Pen (z) = |In z − Mn−1 Mn′ |, para cada n = 1, 2, . . ..

Por otro lado, se prueba que dada la matriz infinita M = (cij )∞


i,j=0 HDP y la

matriz de Hessenberg D construida por el procedimiento anterior, se cumple que

cij = ⟨Dni e0 , Dnj e0 ⟩, 0 ≤ i, j ≤ n − 1, (1.4)

siendo et0 = (1, 0, 0, 0, . . . , 0) ∈ ℓ2 (N0 ).

Destacamos también que de la factorización de Cholesky Mn = Tn Tn∗ se despren-


de que (Tn∗ )−1 es la matriz de cambio de base de {Pn (z)}n=0
n−1
a {z n }n−1
n=0 para todo n.

El Problema de los Momentos acotado asociado a una cierta matriz hermi-


tiana definida positiva M = (cij )∞
i,j=0 , trata de responder cuándo podemos asegurar

que existe una medida de Borel µ con soporte acotado en el plano complejo tal que
M es la matriz de momentos asociada a dicha medida, es decir, que para todo i, j ≥ 0

cij = z i z j dµ.

Observación 1.2.9. Si existe la medida µ, es única puesto que el problema acotado


siempre es determinado (Atzmon (1975)[Atz75] y Tomeo(2004) [Tom04]).

Es bien conocido que en los casos de medidas con soporte en R o con soporte en
la circunferencia unidad, basta con que la matriz M sea definida positiva para que
exista una medida cuya matriz de momentos co8incida con M . En el contexto general
26
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores

no es cierto. Un ejemplo sin medida. Consideremos la matriz HDP M = (cij )∞


i,j=0

tal que cij = mı́n(i, j) + 1, es decir

 
1 1 1 1 ...
 
 
 1 2 2 2 ... 
 
 
M =
 1 2 3 3 ...  .
 
 
 1 2 3 4 ... 
 
.. .. .. .. . .
. . . . .

Se prueba trivialmente por inducción que |Mn | = 1, n = 1, 2, . . .. La descomposición


de Cholesky en este caso es sencilla, vamos a efectuarla para las submatrices 4 × 4
por razones de espacio
     
 1 1 1 1   1 0 0 0   1 1 1 1 
     
 1 2 2 2   1 1 0 0   0 1 1 1 
     
  
=   .
 1 2 3 3   1 1 1 0   0 0 1 1 
     
     
1 2 3 4 1 1 1 1 0 0 0 1

Por otro lado, tenemos


   
 1 0 0 0   1 1 1 1 
   
 −1 1 0 0   2 2 2 2 
   
T4−1 =  y M4′ =  .
 0 −1 0   2 3 3 3 
 1   
   
0 0 −1 1 2 3 4 4

Por tanto,
       
 1 0 0 0   1 0 0 0   1 1 1 1   1 −1 0 0 
       
 1 0 0 0   0   2 2 2 2   0 0 
   −1 1 0     1 −1 
 =     .
 0 1 0 0   0   2 3 3 3   0 1 −1 
   0 −1 1     0 
       
0 0 1 0 0 0 −1 1 2 3 4 4 0 0 0 1

27
PRELIMINARES

La matriz D en este caso es


 
 1 0 0 0 0 ... 
 
 1 0 0 0 0 ... 
 
 
 
 0 1 0 0 0 ... 
D=

.

 0 0 1 0 0 ... 
 
 
 0 0 0 1 0 ... 
 
 .. .. .. .. .. . . 
. . . . . .

La afirmación de que la matriz M no es de momentos se prueba fácilmente si obser-


vamos que la diagonal principal de M no verifica la desigualdad de Cauchy-Schwartz.
Si la matriz fuera de momentos existirı́a un recinto Ω y una medida µ(z) tales que
∫ ∫
cnn = n n
z z dµ(z) = |z|2n dµ(z)

Ω Ω
√∫ ∫
= |z| |z| dµ(z) ≤
n−1 n+1 n−1 2
(|z| ) dµ(z) (|z|n+1 )2 dµ(z)
Ω Ω Ω
√ √
= cn−1,n−1 cn+1,n+1 .

Pero en este caso tenemos cn−1,n−1 cn+1,n+1 = (n − 1)(n + 1) = n2 − 1 < n2 = c2nn .

Por tanto, M no es una matriz de momentos, pero el producto interior definido


por M en el espacio de Hilbert P 2 (M ) y el operador definido por D tienen perfecto
sentido.
Las condiciones dadas en Torrano-Guadalupe [GT93] y Tomeo[Tom04] (2004) se
resumen en el teorema siguiente.

Teorema 1.2.10. Una matriz M infinita HDP , es una matriz de momentos para
el caso acotado, si y sólo si, la matriz de Hessenberg infinita D a asociada a M es
acotada y define un operador subnormal en ℓ2 (N0 ).

La medida µ, que es única, está determinada por la medida espectral del operador
normal N , mı́nima extensión normal del operador D, que notaremos como men(D),
28
1.2 Teorı́a de polinomios ortogonales, matrices infinitas y operadores

es decir
dµ(z) = ⟨dEz e0 , e0 ⟩.

Además, N = men(D). Es decir σ(N ) = Supp(µ).


En [Atz75] se da una condición necesaria y suficiente para que una matriz HDP
M sea una matriz de momentos y exista una medida de Borel positiva µ en el disco
unidad verificando algunas condiciones y en [GT93] se extiende este resultado en
el caso en que la matriz de Hessenberg D defina un operador acotado en ℓ2 (N0 ),
demostrando que la subnormalidad de la matriz D es equivalente a que M sea de
momentos.

29
Capı́tulo 2

MATRICES DE MOMENTOS DE
MEDIDAS AUTOSEMEJANTES

En este capı́tulo presentaremos un teorema del punto fijo para matrices de mo-
mentos de medidas autosemejantes. Veremos que la propiedad de autosemejanza de
la medida invariante, µ, asociada a un SFI de semejanzas contractivas en el plano
complejo con probabilidades, se traduce en una ecuación matricial que verifica la
matriz de momentos de la medida. De esta relación obtenemos a su vez la expresión
del comportamiento recurrente de los momentos cij (µ) que generaliza el caso real
[Ma96]. Además nos va a permitir definir un algoritmo iterativo definido sobre un
espacio muy amplio de matrices que aproxima la matriz de momentos de la medida
µ y determinar su velocidad de convergencia.

A lo largo de este capı́tulo vamos a considerar que los SFI con probabilidades


k
Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk } con ps > 0 para s = 1, 2, . . . , k y ps = 1,
s=1

estarán formados por semejanzas contractivas en el plano complejo, de la forma

φs (z) = αs z + βs con |αs | < 1, para s = 1, 2, · · · , k.

31
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.1. Transformaciones de matrices de momentos

por semejanzas

Para obtener el resultado central de este capı́tulo, utilizaremos los resultados


siguientes de E. Torrano [Tor87] que establecen la forma de obtener la matriz de
momentos de la medida inducida por una transformación de semejanza en el plano
complejo, conocida la matriz de momentos de la medida inicial.

Proposición 2.1.1. Sea µ una medida con soporte en el plano complejo C y sea Mn
la sección de orden n de su matriz de momentos. Sea f (z) = αz + β una semejanza
en C. Consideramos la medida imagen de µ por f , µf = µ ◦ f −1 . Entonces la sección
de orden n de la matriz de momentos M f de µf viene dada por
 ( )
 j − 1 i−1 j−i
 α β si j ≥ i
f ⋆ n
Mn = Af,n Mn Af,n , siendo Af,n = (aij )i,j=1 = i−1

 0 si j < i,
(2.1)

Las siguientes propiedades derivadas de las expresiones matriciales anteriores son


inmediatas y se pueden encontrar en [Tor87].

Proposición 2.1.2. En las condiciones de la proposición anterior, se verifican las


siguientes propiedades:

i) Af,n = Aαz,n Az+β,n .

ii) Aαz+β,n Aγz+δ,n = Aαγz+βγ+δ,n .

iii) A−1
αz+β,n = A z − β ,n .
α α

iv) |Mnf | = |α|n(n−1) |Mn |.

Nótese que, como consecuencia de la última propiedad, la matriz M es HDP si y


solo si M f es HDP.
32
2.1 Transformaciones de matrices de momentos por semejanzas

Observación 2.1.3. A partir de la expresión (2.1), obtenemos la siguiente matriz


infinita Af
 () (1) 0 1 (2) 0 2 (3) 
0 0 0 0 3
α β α β α β α β ...
 0 0 0 0 
 (1) 1 0 (2) 1 1 (3) 
 0 α β α β 1 2
α β ... 
 1 1 1 
 ( ) (3) 
Af = 
 0 0 2
α2 β 0 α2 β 1 ... 

 2 2
(3) 
 
 0 0 0 α3 β 0 ... 
 3 
.. .. .. .. ...
. . . .

La relación matricial (2.1), se puede extender claramente a matrices infinitas


esto es M f = A⋆f M Af . Además, esta expresión se puede interpretar como un cambio
de base en el espacio de los polinomios P [z], donde M f es la matriz de Gram del
producto escalar respecto de la base {1, f (z), (f (z))2 , (f (z))3 , . . . }.

Ejemplo 2.1.4. Consideremos la medida de Lebesgue normalizada sobre la circun-


ferencia de modo que c00 = 1.
∫ π ∫ π
1 iθ j −iθ k 1
cjk = [e ] [e ] dθ = ei(j−k)θ dθ = δjk .
2π −π 2π −π
Como vimos en el Ejemplo 1.2.3 la matriz de momentos es la matriz identidad, que
es una matriz de Toeplitz.
Si trasladamos la medida mediante f (z) = z + 1, esto es, α = 1 y β = 1, obten-
dremos la medida de Lebesgue normalizada en la circunferencia unidad centrada en
el elemento (1, 0). Aplicando la Proposición 2.1.1, la matriz de momentos pasa a ser
la llamada matriz de Pascal. Por ejemplo para n = 5 tendremos que M5f será
     
1 0 0 0 0 1 0 0 0 0 1 1 1 1 1 1 1 1 1 1
     
     
 1 1 0 0 0      
  0 1 0 0 0  0 1 2 3 4   1 2 3 4 5 
     
 1 2 1 0 0   0 0 1 0 0   0 0 1 3 6  =  1 3 6 10 15 
     
     
     
 1 3 3 1 0   0 0 0 1 0   0 0 0 1 4   1 4 10 20 35 
     
1 4 6 4 1 0 0 0 0 1 0 0 0 0 1 1 5 15 35 70

que obviamente no es un matriz de Toeplitz.


33
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.2. Matrices de momentos y fórmulas de recu-

rrencia

El resultado siguiente nos permite obtener fórmulas de recurrencia para los mo-
mentos de las medidas autosemejantes en el plano complejo que generaliza la dada
por G. Mantica para el caso real [Ma96]. En el capı́tulo 1 sección 1.1.2, se introdujeron
las medidas autosemejantes asociadas a SFI con probabilidades, y el espacio métrico
(MP (X), dH ) de las medidas de probabilidad Borel con la métrica de Hutchinson.
Como ya hemos dicho, a lo largo de este capı́tulo vamos a considerar el SFI con
probabilidades, formado por semejanzas contractivas

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }.

Teorema 2.2.1. Sea µ la medida invariante asociada al SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },

formados por semejanzas contractivas φs (z) = αs z + βs , para cada s = 1, 2, . . . , k.


Entonces, las secciones Mn de la matriz de momentos de µ satisface la siguiente
relación matricial

k
Mn = ps Mnφs ,
s=1
donde Mnφs es la sección de orden n de la matriz de momentos de la medida imagen
de µ bajo la semejanza φs . Además,
∑i,j ( )( ) (∑k
)
1 i j j−l
cij = ps βsi−m βs αsm αs l cml . (2.2)
∑k
m=0,l=0
m l s=1
1− ps αsi αs j (m,l)̸=(i,j)
s=1
Demostración. Utilizando la Proposición 2.1.1, para cada s = 1, 2, . . . , k, podemos
obtener la sección n-ésima de la matriz de momentos de la medida imagen µφs a
partir de las matrices Aφs ,n , que por simplicidad denotaremos por As,n ,
 ( )
 j − 1 i−1 j−i
 α β j≥i
Mnφs = A⋆s,n Mn As,n , donde As,n = (ai,j )ni,j=1 = i−1

 0 j < i,

34
2.2 Matrices de momentos y fórmulas de recurrencia

Ahora, usando la siguiente propiedad de las medidas autosemejantes (ver por


ejemplo [Fal97] y [Ma96]),

∫ ∑
k ∫ ∑
k ∫
f dµ = ps f ◦ φs = ps f ◦ φs dµ, (2.3)
X s=1 X s=1 X

conseguimos expresar la matriz de momentos de µ en términos de las matrices de


momentos de las medidas inducidas por los elementos del SFI Φ y por ello en términos
congruentes con ella misma


k ∑
k
Mn = ps Mnφs = ps A⋆s,n Mn As,n .
s=1 s=1

De esta fórmula obtenemos la fórmula de recurrencia para los momentos cij ,


k ∑i,j ( )( )
i j i−m j−l m l
cij = ps β βs αs αs cml
s=1 m=0,l=0
m l s
∑i,j ( )( ) (∑ k
)
1 i j j−l
= ps βsi−m βs αsm αs l cml .
∑ k
m=0,l=0
m l s=1
1− ps αsi αs j (m,l)̸=(i,j)
s=1

Ejemplo 2.2.2. Si consideramos el SFI con probabilidades


Φ = {φ1 (z) = z/2−1/2, φ2 (z) = z/2+1/2, φ3 (z) = z/2+ 3i/2; p1 = p2 = p3 = 1/3}

obtenemos el triángulo Sierpinski con base el intervalo [−1, 1] y la medida autose-


mejante asociada a Φ

Figura 2.1: Triángulo de Sierpinski

35
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

La fórmula recurrente para sus momentos será


( )( )
∑ j 1 [ √ ]
i,j
4 i i−m+j−l i−m+j−l
cij = (−1) +1+ 3 cml .
9 m=0,l=0
m l 2i+j
(m,l)̸=(i,j)

2.2.1. Caso real y la convolución infinita de Bernoulli

En el caso real la matriz de momentos es una matriz de Hankel y obviamente


cij = c0,i+j = Si+j , esto nos permite recuperar la fórmula de recurrencia para el caso
real

k n−1 ( )

1 n
Sn = ∑k ps βsn−j αsj Sj , (2.4)
1− n
s=1 ps αs s=1 j=0
j
o análogamente
( k
n−1 ( ) ∑
)
1 ∑ n
Sn = ∑k ps βsn−j αsj Sj . (2.5)
1− n
s=1 ps αs j=0
j s=1

Si consideramos que todas las semejanzas tienen la misma razón r, la fórmula


anterior queda ( k )
n−1 ( ) ∑
1 ∑ n
Sn = ps βsn−j rj Sj . (2.6)
1 − rn j=0 j s=1

Este es el caso de la convolución infinita de Bernoulli donde µr es la medi-


da invariante (Teorema 1.1.18) para el operador de Markov asociado al sistema de
semejanzas contractivas con probabilidades
{ }
1
Φr = φ1 (x) = rx + β1 , φ2 (x) = rx + β2 ; p1 = p2 = con r ∈ (0, 1).
2

Si β1 = r − 1 y β2 = 1 − r, se tiene la convolución infinita de Bernoulli en el intervalo


[−1, 1]. Cuando β1 = 0 y β2 = 1 − r, se tiene en [0, 1]. Como vimos en el primer
capı́tulo, esta medida tiene como soporte el conjunto autosemejante asociado al SFI
1
anterior. De esta forma, si r ∈ (0, ) el soporte será un conjunto de Cantor de razón
2
r, contenido en el intervalo [−1, 1] y por tanto, la medida µr será singular. Cuando
1
r = , µr es la media de Lebesgue normalizada en [−1, 1] asociada a los polinomios
2
36
2.2 Matrices de momentos y fórmulas de recurrencia

de Legendre.
La convolución infinita de Bernoulli (ver trabajos de P. Erdös [Erd39], A. Garsia
[Gar63] y B. Jessen y A. Wintner [JW35] ) ha sido estudiada desde 1935 y todavı́a
quedan muchas cuestiones sin resolver. Una de estas cuestiones es saber cuándo
la medida µr es absolutamente continua o singular. Erdös [Erd40] y Salem [Sal44]
probaron que si r es el inverso de cierto tipo de números algebraicos, los números de
Pisot-Vajayaraghvan, µr es singular. Un ejemplo de este tipo es el caso del inverso de
la razón áurea. A finales del siglo pasado, se han vuelto a retomar estas cuestiones y
se han publicado numerosos resultados que se derivan del carácter autosemejante de
esta medida [EST03, Fis95, GW93, Hu97, Ma96]. En 1996, B. Solomyak [PS96, Sol98]
1
probó que para < r < 1 la convolución infinita de Bernoulli µr es absolutamente
2
continua casi en todo punto.

Según la sección anterior, la relación entre las secciones de las matrices de mo-
mentos de µ y las de las medidas inducidas por φ1 y φ2 serán

 ( )
 j − 1 i−1
 r (r − 1)j−i si j ≥ i
Mnφ1 = A⋆1,n n
Mn A1n , con A1,n = (aij )i,j=1 = i − 1

 0 si j < i,
 ( )
 j − 1 i−1
 r (1 − r)j−i si j ≥ i
Mnφ2 = A⋆2,n n
Mn A2,n , con A2,n = (aij )i,j=1 = i − 1

 0 si j < i,

(2.7)

En este caso las dos matrices usadas para obtener la matriz de momentos de la
medida imagen por las dos semejanzas del SFI son muy parecidas, porque los radios
de contracción son iguales y los coeficientes de traslación son opuestos, ası́ se tiene
37
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

que A1,n (i, j) = (−1)i+j A2,n (i, j) si j ≥ i


 
(0) (1) (2 ) (3) (4)
 0 r0 (r − 1)0 0 r0 (r − 1)1 0 r0 (r − 1)2 0 r0 (r − 1)3 0 r 0 (r − 1)4

 (1) (2 ) (3) (4) 1 
 r1 (r − 1)0 r1 (r − 1)1 r1 (r − 1)2 − 3 
 0 r (r 1) 
 1 1
(2 )
1
(3)
1
(4) 2 
 2 
= r2 (r − 1)0 r2 (r − 1)1 ,
2 r (r − 1) 
A1,5 0 0
 2 2
 (3) (4) 3 
 r3 (r − 1)0 1 
 0 0 0 3 3 r (r − 1) 
 (4) 4 
0
0 0 0 0 4 r (r − 1)
 
(0 ) 0 (1) 1 (2 ) 2 (3) 3 (4) 4
 0 r0 (1 − r) 0 r0 (1 − r) 0 r0 (1 − r) 0 r0 (1 − r) 0 − r) 
r0 (1
 (1) (2 ) (3) (4) 1 
 r1 (1 − r)0 r1 (1 − r)1 r1 (1 − r)2 − 3 
 0 r (1 r) 
 1 1
(2 )
1
(3)
1
(4) 2 
 2 
A2,5 = 0 0 r2 (1 − r)0 r2 (1 − r)1 r (1 − r) .
 2 2 2 
 (3) (4) 3 
 r3 (r − 1)0 − 1 
 0 0 0 3 3 r (1 r) 
 (4) 4 
0
0 0 0 0 4 r (1 − r)

A partir de la fórmula (2.6) obtenemos la fórmula de recurrencia para los momentos


de orden par de la convolución infinita de Bernoulli µr
n−1 ( )( )2j
(1 − r)2n ∑ 2n r
S2n = S2j , n = 1, 2, 3, . . . ,
1 − r2n j=0 2j 1−r

siendo S0 = 1; y los momentos de orden √ impar son nulos por la simetrı́a. Si además
5−1 r 1
r es el inverso de la razón áurea, r = y se verifica que = .
2 1−r r
Sustituyendo en la fórmula anterior tenemos
n−1 ( )( )
(r2 )2n ∑ 2n S2j
S2n = , n = 1, 2, 3, . . . ,
1 − r2n j=0 2j r2j

1
Ejemplo 2.2.3. En el caso de la convolución infinita de Bernoulli cuando r = , µr
3
es la medida uniforme sobre el conjunto ternario de Cantor en el intervalo [−1, 1].
La expresión de la fórmula de recurrencia de los momentos es
n−1 ( )( )
22n ∑ 2n S2j
S2n = 2n , n = 1, 2, 3, . . . ,
3 − 1 j=0 2j 22j

y nos permite obtener la matriz de momentos de orden n.


En este caso, para n = 5 tenemos,
38
2.2 Matrices de momentos y fórmulas de recurrencia

 
1 7
1 0 0
 2 20 
 
 0 1
0 7
0 
 2 20 
 
M5 =  1
 2 0 7
0 205 

 20 728

 
 0 7
0 205
0 
 20 728 
7 205 10 241
20
0 728
0 42 640

y las matrices A2,5 y A∗2,5

   
2 4 8 16
1 0 0 0 0 1
   3 9 27 81 
   
 2 1
0 0 0   0 1 4 4 32 
 3 3   3 9 9 81 
   
A2,5 =

4 4 1
0 0 
∗  1
 , A2,5 =  0 0 9
2 8 

 9 9 9
  9 27

   
 8 4 2 1
0   0 0 0 1 8

 27 9 9 27   27 81 
16 32 8 8 1 1
81 81 27 81 81
0 0 0 0 81

1 1
Verificándose que M5 = M5φ1 + M5φ2 .
2 2

Usando la fórmula recurrente para los momentos vista en el Teorema 2.2.1, cal-
culamos los momentos de la medida invariante para el sistema Φ y obtenemos

1 7 205 10241
s0 = 1, s1 = 0, s2 = , s3 = 0, s4 = , s5 = 0, s6 = , s7 = 0, s8 = .
2 20 728 42640

Utilizando la conocida expresión para obtener los polinomios mónicos a partir de la


matriz de momentos, obtenemos los primeros polinomios mónicos de la medida de
39
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Cantor.

x,
1
x2 − ,
2
7
x3 − x,
10
97 333
x4 − x2 + ,
91 1820
1785 3 143833
x5 − x + x,
1517 552188
189964505 4 7410073867 2 156207248595
x6 − x + x − ,
112825966 9251729212 1683814716584
4548711144551 5 6972489245973139 3 4855955749246420947
x7 − x + x − x,
2534028699430 7481466332197132 39876215550610713560

1,0

0,5

K1,0 K0,5 0 0,5 1,0

K
0,5

K
1,0

Si asignamos diferentes probabilidades a cada semejanza en el SFI del ejemplo


1
anterior obtenemos una convolución infinita de medidas con pesos. Para r = y
3
2 1
probabilidades , obtenemos una medida no simétrica en un conjunto de Cantor
3 3
contenido en el intervalo [−1, 1]. Las matrices A1,n y A2,n son las mismas que antes,
40
2.2 Matrices de momentos y fórmulas de recurrencia

y tenemos en este caso,

M5φ1 = A⋆1,5 M5 A1,5


 
1 − 79 53
− 3159
1829 75 139
 81 142 155 
 
 −7 53
− 1829 75 139
− 15 233 305 
 9 81 3159 142 155 30 961 359 
 
= 81
53
− 1829 75 139
− 15 233 305 559 966 709 ,

 3159 142 155 30 961 359 1207 493 001

 1829 
 − 3159 75 139
− 15 233 305 559 966 709
− 115236 263 395 783

 142 155 30 961 359 1207 493 001 878 108 650 837 
75 139
142 155
− 15 233 305
30 961 359
559 966 709
1207 493 001
− 115236 263 395 783
878 108 650 837
9240 140 043 317 737
21 915 110 460 794 265

M5φ2 = A⋆2,5 M5 A2,5


 
5 29 823 29 299
1
 9 81 3159 142 155 
 5 
 29 823 29 299 5319 755 
 9 81 3159 142 155 30 961 359 
 
= 81
29 823 29 299 5319 755 178 630 637 ,

 3159 142 155 30 961 359 1207 493 001

 823 
 3159 29 299 5319 755 178 630 637 1544 687 605 501

 142 155 30 961 359 1207 493 001 11 878 108 650 837 
29 299 5319 755 178 630 637 1544 687 605 501 2541 691 310 236 297
142 155 30 961 359 1207 493 001 11 878 108 650 837 21 915 110 460 794 265

y
 
1 − 13 5
− 117
35 739
 9 1755 
 
 −1 5
− 117
35 739
− 127
34 495 
 3 9 1755 413 
 
M5 = 
 9
5
− 117
35 739
− 127
34 495 593 765 .

 1755 413 1656 369

 35 
 − 117 739
− 127
34 495 593 765
− 1360 743 665

 1755 413 1656 369 5431 233 951 
739
1755
− 127
34 495
413
593 765
1656 369
− 1360 743 665
5431 233 951
1068 026 794 537
3340 208 879 865

2 1
Verificándose ahora que M5 = M5φ1 + M5φ2 .
3 3

Ejemplo 2.2.4. La medida normalizada Lebesgue en [−1, 1] es la convolución infi-


1 1 1
nita de Bernoulli para r = con probabilidades p1 = , p2 = . Para esta medida
2 2 2
es bien conocida la matriz de momentos y la sección de orden 5 será
41
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

 
1 1
1 0 0
  3 5
 
 0 1
0 5 0 
1
 3 
 
M5φ1 = 1
 3 0 1
0 1 .
7 
 5

 
 0 15 0 17 0 
 
1 1 1
5
0 7 0 9
En este caso las matrices A1,5 y A⋆1,5 serán
   
1 1 1 1
1 0 0 0 0 1
   2 4 8 16 
   
 1 1
0 0 0   0 1 1 3 1 
 2 2   2 2 8 4 
   
A1,5 =

1 1 1  ⋆ 
0 0  y A1,5 =  0 0 4 38
1 3 .

 4 2 4
  8

   
 1 3 3 1
0   0 0 0 18 1

 8 8 8 8   4 
1 1 3 1 1 1
16 4 8 4 16
0 0 0 0 16

1 1
Luego se verifica que M5 = M5φ1 + M5φ2 . Nótese que por la simetrı́a se tiene que
2 2
φ1 i+j φ2
Mn (i, j) = (−1) Mn (i, j).

2.2.2. Función generatriz exponencial de momentos

La fórmula de recurrencia (2.5) para los momentos de la medida autosemejante


en el caso de soporte real que vimos en la sección anterior es equivalente a


k ∑n ( )
n n−j j
Sn = ps β α s Sj . (2.8)
s=1 j=0
j s

La función exponencial generatriz de estos momentos (egf) F satisface


k
(βs x)
F (x) = ps F (αs x) e .
s=1

En el caso de que las razones de semejanza sean iguales αs = α, se tiene


k
F (x) = F (αx) ps e(βs x) .
s=1

42
2.2 Matrices de momentos y fórmulas de recurrencia

Si además, las probabilidades son iguales


1 ∑k
F (x) = F (αx) e(βs x) .
k s=1

Iterando en esta expresión, se obtiene


( k )
∏∞
1 ∑ (βs αj )x
F (x) = e .
j=0
k s=1

En este caso y para dos semejanzas homogéneas, podemos expresar en términos


de cosenos hiperbólicos la expresión anterior teniendo en cuenta que:
 
(β2 −β1 )αk x (β1 −β2 )αk x
β2 αk x β1 αk x
e +e (β2 +β 1 )α kx
e
2 +e 2

=e 2
2 2
.
( )
(β2 +β1 )αk x (β2 − β1 )αk x
=e 2 cosh
2
Ası́ el producto infinito queda


∞ ( )
(β2 +β1 )αk x (β2 − β1 )αk x
F (x) = e 2 cosh
k=0
2
∏ ( )
(β2 +β1 )αk x ∏
∞ ∞
(β2 − β1 )αk x
= e 2 cosh
k=0 k=0
2
( )
(β2 +β1 )x ∏

(β 2 − β 1 )α k
x
= e 2(1−α) cosh .
k=0
2
En el caso de que la convolución infinita de Bernoulli esté en [0, 1], tenemos que
1
0 < α = r < 1, β1 = 0, β2 = 1 − r y las dos probabilidades iguales a la función
2
generatriz, será
∏∞ ( )
x (1 − r)rk x
F (x) = e 2 cosh .
k=0
2
1
Si r = , se obtiene la medida de Lebesgue en [0, 1], por lo que la fórmula anterior
2
para este valor de r, coincide con el inverso de la función generatriz exponencial de
los números de Bernoulli,
( )


1+e
1
2k
x
ex − 1
F (x) = = .
k=1
2 x

43
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.3. Algoritmo iterativo para matrices de momen-

tos de medidas autosemejantes

En esta sección vamos a desarrollar un método iterativo para aproximar la ma-


triz de momentos de una medida autosemejante para un SFI con probabilidades.
Este método se basa en los resultados sobre las transformaciones de las matrices de
momentos por semejanzas obtenidos en la sección 2.2.
Pc denotá el espacio de medidas de probabilidad con soporte compacto en el plano
complejo. Vamos a considerar el conjunto M formado por las matrices de momentos
de medidas en Pc . Denotamos por M (ν) ∈ M la matriz de momentos de la medida
ν ∈ Pc .

Definición 2.3.1. Sea el SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . .pk , }

formado por semejanzas contractivas. Se define la transformación TΦ : M → M de la


forma

k
TΦ (M (ν)) = ps A⋆s M (ν)As ,
s=1
donde, por simplicidad, denotamos por As la matriz Aφs dada en la Proposición
2.1.1, para la semejanza φs (z).

Observación 2.3.2. Nótese que la transformación TΦ está bien definida, puesto que
para cada s, la matriz M φs (ν) = A⋆s M (ν)As es la matriz de momentos de la medida
inducida ν ◦ φ−1
s como la combinación lineal convexa de medidas de probabilidad con

soporte compacto es una medida de probabilidad está en Pc .

Teorema 2.3.3. Sea Φ un SFI con probabilidades y sea µ la medida invariante


asociada. Consideramos la transformación TΦn definida en 2.3.1. Entonces, para cada
M (ν) ∈ M se tiene que la sucesión de matrices TΦn (M (ν)) converge elemento a
44
2.3 Algoritmo para matrices de momentos de medidas autosemejantes

elemento a la matriz de momentos M (µ), siendo TΦn la n-ésima composición de TΦ


consigo misma.

Demostración. Como ya vimos en el capı́tulo 1, la medida invariante µ asociada


al SFI con probabilidades Φ es la medida invariante para el operador de Markov
definido en el espacio Pc por


k
T (ν) = ps ν ◦ φ−1
s .
s=1

Este operador es una contracción en el espacio métrico completo Pc con la métrica


de Hutchinson [Hut81], lo que asegura la convergencia débil de las medidas T n (ν)
para cada ν ∈ Pc a µ, que es el punto fijo de T.

Pc → Pc → Pc → ··· Pc → Pc
ν → T (ν) → T 2 (ν) → ··· T n (ν) → µ
↕ ↕ ↕ ↕ ↕
M (ν) → TΦ (M (ν)) → TΦ2 (M (ν)) → · · · TΦn (M (ν)) → M (µ)

La convergencia débil de medidas asegura la convergencia de los momentos, por lo


que el lı́mite de los momentos cij (T n (ν)) de las medidas T n (ν) será cij (µ). Por tanto
el proceso iterativo definido por el operador de Markov para aproximar la medida µ,
se transforma en un proceso iterativo paralelo definido matricialmente.
Si T (ν) = ν1 , entonces TΦ (M (ν)) = M (ν1 ) y como T n (ν) converge débilmente a µ,
se tiene que TΦn (M (ν)) −→ M (µ) elemento a elemento.

Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los
momentos de la medida invariante.

Ejemplo 2.3.4. Sea µ la medida de Lebesgue normalizada en el intervalo [−1, 1].


Esta es una medida autosemejante asociada al SFI con probabilidades dado por
Φ = {φ1 = 1/2x − 1/2, φ2 = 1/2x + 1/2; p1 = p2 = 1/2}.
45
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

La sección de orden seis de la correspondiente transformación TΦ viene dada por

   
1 1 1 1 1
 1 0 0 0 0 0   1 2 4 8 16 32 
   
 1 1
0   1 1 3 1 5 
 2 0 0 0   0 
 2
  2 2 8 4 32

 1   
1 0   
1 1 1 3 3 5
0 0 0 0
TΦ (M (ν)) = 

4 2 4  M (ν) 
 
4 8 8 16 

2 1 3 3 1
0 0   0 0 0 1 1 5 
 8 8 8 8   8 4 16 
   
 1 1 3 1 1
0   1 5 
 16 4 8 4 16   0 0 0 0 16 32 
   
1 5 5 5 5 1 1
32 32 16 16 32 32
0 0 0 0 0 32

   
 1 0 0 0 0 0   1 − 21 1
4
− 18 1
16
− 32
1

   
 −1 1
0   1
− 21 3
− 14 5 
 2 0 0 0   0 
 2
  2 8 32

 1   
1 − 12 0   − 38 − 16 
1 1 3 5
0 0 0 0
+  4 4  M (ν)  4 8 .
2
 −1 3
− 38 1
0

0 

 0 0 0 1
− 14 5


 8 8 8   8 16 
   
 1 −1 3
− 14 16
1
0   1
− 32
5 
 16 4 8   0 0 0 0 16 
   
− 32
1 5
32
− 16
5 5
16
− 32
5 1
32
0 0 0 0 0 1
32

Después de 20 iteraciones de TΦ comenzando con la matriz identidad, que es la


matriz de momentos correspondiente a la medida de Lebesgue en la circunferencia
unidad, tenemos
 
 1 0 0 0 0 0 
 
 0 1 0 0 0 0 
 
 
 

20 
0 0 1 0 0 0 
TΦ   =

 0 0 0 1 0 0 
 
 
 0 0 0 0 1 0 
 
 
0 0 0 0 0 1

46
2.3 Algoritmo para matrices de momentos de medidas autosemejantes

 
1,0 0,0 0,3333333333 0,0 0,2000000000 0,0
 
 
 0,0 0,3333333333 0,0 0,2000000000 0,0 0,1428571429 
 
 
 0,3333333333 0,0 0,2000000000 0,0 0,1428571429 0,0 
 
 .
 0,1111111111 
 0,0 0,2000000000 0,0 0,1428571429 0,0 
 
 
 0,2000000000 0,0 0,1428571429 0,0 0,1111111111 0,0 
 
0,0 0,1428571429 0,0 0,1111111111 0,0 0,09090909091

Esta matriz aproxima (con diez dı́gitos de precisión) a la sección de orden seis de la
bien conocida matriz de momentos de la medida de Lebesgue.

Ejemplo 2.3.5. La medida de Cantor µ1/3 en el intervalo [−1, 1] es autosemejante


para el SFI con probabilidades Φ = {φ1 = 31 x − 2/3, φ2 = 1/3x + 2/3; p1 = p2 = 1/2}
1
y coincide con la convolución infinita de Bernoulli para r = 3
(ver sección 2.2.1).

Como vimos en el Ejemplo 2.2.3, la sección de orden seis de la matriz de momentos


es de esta forma obtenemos la sección de orden cinco
 
1 7
1 0 0
 2 20 
 
 
 0 1
0 7
0 
 2 20 
 
 1 
M5,µ1/3 =
 2 0 7
20
0 205
728
,

 
 
 0 7
0 205
0 
 20 728 
 
 7 205 10241

20
0 728
0 42640

y la sección de orden cinco correspondiente a la transformación TΦ será


   
2 4 8 16
1 0 0 0 0 1
   3 9 27 81 
   
 2 1
0 0 0   0 1 4 4 32 
 3 3   3 9 9 81 
1   
TΦ (M (ν)) =  4 4 1
0   1
 M (ν)  0 0 9
2 8 +
2 
0
 9 9 9
  9 27

   
 8 4 2 1
0   0 0 0 1 8

 27 9 9 27   27 81 
16 32 8 8 1 1
81 81 27 81 81
0 0 0 0 81

47
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

   
1 0 0 0 0 1 − 23 4
− 27
8 16
   9 81 
 2   
 − 1
0 0 0   0 1
− 94 4
− 81
32 
 3 3   3 9 
1
 4
  
− 49 1 
0  M (ν)  1
− 92 8 .
2  0 
0 0
 9 9
  9 27

 8   
 − 27 4
− 29 1
0   0 0 0 1
− 81
8

 9 27   27 
16
81
− 32
81
8
27
− 81
8 1
81
0 0 0 0 1
81

Si comenzamos de nuevo con la matriz identidad después de veinte iteraciones de


TΦ , se tiene

 
 1 0 0 0 0 0 
 
 0 1 0 0 0 0 
 
 
 

20 
0 0 1 0 0 0 
TΦ  =

 0 0 0 1 0 0 
 
 
 0 0 0 0 1 0 
 
 
0 0 0 0 0 1

 
1,0 0,0 0,5000000000 0,0 0,3500000000 0,0
 
 
 0,0 0,5000000000 0,0 0,3500000000 0,0 0,2815934066 
 
 
 0,5000000000 0,0 0,3500000000 0,0 0,2815934066 0,0 
 
 ,
 0,2401735460 
 0,0 0,3500000000 0,0 0,2815934066 0,0 
 
 
 0,3500000000 0,0 0,2815934066 0,0 0,2401735460 0,0 
 
0,0 0,2815934066 0,0 0,2401735460 0,0 0,2113091906

que es una aproximación con diez dı́gitos de precisión de la matriz de momentos


(sección de orden seis) de la medida de Cantor.

48
2.4 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes en D
2.4. Teorema del punto fijo para matrices de mo-

mentos de medidas autosemejantes en D

En la sección anterior hemos obtenido una convergencia elemento a elemento de


las matrices de momentos asociadas al operador de Markov para un SFI de seme-
janzas con probabilidades, a partir de la convergencia débil de dichas medidas. Para
establecer un resultado de convergencia de matrices más fuerte, necesitaremos una
norma. El problema es que si la medida invariante asociada no tiene su soporte conte-
nido en la bola unidad, los momentos se disparan a infinito. Por ello en esta sección
vamos a establecer un resultado para la norma del supremo, cuando la matriz de
momentos de la medida invariante es acotada, es decir, cuando la medida tiene su
soporte contenido en la bola unidad. En la siguiente sección se definirá una norma y
se establecerá el resultado general.
Denotaremos por M∞ el espacio vectorial complejo de las matrices acotadas con
la norma del supremo, esto es, M = (mij )∞
i,j=0 ∈ M∞ si ∥M ∥sup = sup |mij | <
i,j
∞. Es fácil demostrar que (M∞ , ∥ .∥sup ) es un espacio métrico completo, pues la
demostración es análoga a la de (l∞ , ∥.∥sup ). Consideramos el subconjunto M1 de
M∞ cuyo primer elemento es igual a uno,
{ }

M1 = M = (mij )i,j=0 ∈ M∞ tal que m00 = 1 .

(M1 , ∥.∥sup ) es un espacio métrico completo dado que M1 es un subconjunto


cerrado de ( M∞ , ∥ .∥sup ), de hecho es un subespacio afı́n de M∞ .
Vamos a ver que el operador TΦ definido en 2.3.1 sobre el conjunto de matrices
de momentos de medidas de probabilidad, es un operador que se puede definir en
(M1 , ∥.∥sup ) de forma que todo el espacio M1 se convierte en cuenca de atracción del
punto fijo que, como vimos es la matriz de momentos de la medida autosemejante
asociada a Φ.
Veamos primero un resultado previo, para el que hay que tener en cuenta la
49
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

siguiente observación.

Observación 2.4.1. Sea φ : D → D una semejanza contractiva. Si φ(z) = αz + β,


el disco unidad se transforma en un disco incluido en D, centrado en β y de radio
|α|, como se muestra en la figura.

Esto implica que |α| + |β| ≤ 1 y por lo tanto |β| ≤ 1. Además, se verifica que |α| < 1
por ser φ contractiva.

Teorema 2.4.2. Sea φ(z) = αz + β una semejanza con |α| < 1 y |α| + |β| < 1. Sea
Aφ la matriz asociada definida en la Proposición 2.1.1.

Entonces la aplicación Tφ : (M1 , ∥.∥sup ) → ( M1 , ∥.∥sup ) definida por

Tφ (M ) = A⋆φ M Aφ , (2.9)

es una aplicación contractiva con razón de contracción |α|+|β| si α ̸= 0 y es constante


si α = 0.

( ′ )∞
Demostración. Sean M = (mij )∞ ′
i,j=0 ∈ M1 y M = mij i,j=0 ∈ M1 . Para ver que Tφ

es contractiva, consideramos la matriz C = (cij )∞ ′


i,j=0 = Tφ (M )−Tφ (M ). Recordando
(j ) i−1 j−i
que Aφ = (aij )∞i,j=0 es triangular superior con aij = i α β si i ≤ j, se tiene que

C = Tφ (M ) − Tφ (M ′ ) = A⋆φ M Aφ − A⋆φ M ′ Aφ = A⋆φ (M − M ′ )Aφ = (cij )∞


i,j=0 .

50
2.4 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes en D

En particular, para c00 se tiene que c00 = (1, 0, 0..)t (M − M ′ )(1, 0, 0..) = 0 ya que
m00 − m′00 = 1 − 1 = 0.
Para el resto de términos (i, j) ̸= (0, 0) tenemos


i,j ( )( )
i j i−k j−l k l
cij = β β α α (mkl − m′kl )
k=0,l=0
k l
(k,l)̸=(0,0)

de donde

∑ ( )( )
i,j
i j j−l
|cij | ≤ |β|i−k β |α|k |α|l |mkl − m′kl |
k=0,l=0
k l
(k,l)̸=(0,0)


i,j ( )( )
i j
≤ |β|i+j−k−l |α|k+l sup |mkl − m′kl |
k=0,l=0
k l k,l
(k,l)̸=(0,0)


i,j ( )( )
i j
= sup |mkl − m′kl | |β|i+j−k−l |α|k+l .
k,l
k=0,l=0
k l
(k,l)̸=(0,0)

Por tanto,

∥Tφ (M ) − Tφ (M ′ )∥sup = sup |cij |


ij
 

 ( )( ) 

 ∑
i,j
i j 

≤ ∥M − M ∥sup sup |β|i+j−k−l |α|k+l
(i,j)̸=(0,0) 
 k=0,l=0 k l 

 
(k,l)̸=(0,0)
{ }
= ∥M − M ′ ∥sup sup (|α| + |β|)i+j − |β|i+j .
(i,j)̸=(0,0)

Estudiando los casos:

1. Si |α| = 0 el anterior supremo es cero y por tanto la aplicación es constante.

2. Si |α| ̸= 0 y |β| = 0 tenemos que ∥Tφ (M ) − Tφ (M ′ )∥sup ≤ ∥M − M ′ ∥sup |α|.

3. Si |α| ̸= 0 , |β| ̸= 0 y |α| + |β| < 1 tenemos,

∥Tφ (M ) − Tφ (M ′ )∥sup ≤ ∥M − M ′ ∥sup (|α| + |β|). (2.10)

51
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Por tanto, Tφ es una contracción en (M1 , ∥.∥sup ) con razón (|α| + |β|), si α ̸= 0 y es
constante si α = 0.
Para acabar, hay que probar que la transformación Tφ está bien definida, es decir
que si M ∈ M1 se tiene que Tφ (M ) ∈ M1 . Por un lado, es claro que el primer
término (0, 0) de Tφ (M ) es 1. Por otro lado, de forma análoga a como se ha obtenido
(2.10), se tiene que
∥Tφ (M )∥sup ≤ ∥M ∥sup .

La siguiente definición es análoga a la Definición 2.3.1, pero se define ahora la


transformación TΦ en el espacio métrico M1 .

Definición 2.4.3. Se considera un SFI de semejanzas con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },

de forma que cada semejanza φs (z) = αs z + βs verifica que |αs | < 1 y |αs | + |βs | < 1,
para cada s ∈ {1, 2, . . . , k}.
Se define la transformación TΦ : M1 → M1 de la forma


k
TΦ (M ) = ps A⋆s M As , (2.11)
s=1
donde As es la matriz asociada a la semejanza φs definida en la Proposición 2.1.1.

Observación 2.4.4. La transformación TΦ está bien definida. Veamos que


k
TΦ (M ) = ps Tφs (M ) ∈ M1 .
s=1


k
1. Si llamamos C = (cij )∞
i,j=0 = TΦ (M ), entonces c00 = ps = 1.
s=1

2. La matriz C es acotada con la norma del supremo por ser combinación lineal
convexa finita de matrices acotadas con la norma del supremo.
52
2.5 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes

Es obvio que cualquier combinación lineal convexa de operadores contractivos es


contractivo y como consecuencia de ello tenemos el siguiente resultado.

Teorema 2.4.5. Consideramos la transformación TΦ : (M1 , ∥.∥sup ) → (M1 , ∥.∥sup )


asociado al SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }

como en la Definición 2.4.3.

Entonces TΦ es una aplicación contractiva que tiene como punto fijo la matriz de
momentos M (µ) de la medida autosemejante determinada por Φ.

( ′ )∞
Demostración. Sean M = (mij )∞ ′
i,j=0 ∈ M1 y M = mij i,j=0 ∈ M1 , entonces


k

∥TΦ (M ) − TΦ (M )∥sup ≤ ps ∥Tφs (M ) − Tφs (M ′ )∥sup
s=1
∑k
≤ ps ∥M − M ′ ∥sup (|αs | + |βs |)
s=1

k

≤ ∥M − M ∥sup ps sup(|αs | + |βs |)
s
s=1

≤ ∥M − M ′ ∥sup sup(|αs | + |βs |)


s

Por tanto, tenemos una aplicación contractiva en el espacio métrico completo


(M1 , ∥·∥sup ).

2.5. Teorema del punto fijo para matrices de mo-

mentos de medidas autosemejantes

Como hemos visto en la sección anterior, cuando las razones de las semejanzas de
un SFI verifican las propiedades del Teorema 2.4.5 de la sección anterior, el soporte
de la medida autosemejante está dentro de la bola unidad, y la matriz de momentos
53
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

es acotada con la norma del supremo. En otros casos, la norma del supremo no
es suficiente para garantizar la contractividad del operador TΦ definido por (2.11),
ya que si la medida invariante asociada a Φ tiene parte de su soporte fuera de D,
los momentos de la medida no están acotados. En caso de existir alguna semejanza
φs (x) = αs x + βs de Φ, verificando |αs | + |βs | ≥ 1, podemos trasladar el problema a
la bola unidad cerrada. En esta sección definiremos otro espacio de matrices y una
norma adecuada que nos permitirá trasladar el problema a la bola unidad cerrada y
obtener los resultados de contractividad obtenidos en el Teorema 2.4.5 de la sección
anterior en el caso general.

Lema 2.5.1. Sean f (z) y g(z) semejanzas contractivas, entonces f ◦ g ◦ f −1 (z) es


una semejanza contractiva con la misma razón que g(z).

Demostración. Sean f (z) = γz + δ y g(z) = αz + β, entonces

z δ z δ
f ◦ g ◦ f −1 (z) = f ◦ g( − ) = f (α( − ) + β)
γ γ γ γ
αz αδ
= γ(( − ) + β) + δ
γ γ
= αz − αδ + γβ + δ

Observación 2.5.2. Si en el lema anterior tomamos δ = 0, entonces vemos que la


nueva semejanza contractiva, f ◦ g ◦ f −1 (z) = αz + γβ, se diferencia de g(z) en el
término independiente que aparece ahora multiplicado por la razón de f , γ.

Lema 2.5.3. Consideramos el SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk }.

Sean K y µΦ el conjunto autosemejante y la medida, respectivamente, invariantes


para Φ. Sea f una semejanza contractiva. Consideramos el SFI con probabilidades
54
2.5 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes

dado por

f Φf −1 = {f ◦ φ1 ◦ f −1 , f ◦ φ2 ◦ f −1 , . . . , f ◦ φk ◦ f −1 ; p1 , p2 , . . . pk }.

Entonces, el conjunto f (K) es el conjunto autosemejante invariante para f Φf −1 y


la medida autosemejante invariante para este SFI es la medida imagen por f de la
medida µΦ , es decir,

µf Φf −1 = µΦ ◦ f −1 .

Demostración. Es claro que f (K) es un conjunto compacto que satisface


( )

k ∪
k
f ◦ φs ◦ f −1 (f (K)) = f φs (K) = f (K),
s=1 s=1

ya que K es invariante para Φ. Por tanto f (K) es invariante para f Φf −1 .

Utilizando que µΦ es invariante para Φ podemos comprobar de la misma forma


que µΦ ◦ f −1 es invariante para f Φf −1 ,
( k )
∑ ∑
k
µΦ ◦ f −1 = ps µΦ ◦ φ−1
s ◦ f −1
= ps (µΦ ◦ f −1 ) ◦ f ◦ φ−1
s ◦f
−1
.
s=1 s=1

Por tanto, µΦ ◦ f −1 es invariante para f Φf −1 .

2.5.1. Espacios métricos de matrices infinitas asociados a un

SFI

A lo largo de esta sección consideraremos el SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },

formado por semejanzas contractivas. K y µΦ denotarán el conjunto y la medida,


respectivamente, autosemejantes para Φ.

Puesto que K es un conjunto compacto, podemos encontrar una semejanza con-


tractiva f (z) = αf z + βf de forma que f (K) este contenido en D. Para simplificar,
55
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

tomaremos una homotecia f (z) = αf z, de forma que αf sea real y positivo, verifi-
cando además que
1 − |αs |
αf < mı́n ·
s=1,2,...,k |βs |
De esta forma, las Observaciones 2.5.2 y 2.4.1 nos aseguran que la medida auto-
semejante asociada al SFI f Φf −1 , tiene como soporte f (K) ⊂ D. En el caso en que
K ⊂ D, tomamos f como la aplicación identidad.

Para cada semejanza f definimos un nuevo espacio métrico de matrices infinitas,

M∞,f = {M tal que M ′ = A⋆f M Af ∈ M∞ }

con la norma,

||M ||f = ||M ′ ||sup para todo M ∈ M∞,f con M ′ = A⋆f M Af .

Veamos que este espacio es un espacio métrico completo.

Lema 2.5.4. En las condiciones de la definición anterior (M∞,f , ∥.∥f ) es un espacio


métrico completo.

Demostración. Para probar ||M ||f = ||M ′ ||sup es una norma en M∞,f , veamos pri-
mero que la aplicación Tf : M∞,f −→ M∞ tal que Tf (M ) = A⋆f M Af = M ′ es
biyectiva.
( )∞ ( )∞
Sean M1 = m1ij i,j=0 y M2 = m2ij i,j=0 , tales que Tf (M1 ) = Tf (M2 ) entonces
tenemos que αfi+j m1ij = αfi+j m2ij para todo i, j, por tanto m1ij = m2ij , por lo que
Tf es inyectiva. Además, como las matrices A⋆f y Af son invertibles con inversas
A⋆f −1 y Af −1 , respectivamente, tenemos que si Tf (M ) = M ′ podemos escribir M =
A⋆f −1 M ′ Af −1 y por tanto Tf es biyectiva.

Que Tf sea biyectiva y el hecho de que (M∞ , ∥ .∥sup ) sea un espacio métrico
completo demuestran que se verifican las siguientes propiedades para M, M1 , M2 ∈
M∞,f ,
56
2.5 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes

1. ∥M ∥f > 0 salvo que M ≡ 0 en cuyo caso ∥M ∥f = 0.

2. Si α ∈ C entonces ∥αM ∥f = |α| ∥M ∥f .

3. ∥M1 + M2 ∥f ≤ ∥M1 ∥f + ∥M2 ∥f .

4. (M∞,f , ∥.∥f ) es completo por serlo (M∞ , ∥ .∥sup ).

Definición 2.5.5. Definimos el espacio

Mf = {M ∈ M∞,f tal que M ′ = A⋆f M Af ∈ M1 }

y la transformación TΦ : Mf → Mf dada por


k ∑
k
TΦ (M ) = ps A⋆s M As = ps Tφs (M ),
s=1 s=1

como en (2.11).

Es claro que (Mf , ∥.∥f ) es un subespacio cerrado de (M∞,f , ∥·∥f ) y por lo tanto
completo, por lo que tenemos el siguiente teorema.

Teorema 2.5.6. Consideraremos el SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . pk },

de semejanzas contractivas. Sean K y µΦ el conjunto y la medida, respectivamente,


autosemejantes para Φ. Sea f (z) = αf z una homotecia, de forma que αf sea real y
positivo, verificando además que

1 − |αs |
αf < mı́n .
s=1,2,...,k |βs |

Entonces, la transformación TΦ : Mf → Mf definida en 2.5.5 es contractiva y


tiene la misma razón de contracción que Tf Φf −1 : M1 → M1 definida en 2.4.3.
Además, el único punto fijo es la matriz de momentos de la medida autosemejante
µΦ .
57
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Demostración. Primero, veamos que la transformación TΦ está bien definida.


Sea M ∈ Mf , entonces existe una matriz M ′ ∈ M1 tal que M = A∗f −1 M ′ Af −1 .
Para ver que TΦ (M ) ∈ Mf , tenemos que probar que A∗f TΦ (M )Af ∈ M1 ,
( )
A∗f TΦ (M )Af =A∗f TΦ A∗f −1 M ′ Af −1 Af

k
= ps A∗f A∗s A∗f −1 M ′ Af −1 As Af
s=1

=Tf Φf −1 (M ′ ) ∈ M1 .

Veamos ahora que TΦ es contractiva con la misma razón de contracción que Tf Φf −1 .


Sean M1 y M2 ∈ Mf , entonces existen dos matrices M1′ y M2′ ∈ M1 tal que
Mi = A∗f −1 Mi′ Af −1 , (i = 1, 2), de aquı́ se tiene,

||TΦ (M1 − M2 )||f =||A∗f TΦ (M1 − M2 )Af ||sup


( )
=||A∗f TΦ A∗f −1 (M1′ − M2′ )Af −1 Af ||sup

∑k
∗ ∗ ∗ ′ ′
= ps Af As Af −1 (M1 − M2 )Af As Af
−1

s=1 sup

=||Tf Φf −1 (M1′ − M2′ )||sup

≤ máx {|αs | + |αβs |}||M1′ − M2′ ||sup


s=1,...,k

= máx {|αs | + |αβs |}||M1 − M2 ||f .


s=1,...,k

Luego TΦ es contractiva.
Probaremos ahora que su punto fijo es la matriz de momentos MΦ de la medida
autosemejante µΦ .
Por el Lema 2.5.3 se tiene que µf Φf −1 = µΦ ◦ f −1 , por tanto Mf Φf −1 = A∗f MΦ Af
de donde MΦ = A∗f −1 Mf Φf −1 Af −1 ∈ Mf , luego

k
A∗f TΦ (MΦ )Af = ps A∗f A∗s A∗f −1 Mf Φf −1 Af −1 As Af
s=1

=Tf Φf −1 (Mf Φf −1 )

=Mf Φf −1 .

58
2.5 Teorema del punto fijo para matrices de momentos de medidas
autosemejantes

Por lo que TΦ (MΦ ) = A∗f −1 Mf Φf −1 Af −1 = MΦ .

2.5.2. Aproximación de la matriz de momentos y velocidad

de convergencia

El Teorema 2.5.6 nos da un algoritmo general para aproximar la matriz de mo-


mentos de una medida autosemejante asociada a un SFI, Φ, con probabilidades. Por
ser un algoritmo iterativo asociado a una transformación contractiva, la velocidad
de convergencia depende de la razón de contracción de TΦ que al ser igual que la de
Tf Φf −1 parece que depende de f . Sin embargo, esto es ası́.

Observación 2.5.7. En las condiciones del Teorema 2.5.6, se tiene que que la veloci-
dad de convergencia del algoritmo es del orden de rn , siendo r la razón de contracción
de SFI Φ, es decir, r = máx {|αs |}.
s=1,...,k

Sea ε > 0 tal que


{ }
1 − |αs |
ε< mı́n .
s=1,2,...,k |βs |
Para cada α < ε consideramos la homotecia f (z) = αz. Para esta f hemos visto en
el teorema anterior que

||TΦ (M1 −M2 )||f ≤ máx {|αs |+|αβs |}||M1 −M2 ||f ≤ máx {|αs |+|εβs |}||M1 −M2 ||f .
s=1,...,k s=1,...,k

Por tanto la razón de contracción es menor o igual que máx {|αs | + ε|βs |} para todo
s=1,...,k

ε, y por tanto menor o igual que r.


Esto significa que la velocidad del algoritmo depende de la razón de contracción
del SFI Φ.

Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los
momentos de una medida autosemejante asociada a un SFI con probabilidades.

Ejemplo 2.5.8. Sea µ la medida normalizada de Lebesgue en el intervalo [−1, 1].


Como ya hemos visto es una medida autosemejante para el SFI con probabilidades
59
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

dado por Φ = {φ1 = 1/2x − 1/2, φ2 = 1/2x + 1/2; p1 = p2 = 1/2}. Como vimos en
el ejemplo 2.3.4, la sección de orden seis de la matriz de momentos MΦ de la medida
µ se aproxima con diez dı́gitos de precisión por TΦ20 (Id).

Puesto que |α| + |β| = 1/2 + 1/2 = 1. Es suficiente tomar una homotecia f
que traslada el soporte en el interior del disco unidad. Por ejemplo si consideramos
x
f (x) = , el SFI f Φf −1 es
2
x 1 x 1
f Φf −1 = {f ◦ φ1 ◦ f −1 = − , f ◦ φ2 ◦ f −1 = + ; p1 = p2 = 1/2}.
2 4 2 4

Usando los resultados del Teorema 2.5.6 tenemos ||TΦ (M )||f = ||Tf Φf −1 (A∗f M Af )||sup
y que la norma de Tf Φf −1 está acotada por la razón de contracción α + 1/2|β| = 3/4.
Por tanto, podemos asegurar que

||TΦ20 (I − M )||f ≤ (3/4)20 ||A∗f (I − MΦ )Af ||sup ≈ 0,003171211939||A∗f (I − MΦ )Af ||sup .

Esto muestra que la cota obtenida no es muy ajustada a la realidad. Esta cota se
puede mejorar si tenemos en cuenta la observación anterior. En este caso r = 1/2 y
se tiene

1
||TΦ20 (I−MΦ )||f ≤ ||A∗ (I−MΦ )Af ||sup ≈ 0,0000009536743164||A∗f (I−MΦ )Af ||sup .
220 f

Ejemplo 2.5.9. Sea T el triángulo de Sierpinski con base en el intervalo [−1, 1].
log 3
Consideramos la medida uniforme µ en T , es decir, la medida de Hausdorff log 2
-
dimensional de T , que es la medidad autosemejante para el SFI con probabilidades
dado por

z 1 z 1 z 3i 1
Φ = {φ1 (z) = − , φ2 (z) = + , φ3 (z) = + ; p1 = p2 = p3 = }.
2 2 2 2 2 2 3


3
1
Entones, M (µ) es el punto fijo de la transformación TΦ (M (ν)) = A∗φi M (ν)Aφi .
i=1
3
Si iteramos la transformación 20 veces comenzando con la matriz identidad, ob-
tenemos una aproximación de la sección de orden 5 de la matriz de momentos de la
60
2.6 Fórmulas explı́citas para los momentos

medida µ:
 
1,0 −0,5773497187 i −0,3333326976 0,4123924989 i 0,6190467108
 
 −0,7056492891 i −0,6825382899 
 0,5773497187 i 0,7777771420 0,8918905074 i

 
TΦ (Id) = 
20
 −0,3333326976 0,7056492891 i 0,9802453594 −1,129649109 i −1,376602322 .

 
 −0,4123924989 i −0,6825382899 −2,130064540 i 
 1,129649109 i 1,609688046

0,6190467108 −0,8918905074 i −1,376602322 2,130064540 i 3,121089384

Podemos comparar este resultado con los momentos exactos dados por la fórmula
recurrente obtenida en (2.2.1):
 
1,0 −0,5773502693 i −0,3333333333 0,4123930495 i 0,6190476190
 
 
 0,5773502693 i −0,7056503292 i −0,6825396825 0,8918923515 i 
 0,7777777778 
 
 
 −0,3333333333 0,7056503292 i 0,9802469136 −1,129651479 i −1,376605792  .
 
 
 −0,4123930495 i −0,6825396825 −2,130070359 i 
 1,129651479 i 1,609691778 
 
0,6190476190 −0,8918923515 i −1,376605792 2,130070359 i 3,121098767

Como se puede observar en este caso la velocidad de aproximación es más lenta que
en el primer ejemplo. Sin embargo, la cota de la razón de contracción obtenida en la
observación anterior nos da una cota más ajustada del error cometido. En este caso
se tiene que r = 1/2 para las secciones de orden cinco se tiene

1
||TΦ20 (Id5 − Mϕ,5 )||f ≤ 20
||A∗f,5 (I − MΦ )5 Af,5 ||sup
2
1
≤ 20 ||A∗f,5 || ||(I − MΦ )5 || ||Af,5 ||sup
2
3
≤ 20 = 0,000002861022949,
2

lo que asegura los cinco dı́gitos de precisión que se observan en este ejemplo.

2.6. Fórmulas explı́citas para los momentos

Las relaciones de recurrencia que aparecen al estudiar los momentos de ciertas


medidas como convoluciones infinitas de Bernoulli, pueden expresarse en términos
61
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

de matrices triangulares. El desarrollo de esta sección tiene por objeto describir


explı́citamente los momentos de estas medidas. En esta sección encontramos una
fórmula para la inversa de una matriz triangular infinita en términos de números
multinómicos y composiciones de un número natural y utilizaremos esta expresión
para obtener una fórmula explı́cita para los momentos de estas medidas.

2.6.1. Inversa de una matriz triangular inferior

Lema 2.6.1. Dada una matriz triangular de la forma


 
1 0 0 0 ...
 
 
 a21 −1 0 0 ... 
 
 
A=
 a31 a32 −1 0 . . .

 (2.12)
 
 
 a41 a42 a43 −1 . . . 
 
.. .. .. .. . .
. . . . .

se tiene que su matriz inversa A−1 = C = (cij ) está definida por las siguientes
expresiones

c11 = 1

ci1 = ai1 + ai2 a21 + ai3 (a31 + a32 a21 ) + · · · + ai,i−1 (ai−1,1 + ai−1,2 a21 + . . .

= ai,αk aαk ,αk−1 . . . aα1 ,1 para i > 1
1 < α1 < α2 < . . . < αk < i
{α1 , . . . , αk } ⊂ {2, . . . , i − 1}

cim = ai,m + ai,m+1 am+1,m + ai,m+2 (am+2,m + .. + ai,i−1 (ai−1,m + ai−1,2 a2m + ..)

= − ai,αk aαk ,αk−1 . . . aα1 ,m para i > m > 1
m< α1 < α2 < . . . < αk < i
{α1 , . . . , αk } ⊂ {m + 1, . . . , i − 1}

62
2.6 Fórmulas explı́citas para los momentos

Demostración. Es conocido que C = A−1 es triangular inferior. Imponiendo AC = I


tenemos las relaciones,

c11 = 1, cii = −1 si i > 1,



i−1
ci1 = aij cj1 si i > 1,
j=1


i−1
cim = aij cjm si i > m,
j=m,m<i
cim = 0, en otro caso.

Vamos a utilizar inducción completa sobre i.

Para i = 2 la fórmula se verifica de manera trivial puesto que el sumatorio se


extiende al conjunto vacı́o y c21 = a21 c11 = a21 .

Si suponemos cierta la fórmula para todo α < i, ordenando el sumatorio de la


siguiente manera

∑ ∑
ai,αk aαk ,αk−1 . . . aα1 ,1 = ai,1 + ai,2 a2,1 + . . .
{α1 ,...,αk }⊂{2,...,i−1} {α1 ,..αk−1 }⊂∅

· · · + ai,αk aαk ,αk−1 . . . aα1 ,1 + . . .
{α1 ,...,αk−1 }⊂{2,...,αk −1}

· · · + ai,i−1 ai−1,αk−1 . . . aα1 ,1 .
{α1 ,...,αk−1 }⊂{2,...,i−2}

Aplicando la hipótesis de inducción a los sumandos anteriores, obtenemos


ai,αk aαk ,αk−1 . . . aα1 ,1
{α1 ,...,αk }⊂{2,...,i−1}

= ai,1 c11 + ai,2 c2,1 + ai,3 c3,1 + · · · + ai,αk cαk ,1 + · · · + ai,i−1 ci−1,1

i−1
= aij cj1 = ci,1 para i > 1.
j=1

Con una demostración similar obtendrı́amos la fórmula para cim .

63
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

Lema 2.6.2. Sea

 
b 0 0 0 ...
 1 
 
 a21 b2 0 0 ... 
 
 
A=
 a31 a32 b3 0 ... ,
 
 
 a41 a42 a43 b4 ... 
 
.. .. .. .. ..
. . . . .

una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij ) viene
dada por las siguientes expresiones

1
c1,1 = ,
b1
∑ (−1)k+1
ci1 = ai,αk aαk ,αk−1 . . . aα1 ,1 para i > 1,
bi bαk bαk−1 . . . bα1 b1
1 < α1 < α2 < . . . < αk < i,
{α1 , . . . , αk } ⊂ {2, . . . , i − 1}

∑ (−1)k
cim = ai,αk aαk ,αk−1 . . . aα1 ,m para i > m > 1,
bi bαk bαk−1 . . . bα1 bm
m< α1 < α2 < . . . < αk < i
{α1 , . . . , αk } ⊂ {m + 1, . . . , i − 1}

considerando también el conjunto vacı́o en las sumas.

Demostración. Podemos descomponer la matriz A como producto de una matriz


diagonal D por una triangular A′ , a la que podemos aplicar el lema anterior. Ası́,
−ai,j
tenemos A = DA′ con D = diag{b1, −b2 , −b3 , . . . , −bn } y A′ = (a′i,j ) con a′i,j =
bi
si i > j, a′1,1 = 1 y a′i,i = −1 si i > 1. De esta manera A−1 = (A′ )−1 D−1 , verificándose
la fórmula de manera inmediata.

64
2.6 Fórmulas explı́citas para los momentos

Corolario 2.6.3. Sea


 ( ) 
0
0 0 0 ... 0 ...
 (0) 
 
 1 
 b 0 0 ... 0 ... 
 (0) ( 1) 
 
 2 2 
 b 0 ... 0 ... 
 (0) (1) ( 2) 
 
A=

3 3 3
b3 ... 0 ...
,
 (2.13)
 0 1 2 
 
 .. .. .. .. .. .. 
 . . . . . . 
 ( ) ( ) ( ) ( ) 
 n n n n 
 . . . bn . . . 
 0 1 2 3 
 
.. .. .. .. .. ..
. . . . . .

una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij ) viene
dada por las siguientes expresiones

c11 = 1,

Para i > 1, se tiene

∑ ( )( ) ( )
i−1 αk α1 (−1)k+1
ci1 = ... ,
αk αk−1 0 bi−1 bαk bαk−1 . . . bα1
0 < α1 < α2 < . . . < αk < i − 1
{α1 , . . . , αk } ⊂ {1, . . . , i − 2}

y para cada i > m > 1

∑ ( )( ) ( )
i−1 αk α1 (−1)k
cim = ... .
αk αk−1 m − 1 bi−1 bαk bαk−1 . . . bα1 bm−1
m − 1 < α1 < α2 < . . . < αk < i − 1
{α1 , . . . , αk } ⊂ {m, . . . , i − 2}

Observación 2.6.4. Desarrollando la expresión anterior, se tiene

i−2 ( ) ( )( )
1 ∑ i−1 1 ∑i−2
−1 1 i − 1 α2 1
ci1 = + − + ...
bi−1 bi−1 j=1 j bj bi−1 1=α1 <α2
α2 α1 bα2 bα1
( )( ) ( )
i−1 i−2 2 (−1)i−1
··· + ... ·
i−2 i−3 1 bi−1 bi−2 . . . b2 b1

65
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

2.6.2. Expresiones de los momentos para la convolución de

Bernoulli

Podemos reescribir las n primeras ecuaciones de la fórmula (2.6) de recurrencia


para los momentos de la convolución infinita de Bernoulli µr en el intervalo [0, 1],
esto es para α = r, β1 = 0 y β2 = 1 − r
 n−1 ( ) ( )k

 (1 − r)n ∑ n r
 Sn = Sk
2(1 − rn ) k=0 k 1−r (2.14)


 S =1
0

como un producto matricial, AS = e1 siendo A = (aij ) una matriz triangular inferior


dada por
( ) ( )j−1 ( )
i − 1 (1 − r)i−1 r i − 1 (1 − r)i−j j−1
aij = = r para i > j,
j − 1 2(1 − ri−1 ) 1 − r j − 1 2(1 − ri−1 )

S es el vector columna de los momentos de µr y e1 el primer elemento de la base


canónica de ℓ2 ,

     
 1 0 0 ... 0 ...   S0   1 
 (1 ) ( )0     
 (1−r)1 r
−1 0 ... 0 ...   S1   0 
 2(1−r1 ) 0     
 (2 ) (
1−r
)0 (2 ) ( )1     
 (1−r)2 (1−r)2     
 r r
−1 . . . 0 . . .   S2   0 
 2(1−r2 ) 0 1−r 2(1−r2 ) 1 1−r    =  .
 .. .. .. .   ..   .. 
 . . . ..   .   . 
     
 (1−r)n (n) ( r )0 (1−r)n (n) ( r )1
    
 · · · −1 · · ·   Sn   0 
 2(1−rn ) 0 1−r 2(1−rn ) 1 1−r     
 .. .. .. . .   ..   .. 
. . . . . .
(2.15)
Para despejar vamos a aplicar los resultados de la sección anterior para calcular
la matriz inversa de A. Para ello expresamos esta matriz de la forma A = D1 T D2
( )i
(1 − r)i r
siendo D1 = diag{1, , i = 1, . . . , n}, D2 = diag{ , i = 1, . . . , n} y
2(1 − ri ) ( ) 1−r
i−1
T la matriz triangular inferior dada por tij = si i > j > 1 y en la diagonal
j−1
2(1 − ri )
t11 = 1 y tii = − si i ∈ N.
ri
66
2.6 Fórmulas explı́citas para los momentos

Teniendo en cuenta esta factorización, el sistema anterior D1 T D2 S = e1 se puede


transformar en T S ′ = D1−1 e1 = e1 siendo S ′ = D2 S, quedando un sistema más simple

 
   
 (1) 0 0 ... 0 ··· 
 1   S0′   1 
 2(1 − r ) 1
 − ··· 







0 
0 ... 0
 (0) ( r)   S1′   
 2 (1 − r2 )     
 2
−2 ···     
 ... 0   S2′   0 
 0 1 r2    =  .
 .   ..   .. 
 .. .. .. ..
.
..   .   . 
 ( ) ( )
.
( )
. .     
     
 n n n n)   Sn′   0 
 · · · −2 (1−r ···     
 0 1 2 rn     .. 
 . . .. ..  ..
.. .. .. . .
. . .
(2.16)
A partir de esta expresión se obtiene de forma inmediata el siguiente resultado.

Teorema 2.6.5. La fórmula explı́cita para los momentos de convoluciones infinitas


de Bernoulli en el intervalo [0, 1] viene dada por
∑ ( )∏k
(1 − r)n n r αj
Sn = ,
2(1 − rn ) n − αk , αk − αk−1 , . . . , α2 − α1 , α1 j=1 2(1 − rαj )
0 < α1 < α2 < . . . < αk < n
{α1 , . . . αk } ⊂ {1, . . . n − 1}
( )
n
donde la notación corresponde a los números
n − αk , αk − αk−1 , . . . , α2 − α1 , α1
multinómicos.

Demostración. Aplicamos el Corolario 2.6.3 para resolver el sistema (2.16) y teniendo


en cuenta que
( )n
r
Sn = Sn′ ,
1−r
se tiene que
∑ ( )( ) ( )
α1 (1 − r)n ∏
k
n αk r αj
Sn = ...
αk αk−1 0 2(1 − rn ) j=1 2(1 − rαj )
0 < α1 < α2 < . . . < αk < n
{α1 , . . . αk } ⊂ {1, . . . , n − 1}

∑ ( )∏
k
(1 − r)n n r αj
=
2(1 − rn ) n − αk , αk − αk−1 , . . . , α2 − α1 , α1 j=1
2(1 − rαj )
0 < α1 < α2 < . . . < αk < n
{α1 , . . . , αk } ⊂ {1, . . . , n − 1}

67
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES

A continuación vemos cómo quedan los primeros momentos de la convolución


infinita de Bernoulli en [0, 1], en función de la razón de semejanza r.

Ejemplo 2.6.6. Si n=4, la sección 5 de la matriz A del sistema (2.15) será

 
1 0 0 0 0
 
 (1 ) ( )0 
 (1−r)1 r
−1 0 0 0 
 2(1−r1 ) 0 1−r 
 ( )( )0 (2) ( )1 
 (1−r)2 2 r (1−r)2 r
−1 0 
 2(1−r2 ) 0 2(1−r2 ) 1
0 
 (3 ) (
1−r
)0 (3) (
1−r
)1 (3) ( )2 
 (1−r)3 (1−r)3 (1−r)3 
 r r r
−1 0 
 2(1−r3 ) 0 1−r 2(1−r3 ) 1 1−r 2(1−r3 ) 2 1−r 
(1−r)4
(4 ) ( )0 (1−r)4
(4) ( )1 (1−r)4
(4) ( )2 (1−r)4
(4) ( )3
2(1−r4 ) 0
r
1−r 2(1−r4 ) 1
r
1−r 2(1−r4 ) 2
r
1−r 2(1−r4 ) 3
r
1−r
−1

Por otro lado, su inversa será


 
1 0 0 0 0
 
 
 1
−1 0 0 0 
 2 
 
 1
− r+1
r
−1 0 
 0 
 2(r+1)

 2 
 − 41 r−2 − 32 (r2 +r+1)(r+1)
r
− 32 r2 +r+1
r
−1 0 
 r+1 
−(r3 −r2 −1) (r5 −r3 −r2 −2)r −3r2 −2r3
2(r3 +r2 +r+1)(r+1) (r3 +r2 +r+1)(r2 +r+1)(r+1) (r3 +r2 +r+1)(r2 +r+1) r3 +r2 +r+1
−1

Por lo que la primera columna será el vector de momentos (S0 , S1 , S2 , S3 , S4 ).

La fórmula explı́cita anterior se puede expresar en términos de composiciones de


un número natural n. Recordemos (ver por ejemplo [Mer03]) que una k-composición
de n es una solución de la ecuación a1 + a2 + · · · + ak = n, donde ai ∈ N para cada
i = 1, 2, . . . , k.
Dada una k-composición de n, a1 + a2 + · · · + ak = n se puede construir un
(k − 1)-subconjunto de {1, 2, 3, .., n − 1} de la siguiente forma {a1 , a1 + a2 , a1 + a2 +
a3 , ...., a1 + a2 + a3 + .. + ak−1 }.
Por ejemplo, la 1-composición de 5 que es 5 = 5, da lugar al conjunto vacı́o que
es un 0-subconjunto de {1, 2, 3, 4}. La 2-composición 3 + 2 = 5 de 5 dará lugar al
68
2.6 Fórmulas explı́citas para los momentos

conjunto {3}, que es un 1-subconjunto de {1, 2, 3, 4}. La 3-composición 1 + 1 + 3 = 5


de 5 da lugar a {1, 2}, que es un 2 subconjunto de {1, 2, 3, 4}. La 4-composición
2 + 1 + 1 + 1 = 5 de 5 da lugar a {2, 3, 4}, que es un 3-subconjunto de {1, 2, 3, 4}.
La 5-composición de 5 que es 1 + 1 + 1 + 1 + 1 = 5 da lugar a {1, 2, 3, 4}, que es un
4-subconjunto de {1, 2, 3, 4}.

Corolario 2.6.7. La fórmula explı́cita para los momentos de la convolución infinita


de Bernoulli en el intervalo [0, 1] se puede expresar de la forma siguiente en términos
de composiciones de n,
( )n ∑ ( )∏k
1−r n ra1 +a2 +···+aj
Sn =
r ak , . . . , a2 , a1 j=1 2(1 − ra1 +a2 +···+aj )
ak + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k; ∀k ≥ 1

Demostración. Teniendo en cuenta el cambio


 

 = n − (αk − 1) 


 ak+1 


 


 ak 

= αk − αk−1

 ... .. 


 . 


 


 a 

1 = α1 − 1
tenemos que la (k + 1)−composición de n, a1 + a2 + a3 + .. + ak + ak+1 = n, verifica
 

 αk − 1 = a1 + a2 + a3 + . . . + ak = n − ak+1  

 


 


 .. . .
.. 


 α2 − 1 = a1 + a2 


 


 


 α −1 = a 

1 1

∑ ( )∏k
(1 − r )n n ra1 +a2 +···+aj
Sn =
2(1 − rn ) ak , . . . , a2 , a1 j=1 2(1 − ra1 +a2 +···+aj )
ak+1 + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k; ∀k ≥ 1

( )n ∑ ( ) k+1

1−r n ra1 +a2 +···+aj
=
r ak , . . . , a2 , a1 j=1 2(1 − ra1 +a2 +···+aj )
ak+1 + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k + 1; ∀k ≥ 1

69
Capı́tulo 3

MATRICES DE HESSENBERG Y
MEDIDAS AUTOSEMEJANTES

El estudio de la matriz de Hessenberg asociada a una medida autosemejante


podrı́a ayudarnos a entender la estructura de esta medida. En el capı́tulo anterior,
se muestra como las propiedades geométricas de una medida autosemejante para
un SFI pueden ser trasladadas a transformaciones de matrices de momentos. Ahora
estudiaremos la transformación por una semejanza de una matriz de Hessenberg.

Más concretamente, en este capı́tulo se introduce un método para calcular la ma-


triz de Hessenberg de una suma de medidas partiendo de las matrices de Hessenberg
de las medidas componentes. Nuestro método extiende al plano complejo, las técni-
cas espectrales usadas por G. Mantica [Ma00] que en el caso real calcula la matriz
de Jacobi asociada a una suma de medidas en función de las matrices de Jacobi de
las medidas dadas. Ver también [EGK92, Gau82].

Aplicaremos este método para aproximar la matriz de Hessenberg asociada a


una medida autosemejante y lo compararemos con la matriz de Hessenberg que se
obtiene a partir de la matriz de momentos del teorema de punto fijo [Teorema 2.5.6]
utilizando las fórmulas (1.3).
71
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Finalmente, presentaremos algunos ejemplos para medidas autosemejantes clási-


cas.

3.1. Transformaciones de matrices de Hessenberg

por semejanzas

En el capı́tulo anterior se utilizaba la expresión de la matriz de momentos de la


medida inducida µf por una semejanza f (z) para aproximar la matriz de momentos
de una medida autosemejante. Parece natural que nos preguntemos por la expresión
de la matriz de Hessenberg Df correspondiente.

En esta primera sección se presentará la expresión de matriz de Hessenberg Df


y algunas propiedades de invarianza.

Recordemos que, como se expuso en el capı́tulo 1, la matriz M asociada a la


matriz D no tiene que ser necesariamente una matriz de momentos. Los resultados
de esta sección son válidos para el caso de matrices M HDP, aunque no sean de
momentos y por tanto no haya una medida asociada. Esto se debe a que la matriz
de Hessenberg D asociada a M se puede calcular con técnicas de álgebra lineal y sin
herramientas de teorı́a de la medida.

El siguiente resultado que necesitaremos a lo largo de este capı́tulo, puede encon-


trarse en [Tor87] aunque damos aquı́ una demostración más breve.

Proposición 3.1.1. Sea f (z) = αz + β con α = |α|eiθ una semejanza en el plano


complejo. Sea M una matriz HDP y sea M f la matriz definida en Proposición 2.1.1.
Entonces la matriz Df asociada a M f tiene como sección de orden n la matriz
72
3.1 Transformaciones de matrices de Hessenberg por semejanzas

 
α2 α3 α4 αn
 αd00 + β d
|α| 01
d
|α|2 02
d
|α|3 03
... d
|α|n−1 0n−1 
 
 |α|d α2 α3 αn−1 
 10 αd11 + β d
|α| 12
d
|α|2 13
... d
|α|n−2 1n−1 
 
 α2 αn−2 
 0 |α|d21 αd22 + β d ... d 
f 
Dn = 
|α| 23 |α|n−3 2n−1 . (3.1)

 0 0 |α|d32 αd33 + β ... αn−3
d 
 |α|n−4 3n−1 
 .. .. .. .. .. 
 ..
. 
 . . . . . 
 
0 0 0 0 . . . αdn−1n−1 + β

Esto es
Dnf = α Un⋆ Dn Un + βIn ,

con U = (δjk e(k−1)θi )∞


j,k=0 .

Demostración. En el capı́tulo anterior, en la Proposición 2.1.2 se vio que si M es


una matriz HDP la matriz M f definida en (2.1) también es HDP. Como vimos en el
capı́tulo 1, toda matriz HDP tiene una matriz de Hessenberg asociada. Denotaremos
por D y por Df las matrices de Hessenberg asociadas a M y a M f , respectivamente.
Si partimos de la descomposición de Cholesky de M , M = T T ⋆ , entonces se tiene
M f = A⋆f M Af = (A⋆f T )(T ⋆ Af ), sin embargo, no se puede asegurar que A⋆f T sea el
factor de Cholesky de M f , ya que la diagonal deberı́a ser estrictamente positiva.
Nótese que los elementos de la diagonal de las matrices (A⋆f T ) y (T ⋆ Af ), son

diag(A⋆f T ) = (tii αi )∞ ⋆ i ∞
i=0 y diag(T Af ) = (tii α )i=0 .

La única matriz U unitaria, tal que U U ⋆ = U ⋆ U = I, cuyas secciones principales


sean también unitarias verificando

Mnf = A⋆f,n Tn Un Un⋆ Tn⋆ Af,n ,

de modo que la matriz Te = A⋆f T U tenga diagonal real y positiva es la matriz diagonal
dada por
diag(U ) = (ejiθ )∞
j=0 .

73
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Si ahora utilizamos las fórmulas D = T ⋆ S(T ∗ )−1 y Df = Te⋆ S(Te∗ )−1 vistas en el
capı́tulo 1, tendremos

Df = Te⋆ S(Te∗ )−1 = U ⋆ T ⋆ Af SA−1 ∗ −1


f (T ) U.

Utilizando que A−1


f = Af −1 , se tiene
 () (2) 2 (3 ) 3  (1) β (2) β 2 () 3 
1
β 1
β β ... 1 − 0 α − 30 αβ 3 ...
 0 0 0  0 α2 
 (1) 1 (2) 1 1 (3) 1 2  (1 ) 1 (2) 1 β (3) 1 β 2 
 ...   − 1 αα ... 
 1 α 1
α β 1
α β  0 1 α 1 α α2 
 ( ) ( )  ( ) ( ) 
Af SAf −1 =   0
2
α2 3
α2 β 1 ...  
 0 0 2 1
2 − 3 1 β
2 α2 α
... 
 2 2
(3) 3  2 α
( ) 
  
 0 0 α ...  0 0 0 3 1
... 
 3  3 α3 
.. .. .. .. .. .. .. .. ..
. . . . . . . . .
= αS + βI.

Sustituyendo en la expresión de Df tendremos que

Df = U ⋆ T ⋆ Af SAf −1 (T ∗ )−1 U = U ⋆ T ⋆ (αS + Iβ)(T ∗ )−1 U

= α U ⋆ DU + βI.

Por lo que el resultado queda probado.

Observación 3.1.2. Nótese que Df es unitariamente equivalente a αD + Iβ.

A continuación vamos a ver algunos ejemplos.

Ejemplo 3.1.3. En el ejemplo 2.1.4 hemos visto que la matriz de momentos de la


medida de Lebesgue normalizada en la circunferencia unidad centrada en (1, 0), se
obtenı́a con la transformación de la matriz identidad por la semejanza con α = 1 y
β = 1. En este caso se sabe que la matriz D asociada a la matriz identidad es el shift
right y aplicando la fórmula anterior tenemos que
   
0 0 0 0 ... 1 0 0 0 ...
   
   
 1 0 0 0 ...   1 1 0 0 ... 
   
   
D=  0 1 0 0 ...   =⇒ D f
=  0 1
 1 0 ...  .
   
   
 0 0 1 0 ...   0 0 1 1 ... 
   
.. .. .. .. . . .. .. .. .. . .
. . . . . . . . . .

74
3.1 Transformaciones de matrices de Hessenberg por semejanzas

Ejemplo 3.1.4. Sea S la matriz del shift right. La matriz D = S + S ⋆ es la matriz


de Hessenberg asociada a los polinomios ortogonales de Tchebyschev de segunda
especie en [−2, 2]. La matriz que resulta de transformar D mediante f (z) = αz + β,
con α = eπ/4i , y β = i es

 
  i i 0 0 0 ... 

0 1 0 0 ...  
   1 i i 0 0 ... 
   
 1 0 1 0 ...   
   
   0 1 i i 0 ... 
D=
 0 1 0 1 ...   =⇒ D =
f

.

   0 0 1 i i ... 
   
 0 0 1 0 ...   
   0 0 0 1 i ... 
.. .. .. .. . .  
. . . . .  .. .. .. .. .. . . 
. . . . . .
Esta es una distribución sobre una recta diferente del eje real y por tanto ya no es
una matriz tridiagonal de Jacobi.

3.1.1. Propiedades de invarianza

A continuación vamos a analizar propiedades de la matriz de Hessenberg en el


caso de que la matriz M asociada sea HDP y no necesariamente de momentos.

Teorema 3.1.5. Sea D un operador acotado en ℓ2 (N0 ) y f (z) = αz + β una trans-


formación de semejanza. Entonces se cumplen las siguientes propiedades:

i) D es normal, si y solo si, Df es normal.

ii) D es hiponormal, si y solo si, Df es hiponormal.

iii) D es subnormal, si y solo si, Df es subnormal.

Demostración. Hemos visto que Df = αU ⋆ DU +βI, de donde [Df ]⋆ = αU ⋆ D⋆ U +βI


y se tiene

[Df ]⋆ Df = (αU ⋆ D⋆ U + βI)(αU ⋆ DU + βI)

= |α|2 U ⋆ D⋆ DU + αβU ⋆ DU + αβU ⋆ D⋆ U + |β|2 I. (3.2)


75
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Por otro lado

Df [Df ]⋆ = (αU ⋆ DU + βI)(αU ⋆ D⋆ U + βI)

= |α|2 U ⋆ DD⋆ U + αβU ⋆ DU + αβU ⋆ D⋆ U + |β|2 I.

Luego se cumple que

[Df ]⋆ Df − Df [Df ]⋆ = |α|2 U ⋆ (D⋆ D − DD⋆ ) U.

Veamos ahora las tres propiedades.

i) Si D es normal, es decir D⋆ D − DD⋆ = 0, entonces [Df ]⋆ Df − Df [Df ]⋆ = 0, y


por tanto Df es normal. El recı́proco es obvio.

ii) Si D es hiponormal, es decir D⋆ D−DD⋆ ≥ 0, entonces [Df ]⋆ Df −Df [Df ]⋆ ≥ 0,


y por tanto Df es hiponormal. El recı́proco es inmediato.

iii) Recordemos que según el Teorema 1.2.10 en el caso acotado, D es subnormal y


acotada si y solo si M es de momentos. Por tanto, si D es subnormal hay una
medida µ asociada, y en ese caso, Df es la matriz de Hessenberg asociada a la
medida imagen de µ por f , y por tanto es subnormal. El recı́proco se prueba
en forma análoga, ya que f es invertible.

Observación 3.1.6. No es cierto que se conserve la cuasinormalidad. Veamos un


ejemplo.
Sea S la matriz del shift right, que como sabemos es la matriz de Hessenberg aso-
ciada a la matriz identidad, que es la matriz de momentos de la medida de Lebesgue
normalizada en la circunferencia unidad. Sabemos que S ⋆ S = I, de ahı́ se deduce
que S es cuasinormal ya que S(S ⋆ S) = (S ⋆ S)S.
Sin embargo, si f (z) = z + 1, se tiene que Df = S + I, que es la matriz de
Hessenberg correspondiente a la matriz de Pascal, que no es cuasinormal.
76
3.2 Matriz de Hessenberg de una suma de medidas

Como D = S + I, tenemos D⋆ = S ⋆ + I, de aquı́ tendremos que

D⋆ D = (S ⋆ + I)(S + I) = S ⋆ S + S ⋆ + S + I = 2I + S ⋆ + S.

Análogamente
DD⋆ = (S + I)(S ⋆ + I) = SS ⋆ + S ⋆ + S + I.

Luego
D⋆ D − DD⋆ = I − SS ⋆ .

Calculemos finalmente D(D⋆ D) − (D⋆ D)D,

(S + I) [2I + S ⋆ + S] − [2I + S ⋆ + S] (S + I)

= S [2I + S ⋆ + S] − [2I + S ⋆ + S] S

= SS ⋆ − S ⋆ S = SS ⋆ − I ̸= 0.

Luego la cuasinormalidad no se conserva.

3.2. Matriz de Hessenberg de una suma de medi-

das

En esta sección introducimos un método que calcula exactamente la matriz de


Hessenberg de una suma de medidas partiendo de las matrices de Hessenberg de las
medidas componentes. Este método extiende las técnicas espectrales que G. Mantica
usa en [Ma00], para calcular la matriz de Jacobi asociada a una suma de medidas
partiendo de las matrices de Jacobi de cada una de las medidas componentes (ver
también [EGK92, Gau82]).
A lo largo de la sección consideraremos una familia de medidas, {µi }m
i=1 todas

con soporte compacto Ωi ⊂ C y µi (Ωi ) = 1. Sea µ la medida suma, i.e.,



m
dµ = pi dµi ,
i=1

77
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES


m
donde pi = 1 y pi ≥ 0 para cada i = 1, 2, . . . m.
i=1

Sean {D(i) }m
i=1 las correspondientes matrices de Hessenberg y sea D = (djk )j,k=0

la matriz de Hessenberg asociada a µ. Daremos un procedimiento para calcular D


en términos de las {D(i) }m
i=1 .

Señalemos en primer lugar que todas las matrices D(i) están acotadas en ℓ2 (N0 ),
por ser compacto el soporte de las correspondientes medidas. En segundo lugar,
que cada matriz {D(i) }m 2
i=1 define un operador acotado y subnormal en ℓ (N0 ), (ver

[Atz75], [GT93] y [Tom04]).


La subnormalidad y acotación de estos operadores será lo que nos permitirá ex-
tender la técnicas espectrales descritas en [Ma00].
Recordemos que dada una medida µ con soporte compacto y siendo D = (djk )∞
j,k=0

la matriz de Hessenberg asociada, la sucesión de polinomios ortonormales asociada


verifica la fórmula (1.1) de recurrencia larga

n+1
zPn (z) = dk,n Pk (z), n ≥ 0,
k=0

con P0 (z) = 1 cuando c00 = 1.

Observación 3.2.1. La formula anterior también la escribiremos como



n−1
dn+1,n Pn+1 (z) = (z − dnn )Pn (z) − dk,n Pk (z), n ≥ 0, (3.3)
k=0


−1
donde, para n = 0, la suma dk,0 Pk (z) se considera igual a cero.
k=0

Una consecuencia inmediata del teorema de representación espectral para opera-


dores normales y del cálculo funcional (ver [Con91]), es el siguiente lema.

Lema 3.2.2. Sea N un operador normal acotado. Dada una sucesión de polinomios
que satisfacen la fórmula (3.3) de recurrencia larga. Entonces N satisface la identidad

n−1
dn+1,n Pn+1 (N ) = (N − dnn )Pn (N ) − dk,n Pk (N ), n ≥ 0. (3.4)
k=0

78
3.2 Matriz de Hessenberg de una suma de medidas

Proposición 3.2.3. Sea S un operador subnormal acotado definido en ℓ2 . Dada una


sucesión de polinomios que satisfacen la fórmula (3.3) de recurrencia larga. Entonces
S satisface la identidad


n−1
dn+1,n Pn+1 (S) = (S − dnn I)Pn (S) − dk,n Pk (S), n ≥ 0. (3.5)
k=0

Demostración. La idea de la prueba es usar la mı́nima extensión normal del operador


subnormal S, N = men(S) [Con91]. Existe un espacio de Hilbert K, H ⊂ K, tal
⊕ ⊥
que N : K → K y N |H = S. Podemos descomponer K = H H , respecto de esta
suma directa el operador N = men(S) se puede escribir, (ver pág 129 de [Con91]),
como una matriz 2 × 2  
S X
N = ;
0 Y
el bloque 0 aparece debido a que N (H) ⊂ H y obviamente N |H = S. En consecuencia
tendremos que  
Sj 
Nj =  , (3.6)
j
0 Y
con el sı́mbolo  indicamos resultados o valores que no son pertinentes para nuestro
objetivo. Al ser N normal, dada la identidad (3.4), se cumple que
       
S X S X I 0 S X
dn+1,n Pn+1   =   − dnn   Pn  

0 Y 0 Y 0 I 0 Y
 

n−1
S X
− dk,n Pk   .
k=0 0 Y

En esta expresión I ′ : H ⊥ → H ⊥ , es el operador identidad en el espacio complemen-


to ortogonal de H en K. Teniendo en cuenta (3.6) y desarrollando los respectivos
polinomios resulta
       
dn+1,n Pn+1 (S)  S − dnn I  Pn (S)  ∑
n−1
dk,n Pk (S) 
  =    −  .
0  0  0  k=0 0 

79
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Efectuando el anterior producto matricial, sumando en el término de la derecha,


resulta una identidad de operadores en cajas 2 × 2, si nos quedamos solo con el
resultado de la posición (1, 1), tendremos

n−1
dn+1,n Pn+1 (S) = (S − dnn I)Pn (S) − dk,n Pk (S), (3.7)
k=0

que es lo que querı́amos probar.


∑m
Definición 3.2.4. Sea {Pn (z)}∞
n=0 la SP ON asociada a dµ = i=1 pi dµi , y sea
{D(i) } la familia de matrices de Hessenberg correspondientes a las medidas {µi }m
i=1

dadas. Notaremos con


vn(i) = Pn (D(i) )e0 ,

al correspondiente vector de ℓ2 (N0 ).


(i)
Es claro que vn ∈ ℓ2 ya que D(i) es acotada por ser el soporte compacto.

Proposición 3.2.5. Sea {µi }mi=1 una familia de medidas con soporte compacto en
∑m ∞ ∞
C y dµ = i=1 pi dµi la medida suma. Sea {Pn }n=0 la SP ON y D = (djk )j,k=0

asociada a µ, y sean {D(i) }m


i=1 las matrices de Hessenberg correspondientes a las

medidas {µi }m
i=1 . Entonces se verifican las siguientes identidades

(i)

n−1
(i)
dn+1,n vn+1 = [D(i) − dnn I]vn(i) − dkn vk , n ≥ 0, i = 1, . . . , m (3.8)
k=0

m
(i)
dkn = pi ⟨D(i) vn(i) , vk ⟩, k = 0, 1, 2, . . . , n, (3.9)
i=1

donde
vn(i) = Pn (D(i) )e0 , n ≥ 0, i = 1, . . . , m y e0 = (1, 0, 0, . . . )T

son familias de vectores en ℓ2 (N0 ).

Demostración. Partimos de una familia de medidas {µi }m


i=1 , necesariamente las ma-

trices de Hessenberg D(i) definen operadores acotados subnormales en ℓ2 (N0 ). En


consecuencia todas ellas satisfacen la identidad (3.7). Basta ahora aplicar la identi-
(i)
dad (3.7) al vector e0 y aplicar la definición de vn para obtener (3.8).
80
3.2 Matriz de Hessenberg de una suma de medidas

La fórmula (3.9) se obtiene a partir de la fórmula (3.3) de recurrencia larga como


sigue. Multiplicamos, usando el producto interior asociado a la medida suma, por
Pk (z) a ambos lados de (3.3). Teniendo en cuenta que los polinomios {Pn (z)}∞
n=0 son

ortonormales, se tiene que


∫ ∫ [∑
n+1
]
⟨zPn (z), Pk (z)⟩µ = Pk (z)zPn (z)dµ = djn Pj (z) Pk (z)dµ = dkn , (3.10)
Ω Ω j=0

donde Ω = Supp(µ).
Por otro lado si consideramos la función Pk (z)zPn (z), es obvio que para la mı́ni-
ma extensión normal N (i) de D(i) , por tratarse de operadores normales y ser dEµi
la medida espectral correspondiente, se cumplirá por el teorema de representación
espectral que

[ ]⋆ [ ]
Pk (N (i) ) N (i) Pn (N (i) ) = Pk (z)zPn (z)dEµi . (3.11)
σ(N (i) )

Utilizando la representación matricial de la mı́nima extensión normal


 
(i) (i)
D X
N (i) =  ,
(i)
0 Y

sustituyendo en (3.11) y llamando Ωi = Supp(µi ) = σ(N i ), resulta la identidad


matricial

 [ ] [ (i) ] 
(i) ⋆ ∫
Pk (D ) D Pn (D ) 
(i)
 = Pk (z)zPn (z)dEµi
  σ(N (i) )

Aplicaremos esta identidad a ee0 = (e0 , 0), donde 0 es el vector nulo de (ℓ2 )⊥
complemento ortogonal de ℓ2 (N0 ). Multiplicando por e0 y teniendo en cuenta que
dµi = ⟨dEµi ee0 , ee0 ⟩ = ⟨dEµi e0 , e0 ⟩, se tiene
[ ]H [ (i) ]
⟨ Pk (D(i) ) D Pn (D(i) ) e0 , e0 ⟩ = ⟨D(i) Pn (D(i) )e0 , Pk (D(i) )e0 ⟩

= Pk (z)zPn (z)⟨dEµi e0 , e0 ⟩
σ(N (i) )

= Pk (z)zPn (z)dµi
σ(N (i) )=Ωi

81
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

(i)
Utilizando la definición de los vn , para todo i = 1, 2, . . . , m se tiene

(i) [ ]H [ (i) ]
⟨D(i) vn(i) , vk ⟩ = ⟨ Pk (D(i) ) D Pn (D(i) ) e0 , e0 ⟩,

de donde


m ∑
m ∫
(i)
pi ⟨D(i) vn(i) , vk ⟩ = pi Pk (z)zPn (z)dµi
Ωi
i=1

i=1
[ m ]

= Pk (z)zPn (z) pi dµi = dkn .
Ω i=1

Para diseñar el algoritmo que nos permite obtener con exactitud la matriz D a
partir de las {D(i) }m
i=1 generalizaremos los resultados que Mantica obtuvo en [Ma00]

para el caso real.

Proposición 3.2.6. En las condiciones de la proposición anterior, se verifica lo


siguiente,

m
(i) (i)
d2n+1,n = pi ⟨wn+1 , wn+1 ⟩,
i=1

donde
(i) (i)
wn+1 = dn+1,n vn+1 , i = 1, 2, . . . , m,

es una familia de vectores en ℓ2 (N0 ).

(i) (i) (i) (i)


Demostración. Puesto que ⟨wn+1 , wn+1 ⟩ = d2n+1,n ⟨vn+1 , vn+1 ⟩, tenemos


m
(i) (i)

m
(i) (i)
pi ⟨wn+1 , wn+1 ⟩ = pi d2n+1,n ⟨vn+1 , vn+1 ⟩
i=1 i=1

m
= d2n+1,n pi ⟨Pn+1 (D(i) )e0 , Pn+1 (D(i) )e0 ⟩
∫i=1
= d2n+1,n |Pn+1 (z)|2 dµ = d2n+1,n .

82
3.2 Matriz de Hessenberg de una suma de medidas

(i)
La anterior proposición nos servirá para obtener dn+1,n , conociendo los wn+1 . A
(i) (i) (i)
continuación, dado que vn+1 = wn+1 /dn+1,n , podemos determinar vn+1 , i = 1, 2, . . . , m.
De esta forma podemos definir el siguiente algoritmo.

Teorema 3.2.7. Sean {µi }m


i=1 medidas con soporte compacto y se la medida suma

µ. Consideramos la SP ON {Pn }∞
n=0 y la matriz de Hessenberg D asociada a µ y
(i)
{D(i) }m T
i=1 como antes. Se denota por v0 = (1, 0, 0, . . . ) para cada i = 1, . . . , m.

Entonces los elementos de la matriz D = (djk )∞


j,k=0 asociada a µ pueden ser cal-

culados recursivamente partiendo de los elementos de las matrices {D(i) }m


i=1 usando

las siguientes fórmulas para n = 0, 1, 2, . . .


m
(i)
dk,n = pi ⟨D(i) vn(i) , vk ⟩, k = 0, 1, . . . , n (3.12)
i=1

(i) [ (i) ] (i) ∑


n−1
(i)
wn+1 = D − dnn I vn − dk,n vk , i = 1, . . . , m (3.13)
k=0
v
u m
u∑
=t
(i) (i)
dn+1,n pi ⟨wn+1 , wn+1 ⟩, (3.14)
i=1
(i)
(i) wn+1
vn+1 = , i = 1, . . . , m. (3.15)
dn+1,n

Demostración. Las expresiones (3.12), (3.13), (3.14) y (3.15) han sido probadas en
las proposiciones precedentes.

En lo que sigue describiremos como utilizarlas para calcular D = (dij )∞


i,j=0 por

secciones.
(i)
i=1 }k=0 , Dn+1 ) por inducción.
Veamos como obtener ({{vk }m n

(i)
Para n = 0, conocemos ({v0 }m
i=1 , D1 ):

(i)
v0 = e0 para cada i = 1, . . . , m, y

m ∑
m
(i)
D1 = (d00 ) donde d00 = pi ⟨D(i) e0 , e0 ⟩ = pi d00
i=1 i=1
({ }m )
(i) (i) (i)
Supongamos conocido el valor de v0 , v 1 , . . . , v n , Dn+1 , i.e., esto es cono-
i=1

83
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

cemos el valor de:


 
d
 00 01 d . . . d 0n 
 
{ }m  d10 d11 . . . d1n 
(i) (i)  
v0 , v1 , . . . , vn(i) , Dn+1 =  . .
i=1  .. .
. .
. 
 . . 
 
0 0 . . . dnn
({ }m )
(i) (i) (i)
Mostraremos como obtener v0 , v1 , . . . , vn+1 , Dn+2 mediante un diagrama
i=1
de flechas, que define el algoritmo recursivo.

(i) (i) (i)


Dn+1 v0 , v 1 , . . . , v n

?
[ (i) ] (i) ∑
n−1
(i)
(i)
wn+1 = D − dnn I vn − dk,n vk , i = 1, . . . , m (3.13)
k=0

? v
u m
u∑
=t
(i) (i)
dn+1,n pi ⟨wn+1 , wn+1 ⟩ (3.14)
i=1

?
(i)
(i) wn+1 (i) (i) (i)
vn+1 = (3.15) v0 , v 1 , . . . , v n
dn+1,n
@ 

@ 
@ 
@R
@ 
 ∑
m
(i) (i)
dk,n+1 = pi ⟨D(i) vn+1 , vk ⟩, k = 0, . . . , n + 1 (3.12)
i=1

Se observa que hay fórmulas que pueden ser escritas en forma matricial.

Corolario 3.2.8. Llamemos V (i) a la matriz triangular superior infinita que tiene
(i) (i) (i) (i) (i) (i)
por columnas los vectores v0 , v1 , v2 , . . ., de ℓ2 (N0 ), es decir V (i) = (v0 , v1 , v2 , . . .).
Entonces se cumple que

m
D= pi [V (i) ]⋆ D(i) V (i) .
i=1

84
3.2 Matriz de Hessenberg de una suma de medidas

Demostración. Simplemente expresando matricialmente (3.12) se obtiene el resulta-


do.

Veamos una propiedad trivial de la matriz infinita triangular superior V (k) .

Corolario 3.2.9. Se cumple que


m
pk [V (k) ]⋆ V (k) = I.
k=1

Demostración. Esto es consecuencia de la ortogonalidad de los {Pk (z)}∞


k=0 respecto

de la medida m k=1 pk dµk , ya que

vn(k) = Pn (D(k) )e0

Obviamente ⟨Pi (z), Pj (z)⟩ = δij . Por el teorema de representación espectral, al ser
dEµk la medida espectral correspondiente a la extensión normal de D(k) , resulta
inmediato que

⟨Pi (D (k)
)e0 , Pj (D (k)
)e0 ⟩ = Pi (z)Pj (z)⟨dEµk e0 , e0 ⟩.

Multiplicando ambos miembros por pk y sumando ahora desde k = 1 hasta k = m


tendremos que
∫ [ ]

m
(k) (k)

m
pk ⟨vi , vj ⟩ = Pi (z)Pj (z) pk dµk = δij ,
k=1 Ω k=1

luego la tesis se cumple de inmediato.

Ejemplo 3.2.10. Consideremos dos medidas, la de Lebesgue sobre la circunferencia


unidad que es bien sabido que tiene como matriz de momentos M (1) = I, y la medida
de Lebesgue sobre la circunferencia de radio 1 centrada en el punto (1, 0), cuya matriz
( )
(2) ∞ i+j
de momentos es la matriz de Pascal, es decir, M = (mij )i,j=0 con mij = .
j
Para mayor simplicidad tomamos p1 = p2 = 1/2. Resultará que

1 1
M = I + M (2) .
2 2
85
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Sabemos que la matriz D(1) = S, es decir, el shift-right. Por otro lado por construc-
ción D(2) = S + I. La matriz D correspondiente a M , obtenida vı́a descomposición
de Cholesky, restringiéndonos a 4 × 4, tras hacer D4 = T4−1 M4′ (T4∗ )−1 , será
 √ √

 2
1 5
10
0 − 330 
330

 √ √ 
 5 1 10
0 
 
D4 =  2 2 10
.
 0 4√10 1

7 660 
 
 10

2 660

660 1
0 0 20 2

Comprobemos como llegamos a idéntico resultado a partir de D(1) y D(2) , mediante


el algoritmo dado por el Teorema 3.2.7.
Tenemos que
1 1 1 1
d00 = e0 ⟨Se0 , e0 ⟩ + ⟨[S + I]e0 , e0 ⟩ = 0 + = .
2 2 2 2
Trabajando por secciones, tendremos
     
 0 0 0 0   1   −1/2 
     
 1 0 0 0  1     1 
(1)    0   
w1 =  − I4    =  ,
 0 1 0 0  2  0   0 
     
     
0 0 1 0 0 0
     
 1 0 0 0   1   1/2 
     
 1 1 0 0  1     1 
(2)    0   
w1 =  − I4    =  .
 0 1 1 0  2  0   0 
     
     
0 0 1 1 0 0
Por tanto √ √
1 1 1 1 5
d1,0 = ( + 1) + ( + 1) = .
2 4 2 4 2
Asimismo,    
 −1/2   1/2 
√ 


 √ 



(1) 2 5 1  (2) 2 5 1 
v1 =  , v1 =  .
5  0  5  0 
   
   
0 0

86
3.2 Matriz de Hessenberg de una suma de medidas
    
 0 0 0 0  −1/2   1 
√     
1 2 5  1 0 0 0 

 1   
  0 
d0,1 = ⟨    ,  ⟩
2 5  0 1 0 0   0   
    0 
    
0 0 1 0 0 0
    
 1 0 0 0  1/2   1 
√     
1 2 5  1 1 0 0 

 1   
  0 
+ ⟨    ,  ⟩
2 5  0 1 1 0   0   
    0 
    
0 0 1 1 0 0

5
= 0+ .
10

    
 0 0 0 0   −1/2   −1/2 
√    √  
1 2 5 
 1 0 0 0  1
 2 5 1 
  
d1,1 = ⟨   ,  ⟩
2 5  0 1 0 0  0  5  0 
    
    
0 0 1 0 0 0
    
 1 0 0 0   1/2   1/2 
√ 


 1
 √ 
 2 5 1 

1 2 5 1 1 0 0    
+ ⟨   ,  ⟩
2 5  0 1 1 0  0  5  0 
    
    
0 0 1 1 0 0
1 −2 1 7 5 1
= ( )+ = = .
2 5 2 5 10 2


Ejemplo 3.2.11. Sea a ∈ R. Consideramos las distribuciones dµ1 = 1 − (x − a)2 dx

y dµ2 = 1 − (x + a)2 dx correspondientes a los polinomios de Chebyshev de segun-
da clase sobre los intervalos [a − 1, a + 1] y [−a − 1, −a + 1], respectivamente. Sea
1 1
µ = µ1 + µ2 la medida suma.
2 2
Las correspondientes matrices de Jacobi son
87
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

 1
  1

a 0 0 0 0 −a 0 0 0 0
 2
  2

 1 1   1 1 
 a 0 0 0   −a 0 0 0 
 2 2   2 2 
 1 1   1 1 
 0 a 0 0   0 −a 0 0 
 2 2   2 2 
D (1)
= , D = 
(2)
.
 0 0
1
a
1
0   0 0
1
−a
1
0 
 2 2   2 2 
   
 1 1
  1
−a
1

 0 0 0
2
a
2   0 0 0
2 2 
 1   1 
0 0 0 0 a 0 0 0 0 −a
2 2

La sección 5 de la tridiagonal de Jacobi de la suma resulta

 √

4a2 +1
0 0 0 0
 2

 √ √ 
 4a2 +1 16a2 +1 
 2 0 √ 0 0 
 2 4a2 +1

 √ √ 
 0 16a2 +1
√ 0 256a 6 4
√ +80a√+44a +1
2
0 .
 2 4a2 +1 2 16a2 +1 4a2 +1 
 
 √
6 4 2

8 +6144a6 +896a4 +100a2 +1 
 
256a
√ +80a√+44a +1 16384a
√ √
0 0 0
 2 16a2 +1 4a2 +1 2 16a2 +1 256a6 +80a4 +44a2 +1

 √
16384a8 +6144a6 +896a4 +100a2 +1

0 0 0 √ √ 0
2 16a2 +1 256a6 +80a4 +44a2 +1

Observamos que los soportes de las medidas iniciales son disjuntos si a > 1.
Cuando a = 0, tenemos los polinomios de Chebyshev sobre el intervalo [−1, 1] y
cuando 0 ≤ a < 1 tenemos una suma de medidas con soportes solapados.

3.3. Matriz de Hessenberg asociada a una medida

autosemejante

En esta sección vamos a aplicar los resultados del Teorema 3.2.7 junto con la Pro-
posición 3.1.1 para calcular la matriz de Hessenberg de una medida autosemejante.
Para ello vamos a considerar en toda la sección un SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },
88
3.3 Matriz de Hessenberg asociada a una medida autosemejante

de semejanzas contractivas φs (z) = αs z + βs para s = 1, 2, . . . , k. Recordemos que la


medida µΦ invariante para este sistema verifica


k
µΦ = ps µΦ ◦ φ−1
s ,
s=1

por lo que se puede considerar como una suma de medidas.

Corolario 3.3.1. Consideramos el SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },

de semejanzas contractivas φs (z) = αs z + βs para s = 1, 2, . . . , k. Sea µΦ la me-


dida autosemejante asociada y sea D(µ) la matriz de Hessenberg correspondiente.
Entonces se satisface la siguiente identidad


m
[ ]
D(µ) = ps [V (s) ]⋆ αs [U (s) ]⋆ D(µ)U (s) + βs I V (s) ,
s=1
( )∞
donde las matrices U (s) son matrices diagonales tales que U (s) = δnm e(n−1)θs i n,m=1 ,
siendo αs = |αs |eθs i .

Demostración. Es consecuencia del Teorema 3.1.1 y del Corolario 3.5.2.

Definición 3.3.2. Dado el SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },

de semejanzas contractivas φs (z) = αs z+βs para s = 1, 2, . . . , k. Se define la siguiente


transformación TΦ en el espacio de todas las matrices de Hessenberg asociadas a
medidas de probabilidad con soporte compacto en el plano complejo C como


k
[ ]
TΦ (D(ν)) = ps [V (s) ]⋆ αs [U (s) ]⋆ D(ν)U (s) + βs I V (s) ,
s=1

donde U (s) y αs son como en el corolario anterior y V (s) como en el Corolario 3.5.2
para µs = µ ◦ φ−1
s .

89
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Observación 3.3.3. Observamos que la transformación TΦ está bien definida porque


para cada matriz de Hessenberg D(ν), asociada a la medida ν, la transformación
∑m
TΦ (D(ν)) es la matriz de Hessenberg de la medida suma ps ν ◦ φ−1
s como ya
s=1
habı́amos probado anteriormente.

Teorema 3.3.4. Consideramos el SFI con probabilidades

Φ = {φ1 , φ2 , . . . , φk ; p1 , p2 , . . . , pk },

de semejanzas contractivas φs (z) = αs z + βs para s = 1, 2, . . . , k. Sea µ la correspon-


diente medida autosemejante y sea TΦ la transformación anterior.
Entonces, para cada matriz de Hessenberg D(ν) asociada a una medida ν, se tiene
que la sucesión TnΦ (D(ν)) converge elemento a elemento a la matriz de Hessenberg
D(µ), donde TnΦ denota la n-ésima composición de TΦ .

Demostración. Sea la medida ν y sea D(ν) la matriz de Hessenberg asociada. La


sucesión de matrices TnΦ (D(ν)) se corresponde unı́vocamente con la sucesión de ma-
trices de momentos dadas por la iteración del operador de Markov. Esta sucesión de
matrices de momentos converge a la matriz de momentos de la medida autosemejante
µ como vimos en el capı́tulo anterior. El siguiente diagrama muestra la convergencia.

ν −→ TΦ (ν) −→ TΦ2 (ν) ··· TΦn (ν) −→ µ


↕ ↕ ↕ ↕ ↕
M (ν) −→ TΦ (M (ν)) −→ TΦ2 (M (ν)) · · · TΦn (M (ν)) −→ Mµ
↕ ↕ ↕ ↕ ↕
D(ν) −→ TΦ (D(ν)) −→ T2Φ (D(ν)) · · · TnΦ (D(ν)) −→ D(µ)

La velocidad de convergencia se deduce de resultados probados en el capı́tulo


anterior y la estabilidad numérica del algoritmo de [Ma00]. Los ejemplos y cálculos
de la siguiente sección muestran estos resultados.
90
3.4 Comparativa de algoritmos y ejemplos

Observación 3.3.5. El teorema anterior nos permite obtener valores aproximados


de las secciones de la matriz de Hessenberg de una medida autosemejante. Por otro
lado, la fórmula recurrente para los momentos de medidas autosemejantes dada en
el Teorema 2.2.1 nos permiten obtener, de forma exacta, los momentos de medidas
autosemejantes, mediante cálculo simbólico. Utilizando las fórmulas (1.3), podemos
obtener la sección n-ésima exacta de la deseada matriz de Hessenberg de la medida
autosemejante. Este cálculo simbólico tiene un alto coste computacional, pues las
expresiones de los momentos como vimos en el capı́tulo anterior son inmanejables.
Sin embargo, si se utiliza el cálculo numérico en las mismas fórmulas (1.3), el método
no es estable.

3.4. Comparativa de algoritmos y ejemplos

A lo largo de esta sección llamaremos Algoritmo II al método que consiste en


aplicar el Teorema 3.3.4 para aproximar la matriz de Hessenberg asociadas a medidas
autosemejantes.

Por otro lado, llamaremos Algoritmo I al método que consiste en aplicar el pro-
ceso iterativo para matrices de momentos de medidas autosemejantes descritas en
el capı́tulo anterior y recuperar la matriz de Hessenberg usando la factorización de
Cholesky (1.3).

En esta sección aplicaremos estos dos algoritmos a cuatro ejemplos de medidas


autosemejantes, usando 10 dı́gitos de precisión y compararemos los resultados obte-
nidos con la matriz real de Hessenberg que podemos calcular a partir de la fórmula
(1.3) que, para secciones pequeñas, se pueden calcular de forma simbólica a partir
de la matriz de momentos cuyas fórmulas se dan en el Teorema 2.2.1.

Ejemplo I. Consideramos la medida de Lebesgue normalizada en el intervalo [−1, 1]


91
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

que, como sabemos, es la medida invariante asociada al SFI con probabilidades


{ }
1 1 1 1 1
Φ = φ1 (x) = x − , φ2 (x) = x + ; p1 = p2 = .
2 2 2 2 2

Algoritmo I. En el ejemplo 2.2.4. vimos que si iteramos 20 veces la transformación


∑ 2
1 H
TΦ (M (ν)) = A M (ν)Aφi , comenzando con la matriz identidad de orden 6,
i=1
2 φi
obtenemos una matriz que aproxima, con diez dı́gitos de precisión, la sección de orden
seis de la bien conocida matriz de momentos de la medida de Lebesgue. Aplicando
la fórmula (1.3), tenemos la siguiente aproximación de la sección de orden 5 de la
matriz de Jacobi J5 (L)
 
0,0 0,5773502693 0,0 0,0 0,0
 
 −0,7577722133 · 10−9 
 0,5773502691 0,0 0,5163977795 0,0 
 
 
 0,0 0,5163977796 0,0 0,5070925551 0,0 .
 
 0,3023715782 · 10−9 
 0,0 0,5070925521 0,0 0,5039526136 
 
0,0 −0,2639315569 · 10−8 0,0 0,5039526419 0,0

Algoritmo II. Comenzando con la sección 5 de la matriz S del shift right, y haciendo

m
[ ]
30 iteraciones de la transformación TΦ (D) = pi [V (i) ]⋆ αi [U (i) ]⋆ DU (i) + βi I V (i)
i=1
del Teorema 3.3.4 obtenemos la siguiente matriz
 
0,0 0,5773502692 0,0 −0,2133333332 · 10−9 0,0
 
 −0,1 · 10−9 
 0,5773502691 0,0 0,5163977796 0 
 
 
 0,0 0,5163977796 0,0 0,5070925526 0,0 .
 
 
 0,0 0,0 0,5070925529 0,0 0,5039526304 
 
0,0 0,0 0,0 0,5039526307 0,0

Estas dos matrices coinciden, con 6 y 9 dı́gitos de precisión respectivamente, con la


sección de orden 5 de la conocida matriz de Jacobi de esta medida que viene dada
por
n+1
dn+1,n = dn,n+1 = √ .
4(n + 1)2 − 1
92
3.4 Comparativa de algoritmos y ejemplos

Ejemplo II. Consideramos la medida autosemejante para el SFI dado por


{ √ }
z 1 z 1 z 3i 1
Φ = φ1 (z) = − , φ2 (z) = + , φ3 (z) = + ; pi = ,
2 2 2 2 2 2 3

que como vimos en el Ejemplo 2.6.9. es la medida uniforme sobre el triángulo de


Sierpinski.
Algoritmo I. Con 30 iteraciones, comenzando con la matriz identidad, obtenemos
una aproximación de la sección de orden 4 de la matriz de Hessenberg de la medida:
 
0,5773502693i 0,3 · 10−9 −0,4182428890i −0,2457739408 · 10−8
 
 0,1267731382 · 10−8 
 0,6666666673 0,5773502691i −0,3487499915i 
 .
 0,1292460659 · 10−8 
 0 0,7888106373 0,5773502706i 
 
−0,406877 · 10−9 0,279363 · 10−9 i 0,7737179471 0,5773502588i

Algoritmo II. Comenzando con la sección de orden 4 de la matriz del shift right,
y haciendo 20 iteraciones de TΦ (D) obtenemos la siguiente matriz.

 
0,5773497186 i −0,2 · 10−9 −0,4182428884 i −1,3 · 10−10 + 2,09 · 10−43 i
 
 10−9 − 5,2 · 10−43 i 3,2 · 10−42 − 0,3487499858 i 
 0,6666666668 0,5773497190 i
.
 0 0,7888106377 −1,5 · 10−42 + 0,5773497186 i −3,3 · 10−10 − 10−41 i 
0 0 0,7737179434 − 3,1 · 10−54 i −1,4 · 10−41 + 0,5773497189 i

Estas dos matrices coinciden en 8 dı́gitos de precisión (Algoritmo I) y 6 dı́gitos de


precisión (Algoritmo II) con la sección de orden 4 de la matriz de Hessenberg de la
medida.

 
0,5773502693 i 0,0 −0,4182428886 i 0,0
 
 −0,3487499856 i 
 0,6666666667 0,5773502693 i 0,0

 .
 
 0,0 0,7888106375 0,5773502693 i 0,0

0,0 0,0 0,7737179430 0,5773502693 i

Ejemplo III. Si en el SFI anterior consideramos ahora las probabilidades p1 =


1 1 7
, p2 = , p3 = , se tiene una medida no uniforme sobre el triángulo de Sierpinski,
10 5 10
como se muestra en la figura.
93
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Algoritmo I. En este ejemplo cambiaremos el número de iteraciones ya que la falta


de simetrı́a de la medida incrementa el coste computacional significativamente.
Iterando 7 veces la transformación TΦ , comenzando con la matriz identidad, ob-
tenemos una aproximación de la sección 4 de la matriz de Hessenberg de la medida

 
0,0992 + 1,2029i −0,2046 − 0,1459i −1,799 · 10−6 − 0,3176i −0,0123 + 0,0555i
 
 0,5538 + 1,3 · 10−10 i 
 0,1439 + 0,8415i 0,0208 − 0,0718i −0,0396 − 0,3027i 
 .
 5,68 · 10−10 + 1,7 · 10−21 i 0,6848 + 5,36 · 10−10 i 
 0,0390 + 0,7027i 0,0117 − 0,0461i 
 
5,39 · 10−9 + 8,09 · 10−10 i 7,12 · 10−9 − 2,64 · 10−10 i 0,7116 − 2,39 · 10−10 i 0,07365 + 0,6745i

Algoritmo II. Comenzando con la sección cuarta de la matriz S del shift right, y
haciendo 7 iteraciones de TΦ (S) obtenemos la siguiente matriz
 
0,099218 + 1,202963i −0,204629 − 0,145941i −0,0000179 − 0,317680i −0,012314 + 0,055542i
 
 0,5538131313 0,143933 + 0,841541i 0,020889 − 0,0718614i −0,039695 − 0,302772i 
 
 0,684812 + 2,05958 · 10−12 i
.
 0 0,0390029 + 0,702786i 0,011747 − 0,046155i 
 
0 0 0,711680 + 1,54964 · 10−12 i 0,0736565 + 0,674541i

En este caso la precisión es peor para ambos algoritmos ya que no se aproxima


ni el primer dı́gito, como se puede ver comparando con la matriz de Hessenberg de
la medida

 
0,0625 + 0,1082531755i 0,0021374549 − 0,003702180487i 0,04874098508 − 0,2610232725i 0,1007995886 − 0,002813009752i

 
 0,4061164311 0,1017659280 + 0,4526242191i −0,07918289508 − 0,08407913301i −0,005267584405 − 0,3789834853i 
 
 0,0 0,6472315398 0,07376706430 + 0,4160651343i 0,01865543829 + 0,01575640500i 
0,0 0,0 0,6863040829 −0,01522931965 + 0,4338707470i

94
3.4 Comparativa de algoritmos y ejemplos

Ejemplo IV. Consideramos la medida autosemejante para el SFI con probabili-


dades dado por

1 1+i 1 1−i
Φ = {φ1 (z) = z + , φ2 (z) = z + ,
4 2 4 2 }
1 −1 + i 1 −1 − i 1
φ3 (z) = z + , φ4 (z) = z + ; pi =
4 2 4 2 4

que es la medida uniforme sobre el conjunto de Cantor plano.

Algoritmo I. Iterando TΦ 10 veces comenzando con la matriz identidad, obtenemos


una aproximación de la sección de orden 5 de la matriz de Hessenberg de la medida
 
0 0 0 −0,5534617900 0
 
 0,7302967432 0 0 0 −0,1728136409 
 
 
 0 0,7720611578 0 0 0 .
 
 
 0 0 0,8042685429 0 0 
 
0 0 0 0,6168489579 0

Algoritmo II. Comenzando con la sección de orden 5 de la matriz del shift right,
y haciendo 10 iteraciones de TΦ (D) obtenemos la siguiente matriz

 
0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i −0,5534617900 + 0,0 i 0,0 + 0,0 i
 
 −0,1728136412 + 0,0 i 
 0,7302967435 0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i

 
 4,0 × 10−11 + 0,0 i .
 0,0 0,7720611574 0,0 + 0,0 i 0,0 + 0,0 i

 
 
 0,0 0,0 0,8042685430 0,0 + 0,0 i 0,0 + 0,0 i

0,0 0,0 0,0 0,6168489588 0,0 + 0,0 i

95
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Estas dos matrices coinciden con 8 dı́gitos de precisión con la matriz de orden 5
de la matriz de Hessenberg de la medida.

 
0,0 0,0 0,0 −0,5534617899
 
 
 0,7302967432 0,0 0,0 0,0

 .
 
 0,0 0,7720611580 0,0 0,0

0,0 0,0 0,8042685432 0,0

Observamos que ambos métodos sirven para aproximar la matriz de Hessenberg de


medidas autosemejantes y por tanto la sucesión de polinomios ortogonales asociados
a la medida autosemejante. En los ejemplos hemos obtenido resultados similares sin
embargo el algoritmo II es estable.

3.5. Matriz de Hessenberg asociada a una suma

de matrices HDP

En la sección 3.2 se presentaba un método para calcular la matriz de Hessen-


berg asociada a la suma de medidas a partir de las matrices de Hessenberg de las
medidas componentes. A lo largo de esta sección veremos que es posible generalizar
esta operación para matrices de Hessenberg acotadas con subdiagonal estrictamente
positiva y no necesariamente subnormales y que, por tanto, no están necesariamente
asociados a una medida.
Para extender el concepto de matrices de Hessenberg asociadas a una suma de
medidas, definiremos una operación algebraica entre matrices acotadas de Hessen-
berg. Esta operación consiste en obtener la matriz de Hessenberg asociada a la matriz
hermitiana definida positiva dada por la suma convexa de las matrices hermitianas
asociadas a las matrices de Hessenberg componentes. Ya que esta operación está re-
lacionada con la matriz hermitiana que usualmente denotamos por M , llamaremos
a esta operación m-suma.
96
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

Finalmente, en la última sección, obtenemos la fórmula explı́cita para la m-suma


de un shift con pesos. Utilizaremos los resultados Stampfli [Sta66] con el fin de
estudiar qué propiedades de subnormalidad e hiponormalidad se conservan bajo la m-
suma. En particular, se construye un interesante ejemplo de una matriz de Hessenberg
subnormal que es la m-suma de dos matrices que no son subnormales.

3.5.1. m-Suma de matrices de Hessenberg

En esta sección definimos una operación algebraica entre matrices acotadas de


Hessenberg con subdiagonal real y positiva. Estudiaremos esta operación que llama-
remos m-suma y probamos algunas de sus propiedades. Obtenemos una expresión
que involucra los factores de Cholesky de las correspondientes matrices hermitianas
definidas positivas asociadas a las Hessenberg componentes. Por otra parte, obser-
vamos que el algoritmo dado en el Teorema 3.2.7 para calcular secciones finitas de
la suma de las matrices de Hessenberg se puede aplicar a la m-suma de matrices
Hessenberg no necesariamente subnormales. Daremos algunos ejemplos de m-suma
obteniendo el valor exacto de las secciones finitas de la matriz Hessenberg.

Definición 3.5.1. Sea {D(i) }m


i=1 una familia de matrices de Hessenberg superiores

acotadas con subdiagonal estrictamente positiva y {M (i) }m


i=1 la familia de matrices

m ∑
m
hermitianas definidas positivas asociadas. Sea M = pi M (i) con pi = 1 y pi > 0
i=1 i=1
la matriz HDP suma. Definimos la m-suma de las matrices D(i) con probabilidades
(p1 , p2 , . . . , pm ) como la matriz de Hessenberg D asociada con M . Denotaremos a
esta operación por

D = Dp(1)
1
 · · ·  Dp(m)
m
.

Teorema 3.5.2. Sea {D(i) }m


i=1 una familia de matrices de Hessenberg superiores
(1) (m)
acotadas con subdiagonal estrictamente positiva. Sea D = Dp1  · · ·  Dpm la m-
suma para el vector de probabilidad (p1 , p2 , . . . , pm ). Entonces D se puede expresar
97
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

de la forma

m
D= pi [V (i) ]⋆ D(i) V (i) ,
i=1
siendo
V (i) = [T (i) ]⋆ (T ∗ )−1 , i = 1, . . . , m,

donde T (i) y T son los factores de Cholesky de M (i) y M , respectivamente.

Demostración. Consideramos

m
M′ = pi M ′ .
(i)
(3.16)
i=1

ya que V (i) = [T (i) ]⋆ (T ∗ )−1 , entonces (T ∗ )−1 = ([T (i) ]∗ )−1 V (i) y T −1 = [V (i) ]⋆ [T (i) ]−1 .
Multiplicando (3.16) por T −1 and (T ∗ )−1 tenemos

m
−1 ′ ∗ −1
D=T M (T ) = pi T −1 [M ′ ](i) (T ∗ )−1
i=1
∑m
= pi [V (i) ]⋆ [T (i) ]−1 [M ′ ](i) ([T (i) ]∗ )−1 V (i)
i=1

m
= pi [V (i) ]⋆ D(i) V (i) .
i=1

Esto finaliza la prueba del teorema.

Proposición 3.5.3. Sea {D(i) }m


i=1 con probabilidades (p1 , p2 , . . . , pm ) como antes.
(1) (m) (i)
Sea D = Dp1  · · ·  Dpm la m-suma. Entonces, Vj = Pj (D(i) )e0 , donde {Pn } es
la SPON asociada a D.

Demostración. Observamos que la j-ésima columna de (T ∗ )−1 es justamente el vector


de coordenadas de Pj respecto de la base algebraica {z k }. Entonces tenemos que:

 
a0j
 
 .. 
 . 
 
  ∑j
∑j
(T ) ej = 
∗ −1
 ajj
=
 ajk ek = ajk [S]k e0 ,
  k=0
  k=0
 0 
 
..
.

98
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP


j
donde Pj (z) = akj z k y S es la matriz del shift right.
k=0
Puesto que D(i) = [T (i) ]⋆ S([T (i) ]∗ )−1 , entonces [D(i) ]k = [T (i) ]⋆ [S]k ([T (i) ]∗ )−1 , para
todo k = 0, 1, 2, . . ., de aquı́ que [D(i) ]k [T (i) ]⋆ = [T (i) ]⋆ [S]k .
Por lo tanto,


j
(i) (i) ⋆ ∗ −1 (i) ⋆
Vj = [T ] (T ) ej = [T ] ajk [S]k e0
k=0
∑j
( ) ∑ (j
)
= ajk [T (i) ]⋆ [S]k e0 = ajk [D(i) ]k [T (i) ]⋆ e0
k=0 k=0
∑j
= ajk [D(i) ]k e0 = Pj (D(i) )e0 ,
k=0

donde hemos usado la identidad [T (i) ]⋆ e0 = e0

Observación 3.5.4. Las fórmulas del Teorema [3.2.7] siguen siendo ciertas para la
m-suma. Estas fórmulas nos permiten definir un algoritmo recursivo para calcular
las secciones de orden n, Dn , de la m-suma D, partiendo de las secciones de orden n
(i)
de las matrices componentes Dn .

Observación 3.5.5. Sabemos que a toda matriz D de Hessenberg superior infinita


con subdiagonal estrictamente positiva le corresponde una única matriz del producto
escalar M , hermitiana definida positiva infinita (salvo una constante multiplicativa
positiva) y viceversa.
Llamaremos D al conjunto de las matrices de Hessenberg superiores infinitas con
subdiagonal estrictamente positiva, acotadas como operadores en ℓ2 (N0 ), subnorma-
les o no. La sección anterior nos permite definir en dicho conjunto una operación
binaria D(1)  D(2) = D, donde D es la matriz de Hessenberg correspondiente a
M = M (1) + M (2) .

Propiedades 3.5.6. Las siguientes propiedades de la m-suma son inmediatas.

a) Dp  D1−p = D (Idempotencia).
99
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

(1) (2) (2) (1)


b) Dp  Dq = Dq  Dp ∀D(1) , D(2) ∈ D (Conmutativa).

[ ] [ ]
(1) (2) (3) (1) (2) (3)
c) Dp1  Dp2  Dp3 = Dp1  Dp2  Dp3 ∀D(1) , D(2) , D(3) ∈ D (Asociativa).

d) Si D(1) y D(2) son subnormales, entonces la m-suma es subnormal.

e) Si D(1) y D(2) son matrices de Jacobi, entonces la m-suma es también de Jacobi.

Es interesante estudiar el comportamiento de otras propiedades de la m-suma pa-


ra diferentes tipos de matrices de operadores, en particular en relación al carácter hi-
ponormal o subnormal de los operadores. Usaremos algunas definiciones y resultados
de teorı́a de operadores que se pueden encontrar en el capı́tulo 1 y en [Con85, Hal84].
Recordemos que un operador A es hiponormal si A∗ A−AA∗ ≥ 0 y que todo operador
subnormal es hiponormal.

Veamos ahora algunos ejemplos en los que se calcula la m-suma de matrices de


Hessenberg.

En la próxima sección analizamos el comportamiento de la m-suma en relación al


carácter de hiponormalidad y subnormalidad de los operadores para un tipo especial
de operadores.

Ejemplo 3.5.7. Sea D(1) y D(2) las matrices de Hessenberg asociadas con las matri-
ces hermitianas definidas positivas cuyas entradas vienen definidas por los números
binomiales:

( ) ( )
(1) i+j−2 (2) i+j−2
cij = · i · j y cij = (i + j − 1),
i−1 i−1

respectivamente. Entonces las correspondientes matrices de Hessenberg son


100
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

 
1 1 (−1)n+1
2 − ··· ···
 2 3 n 
 
 
 2 1 0 ··· 0 ··· 
 
 
 3
··· ··· 
 0 1 0 
 2 
 4 
 0 0 ··· 0 ··· 
 3 
D(1) = , n ≥ 2,
 .. .. .. .. 
 . . . . 
 
 
 ··· ··· 
 0 0 0 1 
 
 n+1 
 0 0 0 ··· ··· 
 n 
 
.. .. .. .. ..
. . . . .

y  √ √ √ 
− 2 3 (−1)n n
2 ... ...
 √
2 3 n 
 2 1 0 ... 0 ... 
 √ √ 
 2 3 
 0 1
√ √
... 0 ...

 2

 0 0
3 4
... 0 ... 
D(2) =
 . .
3
. .
, n ≥ 2.

 .. .. .. ..

 
 0 0 0 ... 1 ... 
 √ 
 n(n + 1) 
 0 0 0 ...
n
... 
. . . . ..
.. .. .. .. .

Entonces las secciones finitas Dn de la matriz de Hessenberg de la m-suma


(1) (2)
D = D 1  D 1 pueden ser calculadas por el algoritmo definido en [EGST11]. En
2 2

particular la sección de orden 6 de D es:


 √ √ √ √ √ 
3 6 10 15 21
 2 − 3 − −
21 
 6 10 15 
 √ 
 
 3 1 0 0 0 0 
 
 √ 
 
 0 2 1 0 0 0 
 
 √ √ .
 5 3 
 0 
 0 1 0 0 
 3
√ √ 
 
 3 2 
 0 0 0 1 0 
 2 
 √ √ 
 5 7 
0 0 0 0 1
5
101
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

Es fácil probar que la m-suma es la siguiente matriz infinita:


 √ √ √ 
− 3 6 (−1)n 2n2 + 6n + 4
 2 ... ... 
 3 6 n2 + 3n + 2 
 √ 
 3 1 0 ... 0 ... 
 √ √ 
 
 3 6 
 0 1 ... 0 ... 
 3 √ √ 
 
 10 6
... 
 0 0 ... 0 
D= 6  n ≥ 1.
 .. .. .. .. 
 . . . . 
 
 
 0 0 0 ... 1 ... 
 √ 
 
 2
2n + 10n + 12 
 0 0 0 ... . . . 
 2n2 + 6n + 4 
 .. .. .. .. 
..
. . . . .

En este ejemplo, las matrices D(1) y D(2) definen operadores que no son sub-
normales y es fácil comprobar que la m-suma no es hiponormal y por tanto no es
subnormal.

1
Ejemplo 3.5.8. Sea M (1) = I, y
2
 
1
 2 a 0 0 ··· 
 
 
 a a2 + 1 a 0 ··· 
 
M (2) = 

2 .

 0 1
a ··· 
 a a2 + 
 2 
 
.. .. .. .. . .
. . . . .

Entonces, D(1) = S, y
 
a −a2 a3 . . . (−1)n+1 an . . .
 
 
 1 0 0 ... 0 ... 
 
 
D(2) =
 0 1 0 ... 0 ...  , n ≥ 1,
 
 
 0 0 1 ... 0 ... 
 
.. .. .. .. ..
. . . . .

102
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

donde a < 1, para que D(2) sea acotada. Entonces, la m-suma es


 
 1 a 0 0 ··· 
 
 
 a a2 + 1 · · · 
 a 0 
(1) (2)
D = D1  D1 =   .

2 2
 0 2
· · · 
 a a + 1 a 
 
 . . . . . 
.. .. .. .. . .

En este segundo ejemplo, la matriz D(1) = S define un operador subnormal. En


este caso, como la m-suma no es hiponormal, podemos asegurar que la matriz D(2)
no define un operador subnormal.

Hay que destacar que la subnormalidad de un operador de Hessenberg (que como


ya hemos visto equivale a que el problema de los momentos tenga o no solución) no
es fácil de estudiar, por lo que la m-suma nos proporciona una nueva herramienta
para atacar este problema.

3.5.2. m-Suma de shifts con pesos

Uno de los ejemplos más sencillos de analizar es aquel en que la matriz M del
producto escalar es diagonales. Cuando esta matriz es de momentos, la medida co-
rrespondiente tiene simetrı́a concéntrica respecto del origen. La matriz de Hessenberg
asociada a una matriz HDP diagonal es un shifts con pesos y será subnormal cuan-
do M sea de momentos. Consideramos el espacio de Hilbert P 2 (M ) con la SPON
{Pn }∞
n=0 . Siguiendo a Stampfli [Sta66], diremos que S es un shift si verifica que

SPn = an Pn+1 . Diremos que S es un shift monótono cuando la sucesión de pesos


{an } es no decreciente y acotada. Stampfli probó que el shift monótono es hipo-
normal y estudió cuándo es subnormal. Usaremos los resultados de Stampfli para
construir los siguientes ejemplos.

Proposición 3.5.9. Sean {an }∞ ∞


n=1 y {bn }n=0 dos sucesiones acotadas de números

103
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

reales positivos. Sean Da y Db los correspondientes shifts con pesos


   
0 0 0 0 0 0 0 0 0 0 0 0
   
   
 a1 0 0 0 0 0   b1 0 0 0 0 0 
   
   
   0 b 0 0 
 0 a2 0 0 0 0   2 0 0 
Da = 

 , Db = 
 
.

 0 0 a3 0 0 0   0 0 b3 0 0 0 
   
   
   
 0 0 0 a4 0 0   0 0 0 b4 0 0 
   
0 0 0 0 a5 0 0 0 0 0 b5 0

Entonces la m-suma D = Da,p  Db,q es un shift con pesos, con sucesión de pesos
dada por la siguiente fórmula
v
u ∏ ∏
u n 2 n
tp a k + q b2k
k=1 k=1
dn = v , para n ≥ 1, (3.17)
u n−1
u ∏ 2 ∏
n−1
tp ak + q b2k
k=1 k=1

donde el producto sobre el conjunto vacı́o se considera igual a 1.

Demostración. La matriz hermitiana definida positiva asociada a un shift con pesos,


es una matriz diagonal. Las entradas de Ma en función de Da son


n
cnn = a2k para n ≥ 1 y c00 = 1.
k=1

Por la definición de la m-suma, se tiene que pMa + qMb = M (D) donde M (D) es la
matriz HDP asociada a m-suma de Da y Db .
En este caso los vectores auxiliares que se construyen en el proceso serán

n
ak
v0 = e0 y vn(a) = v
(a) k=1
en , n = 1, 2, . . .
u ∏ ∏
u n n
tp a2k + q b2k
k=1 k=1

donde {en }∞ 2
n=0 son los vectores de la base canónica de ℓ (N0 ).

104
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

Ejemplo 3.5.10 (Una matriz de Hessenberg subnormal obtenida como


m-suma de dos matrices de Hessenberg que no son subnormales). Con-
sideramos los shifts con pesos Da y Db correspondientes a las sucesiones

{ }
1
an | a1 = , a2 = a, an = 1 para todo n ≥ 3
2

y
{ }
1
bn | b1 = , b2 = b, bn = 1 para todo n ≥ 3 ,
2

respectivamente.

Entonces, usando (3.17) tenemos que m-suma D = Da,1/2  Db,1/2 es un shift con
pesos, con sucesión

{ √ }
1 a2 + b2
dn | d1 = , d2 = √ , dn = 1 para todo n ≥ 3 .
2 2

Usaremos el resultado de Stampfli en [Sta66], que afirma que si Sr es un shift con


{ }
pesos monótono con sucesión rn | r1 = 12 , r2 = r; rn = 1 para todo n ≥ 1 , entonces,
Sr es subnormal si y sólo si r2 = 1. Además, todo shift con pesos es hiponormal si y
sólo si es monótono [Con91].

Observamos que en este ejemplo los tres shifts con pesos Da , Db y D tienen vienen
definidos por el mismo tipo de sucesión a1 = b1 = d1 = 21 , a2 = a, b2 = b, d2 = d y
an = bn = dn = 1 para todo n ≥ 3.

Analizaremos, siguiendo los resultados de Stampfli, las propiedades de hiponor-


malidad y subnormalidad para los diferentes valores de los parámetros de a y b de
acuerdo a la siguiente figura. El análisis se estructura en tres casos atendiendo al
carácter subnormal, hiponormal pero no subnormal y no hiponormal.
105
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES


⊗ D hiponormal no subnormal, y
× ◦ ⊕ +: Da y Db ambos hiponormales
×: no hiponormales

+ ◦ ⊗ ◦: uno hiponormal y otro no hiponormal
⊗ D no hiponormal, y
◦ ⊗: uno hiponormal y otro no hiponormal
⊕ × ⊕
⊗ ⊕: ambos no hiponormales
1

√1 1 2
2 2

1. La m-suma D = Da, 1  Db, 1 es subnormal. La matriz D es subnormal si sólo si


2 2

d2 = 1, que corresponde a la circunferencia

a2 + b2 = 2.

Analicemos los siguientes casos sobre la circunferencia:

a) Un caso trivial. Si una de las matrices Da o Db es subnormal, se tiene que la


otra también y que Db = Da = D.

Supongamos que Da es subnormal, por tanto a = 1 y como a2 + b2 = 2, se


tiene que b = 1. Por tanto Db es subnormal y además, Db = Da = D.

b) Ninguna de las dos matrices Da y Db es subnormal. Para encontrar Da y Db


no subnormales es suficiente tomar a y b, diferentes de 1, en la circunferencia

de radio 2. Se observa que en este caso o bien Da o bien Db es hiponormal
y no se da el caso en el que las dos sean hiponormales.

Este es un caso sorprendente que no tiene análogo en el caso real: Sumamos


dos matrices HDP que no son de momentos y por tanto no existe medida
asociada a ninguna de ellas ([Hal84, Con85]), sin embargo, obtenemos como
resultado de la suma una matriz de momentos con media asociada. En este
caso, la medida asociada es la medida de Lebesgue en la circunferencia unidad
más un átomo en el origen. Sin embargo, en el caso real todas las matrices
106
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP

de Jacobi son autoadjuntas y por tanto subnormales, de forma que siempre


hay medida asociada.

2. La m-suma D = Da, 1  Db, 1 es hiponormal pero no subnormal.


2 2

Debido a que todo shift monótono es hiponormal, podemos tomar en este ca-
so 1
2
≤ d2 < 1, para mantener la monotonı́a y evitar la subnormalidad. Como
consecuencia nos encontramos en la región comprendida entre las circunferencias

1
≤ a2 + b2 < 2.
2

En la figura esta región está marcada con los sı́mbolos +, ◦ and ×, que se corres-
ponden con las siguientes posibilidades.

a) Las matrices Da y Db son ambas hiponormales. Este caso está marcado en


la figura con + y se corresponde con la región

1 1
≤a≤1 y ≤ b ≤ 1.
2 2

Tomando a = 1, conseguimos que Da sea subnormal y Db no lo sea y vice-


versa.

b) Una de las matrices Da o Db es hiponormal y la otra no. Este caso se corres-


ponde con la región marcada con ◦ en la figura.

c) Ninguna de las matrices Da y Db son hiponormales. Este caso se corresponde


con la región marcada con × en la figura.

3. La m-suma D = Da, 1  Db, 1 no es hiponormal.


2 2

1
Esta región se corresponde con los valores d2 < 2
o d2 > 1, es decir, con las
regiones
1
a2 + b2 < y a2 + b2 > 2,
2
que están marcadas en la figura con los sı́mbolos ⊗ y ⊕, dando lugar a los si-
guientes casos.
107
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES

a) Una de las matrices Da o Db es hiponormal y la otra no. Este caso se corres-


ponde con la región marcada con ⊗ en la figura.

Observamos que en esta región, cuando tomamos a = 1 o b = 1, tenemos


que una de las matrices Da o Db es subnormal.

b) Ninguna de las matrices Da o Db es hiponormal. La región correspondiente


a este caso está marcada en la figura con ⊕.

108
Capı́tulo 4

AUTOVALORES MÍNIMOS DE
MATRICES DE MOMENTOS

A lo largo de este capı́tulo se considera una matriz infinita hermitiana definida


positiva M , asociada a una medida µ con soporte compacto en C y se estudia el
impacto del comportamiento asintótico del autovalor mı́nimo λn de la submatriz
principal de tamaño (n + 1) × (n + 1) y algunos tópicos relacionados con el problema
de los momentos en el plano complejo, en el caso acotado.

En particular se prueba que si los polinomios son densos en L2 (µ), entonces el


autovalor mı́nimo λn de la sección n+1 de la matriz M tiende a cero cuando n tiende
a infinito. Cuando el soporte de µ es el disco unidad obtenemos algunos resultados.

Consideraremos a lo largo de este capı́tulo, para mayor comodidad de las expresiones


que aparecerán en el desarrollo del mismo, la segunda expresión del producto interior
vista en la Observación 1.2.1 y denotaremos por Mn la sección de orden (n+1)×(n+1)
de la matriz HDP de momentos M = (cij )∞
i,j=0 .

De esta forma, podemos expresar el producto interior definido por M en el espacio


∑n ∑m
vectorial de P[z] en la siguiente forma: si p(z) = k
k=0 ak z y q(z) = k=0 bk z
k

109
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

entonces
 
 b0 
 
 b 
 1
c00 c01 c02 . . .  
( )

 .. 
 . 
⟨p, q⟩ = a0 a1 . . . an 0 ... 
c10 c11 c12 . . .  
 . (4.1)
 .  bm 
.. .. .. ..  
. . .  
0
 
 . 
..

1
Sea {Pen (z)}∞ e
n=0 , donde Pn (z) = Pn (z), denota la sucesión de polinomios mónicos,
vn,n
∑n
donde Pn (z) = k=0 vk,n z k denota el polinomio ortonormal. Recordemos que, para

cada n ∈ N, n-núcleo z, w ∈ C se define como Kn (z, w) = nk=0 Pk (z)Pk (w).
Denotamos por λn el autovalor mı́nimo de Mn . Es fácil ver que la sucesión {λn }∞
n=0

es una sucesión de números positivos no creciente y por lo tanto lı́mn→∞ λn existe.


En el caso de matrices HDP de Hankel, que son matrices de momentos de medi-
das sobre R, el comportamiento asintótico de λn ha sido estudiado en los artı́culos
clásicos de Szegö [Sze36] y Widom y Wilf [WW66]. Más recientemente, Berg, Chen
y Ismail [BCI02] han probado que una medida µ sobre R es determinada, lo que
significa que µ es la única medida con soporte real que tiene los mismos momentos
que µ, si y sólo si λn → 0 cuando n tiende a infinito. Este nuevo criterio para la
determinación de una medida ha motivado el estudio de este comportamiento en el
caso de medidas con soporte compacto en C. En este contexto la situación es com-
pletamente diferente puesto que es conocido que cada medida con soporte compacto
en C es siempre determinada. Por otro lado, para la medida de Lebesgue normali-
zada en la circunferencia unidad, m, la matriz de momentos asociada es la matriz
identidad I y obviamente λn = 1 para todo n ∈ N. El propósito del presente capı́tulo
es relacionar el comportamiento asintótico del autovalor mı́nimo λn con el problema
de aproximación por polinomios, esto es, determinar cuando P 2 (µ) = L2 (µ), donde
P 2 (µ) es el cierre de P[z] en L2 (µ).
110
La siguiente sección está dedicada a la prueba del principal resultado que establece
que si µ es una medida de Borel en C con soporte compacto e infinitos puntos de
crecimiento efectivo tal que L2 (µ) = P 2 (µ), entonces lı́mn→∞ λn = 0. El resultado
recı́proco no es cierto, como veremos en el ejemplo.
En la segunda sección, obtenemos varios resultados en el caso de medidas con soporte
en el disco unidad cerrado D. Se descubre que para tales medidas, el comportamiento
asintótico de la norma de los polinomios ortogonales mónicos y el del autovalor
mı́nimo dependen solamente del correspondiente comportamiento de la restricción
de la medida a la circunferencia unidad T. Esto no es cierto para la asintótica de los
n-núcleos en 0. Terminamos con algunas condiciones necesarias para aproximación
polinomial en el espacio L2 (µ) en términos de esta asintótica.
Primero, introducimos alguna notación y terminologı́a. Sea Mn una matriz HDP de
orden n + 1 y denotamos por {e0 , . . . , en } la base canónica en Cn+1 . Denotamos por
{v0 , . . . , vn } la única base ortonormal de Cn+1 con respecto al producto interior in-
ducido por Mn de forma que vi = (v0,i , . . . , vi,i , 0, . . . , 0) con vi,i > 0. Denotamos
por ∥v∥ la norma inducida por este producto, i.e., ∥v∥2 = vMn v ∗ . El espacio vec-
torial Pn [z] de todos los polinomios de grado menor o igual puede ser obviamente
identificado con Cn+1 . Considerando Mn como la sección (n + 1) de la matriz de
momentos M (µ) asociada a µ, si p(z) = a0 + · · · + an z n , q(z) = b0 + · · · + bn z n ,
a = (ai )ni=0 , b = (bi )ni=0 ∈ Cn+1 , tenemos


aMn b = p(z)q(z)dµ.

En particular, si q(z) = 1 + w1 z + · · · + wn z n , denotamos por (1, w) ≡ (1, w1 , . . . , wn ).


Con esta notación,  
( ) ∫
1
1 w Mn   = |q(z)|2 dµ.
w∗
Dada una matriz HDP Mn de orden n + 1 denotamos por ∥Mn ∥ la norma de Mn
como aplicación lineal de Cn+1 en Cn+1 con la norma euclı́dea ∥v∥2 . En este caso, se
111
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

tiene que

∥Mn ∥ = sup{∥Mn v∥2 : ∥v∥2 = 1, v ∈ Cn+1 } = sup{vMn v ∗ : v ∈ Cn+1 , ∥v∥2 = 1} = βn ,

donde βn es el máximo autovalor de Mn .


Por otro lado,

λn = ı́nf{vMn v ∗ : v ∈ Cn+1 , ∥v∥2 = 1}.

Sean M1 , M2 matrices HDP de tamaño n × n. Diremos que M1 ≤ M2 si vM1 v ∗ ≤


vM2 v ∗ , para cada v ∈ Cn . Para matrices infinitas HDP el orden es definido de forma
análoga sustituyendo Cn por el espacio C00 de todas las sucesiones complejas con
un número finito de términos no nulos.

4.1. Aproximación polinomial en L2(µ) y compor-

tamiento asintótico del autovalor mı́nimo λn

Para probar el principal resultado necesitamos algunos lemas previos. El siguiente


lema establece un resultado para cierto problema de minimización para matrices
infinitas hermitianas que puede ser de interés independiente.

Lema 4.1.1. Sea M una matriz HDP y sea Mn la sección de orden (n + 1). Sea
{v0 , . . . , vn } la base ortonormal de Cn+1 con respecto al producto interior inducido
por Mn con vi = (v0,i , . . . , vi,i , 0, . . . , 0) para i = 0, . . . , n y vi,i > 0. Entonces,
 
1 ( ) 1 1
∑n = ı́nf{ 1 w Mn   : w ∈ Cn } = , (4.2)
i=0 |v0,i |
2
w∗ e0 Mn−1 e∗0

 
1 ( ) 1
∑∞ = ı́nf{ 1 w M   : w ∈ c00 }, (4.3)
i=0 |v0,i |
2
w∗

donde el lado izquierdo es cero si ∞ i=0 |v0,i | = ∞.
2

112
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn


Demostración. Cada vector (1, w) ∈ Cn+1 puede ser expresado como (1, w) = ni=0 ai vi ,

con la condición ni=0 ai v0,i = 1. De aquı́,
  ( n ) ( n )∗ n
( ) 1 ∑ ∑ ∑
ı́nf{ 1 w Mn   : w ∈ Cn } = ı́nf{ ai vi Mn a i vi : ai v0,i = 1},

w i=0 i=0 i=0

y puesto que vi Mn vj∗ = δi,j para i, j ≤ n,



n ∑
n
1
ı́nf{ |ai |2 : ai v0,i = 1} = ∑n .
i=0 |v0,i |
2
i=0 i=0

Esto demuestra la igualdad izquierda en (4.2). Para probar la igualdad derecha en


vi v0,i
(4.2), consideramos αi = = (α0,i , α1,i , . . . , 1, 0, . . . , 0), luego α0,i = = ∥αi ∥v0,i .
vi,i vi,i
Sea Cn la matriz dada por
 
1 α0,1 . . . α0,n 
 
0 1 . . . α1,n 
 
Cn =  . ..  .
 .. .. .. 
 . . . 
 
0 0 ... 1

Es claro que |Cn | = 1 y Cn−1 existe. Por otro lado, si denotamos por D(∥α0 ∥2 , . . . , ∥αn ∥2 )
la matriz diagonal de orden (n+1)×(n+1) con entradas ∥αi ∥2 , i = 0, . . . , n, entonces:

Cn∗ Mn Cn = D(∥α0 ∥2 , . . . , ∥αn ∥2 ).

Por tanto Mn = (Cn∗ )−1 D(∥α0 ∥2 , . . . , ∥αn ∥2 )Cn−1 y ası́ Mn−1 se puede expresar como:

1 1
Mn−1 = Cn D( ,..., )C ∗ .
∥α0 ∥2 ∥αn ∥2 n

Por lo tanto

1 1 ∑ |α0,k |2 n
e0 Mn−1 e∗0 = e0 Cn D( , . . . , )C ∗ ∗
e = ,
∥α0 ∥2 ∥αn ∥2 n 0 k=0 ∥αk ∥2

ası́
1 1
∑n = .
i=0 |v0,i |
2 e0 Mn−1 e∗0
La versión infinita (4.3) es ahora una consecuencia fácil.

113
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

Si M es una matriz de momentos, el Lema 4.1.1 puede ser aplicado para obtener las
propiedades extremales de los n-núcleos en 0 (ver p.e. [Ass97]).

Corolario 4.1.2. Sea M (µ) una matriz de momentos HDP asociada a la medida
µ con soporte en C y sea {Pk (z)}∞
k=0 la sucesión de los polinomios ortonormales

respecto a µ. Entonces, para cada n ∈ N:



1 1
∑n = mı́n{ |q n (z)| 2
dµ : q n (z) ∈ P n [z], q n (0) = 1} = .
k=0 |Pk (0)|
2 e0 Mn−1 e∗0

Demostración. Observamos que, usando la notación matricial introducida antes, te-


nemos:
 
∫ ( )
1
mı́n{ |qn (z)|2 dµ : qn (z) ∈ Pn [z], qn (0) = 1} = ı́nf{ 1 w Mn   : w ∈ Cn }.
w∗

El resultado es una consecuencia del Lema 4.1.1, y el hecho de que v0,k = Pk (0), para
cada k.

El siguiente resultado extiende a matrices HDP un resultado para matrices Hankel


en [BS11].

Lema 4.1.3. Sea M (µ) una matriz de momentos infinita HDP asociada a una medi-
da µ con soporte en C, λn el autovalor mı́nimo de Mn y sea z0 con |z0 | < 1. Entonces
∑ ∑ −1
λn ≤ ( nk=0 |z0 |2k ) ( nk=0 |Pk (z0 )|2 ) , para cada n ∈ N. Como consecuencia,
( )−1


lı́m λn ≤ (1 − |z0 |2 ) |Pk (z0 )|2 .
n→∞
k=0

1
Demostración. Puesto que Mn es hermitiana, tenemos que λn = . Por otro
∥Mn−1 ∥
lado, si |z0 | < 1 y v = (1, z0 , . . . , z0n ), por algunos resultados análogos en [Bre80]
(pág. 52) y [Sze75] (pág. 377), tenemos

n
1 ∑
n
|Pk (z0 )| = Kn (z0 , z0 ) =
2
vMn−1 v ∗ ≤ ( |z0 |2k ).
k=0
λn k=0
∑n ∑ −1
Por tanto λn ≤ ( k=0 |z0 |2k ) ( nk=0 |Pk (z0 )|2 ) . Tomando lı́mites cuando n tiende
a infinito se prueba el resultado.
114
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn

Observación 4.1.4. Si M es una matriz de momentos, en general no es cierto que


∑ 2 −1
lı́mn→∞ λn = ((1 − |z0 |2 ) ∞k=0 |Pk (z0 )| ) . En efecto, sea η la medida de Lebesgue

en el disco (medida uniforme) D; es bien conocido que la matriz de momentos aso-


π √
ciada a η es la matriz diagonal con entradas cnn = y Pn (z) = n+1 π
z n . En
n+1
consecuencia
( )−1


lı́m λn = lı́m cnn = 0 ̸= (1 − |z0 |2 ) |Pk (z0 )|2 .
n→∞ n→∞
k=0

El siguiente resultado extiende el resultado en [BCI02] y [BD06] para el caso de medi-


das en R. Esto es, el mismo resultado es cierto cuando las medidas son consideradas
sobre C. La incluimos aquı́ en aras de completar información.

Lema 4.1.5. Sea M (µ) una matriz HDP asociada a una medida positiva µ en C y
sea m la medida normalizada de Lebesgue T. Entonces las siguientes afirmaciones
son equivalentes:

1. lı́mn→∞ λn > 0.

2. Existe c > 0 tal que, para cada p(z),


∫ ∫
|p(z)| dµ ≥ c
2
|p(z)|2 dm.
T

Demostración. Observamos que, si p(z) = a0 +· · ·+an z n y a = (a0 , . . . , an ), entonces


∫ ∑
n ∫

|p(z)| dµ = aMn a ≥ λn
2
|ak | = λn
2
|p(z)|2 dm,
k=0 T

y de esto se sigue el resultado.

Lema 4.1.6. Sea r ∈ (0, 1) y sea M (µ) una matriz de momentos asociada a la
medida µ en D(0; r). Entonces, para cada n ∈ N, se tiene que

1
∥Mn ∥ ≤ µ(D(0; r)) .
1 − r2
115
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

Demostración. Observamos que si βn es el mayor autovalor de Mn = (cij )ni,j=0 enton-


ces:


n
∥Mn ∥ = βn ≤ T raza(Mn ) = ci,i =
i=0
n ∫
∑ ∑
n
1
z i z i dµ ≤ µ(D(0; r)) r2i ≤ µ(D(0; r)) .
i=0 D(0;r) i=0
1 − r2

Siguiendo las ideas en [ST43] tenemos:

Lema 4.1.7. Sea µ una medida con soporte compacto en C. Supongamos z0 ∈


/
Supp(µ), entonces
( )
1 1 1
∑∞ ≤ dis 2 , P[z] ≤ 2 ∑∞ ,
D 2
k=0 |P (z
k 0 )|2 z − z0 d k=0 |Pk (z0 )|
2

donde d = mı́n{|z − z0 | : z ∈ Supp(µ)}, D = máx{|z − z0 | : z ∈ Supp(µ)}.

Demostración. Tenemos que


1 1
2
dis ( , P 2 (µ)) = lı́m ı́nf | − qn (z)|2 dµ
z − z0 n→∞ qn (z)∈Pn [z] z − z0


= lı́m ı́nf|1 − (z − z0 )qn (z)|2
n→∞ qn (z)∈Pn [z] |z − z0 |2


= lı́m ı́nf |qn+1 (z)|2 .
n→∞ qn+1 (z)∈Pn+1 [z],qn+1 (z0 )=1 |z − z0 |2
Por las propiedades extremales del n-núcleo en z0 (ver [Ass97]) tenemos que

1
∑n+1 = ı́nf |qn+1 (z)|2 dµ,
k=0 |Pk (z0 )|
2 qn+1 (z)∈Pn+1 [z],q (z
n+1 0 )=1

de donde se sigue el resultado.

Como una consecuencia del Lema 4.1.7 tenemos el siguiente corolario.

Corolario 4.1.8. Sea µ una medida con infinitos puntos en su soporte compacto en
C. Supongamos que z0 ∈
/ Supp(µ), entonces las siguientes afirmaciones son equiva-
lentes:
116
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn

1
1. La función ∈ P 2 (µ).
z − z0
∑∞
2. n=0 |Pn (z0 )|2 = ∞.

Probaremos ahora el principal resultado.

Teorema 4.1.9. Sea M (µ) la matriz de momentos asociada a una medida µ con
soporte compacto en C e infinitos puntos de crecimiento efectivo. Si los polinomios
son densos en L2 (µ), es decir, P 2 (µ) = L2 (µ), entonces

lı́m λn = 0,
n→∞

donde λn es el autovalor mı́nimo de la sección de orden (n + 1) de M (µ).

Demostración. Sea R > 0 tal que Ω = Supp(µ) ⊂ {z ∈ C : |z| ≤ R}. Para probar el
resultado consideramos varios casos:

Primer caso: 0 ∈/ Supp(µ). Puesto que 1/z ∈ P 2 (µ), se sigue, por el Corolario 4.1.8,

que ∞ n=0 |Pn (0)| = ∞ y entonces, por el Lema 4.1.3, lı́mn→∞ λn = 0.
2

Segundo caso: 0 ∈ Supp(µ) y µ({0}) = 0. En este caso lı́mr→0 µ(D(0; r)) = 0. Su-
pongamos que P 2 (µ) = L2 (µ) y que existe λ > 0 tal que λn ≥ λ, para todo n ∈ N.

2 ≤ 2 . De-
1 λ
Consideramos r suficientemente pequeño para asegurar que µ(D(0; r)) 1−r
notamos por µcr la restricción al conjunto Ω\D(0; r) de la medida µ, y µr la restricción

a D(0; r) de µ. Sea n ∈ N fijo y v = (v0 , . . . , vn ) ∈ Cn+1 con nk=0 |vk |2 = 1. Puesto
que Mn (µ) = Mn (µr ) + Mn (µcr ) y ∥Mn (µr )∥ ≤ λ
2
por el Lema 4.1.6, se sigue que:

λ
vMn (µcr )v ∗ = vMn (µ)v ∗ − vMn (µr )v ∗ ≥ vMn (µ)v ∗ − .
2

Tomando ı́nfimos a ambos lados de la igualdad obtenemos

λ λ
λn (M (µcr )) ≥ λn (M (µ)) − ≥ . (4.4)
2 2
117
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

Por otro lado, teniendo en cuenta que L2 (µ) = P 2 (µ) tenemos también L2 (µcr ) =
P 2 (µcr ). Ahora, aplicando el primer caso a la medida µcr obtenemos que

lı́m λn (M (µcr )) = 0.
n→∞

Esto contradice (4.4).

Tercer caso: 0 ∈ Supp(µ) y µ({0}) > 0. Supongamos de nuevo que P 2 (µ) = L2 (µ) y
que existe λ > 0 tal que λn ≥ λ > 0 para todo n ∈ N. Por el Lema 4.1.5, para cada
polinomio p(z), tenemos que:
∫ ∫
|p(z)| dµ ≥ λ
2
|p(z)|2 dm.
T

Sea Ω0 = Ω \ {0} y µ0 la restricción de la medida µ a este conjunto. Sea q(z) un


polinomio, entonces:

∫ ∫ ∫ ∫
R 2
|q(z)| dµ0 ≥
2
|zq(z)| dµ ≥ λ
2
|zq(z)| dm = λ
2
|q(z)|2 dm.
Ω0 Ω T T

Por tanto:
∫ ∫
λ
|q(z)| dµ0 ≥ 2
2
|q(z)|2 dm.
Ω0 R T

Esto significa que para todo n ∈ N tenemos:

λ
λn (M (µ0 )) ≥ .
R2

Puesto que µ0 es una medida que satisface que µ0 ({0}) = 0, aplicando el segundo caso
obtenemos que L2 (µ0 ) ̸= P 2 (µ0 ). De nuevo, esto es imposible porque L2 (µ) = P 2 (µ).
Esto finaliza la prueba del teorema.

Observación 4.1.10. El recı́proco del Teorema 4.1.9 no es cierto. Para probar esto
mostraremos a continuación dos ejemplos.
118
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn

Ejemplo 1. Consideramos la matriz de Pascal


 
1 1 1 1 ...
 
 
 1 2 3 4 ... 
 
 
M =  1 3 6 10 . . .  ,
 
 
 1 4 10 20 . . . 
 
.. .. .. .. . .
. . . . .
(i+j )
es decir, cij = i
. Como vimos en el ejemplo 2.1.4, M es la matriz de momentos
asociada a la medida normalizada de Lebesgue µ en la circunferencia, centrada en el
punto (1, 0) y radio 1. La sucesión de polinomios ortonormales viene dada Pn (z) =

(z − 1)n para todo n ∈ N0 . Por tanto ∞ n=0 |Pn (0)| = ∞ y, por el Lema 4.1.3, se
2

sigue que lı́mn→∞ λn = 0. Por otro lado, aplicando el Lema 4.1.7, se sigue que

1 1
dis 2 ( , P 2 (µ)) = ∑∞ = 1.
z−1 n=0 |Pn (1)|
2

1
Por lo que ∈ L2 (µ) no puede ser aproximado por polinomios y en consecuencia
z−1
P 2 (µ) ̸= L2 (µ).
Ejemplo 2. Sea M la matriz de Toeplitz
 
2 1 0 0 ...
 
 
 1 2 1 0 ... 
 
 
 0 1 2 1 ... 
 .
 
 
 0 0 1 2 ... 
 
.. .. .. .. . .
. . . . .

M es la matriz de momentos asociada a la medida µ en la circunferencia unidad


dada por dµ(eiθ ) = (w(θ)/2π)dθ con


w(θ) = ck e−ikθ = eθi + 2e0 + e−iθ = 2 + 2 cos θ.
k=−∞

Usando los resultados en [GS55], se deduce fácilmente que λn = 2 + 2 cos (n+1)π


n+2
y de
aquı́ que lı́mn→∞ λn = 0. Por otro lado, mostramos que P 2 (µ) no es denso en L2 (µ).
119
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

Para probarlo, usaremos inducción sobre n para mostrar que para cada n tenemos

|Mn | = n + 2.

Si n = 1, entonces |M1 | = 3. Supongamos que el resultado es cierto para n ≤ k.


Entonces, expandiendo el determinante obtenemos que

|Mk+1 | = 2|Mk | − |Mk−1 | = k + 3.

Puesto que lı́mn→∞ e0 Mn−1 e∗0 = lı́mn→∞ |Mn−1 |/|Mn | = 1, entonces, por el Corolario
1
4.1.2 y el Corolario 4.1.8, tenemos que ∈
/ P 2 (µ) y en consecuencia P 2 (µ) no es
z
denso en L2 (µ). Este resultado se puede probar utilizando el teorema de Szegö (ver
[Con91]).

Observación 4.1.11. El Teorema 4.1.9 es cierto para medidas con soporte com-
pacto en la recta real. Además, las medidas con soporte compacto en R son siem-
pre determinadas (o equivalentemente lı́mn→∞ λn = 0 por lo visto en [BCI02]) y
P 2 (µ) = L2 (µ).

Observación 4.1.12. En el Teorema 4.1.9 no podemos prescindir de la hipótesis de


acotación del soporte ya que hay medidas con soporte no acotado en la recta real
tal que P 2 (µ) = L2 (µ) y sin embargo lı́mn→∞ λn > 0. Dichas medidas son conocidas
como las medidas N -extremales (ver [Rie23]).

Proposición 4.1.13. Sea µ una medida con soporte compacto en C tal que 0 ∈
/
Supp(µ). Las siguientes igualdades son equivalentes:

∑∞
1. n=0 |Pn (0)|2 = ∞.

1 1
2. P 2 (µ) = [1, z, , z 2 , 2 , . . . ].
z z
1 1 1 1
Donde [1, z, , z 2 , 2 , . . . ] es el cierre del subespacio generado por {1, z, , z 2 , 2 , . . . }.
z z z z
120
4.1 Aproximación polinomial en L2 (µ) y comportamiento asintótico del
autovalor mı́nimo λn

Demostración. Sea α > 0 y R > 0 tal que Supp(µ) ⊂ {z ∈ C : α ≤ |z| ≤ R}.


Probaremos primero que (1) implica (2). Por el Corolario 4.1.8 tenemos que (1)
1 1
es equivalente al hecho de que ∈ P 2 (µ) y, por tanto, P 2 (µ) = [ , 1, z, z 2 , . . . ].
z z
Entonces se tiene que

∫ ∫
1 1 1 1
| 2 − v0 − v1 − v2 z − · · · − vn z n−1 |2 dµ = | − v0 − v1 z − . . . vn z n |2 dµ
z z |z|2 z
1 1
≤ 2
dis 2 ( , Pn [z]).
α z
Tomando ı́nfimos sobre v0 , . . . , vn y n ∈ N tenemos que

1 1 1
dis 2 ( 2
, P 2 (µ)) ≤ 2 dis 2 ( , P 2 (µ)).
z α z
1
Procediendo en la misma forma probamos que ∈ P 2 (µ) para k ∈ N.
zk
(2) implica (1) es consecuencia del Corolario 4.1.8.

Observación 4.1.14. La condición de que 0 ∈


/ Supp(µ) no puede ser eliminada en la
Proposición 4.1.13. De hecho, podemos considerar cualquier medida µ, con un átomo
en 0, µ({0}) = d > 0, y tal que K = Supp(µ) sea un compacto con interior vacı́o y
cuyo complementario en C, K c , sea conexo. Por el Teorema de Mergelyan (ver por
ejemplo [Gai87]), los polinomios son densos en el espacio de las funciones continuas
sobre K con la norma uniforme y en consecuencia los polinomios son densos en
L2 (µ), esto es, P 2 (µ) = L2 (µ) y por tanto (2) es cierta. Sin embargo, puesto que
M (µ) ≥ M (dδ0 ) por el Lema 4.1.1
 
1 ( ) 1
∑n ≥ mı́n 1 v M n (dδ0 )   = d > 0,
k=0 |Pk (0)|
2 v∈Cn
v∗

y por tanto


|Pk (0)|2 < ∞.
k=0

121
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

Terminamos esta sección con un resultado que relaciona el comportamiento del auto-
valor mı́nimo λn con la norma de los polinomios mónicos en relación con un resultado
en [BS11]:

Lema 4.1.15. Sea µ una medida con soporte compacto en C. Para cada n ∈ N, sea

Pn (z) = nj=0 vj,n z j el polinomio ortonormal de grado n. Si k ≤ n, entonces

1
λ n ≤ ∑k .
j=0 |vj,k |
2

En particular, λn ≤ ∥Pen (z)∥2 .

Demostración. De la prueba del Lema 4.1.5,



|p(z)|2 dµ
λn ≤ ∫ 2π ,
1
2π 0
|p(eiθ )|2 dθ

para cualquier polinomio p(z), no nulo y de grado ≤ n. En particular, si aplicamos


la anterior desigualdad a Pk (z) con k ≤ n:

1 1
λ n ≤ ∑k ≤ 2
.
j=0 |vj,k |
2 vk,k

Entonces, puesto que Pn (z) = vn,n Pen (z), obtenemos trivialmente que λn ≤ ∥Pen (z)∥2 .

Observación 4.1.16. Si consideramos la matriz de orden (n+1)×(n+1), Bn = (vj,k )


con vj,k como en el Lema 4.1.1 si j ≤ k y vj,k = 0 si j > k, y definimos An = Bn Bn∗
(n)
entonces las entradas aj,k de An son los coeficientes de la función núcleo


n ∑
n
(n)
Kn (z, w) = Pk (z)Pk (w) = aj,k z j wk ,
k=0 j,k=1

y del mismo modo que en [BS11] A−1


n = Mn .

Observación 4.1.17. En general, incluso para matrices de momentos, no es cierto


que lı́mn→∞ λn = lı́mn→∞ ∥Pen (z)∥2 . Para mostrar esto es suficiente considerar el
122
4.2 Resultados relacionados para medidas en D

ejemplo 2 en la observación 4.1.10. Para esta matriz de Toeplitz M , tenemos que


lı́mn→∞ λn = 0 y sin embargo,

1 |Mn |
lı́m ∥Pen (z)∥2 = lı́m = lı́m = 1 ̸= 0.
n→∞ en M −1 ∗ n→∞ |Mn−1 |
n en
n→∞

Observación 4.1.18. Hacemos la observación de que en el caso de matrices M HDP


de Toeplitz, debido a que e0 Mn−1 e∗0 = en Mn−1 e∗n , se tiene

1
∥Pen (z)∥2 = ∑n ,
k=0 |Pk (0)|
2

y por tanto,
1
lı́m ∥Pen (z)∥2 = lı́m ∑n .
k=0 |Pk (0)|
n→∞ n→∞ 2

4.2. Resultados relacionados para medidas en D

Consideramos medidas µ con infinito soporte en el disco unidad cerrado D. En este


caso ∥Pen + 1(z)∥ ≤ ∥Pen (z)∥ para todo n ∈ N. De hecho, por la propiedad extremal
de los polinomios mónicos tenemos:

∥Pen + 1(z)∥2 ≤ ∥z Pen (z)∥2 ≤ ∥Pen (z)∥2 ,

y por tanto lı́mn→∞ ∥Pen (z)∥ existe.


Podemos descomponer estas medidas µ en D como µ = η + ν donde η = µ/D y ν =
µ/T. Denotaremos por Pen (z; µ) y Pen (z; ν) los polinomios mónicos correspondientes
a las medidas µ y ν, respectivamente. Probaremos que el comportamiento asintótico
de la norma de los polinomios mónicos en D depende del comportamiento en T:

Proposición 4.2.1. Sea µ una medida con infinito soporte en D y supongamos que
ν = µ/T tiene infinito soporte en T. Entonces:

lı́m ∥Pen (z; µ)∥ = lı́m ∥Pen (z; ν)∥.


n→∞ n→∞

123
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

Demostración. Puesto que Mn (ν) ≤ Mn (µ), tenemos vMn (ν)v ∗ ≤ vMn (µ)v ∗ . Enton-
ces

   
( ) v∗ ( ) v∗
∥Pen (z; ν)∥2 = ı́nfn v 1 Mn (ν)   ≤ ı́nfn v 1 Mn (µ)   = ∥Pen (z; µ)∥2 .
v∈C v∈C
1 1

Como consecuencia,
lı́m ∥Pen (z; ν)∥ ≤ lı́m ∥Pen (z; µ)∥.
n→∞ n→∞

Por tanto, si lı́mn→∞ ∥Pen (z; µ)∥ = 0, entonces lı́mn→∞ ∥Pen (z; ν)∥ = 0.
Por otro lado, supongamos que lı́mn→∞ ∥Pen (z; µ)∥ = c > 0. Puesto que la sucesión
{∥Pen (z; µ)∥}∞ e
n=0 es no creciente, entonces ∥Pn (z; µ)∥ ≥ c para cada n ∈ N. Sea n fijo

y sea p(z) = z n + a1 z n−1 + · · · + an cualquier polinomio mónico de grado n. Si


Qk (z) = z k p(z), es un polinomio mónico de grado n + k, por la propiedad extremal
de los mónicos tenemos:

∫ ∫ ∫
|z p(z)| dη +
k 2
|p(z)| dν =
2
|z|2k |p(z)|2 dµ ≥ ∥Φn+k (z; µ)∥2 ≥ c2 .
D T D

Tomando lı́mites cuando k → ∞, teniendo en cuenta que z k p(z) converge puntual-


mente a 0 en D, por el teorema de la convergencia dominada de Lebesgue:

|p(z)|2 dν ≥ c2 .
T

En consecuencia ∥Pen (z; ν)∥ ≥ c y tomando lı́mites cuando n → ∞ se sigue que


lı́mn→∞ ∥Pen (z; ν)∥ ≥ c. Por tanto,

lı́m ∥Pen (z; ν)∥ = lı́m ∥Pen (z; µ)∥


n→∞ n→∞

como querı́amos ver.

En el siguiente resultado probamos un resultado análogo para el autovalor mı́nimo


de las secciones finitas de matrices de momentos.
124
4.2 Resultados relacionados para medidas en D

Proposición 4.2.2. Sea µ una medida con infinito soporte en D, y sea ν = µ/T. Si
M (µ) y M (ν) son las matrices de momentos asociadas a µ y a ν, respectivamente,
entonces:

lı́m λn (M (µ)) = lı́m λn (M (ν)).


n→∞ n→∞

Demostración. Como en la Proposición 4.2.1 tenemos que Mn (ν) ≤ Mn (µ) para todo
n ∈ N. En consecuencia:

lı́m λn (M (ν)) ≤ lı́m λn (M (µ)).


n→∞ n→∞

Además, si lı́mn→∞ λn (M (µ)) = 0 entonces lı́mn→∞ λn (M (ν)) = 0. Supongamos


ahora lı́mn→∞ λn (M (µ)) = C > 0 para algún C > 0. Entonces, si η = µ/D, por
Lema 4.1.5, tenemos:
∫ ∫ ∫ ∫
|p(z)| dµ =
2
|p(z)| dη +
2
|p(z)| dν ≥ C
2
|p(z)|2 dm,
D D T T

siendo p(z) un polinomio. Fijamos p(z), y consideramos el polinomio z n p(z) entonces:

∫ ∫ ∫ ∫
|z p(z)| dµ =
n 2
|z p(z)| dη +
n 2
|p(z)| dν ≥ C
2
|p(z)|2 dm.
D D T T

De nuevo, procedemos como en la Proposición 4.2.1, tomando lı́mites cuando n → ∞


tenemos

lı́m |z n p(z)|2 dη = 0,
n→∞ D

de aquı́ que,
∫ ∫
|p(z)| dν ≥ C
2
|p(z)|2 dm.
T T

Entonces lı́mn→∞ λn (M (ν)) ≥ C, y por tanto,

lı́m λn (M (ν)) = lı́m λn (M (µ)).


n→∞ n→∞

125
AUTOVALORES MÍNIMOS DE MATRICES DE MOMENTOS

Observación 4.2.3. No hay análogo del comportamiento asintótico del n-núcleo en


el 0. Para ver esto, consideramos una medida ν en T, que satisface que L2 (ν) = P 2 (ν),
por ejemplo una medida con soporte igual a una cantidad infinita de puntos atómicos

{zn }∞
n=1 con pesos pn > 0 para n ≥ 0 tal que n≥0 pn < ∞ y lı́mn→∞ zn = z0 . Por

el teorema de Mergelyan (ver p.e. [Gai87]) los polinomios son densos en el espacio
de las funciones continuas en Supp(ν) = {zn : n ∈ N} ∪ {z0 } con la norma del
1
supremo, y por tanto P 2 (ν) = L2 (ν). Esto implica que ∈ P 2 (ν) y por el Corolario
z

4.1.8, se sigue que ∞k=0 |Pn (0; ν)|2
= ∞. Consideramos ahora la medida µ = ν + dδ0
donde dδ0 es la medida con masa d concentrada únicamente en el punto {0} y las
sucesiones de polinomios {Pn (z; ν)}∞ ∞
n=0 y {Pn (z; µ)}n=0 . Para cada n ∈ N tenemos

Mn (µ) ≥ Mn (dδ0 ), y además por el Lema 4.1.1 tenemos:


 
1 ( ) 1
∑n = mı́n{ 1 v Mn (µ)   : v ∈ Cn } ≥
k=0 |Pn (0; µ)|
2
v∗
 
( ) 1
mı́n{ 1 v Mn (dδ0 )   : v ∈ Cn } = d.
v∗
Por tanto


1
|Pn (0; µ)|2 ≤ < ∞.
n=0
d
Terminamos la sección con varios resultados que relacionan la densidad polinomial
con el comportamiento de asintótico de los polinomios mónicos y el de los n-núcleos:

Proposición 4.2.4. Sea µ una medida con soporte en D y con Supp(µ/T) infinito,
tal que P 2 (µ) = L2 (µ). Entonces:

lı́m ∥Pen (z; µ)∥ = 0.


n→∞

Demostración. Supongamos que L2 (µ) = P 2 (µ). Entonces, si ν = µ/T tenemos que


L2 (ν) = P 2 (ν). Combinando el Lema 4.1.7 y la Obsevación 4.1.18, se sigue que

1
0 = ∑∞ = lı́m ∥Pen (z; ν)∥2 .
n=0 |P n (0; ν)|2 n→∞

126
4.2 Resultados relacionados para medidas en D

Finalmente, por la Proposición 4.2.1, tenemos:

lı́m ∥Pen (z; µ)∥2 = lı́m ∥Pen (z; ν)∥2 = 0.


n→∞ n→∞

Observación 4.2.5. El recı́proco de este resultado no es cierto. Es suficiente consi-


derar la medida de Lebesgue η en D. Entonces,
 
( ) w∗
e
∥Pn (z)∥ = mı́n{ w 1 Mn (η)
2   : w ∈ Cn } = π
1 n+1

y lı́mn→∞ ∥Pen (z)∥2 = 0. Si embargo L2 (η) ̸= P 2 (η), puesto que P 2 (η) consiste en
∑ ∑∞ |an |2
todas las funciones analı́ticas ∞ n
n=0 an z tales que n=0 n+1 < ∞.

127
Capı́tulo 5

CONCLUSIONES Y LÍNEAS
FUTURAS DE INVESTIGACIÓN

En este trabajo se ha abordado el estudio de medidas de equilibrio asociadas a


un sistema de semejanzas contractivas en el plano complejo a través de las matrices
de momentos y de Hessenberg asociadas a estas medidas. Este enfoque matricial
ha permitido definir transformaciones tanto para matrices de momentos como pa-
ra matrices de Hessenbeg que trasladan propiedades de las medidas a ecuaciones
matriciales partiendo del SFI asociado a la medida.

En el capı́tulo 2 se ha formalizado un teorema de punto fijo para matrices que


permite aproximar la matriz de momentos de la medida. Estos resultados han si-
do publicados en revistas incluidas en el Journal Citation Report(JCR), [EST06] y
[EST07], y citados en un trabajo posterior [JKS11], que avalan la investigación y que
ponen de manifiesto que el marco teórico general en el que se formulan estos trabajos
tiene mucho interés para la comunidad cientı́fica y en particular para aquellos que se
dedica al análisis sobre fractales. Otros resultados no incluidos en esta tesis relacio-
nados con este área se encuentran en [ER99] pero desde una perspectiva totalmente
distinta.
129
CONCLUSIONES Y LÍNEAS FUTURAS DE INVESTIGACIÓN

Las nuevas expresiones recurrentes y explı́citas de los momentos de medidas au-


tosemejantes y en particular de la convolución infinita de Bernoulli obtenidas en el
capı́tulo 2, pueden ser analizadas en profundidad para obtener propiedades y quizás
responder a cuestiones sobre estas medidas que aún permanecen abiertas después de
mas de 70 años de estudio. Por otra parte, los resultados de este capı́tulo permiten
obtener los polinomios ortogonales para medidas autosemejantes.

Asimismo, también nos proponemos explorar las transformaciones de matrices de


momentos para SFI más generales formados por otro tipo de aplicaciones contracti-
vas.

Las fórmulas obtenidas en el capı́tulo 2 de la inversa de una matriz triangular,


se pueden aplicar a cualquier fórmula recursiva, por tanto un trabajo interesante
a desarrollar serı́a aplicar a la fórmula de recurrencia de los polinomios la misma
estrategia para explorar nuevas expresiones de estos en función de los coeficientes de
recurrencia. Por otro lado estas fórmulas también pueden ser aplicadas para calcular
la matriz, (T ∗ )−1 en (1.2), cuyas columnas son los coeficientes de los polinomios
ortonormales respecto de la base canónica.

En relación a los resultados del capı́tulo 3, se han desarrollado algoritmos para


calcular la matriz de Hessenberg de una suma de medidas en el plano y también para
la obtención de la medida autosemajante asociada a un SFI. Estos resultados han
sido publicados en revistas incluidas en el Journal Citation Report(JCR) [EGST11]
[EGST11b]. Nos proponemos profundizar en el análisis del comportamiento de la
matriz resultante en función de las medidas componentes, ası́ como la asintótica de
los polinomios para medidas más generales que las medidas asociadas a shifts con
pesos.

En el capı́tulo 4 se ha demostrado que en el caso de medidas con soporte com-


pacto en C, el comportamiento asintótico del autovalor mı́nimo de las secciones de
la matriz de momentos, está relacionado con el problema de aproximación por poli-
130
nomios, esto es, determinar cuándo P 2 (µ) = L2 (µ), donde P 2 (µ) es el cierre de P[z]
en L2 (µ). Concretamente si los polinomios asociados son densos en L2 (µ) entonces
necesariamente el autovalor mı́nimo de las secciones finitas de la matriz de momentos
de la medida tiende a cero. En este capı́tulo se han obtenido resultados comparando
los problemas de minimización de la norma de los polinomios mónicos, los n-núcleos
y el autovalor mı́nimo para medidas en el disco unidad. Estos resultados han sido
publicados en una revista incluida en el Journal Citation Report(JCR)[EGT11]. En
algunos de estos resultados la restricción de la medida a la circunferencia unidad
tiene un carácter dominante y estamos interesados en explorar medidas con soportes
acotados más generales, para ello podemos utilizar los resultados sobre transforma-
ciones de momentos que hemos estudiado en el capı́tulo 2. Recientemente, en [BD06]
se ha caracterizado el ı́ndice finito de determinación de orden k de una medida en
términos del comportamiento de los k menores autovalores de las secciones de la
matriz de Hankel asociada a dicha medida, uno de nuestros objetivos es obtener una
interpretación de estos resultados en el caso hermitiano.

131
Bibliografı́a

[AS72] M. Abramowitz and I. A. Stegun, Handbook of Mathematical Functions,


Dover, New York, 1972.

[Aki65] N. I. Akhiezer, The Classical Moment Problem, Oliver and Boyd, London,
1965.

[Atz75] A. Atzmon, A Moment Problem for Positive Measures on the Unit Disc,
Pacific J. Math. 59 (1975), pp. 317–325.

[Bar93] M. F. Barnsley, Fractals Everywhere. Academic Press, Cambridge, MA,


1993.

[BC04] B. Beckermann and M. Castro, On the determinacy of complex Jacobi


matrices. Math. Scand. 95 (2) (2004) pp. 285–298.

[BCR84] C. Berg, J.P.R. Christensen and P. Ressel, Harmonic Analysis on


Semigroups. Theory of Positive Definite and Related Functions, Graduate Texts
in Mathematics 100, Springer-Verlag, Berlin-Heidelberg-New York, 1984.

[BM84] C. Berg, P. Maserick, Exponentially bounded positive definite functions,


Illinois J. Math. 28 (1984) 162–179.

[BCI02] C. Berg, Y. Chen, M.E.H. Ismail, Small eigenvalues of large Hankel


matrices: The indeterminate case, Math. Scand. 91 (2002) 67–81.
133
BIBLIOGRAFÍA

[BD06] C. Berg, A. J. Durán, Orthogonal polynomials and analytic functions


associated to positive definite matrices, J. Math. Anal. Appl. 315 (2006) 54–67.

[BS11] C. Berg, R. Szwarc, The smallest eigenvalue of Hankel matrices, Cons-


tructive Approximation 34 (2011) 107-133.

[Bot94] A. Bottcher, Infinite Matrices and Projection Methods, Lectures on Ope-


rator Theory and its Applications (Waterloo, ON, 1994), Fields Institute Mo-
nographs, Vol. 3, American Mathematical Society, Providence, RI, 1996.

[Blu898] O. Blumenthal, Über dieEntwicklung einen willkürlichen Funktion nach


∫ 0 φ(ξ)dξ
der Kettenbrüches für ∞ , Thesis, U. Göttingen, 1898.
z−ξ

[Bra55] J. Bram Subnormal Operators, Duke Math. J 22 (1955), 75-94.

[Bre80] C. Brezinski, Padé-Type Approximation and General Orthogonal Polyno-


mials, Birkhäuser, Basel, 1980.

[Chi78] T. S. Chihara, An Introduction to Orthogonal Polynomials, vol. 13 of Mat-


hematics and its Applications, Gordon and breach, New York, 1978.

[Con85] J. B. Conway, A Curse in Functional Analysis, Graduate Texts in Mat-


hematics, 96 Springer-Verlag, New York, 1985.

[Con91] J. B. Conway , The Theory of Subnormal Operator. Mathematical Surveys


and Monographs, 36 Amer. Math. Soc., Providence, Rhode Island, 1991.

[Dom78] J. Dombrowski, Quasitriangular Matrices, Proceedings of de AMS, 69,


1978

[Dom80] J. Dombrowski, Spectral Properties of Real Parts of Weighted Shift Ope-


rators, Indiana University Mathematics Journal, 29, 1980.
134
BIBLIOGRAFÍA

[Dom84] J. Dombrowski, Tridiagonal matrix representations of cyclic self-adjoint


operators, Pacific Journal of Mathematics,114, 1984.

[Dom85] J. Dombrowski, Tridiagonal matrix representations of cyclic self-adjoint


operators. II, Pacific Journal of Mathematics, 120, 1985

[DN86] J. Dombrowski and P. Nevai, Orthogonal polynomials and recurrence


relations, Siam. J. Math. Anal., 17, 1986.

[Dom87] J. Dombrowski, Cyclic operators, commutators and absolutely continuous


measures, Proceedings of de AMS, 100, 1987.

[Erd39] P. Erdös, On a family of symmetric Bernoulli convolutions, Amer. J.


Math., 61 (1939), pp. 974–976.

[Erd40] P. Erdös, On smoothness properties of a family Bernoulli convolutions,


Amer. J. Math., 62 (1940), pp. 180-186.

[Edg98] G. A. Edgar, Integral, Probability and Fractal Measures, Springer-Verlag,


New York, (1998)

[EGK92] S. Elhay, G. H. Golub and J. Kautsky, Jacobi matrices for sums of


weight functions, BIT 32 (1992) 143–166.

[ER99] C. Escribano and M. Reyes, Analysis of Functions Defined on Fractal


Sets, Fractals, 7 n2 (1999), pp. 197 – 204.

[EST03] C. Escribano, M. A. Sastre and E. Torrano, Moments of infinite


convolutions of symmetric Bernoulli distributions, J. Comput. Appl. Math., 153
(2003), pp. 191–199.

[EST06] C. Escribano, M. A. Sastre and E. Torrano, Moment matrix of


self-similar measures, Electronic Transactions on Numerical Analysis (ETNA),
24 (2006), 79-87
135
BIBLIOGRAFÍA

[EST07] C. Escribano, M.A. Sastre and E. Torrano, A fixed point theorem


for moment matrices of self-similar measures, J. Comput. Appl. Math., 207 n2
(2007), pp. 352 – 359.

[EGST11] C. Escribano, A. Giraldo, M. A. Sastre and E. Torrano, Com-


puting the Hessenberg matrix associated with a self-similar measure, Journal of
Approximation Theory, 163, (2011), pp. 49 – 64.

[EGST11b] C. Escribano, A. Giraldo, M. A. Sastre and E. Torrano,


Hessenberg matrix for sums of Hermitian positive definite matrices and weighted
shifts, Journal of Computational and Applied Mathematics, 236 (2011), pg. 98-
106.

[EGT11] C. Escribano, R. Gonzalo and E. Torrano, Small eigenvalues of


large Hermitian moment matrices, Journal of Mathematical Analysis and Ap-
plications, 374 n 2(2011), pp. 470 – 480.

[Fal90] K. J. Falconer, Fractal Geometry, John Wiley and Sons, New York, 1990.

[Fal97] K. J. Falconer, Techniques in Fractal Geometry, John Wiley and Sons,


Chichester, 1997.

[Fis95] H. J. Fischer, On the paper “asymptotics for the moments of singular


distributions”, J. of Approx. Theory, 82 (1995), pp. 362–374.

[Fre61] G. freud, Orthogonal polynomials, Consultants Bureau, New York, 1961.

[Gai87] D. Gaier, Lectures on complex approximation, Birkhäuser, Boston, 1987.

[Gar62] A. Garsia, Arithmetic properties of Bernoulli convolutions, Trans. Amer.


Math. Soc., 102 ,(1962), pp. 409-432.

[Gar63] A. Garsia, Entropy and singularity of infinity convolutions, J. Math., 13


(1963), pp. 1159–1169.
136
BIBLIOGRAFÍA

[Gau82] W. Gautschi, On generating orthogonal polynomials, SIAM J. Sci. Statist.


Comput., 3 (1982) 289–317.

[GW93] W. Goh and J. Wimp, Asymptotics for the moments of singular distri-
butions, J. Approx. Theory, 74 (1993), pp. 301–334.

[GV96] G. H. Golub and F. Van Loan, Matrix computations, Johns Hopkings


University Press, 1996.

[GS55] U. Grenander, G. Szegö, Toeplitz forms and their applications. Chelsea


Publishing Company, New York, 1955.

[GT93] R. Guadalupe and E. Torrano , On the moment problem in the boun-


ded case, J. Comput. Appl. Math., 49 n2 1-3 (1993), pp. 263–269.

[Hal84] P.R. Halmos, A Hilbert Space Problem Book, Springer Verlag, New York,
1984.

[HOS11] S. M. Heiman, P. Owrutsky and R. S. Strichartz, Orthogonal Poly-


nomials with Respect to Self-Similar Measures, Experiment. Math. 20 (2011),
no. 3, 238-259.

[Hu97] T. J. Hu, The local dimension of the Bernoulli convolution associated with
the golden number, Trans. Amer. Math. Soc., 349 (1997), pp. 2917–2940.

[Hut81] J. Hutchinson, Fractal and self-similarity, Indiana Univ. Math. J., 30


(1981), pp. 713–747.

[JW35] B. Jessen and A. Wintner, Distribution functions and the Riemann zeta
function, Trans. Amer. Math. Soc., 38 (1935), pp. 48–88.

[Jar01] H. Jarchow, Special Operators on Classical Banach Spaces of Analytic


Funntions Extrct. Mathematicae. 19 (1) pp. 21–3, 2001.
137
BIBLIOGRAFÍA

[JKS11] P. Jorgensen,K. Kornelson and K. Shuman, Iterated function


systems, moments, and transformations of infinite matrices, Memoirs of the
American Mathematical Society, vol. 213 , n 1003.(2011)

[JKS07] P. Jorgensen and K. Shuman, Harmonic Analysis of Iterated Function


Systems with Overlap, Journal of Mathematical Physics, vol. 48 (2007), no. 8,
083511.

[Lan87] H. J. Landau, Classical background of the moment problem, Moments in


mathematics, Proc. Sympos. Appl. Math., vol. 37 (1987), pp. 1-15.

[Man77] B. B. Mandelbrot, The fractal geometry of nature, W. H. Freeman &


Co., San Francisco, 1977.

[Ma96] G. Mantica, A stable technique for computing orthogonal polynomials and


jacobi matrices associated with a class of singular measures, Contr. Approx., 12
(1996), pp. 509–530.

[Ma00] G. Mantica, On computing Jacobi matrices associated with recurrent and


Möbius iterated function systems, J. Comp. Appl. Math. 115 (2000) 419–431.

[Mat95] P. Mattila, Geometry of Sets and Measures in Euclidean Spaces, Cam-


bridge University Press, 1995.

[Mer03] R. Merris, Combinatorics, Wiley , Wiley Series in Discrete Mathematics


and Optimization, 67, (2003).

[PS96] Y. Peres and B. Solomyak, Absolute continuity of bernoulli convolutions,


a simple proof, Math. Research Letters, 3 (1996), pp. 231–239.

[Rak83] E. A. Rakhmanov, On the asymtotics of the ratio of orthogonal polyno-


mials II, Math. USSR Sbornik, 46, 1983.
138
BIBLIOGRAFÍA

[Rak87] E. A. Rakhmanov, On the asymtotics of of polynomials orthogonal on the


unit circle with weights not satisfying Szegö’s condition, Math. USSR Sbornik,
46, 1983.

[Rie23] M. Riesz, Sur le problème des moments et le théorème de Parseval corres-


pondant, Acta Litt. Ac. Sci. Szeged. 1 (1923) 209-225.

[Sal44] , R. Salem, A remarkable class of algebraic integers. Proof of a conjecture


of Vijayaraghavan, Duke Math. J., 11, 1944

[Sas03] M. A. Sastre, Medidas autosemejantes con solapamiento: dimensión, mo-


mentos y aproximación, Tesis doctoral, Universidad Politécnica de Madrid, Ma-
drid, 2003.

[Sch94] A. Schief, Separation properties for self-similar sets., Proc. Amer. Math.
Soc., pages 111–115, 1994.

[ST43] J.A. Shohat, J.D. Tamarkin, The Problem of moments, Mathematical


Surveys, vol 1, Amer. Math. Soc., New York, 1943.

[Sim05] B. Simon, Orthogonal polynomials on the unit circle. Part 1: Classical


Theory, Amer. Math. Soc. Colloq. Publ. 54. Part 1, AMS, Providence, RI, 2005.

[Sol98] B. Solomyak, Measure and dimension for some fractal families, Math.
Proc. Cambridge Phil. Soc., 124 (1998), pp. 531–546.

[Sta66] J. G. Stampfli,Which Weighted Shifts are Subnormal, Pacific J. Math. 17


(1966) 367–379.

[Sto32] M. H. Stone, Linear Transformations in Hilbert Space and their applica-


tions to analysis, AMS Colloquium publications, 15 American Mathematical
Society, Providence, 1932.
139
BIBLIOGRAFÍA

[Sza81] F.H. Szafraniec, Boundedness of the shift operator related to definite


positive forms: an application to moment problem, Ark. Math. 19 (1981) 251–
259.

[Sze36] G. Szegö, On some Hermitian forms associated two given curves of the
complex plane, Trans. Amer. Math. Soc. 40 (1936) 450-461.

[Sze75] G. Szegö, Orthogonal Polynomials, vol. 32 of AMS Colloquium publica-


tions, American Mathematical Society, Providence, RI, 1975.

[Tom04] V. Tomeo, Subnormalidad de la matriz de Hessenberg asociada a los poli-


nomios ortogonales en el caso hermitiano. Tesis doctoral. UPM, 2004.

[Tor87] E. Torrano, Interpretación matricial de los polinomios ortogonales en el


campo complejo Tesis doctoral, Universidad de Cantabria, Santander 1987.

[TT11] V. Tomeo and E. Torrano, Two applications of the subnormality of the


Hessenberg matrix related to general orthogonal polynomials, Linear Algebra and
its Applications, 435, n 9, (2011) pp. 2314-2320.

[Ass93] W. Van Assche, Analytic aspects of orthogonal polynomials. Katholieke


Universiteit Leuven, 1993.

[Ass97] W. Van Assche, Orthogonal Polynomials in the Complex Plane and on


the real line, Fields Inst. Commun. 14 (1997) 211-245.

[Ass10] W. Van Assche, Orthogonal polynomials and approximation theory: some


open problems in Recent Trends in Orthogonal Polynomials and Approximation
Theory eds. J. Arvesú, F. Marcellán, A. Martı́nez-Finkelshtein, Contemporary
Mathematics 507 (2010), 287-298.

[WW66] H. Widom and H. Wilf, Small eigenvalues of large Hankel matrices,


Proc. Amer. Math. Soc. 17 (1966) 338-344.

140

También podría gustarte