Está en la página 1de 30

MARCOS FINITOS

SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

1. Introducción
Uno de los conceptos más importantes en el estudio de los espacios vectoriales es el de
base. Si se tiene una base, cada vector del espacio puede ser escrito de manera única como
una combinación lineal de los elementos de la base. Los marcos son sistemas generado-
res redundantes. Esto significa que permiten representaciones que no son necesariamente
únicas. Esta propiedad es útil en muchas situaciones que aparecen por ejemplo en pro-
cesamiento de señales e imágenes, compresión de datos, teorı́a de códigos, teorı́a de las
comunicaciones y teorı́a de muestreo, entre otras, ya que dan una mayor flexibilidad a la
hora de elegir la representación adecuada.
La teorı́a de marcos se inició con Duffin y Schaeffer en 1952 con un trabajo donde
estudian series de Fourier no armónicas [15]. En [13], se aplican por primera vez a proce-
samiento de señales.
Se presentará aquı́ una introducción a la teorı́a de marcos finitos en espacios vectoria-
les finito-dimensionales con producto interno. Se estudiarán las propiedades básicas, se
mostrarán algunas aplicaciones para las cuales trabajar con un marco es más adecuado
que con una base, se considerarán distintos tipos de marcos y algunas construcciones
particulares.
Estas notas están organizadas de la siguiente forma. En las secciones 2 y 3 veremos
algunas propiedades básicas de los marcos basándonos principalmente en [11, Capı́tulo 1].
La sección 4 presenta resultados sobre marcos ajustados que aparecen en [2, 5, 19]. En la
sección 5 se presentan algunos métodos para construir marcos que posean ciertas propieda-
des, particularmente ajustados y Parseval. El primero de ellos considera marcos Parseval
obtenidos proyectando ortogonalmente una base ortonormal. Como caso particular de este
método se consideran los marcos armónicos introducidos en [16, 20]. Luego se considera
la construcción de marcos Parseval a partir de una matriz que es una proyección ortogo-
nal. Se ilustra este método con resultados de [17] sobre marcos Parseval equiangulares.
Finalmente se presenta, mediante un ejemplo el método del tetris espectral introducido
en [6] para obtener marcos ajustados de norma 1.

2. Propiedades básicas de marcos


Sea V un espacio vectorial de dimensión finita d sobre K = C o K = R con un producto
interno h·, ·i. Si {ek }dk=1 es una base de V, entonces para todo f ∈ V existen escalares
{ck }dk=1 únicos tales que
d
X
f= ck e k .
k=1
1
2 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

En particular, si {ek }dk=1 es una base ortonormal, entonces


d
X
(2.1) f= hf, ek iek ∀f ∈ V.
k=1

Introduciremos ahora la noción de marco. Veremos más adelante que un marco {fk }m
k=1
también permite una representación similar a (2.1).
Definición 2.1. Una sucesión numerable de elementos {fk }k∈I en V es un marco para V
si existen constantes 0 < A ≤ B < ∞ tales que
X
(2.2) Akf k2 ≤ |hf, fk i|2 ≤ Bkf k2 ∀f ∈ V.
k∈I

Los números A, B se denominan cotas de marco, y no son únicas. La cota óptima inferior
es el supremo de todas las cotas inferiores y la cota óptima superior es el ı́nfimo de todas
las cotas superiores. En este curso consideraremos sucesiones finitas {fk }m
k=1 . En este caso,
por las desigualdad de Cauchy-Schwarz
X m m
X
2
|hf, fk i| ≤ kfk k2 kf k2 ∀f ∈ V,
k=1 k=1

es decir, la condición de marco superior se cumple automáticamente. Para que se satisfaga


la condición inferior en (2.1), es necesario que span{fk }m
k=1 = V. Es más, esta condición
es suficiente:
Proposición 2.2. Sea {fk }m m
k=1 una sucesión en V. Entonces {fk }k=1 es un marco para
m
span{fk }k=1 .
Demostración.
PmPodemos asumir que no todos los fk son nulos. Ya vimos que se puede
tomar B = k=1 kfk k . Sea W = span {fk }m
2
k=1 , y consideremos la aplicación continua
m
X
φ : W → R, φ(f ) = |hf, fk i|2 .
k=1

Como la esfera unitaria es compacta, existe g ∈ W, kgk = 1 tal que


m
( m )
X X
A := |hg, fk i|2 = ı́nf |hf, fk i|2 : f ∈ W, kf k = 1
k=1 k=1

Claramente A > 0 y para f ∈ W, f 6= 0,


m m
X
2
X f
|hf, fk i| = |h , fk i|2 kf k2 ≥ Akf k2 .
k=1 k=1
kf k

Corolario 2.3. Una sucesión {fk }m m
k=1 en V es un marco para V si y sólo si span{fk }k=1 =
V.
Esto muestra que un marco puede contener más elementos que los necesaris para una
base. Un marco que no es una base se denomina redundante o sobrecompleto.
MARCOS FINITOS 3

2.1. Operadores asociados a un marco. Definimos la aplicación lineal


m
X
m m
T : K → V, T (ck )k=1 = ck f k ,
k=1

llamada operador de sı́ntesis. Su adjunta está dada por


T ∗ : V → Km , T ∗ f = (hf, fk i)m
k=1

y es denominada operador de análisis. Componiendo T con su adjunta T ∗ , se obtiene el


operador de marco
Xm
S : V → V, Sf = T T ∗ f = hf, fk ifk .
k=1
Observemos que en términos del operador de marco,
m
X
(2.3) hSf, f i = |hf, fk i|2 , ∀f ∈ V.
k=1

En algunos casos identificaremos una transformación lineal con su representación matri-


cial.
Un marco se dice ajustado si en (2.1) podemos elegir A = B, es decir si
m
X
|hf, fk i|2 = Akf k2 .
k=1

Si en (2.1) podemos elegir A = B = 1, entonces {fk }m k=1 se llama un marco Parseval. Un


marco {fk }mk=1 se dice de igual norma si kf k k = c ∀k, en particular, se dice de norma 1 si
kfk k = 1 ∀k.
De (2.3) se deduce lo siguiente:
Proposición 2.4. Sea {fk }m
k=1 un marco ajustado para V con cota de marco A. Entonces
S = AI, donde I es el operador de identidad sobre V, y
m
1X
f= hf, fk i, ∀f ∈ V.
A k=1

Para marcos generales veremos que siempre tenemos una representación para cada
f ∈ V de la forma
Xm
f= hf, gk ifk
k=1
para una elección apropiada de {gk }m
k=1 :
Teorema 2.5. Sea {fk }m k=1 un marco para V con operador de marco S. Entonces:
(i) S es inversible y autoadjunto.
(ii) Para todo f ∈ V,
m
X m
X
−1
(2.4) f= hf, S fk ifk = hf, fk iS −1 fk .
k=1 k=1
4 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS
Pm
(iii) Si f ∈ V también tiene una respresentación de la forma f = k=1 ck fk para alguna
sucesión de coeficientes escalares {ck }m
k=1 , entonces
m
X m
X m
X
−1
2
|ck | = |hf, S 2
fk i| + |ck − hf, S −1 fk i|2
k=1 k=1 k=1

Demostración. Dado que S = T T es inmediato que S es autoadjunto. Para mostrar que
es inyectivo, tomemos f ∈ V tal que Sf = 0. Entonces
m
X
0 = hSf, f i = |hf, fk i|2 ,
k=1

lo cual implica, por la condición de marco que f = 0. Dado que estamos trabajando en
un espacio de dimensión finita, el ser S inyectivo implica que S es suryectivo.
Todo f ∈ V tiene la representación
m
X
−1 ∗ −1
f = SS f = TT S f= hS −1 f, fk ifk .
k=1

Como S es autoadjunto, se obtiene


m
X
f= hf, S −1 fk ifk .
k=1
−1
Análogamente, usando que f = SP Sf, se llega a la segunda ecuación de (2.4). Para
m
probar (iii), supongamos que f = k=1 ck fk . Podemos escribir
m m
{ck }m m −1
fk i k=1 + hf, S −1 fk i k=1 .
 
k=1 = {ck }k=1 − hf, S

Entonces
m
X
(ck fk − hf, S −1 fk )fk = 0,
k=1
−1
es decir ck fk − hf, S fk i ∈ N u(T ) = (R(T ∗ ))⊥ . Como
m m
hf, S −1 fk i k=1 = hS −1 f, fk i k=1 ∈ R(T ∗ ),
 

se obtiene (iii). 
m
Nota 2.6. Observemos que (iii) nos dice que {hf,PS −1 fk i}k=1 tiene norma euclı́dea mı́nima
entre todos los coeficientes {ck }k=1 tal que f = m
m
k=1 ck fk .

La representación (2.4) se denomina descomposición de marco y los números hf, S −1 fk i


m
se denominan coeficientes de marco. Como S es inversible, la sucesión {S −1 fk }k=1 también
es un marco. Se denomina el marco dual canónico de {fk }m k=1 .

Lema 2.7. Sea {fk }m m


k=1 un marco sobrecompleto. Entonces existen marcos {gk }k=1 6=
m
{S −1 fk }k=1 tal que
m
X
(2.5) f= hf, gk ifk ∀f ∈ V.
k=1
MARCOS FINITOS 5

Demostración. Si existe l ∈ {1, ..., m} tal que fl = 0, entonces S −1 fl = 0. Basta con tomar
gk = S −1 fk para k 6= l y gl un vector arbitrario distinto del nulo.
Supongamos que fk 6= 0, ∀k ∈ {1, ..., m}. Como {fk }m k=1 es sobrecompleto, existen
coeficientes {ck }m
k=1 no todos iguales a cero tal que
m
X
ck fk = 0.
k=1

Sea l ∈ {1, ..., m} tal que cl 6= 0. Entonces


X ck
fl = − fk .
k6=l
cl

O sea que {fk }mk=1 sigue generando V y por lo tanto es marco. Defino gk = S
−1
fk si k 6= l
m
y gl = 0. Por lo tanto se cumple (2.5) y {gk }k=1 no es el dual canónico.


Un marco que cumple con (2.5) se denomina marco dual de {fk }m k=1 .
Sea T el operador de sı́ntesis de {fk }k=1 y U el operador de sı́ntesis de {gk }m
m
k=1 . Entonces
(2.5) se puede escribir como T U ∗ = I.
Los roles de {fk }m m
k=1 y {gk }k=1 se pueden intercambiar:

Lema 2.8. Sean {fk }m m


k=1 y {gk }k=1 dos sucesiones de vectores en V. Son equivalentes:

(i) f = m
P
k=1 hf, gk ifk ∀f ∈ V.

(ii) f = m
P
k=1 hf, fk igk ∀f ∈ V.

(iii) hf, gi = m
P
k=1 hf, fk ihgk , gi ∀f, g ∈ V.

Demostración. (i) ⇔ (ii) : (i) ⇔ T U ∗ = I ⇔ U T ∗ = I ⇔ (ii).


(ii) ⇒ (iii) está claro.
(iii) ⇒ (ii) : Sea f ∈ V. Entonces
m
X
hf − hf, fk igk , gi = 0 ∀g ∈ V,
k=1

de lo que se sigue (ii). 

En caso de que {fk }m


k=1 es un base, como consecuencia del Teorema 2.5 vale lo siguiente:

Proposición 2.9. Supongamos que {fk }m


k=1 es una base de V. Entonces existe una familia
m
única {gk }k=1 en V tal que
m
X
f= hf, gk ifk ∀f ∈ V,
k=1
m
y se cumple {gk }m
k=1 = {S −1 fk }k=1 . Además, hfj , gk i = δj,k .
6 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

2.2. Ventajas de un marco respecto de una base. Con una base cada elemento
del espacio tiene una representación, que es única. Además, en dimensión finita una base
tiene la mı́nima cantidad de elementos necesaria para generar el espacio y por lo tanto da
la representación en algún sentido más económica.
En algebra lineal, por ejemplo, se suele aprender como extraer una base de un sistema
generador, pero no se trabaja la idea de que la redundancia en sı́ puede ser util.
De hecho, con respecto a las bases, con los marcos se pierde la unicidad en la represen-
tación, y en dimensión finita además en economı́a de la representación, pero se gana en
otros aspectos.

2.2.1. Robustez frente a errores. Los marcos son robustos a errores, una propiedad im-
portante en procesamiento de señales. Supongamos que se tiene un marco {fk }m k=1 y un
m m
dual {gk }k=1 . Una señal f se descompone en coeficientes {hf, gk i}k=1 , y estos coeficientes
se transmiten. Lo que se recibe en realidad es

{hf, gk i + wk }m
k=1
donde {wk }mk=1 son los errores asociados a cada coeficiente que aparecen al calcularlos
y transmitirlos.
El receptor entonces reconstruye

m
X m
X m
X
(hf, gk i + wk ) fk = hf, gk i fk + w k fk
k=1 k=1 k=1
m
X
=f+ w k fk
k=1

{fk }m no es una base, puede darse que m


P
Si k=1 k=1 wk fk = 0 aunque los wk no sean
todos cero, es decir, que los errores se cancelen. Esta propiedad de cancelación puede
cuantificarse, suponiendo cierta distribucion de probabilidad para los errores.
Si {fk }m
k=1 es una base, esta cancelación no puede darse, es más, si es una base or-
Pm 2 Pm 2
tonormal k k=1 wk fk k = k=1 |wk | , en consecuencia cada wk no nulo hace que la
reconstruccion sea cada vez peor.

2.2.2. Existencia de duales óptimos a borrados. Si se tiene un marco {fk }m k=1 y un dual
m
{gk }k=1 , al transmitir una señal f de la manera que describimos anteriormente, algunos
de los coeficientes {hf, gk i}m
k=1 se pueden perder, y lo que se recibe en realidad es un
subconjunto de ellos. El receptor entonces reconstruye con este subconjunto
Si {fk }m m
k=1 no es una base, es posible buscar el dual {gk }k=1 que minimice los errores
que se cometen al reconstruir con un subconjunto.
Si {fk }mk=1 es una base, hay un único dual, el canónico, y la selección de un dual óptimo
no es posible.

Otra de las ventajas de los marcos sobrecompletos por sobre una base, es que la pro-
piedad de ser marco no se pierde necesariamente si se elimina un elemento. El siguiente
resultado da un criterio de cuántos elementos de un marco se pueden eliminar sin perder
la propiedad de ser marco:
MARCOS FINITOS 7

Proposición 2.10. Sea {fk }mk=1 un marco con cota de marco inferior A > 1. Entonces
para cualquier subconjunto de ı́ndices I ⊂ {1, ..., m} con |I| < A, la familia {fk }m
k=1 es
un marco con cota de marco inferior A − |I|.

Demostración.
X X
f= khf, fk ik2 ≤ kfk k2 kf k2 = |I|kf k2 .
k∈I k∈I

Entonces
X
f= khf, fk ik2 ≥ (A − |I|)kf k2 .
k∈I
/

Vimos que todo conjunto finito de vectores son un marco para el espacio que generan.
Si span{fk }m
k=1 6= V, tenemos la siguiente expresión de la proyección ortogonal sobre
span{fk }m
k=1 .

Teorema 2.11. Sea {fk }mk=1 un marco para un subespacio W de V. Entonces la proyección
de V sobre W está dada por
m
X
Pf = hf, S −1 fk ifk .
k=1

Demostración. P f = f para f ∈ W por el Teorema 2.5, y P f = 0 para f ∈ W ⊥ , ya que


R(S −1 ) = W (S es una biyección sobre W ). 

Ejemplo 2.12. Sea {ek }2k=1 una base ortonormal de un espacio vectorial V con producto
interno, tal que dim(V ) = 2. Sea

f1 = e1 , f2 = e1 − e2 , f3 = e1 + e2 .

Entonces {fk }3k=1 es un marco de V y

Se1 = e1 + e1 − e2 + e1 + e2 = 3e1 , Se2 = −(e1 − e2 ) + e1 + e2 = 2e2 ,

con lo cual
1 1
S −1 e1 = e1 , S −1 e2 = e2 .
3 2
Ası́, su dual canónico es
 
 −1
3 1 1 1 1 1
S fk k=1
= e1 , e1 − e2 , e1 + e2 ,
3 3 2 3 2
es decir, dado f ∈ V su descomposición de marco es
1 1 1 1 1
f = hf, e1 ie1 + hf, e1 − e2 i(e1 − e2 ) + hf, e1 + e2 i(e1 + e2 ).
3 3 2 3 2
8 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

3. Cotas de marco y algoritmos de marco


Del teorema que veremos ahora se desprende que en el caso del operador de marco,
el número de condición de la matriz asociada es igual al cociente de la cota de marco
superior óptima sobre la cota de marco inferior óptima.
Teorema 3.1. Sea {fk }m k=1 un marco para V. Entonces:
(i) La cota de marco inferior óptima es el mı́nimo autovalor de S, la cota de marco
superior óptima es el máximo autovalor de S.
(ii) Sean {λk }dk=1 los autovalore de S contados con su multiplicidad. Entonces
d
X m
X
(3.1) λk = kfk k2 .
k=1 k=1
m
(iii) Si {fk }m
k=1 es un marco ajustado de norma 1, entonces la cota de marco es A = d
.
Demostración. (i) Sea {fk }m
k=1 un marco para V. Como S es autoadjunto, existe una base
ortonormal {ek }dk=1 de autovectores de S asociados a los autovalores {λk }dk=1 . Por lo tanto
Xm m
X
Sf = hf, ek iSek = λk hf, ek iek
k=1 k=1
y entonces
m
X m
X
|hf, fk i|2 = hSf, f i = λk |hf, fk i|2 ,
k=1 k=1
con lo cual m
X
λmin kf k2 ≤ |hf, fk i|2 ≤ λmax kf k2 ,
k=1
es decir λmin es cota de marco inferior y λmax es cota de marco superior. Para ver que son
óptimas basta con tomar f un autovector asociado a λmin (respectivamente a λmax ).
(ii)

d
X m
X m
X
2
λk = λk kek k = hSek , ek i
k=1 k=1 k=1
Xm Xm m X
X m m
X
2 2
= |hek , fl i| = |hek , fl i| = kfl k2 .
k=1 l=1 l=1 k=1 l=1

(iii) Se deduce de (ii) y de que {λk }m


k=1 es A repetido d veces.
Bopt
Corolario 3.2. Sea {fk }m
k=1 un marco. Entonces el número de condición es Aopt
.

Si uno conoce los coeficientes {hf, fk i}mk=1 , por el Teorema 2.5 se puede reconstruir f
por medio de la fórmula
Xm
f= hf, fk iS −1 fk = S −1 T {hf, fk i}m
k=1 .
k=1
MARCOS FINITOS 9

Pero para ello es necesario invertir el operador de marco, lo cual puede resultar complicado,
especialmente cuando la dimensión de V es grande. Es por eso que se usan algoritmos
para aproximar f. El siguiente es llamado algoritmo de marco.

Lema 3.3. Sea {fk }m


k=1 un marco de V con cotas A, B. Para f ∈ V, se define la sucesión
dada por
2
g0 = 0, gk = gk−1 + S(f − gk−1 ), k ≥ 1.
A+B
Entonces
 k
B−A
kf − gk k ≤ kf k.
B+A
Demostración.
m
2 2 2 X
h(I − S)f, f i = kf k − |hf, fk i|2 ,
A+B A + B k=1

por lo tanto
2 2A B−A
h(I − S)f, f i ≤ kf k2 − kf k2 = kf k2 .
A+B A+B A+B
Análogamente
2 B−A
h(I − S)f, f i ≥ − kf k2 ,
A+B A+B
y entonces

2 B−A
I − S ≤ .
A+B A+B
Usando la definición de {gk }m
k=1 ,

2
f − gk = f − gk−1 − S(f − gk−1 )
A+B
 
2
= I− S (f − gk−1 ).
A+B
Repitiendo el argumento se obtiene
 k k  k
2 2 B − A
kf − gk k = I − S (f − g0 ) ≤ I − S kf − g0 k ≤ kf k.

A+B A+B A+B

Es decir gk converge a f cuando k → ∞. La velocidad de convergencia del algorit-


mo depende de las cotas de marco, cuanto más cerca están las cotas, mejor converge el
algoritmo.
10 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

4. marcos ajustados
Una propiedad que resulta importante en un marco es que sea ajustado, es decir, que las
cotas de marco sean iguales, ya que hace que el marco se comporte bien frente a borrados
o errores en los coeficientes. Se mejora el comportamiento si se le exige una cierta simetrı́a
a los elementos. Por ejemplo, que todos los elementos tengan igual norma y el ángulo entre
los elementos sea el mismo.
Un marco {fk }m k=1 de igual norma se dice equiangular si existe c tal que |hfk , fl i| =
c ∀k 6= l.
       
 1 −1 −1 1 
4
Ejemplo 4.1. Sea {fk }k=1 =  1 ,  1  , −1 , −1
   
 1 −1 1 −1 

Este es un ejemplo de marco cuyos elementos tienen todos norma 3 y que es equian-
gular. Constituye los cuatro vértices de un tetrahedro en R3 . Su operador
 de sı́ntesis

  1 1 1
1 −1 −1 1  −1 1 −1 
respectivamente de análisis son T =  1 1 −1 −1  , T ∗ =   −1 −1 1  ,

1 −1 1 −1
1 −1 −1
y su operador de marco es  
4 0 0
T T ∗ = T ∗T  0 4 0  ,
0 0 4
es decir se trata de un marco ajustado con cota de marco A = 4. Si reescalamos estos
vectores por 12 , estos vértices se transforman en un marco Parseval, pero no son una base
ortonormal.
Ejemplo 4.2 (El marco Mercedes-Benz). El marco Mercedes-Benz para R2 es el marco de
norma 1 ajustado con cota de marco 32 dado por:
   √   √ 
0 − 3 3
, 2
1 , 2
1 −2 − 12
Notar que este marco también es equiangular. La razón de su nombre resulta evidente si
se grafican los vectores que lo forman.
Ejemplo 4.3 (Vértices de los sólidos platónicos). Los ejemplos anteriores llevaron a pensar
que una forma de obtener marcos ajustados de norma 1 era a partir de los vértices de
figuras regulares. Por ejemplo, los vértices de los sólidos platónicos son marcos ajustados
para R3 .
Los ejemplos vistos podrı́an hacernos concluir pensar que la totalidad de los marcos
ajustados se obtienen a partir de considerar regularidades geométricas. Sin embargo se
demostró que esto no es ası́, la totalidad de los marcos ajustados se obtienen a partir
del concepto de equilibrio en fı́sica. Se consideró un marco como un conjunto de puntos
en el espacio tales que cada punto ejerce sobre otro una fuerza repulsiva, llamada fuerza
de marco. Se demostró que se hallan en equilibrio respecto de esta fuerza si y sólo si se
ubican del modo más ortogonal posible y esto ocurre sólo cuando es un marco ajustado.
Esto se estudió en [2, 5].
MARCOS FINITOS 11

Definición 4.4. Dado dos elementos fk , fk0 en V, la fuerza de marco entre ellos está de-
finida por

F F (fk , fk0 ) = 2hfk , fk0 i(fk − fk0 ) = (kfk k2 + kfk0 k2 − kfk − fk0 k2 )(fk − fk0 ).

Este es un campo conservativo, por lo tanto se puede definir el potencial entre fk , fk0 ,
como
1
P (fk , fk0 ) = hfk , fk0 i2 − (kfk k2 + kfk0 k2 )2 ,
4
y el potencial total de una sucesión {fk }m
k=1 resulta

m X
X 1
(4.1) T P ({fk }m
k=1 ) = [hfk , fk0 i2 − (kfk k2 + kfk0 k2 )2 ]
k=1 k6=k0
4

Como la energı́a potencial está definida en términos de diferencias, es única (salvo cons-
tantes), con lo cual se pueden desestimar las constantes y sumar el término diagonal,
obteniendo el potencial de marco:
m X
X m
(4.2) F P ({fk }m
k=1 ) = |hfk , fk0 i|2
k=1 k0 =1

Por lo tanto lo que se busca son aquellos {fk }m


k=1 que están en equilibrio bajo la fuerza
de marco y estos son los mı́nimos del potencial de marco.

Teorema 4.5. [2] Sea {fk }m k=1 una sucesión en V. Consideremos el potencial de marco
definido en (4.2) y restringido a la esfera unitaria. Entonces:
1. Si m ≤ d, entonces el valor mı́nimo del potencial de marco es d, y los mı́nimos son
las sucesiones ortonormales de V.
2
2. Si m ≥ d, el valor mı́nimo del potencial de marco es md y los mı́nimos son precisa-
mente los marcos ajustados de norma 1.

Es decir, al minimizar el potencial de marco se encuentran las sucesiones lo más orto-


gonales posible entre sı́, y los marcos ajustados de norma 1 son la extensión natural de
las bases ortonormales.

5. Algunas construcciones particulares


A continuación veremos algunas formas de obtener marcos de manera tal que tengan
ciertas propiedades que se necesitan en las aplicaciones.
En los dos primeros casos se usan proyecciones ortogonales, mientras que en el tercer
caso la construcción es algorı́tmica.
Los marcos ajustados son particularmente deseables debido al hecho de que con ellos la
reconstrucción de cada elemento del espacio a partir de los coeficientes de marco es muy
sencilla, no requiriendo la inversión de un operador. Por este motivo, nos restringiremos
a la construcción de este tipo de marco.
12 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

5.1. Construcción de marcos Parseval a partir de proyectar ortogonalmente


una base ortonormal. Dada una matriz unitaria U de orden m,

u11 . . . u1m
 

U =  ... ..
.
..  ,
.
um1 . . . umm
entonces las filas (columnas) forman un conjunto ortonormal de vectores. Si T es cualquier
submatriz de orden d × m de U :
uk1 1 . . . uk1 m
 

T =  ... ..
.
.. 
.
ukd 1 . . . ukd m
entonces los vectores columna de esta submatriz constituyen un marco Parseval para Kd
con m elementos, pues teniendo T las filas ortonormales se cumple S = T T ∗ = I.
Nota 5.1. En realidad todos los marcos Parseval para Kd se obtienen de esta forma, ya
que dado un marco Parseval para Kd cuyos elementos son
u11
 
 ...  , para k = 1, . . . , m,
udk
se forma la matriz T de orden d × m (matriz del operador de sı́ntesis del marco) que los
tiene como columnas,
u11 . . . u1m
 

T =  ... . . . ..  .
.
ud1 . . . udm
Por ser Parseval S = T T ∗ = I. Por lo tanto, las filas de T que están en Km son orto-
normales, y sabemos que todo conjunto ortonormal de d vectores en Km con d ≤ m se
puede extender a una base ortonormal para Km . Agregando estos vectores como filas a T
se obtiene una matriz unitaria

u11 . . . u1m
 

U =  ... ... ..  .
.
um1 . . . umm
El procedimiento anterior se reduce a seleccionar una submatriz cualquiera T de orden
d × m de U , siendo los vectores columna de esta submatriz T un marco Parseval para Kd
con m elementos. Este método se puede entender de la siguiente manera. Por ejemplo,
si se seleccionan las primeras d filas de U se obtiene un marco Parseval para Kd cuyos
elementos son

u11
 
 ...  , para k = 1, . . . , m.
udk
MARCOS FINITOS 13

El espacio Kd es isomorfo al subespacio d-dimensional de Km formado por todos los


vectores de Km que tienen las últimas m − d componentes iguales a 0,
{(c1 , . . . , cd , 0, . . . , 0)t : c1 , . . . , cd ∈ K} ∼
= Kd
y los elementos del marco se corresponden con
 
u11
 .. 
 . 
 udk 
 
 , para k = 1, . . . , m.
 0 

 . 
 .. 
0
Por otro lado, estos vectores se obtienen de proyectar ortogonalmente las columnas de U
(que forman una base ortonormal para Km ) sobre el subespacio anterior de Km .
La siguiente proposición nos dice que cuando se proyecta ortogonalmente un marco
sobre un subespacio se obtiene un marco para ese subespacio con las mismas cotas de
marco.
Proposición 5.2. Sea {fk }m k=1 un marco para V con cotas de marco A, B, y sea P una
proyección ortogonal de V sobre un subespacio W . Entonces {P fk }m
k=1 es un marco para
W con cotas de marco A, B.
En particular, si {fk }m
k=1 es un marco Parseval para V y P es una proyección ortogonal
de V sobre W , entonces {P fk }m k=1 es un marco Parseval para W .
Demostración. Sea f ∈ W . Por la condición de marco para {fk }m k=1 considerada para P f
se tiene m
X
2
AkP f k ≤ |hP f, fk i|2 ≤ BkP f k2 .
k=1
Como f ∈ W , f = P f . Además hP f, fk i = hf, P ∗ fk i = hf, P fk i. Por lo tanto queda,
m
X
Akf k2 ≤ |hf, P fk i|2 ≤ Bkf k2 .
k=1
Esta es la condición de marco para {P fk }mk=1 considerada en un elemento cualquiera
f ∈ W . Ası́, se ha probado la primera parte del teorema. La segunda parte se sigue de la
primera en forma inmediata. 
La Proposición 5.2 conduce al siguiente corolario.
Corolario 5.3. Sea {ek }m
k=1 una base ortonormal para V , y sea P una proyección orto-
gonal de V sobre un subespacio W . Entonces {P ek }m
k=1 es un marco Parseval para W .
5.1.1. Marcos armónicos. Ahora veremos como se aplica el procedimiento descripto en
la sección anterior para obtener una clase muy importante de marcos Parseval, llamados
marcos armónicos.
2πi
(1) Dado m ∈ N, sea ω = e− m (raı́z m-ésima de la unidad). Entonces la matriz de
Fourier en Cm×m , DFMm , se define por
1
DFMm = √ (ω jk )m−1
j,k=0 .
m
14 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

Veamos que DFMm es una matriz es unitaria, es decir que las filas (columnas) son
ortonormales. Denotamos con DFMm (j, :) la fila j de DFMm .

m−1
X 1 1
hDFMm (j1 , :), DFMm (j2 , :)i = √ ω j1 k √ ω j2 k
k=0
m m
m−1 m−1
1 X j1 k −j2 k 1 X (j1 −j2 )k
= ω ω = ω .
m k=0 m k=0
Si j1 = j2 ,
m−1 m−1
1 X (j1 −j2 )k 1 X
ω = 1 = 1.
m k=0 m k=0
Si j1 6= j2 , usamos la fórmula
(1 − x)(1 + x + x2 + . . . + xm−1 ) = 1 − xm con x = ω (j1 −j2 ) ,
para obtener
m−1
1 X (j1 −j2 )k 1 1 − ω (j1 −j2 )m 1 1−1
ω = = = 0.
m k=0 m 1 − ω (j1 −j2 ) m 1 − ω (j1 −j2 )
(2) Como DFMm es unitaria, por el Corolario 5.3, las columnas de cualquier submatriz
d
de orden d × m de DFMm producen un marco Parseval para q C . Como las entradas de
DFMm tienen todas módulo 1, los marcos son de norma md . Los marcos obtenidos de
esta forma se denominan marcos armónicos.
(3) Si se seleccionan las primeras d filas se obtiene el marco armónico

1 1 1 1
       
 1  1  1  ω  1  ω2 ω (m−1)
 , . . . , √1 
  
√  .  , √  . , √  .. ..  .
 m  ..  m  ..  m .  m . 
1 ω d−1 ω (d−1)2 ω (d−1)(m−1)
Este marco presenta máxima robustez a borrados. Para ver esto, consideremos cualquier
subconjunto con d elementos (distintos) del marco anterior,

1 1 1
      
 1  ω k1  1  ω k2  1  ω k d 
√ 
 , √m   , . . . , √m 
..   ..   ..  .
 m . . . 
(d−1)k1 (d−1)k2 (d−1)kd
ω ω ω
d
Estos vectores generan C (más aún constituyen una base), pues con ellos se forma la
matriz de Vandermonde,

1 1 1
 
 ω k1 ω k2 ω kd 
 .. .. ... .. 
 . . . 
ω (d−1)k1 ω (d−1)k2 ω (d−1)kd
MARCOS FINITOS 15
Qd ki
cuyo determinante es i,j=1,i>j (ω − ω kj ) 6= 0.
Nota 5.4. Una matriz de Vandermonde de orden d es de la forma

1 1 1
 
 x1 x2 xd 
 .
 .. .. ... .. 
. . 
xd−1
1 xd−1
2 xdd−1
Su determinante es di,j=1,i>j (xi −xj ) (ver [18, página 29]). Este determinante es distinto
Q
de cero si los xi son distintos.
Aplicamos el resultado anterior con xi = ω ki para i = 1, . . . , d.
(4) Si se seleccionan las primeras d − l filas y las últimas l filas de DFMm también se
obtiene un marco armónico que presenta máxima robustez a borrados:

        
1 1 1 1
  1   ω   ω2   ω m−1 
 
..
  ..   ..   .. 
 
 1  .

 1 

.

 1 
 .   . 
 1  
 , √  ω (d−l−1)2
 (d−l−1)(m−1)
√  1  , √  ω d−l−1 , . . . , √ ω  .
       
 m m  ω m−l m  ω (m−l)2 m  ω (m−l)(m−1)
 
  1 
 

 

 


  ..
  ..   ..   .. 
  .
  .   .   . 
1 ω m−1 ω (m−1)2 ω (m−1)(m−1)
Para probar que este marco presenta máxima robustez a borrados recordamos que
recién vimos que si seleccionamos las d primeras filas, se obtiene un marco armónico que
presenta máxima robustez a borrados. La idea es relacionar este marco con ese. Para esto
tenemos en cuenta que la matriz de Fourier diagonaliza a cualquier matriz circulante [14].
En particular, para la matriz circulante
 
0 1
.
 1 ..
 
Zm = 

.. 
 . 0 
0 1 0
se tiene
DFM−1 −1
m Zm DFMm = Dm = diag(1, ω , . . . , ω
−(m−1)
),
de donde
l l
DFMm (0 . . . d−l−1 m−l . . . m−1, :) = Zm DFMm (0 . . . d−1, :) = DFMm Dm (0 . . . d−1, :).
Como Dm es diagonal unitaria, las columnas de DFMm (0 . . . d − l − 1 m − 1 . . . m − 1, :)
forman un marco armónico con máxima robustez a borrados.
d
(5) Cuando
q d es impar, podemos construir un marco para R que también sea ajustado,
de norma md y con máxima robustez a borrados, a partir del marco descripto en (4). Se
considera d = 2l + 1 < m. El marco visto en (4) para este caso es
16 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

        
1 1 1 1
  1   ω   ω2   ω m−1 
  ..
  ..   ..   .. 
 
 1  .

 1 

.

 1 

.
  . 
 1  
√  1  , √  ωl  , √  ω l2 ,..., √  ω l(m−1)
 .
        
 m m  ω m−l m  ω (m−l)2 m  ω (m−l)(m−1)
1
   
        
  ..   .
 ..
  ..   .. 
  .    .   . 
1 ω m−1 ω (m−1)2 ω (m−1)(m−1)

Vemos que, salvo la primera que es 1, las restantes componentes de cada vector del
marco son conjugadas de a pares: la componente k es conjugada de la componente m − k:

ω (m−k)j = ω −kj = ω kj .
Teniendo en cuenta esto y que para cada z ∈ C, 21 (z + z) = Re(z) y − 2i (z − z) = Im(z),
consideramos la matriz unitaria de orden d dada por

1 √
 

2 2
U = √2 l
I J ,
2√ l
i 2 Jl −i 22 Il
2

donde Il es la matriz identidad de orden l y Jl es la matriz de orden l que tiene las


columnas de Il en orden inverso. Por ejemplo, si d = 5 entonces l = 2 y se tiene,
 
1 √0 0 0 0

 0 2 2
 2
0
√ √
0 2


2 2
U = 0 0 0 .
 
√2 2√
2 2
0 i 2 −i 2
 
 0 √ 0√ 
0 i 22 0 0 −i 22

Para ver que U es unitaria tenemos en cuenta que Jl2 = Il , ası́,

1 1
  
√ √ √ √
UU∗ =  √
2
2 l
I 2
J
2√ l
 2
√2 l
I −i√ 22 Jl 
2
i 2 Jl −i 22 Il 2
2 l
J i 22 Il
1
 
√ √ √ √ √ √ √ √
2
= I 22 Il + 2√2 Jl 2√2 Jl
√2 l √
2
√2 l
I (−i √22 Jl ) + 2√2 Jl i 2√2 Il 
i 22 Jl 22 Il − i 22 Il 22 Jl i 22 Jl (−i 22 Jl ) − i 22 Il i 22 Il
 
1
= Il 0  = Id
0 Il

Si multiplicamos cada elemento del marco anterior por U se obtiene


MARCOS FINITOS 17

   
1 1
 ωk   ωk 
 ..    .. 

 .

 1 √ √

 .


U  ω lk 2 2  ω lk 
= I J
  
2 l 2√ l


  
 (m−l)k  (m−l)k 
 ω i 22 Jl −i 22 Il  ω

 
 ..   .
..

 .   
ω (m−1)k ω (m−1)k
 
1  
 k  (m−l)k

 √ ω ω 
 2  ..  √2 

..
 2 Il + 2 Jl 
 
. .  
lk (m−1)k
 
ω
= ω

  k   
(m−l)k

 √ ω √
ω 

 2  ..  ..
 i 2 Jl − i 22 Il 
  
. .  
lk (m−1)k
ω ω

Usando que Jl permuta filas,

 √ 
  2
1 2 
ωk   ωk ω (m−1)k
   
 
 ..   1 ..  + 1  ..  
. . .
 
  √  2 2   

U  ω lk  = 2 ω lk
ω
(m−l)k
  
 (m−l)k    
 ω lk 
ω (m−l)k

  ω 
..
 

.
  1
 i2 ..  − i 1  ..  
  . 2 .  
(m−1)k
ω ω k
ω (m−1)k

Teniendo en cuenta que cada componente de la derecha es la conjugada de la co-


rrespondiente componente de la izquierda, que para cada z ∈ C, 21 (z + z) = Re(z) y
2πijk
− 2i (z − z) = Im(z) y que ω jk = e− m = cos( 2πjk
m
) − i sen( 2πjk
m
), se tiene


2
   
1 2
 ωk   2πk
cos( m ) 
 ..  
..

. .
   
  √  
U  ω lk  = 2  cos( 2πlk ) ,
   
 (m−l)k m
 ω  sin( 2πlk )
  
m
 
 ..   .. 
 .   . 
(m−1)k
ω sin( 2πk m
)

quedando el marco real


18 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

 √ √ √  √ 
 2
  2
  2
 2
2 2 2 2
2π(m−1)
cos 2π cos 2π2
 cos
1
       
 m m  m 
r  ..
 
..
 
..

r  .. 
. . .
  r   r  

 2  .  2   2   2




2πl(m−1)
1 ,  cos 2πl , cos m 2πl2  , . . . ,
cos m  .
      
 m m m m m
   
1  sin 2πl  sin 2πl2  sin 2πl(m−1)
     
m m 
    m
..
  
    ..   ..  .. 
  .   .   .   . 
1 sin 2π m
sin 2π2m sin 2π(m−1)
m
q
Este marco es Parseval, de norma md y con máxima robustez a borrados.
Cuando d es par se puede construir un marco para Rd que sea ajustado, de igual norma
y con máxima robustez a borrados. En este caso no se utiliza DFMm sino otra matriz
unitaria [20].
Los marcos armónicos tienen como ventaja que al derivarse de la matriz de Fourier,
los cálculos asociados a ellos pueden realizarse usando la transformada rápida de Fourier.
Una generalización de los marcos armónicos viene de considerar marcos asociados a repre-
sentaciones unitarias de grupos abelianos. En [23, 10] se determinan y clasifican marcos
armónicos en este contexto más general. Lo que se ha desarrollado en esta sección corres-
ponde a [16, 20] y los marcos que presentamos pueden considerarse asociados a grupos
cı́clicos.
El procedimiento para obtener marcos Parseval que describimos y usamos en esta sec-
ción, es muy sencillo. A continuación veremos otras alternativas que se pueden usar si se
quiere que el marco obtenido tenga otras propiedades adicionales que se pueden requerir,
como por ejemplo, que sea de igual norma, o equiangular.

5.2. Marcos Parseval obtenidos a partir de matrices que son proyecciones


ortogonales. En esta sección veremos como obtener marcos Parseval a partir de matrices
que son proyecciones ortogonales. A continuación introduciremos el operador de Gram y
la matriz de Gram asociados a una sucesión de vectores en V .

5.2.1. El operador de Gram y la matriz de Gram. El operador de Gram asociado a


{fk }m
k=1 ⊂ V es
T ∗ T : Km → Km
La matriz de Gram G de orden m asociada a {fk }m k=1 ⊂ V es la matriz del operador de
∗ m
Gram T T respecto a la base estándar de K . Tiene como entradas
G(k, l) = hT ∗ T δl , δk i = hT δl , T δk i = hfl , fk i
es decir,
kf1 k2 hf2 , f1 i . . . hfm , f1 i
 
 hf1 , f2 i kf2 k2 . . . hfm , f2 i 
G= .. .. .. .. .
 . . . . 
hf1 , fm i hf2 , fm i . . . kfm k2
Notar que G = G∗ y rango(G) = rango(T ∗ T ) = rango(T T ∗ ) = rango(T ) = rango(T ∗ ).
MARCOS FINITOS 19

El siguiente resultado nos dice que la matriz de Gram de un marco lo determina salvo
equivalencia unitaria.
Proposición 5.5. [22] Sean {fk }m m
k=1 un marco para V1 y {gk }k=1 un marco para V2 .
Entonces existe un operador unitario U : V1 → V2 tal que U fk = gk para k = 1, . . . , m si
y sólo si la matriz de Gram de {fk }m m
k=1 es igual a la matriz de Gram de {gk }k=1 .

Demostración. (⇒) Supongamos que existe un operador unitario U : V1 → V2 tal que


U fk = gk para k = 1, . . . , m. Como los operadores unitarios preservan producto interior,
hgl , gk i = hU fl , U fk i = hfl , fk i
Esto nos dice que las matrices de Gram de {fk }m m
k=1 y {gk }k=1 coinciden.
(⇐) Supongamos que la matriz de Gram de {fk }m k=1 es igual a la matriz de Gram de
{gk }m
k=1 , es decir,
hfl , fk i = hgl , gk i para k, l = 1, . . . , m.
Como el rango de la matriz de Gram de un conjunto de vectores es igual a la dimensión
del subespacio que estos generan, y como {fk }m m
k=1 y {gk }k=1 tienen la misma matriz de
Gram, dim(V1 ) = dim(V2 ). Sea d la dimensión de estos espacios.
Como {fk }m m
k=1 genera V1 podemos extraer de {fk }k=1 un subconjunto que sea una base
de V1 . Podemos suponer, para simplificar la notación, que {fk }dk=1 es una base de V1 .
Definamos U : V1 → span{gk }dk=1 como la única transformación lineal tal que U fk = gk
para k = 1, . . . , d. Para probar que es unitaria, veamos que preserva producto interior.
Pd Pd
Consideremos dos elementos cualesquiera de V1 : f = k=1 ck fk y f =
e
k=1 dk fk . Se
tiene, usando que las matrices de Gram coinciden,
hf, fei = h dk=1 ck fk , dk=1 dk fk i =
P P Pd Pd
k,k0 =1 ck dk0 hfk , fk0 i = k,k0 =1 ck dk0 hgk , gk0 i =
Pd Pd
h k=1 ck gk , k=1 dk gk i = hU f, U fei
Esto muestra que U es unitaria. En particular, esto implica que {gk }dk=1 es una base de
V2 .
Ahora consideremos d < k ≤ m y 1 ≤ k 0 ≤ d. Usando que U es unitaria y que las
matrices de Gram coinciden,
hU fk − gk , gk0 i = hU fk , gk0 i − hgk , gk0 i = hU fk , U fk0 i − hgk , gk0 i = hfk , fk0 i − hgk , gk0 i = 0.
Como {gk }dk=1 es una base de V2 , de lo anterior se deduce que U fk = gk para d < k ≤ m.

El resultado que sigue caracteriza a las matrices que son matrices de Gram de algún
marco Parseval.
Proposición 5.6. [22] Una matriz G de orden m es la matriz de Gram asociada a un

marco Parseval {fk }m m 2
k=1 para V = span{fk }k=1 si y sólo si G = G = G , es decir, G es
una proyección ortogonal. Más aún,
m
X
d := dim(V ) = rango(G) = traza(G) = kfk k2 .
k=1

Demostración. (⇒)
Sea G la matriz de Gram de orden m asociada a un marco Parseval {fk }m
k=1 para V .

Sabemos que G = G .
20 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

Además, por ser {fk }m


k=1 un marco Parseval,

m
X
fl = hfl , fj ifj
j=1

de donde
m
X m
X m
X
G(k, l) = hfl , fk i = h hfl , fj ifj , fk i = hfl , fj ihfj , fk i = G(j, l)G(k, j) = G2 (k, l),
j=1 j=1 j=1

es decir, G = G2 .
(⇐) Supongamos que G es una matriz de orden m tal que G = G∗ = G2 . Sea fl = Gδl

la l-ésima columna de G. Sea f ∈ V := span{fl }m 2
l=1 . Como G = G = G , G es una
proyección ortogonal (sobre su espacio columna), por lo tanto,

f = Gf.

Entonces, usando que {δl }m m
l=1 es una base ortonormal para K y G = G ,

m
X m
X m
X m
X
f = Gf = G( hf, δl iδl ) = G( hGf, δl iδl ) = hf, Gδl iGδl = hf, fl ifl .
l=1 l=1 l=1 l=1

De donde, {fk }m
k=1 es un marco Parseval para V . Como

hfl , fk i = hGδl , Gδk i = hG∗ Gδl , δk i = hGGδl , δk i = hGδl , δk i = G(k, l),

G es la matriz de Gram de {fk }mk=1 . P


Por último, se tiene traza(G) = m 2
k=1 kfk k y como G es una proyección ortogonal,
rango(G) = traza(G). Además,

d = dim(V ) = rango(G)

5.2.2. Obtención de un marco Parseval a partir de una matriz que es una proyección
ortogonal. A partir de una matriz que es una proyección ortogonal G de orden m y rango
d, se puede construir un marco Parseval.
Método 1: Usando las columnas de G.
Según se vió en la demostración de la Proposición 5.6, (Gδk )m
k=1 ⊂ K
m
es un marco
m
Parseval para el espacio de dimensión d, R(G) ⊂ K .
Método 2: Usando el teorema de la descomposición espectral.
Se puede factorizar G como G = U ∗ DU , donde U es una matriz unitaria obtenida con
los autovectores de G y D es una matriz diagonal obtenida con los autovalores de G,
siendo d de estos autovalores iguales a 1 y m − d iguales a 0.
MARCOS FINITOS 21

 
1
..
 .

u11 . . . um1 u11 . . . u1m
   
1
 
U ∗ DU =  ... ..  
..   .. .. .. 
. . 
0
 . . .
 
u1m . . . umm  ..  um1 . . . umm
 . 
0
 
u11 . . . u1m
.. ... ..
 . .

u11 . . . um1
  
ud1 . . . udm
 
= .. ... ..  
 . . 
 0 ... 0


u1m . . . umm  .. ... .. 
 . . 
0 ... 0
 
u11 . . . u1m
  ...
 ..
.
..
.

u11 . . . ud1 0 ... 0
 
ud1 . . . udm
 
=  ... .. .. .. . . ..  
. . . . .  0 ... 0
 

u1m . . . udm 0 ... 0  . .. ..
 ..

. . 
0 ... 0
u11 . . . ud1 u11 . . . u1m
  

=  ... ..
.
..  
.
.. . .
. .
.. 
.
u1m . . . udm ud1 . . . udm

u1k
 

De lo anterior, G es la matriz de Gram de {fk }m k=1 donde fk =


 ...  para k =
udk
m
1, . . . , d. Como {fk }k=1 se obtiene como columnas de una submatriz de orden d × m de
una matriz unitaria de orden m, es un marco Parseval para Kd .
Cualquier marco Parseval para V (espacio de vectorial sobre K de dimensión d con
producto interno) con matriz de Gram G, según la Proposición 5.5, es de la forma (U fk )m
k=1
donde U es unitario.
Lo descripto en el método 2 puede verse como una demostración alternativa de (⇐) en
la Proposición 5.6.

5.2.3. Marcos Parseval equiangulares y matrices de signatura. A continuación vamos a


presentar algunos resultados sobre marcos Parseval equiangulares que aparecen en [17]. En
este trabajo se construyen este tipo de marcos a partir de matrices que son proyecciones
ortogonales tal como se describió en la sección anterior. Para empezar veamos cómo son
las matrices de Gram de un marco Parseval equiangular.
22 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

Proposición 5.7. Si {fk }m k=1 es un marco Parseval equiangular con m > 1 para V ,
entonces su matriz de Gram cumple
r
d 1 d(m − d)
hfk , fk i = , ∀k, |hfk , fk0 i| = , k 6= k 0 .
m m m−1
Demostración. Recordemos que
kf1 k2 hf2 , f1 i . . . hfm , f1 i
 
 hf1 , f2 i kf2 k2 . . . hfm , f2 i 
G= .. .. .. .. .
 . . . . 
hf1 , fm i hf2 , fm i . . . kfm k2
Como {fk }m 2
k=1 es un marco Parseval, por la Proposición 5.6, G = G y
m
X
kfk k2 = d.
k=1

De lo anterior, como {fk }m


k=1 es un marco de igual norma, para cada k ∈ {1, . . . , m} se
obtiene
kfk k2 m = d,
es decir,
d
kfk k2 = .
m
Usando que G = G2 ,
m
X m
X
2 ∗
|hfk , fk0 i| = kGk2F = tr(G G) = tr(GG) = tr(G) = kfk k2 .
k,k0 =1 k=1
Pm Pm Pm
Como k,k0 =1 |hfk , fk0 i|2 = k,k0 =1,k6=k0 |hfk , fk0 i|2 + k=1 kfk k4 y {fk }m
k=1 es un marco de
0 0
igual norma equiangular, para cada k, k ∈ {1, . . . , m}, k 6= k se obtiene
(m2 − m)|hfk , fk0 i|2 + mkfk k4 = mkfk k2 ,
es decir,
(m − 1)|hfk , fk0 i|2 + kfk k4 = kfk k2 .
Reemplazando el valor de kfk k2 obtenido anteriormente,
d2 d
(m − 1)|hfk , fk0 i|2 + 2
= .
m m
Ası́,
r
1 d(m − d)
|hfk , fk0 i| = .
m m−1

Nota 5.8. El ángulo entre las lı́neas que generan fk y fk0 denotado con θk,k0 cumple
|hfk , fk0 i|
cos(θk,k0 ) := .
kfk kkfk0 k
MARCOS FINITOS 23

Si {fk }m
k=1 es un marco Parseval equiangular con m > 1 para V , por la Proposición 5.7,
s
m−d
θk,k0 = arc cos( ).
d(m − 1)
Por la Proposición 5.7, si tenemos un marco Parseval equiangular, el operador de Gram
es de la forma
r
d 1 d(m − d)
(5.1) G = Im + Q,
m m m−1
donde Im es la matriz identidad de orden m y Q es una matriz de orden m autoadjunta
que cumple Q(k, k) = 0 para todo k y |Q(k, k 0 )| = 1 para todo k 6= k 0 . A Q se la llama
matriz de signatura de {fk }m k=1 .
La idea es derivar propiedades que debe cumplir la matriz Q si es la matriz de signatura
de un marco Parseval equiangular. Con estas propiedades se pueden obtener matrices Q
y usarlas para generar matrices de Gram G, mediante (5.1), que correspondan a marcos
Parseval equiangulares. A partir de G, haciendo uso de la descomposición espectral o
bien con sus columnas se obtienen marcos Parseval equiangulares. Además estas propie-
dades de Q permitirán determinar pares (m, d) para los cuales no existen marcos Parseval
equiangulares.
Proposición 5.9. Si Q es la matriz de signatura de un (m, d)-marco Parseval equiangu-
lar, entonces
Q2 = (m − 1)I + µm,d Q
con s
m−1
µm,d = (m − 2d) .
d(m − d)
Si, además Q es la matriz de signatura de un (m, d)-marco Parseval equiangular real,
entonces µm,d es un entero.
Demostración. Por (5.1),
s
m−1 d
Q=m (G − Im ).
d(m − d) m
Usando esta expresión para Q y que G2 = G se obtiene la expresión para Q2 .
Cuando el marco es real las entradas de Q son ±1 y las de Q2 son números enteros, de
donde µm,d es un entero. 
El que µm,d deba ser un entero descarta la posibilidad de la existencia de marcos Parseval
equiangulares reales para varios valores de (m, d). Por ejemplo, usando√
esto podemos ver
2
que no existen (7, 3)-marcos Parseval equiangulares reales (µ7,3 = 2 ). Más adelante se
verá como construir (6, 3)-marcos Parseval equiangulares reales (µ6,3 = 0).
Ahora probaremos el recı́proco de esta proposición.
Teorema 5.10. Sea Q una matriz de orden m autoadjunta tal que Q(k, k) = 0 para todo
k y |Q(k, k 0 )| = 1 para todo k 6= k 0 . Entonces son equivalentes:
1. Q es la matriz de signatura de un (m, d)-marco Parseval equiangular,
24 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

2. Q2 = (m − 1)I + µQ para cierto número real µ,


3. Q tiene exactamente dos autovalores, ρ1 ≥ ρ2 .
Cuando cualquiera de estas condiciones equivalentes se cumple entonces los parámetros
d, µ, ρ1 , ρ2 están relacionados por la ecuación dada en la Proposition 5.9, y por las ecua-
ciones
µ = ρ1 + ρ2 , 1 − ρ1 ρ2 = m,
µm/2 −mρ2
d = m/2 − p = .
4(m − 1) + µ2 ρ1 − ρ2
En particular, las soluciones de estas ecuaciones pueden existir para números reales tales
que la fórmula para d es un entero.
Demostración. (1) ⇒ (2). Proposición 5.9.
(2) ⇒ (1). Debemos ver que Q conduce a una proyección ortogonal, es decir, que existen
números reales a, c tales que la matriz autoadjunta P = aI + cQ cumple P 2 = P . Pues
en ese caso, por la Proposición 5.6, P es la matriz de Gram de un marco Parseval. Los
marcos Parseval asociados se obtienen mediante la descomposición espectral de P .
Ahora bien, por (2), P 2 = a2 I + 2acQ + c2 Q2 = a2 I + 2acQ + c2 ((m − 1)I + µQ) =
(a + c2 (m − 1))I + (2ac + c2 µ)Q.
2

De modo que, P 2 = P si
a2 + c2 (m − 1) = a y 2ac + c2 µ = c.
Resolviendo este sistema de ecuaciones resulta,
µ
2a = 1 − p
4(m − 1) + µ2
y
1
c2 = .
4(m − 1) + µ2
Entonces con estos valores de a, c la matriz autoadjunta P = aI + cQ cumple P 2 = P .
(2) ⇒ (3). Sea U unitaria formada con los autovectores de Q y D diagonal con los
autovalores de Q en su diagonal tales que Q = U DU ∗ . Por (2),
U D2 U ∗ = (m − 1)U IU ∗ + µU DU ∗ ,
de donde, multiplicando a izquierda por U ∗ y a derecha por U se obtiene,
D2 − µD − (m − 1)I = 0,
es decir,
D(k, k)2 − µD(k, k) − (m − 1) = 0 para todo k.
Las entradas de la diagonal de D satisfacen la ecuación cuadrática x2 − µx − (m − 1) = 0
que tiene a lo sumo dos raı́ces distintas. Por lo tanto, D tiene a lo sumo dos entradas
distintas, que son los autovalores de Q.
(3) ⇒ (2). Nuevamente sea U unitaria formada con los autovectores de Q y D diagonal
con los autovalores de Q en su diagonal tales que Q = U DU ∗ . Notar que si se cumple (3)
D(k, k) ∈ {ρ1 , ρ2 } para todo k.
MARCOS FINITOS 25

Si D(k, k) = ρ1 , (ρ1 +ρ2 )D(k, k)−ρ1 ρ2 = ρ21 = D(k, k)2 . Si D(k, k) = ρ2 , (ρ1 +ρ2 )D(k, k)−
ρ1 ρ2 = ρ22 = D(k, k)2 . Ası́,
D2 = (ρ1 + ρ2 )D − (ρ1 ρ2 )I,
de donde, multiplicando a izquierda por U y a derecha por U ∗ , queda
(5.2) Q2 = (ρ1 + ρ2 )Q − (ρ1 ρ2 )I.
Además sabemos por la Proposición 5.9, que
s
m−1
Q2 = (m − 1)I + (m − 2d) Q.
d(m − d)
De aquı́ se desprende que
s
m−1
µ = ρ1 + ρ2 = (m − 2d)
d(m − d)
y
m − 1 = −ρ1 ρ2 .
De esto se deducen las igualdades que cumple d.

Nota 5.11. El teorema anterior hace posible construir marcos Parseval equiangulares. Da-
da Q que cumple con cualquiera de las condiciones (1)-(3) (y entonces todas) del teorema
anterior, se considera G dada por (5.1). Luego se hace uso del teorema de la descom-
posición espectral o de las columnas de G para obtener un marco Parseval equiangular
asociado a G tal como se describió en la sección 5.2.2.
Nota 5.12. Si Q es una matriz de signatura para un (m, d)-marco Parseval equiangular
entonces −Q es también una matriz de signatura para un (m, d0 )-marco Parseval equian-
gular. Los autovalores de −Q son −ρ2 ≤ −ρ1 , de donde por el Teorema 5.10,
µ0 = −ρ1 + (−ρ2 ) = −(ρ1 + ρ2 ) = −µ
y
−m(−ρ1 ) −mρ2
d0 = =m− = m − d.
−ρ2 − (−ρ1 ) ρ1 − ρ2
De (5.1), si G0 es la proyección ortogonal correspondiente a −Q, entonces
r
0 m−d 1 (m − d)d
G = Im + (−Q) = I − G
m m m−1
donde G es la proyección ortogonal correspondiente a Q. Notar que I − G es la proyección
ortogonal sobre R(G)⊥ .
La observación anterior y [21, Teorema 2.3], tienen como consecuencia las siguientes
cotas.
Proposición 5.13. Si existe un (m, d)-marco Parseval equiangular, entonces en el caso
complejo m ≤ mı́n{d2 , (m − d)2 } y en el caso real m ≤ mı́n{d(d + 1)/2, (m − d)(m − d +
1)/2}.
26 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

Las desigualdades de la proposición anterior descartan la existencia de marcos Parseval


equiangulares para varios pares (m, d). En particular no existen (5, 3)-marcos Parseval
equiangulares reales o complejos.
A continuación se presentan algunas matrices de signatura que pueden usarse para
construir marcos Parseval equiangulares.

Ejemplo 5.14 (El caso de codimensión 1). Sea J la matriz de m × m cuyas entradas son
todas 1. Entonces Q = J−I satisface Q2 = J 2 −2J+I = (m−2)J+I = (m−1)I+(m−2)Q.
Por las fórmulas de arriba µ = m − 2, d = 1 (los autovalores de Q son m − 1 y −1), y se
obtiene entonces un marco Parseval equiangular para el espacio bastante poco interesante
K1 .
Sin embargo, para la matriz de signatura −Q = I − J se tiene µ = 2 − m, d = m − 1.
El marco que se obtiene se describe en detalle en [8]. De paso, esto muestra que para cada
d existe un (d + 1, d)-marco Parseval equiangular.
Por ejemplo, para m = 4, d = 3 se tiene
 
0 −1 −1 −1
 −1 0 −1 −1 
Q=I −J =
 −1 −1 0 −1 

−1 −1 −1 0

 3 1 1 1

r 4
− 12 − 12 − 12
d 1 d(m − d) 3 1  −1 3 1
− 12 1 
− 12
G= Im + Q= I+ Q= 12 4 
m m m−1 4 12  −1 1
− 12 3
− 1 
12 4 12
1 1 1 3
− 12 − 12 − 12 4

Ejemplo 5.15 (Matrices de Conferencia). Una matriz C real de m × m con C(i, i) = 0 y


C(i, j) = ±1 para i 6= j se llama una matriz de conferencia [12] si C ∗ C = (m − 1)I. El
nombre (matriz de conferencia) proviene de una aplicación de estas matrices a los circuitos
telefónicos ideada por V. Belevitch (1950) (ver [4]), quien estudió las llamadas redes
ideales no-disipativas, consistentes en transformaciones usadas para establecer conexiones
de redes de conferencias telefónicas.
Si C simétrica, entonces, por el Teorema 5.10, es una matriz de signatura de un marco
Parseval equiangular con µ = 0 y d = m/2. De manera que, en particular tales matrices
deben ser de tamaño par y producen (2d, d)-marcos Parseval equiangulares.
La idea de usar matrices de conferencia para construir marcos de este tipo se origina
en [21].
El menor tamaño para una matriz de conferencia simétrica es 6, siendo un ejemplo la
matriz
0 1 1 1 1 1
 
 1 0 −1 −1 1 1 
 1 −1 0 1 −1 1 
 
 1 −1 1 0 1 −1 
 
 1 1 −1 1 0 −1 
1 1 1 −1 −1 0
MARCOS FINITOS 27

que produce un (6, 3)-marco real Parseval equiangular a partir de


√ √ √ √ √
5 5 5 5 5
 1 
√2 10 10
√ 10
√ 10
√ 10

5
r r

 10

1
2√
− 105 −√105 10

5
10

5 

5
d 1 d(m − d) 1 1 1 − √105 1 5
−√105 5
 
G= Im + Q = I+ Q=
 10
√ √2 10 10
√ .

5
m m m−1 2 2 5 
 10

−√105 10

5 1
√2
5
10
− √105 

5 5

10
√ 10

−√105 10

5 1
2√
− 105 
5 5 5
10 10 10
− 105 − 105 1
2

Ejemplo 5.16 (Matrices de Hadamard). Una matriz real H de m × m se llama una matriz
de Hadamard [12] si H(i, j) = ±1 y H ∗ H = mI. Si H es una matriz de Hadamard
simétrica y además H(i, i) = 1 para todo i, entonces Q = H − I cumple
Q2 = H 2 − 2H + I = mI − H + I = (m − 1)I − 2(H − I) = (m − 1)I − 2Q.
µm/2
Esto implica que Q es una matriz de signatura con µ = −2 y d = m/2 − √ =
4(m−1)+µ2

m+ m
2
.
La fórmula para d muestra que tales matrices de signatura pueden existir sólo cuando
m es un cuadrado perfecto.
√ √
Haciendo m = n2 , se obtiene n2 + n − 2d = 0, de donde m = n = 1± 21+8d . Ası́ marcos
Parseval equiangulares pueden obtenerse de esta forma sólo si 8d + 1 es un cuadrado
perfecto. √
Similarmente, −Q = I −H es una matriz de signatura para µ = 2 y d1 = m−d = m−2 m
lo que implica nuevamente que 8d1 + 1 es un cuadrado perfecto.
Ası́ para construir un (m, d)-marco Parseval equiangular de esta forma, m, 8d + 1 y
8(m − d) + 1 deben ser cuadrados perfectos.
Un ejemplo de matriz de Hadamard es
 
1 −1 −1 −1
 −1 1 −1 −1 
 −1 −1 1 −1  .
 
−1 −1 −1 1
En este caso,  
0 −1 −1 −1
 −1 0 −1 −1 
Q=H −I =
 −1 −1 0 −1 

−1 −1 −1 0
y  
3
r 4
− 14 − 14 − 14
d 1 d(m − d) 3 1  −1 3
− 41 − 14 
G= Im + Q = Im + Q =  4 4 .
m m m−1 4 4  −1 − 4 34 − 14 
1
4
− 41 − 14 − 14 43
5.3. Construcción de marcos usando algoritmos. Varios algoritmos se han pro-
puesto para construir marcos. En esta sección presentaremos uno de ellos, el Tetris Es-
pectral para construir marcos ajustados de norma 1. Este método apareció por primera
vez en [6], y desde entonces ha sido estudiado y generalizado [3, 4, 7]. La idea de esta
28 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

sección es mostrar mediante un ejemplo lo sencillo que es, pero sin entrar en detalles de
implementación o en la fundamentación teórica. Para más detalles, se puede consultar los
artı́culos antes mencionados y las referencias que en ellos se encuentran.
El objetivo es construir la matriz de sı́ntesis
f11 . . . f1m
 

T =  ... . . . .. 
.
fd1 . . . fdm
tal que
1. T tiene columnas de norma 1.
2. T tiene filas ortogonales, es decir, S = T T ∗ es una matriz diagonal.
3. T tiene filas de igual norma, es decir, S = T T ∗ es un múltiplo de la identidad.
El método del Tetris Espectral construye tal T iterativamente. En cada iteración asegura
que las matrices que conducen a T van a satisfacer exactamente (1) y (2), y se van
aproximando a cumplir (3).
Presentamos a continuación, mediante un ejemplo, la versión original de [6].
Ejemplo 5.17. Queremos construir un marco ajustado de norma 1 con 11 elementos para
R4 . En este caso la cota de marco es 11
4
.
La matriz T va a ser de q orden 4 × 11. Debe tener las columnas de norma 1 y las
filas ortogonales de norma 114
. Comenzamos con una matriz arbitraria que tiene las dos
primeras columnas iguales al elemento δ1 de la base estándar:
 
1 1 ? ? ? ? ? ? ? ? ?
 0 0 ? ? ? ? ? ? ? ? ? 
 0 0 ? ? ? ? ? ? ? ? ? .
T = 
0 0 ? ? ? ? ? ? ? ? ?
Si completamos la primer fila con ceros, tendrı́amos que la suma de los cuadrados de sus
entradas es 2 < 114
. De modo tal que no nos sirve. Por otro lado, si repetimos δ1 en la
tercer columna, la suma de los cuadrados de las entradas de la primer fila serı́a 3 > 11 4
.
Y tampoco sirve. La idea es completar la primer fila de modo tal que los cuadrados de
las nuevas entradas sumen 11 4
− 2 = 34 sin comprometer la ortogonalidad de las filas ni la
normalidad de las columnas. La idea clave es que para realizar esto, para cada 0 ≤ x ≤ 2,
existe una matriz M (x) de 2 × 2 con filas ortogonales y columnas de norma 1 tal que
M (x)M (x)∗ es una matriz diagonal con entradas {x, 2 − x}. Especı́ficamente tenemos,
 √ √   
1 √ x √ x ∗ x 0
M (x) = √ , M (x)M (x) =
2 2−x − 2−x 0 2−x
Ahora elegimos x de modo tal que que los cuadrados de las entradas de la primer fila
de M sumen 43 , es decir, elegimos x = 43 . La matriz M ( 34 ) se incorpora a T :
 √ √ 
1 1 √38 √38 0 0 0 0 0 0 0
√ √
 0 0 √3 − √3 ? ? ? ? ? ? ? 
 
T = 8 8 
 0 0 0 0 ? ? ? ? ? ? ? 
0 0 0 0 ? ? ? ? ? ? ?
MARCOS FINITOS 29

Los cuadrados de las entradas conocidas de la segunda fila suman 45 , por lo tanto hay
que introducir entradas cuyos cuadrados sumen 11 4
− 45 = 64 = 1 + 24 . Completamos la
quinta columna con δ2 mientras que la sexta y la séptima se obtienen de M ( 24 ):
√ √
1 1 √38 √38 0 0
 
0 0 0 0 0
√ √ √ √
 0 0 √38 − √38 1 √28 √28 0 0 0 0 
 
T = √ √ 
 0 0 0 0 0 √68 − √68 ? ? ? ? 
0 0 0 0 0 0 0 ? ? ? ?
Los cuadrados de las entradas conocidas de la tercer fila suman 46 por lo tanto hay que
introducir entradas cuyos cuadrados sumen 11 4
− 64 = 54 = 1 + 14 . Completamos la octava
columna con δ3 , la novena y la décima se obtienen de M ( 41 ), y la última con δ4 :
 √ √ 
1 1 √38 √38 0 0 0 0 0 0 0
√ √ √ √
 0 0 √3 − √3 1 √2 √2 0 0
 
8 8
0 0 
T = √8 √8 
 0 0 0 0 0 √6 − √6 1 √1 √1 0 
 8 8 √8 √8 
0 0 0 0 0 0 0 0 √78 − √78 1
Esta T cumple todo lo que se querı́a.
Notemos que las columnas f1 = f2 = δ1 , f5 = δ2 , f8 = δ3 , f11 = δ4 se construyen de a
una por vez. En cambio, las restantes columnas se contruyen de a pares f3 y f4 , f6 y f7 ,
f9 y f10 usando M (x).
Concluimos este ejemplo remarcando algunos aspectos que resultan útiles:
1. Los vectores que forman el marco son extremadamente ralos (contienen muchos
ceros). De hecho se puede demostrar que el método del Tetris Espectral construye
marcos ajustados de norma 1 que son en cierto sentido óptimos en cuanto a ser
ralos [7].
2. Muchos pares de vectores tienen soporte mutuamente disjunto y por lo tanto son
ortogonales. En particular, tenemos que fk y fk0 son ortogonales siempre que k−k 0 ≥
5. Esto se ha explotado en la construcción de marcos de fusión, que son un concepto
más general que los marcos [6].

6. Comentarios finales
En estas notas se han presentado algunos resultados de la teorı́a de los marcos finitos.
Para una referencia sobre el estado del arte de esta área puede consultarse [9].

Agradecimientos: Al Dr. Hugo Aimar, presidente de la Unión Matemática Argentina,


por habernos invitado a dictar un curso en la Reunión Anual de la UMA, San Luis 2014.

Referencias
1. Belevitch V., Theorem of 2n-terminal networks with application to conference telephony, Electr.
Commun. 26: 231-244, 1950.
2. Benedetto J. J., Fickus M., Finite normalized tight frames, Adv. Comput. Math. 18(2-5), 357-385,
2003.
3. Calderbank, R., Casazza, P.G., Heinecke, A., Kutyniok, G., Pezeshki, A.: Sparse fusion frames: exis-
tence and construction. Adv. Comput. Math. 35, 1-31, 2011.
30 SIGRID B. HEINEKEN AND PATRICIA M. MORILLAS

4. Casazza, P.G., Fickus, M., Heinecke, A., Wang, Y., Zhou, Z.: Spectral Tetris fusion frame construc-
tions. J. Fourier Anal. Appl. 18(4), 828-851, 2012.
5. Casazza P.G., Fickus M., Kovacevic J., Leon M. T., Tremain J. C.. A physical interpretation of
tight frames. In: Harmonic Analysis and Applications. Appl. Numer. Harmon. Anal., pp. 51-76, ,
Birkhäuser Boston, Boston, 2006.
6. Casazza, P.G., Fickus,M., Mixon, D.G.,Wang, Y., Zhou, Z.. Constructing tight fusion frames. Appl.
Comp. Harm. Anal., 30:175-187, 2011.
7. Casazza, P.G., Heinecke, A., Krahmer, F., Kutyniok, G.: Optimally sparse frames. IEEE Trans. Inf.
Theory 57, 7279-7287, 2011.
8. Casazza P. G., Kovacevic J., Uniform tight frames with erasures. Adv. Comp. Math. 18(2-4), 387-430,
2003.
9. Casazza P. G., Kutyniok G. Eds., Finite Frames. Theory and Applications, Birkhäuser, Boston, 2012.
10. Chien T., Waldron S.. A classification of the harmonic frames up to unitary equivalence. Appl. Comp.
Harm. Anal., 30:307-318, 2011.
11. Christensen O., An introduction to frames and Riesz bases, Birkhäuser Boston, 2003.
12. Conway J.H., Sloane N.J.A., Sphere Packings, Lattices and Groups, 3rd Edition, Grundlehren der
mathematischen Wissenschaften: 290, Springer-Verlag, 1999.
13. Daubechies I., Grossmann A., Meyer Y., Painless nonorthogonal expansions, J. Math. Phys. 27(5),
1271-1283, 1986.
14. Davis P. H., Circulant Matrices, Wiley-Interscience, New York, 1979.
15. Duffin R. J., Schaeffer A. C., A class of nonharmonic Fourier series, Trans. Amer. Math. Soc. 72,
341-366, 1952.
16. Goyal V. K., Kovačević J., and Kelner J. A., Quantized frame expansions with erasures, Appl. Com-
put. Harmon. Anal. 10(3), 203-233, 2001.
17. Holmes, R.B., Paulsen, V.I., Optimal frames for erasures, Linear Algebra Appl. 377, 31-51, 2004.
18. Horn R. A., Johnson C. R., Matrix Analysis, Cambridge University Press, New York, 1985.
19. Kovačević J., Chebira A., Life beyond bases: The advent of frames (Part I), IEEE Signal Process.
Mag., 24(4), pp. 86-104, 2007.
20. Püschel M., Kovačević J., Real, tight frames with maximal robustness to erasures, IEEE Proceedings
of the Data Compression Conference, 63-72, 2005.
21. Strohmer T., Heath R., Grassmannian frames with applications to coding and communication, Appl.
Comp. Harm. Anal., 14:257-275, 2004.
22. Vale R., Waldron S.. Tight frames and their symmetries. Constr. Approx., 21:83-112, 2005.
23. Waldron S., Hay N.. On computing all harmonic frames of n vectors in Cd . Appl. Comp. Harm. Anal.,
21:168-181, 2006.

Departamento de Matemática, Facultad de Ciencias Exactas y Naturales, Universidad


de Buenos Aires, Pabellón I, Ciudad Universitaria, C1428EGA C.A.B.A., Argentina, y
CONICET, Argentina.
E-mail address: sheinek@dm.uba.ar

Departamento de Matemática, FCFMyN, UNSL. Instituto de Matemática Aplicada San


Luis, UNSL-CONICET, Ejército de los Andes 950, 5700 San Luis, Argentina
E-mail address: morillas@unsl.edu.ar