Está en la página 1de 13

Compresion fractal y grupos autosimilares

Diego Villamizar
26 de noviembre de 2012
Resumen
Como hace rato no publico nada en RIC porque soy jodidamente
conchudo, este res umen de cositas varias pretende ser mi aporte por un
tiempo mientras preparo cada tema por separado haciendo menci on a to-
da la teora que hay detr as de cada uno. O sea, mientras completo lo que
hay y, si llega a funcionar, el puente entre las teoras que pongo. El que
este desparchado tiene todo el derecho a leerlo a criticarme, echarme la
madre y dem as.
1. Introduccion
En informatica siempre se busca, por la nitud de los recursos, optimizar el
tiempo de c omputo o el espacio de almacenamiento de alguna forma. La com-
presi on es la forma de optimizar espacio gastando tiempo. La idea de esta es
usar algoritmos que permitan expresar un texto, una im agen, un archivo de una
forma que ocupe menos espacio y en la cual se gaste poco tiempo y se gaste
muy poca calidad del archivo original. Se han aplicado una variedad inmensa
de tecnicas en la compresion de datos y todava queda mucho por hacer y tipos
de datos para comprimir.
Las matematicas han jugado un importante papel en la teora de la compre-
si on, desde la teora de la informacion establecida por Shannon, pasando por el
analisis funcional creando herramientas de transformaciones hasta la teora de
automatas que es, hasta ahora, lo mas avanzado en compresion.
2. Compresi on de Datos
2.1. Informacion y entropa
Primero tendremos que denir que se entiende por informacion y alguna
forma de medir esa informacion.
Denicion 1. Sea S = x
1
, x
2
, ..., x
n
un espacio de eventos(alfabeto) y sea
P = p
1
, p
2
, ..., p
n
la probabilidad de ocurrencia de ese evento en una pal-
abra(un conjunto de eventos ordenados), donde p(x
i
) = p
i
entonces a I(x
i
) =
log
k
(p
i
) se le conoce como la informaci on asociada a el evento x
i
1
Denida la informacion asociada a un evento, lo que queremos es establecer
es alguna forma de medir la predicibilidad de la informacion, o sea, saber si la
informacion es predecible bajo alg un tipo de inferencia o no, a esa forma de
entender la informacion se le conoce como entropa de Shannon.
Denicion 2. Se dene como entropa al valor esperado del ndice de informa-
cion en la palabra, osea
E(P) =

xiP
p
i
I(x
i
) =

xiP
p
i
(log
k
(p
i
)) =

xiP
p
i
log
k
(p
i
)
Por que se dene la informacion? La informacion es con lo que se trabaja en
compresion de datos, es con lo que se trabaja en informatica. As que siempre
es un buen inicio para establecer las bases de lo que se hablar a ahora.
2.2. Compresion como codigo
La teora de Codigos es un area de las matematicas aplicadas que tuvo
muchsima importancia en la constituci on de las redes de comunicacion como lo
son el telefono, Internet y la televisi on. Sigue siendo importantsima para buscar
mejores y mas optimas formas de comunicarse, por ejemplo, bajar informacion
de satelites como fotografas y datos de los sensores que operan en ellos.
Denicion 3. Un codigo se dene como una funcion inyectiva que va de un
evento a otro
: S C
Basicamente lo que busca un c odigo es otra forma de identicar algo, digamos
un c odigo de el n umero 5 es 101 que es su representacion binaria. Sabemos que
la funci on de cambio de base es inyectiva y va de conjunto de eventos(palabras
con dgitos) a otro conjunto de eventos(palabras con elementos de otra base
numerica).
Ahora, esto por que tiene que ver con la compresion de datos? Pues es muy
simple, la idea de comprimir datos es buscar un c odigo que total o parcialmente
discrimine la informacion que queremos comprimir minimizando su longitud. O
sea, lo que queremos es encontrar un c odigo que minimice

xiP
p
i
[(x
i
)[,
siendo p
i
la probabilidad asociada al evento x
i
.
Bien, ahora lo que queremos es encontrar alg un tipo de caracterstica de los
eventos que nos permita encontrar un c odigo as.
Denicion 4. Denotemos a C = c
1
, c
2
, . . . , c
m
como el codominio de un
codigo , Un codigo cumple la condicion de prejo si y solo si c
n
C, c
k

C tales que c
n
= c
k
s
Proposici on 1. S = x
1
, x
2
, ..., x
n
: S C t.q C 0, 1

que cumple
la propiedad del prejo y es un codigo optimo, osea que podemos minimizar

xiP
p
i
[(x
i
)] que cumpla:
2
Si p
i
< p
j
entonces L
j
L
i
Si p
i
= mnp
j
[x
j
P y p
k
= mnp
j
[x
j
P x
j
,= x
i
entonces [(x
i
)[ =
[(x
k
)[
Sean c
i
, c
j
los dos codigos mas largos entonces los codigos son iguales excepto
por el ultimo smbolo.
Demostracion. La prueba puede encontrarse en [1].
2.3. C odigo de Human
La unidad que se maneja en la informacion en los computadores actuales es
un byte que equivale a 8 bits, o sea 256 smbolos distintos.Luego, en un com-
putador la codicacion de una palabra como abc, requiere 8 3 = 24 bits para
poder ser guardada o procesada.
La idea detras del teorema de Human es lo que se conoce como el c odi-
go de Human que funciona de la siguiente forma: se toma una cadena x =
x
1
x
2
x
3
. . . x
n
donde x
n
0, 1, 2, . . . , 255 ahora por cada smbolo distinto en
x, se saca la frecuencia que tiene el smbolo en x, osea
P
xi
=
|{xjSim(x):xj=xi}|
|x|
donde Sim(x) es el conjunto como tal de smbolos. Se
ordenan las frecuencias de smbolos con el orden usual y las dos probabilidades
mas bajas se funden en una sola creando un nuevo smbolo y esto se hace tantas
veces como la cantidad de smbolos distintos que hay en la cadena x.
Ahora, la idea detras de el c odigo de human es crear un arbol binario en el
cual el camino de la raz al smbolo x
i
sea el c odigo c
i
. As que el fundimiento
de las probabilidades signica crear un nuevo nodo que tenga como hijos a los
dos previos. As, los smbolos con menor probabilidad tendran los caminos mas
largos y los de menos, los mas cortos.
La justicacion para el paso de fundirdos smbolos es la siguiente:
Para un conjunto de eventos(una palabra) S = S
1
, S
2
, . . . , S
n
se dene otro
conjunto de eventos S

= S

1
, S

2
, . . . , S

n2
y se les asocia una frecuencia de la
siguiente forma P(S

i
) = P(S
i
) Si i < n 1 pero, P(S
n2
) = P(S
n1
) +P(S
n
)
Proposici on 2. Si el codigo S es optimo, entonces S es optimo.
Un ejemplo para ver c omo funciona el c odigo de Human sera:
Dada x = abrakadabra, calculamos las frecuencias y las ordenamos. P(a) =
5
11
P(b) =
2
11
P(r) =
2
11
P(k) =
1
11
P(d) =
1
11
luego cojemos los dos ultimos smbolos y los unimos. luego, creamos un nuevo
nodo, al que llamaremos k, d tal que P(k, d) =
2
11
se hace as varias veces
y el resultado es el siguiente
P(r, k, d, b, a) = 1
3

.
0
.
0
r
0
.
1
k
0
d
1
b
1
a
1
Luego b asicamente los c odigos asociados quedan como:
a = 1
b = 01
d = 0011
k = 0010
r = 000
y eso cumple con todas las propiedades de un c odigo optimo del teorema de
Human. As la palabra x queda codicada como 10100010010100111010001
que tiene longitud 23 que es claramente una compresion con la codicacion
est andar en binario que sera de longitud 88.
3. Compresi on Fractal
Hay muchsimas formas de abordar la compresion, en las secciones anteriores
hicimos un brevsimo repaso de lo que es la compresion clasica vista desde la
teora de c odigos, ahora la idea es ver la compresion desde otra perspectiva, una
un poco mas nueva y con resultados mucho mas interesantes.
Como ya denimos lo que es compresion, pues ahora toca denir lo que es un
fractal de una forma muy rapida.
Denicion 5. Un fractal es un objeto que cumple ciertas condiciones, pero que
ninguna completa sus caractersticas; se suele denir, por comodidad, como un
objeto tan complicado que no puede explicarse con la geometra usual.
Una de las propiedades mas importantes para denir un fractal es que su
dimensi on de Hausdor es mayor a su dimensi on topologica.
D
H
> D
T
Siendo
D
H
= nf
sR
+
H
s
(F) = 0
con H
s
(F) = lm
0
H
s

(F)
y H
s

(F) =nf

iM
[U
i
[
s
: F
iM
U
i
[U
i
[ <
4
En particular, hay una forma muy especca de trabajar con fractales y es la
primera forma con la que se pudo hablar de compresion fractal. Los Sistemas
de Funciones Iteradas.
Denicion 6. Sea X un espacio metrico completo, un SIF es un conjunto nito
de funciones I = f
i
: X X : x, y Xs Rs < 1 (f
i
(x), f
i
(y))
s (x, y)
Eso quiere decir que las funciones son contractivas en ese espacio metrico.
Como las funciones son contractivas y es sobre un espacio metrico completo,
por el teorema de punto jo de Banach se tiene que las funciones aceptan un
unico punto jo.

Esto Hutchinson lo trabajo y lo extendio(no a elementos del
espacio metrico si no a subconjuntos del espacio metrico) para decir que: S =

i
f
i
(S).
Denicion 7. Un PIFS es un SIF pero el dominio esta particionado de alguna
forma.
Bien, y esto c omo se usa en compresion? Pues lo que queremos es encontrar
un PIFS tal que nuestra im agen sea el atractor de ese sistema(particionado),
entonces tambien quisieramos poder particionar la im agen, de lo que salen bas-
tantes tecnicas(explicare una de ellas despues).
Consideremos el espacio metrico (R
n
, d

)
con d

(x, y) = max
1in
[x
i
y
i
[
sea
0
R
n
el vector a codicar.
Deberamos encontrar W L(R
n
) tal que:
s [0, 1), d

(W(x), W(y)) sd

(x, y)
Como W es contractiva en un espacio metrico, existe un unico
W
R
n
tal que
W(
W
) =
W
, entonces d

(
0
,
W
) = mn
V L(R
n
)
d

(
0
,
V
)
Osea, lo que queremos es encontrar es una funci on de R
n
en R
n
tal que el punto
jo de esa funci on sea muy cercano a
0
Listo pues sera buensimo encontrar la funci on y ya porque simplemente co-
mo el vector a comprimir es casi el punto jo, solo sera iterarla muchas veces
deniendo un error peque no. El problema es que encontrar una funci on que haga
eso de todas las que hay en R
nR
n
es computacionalmente muy difcil, entonces
el problema tiene que restringirse un poco.
Se considerar an sistemas de funciones
w
i
: R
D
R
B
x w
i
(x) = a
i
(x) +b
i
I
B
.
donde D es el tama no inicial del vector a comprimir y B < D es el tama no del
vector que resulta al aplicar w
i
. Ademas [a
i
[ < 1
As al separar el vector en varios, usaramos lo propuesto por Hutchinson W() =
5

i
w
i
(
i
)
Algoritmo de Codicacion
Ahora que tenemos una peque na idea de que es lo que queremos hacer,
el algoritmo basicamente sera dividir el vector a codicar en M
n
vectores de
longitud D y codicar cada uno con w
i
luego, al nalizar, se tendra un vector
de longitud M
n
B < M
n
D = n luego tendramos una compresion.
Bueno y c omo hacemos para optimizar el minimizar la distancia de el punto a
codicar y el punto jo? El siguiente teorema nos da la solucion
Proposici on 3. Si es el punto jo de f una funcion contractiva con par ametro
s en un espacio metrico completo, entonces d

(x, )
1
1s
d

(x, f(x))
Demostracion. d

(x, ) d

(x, f(x)) + d

(f(x), ), eso por desigualdad tri-


angular.
Luego, aplic andola n veces sera.
d

(x, )
n

j=1
d

(f
j1
(x), f
j
(x)) +d

(f
n
(x), )
Como f es contractiva con par ametro s
d

(x, )
n

j=1
s
j1
d

(x, f(x))+d

(f
n
(x), ) = d

(x, f(x))
n

j=1
s
j1
+d

(f
n
(x), )
y haciendo el lmite cuando n se tiene d

(x, ) d

(x, f(x))

j=1
s
j1
+
d

(f

(x), ) =
d

(x, f(x))
1 s
+d

(f

(x), ) =
d

(x, f(x))
1 s
Osea que basta buscar la funci on que minimice la distancia del vector
0
a
su im agen.
Bueno, uno empieza deniendo la contraccion, como ejemplo eligiremos la mas
sencilla (d
i
) =
d2i+d2i1
2
, la media entre todo par de vectores.Denida esta
contraccion el siguiente algoritmo halla la funci on.
denir B.
Denir M
R
=
n
B
, donde
0
R
n
Particionar
0
en bloques de tama no M
R
(Bloques Rango r
i
)(sin sobreposi-
cion)
Particionar
0
en los bloques Dominio d
i
Iterar sobre los bloques Rango y hallar la tupla (a
i
, b
i
, m
i
) tal que minimice
d

(r
i
, a
i
(d
mi
) +b
i
I
B
)
Algoritmo de Decodicacion
Pues el algoritmo de decodicacion por todo lo que hicimos arriba sera sim-
plemente tomar un punto inicial e iterar la funci on hasta lograr encontrar el
6
punto jo de la funci on.
4. Compresi on con WFA
Bien, ya entrados un poco en lo que es la compresion fractal, veremos un
poco su mas sosticada arma que son los WFA. Para poder trabajar sobre
ellos, lo primero que tenemos que hacer es deni una estructura de datos, como
promet en la secci on 2.
4.1. Quadtrees
Denicion 8. Un Quadtree Q es una estructura de datos que permite manejar
imagenes partiendolas en 4 cada vez. Dada una Imagen I de dimensiones 2
n
2
n
.
Q, a su vez, se puede ver como un arbol Q = (E, L) Donde E =
n

i=0
0, 1, 2, 3
i

0, 1, 2, 3

Y L = (w, x) E
2
: x = wa, a 0, 1, 2, 3 E
2
Ese arbol dene la trayectorias de las partes de la im agen usualmente vistas
como
0 3
1 2
As como vimos antes que una im agen queda determinada por un vector, usando
un Quadtree la im agen queda totalmente determinada por una funci on f : E
R, que dado un camino en el Quadtree devuelve el valor de su pixel.
4.2. Imagenes Escala de Grises
Otra forma muy sencilla y practica de ver una im agen es asociarle una matriz.
Sea I una im agen de dimensi on n m, entonces se le asocia A(I) M(R)
nm
una matriz de entradas reales, donde en la entrada a
ij
est a la escala de grises
que pertenece a el pixel i, j de la im agen. Usualmente a
ij
[0, 2
k
) N
Denicion 9. Dada una imagen I (2
n
2
n
) y su respectivo Quadtree Q
Se entiende por Direccion de una subimagen(2
d
2
d
, d n) de I a la cadena
x 0, 1, 2, 3

que dene el cuadro donde esta la subimagen de I.


Se entiende por Profundidad a el n umero natural d.
Despues de esas deniciones es bueno y sera importante notar que las fun-
ciones que denen las im agenes sobre caminos por los Quadtree son un espacio
vectorial con la suma usual de funciones.
7
4.3. Aut omatas Finitos Ponderados
Ahora, deniremos la herramienta mas importante
Denicion 10. Un Automata nito ponderado o, por sus siglas en ingles, WFA
A es una quntupla A = (Q, , L, I, F)
Donde
Q = q
0
, q
1
, . . . , q
n
es el conjunto de estados.
es el alfabeto
L = L
a
: Q
2
R : a son funciones que dados un smbolo denota los
pesos de los lados del automata.
I : Q R funcion de peso inicial.
F : Q R funcion de peso nal.
De la denicion se puede intuir que las transiciones en el automata est an
dadas por L, donde se tiene que si hay alg un camino de un par de estados p,q
bajo un smbolo a (p, a, q) est a denida si y solo si L
a
(p, q) ,= 0
Ademas de esto, es c omodo denotar las funciones de transicion como matrices(de
adyacencia) y las funciones de inicio y terminaci on como vectores. Todos esos
objetos sobre R
denotaremos la matriz como A(L
a
) M(R)
|Q||Q|
Bueno, ahora lo que tenemos que hacer es asociarle un n umero a un camino,
una funci on que nos permita cuanticar caminos
Denicion 11. Se le asocia una funcion al automata f
A
:

R denida
como
f
A
(x) = f
A
(x
1
x
2
x
3
. . . x
n
) = IA(L
x1
)A(L
x2
) . . . A(L
xn1
)A(L
xn
)F.
Bien, como la idea es denir los estados de un automata como im agenes para
as poder usarlas y describir la im agen original, se dene una im agen por estado.
Denicion 12. q
i
Q se dene
i
:

R en base a una funcion ,


denida:
() = F
(aw) = A(L
a
)(w) con a
Se dene a
i
como la i-esima componente del vector obtenido por .

i
=< , e
i
>
Ademas, tendriamos
f
A
=< I, >=
n

i=1
I
i

i
De lo que se puede deducir lo siguiente.
Proposici on 4.
i
(aw) =
n

j=1
A(L
a
)
i,j

j
(w)
8
Demostracion.
i
(aw) =< (aw), e
i
>=< A(L
a
)(w), e
i
>=< (a
1
, a
2
, . . . , a
n
), e
i
>
donde a
k
=
n

j=1
(A(L
a
))
k,j

j
(w)
luego
i
(aw) =< (a
1
, a
2
, . . . , a
n
), e
i
>= a
i
=
n

j=1
(A(L
a
))
i,j

j
(w)
De lo anterior podemos deducir algo muy importante y es que f
A
es combi-
nacion lineal de las im agenes denidas por los estados del automata A.
4.4. Aut omatas AP y funciones APF
Denicion 13. Sea f :

R una funcion. Se dice que preserva la me-


dia(APF por sus siglas en ingles) si se tiene que
f(w) =
1
||
||

i=1
f(wa
i
) w

Basicamente lo unico que nos da esa denicion son im agenes cuyo cambio
no es tan drastico, porque en el quadtree al hacer un zoom out.
es
simplemente
la media de sus cuadros internos, as que el cambio al ojo humano es bastante
suave.
Otra cosa que se puede vericar facilmente es que las funciones APF conforman
un subespacio vectorial de las funciones de cadenas de smbolos a R viendo que
la funci on 0 est a y la suma y multiplicacion por escalar se mantiene.
Denicion 14. Sea A = (Q, , L, I, F) un WFA, se dice que es AP si
1
||
||

i=1
A(L
ai
)F =
F
Luego, F es un autovector de
||

i=1
A(L
ai
) con autovector [[
Bien, ahora lo que uno quiere es poder conectar esas dos deniciones, y eso
nos lo permite hacer el siguiente teorema.
Proposici on 5. Sea f :

R una funcion computable por un WFA.


Si el WFA es AP entonces f es APF.
Demostracion. De la hipotesis se tiene que existe A tal que
f(w) = f
A
(w) = I
|w|

j=2
A(L
wj
)F
y pues se tiene que A es AP, luego
1
||
||

i=1
A(L
ai
)F = F
Por lo que reemplazando en f
A
,
9
f
A
(w) = I
|w|

j=1
A(L
wj
)(
1
[[
||

i=1
A(L
ai
)F) =
1
[[
||

i=1
I
|w|

j=1
A(L
wj
)L
ai
F =
1
[[
||

i=1
f
A
(wa
i
).
Luego f es APF.
4.5. Algoritmo de Inferencia
Ahora la idea es que dada una im agen por su funci on denida sobre su
quadtree, queremos encontrar un automata nito ponderado que la genere y
para esto es el algoritmo de inferencia.
De aqu en adelante usaremos una funci on sobre recuadros de la im agen original,
o sea, se denota como f
x
(y) a la funci on evaluada en un subarbol del (Quadtree
o estructura)..en particular f
x
(y) = f(xy) con x

jo.
Input f :

R una APF.
N = 0, i=0,F(q
0
) = f(),(q
0
) = ;
while(i N)
if((c
0
, c
1
, . . . , c
N
) R
N
tal que f
(qi)a
=
N

j=0
c
j
f
(qj)
)
L
a
(q
i
, q
j
) = c
j
para todo j N
else
(q
N+1
) = (q
i
)a,F(q
N+1
) = f((q
i
)a),L
a
(p
i
, p
N+1
) = 1,N = N + 1
i = i + 1
Basicamente el algoritmo hace directamente lo que se quiere que haga, nada
raro, fuerza los estados si es necesario y si no es necesario crear uno y se halla
una combinaci on lineal, simplemente el peso de las transiciones son el coeciente
que se forma de la combinaci on lineal.
El siguiente teorema nos determina una condicion necesaria y suciente para
saber si el algoritmo de inferencia es nito o no. Luego si se puede expresar la
funci on dada como un automata.
Proposici on 6. Sea f :

R una funcion
La funcion puede denirse usando un WFA si y solo si el conjunto de funciones
que determinan sus subcuadros f
u
, u

generan un espacio vectorial de


dimension nita.
Demostracion. Si existe A un automata nito ponderado pues hay un conjunto
de estados Q = (q
0
, q
1
, . . . , q
n
)tales que a cada uno se le asocia una funci on
i
.
Entonces, veamos por induccion sobre la longitud del subcuadro.
para[w[ = 0, w =
f

= f =< I, >=
n

i=0
I
i

i
luego f es combinaci on lineal de las im agenes asociadas a los estados del automa-
ta.
Supongo que para f
w
existen c
0
, c
1
, . . . , c
n
reales tales que f
w
=
n

i=0
c
i

i
Ahora veamos para f
aw
con a
10
f
aw
= (f
w
)
a
= (
n

i=0
I
i

i
)
a
=
n

i=0
I
i
(
i
)
a
=
n

i=0
I
i
(
N

j=0
(L
a
)
i,j

j
)
Luego f
u
: u

es un espacio vectorial con dimensi on d n


Bien, ya dado el algoritmo de codicacion y las condiciones lo unico que
queda es c omo se decodica.
4.6. Algoritmo Decodicacion
Input A = (Q, L, I, F) un WFA

i
() = F
i
q
i
Q
for(i=0;i n,i++)
para q
u
Q, w
i1
, y a

i
(aw) =
n

j=0
(L
a
)
i,j

j
(w)
for(w
n
)
f
A
(w) =< I, (w) >
Bien, ahora que se ha denido c omo comprimir y c omo descomprimir pues solo
queda ver si hay alguna forma de optimizar esto y la respuesta es que s, ademas,
el metodo mas rapido de compresion que se conoce hasta hoy es el uso de WFA
y Wavelets.
4.7. Aproximacion
En la secci on 3 vimos c omo comprimir una im agen con una funci on cuyo
punto jo se aproximaba a la im agen, aca funciona similarmente, lo que se
quiere hacer es dotar de alg un tipo de medida a las funciones y ver que pasa si
se aproxima el automata que lo genera. Por lo general se les ve a las im agenes
como un espacio de Hilbert.
A las im agenes de profundidad d, se les dota con un producto interno como
< , >
d
=

w
d
(w)(w)
Luego se dene una distancia d(, ) = [[ [[
2
d
y el algoritmo lo que buscara es aproximar la im agen por profundidades.
5. Grupos Autosimilares
En la secci on pasada se deniron automatas nitos ponderados, que es una
clase especial de automata, aca lo que se har a es denir totalmente los automatas
y dar los conceptos b asicos para el estudio de los grupos autosimilares que, creo,
es una teora que se puede acoplar bien a la compresion fractal para buscar
formas mejores de comprimir im agenes.
11
5.1. Aut omatas
Denicion 15. Un automata es un objeto formado por 5 elementos (Q, , , , q
0
)
donde Q es un conjunto nito llamado el conjunto de estados, es el alfabeto
sobre el que el automata se mueve, : Q Q es la funcion de transici on
entre estados, : Q es la funcion de evaluacion y q
0
Q se le llama
estado inicial del automata.
Denicion 16. Un automata se dice reversible si q Q (q, x) : es
una biyeccion. O sea, se puede denir
q
como una permutacion en
Una cosa que no se dijo antes cuando se dieron las nociones b asicas de los
WFA es que los automatas se pueden ver como grafos para trabajar mas facil,
al irse a los libros de referencia se vera c omo los ejemplos se facilitan muchsimo
al tratar con los grafos.
a un Automata A = (Q, , , , q
0
), le asociaremos un grafo (A) = (Q, E)
donde E = (q, p) Q
2
: d (q, d) = p
Cuando se denieron los WFA denimos una forma de caminos con una funci on
que iteraba el camino y devolva un n umero, aca la idea es la misma solo que
queremos una funci on que nos de una cadena.
Denicion 17. Dado un automata A = (Q, , , , q
0
) se dene un proced-
imiento en D a una funcion :

denida como
(w, q) =

(w, q) Si w
(w
0
, q)(w
1
w
2
...w
n
, (w
0
, q)) Si w = w
0
w
1
...w
n

Sea A un automata invertible. Si jo a sobre un estado inicial q


0
(q
0
, ) :

sera un automorsmo(que es facil de ver recordando que


podemos tratar a

) como un arbol y hay toda una teora de autoformismos


sobre arboles.
Ahora, denamos lo que es un grupo autom atico
Denicion 18. Sea A un automata invertible, se dene G(A) al grupo asociado
al automata A como el grupo de permutaciones de A

generado por los estados


de A. O sea, G(A) = q, q Q
A su vez, es grupo puede verse como el grupo de las permutaciones de
generadas por las relaciones de los estados del automata.
Un ejemplo sera la maquina aditiva que se puede encontrar en este enlace[5](que
es otra introduccion a los grupos autosimilares)
Ahora Deniremos lo que es una accion autosimilar para poder denir un grupo
autosimiar.
Denicion 19. Suponga
e

eE
funciones inyectivas de un conjunto F en
s mismo, que denan un sistema iterado de funciones. Una accion de un grupo
G en F se dice autosimilar si e E, g G, f E, h G tales que
g(
e
(p)) =
f
(h(p)) con p F
12
En particular, usando cadenas
Dado F = X

sobre X alg un alfabeto y G actuando sobre F una accion de G


sobre F se dice autosimilar si
g(xw) = yh(w) con w X

Denicion 20. Un grupo se llama autosimilar si dene una accion autosimilar


sobre alg un conjunto F.
Para ejemplos, ver [5] donde se dene el grupo de Grigorchuk.
Ahora lo que queremos ver es c omo se complementan.
Si G dene una accion autosimilar sobre el conjunto X

entonces esta accion de-


ne un procedimiento de un automata A = (G, X, , ) donde y se denir an
de tal forma que g(xw) = (g, x)(g, x)(w) que es basicamente la denicion de
el procedimiento (A esos automatas se les llama completos Si (g, w) = g(w))
Ahora formalmente se tiene el siguiente teorema
Proposici on 7. Una accion de un grupo sobre el conjunto X

es autosimilar
si y solo si es generada por un automata.
6. A trabajar
Bien, las primeras secciones est an fuertemente relacionadas porque todas
tratan de compresion, all solo se busca introducir un poco la compresion fractal
y en la ultima secci on se busca introducir muy brevemente a lo que es la teora
de grupos autosimilares. Todo lo anterior bajo la hipotesis de que se puede
hacer un puente entre la teora de grupos autosimilares y la compresion fractal
sobretodo en la parte de WFA, hallando nuevas formas de relacionar informacion
y tratando de buscar grupos que generen las im agenes. La idea es ver hasta donde
se podran unir estas dos teoras.
Referencias
[1] Adam Drozdek, Elements Of Data Compression. Duquesne University.
Thomson-Learning
[2] Yuval Fisher, Fractal Image Compression
Springer-Verlag
[3] Grigorchuk, Nekrashevych, Bartholdi From Fractal groups to Fractal Sets
[4] Culik, Rosemberg Generalized Weighted Finite Automata Based Compres-
sion
[5] Diego Villamizar http://rinconmatematico.com/foros/index.php?
action=printpage;topic=57266.0
13