Está en la página 1de 11

FACULTAD DE INGENIERÍA DE

PRODUCCIÓN Y SERVICIOS
ESCUELA PROFESIONAL DE INGENIERÍA MECÁNICA

ASIGNATURA : MECANICA DE FLUIDOS 2


DOCENTE : ING. LESTER
TÍTULO : TENSORES
INTEGRANTES :
CARRASCO MARTIN
CHOQUE ERICK
HUAMANI OSCAR

AREQUIPA-PERU
2018
Métodos de Descomposición

Tensores

Definición
Como hemos introducido anteriormente, un tensor es un array o matriz
multidimensional. Se conoce como orden o modo de un tensor al número de
dimensiones que lo forman.
Formalmente, un tensor de orden N se define como el producto de N espacios
vectoriales. De Lathauwer [Lathauwer01] formula la siguiente definición:
✁ Sea V1,V2,..., VN un conjunto de N espacios vectoriales euclídeos con
dimensiones finitas I1,I2,...,IN. Consideremos entonces un conjunto de N
vectores Un:

Figura 3.1 Tensor Y de orden (modo) 3, con dimensiones [5,4,3].


El modo 1 toma valores entre i  1, 2, ..., 5 ; El modo 2 toma valores
1

entre i  1, 2, 3, 4 ; El modo 3 toma valores entre i  1, 2, 3 .


1 1
Descomposición y Factorización de Tensores
Las observaciones que se realizan sobre los sistemas actuales ofrecen un conjunto
de datos muy extenso en los que la representación natural es la tensorial.
La forma en la que se descomponen o factorizan estos tensores es fundamental a la
hora de extraer las componentes comunes que guardan los diferentes modos que
componen el tensor.
Las dos descomposiciones/factorizaciones más populares en los tensores de orden
N son Tucker y PARAFAC/CANDECOMP. Como resultado de estas descomposiciones,
las estructuras inherentes en los tensores se hacen visibles y pueden ser
explotadas. Así, por ejemplo, se puede eliminar información redundante, extraer
patrones o aislar componentes que en un principio eran inseparables.

PARAFAC/CANDECOMP
La descomposición y factorización de tensores es muy empleada en la actualidad
aunque su estudio viene desde muy lejos. Hitchcock, en 1927, introdujo la idea de
expresar un tensor como la suma de un número finito de tensores de rango unidad.
El concepto tomó popularidad en 1970 a partir de la Descomposición Canónica
(CANDECOMP) propuesta por Carroll y Chang, modelo similar al Análisis de Factores
Paralelos (PARAFAC) establecido por Harshman de forma independiente. En 1988,
Möks redescubrió la CP (CANDECOMP/PARAFAC) nombrándola Modelo de
Componentes Topográficas.
La descomposición CP factoriza un tensor en una suma de tensores de rango
unidad. Para poder ver este mecanismo de forma gráfica utilizaremos un ejemplo
de tensor de tercer orden. Así pues, dado un tensor de dimensiones [I,T,Q] y los
vectores A, B y C, de dimensiones [I,1], [T,1] y [Q,1] respectivamente, se define
la CP como [Rasmus]:
Figura 3.9 Descomposición PARAFAC/CANDECOMP. Un tensor de
tercer orden se obtiene como resultado de la suma de tensores de
rango unidad.

Se denominan factores o matrices de carga a las matrices formadas por la


combinación de los vectores de rango unidad que descomponen el tensor:

A = [A1 ,..., AJ ]
(3.26)
B = [B1,...,BJ] .
C = [C1,...,CJ]

A partir de las matrices de carga se puede definir el tensor Y en sus formas


matriciales como:
Otra forma de representar el tensor Y puede ser a partir de las multiplicaciones
modo-n de las matrices de carga:
(3.29)
Y =Nx1A x2B x3C ,
siendo  un tensor cúbico de tercer orden con dimensiones [J,J,J], cuyos
elementos son todos nulos salvo los pertenecientes a la súper diagonal principal,
obtenida a partir de los factores de escala j . Si en vez de estar ante el modelo de
Harshman estamos en el modelo CP básico el tensor N pasa a ser el tensor
superidentidad  [Cichocki02].

Figura 3.10 Modelo PARAFAC de Harshman de un tensor de tercer


orden. El tensor Y se obtiene como resultado de la multiplicación de
la multiplicación de las matrices de carga por un tensor núcleo.

Como veremos en próximos apartados, el modelo PARAFAC puede considerarse


como un caso particular del modelo Tucker3, donde el tensor núcleo es un tensor
cúbico superdiagonal o superidentidad G = , Gj,j,j ∀ 0 .

El modelo PARAFAC/CANDECOMP puede describirse también mediante sus slices


frontales, laterales y horizontales de la forma:
El modelo PARAFAC/CANDECOMP presenta un menor número de grados de libertad
que otros modelos como veremos en próximos apartados. Además, este modelo
puede conducir a estimaciones inestables o erróneas.

Unicidad
Una propiedad de los tensores de alto orden es que su descomposición es única,
mientras que la descomposición de matrices no lo es.
Si consideramos la matriz X de dimensiones IxJ de rango R, su descomposición
vendría dada por:

Obtención de la Descomposición CP
Descomposición Tucker
La descomposición Tucker, también conocida como Tucker3, fue introducida en
[Tucker] y puede verse como una Descomposición SVD de Alto Orden (Higher-
order SVD, HOSVD).
Dado un tensor de tercer Y orden de dimensiones [I,T,Q] y tres índices positivos
{J,R,P}<<{I,T,Q}, buscamos un tensor núcleo G [J, R, P] y tres matrices, A =
[I, J], B = [T, R] y C = [Q, P] , denominadas factores o matrices de carga, de
forma que:
Si imponemos restricción de no negatividad a las matrices y al tensor núcleo
transforma esta descomposición en la Descomposición No Negativa de Tucker
(Nonnegative Tucker Decomposition, NTD).
Al igual que ocurre con la descomposición CP, la descomposición Tucker3 permite
múltiples descripciones matemáticas. Así, por ejemplo, su expresión a partir de los
modos-n de multiplicación viene dada como:

Descomposición Tucker2
La descomposición Tucker introducida en el apartado anterior se conoce como
Tucker3 debido a que el tensor de tercer orden se descompone en tres factores (A,
B y C) y un tensor núcleo. Si una de estas matrices de carga es la matriz identidad
o se agrega al tensor núcleo estamos ante la descomposición Tucker2:

Figura 3.12 Descomposición del tensor Y mediante el modelo


Tucker2. Inclusión de la matriz de carga C en el tensor núcleo.

Descomposición Tucker1
De la misma manera que ocurre con la descomposición Tucker2, si en el modelo
Tucker3 dos de las matrices de carga son la matriz identidad o se agregan al tensor
núcleo, el modelo pasa a denominarse Tucker1, siguiendo la expresión:
Figura 3.13 Descomposición del tensor Y mediante el modelo
Tucker1. Inclusión de la matriz de carga B en el tensor núcleo.

Si expresamos de forma matricial el tensor resultante Y nos encontramos ante el


Análisis de Componentes Principales (PCA) Y (1)=AG (1).

Conclusiones
En este capítulo se abordaron algunos de los conceptos y operaciones básicas del
álgebra multilineal que son necesarios para el desarrollo del algoritmo ThinICA de
apartados posteriores. Al comienzo del capítulo se presentó una definición del
concepto de tensor de orden superior propia del álgebra multilineal.
Posteriormente, se presentaron diferentes descomposiciones
CANDECOMP/PARAFAC así como las Tucker 1, 2 y 3. Descubrimos que la
descomposición tensorial viene desde relativamente lejos y que son varios los
autores los que han llegado de forma independiente al mismo resultado.
La descomposición CANDECOMP/PARAFAC es única sin necesidad de presentar una
condición de ortogonalidad como exige la SVD.
La descomposición Tucker (o Tucker3) coincidiría con la PARAFAC en caso de que el
tensor núcleo fuese cuadrado. Por otro lado, la descomposición Tucker1 desdoblada
en su forma matricial coincide con el PCA.