Está en la página 1de 20

CURSO DE ÁLGEBRA LINEAL APLICADA PARA MACHINE LEARNING

2. LAS MATRICES COMO TRANSFORMACIONES LINEALES


Definimos una matriz:

Y definimos también un vector

Y también una función que vamos a dejar en otro notebook

Y asi la ponemos a corre en otro notebook:

Convierto el vector y matriz a forma horizontal o vector alargado


Ahora vamos a graficar los vectores con la función

Para ver la transformación es definir el vector transformado el cual es el siguiente:

Y graficamos
Este vector paso ser de 2, 1 con una rotación de espacio y paso ser a 1, 2. Y el determinante es -4.

3 AUTOVALORES Y AUTOVECTORES
Autovectores: Son vectores cuya dirección no se modifica al aplicarle la trasformación de una matriz, el sentido y el
tamaño sí puede variar. El valor que transforma el vector inicial en el vector final se llama autovalor. Notas:

 Sólo las matrices cuadradas tienen autovectores.

 Hay tantos autovectores como la dimensión de la matriz

El vector transformado es u:
4 COMO CALCULAR LOS AUTOVALORES Y AUTOVECTORES
5 DESCOMPOSICION DE MATRICES
 Descomponer una matriz: Quiere decir encontrar dos o más matrices que me ayuden a escribir la matriz original
y que tengan ciertas propiedades. Una matriz A la podemos escribir como: sus autovectores producto punto una
matriz diagonal, donde la matriz diagonal tiene todos los autovalores encontrados, producto punto la matriz
inversa de sus autovectores.
6 COMO DESCOMPONGO UNA MATRIZ NO CUADRADA (SVD)
Esto es descomposición en valores singulares

Tenemos estas matrices:

En donde u y v son matrices ortogonales y d es una matriz diagonal


Vamos a calcular los valores singulares de las matrices:

Ahora reconstruyendo para obtener la nueva matriz es:

7 LAS TRES TRANSFORMACIONES


Se realiza una función para graficar la matriz:
8 APLICACIÓN DE LAS MATRICES D, V, U Y SU EFECTO EN LA
TRANSFORMACION

 La matriz V rota el espacio

 La matriz D escala el espacio.

 La matriz U rota de nuevo el espacio.

 La transformación del espacio de una matriz A es igual a la transformación de las matrices SVD (Valores
singulares)
Nota: La descomposición por valores singulares tiene efectos similares:

 autovectores → rota el espacio

 diag(autovalores) → escala el espacio

 inv(autovectores) → rota el espacio

9 COMO INTERPRETAR LOS VALORES SINGULARES

Aca lo que vemos es q v1 sufre una contracción de nuestro valor singular que tenemos dentro de la matriz
10 UNA IMAGEN ES UNA MATRIZ
Vemos que una imagen por ejemplo un computador la clasifica como una matriz, por ejemplo, aca se carga una imagen y
se va a transformar a una matriz:

Y esto tiene los siguientes pixeles los cuales están guardados en filas y columnas, en este caso 3456 filas y 3693 columnas

Ahora graficamos a escala de grises:


Ahora dividimos por 10 la matriz, miremos si la imagen se modifica:

Vemos una escala distinta de colores

Tambien visualizamos las diferencias:


11 APLIQUEMOS LA DESCOMPOSICION SVD A UNA IMAGEN

Teniendo esto podemos calcular u, d, v

Finalmente tenemos la matriz representada como una imagen.

12 BUSCANDO LA CANTIDAD DE VALORES SINGULARES QUE NOS


SIRVAN
Vamos a graficar con 5 valores singulares
Ahora con 10
13 QUE ES UNA PSEUDOINVERSA DE MOORE PENROSE Y COMO CALCULARLA

Resumen

 La pseudo inversa de Moore Penrose es utilizada cuando en un sistema de ecuaciones lineales representado por
Ax = B, x no tiene inversa.

 La pseudo inversa de MP es única y existe si se verifican 4 condiciones.

 Para calcularla se siguen los siguientes pasos:

1. Calcular las matrices U, D, y V (matrices SVD) de A.

2. Construir D_pse: una matriz de ceros que tiene igual dimension de A, y que luego se transpone.

3. Reemplazar la submatriz D_pse[: D.shape[0], : D.shape[0]] por np.linalg.inv(np.diag(D))

4. Reconstruir pseudoinversa: A_pse = V.T.dot(D_pse).dot(U.T)

Notas

 Para calcularla automaticamente por Python: np.linalg.pinv(A)

 Lo que obtenemos con A_pse es una matriz muy cercana a la inversa. Cercano en el sentido de que minimiza la
norma dos de estas distancias. O sea, de estos errores que estamos cometiendo.

 A_pse no es conmutativa, es decir, A_pse·A ≠ A·A_pse

14 USANDO LA PSEUDOINVERSA PARA RESOLVER UN SISTEMA


SOBREDETERMINADO
Un sistema de ecuaciones ax = b puede tener una solución, cero soluciones o infinitas soluciones, en el caso de que
tenga una solucion es que tenemos una inversa, una matriz cuadrada en donde todos sus vectores son linealmente
independientes.
Vemos que las tres ecuaciones no tienen un punto en común, vamos a averiguar si la pseudoinversa nos ayuda a
encontrar un punto en común entre las tres rectas.

Creamos una matriz con las incógnitas de la ecuación

Y se calcula la pseudoinversa es igual a:


El resultado va a resultar de aplicar la pseudoinversa con el producto interno al vector b o solución.

Ahora gráficamente como se interpreta

15 QUE ES PCA
La maldición de la dimensión: Esto dice que por cada variable que agrego en el conjunto de datos vamos a necesitar
exponencialmente más muestras para poder tener la misma relevancia estadística.

16 PREPARANDO EL CONJUNTO DE IMÁGENES PARA APLICAR PCA


El PCA se usa para reducir la dimensionalidad de un conjunto de datos.

Creo un dataframe con 10 individuos


17 APLIQUEMOS PCA A UN CONJUNTO DE IMÁGENES
Aplicamos pca para quedarnos con un 50% de la información del conjunto de datos:

Nos dice que con seis componentes o figuras nos basta para representar el 50% del conjunto de datos:

Como la descomposición de las matrices pueden ayudar a la reducción de las dimensionalidades.

También podría gustarte