Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Algebra Tema3
Algebra Tema3
1. APLICACIONES BILINEALES
Las aplicaciones bilineales son aquellas en las que se combinan tres espacios
vectoriales; dos como producto y uno en la imagen de la aplicación.
! ! ! ! ! ! !
f (λx + µy , u ) = λf ( x , u ) + µf ( y , u )
f es aplicación bilineal ⇔ ! ! ! !! ! !
f (v , λa + µb ) = λf (va ) + µf (v , b )
! ! ! ! ! !
∀λ, µ ∈ K ∀x , y , v ∈ V1 ∀a , b , u ∈ V2
• Ejemplo:
f : R3 × R2 → R2
! !
x ∈ R 3 x = ( x1 , x 2 , x 3 )
! !
y ∈ R 2 y = ( y1 , y 2 )
! !
f ( x , y ) = ( x1 + y1 , x 3 − y 2 )
• Ejemplo:
f : R2 × R2 → R
!
x = ( x1 , x 2 )
!
y = ( y1 , y 2 )
! !
f ( x , y ) = 2 x1 y1 + x 2 y 2
f :V × V → K
! !
B = {e1 ,..., en } es base de V
x1 y1
X = ... Y = ...
xn y2
A = M ( f , B)
! !
Esto es cierto, pues la imagen f ( x , y ) es un escalar, al igual que el otro término: la
matriz A es cuadrada, que multiplicada por la matriz columna Y da lugar a otra matriz
columna, la que a su vez multiplicada por la matriz fila X’, origina un escalar.
! !
Considerando otra base B ' = {u1, ..., un } .
! !
Los vectores x e y tendrán una representación diferente (X’ e Y’, respectivamente),
junto con otra matriz asociada: A' = M ( f , B ' ) .
( P ⋅ X ') t ⋅ A ⋅ P ⋅ Y '
P t ⋅ A ⋅ P = A'
!! ! ! !!
Ejercicio: Demotrar: f (0,0) = 0 , f (0, x ) = 0 y f ( x ,0) = 0 .
2. PRODUCTO ESCALAR
•:V × V → K
Las condiciones son:
•: R 2 × R 2 → R
( x1 , x 2 ) ⋅ ( y1 , y 2 ) = x1 ⋅ y1 + x 2 ⋅ y 2
•1 : R 2 × R 2 → R
( x1 , x 2 ) ⋅ ( y1 , y 2 ) = 3x1 ⋅ y1 + x1 ⋅ y 2 + x 2 ⋅ y1 + 5x 2 ⋅ y 2
! ! ! !
• x+y ≤ x + y
! !
• λx = λ ⋅ x
!
Un vector es unitario si su norma es la unidad: x = 1 .
! !
A partir de un vector x se puede encontrar su unitario x 0 . Este vector será el
resultado de multiplicar al original por un escalar:
! !
x0 = λ⋅ x
!
La norma del vector x pertenece a K, al igual que su inversa, luego:
! 1
x ∈K ! ∈K
x
! 1 !
x ⋅ ! = x0
x
Puesto que:
! 1 !
x0 = ! ⋅ x = 1
x
! !
x⋅y =0
! !
• u1 = x1
! !
! ! x 2 ⋅ u1 !
• u2 = x 2 − ! ! u1
u1 ⋅ u1
! ! ! !
u1 y u2 son ortogonales, pues u1 ⋅ u2 = 0
! ! ! !
! ! x 2 ⋅ u1 ! ! ! x 2 ⋅ u1 ! ! ! ! ! !
u1 ⋅ x 2 − ! ! u1 = x 2 ⋅ u1 − ! ! u1 ⋅ u1 = x 2 ⋅ u1 − x 2 ⋅ u1 = 0
u1 ⋅ u1 u1 ⋅ u1
! ! ! !
! ! x 3 ⋅ u1 ! x 3 ⋅ u2 !
• u3 = x 3 − ! ! u1 − ! ! u2
u1 ⋅ u1 u2 ⋅ u2
• ...
! ! ! !
! ! x n ⋅ u1 ! x n ⋅ u n −1 !
• un = x n − ! ! u1 −...− ! ! u
u1 ⋅ u1 u n −1 ⋅ u n −1 n −1
Como la base es ortogonal, la matriz asociada estará formada únicamente por una
diagonal principal (el resto serán ceros).
1 0 ... 0
0 y
1 ... 0 1
x ⋅ y = ( x1 ... x n ) ⋅
! ! ⋅ ... = x1 ⋅ y1 + x 2 ⋅ y 2 +...+ x n ⋅ y n
0 0 ... 0
y
0 0 ... 1 n
! ! ! ! !
Ejercicio: En R 2 , sea la base {e1 , e2 }, tal que e1 = (1,0) y e2 = (1,1) . Los vectores x e
!
y son ( x1 , x 2 ) y ( y1 , y 2 ) respecto de B. El producto escalar se define como
! !
x ⋅ y = 3x1 ⋅ y1 + 2 x1 ⋅ y 2 + 2 x 2 ⋅ y1 + x 2 ⋅ y 2 .
Buscar una base B’ donde la matriz asociada al producto escalar sea la matriz
identidad.
3. FORMAS MULTILINEALES
n)
f :V × V × ...× V → K
f es forma multilineal
! ! ! ! ! ! ! ! ! ! ! ! ! ! ! !
⇔ f ( x1 , x 2 ,..., xi −1 , λu + µv , xi +1 ,..., x n ) = λf ( x1 ,..., xi −1 , u , xi +1 ,..., x n ) + µf ( x1 ,..., xi −1 , v , xi +1 ,..., x n )
! ! ! !
∀λ, µ ∈ K ∀x1 ,..., x n , u , v ∈ V 1≤ i ≤ n
Se dice que una forma multilineal es simétrica si al cambiar el orden entre dos de
sus argumentos la función no cambia.
! ! ! ! ! ! ! !
f ( x1 ,..., u ,..., v ,..., x n ) = f ( x1 ,..., v ,..., u ,..., x n )
Se dice que una forma multilineal es antisimétrica si al cambiar el orden entre dos
de sus argumentos, la función cambia de signo.
! ! ! ! ! ! ! !
f ( x1 ,..., u ,..., v ,..., x n ) = − f ( x1 ,..., v ,..., u ,..., x n )
• Demostración de ⇒
Como es alternada:
! ! ! ! ! !
f ( x1 ,..., u + v ,..., u + v ,..., x n ) = 0
4. DETERMINANTES
n)
det:V × ...× V → K
! !
det( e1 ,..., en ) = 1
• Ejemplo:
Considerando R 2 sobre K.
! ! ! !
Sea B = {e1 , e2 } una base de R 2 tal que e1 = (1,0) y e2 = ( −11
, ).
! !
det: R 2 × R 2 → R , donde det( e1 , e2 ) = 1
En esta expresión:
! !
det( e1 , e1 ) = 0 (por ser alternada)
! !
det( e1 , e2 ) = 1 (por ser los vectores de la base)
! !
det( e2 , e1 ) = −1 (por ser antisimétrica)
! !
det( e2 , e2 ) = 0 (por ser alternada)
Quedando que:
! !
det( x , y ) = x1 ⋅ y 2 − x 2 ⋅ y1
1 2 ... n
i1 i 2 ... in
1 2 ... n
1 2 ... n
• Ejemplo:
1 2 3 4
Calcular el signo de la permutación
4 3 1 2
• Ejemplo:
1 2 3 1 2 3 1 2 3
; ; ; etc...
1 2 3 2 1 3 1 3 2
! ! ! ! ! ! ! ! !
det( x , y , z ) = x11 x 22 x 33 det( e1 , e2 , e3 ) + x12 x 21 x 33 det( e2 , e1 , e3 )+...
! ! !
det( x , y , z ) = x11 x 22 x 33 − x12 x 21 x 33 ...
El resultado sería:
x x x x x12 x13
11 12 13 11
det x 21 ⋅ x 22 ⋅ x 23 = x 21 x 22 x 23
x x x x
31 32 33 31 x 32 x 33
! ! !
det( x , y , z ) = x11 x 22 x 33 + x12 x 23 x 31 + x13 x 21 x 32 − x11 x 23 x 32 − x12 x 21 x 33 − x13 x 22 x 31
Ejercicio: Comparar lo dicho hasta ahora sobre las formas multilineales con todo lo
conocido de años anteriores sobre determinantes.
1 2 3
i1 i2 i3
Ejemplos:
1 0 0 1 0 0
det 1 1 0 = 1 ⋅ 1 ⋅ 4 det 0 2 0 = 1 ⋅ 2 ⋅ 3
2 3 4 0 0 3
1 ... n
i1 ... i n
A = At
Por lo tanto, todo lo que se defina para las columnas será aplicable también
para las filas, y viceversa. Por eso, no importa colocar los vectores en filas o en
columnas.
El último determinante es cero, pues tiene dos líneas iguales. Así, queda
demostrado que:
1 2 1 0 1
0 2 0 1 3
1 3 0 0 2
4 0 1 3 1
1 2 0 0 1
Aij es adjunto de a ij
• Ejemplo:
1 2 0
2 1 2 0 2 0
3 2 1 = 1 ⋅ (−1) 1+1 + 3 ⋅ (−1) 2+1 + 2 ⋅ (−1) 3+1
4 0 4 0 2 1
2 4 0
+ −
+ ...
− +
− ...
+ − ...
... ...
Al multiplicar los elementos de una línea por los adjuntos de otra, el resultado
siempre es cero:
A ⋅ Adj ( A) t = A ⋅ In
A ⋅ Adj ( A) t = A
A Adj ( A) t A ⋅ In
A ⋅ Adj ( A) t = A ⋅ In
1
A ⋅ ⋅ Adj ( A) t = In
A
1
⋅ Adj ( A) t = A −1
A
Con la que se puede calcular la inversa de una matriz. Queda claro que para que
una matriz admita inversa, su determinante ha de ser distinto de cero.
Otra forma de calcular la inversa de una matriz es mediante una matriz formada por
la primera junto con la identidad. Si realizando cambios se consigue desplazar la matriz
identidad de un lado al otro, el resultado será la matriz inversa.
Propiedad: A ⋅ B = A ⋅ B
• Implicación ⇐
Adj ( A) t
−1
Es cierto, porque se puede calcular A =
A
• Implicación ⇒
Partiendo de que ∃A −1 / A ⋅ A −1 = In
6. REGLA DE LAPLACE
Dada una matriz A, definimos el menor, denotado como M i1 ...ir ; j1 ... jr , al determinante
de la matriz obtenida a partir de A, eliminando las filas i que no pertenezcan a {i1 ... i r }
y las columnas j que no pertenezcan a { j1 ... j r } .
M i1 ...ir ; j1 ... jr
i ∉ {i1 ... i r }
j ∉ { j1 ... jr }
• Ejemplo:
1 2 0 3
−1 0 3 1
Dada la matriz: .
0 0 1 2
0 1 2 −1
1 2
M 1,4;1,2 = =1
0 1
Se define el adjunto de dicho menor, y se representa por Ai1 ...ir ; j1 ... jr como el
i1 + ...+ ir + j1 + ...+ jr
producto de ( −1) por el determinante de la matriz obtenida eliminando las
filas {i1 ... i r } y las columnas { j1 ... j r } (las que no se eliminaron con el menor).
• Ejemplo anterior:
3 1
A1,4;1,2 = (−1) 1+ 4+1+ 2 ⋅ =5
1 2
↓ ↓
1 2 0 3
−1 0 3 1
0 0 1 2
0 1 2 −1
1 2
(−1) 1+ 2 +1+ 2 ⋅ = −5
2 −1
3 1
(−1) 1+ 2 +1+ 4 ⋅ =5
1 2
0 3
(−1) 1+ 2 + 2+ 4 ⋅ =3
1 2
1 0 2 1 −1
0 3 0 2 1
4 0 −1 6 2
1 −1 1 −1 1
−2 0 −4 −2 2