Está en la página 1de 38

ticas y Estadstica

Fsica, Matema
Primer Curso

ALGEBRA
LINEAL I
Juan A. Navarro Gonzalez
18 de octubre de 2014

Indice General
1 Preliminares
1.1 Relaciones de Equivalencia
1.2 N
umeros Complejos . . . .
1.3 Permutaciones . . . . . . .
1.4 Matrices . . . . . . . . . . .

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

1
1
2
3
5

2 Espacios Vectoriales
7
2.1 Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 7
2.2 Teora de la Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
3 Aplicaciones Lineales
3.1 Aplicaciones Lineales . . . . . . . .
3.2 Teorema de Isomorfa . . . . . . .
3.3 Cambio de Base . . . . . . . . . . .
3.4 El Espacio Vectorial HomK (E, E 0 )

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

15
15
17
19
20

4 Geometra Eucldea
21
4.1 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Espacios Vectoriales Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.3 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5 Endomorfismos
5.1 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 Diagonalizacion de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . .

27
27
28
29

INDICE GENERAL

Captulo 1

Preliminares
1.1

Relaciones de Equivalencia

Definici
on: Dar una relaci
on en un conjunto X es dar una familia de parejas ordenadas
de X, y pondremos x y cuando la pareja (x, y) este en tal familia. Diremos que es una
relacion de equivalencia si tiene las siguientes propiedades:
1. Reflexiva: x x, x X.
2. Simetrica: x, y X, x y y x.
3. Transitiva: x, y, z X, x y, y z x z.
Ejemplo: Sea n un n
umero natural, n 2. Diremos que dos n
umeros enteros a, b Z son
congruentes modulo n cuando b a es m
ultiplo de n:
a b (mod. n) cuando

b a = cn para alg
un c Z .

La relacion de congruencia modulo n es una relacion de equivalencia en el conjunto Z:


Reflexiva: Si a Z, entonces a a (mod. n) porque a a = 0 n.
Simetrica: Si a b (mod. n), entonces b a = cn, donde c Z; luego a b = (c)n, y
por tanto b a (mod. n).
Transitiva: Si a b y b c (mod. n), entonces b a = xn y c b = yn, donde x, y Z;
luego c a = (c b) + (b a) = yn + xn = (y + x)n, y por tanto a c (mod. n).
Esta relacion de equivalencia tiene ademas la siguiente propiedad:
a b (mod. n) a + c b + c y ac bc (mod. n)

cZ

pues si b = a + xn, donde x Z, entonces b + c = a + c + xn y bc = (a + xn)c = ac + xcn.


Definici
on: Dada una relacion de equivalencia en un conjunto X, llamaremos clase de
equivalencia de un elemento x X al subconjunto de X formado por todos los elementos
relacionados con x. Se denota x
= [x] = {y X : x y} y diremos que es la clase de x
respecto de la relacion de equivalencia .
Diremos que un subconjunto C X es una clase de equivalencia de la relacion si es
la clase de equivalencia de alg
un elemento x X; es decir, C = x
para alg
un x X.
El conjunto cociente de X por es el conjunto formado por las clases de equivalencia
de , y se denota X/ .
Teorema 1.1.1 Si es una relaci
on de equivalencia en un conjunto X, en el conjunto
cociente X/ s
olo se identifican los elementos equivalentes:
[x] = [y] x y
1

x, y X .

CAPITULO 1. PRELIMINARES

Demostraci
on: Si [x] = [y], entonces y [y] = [x]; luego x y.
Recprocamente, si x y, veamos que [y] [x]. En efecto, si z [y], entonces y z, y
por la propiedad transitiva x z; luego z [x].
Ahora bien, si x y, entonces y x; luego tambien [x] [y], y [x] = [y].
Corolario 1.1.2 Cada elemento x X est
a en una u
nica clase de equivalencia de .
Demostraci
on: x esta en [x], porque x x, y si x [y], entonces y x; luego [y] = [x].
Ejemplo: Respecto de la relacion de congruencia modulo n, la clase de equivalencia de
a Z es
[a] = a + nZ = {a + cn : c Z} ,
y coincide con la clase [r] del resto de la division de a por n, pues a = cn + r. Por tanto, el
conjunto cociente, que se denota Z/nZ, tiene exactamente n elementos:
Z/nZ = {[1], [2], . . . , [n] = [0]} .

1.2

N
umeros Complejos

Definici
on: Los n
umeros complejos son las parejas de n
umeros reales z = x + yi (donde
x R se llama parte real de z e y R se llama parte imaginaria) que se suman y
multiplican con las siguientes reglas (i2 = 1):
(x1 + y1 i)+(x2 + y2 i) = (x1 + x2 ) + (y1 + y2 )i
(x1 + y1 i)(x2 + y2 i) = (x1 x2 y1 y2 ) + (x1 y2 + x2 y1 )i
El conjunto de todos los n
umeros complejos se denota C. El conjugado de un n
umero
complejo
z
=
x
+
yi
es
el
n
u
mero
complejo
z

=
x

yi,
y
el
m
o
dulo
de
z
es
el
n
u
mero
real
p

|z| = z z = x2 + y 2 0. Las siguientes propiedades son de comprobacion sencilla:


z + u = z + u

|z| = 0 z = 0

zu = zu

|zu| = |z| |u|

z = z
z + z 2|z|

|z| = |
z|
|z + u| |z| + |u|

excepto la u
ltima. Para demostrarla bastara ver que |z + u|2 (|z| + |u|)2 :
|z + u|2 = (z + u)(z + u) = (z + u)(
z+u
) = |z|2 + |u|2 + z u
+ zu
|z|2 + |u|2 + 2|z u
|
= |z|2 + |u|2 + z u
+ zu
= |z|2 + |u|2 + 2|z| |
u| = |z|2 + |u|2 + 2|z| |u| = (|z| + |u|)2 .
Si un n
umero complejo z = x + yi no es nulo, tenemos que z z = |z|2 = x2 + y 2 > 0, as
que el inverso de z existe y es el n
umero complejo
z 1 =

x
y
z
= 2
2
i.
|z|2
x + y2
x + y2

Exponencial Compleja
Definici
on: Si t R, pondremos eit = cos t + i sen t, donde el seno y coseno se consideran
d
(eit ) = ieit . Tenemos la f
ormula de Euler (1707-1783)
en radianes para que dt
e2i = 1
y en general e2ni = 1 para todo n
umero entero n. Ademas estos n
umeros complejos son
de modulo |eit |2 = cos2 t + sen2 t = 1, y todo n
umero complejo de modulo 1 es ei para

1.3. PERMUTACIONES

alg
un n
umero real . Si z es un n
umero complejo de modulo 6= 0, el modulo de z/ es 1,
as que z/ = ei y
z = ei = (cos + i sen )
para alg
un n
umero real = arg z que llamamos argumento de z (bien definido salvo la
adicion de un m
ultiplo entero de 2). Cuando z = x + yi; x, y R, tenemos que
cos = x/

sen = y/

tan = y/x .

Ejemplos: Si es un n
umero real positivo, el argumento de es 0, el de i es /2, el de
es y el de i es 3/2 porque
= ei0 , i = ei/2 , = ei , i = e3i/2 .
Por otra parte, las formulas del seno y coseno de una suma expresan que
0

eit eit = ei(t+t )


0

eit eit = (cos t + i sen t)(cos t0 + i sen t0 ) =

= (cos t)(cos t0 ) (sen t)(sen t0 ) + i (cos t)(sen t0 ) + (sen t)(cos t0 )


0

= cos(t + t0 ) + i sen (t + t0 ) = ei(t+t ) ;


0

y la igualdad (ei )(0 ei ) = 0 ei(+ ) muestra que


arg (z1 z2 ) = (arg z1 ) + (arg z2 )
Por tanto, si u C y un = z = ei , entonces |u|n = |un | = y narg (u) = arg (un ) =

+ 2k, donde k es entero. Luego |u| = n y arg (u) = n + 2k


n , y claramente basta
tomar k = 0, . . . , n 1. As, todo n
umero complejo no nulo z = ei tiene n races n-esimas
complejas, que son:
+2k

n
ei( n )
Por u
ltimo, si z = x + yi pondremos ez = ex eyi = ex (cos y + i sen y), de modo que
0
0
ez +z = ez ez para cualesquiera n
umeros complejos z 0 , z.
Cuando eu = z, decimos que u es el logaritmo neperiano de z. As, el logaritmo neperiano
de z = ei = eln ei = eln +i es ln z = ln + i( + 2k).

1.3

Permutaciones

Definici
on: Sean X e Y dos conjuntos. Dar una aplicaci
on f : X Y es asignar a cada
elemento x X un u
nico elemento f (x) Y , llamado imagen de x por la aplicaci

on f .
Si g : Y Z es otra aplicacion, la aplicacion g f : X Z, (g f )(x) = g f (x) , es la
composici
on de g y f .
La identidad de un conjunto X es la aplicacion IdX : X X, IdX (x) = x.
Sea f : X Y una aplicacion.
Si A X, pondremos f (A) = {f (x) : x A} y es un subconjunto de Y .
Si B Y , pondremos f 1 (B) = {x X : f (x) B} y es un subconjunto de X.
Si y Y , puede ocurrir que f 1 (y) no tenga ning
un elemento o tenga mas de uno, de
modo que, en general, f 1 no es una aplicacion de Y en X.
Diremos que una aplicacion f : X Y es inyectiva si elementos distintos tienen
imagenes distintas:
x, y X, f (x) = f (y) x = y

CAPITULO 1. PRELIMINARES

(i.e., cuando, para cada y Y se tiene que f 1 (y) tiene un elemento o ninguno) y diremos
que f es epiyectiva si todo elemento de Y es imagen de alg
un elemento de X:
y Y y = f (x) para alg
un x X ,
es decir, cuando f (X) = Y o, lo que es igual, cuando, para cada y Y se tiene que f 1 (y)
tiene al menos un elemento.
Diremos que una aplicacion f : X Y es biyectiva cuando es inyectiva y epiyectiva;
es decir, cuando cada elemento y Y es imagen de un u
nico elemento de X, de modo que
f 1 (y) tiene un u
nico elemento, y en tal caso f 1 : Y X s es una aplicacion, llamada
aplicacion inversa de f porque f 1 f = IdX y f f 1 = IdY .
Definici
on: Las permutaciones de n elementos son las aplicaciones biyectivas
: {1, . . . , n} {1, . . . , n} .
El conjunto de todas las permutaciones de n elementos se denota Sn , y esta claro que su
cardinal es n! = n (n 1) . . . 2 1. El producto de permutaciones es la composicion de
aplicaciones, y como son aplicaciones biyectivas, toda permutacion tienen una permutacion
inversa 1 , de modo que 1 (j ) = i cuando (i) = j. Ademas, ( )1 = 1 1 .
Definici
on: Si d 2, dados a1 , . . . , ad {1, . . . , n} distintos, denotaremos (a1 . . . ad ) la
permutacion Sn tal que (ai ) = ai+1 , entendiendo que (ad ) = a1 , y deja fijos los
restantes elementos. Diremos que tal permutacion (a1 . . . ad ) es un ciclo de longitud d. Los
ciclos (a1 a2 ) de longitud 2 se llaman trasposiciones.
Diremos que dos ciclos (a1 . . . ad ) y (b1 . . . bk ) son disjuntos cuando ai 6= bj para todo
par de ndices i, j; en cuyo caso conmutan: (a1 . . . ad )(b1 . . . bk ) = (b1 . . . bk )(a1 . . . ad ).
El inverso de un ciclo = (a1 . . . ad ) es 1 = (ad . . . a1 ).
Toda permutacion descompone claramente en producto de ciclos disjuntos, y tambien
en producto de trasposiciones, porque todo ciclo es producto de trasposiciones:
(a1 a2 a3 . . . ad ) = (a1 a2 )(a2 a3 ) (ad1 ad ) .

(1.1)

Signo de una permutaci


on
Definici
on: Consideremos el siguiente polinomio con coeficientes enteros:
Q
(xj xi )
(x1 , . . . , xn ) =
1i<jn

Q
Dada una permutacion Sn , los factores de (x(1) , . . . , x(n) ) = i<j (x(j) x(i) )
coinciden, eventualmente salvo el signo, con los de (x1 , . . . , xn ). Luego ambos polinomios
coinciden o difieren en un signo, (x(1) , . . . , x(n) ) = (x1 , . . . , xn ), y llamaremos signo
de al n
umero entero sgn() = 1 tal que
(x(1) , . . . , x(n) ) = sgn() (x1 , . . . , xn ) .

(1.2)

Llamaremos pares a las permutaciones de signo 1, e impares a las de signo 1.


Teorema 1.3.1 El signo de cualquier producto de permutaciones es el producto de los signos
de los factores: sgn( ) = (sgn )(sgn ) .
El signo de las trasposiciones es 1, y el signo de los ciclos de longitud d es (1)d1 .
Demostraci
on: Sean , Sn . Aplicando a los ndices de las indeterminadas x1 , . . . , xn
en la igualdad 1.2, obtenemos que
(x( )(1) , . . . , x( )(n) ) = (sgn ) (x (1) , . . . , x (n) )
= (sgn )(sgn ) (x1 , . . . , xn ) .
Luego sgn( ) = (sgn )(sgn ) = (sgn )(sgn ).

1.4. MATRICES

Como el signo de la identidad es 1, se sigue que sgn( 1 ) = (sgn )1 .


Por otra parte, un calculo directo demuestra que el signo de la trasposicion (12) es 1.
Si (ij) es otra trasposicion, consideramos una permutacion tal que (1) = i, (2) = j, de
modo que (ij) = (12) 1 , y concluimos que
sgn(ij) = sgn( ) sgn(12) sgn( 1 ) = sgn( ) sgn( 1 ) = sgn( 1 ) = 1.
Por u
ltimo, cuando = (a1 . . . ad ) es un ciclo de longitud d, se sigue directamente de 1.1
que sgn() = (1)d1 , porque todas las trasposiciones tienen signo 1.

1.4

Matrices

En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.


Dada una matriz A = (aij ) de m filas y n columnas (donde el subndice i indica la fila
y el subndice j la columna), su matriz traspuesta es At = (aji ), que tiene n filas y m
columnas. Si B = (bjk ) es otra matriz de n filas y r columnas, su producto AB es una
matriz m r cuyo coeficiente cik de la fila i y columna k es
Pn
cik = j=1 aij bjk = ai1 b1k + ai2 b2k + . . . + ain bnk .
El, producto de matrices es asociativo, aunque no conmutativo, y (AB)t = B t At .
La matriz unidad In es la matriz n n con todos sus coeficientes nulos, salvo los de la
diagonal, que son la unidad. Si A es una matriz m n, entonces Im A = A y AIn = A.
Una matriz cuadrada A de n columnas se dice que es invertible si existe otra matriz
cuadrada B de n columnas tal que AB = In = BA, en cuyo caso tal matriz B es u
nica y se
pone B = A1 . Si A y B son matrices invertibles n n, entonces (AB)1 = B 1 A1 .

Determinantes
Definici
on: El determinante de una matriz cuadrada A = (aij ) de n filas y columnas es
P
(sgn )a1(1) . . . an(n)
|A| =
Sn

y tiene las siguientes propiedades (que se probaran en el curso de Algebra


Lineal II):
1. |A| = |At |.
2. Es lineal en cada columna (y por tanto en cada fila):
|A1 , . . . , Ai + Bi , . . . , An | = |A1 , . . . , Ai , . . . , An | + |A1 , . . . , Bi , . . . , An | ,
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai , . . . , An | .
3. |A(1) , . . . , A(n) | = (sgn )|A1 , . . . , An |.

a1 0 . . . 0

0 a2 . . . 0
= a1 . . . an , |I| = 1.
4.

. . . . . . . . . . . .
0
0 . . . an
5. |AB| = |A| |B|

|A1 | = |A|1 .

Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y


|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai + Aj , . . . , An |

i 6= j .

Definici
on: El adjunto Aij de una matriz A es (1)i+j por el determinante de la matriz
que se obtiene eliminando la fila i y la columna j de la matriz A.

CAPITULO 1. PRELIMINARES

El determinante de A puede calcularse desarrollando por cualquier fila:


|A| = ai1 Ai1 + . . . + ain Ain ,
o por cualquier columna:
|A| = a1j A1j + . . . + anj Anj .
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es

A11 . . . An1
1
... ... ...
A1 =
|A|
A1n . . . Ann
(Notese que el coeficiente de la fila i y columna j es el adjunto Aji , no Aij ). Por tanto, una
matriz cuadrada A es invertible si y solo si su determinante no es nulo.
Definici
on: El rango (por columnas) de una matriz A es el maximo n
umero de columnas
de A linealmente independientes, y se denota rg A.
El rango por filas de una matriz A es el rango (por columnas) de su traspuesta At .
Los menores de orden r de una matriz A son los determinantes de las matrices formadas
con los coeficientes de r filas y r columnas de A (obviamente r no ha de superar el n
umero
de columnas ni de filas de A).
Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.
Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A
coincide con su rango por columnas.

Sistemas de Ecuaciones Lineales


Regla de Cr
amer (1704-1752): Si A es una matriz cuadrada invertible, el sistema de
ecuaciones lineales AX = B tiene una u
nica soluci
on, que es
xi =

|A1 , . . . , B, . . . , An |
|A1 , . . . , Ai , . . . , An |

donde A1 , . . . , An denotan las columnas de la matriz A.


Demostraci
on: Si A es invertible, la u
nica solucion de AX = B es X = A1 B. Ademas, si
x1 , . . . , xn es la solucion del sistema, entonces x1 A1 + . . . + xn An = B y por tanto:
P
|A1 , . . . , B, . . . , An | = j xj |A1 , . . . , Aj , . . . , An | = xi |A1 , . . . , Ai , . . . , An |
porque la matriz (A1 , . . . , Aj , . . . , An ) tiene dos columnas iguales (las columnas i y j) cuando
i 6= j. Luego xi = |A1 , . . . , B, . . . , An |/|A1 , . . . , Ai , . . . , An | es la u
nica solucion del sistema.
Teorema de Rouch
e-Frob
enius (1832-1910, 1849-1917): Un sistema de ecuaciones lineales AX = B es compatible si y s
olo si rgA = rg(A|B) .
Si un sistema de ecuaciones lineales AX = B es compatible y X0 es una solucion particular, AX0 = B, entonces todas las soluciones se obtienen sumandole las soluciones del
sistema homogeneo AY = 0; es decir, las soluciones son X = X0 + Y , donde AY = 0.

Captulo 2

Espacios Vectoriales
2.1

Espacios Vectoriales y Subespacios Vectoriales

En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.


Definici
on: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos
llamaremos vectores o puntos indistintamente) es asignar a cada par de vectores e1 , e2 E
otro vector e1 + e2 E, y a cada escalar K y cada vector e E, otro vector e E, de
modo que:
Axioma
Axioma
Axioma
Axioma
Axioma
Axioma
Axioma
Axioma

1:
2:
3:
4:
5:
6:
7:
8:

e1 + (e2 + e3 ) = (e1 + e2 ) + e3 para cualesquiera vectores e1 , e2 , e3 E.


e1 + e2 = e2 + e1 para cualesquiera vectores e1 , e2 E.
Existe un vector 0 E tal que e + 0 = e para todo vector e E.
Para cada vector e E existe un vector e tal que e + (e) = 0.
(e1 + e2 ) = e1 + e2 para todo K, e1 , e2 E.
(1 + 2 )e = 1 e + 2 e para todo 1 , 2 K, e E.
()e = (e) para todo , K, e E.
1 e = e para todo vector e E.

Dados vectores e, v E, pondremos v e = v + (e), y diremos que e es el opuesto


del vector e.
En los espacios vectoriales son validas las reglas usuales del calculo vectorial:
e + v = e0 + v e = e0
e+v =v e=0
e + v = 0 v = e
0e=0 , 0=0
(e) = ()e = (e)
(e v) = e v
e = 0 = 0 o e = 0
Definici
on: Un subconjunto V de un espacio vectorial E es un subespacio vectorial de
E cuando la suma de vectores y el producto por escalares de E definan tambien en V una
estructura de K-espacio vectorial; es decir, cuando
1. v1 + v2 V , para todo v1 , v2 V .
2. v V , para todo K y v V .
3.

0V.
7

CAPITULO 2. ESPACIOS VECTORIALES

8
Ejemplos:

1. En la Geometra eucldea, los segmentos orientados con origen en un punto prefijado O

forman un espacio vectorial real. Este


es el ejemplo paradigmatico de espacio vectorial,
que motiva los nombres de los conceptos que iremos introduciendo.
2. K n = K . n. . K = {(1 , . . . , n ) : 1 , . . . , n K} es un K-espacio vectorial.
Si A es una matriz mn con coeficientes en K, las soluciones del sistema de ecuaciones
lineales homogeneo AX = 0 forman un subespacio vectorial de K n .
3. Fijados dos n
umeros naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares definen una estructura de K-espacio vectorial en el conjunto
Mmn (K) de todas las matrices de m filas y n columnas con coeficientes en K.
4. C es un C-espacio vectorial, y tambien es un R-espacio vectorial y un Q-espacio vectorial. Estas tres estructuras de espacio vectorial sobre C son bien distintas, porque
en cada caso los escalares son diferentes.
5. Un espacio vectorial E nunca puede ser el conjunto vaco, porque el axioma 3 impone
la existencia del vector nulo. El espacio vectorial que tiene un u
nico vector (que
necesariamente ha de ser el vector nulo) se denota 0.
6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E.
7. Si e1 , . . . , en son vectores de un espacio vectorial E, entonces
Ke1 + . . . + Ken = {1 e1 + . . . + n en ; 1 , . . . , n K}
es un subespacio vectorial de E que contiene a los vectores e1 , . . . , en , y diremos que
es el subespacio vectorial de E generado por e1 , . . . , en .
Tambien se denota he1 , . . . , en i, y si un subespacio vectorial V de E contiene a los
vectores e1 , . . . , en , entonces Ke1 + . . . + Ken V .
8. Si V y W son dos subespacios vectoriales de un espacio vectorial E, entonces su
interseccion V W y su suma V + W = {v + w; v V y w W } tambien son
subespacios vectoriales de E.
9. Si E y F son dos K-espacios vectoriales, su producto directo E F es un K-espacio
vectorial cuando la suma y el producto por escalares se definen del siguiente modo:
(e, f ) + (e0 , f 0 ) = (e + e0 , f + f 0 )

(e, f ) = (e, f ) .

10. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal


si existe un subespacio vectorial V de E y alg
un punto p E tales que
X = p + V = {p + v; v V } .
En tal caso diremos que V es la direcci
on de X, y que X es la subvariedad lineal que
pasa por p con direccion V . Diremos que dos subvariedades lineales p + V y q + W
son paralelas si sus direcciones V y W son incidentes (V W o W V ).
11. Espacio Vectorial Cociente: Cada subespacio vectorial V de un K-espacio vectorial
E define una relacion de equivalencia en E (llamada congruencia modulo V ):
e e0 (modulo V ) cuando e0 e V ; es decir e0 e + V .


2.2. TEORIA DE LA DIMENSION

i) e e para todo vector e E, porque e e = 0 V .


ii) Si e e0 , entonces e0 e V ; luego e e0 = (e0 e) V y e0 e.
iii) e e0 , e0 e00 e0 e, e00 e0 V ; e00 e = (e00 e0 ) + (e0 e) V y e e00 .
La clase de equivalencia [p] = p + V de p E es la subvariedad lineal de direccion V
que pasa por p. Por tanto, si una subvariedad lineal X = p + V de direccion V pasa
por un punto q, entonces p q (mod. V ) y por tanto tambien X = q + V .
El conjunto cociente (que se denota E/V ) es el conjunto de todas las subvariedades
lineales de E de direccion V , y las siguientes operaciones definen en el conjunto E/V
una estructura de K-espacio vectorial (compruebense los 8 axiomas) y diremos que es
el espacio vectorial cociente de E por V :
[e1 ] + [e2 ] = [e1 + e2 ]
[e ] = [e ]
Veamos que estas definiciones no dependen de los vectores elegidos en las clases:
Si [e1 ] = [e01 ] y [e2 ] = [e02 ], entonces e01 e1 , e02 e2 V ; luego e01 + e02 (e1 + e2 ) V
y por tanto [e1 + e2 ] = [e01 + e02 ].
Si [e] = [e0 ], entonces e0 e V ; luego e0 e = (e0 e) V y por tanto [e] = [e0 ].
Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de
un vector e E/V es [e], y el vector nulo de E/V es precisamente la clase de 0 E,
de modo que e = 0 precisamente cuando e 0 (modulo V ):
[e] = 0 e V

(2.1)

Nota 2.1.1 Si e Ke1 + . . . + Ken , entonces e K e1 + . . . + K en .


En efecto, si e = 1 e1 + . . . + n en , entonces e = [1 e1 + . . . + n en ] = 1 e1 + . . . + n en .

2.2

Teora de la Dimensi
on

Definici
on: Diremos que unos vectores e1 , . . . , en de un espacio vectorial E lo generan, o
que forman un sistema de generadores de E cuando todo vector de E es una combinacion
lineal de e1 , . . . , en con coeficientes en K:
Ke1 + . . . + Ken = E .
Diremos que e1 , . . . , en son linealmente dependientes si existen escalares 1 , . . . , n
tales que 1 e1 + . . . + n en = 0 y alg
un i 6= 0, de modo que ei es combinacion lineal de los
restantes vectores. En caso contrario diremos que son linealmente independientes. Es
decir, e1 , . . . , en son linealmente independientes cuando la u
nica combinacion lineal nula es
la que tiene todos los coeficientes nulos:
1 , . . . , n K y 1 e1 + . . . + n en = 0 1 = . . . = n = 0 .
Diremos que una sucesion de vectores e1 , . . . , en de un espacio vectorial E es una base
de E cuando tales vectores sean linealmente independientes y generen E. En tal caso, cada
vector e E se escribe de modo u
nico como combinacion lineal con coeficientes en K
e = x1 e1 + . . . + xn en ,

CAPITULO 2. ESPACIOS VECTORIALES

10

y diremos que (x1 , . . . , xn ) K n son las coordenadas del vector e en la base e1 , . . . , en .


En efecto, si e = x1 e1 + . . . + xn en = y1 e1 + . . . + yn en , entonces
(x1 y1 )e1 + . . . + (xn yn )en = x1 e1 + . . . + xn en (y1 e1 + . . . + yn en ) = e e = 0 ;
luego yi xi = 0 para todo ndice i, porque e1 , . . . , en son linealmente independientes.
Ejemplos 2.2.1
1. Sea e un vector no nulo. Como e = 0 = 0; tenemos que e es linealmente
independiente, y por tanto define una base del subespacio vectorial Ke = hei. Ademas,
si otro vector v no esta en Ke, entonces e, v son linealmente independientes, de modo
que forman una base del subespacio vectorial Ke + Kv = he, vi.
2. Los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), . . . , en = (0, . . . , 0, 1) forman una
base de K n , llamada base usual de K n . Las coordenadas de un vector e = (a1 , . . . , an )
de K n en esta base son precisamente (a1 , . . . , an ), porque e = a1 e1 + . . . + an en .
3. Las matrices m n que tienen todos sus coeficientes nulos, excepto uno que es la
unidad, definen una base de Mmn (K), base que esta formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz.
Lema Fundamental: Sean e1 , . . . , en vectores de un K-espacio vectorial E. Si tenemos
que v1 , . . . , vr Ke1 + . . . + Ken y r > n, entonces los vectores v1 , . . . , vr son linealmente
dependientes.
Demostraci
on: Si vr = 0 es obvio: 0 v1 + 0 v2 + . . . + 0 vr1 + 1 vr = 0.
Si vr 6= 0, procedemos por induccion sobre n. Si n = 1, entonces v1 , vr Ke1 , as que
v1 = 1 e1 , vr = r e1 y r 6= 0 porque vr 6= 0. Luego v1 , . . . , vr son linealmente dependientes:
r v1 1 vr = r 1 e1 1 r e1 = 0 .
Pn
Si n > 1, reordenando los vectores e1 , . . . en si es preciso, tendremos vr = i=1 i ei con
n =
6 0. Despejando, obtenemos que en Ke1 + . . . + Ken1 + Kvr , y por tanto
v1 , . . . , vr1 Ke1 + . . . + Ken Ke1 + . . . + Ken1 + Kvr .
De acuerdo con 2.1.1, en el espacio vectorial cociente E/(Kvr ) tendremos que
v1 , . . . , vr1 K e1 + . . . + K en1 + K vr = K e1 + . . . + K en1 ,
donde r 1 > n 1, y por hipotesis de induccion existen escalares 1 , . . . , r1 , alguno no
nulo, tales que
0 = 1 v1 + . . . + r1 vr1 = [1 v1 + . . . + r1 vr1 ] .
Pr1
Pr1
Luego
un 2.1, y concluimos que
un
i=1 i vi Kvr seg
i=1 i vi = r vr para alg
escalar r ; es decir, los vectores v1 , . . . , vr son linealmente dependientes.
Teorema 2.2.2 Todas las bases de un espacio vectorial tienen igual n
umero de vectores.
Demostraci
on: Si e1 , . . . , en y v1 , . . . , vr son dos bases de un espacio vectorial E, como
los vectores e1 , . . . , en E = Kv1 + . . . + Kvr son linealmente independientes, por el lema
fundamental tenemos que n r. Como los vectores v1 , . . . , vr E = Ke1 + . . . + Ken son
linealmente independientes, tambien tenemos que r n; luego n = r.


2.2. TEORIA DE LA DIMENSION

11

Definici
on: Si un espacio vectorial E 6= 0 admite una base, llamaremos dimensi
on de E
al n
umero de vectores de cualquier base de E, y lo denotaremos dimK E; o sencillamente
dim E cuando no induzca a confusion. Tambien diremos que el espacio vectorial E = 0 tiene
dimension 0 y que su base es el vaco. Diremos que un espacio vectorial E tiene dimension
infinita cuando ninguna familia finita de vectores de E sea una base de E.
La dimension de una subvariedad lineal X = p + V es la de su direccion V . Las subvariedades lineales de dimension 1 y 2 se llaman rectas y planos respectivamente.
Ejemplos 2.2.3
1. Seg
un los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (Ke) = 1; y si
ademas v
/ Ke, entonces dim K (Ke + Kv) = 2.
Tambien, dimK K n = n y dimK Mmn (K) = mn .
2. En particular dimC C = 1; aunque dimR C = 2, porque 1, i forman una base de
C = R + Ri como R-espacio vectorial.
3. Si E es un Q-espacio vectorial de dimensi
P on finita n, cada base e1 , . . . , e n define una
biyeccion K n E, (1 , . . . , n ) 7 i i ei , y por tanto el conjunto E es numerable.
Como R y C no son numerables, dim Q R = dim Q C = .
4. El K-espacio vectorial K[x] = {a0 + a1 x + a2 x2 + . . . ; a0 , a1 . . . K}, formado por
todos los polinomios con coeficientes en K en una indeterminada x, con la suma y el
producto por escalares usuales, tiene dimension infinita. En efecto, en el subespacio
vectorial Kp1 + . . . + Kpr que generan unos polinomios p1 , . . . , pr no esta xd cuando
el exponente d es mayor que el grado de todos los polinomios p1 , . . . , pr .
5. Por dos puntos distintos p y q = p + e pasa una u
nica recta p + Ke, formada por los
puntos p + te = tq + (1 t)p, donde t K. El punto p + 12 e = p+q
2 recibe el nombre
de punto medio entre p y q.
6. En un tri
angulo (la figura formada por tres puntos no alineados abc) las igualdades
a+b+c
a 2b+c
b 2a+c
c 2a+b
= +
= +
= +
3
3 3 2
3 3 2
3 3 2
muestran que las tres medianas (rectas que unen un vertice con el punto medio del
lado opuesto) se cortan en el punto g = a+b+c
, llamado baricentro o centro de
3
gravedad, que divide a cada mediana en la proporcion 2:1.
7. En un cuadril
atero (la figura formada por cuatro puntos ordenados abcd en los que
no hay 3 alineados) las igualdades
a+b+c+d
=
4

a+b
2

+
2

c+d
2

a+c
2

+
2

b+d
2

b+c
2

+
2

a+d
2

prueban que las bimedianas del cuadrilatero (rectas que unen puntos medios de lados
opuestos) se bisecan mutuamente, y se bisecan con la recta que une los puntos medios
de las diagonales ad y bc.
c
d
a

8. Consideremos un cuadrilatero abcd y pongamos e = b a, v = c a. La condicion


de que sea un paralelogramo (los lados opuestos son paralelos) es que d c = e y
d b = v para ciertos escalares , ; luego d a = e + v = e + v.

CAPITULO 2. ESPACIOS VECTORIALES

12
c

v
a

v
e

Como los vectores e, v son linealmente independientes, porque los puntos cab no estan
alineados, se sigue que = = 1, de modo que los lados opuestos son iguales,
d c = b a y d b = c a, y las dos diagonales se bisecan mutuamente:
a+d
b+c
a+b+c+d
=
=
.
2
2
4
Proposici
on 2.2.4 Todo sistema finito de generadores {e1 , . . . , en } de un espacio vectorial
E 6= 0 contiene una base de E, y por tanto n dim E. Si adem
as n = dim E, entonces los
vectores e1 , . . . , en ya forman una base de E.
Demostraci
on: Para ver que {e1 , . . . , en } contiene una base de E procedemos por induccion
sobre n.
Si n = 1, e1 6= 0 porque Ke1 = E 6= 0; luego e1 es ya una base de E = Ke1 .
Si n > 1, y los vectores e1 , . . . , en son linealmente independientes,
Pn forman ya una base
un
de E. Si son linealmente dependientes, tendremos alguna relacion i=1 i ei = 0 con alg
coeficiente i no nulo. Reordenando los vectores e1 , . . . , en podemos suponer que n 6= 0.
Despejando en tenemos que en Ke1 + . . . + Ken1 . Luego E = Ke1 + . . . + Ken1 , y por
hipotesis de induccion {e1 , . . . , en1 } contiene una base de E.
Por u
ltimo, si n = dim E, entonces los vectores e1 , . . . , en ya forman una base de E;
porque una base de E no puede tener menos de n vectores seg
un 2.2.2.
Lema 2.2.5 Si e1 , . . . , em E son linealmente independientes, y no se pueden ampliar con
un vector de E de modo que lo sigan siendo, entonces ya forman una base de E.
Demostraci
on: Para todo vector e E tenemos que e1 , . . . , em , e son linealmente dependientes:
1 e1 + . . . + m em + e = 0
y alg
un coeficiente no es nulo. Si = 0, entonces e1 , . . . , er seran linealmente dependientes,
en contra de la hipotesis. Luego 6= 0 y despejando vemos que e Ke1 + . . . + Kem .
Luego los vectores e1 , . . . , em generan E, y como son linealmente independientes por
hipotesis, forman una base de E.
on finita. Toda familia {e1 , . . . , er }
Proposici
on 2.2.6 Sea E un espacio vectorial de dimensi
de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E,
y por tanto r dim E. Si adem
as r = dim E, entonces los vectores e1 , . . . , er ya forman
una base de E.
Demostraci
on: A
nadimos vectores de E hasta obtener una familia linealmente independiente
e1 , . . . , er , e01 , . . . , e0s que ya no pueda ampliarse de modo que lo siga siendo (el proceso
termina porque, si n = dim E, en virtud el lema fundamental en E no puede haber mas de n
vectores linealmente independientes, as que siempre r + s n). Ahora e1 , . . . , er , e01 , . . . , e0s
ya es base de E por el lema anterior.
Por u
ltimo, si r = dim E, entonces s = 0 y los vectores e1 , . . . , er ya forman una base
de E; porque una base de E no puede tener mas de r vectores seg
un 2.2.2.


2.2. TEORIA DE LA DIMENSION

13

Teorema 2.2.7 Sea V subespacio vectorial de un espacio vectorial de dimensi


on finita E.
1.

dim V dim E

y s
olo se da la igualdad cuando V = E.

2.

dim (E/V ) = dim E dim V

Demostraci
on: Veamos primero que la dimension de V tambien es finita. Tomemos en V
una familia {v1 , . . . , vr } linealmente independiente que ya no pueda ampliarse con un vector
de V de modo que lo siga siendo (existe porque, si n = dim E, por el lema fundamental
en E no puede haber mas de n vectores linealmente independientes). Por el lema anterior
v1 , . . . , vr forman una base de V , de modo que r = dim V .
Ahora 2.2.6 permite ampliarla hasta obtener una base v1 , . . . , vr , e1 , . . . , es de E. Luego
dim V = r r + s = dim E; y si se da la igualdad, entonces s = 0 y v1 , . . . , vr ya es base
de E, de modo que E = Kv1 + . . . + Kvr = V .
En cuanto a la segunda afirmacion, basta probar que e1 , . . . , es es una base de E/V .
Como v1 , . . . , vr , e1 , . . . , es generan E, y en E/V tenemos que v1 = . . . = vr = 0, se sigue que
E/V = K e1 + . . . + K es . Veamos por u
ltimo que e1 , . . . , es son linealmente independientes:
Ps
Ps
Ps
Si 0 = i=1 i ei = [ i=1 i ei ], entonces i=1 i ei V de acuerdo con 2.1, as que
1 e1 + . . . + s ee = 1 v1 + . . . + r vr
Pr
Ps
para ciertos escalares 1 , . . . , r . Luego i=1 i ei j=1 j vj = 0, y como los vectores
v1 , . . . , vr , e1 , . . . , es son linealmente independientes, concluimos que 1 = . . . = s = 0.
Corolario 2.2.8 Sea e1 , . . . , en una base de un espacio vectorial E. Si A es la matriz que
tiene por columnas las coordenadas de v1 , . . . , vm E en tal base de E, entonces
dim (Kv1 + . . . + Kvm ) = rg A .
Demostraci
on: Pongamos r = rg A y d = dim (Kv1 + . . . + Kvm ).
Como {v1 , . . . , vm } genera Kv1 + . . . + Kvm , de acuerdo con 2.2.2 contiene una base
vi1 , . . . , vid de Kv1 + . . . + Kvm , as que las columnas i1 , . . . , id de la matriz A son linealmente independientes y por tanto d r (pues unos vectores son linealmente independientes
precisamente cuando sus coordenadas son linealmente independientes en K n ).
Por otra parte, como la matriz A tiene r columnas linealmente independientes, hay r
vectores vj1 , . . . , vjr linealmente independientes en Kv1 + . . . + Kvm , y de acuerdo con
2.2.6 concluimos que r d .
Nota: v1 , . . . , vm son linealmente independientes rg A = m .
Por otra parte, de acuerdo con 2.2.7.1 tenemos que Kv1 + . . . + Kvm = E si y solo si
dim (Kv1 + . . . + Kvm ) = dim E, as que de 2.2.8 se sigue que
v1 , . . . , vm generan E

rg A = dim E .

Ejemplos:
1. Dados n vectores v1 = (a11 , . . . , an1 ), . . . , vn = (a1n , . . . , ann ) en K n , la condicion
necesaria y suficiente para que formen una base de K n es que el determinante de la
matriz A = (aij ) no sea nulo.
2. Sean X = p + V , Y = q + W dos subvariedades lineales paralelas de igual dimension.
Como dim V = dim W , y ademas V W o W V , 2.2.7.1 afirma que V = W : dos
subvariedades lineales paralelas de igual dimensi
on tienen la misma direcci
on.

CAPITULO 2. ESPACIOS VECTORIALES

14

Teorema de Rouch
e-Frob
enius (1832-1910, 1849-1917): Un sistema de ecuaciones lineales AX = B es compatible si y s
olo si rgA = rg(A|B) .
Demostraci
on: Sean A1 , . . . , An las columnas de A, de modo que el sistema AX = B puede
escribirse x1 A1 + . . . + xn An = B, y la condicion de que sea compatible significa que en K m
tenemos que B hA1 , . . . , An i; es decir, que hA1 , . . . , An i = hA1 , . . . , An , Bi. Ahora bien,
el teorema 2.2.7.1 afirma que
hA1 , . . . , An i = hA1 , . . . , An , Bi dimhA1 , . . . , An i = dimhA1 , . . . , An , Bi
y, de acuerdo con 2.2.8, esta u
ltima condicion significa que rg A = rg (A|B) .

2.3

Suma Directa

Definici
on: Diremos que la suma V1 + . . . + Vr de unos subespacios vectoriales V1 , . . . , Vr
de un espacio vectorial E es directa si cada vector e V1 + . . . + Vr descompone de modo
u
nico en la forma e = v1 + . . . + vr , donde vi Vi ; es decir, si la aplicacion
s : V1 . . . Vr V1 + . . . + Vr

s(v1 , . . . , vr ) = v1 + . . . + vr ,

(que siempre es epiyectiva, por definicion de suma de subespacios vectoriales) tambien es


inyectiva. En tal caso, el subespacio vectorial V1 + . . . + Vr se denota V1 . . . Vr .
Teorema 2.3.1 La condici
on necesaria y suficiente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V W = 0.
Demostraci
on: Si la suma de V y W es directa y e V W , entonces
0 = 0 + 0 = e + (e) ,
donde 0, e V y 0, e W . La unicidad de la descomposicion del vector 0 en suma de un
vector de V y otro de W implica que e = 0. Luego V W = 0.
Recprocamente, si V W = 0 y un vector e V + W admite dos descomposiciones
e = v + w = v 0 + w0

v, v 0 V, w, w0 W

entonces v 0 v = w w0 W . Como v 0 v V , se sigue que v 0 v V W = 0. Luego


0 = v 0 v = w w0 , y concluimos que v = v 0 y w = w0 . Es decir, tal descomposicion es
u
nica, as que la suma de V y W es directa.
Definici
on: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son
suplementarios (o que W es un suplementario de V en E, o que V es un suplementario de
W en E) cuando E = V W ; i.e., cuando cada vector de E descompone, y de modo u
nico,
en suma de un vector de V y otro de W ; es decir, cuando V + W = E y V W = 0.
Ejemplo: Si e1 , . . . , en es una base de un espacio vectorial E, entonces cada vector e E
descompone de modo u
nico como combinacion lineal e = 1 e1 + . . . + n en ; luego
E = Ke1 . . . Ken
y vemos as que un suplementario de V = Ke1 . . . Ker en E es el subespacio vectorial
W = Ker+1 . . . +Ken .
Por tanto, para hallar un suplementario de un subespacio vectorial V de E basta ampliar
una base v1 , . . . , vr de V hasta obtener una base v1 , . . . , vr , w1 , . . . , ws de E, porque en tal
caso W = Kw1 + . . . + Kws es un suplementario de V en E.

Captulo 3

Aplicaciones Lineales
3.1

Aplicaciones Lineales

Definici
on: Diremos que una aplicacion f : E E 0 entre dos K-espacios vectoriales es
K-lineal, (o simplemente lineal, si K se sobrentiende) cuando
f (e + v) = f (e) + f (v) para todo e, v E
f ( e) = f (e) para todo K, e E
Toda aplicaci
on lineal f : E E 0 verifica que f (0) = 0, que f (e) = f (e), y tambien
que f (1 e1 + . . . + n en ) = 1 f (e1 ) + . . . + n f (en ).

En efecto, f (0) = f (0 0) = 0 f (0) = 0, f (e) = f (1)e = (1)f (e) = f (e) y


f (1 e1 + . . . + n en ) = f (1 e1 ) + . . . + f (n en ) = 1 f (e1 ) + . . . + n f (en ).
0
0
00
Proposici
on 3.1.1 Si dos aplicaciones f : E
E y h : E E son K-lineales, entonces
su composici
on hf : E E 00 , (hf )(e) = h f (e) , tambien es K-lineal.

Demostraci
on: Para todo K y todo e, v E tenemos que

(hf )(e + v) = h f (e + v) = h f (e) + f (v) = h(f (e)) + h(f (v)) = (hf )(e) + (hf )(v)

(hf )(e) = h f (e) = h f (e) = h(f (e)) = (hf )(e)


on lineal, entonces su n
ucleo Ker f =
Proposici
on 3.1.2 Si f : E E 0 es una aplicaci
1
f (0) = {e E : f (e) = 0} es un subespacio vectorial de E, y su imagen Im f = f (E) =
{f (e); e E} es un subespacio vectorial de E 0 .
Demostraci
on: Veamos que Ker f es un subespacio vectorial de E. Tenemos que 0 Ker f
porque f (0) = 0. Ahora, si e1 , e2 Ker f , por definicion f (e1 ) = f (e2 ) = 0, as que
f (e1 + e2 ) = f (e1 ) + f (e2 ) = 0
f (e1 ) = f (e1 ) = 0
Luego e1 + e2 Ker f y e1 Ker f , as que Ker f es un subespacio vectorial de E.
Veamos que Im f es un subespacio vectorial de E 0 :
Tenemos que 0 Im f porque 0 = f (0). Ahora, si e01 , e02 Im f , por definicion existen
vectores e1 , e2 E tales que e01 = f (e1 ) y e02 = f (e2 ), as que
e01 + e02 = f (e1 ) + f (e2 ) = f (e1 + e2 ) Im f
e01 = f (e1 ) = f (e1 ) Im f
y concluimos que Im f es un subespacio vectorial de E 0 .
15

CAPITULO 3. APLICACIONES LINEALES

16

Proposici
on 3.1.3 Una aplicaci
on lineal f : E E 0 es inyectiva si y s
olo si Ker f = 0.
Demostraci
on: Si f es inyectiva y e Ker f , entonces f (e) = 0 = f (0); luego e = 0.
Recprocamente, supongamos que Ker f = 0. Si f (e) = f (v), donde e, v E, entonces
f (v e) = f (v) f (e) = 0; luego v e Ker f = 0 y por tanto e = v; i.e., f es inyectiva.
Ejemplos:
1. Sea V un subespacio vectorial de un espacio vectorial E. La inclusion i : V E,
i(v) = v, es una aplicacion lineal inyectiva y su imagen es Im i = V .
La proyeccion canonica : E E/V , (e) = [e], es una aplicacion lineal epiyectiva y
su n
ucleo es Ker = V de acuerdo con 2.1 (v. pagina 9).
2. Cada matriz A Mmn (K) define una aplicacion lineal f : K n K m , f (X) = AX,
cuyo n
ucleo Ker f esta formado por todas las soluciones de la ecuacion homogenea
AX = 0. Por otra parte, la condicion B Im f significa que el sistema de m ecuaciones
lineales con n incognitas AX = B es compatible.
3. Cada familia {e1 , . . . , en } de vectores de un K-espacio vectorial E define una aplicacion
f : K n E

f (1 , . . . , n ) = 1 e1 + . . . + n en ,

que siempre es K-lineal. La imagen de esta aplicacion lineal es Im f = Ke1 +. . .+Ken ,


as que f es epiyectiva cuando e1 , . . . , en generan E.
Ademas la condicion de que e1 , . . . , en sean linealmente independientes significa que
Ker f = 0, de modo que en tal caso la aplicacion lineal f es inyectiva. Por tanto,
cuando e1 , . . . , en forman una base de E, esta aplicacion lineal f es biyectiva.

Matriz de una Aplicaci


on Lineal
Definici
on: Sea f : E E 0 una aplicacion lineal entre dos espacios vectoriales de dimension
finita. Si fijamos una base e1 , . . . , en de E y una base e01 , . . . , e0m de E 0 , tendremos que
f (ej ) = a1j e01 + . . . + amj e0m

1jn

(3.1)

para ciertos escalares aij K, y diremos que A = (aij ) es la matriz de la aplicaci


on
lineal f en las bases e1 , . . . , en de E y e01 , . . . , e0m de E 0 . Por definicion, la columna j-esima
de la matriz A esta formada por las coordenadas del vector f (ej ) en la base e01 , . . . , e0m de
E0.
Ahora, para cada vector e = x1 e1 + . . . + xn en E tendremos que su imagen f (e) es

n
n P
m
m P
n
P
P
P
f (e) =
xj f (ej ) =
xj aij e0i =
aij xj e0i .
j=1

j=1 i=1

i=1 j=1

Es decir, si X denota las coordenadas del vector e en la base e1 , . . . , en , puestas en columna, entonces las coordenadas X 0 de f (e) en la base e01 , . . . , e0m se obtienen multiplicando X
por la matriz A de f en las bases consideradas:
X 0 = AX

(3.2)

Proposici
on 3.1.4 Si A es la matriz de una aplicaci
on lineal f : E E 0 , entonces
dim (Im f ) = rg A
P
P
Demostraci
on: Sea e1 , . . . , en una base de E. Como f ( i i ei ) = i i f (ei ), la imagen de
f esta generada por los vectores f (e1 ), . . . , f (en ):
Im f = hf (e1 ), . . . , f (en )i ,
y tenemos que dim hf (e1 ), . . . , f (en )i = rg A de acuerdo con 2.2.8 y 3.1.

3.2. TEOREMA DE ISOMORFIA

3.2

17

Teorema de Isomorfa

Definici
on: Diremos que una aplicacion K-lineal f : E E 0 es un isomorfismo cuando
es biyectiva, y en tal caso la aplicacion inversa f 1 : E 0 E tambien es K-lineal (y por
supuesto biyectiva, as que f 1 tambien es un isomorfismo).
En efecto, si e0 , v 0 E 0 , entonces e0 = f (e) y v 0 = f (v), donde e, v E, de modo que

f 1 (e0 + v 0 ) = f 1 f (e) + f (v) = f 1 f (e + v) = e + v = f 1 (e0 ) + f 1 (v 0 )

f 1 (e0 ) = f 1 f (e) = f 1 f (e) = e = f 1 (e0 ) .


Diremos que dos K-espacios vectoriales E y E 0 son isomorfos si existe alg
un isomorfismo
K-lineal f : E E 0 , en cuyo caso pondremos E ' E 0 .
Ejemplos:
1. Si una matriz A Mnn (K) es invertible, la aplicacion que induce f : K n K n ,
f (X) = AX, es un isomorfismo, y el isomorfismo inverso f 1 : K n K n es precisamente el que define la matriz inversa A1 ; es decir, f 1 (X) = A1 X.
2. Si V1 , . . . , Vn son subespacios vectoriales de un espacio vectorial E, la aplicacion
s : V1 . . . Vn V1 + . . . + Vn

s(v1 , . . . , vn ) = v1 + . . . + vn ,

es lineal y epiyectiva. Ademas esta aplicacion lineal s es inyectiva precisamente cuando


la suma es directa, de modo que en tal caso V1 . . . Vn ' V1 . . . Vn .
3. Los isomorfismos transforman vectores linealmente independientes en vectores linealmente independientes, y sistemas de generadores en sistemas de generadores (compruebese); luego bases en bases. Por tanto, si E ' E 0 , entonces dim E = dim E 0 .
4. Si e1 , . . . , en es una base de un K-espacio vectorial E, entonces la aplicacion lineal
f : K n E

f (x1 , . . . , xn ) = x1 e1 + . . . + xn en ,

es un isomorfismo. El isomorfismo inverso f 1 : E K n asigna a cada vector e E


sus coordenadas (x1 , . . . , xn ) en la base e1 , . . . , en . Por tanto, el teorema 2.2.2 muestra
que todo espacio vectorial de dimensi
on n es isomorfo a K n .
Teorema de Isomorfa: Si f : E E 0 es una aplicaci
on lineal, entonces la aplicaci
on
lineal : E/Ker f Im f , (
e) = f (e), es un isomorfismo:
E/Ker f ' Im f
Demostraci
on: Veamos primero que es una aplicacion bien definida, que (
e) no depende
del representante elegido, que si e = v, entonces f (e) = f (v). Ahora bien, si e = v, entonces
e v (modulo Ker f ); luego v e Ker f , 0 = f (v e) = f (v) f (e) y f (e) = f (v).
Veamos ahora que tal aplicacion es lineal:
(
e + v) = ([e + v]) = f (e + v) = f (e) + f (v) = (
e) + (
v)
(
e) = ([e]) = f (e) = f (e) = (
e) .
es inyectiva: Si 0 = (
e) = f (e), entonces e Ker f , luego e = 0 por 2.1.
es epiyectiva: Si e0 Im f , entonces existe e E tal que e0 = f (e) = (
e).

CAPITULO 3. APLICACIONES LINEALES

18

Corolario 3.2.1 Para toda aplicaci


on lineal f : E E 0 tenemos que
dim (Ker f ) + dim (Im f ) = dim E
Demostraci
on: dim (Im f ) = dim (E/Ker f )

2.2.7.2

dim E dim (Ker f ) .

on lineal f : E E 0 , entonces
Corolario 3.2.2 Si A es la matriz de una aplicaci
dim (Ker f ) = (no de columnas) rg A
3.2.1

3.1.4

Demostraci
on: dim (Ker f ) = dim E dim (Im f ) = dim E rg A.
Corolario 3.2.3 Las soluciones de un sistema homogeneo AX = 0 de m ecuaciones lineales
con n inc
ognitas y coeficientes en K forman un subespacio vectorial de K n de dimensi
on
n rg A; y las soluciones de un sistema no homogeneo compatible AX = B forman una
subvariedad lineal de K n de direcci
on AX = 0 y dimensi
on n rg A.
Demostraci
on: Sea V = {X K n : AX = 0} el conjunto de soluciones del sistema homogeneo AX = 0. La matriz A Mmn (K) define una aplicacion lineal f : K n K m ,
f (X) = AX, y V es precisamente el n
ucleo de f . La matriz de f en las bases usuales de
K n y K m (ver 2.2.1) es A, as que 3.2.2 afirma que la dimension de V es n rg A.
Por u
ltimo, si un sistema AX = B es compatible, las soluciones se obtienen sumando a
una solucion particular X0 las soluciones de la ecuacion homogenea AX = 0; luego forman
la subvariedad lineal X0 + V y, por tanto, su dimension tambien es n rg A.
Definici
on: Fijada una base de un espacio vectorial de dimension finita E, dar ecuaciones
param
etricas de un subespacio vectorial V de E es dar las coordenadas de una base de
V , y dar ecuaciones implcitas de V es dar un sistema homogeneo de ecuaciones lineales
independientes cuyas soluciones sean las coordenadas de los vectores de V .
Dar ecuaciones param
etricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de una base de la direccion de X, y dar ecuaciones implcitas de X es
dar un sistema de ecuaciones lineales independientes cuyas soluciones sean las coordenadas
de los puntos de X.
Ejemplo: Fijada una base (e1 , e2 , e3 , e4 ) de un espacio vectorial E de dimension 4, consideremos la subvariedad lineal X de ecuaciones parametricas




x1 = 1 + 42 + 2
x1
2
1
4

x2 1
2
3
x2 = 21 + 32 + 1



,
x3 = 1 + 1 3 + 2 2
x3 = 31 + 22 + 1

x4 = 41 + 2 + 3
x4
3
4
1
cuya direccion V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dim V = 2. Hallemos primero ecuaciones implcitas de la direccion V .
Las coordenadas de los vectores de V son soluciones de una ecuacion lineal homogenea
u1 x1 + u2 x2 + u3 x3 + u4 x4 = 0 cuando

u1 + 2u2 + 3u3 + 4u4 = 0


4u1 + 3u2 + 2u3 + u4 = 0

u1

u
2

u
3

u4

= (2/3) (1/3)
=
=
= (1/3) (2/3)

3.3. CAMBIO DE BASE

19

y dando los valores = 3, = 0 y = 0, = 3 obtenemos un sistema de ecuaciones

2x1 3x2 + x4 = 0
(3.3)
x1 3x3 + 2x4 = 0
cuyas soluciones forman un subespacio vectorial de K 4 que contiene a las coordenadas de los
vectores de V . Como ambos subespacios vectoriales tienen dimension 2, coinciden, de modo
que unas ecuaciones implcitas de V vienen dadas por 3.3. Ahora, como la subvariedad lineal
X pasa por el punto de coordenadas (2, 1, 1, 3), unas ecuaciones implcitas de X son

2x1 3x2 + x4 = 4
x1 3x3 + 2x4 = 5
Teorema 3.2.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de dimensi
on finita E, entonces
dim (V + W ) = dim V + dim W dim (V W )
Demostraci
on: Consideremos la aplicacion lineal f : V (V + W )/W , f (v) = [v], que es
epiyectiva, pues para toda clase [v + w] (V + W )/W tenemos que
[v + w] = [v] + [w] = [v] + 0 = f (v) ,
y su n
ucleo es Ker f = {v V : [v] = 0} = V W . Terminamos por 2.2.7 y 3.2.1:
dim V = dim (V W ) + dim (V + W )/W = dim (V W ) + dim (V + W ) dim W .
Corolario 3.2.5 Sean V y W dos subespacios vectoriales de un espacio vectorial de dimensi
on finita E. Si la suma de V y W es directa, entonces
dim (V W ) = dim V + dim W
Demostraci
on: De acuerdo con 2.3.1 tenemos que V W = 0, as que
dim (V + W ) = dim V + dim W dim (V W ) = dim V + dim W .
Corolario 3.2.6 Si E y F son dos K-espacios vectoriales de dimensi
on finita,
dim (E F ) = dim E + dim F .
Demostraci
on: La aplicacion lineal p : E F E, p(e, v) = e, es epiyectiva, y su n
ucleo
0 F es claramente isomorfo a F ; luego
dim (E F ) = dim E + dim (0 F ) = dim E + dim F .

3.3

Cambio de Base

Definici
on: Sea e1 , . . . , en una base de un espacio vectorial E. Si consideramos una nueva
base v1 , . . . , vn de E, tendremos escalares bij K tales que
vj = b1j e1 + . . . + bnj en

1jn

(3.4)

y diremos que B = (bij ) Mnn (K) es la matriz de cambio de base.


Las columnas de la matriz de cambio de base B estan formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id : E E cuando en el espacio de salida se considera la nueva base v1 , . . . , vn y en el de
llegada la base antigua e1 , . . . , en .
son las coordenadas de un vector e E en la nueva
Por tanto, de acuerdo con 3.2, si X

base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = B X.

CAPITULO 3. APLICACIONES LINEALES

20

Por otra parte, tambien tenemos una matriz de cambio de base C Mnn (K) cuando
se considera que v1 , . . . , vn es la base inicial de E y que e1 , . . . , en es la nueva base, de
= CX. Luego X = BCX y X
= CB X,
y como estas igualdades son validas
modo que X

para cualesquiera columnas X, X, se concluye que BC = CB = I. Es decir, la matriz B es


invertible, y su inversa es la matriz C. En resumen, la relacion entre las coordenadas X y
de un mismo vector e E en las bases e1 , . . . , en y v1 , . . . , vn respectivamente es
X

X = BX

= B 1 X
X

(3.5)

Aplicaciones Lineales
Sea f : E E 0 una aplicacion lineal y sea A Mmn (K) la matriz de f en ciertas bases
e1 , . . . , en y e01 , . . . , e0m de E y E 0 respectivamente.
0
Consideremos nuevas bases v1 , . . . , vn y v10 , . . . , vm
de E y E 0 respectivamente, las
correspondientes matrices de cambio de base B Mnn (K) y C Mmm (K), y sea
A Mmn (K) la matriz de f en estas nuevas bases de E y E 0 . Vamos a determinar la
nueva matriz A de f en terminos de la matriz A y las matrices de cambio de base B y C
las coordenadas de un vector e E en las bases e1 , . . . , en y v1 , . . . , vn
Sean X y X
0 las coordenadas de f (e) E 0 en las bases e0 , . . . , e0m y
respectivamente, y sean X 0 e X
1
0
0
v1 , . . . , vm respectivamente. De acuerdo con 3.2 tendremos que
X 0 = AX

0 = AX

= B 1 X , X 0 = C X
0 ; luego
y de acuerdo con 3.5 tendremos que X
0 = C AX
= C AB
1 X .
AX = X 0 = C X
Como esta igualdad es valida para cualquier columna X, concluimos que
1
A = C AB

3.4

A = C 1 AB

(3.6)

El Espacio Vectorial HomK (E, E 0 )

Sean E y E 0 dos K-espacios vectoriales. Si f, h : E E 0 son dos aplicaciones lineales y


K, entonces tambien son lineales las aplicaciones
f + h : E E 0
f : E E 0

,
,

(f + h)(e) = f (e) + h(e)


(f )(e) = f (e)

Esta suma de aplicaciones lineales y este producto por escalares definen una estructura
de K-espacio vectorial en el conjunto HomK (E, E 0 ) de todas las aplicaciones lineales1 de E
en E 0 . (Compruebense los 8 axiomas de espacio vectorial).
El vector nulo de este espacio vectorial es la aplicacion lineal 0 : E E 0 , que transforma
todo vector e E en el vector nulo de E 0 ; y el opuesto de una aplicacion lineal f : E E 0
es la aplicacion lineal f : E E 0 , (f )(e) = f (e).

1 Tambi
en

llamadas en algunos libros homomorfismos o morfismos de E en E 0 .

Captulo 4

Geometra Eucldea
4.1

Producto Escalar

Definici
on: Dar un producto escalar en un espacio vectorial real E es asignar a cada par
de vectores e, v E un n
umero real, que denotaremos e v (o < e | v >), de modo que se
verifiquen las siguientes condiciones:
1. Bilineal : (e + e0 ) v = e v + e0 v , (e) v = (e v),
e (v + v 0 ) = e v + e v 0 , e (v) = (e v).
2. Simetrico: e v = v e.
3. Definido-positivo: e e 0 , y solo se da la igualdad cuando e = 0.
Fijado un producto escalar
en un espacio vectorial real E, se llama m
odulo de un vector

e E al n
umero real + e e (que es positivo cuando e 6= 0) y se denota |e|, o kek.
Notese que kek = 2 e e = || kek.
La distancia entre dos puntos p, q E es el modulo de su diferencia: d(p, q) = kq pk.
Ejemplos:
1. En la geometra eucldea, los vectores con origen en un punto prefijado O forman un
espacio vectorial real de dimension 3. Fijada una unidad de longitud, el modulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es

el producto de sus modulos por el coseno del angulo que forman. Este
es el ejemplo
paradigmatico de producto escalar, que motiva los nombres que introduciremos.
2. El producto escalar usual en Rn es
(x1 , . . . , xn ) (y1 , . . . , yn ) =

n
P
i=1

xi yi = x1 y1 + . . . + xn yn .

3. Un producto escalar en C es < z1 | z2 > = z1 z2 + z1 z2 .


t
4. Un producto escalar en Mnn (R) es
P< A2| B > = tr A B. Es definido-positivo porque,
si A = (aij ), entonces < A | A > = ij aij .

5. En el espacio vectorial de todas las funciones reales continuas sobre un intervalo dado
[a, b], un producto escalar es
Z

< f |g > =

f (t)g(t) dt
a

21

CAPITULO 4. GEOMETRIA EUCLIDEA

22

Lema 4.1.1 Para todo par de vectores e, v E se tiene la desigualdad de Cauchy-Schwarz


|e v| kek kvk ; y por tanto la desigualdad triangular: ke + vk kek + kvk .
Demostraci
on: El polinomio p(t) = (te + v) (te + v) = (e e)t2 + 2(e v)t + v v es de grado
2 (salvo cuando e = 0, caso en que la desigualdad es obvia) y no toma valores negativos,
porque el producto escalar es definido-positivo, as que no puede tener dos races reales
distintas (es decir, su discriminante no puede ser positivo):
4(e v)2 4(e e)(v v) 0 ;
luego (e v)2 (e e)(v v), y tomando raz cuadrada vemos que |e v| kek kvk.
En cuanto a la desigualdad triangular, como |e v| kek kvk, tenemos que
ke + vk2 = (e + v) (e + v) = e e + v v + 2(e v) e e + v v + 2|e v|
kek2 + kvk2 + 2kek kvk = (kek + kvk)2
y tomando raz cuadrada se concluye que ke + vk kek + kvk.
ev
Definici
on: Si e, v 6= 0, de acuerdo con el lema anterior, tenemos que 1 kekkvk
1, y
diremos que el coseno del angulo que forman dos vectores no nulos e y v es

cos =

ev
kek kvk

(de modo que el angulo que forman e y v esta bien definido salvo un signo). El angulo que
forman 3 puntos distintos abc es el angulo que forman los vectores a b y c b. Diremos
que dos vectores e, v E son ortogonales cuando e v = 0; es decir, cuando cos = 0.
Cuando > 0, el angulo que forman e y v coincide con el que forman e y v, porque
(e) (v)
(e v)
ev
=
=

kek kvk
|| kek kvk
kek kvk
Ejemplos:
1. Si en un triangulo abc consideramos los vectores e = b a y v = c a, de modo que
c b = v e, de la igualdad
kv ek2 = (v e) (v e) = kvk2 + kek2 2(e v)
se sigue tanto el Teorema de Pitagoras (s. VI a. de C.) como su recproco:
c

e v = 0 kv ek2 = kek2 + kvk2

ve

= /2 kc ak2 = kb ak2 + kc bk2

2. Vamos a demostrar el Teorema de Tales (s. VI a. de C.): Si en un tri


angulo se traza
una recta paralela a un lado, corta a los otros dos lados en segmentos proporcionales.
Como los vectores e y v son linealmente independientes,
v

v e = (v e), = =
kvk
kvk
kv vk
=
=
kek
kek
ke ek

v
e

kvk
kek
kv ek
=
=
kvk
kek
kv ek

4.2. ESPACIOS VECTORIALES EUCLIDEOS

23

3. Si h es el punto de corte de las alturas (rectas que pasan por un vertice y son perpendiculares al lado opuesto) trazadas por los vertices c y a, tendremos que
(b a) (h c) = 0
(c b) (h a) = 0

(4.1)
(4.2)

y sumando obtenemos que (c a) (h b) = 0, de modo que la altura trazada por el


tercer vertice b pasa tambien por h: Las tres alturas de un triangulo se cortan en un
punto h, llamado ortocentro.
4. Si f es el punto de corte de las mediatrices (rectas perpendiculares a los lados por
el punto medio) de los lados ab y bc, tendremos que
0 = 2(b a) (f
0 = 2(c b) (f

a+b
2 )
b+c
2 )

= (b a) 2f + a a b b

(4.3)

= (c b) 2f + b b c c

(4.4)

y sumando obtenemos que 0 = (c a) 2f + a a c c = 2(c a) (f a+c


2 ), de modo
que la mediatriz del lado ab tambien pasa por f : las tres mediatrices se cortan en un
punto f , llamado circuncentro.
5. Sumando ahora 4.1 con 4.3, y 4.2 con 4.4, y recordando que el baricentro es g =
obtenemos tambien que

a+b+c
,
3

(b a) (h + 2f 3g) = 0
(c b) (h + 2f 3g) = 0
Como los vectores b a, c b son linealmente independientes, porque los puntos a, b, c
no estan alineados, se sigue que h + 2f 3g = 0; es decir,
g=

h 2f
2
+
= h + (f h)
3
3
3

de modo que el baricentro esta en el segmento que determinan el ortocentro y el


circuncentro, y a doble distancia del primero que del segundo. La recta que pasa por
estos tres puntos recibe el nombre de recta de Euler (1707-1783).

4.2

Espacios Vectoriales Eucldeos

Definici
on: Llamaremos espacio vectorial eucldeo, en honor de Euclides (325?-265? a.
de C.), a todo espacio vectorial real E de dimension finita dotado de un producto escalar, y
diremos que el ortogonal de un subespacio vectorial V de E es:
V = {e E : e v = 0 para todo vector v V } .
Teorema 4.2.1 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, su
ortogonal es un subespacio vectorial de E de dimensi
on:
dim V = dim E dim V

CAPITULO 4. GEOMETRIA EUCLIDEA

24

Demostraci
on: Sea v1 , . . . , vd una base de V . El n
ucleo de la aplicacion lineal
f : E Rd

f (e) = (e v1 , . . . , e vd ) ,

es Ker f = {e E : e v1 = 0, . . . , e vd = 0} = (Rv1 + . . . + Rvd ) = V , porque si un


vector e E es ortogonal a ciertos vectores, e v1 = . . . = e vd = 0, entonces tambien es
ortogonal a todas sus combinaciones lineales,
e (1 v1 + . . . + d vd ) = 1 (e v1 ) + . . . + r (e vd ) = 0 ,
de modo que e (Rv1 + . . . + Rvd ) . Luego V es un subespacio vectorial y
3.2.1

dim E = dim (Ker f ) + dim (Im f ) = dim V + dim (Im f ) .


Ademas, la imagen de f es un subespacio vectorial de Rd , as que
dim E dim V + dim (Rd ) = dim V + d = dim V + dim V .

(4.5)

Por otra parte, si v V V , entonces v v = 0; luego v = 0, porque el producto escalar


es definido-positivo, y V V = 0 . Por tanto
3.2.4

dim V + dim V = dim (V + V ) dim E

(4.6)

y comparando con 4.5 concluimos que dim V + dim V = dim E.


Corolario 4.2.2 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, tenemos
que E = V V y que (V ) = V .
Demostraci
on: Como V V = 0, la suma de V y V es directa por 2.3.1 y, de acuerdo con
3.2.5, su dimension es dim (V V ) = dim V + dim V = dim E, as que 2.2.7.1 permite
concluir que V V = E.
Por otra parte, V (V ) por definicion de V , y de acuerdo con 4.2.2
dim (V ) = dim E dim (V ) = dim E (dim E dim V ) = dim V ,
as que de nuevo 2.2.7.1 permite concluir que (V ) = V .
Corolario 4.2.3 Si V y W son subespacios vectoriales de un espacio vectorial eucldeo E:
1. V W W V
2. V = W V = W
3. (V + W ) = V W
4. (V W ) = V + W
Demostraci
on: Si V W , es claro que W V . Recprocamente, si W V ,
entonces (V ) (W ) ; luego V W de acuerdo con 4.2.2.
2. Si V = W , entonces (V ) = (W ) ; luego V = W de acuerdo con 4.2.2.
3. Como V V + W y W V + W , tenemos que (V + W ) V y (V + W ) W ;
luego (V + W ) V W .
Ademas, si e V W , para todo vector v + w V + W tendremos que
e (v + w) = e v + e w = 0 .
Luego V W (V + W ) y concluimos que (V + W ) = V W .
4. De acuerdo con el segundo apartado, para demostrar que (V W ) = V + W
basta ver que sus ortogonales coinciden:

3

4.2.2
4.2.2
V + W = (V ) (W ) = V W = (V W )
.

4.3. BASES ORTONORMALES

25

Ejemplos:
1. Se llama distancia de un punto p a una subvariedad lineal X al nfimo de las distancias
de p a los puntos de X:
d(p, X) = inf d(p, x) .
xX

Existe un u
nico punto q X tal que p q es ortogonal a la direcci
on de X. Adem
as,
la distancia de p a X se alcanza en tal punto: d(p, q) = d(p, X).
En efecto, si X = x + V , seg
un 4.2.2 tendremos p x = v + w donde v V y w V ,
y esta descomposicion es u
nica. Es decir, q = x + v es el u
nico punto de X tal que
p q V . Ademas, para cualquier otro punto x0 X, por el teorema de Pitagoras
tendremos d(p, x0 )2 = d(p, q)2 + d(q, x0 )2 , as que d(p, q) < d(p, x0 ) cuando x0 6= q.
2. Si V es un subespacio vectorial de un espacio vectorial eucldeo E, de acuerdo con
4.2.2 tenemos que E = V V . La aplicacion lineal sV : E E que es la identidad
en V y transforma cada vector de V en su opuesto se llama simetra respecto de
V , y la aplicacion lineal pV : E V que es la identidad en V y se anula en todos los
vectores de V se llama proyecci
on ortogonal sobre V .
Es decir, cada vector e E descompone de modo u
nico en suma, e = v + w, de un
vector v V y otro w V , y por definicion sV (e) = v w , pV (v + w) = v .
3. Se dice que dos subvariedades lineales X = p + V , Y = q + W de un espacio vectorial
eucldeo E son perpendiculares cuando V y W son incidentes (i.e., cuando V W
o W V ), lo que, en virtud de 4.2.3, equivale a que W y V sean incidentes.
Cuando V W , tenemos que V W W W = 0; luego V W = 0.
Cuando W V , tenemos que E = W + W V + W ; luego V + W = E.

4.3

Bases Ortonormales

Definici
on: Diremos que una base e1 , . . . , en de un espacio vectorial eucldeo E es ortonormal cuando todos los vectores de la base son de modulo 1 y mutuamente ortogonales:
(
1 cuando i = j
ei ej =
0 cuando i 6= j
Por definicion, en una base ortonormal el producto escalar de dos vectores e, v E es
e v = (x1 e1 + . . . + xn en ) (y1 e1 + . . . + yn en ) = x1 y1 + . . . + xn yn .
Teorema 4.3.1 Todo espacio vectorial eucldeo E 6= 0 admite bases ortonormales.
Demostraci
on: Procedemos por induccion sobre n = dim E. Cuando n = 1, tenemos que
E = Rv. Si tomamos e = v/kvk, entonces e e = 1 y e ya es una base ortonormal de E.
Si n > 1, tomamos un vector no nulo v E y ponemos en = v/kvk, de modo que
en en = 1. De acuerdo con 4.2.1, dim (Ren ) = n 1, as que por hipotesis de induccion
existe alguna base ortonormal e1 , . . . , en1 de (Ren ) . Ahora los vectores e1 , . . . , en son
de modulo 1 y mutuamente ortogonales, as que basta ver que e1 , . . . , en forman una base
de E. Como el n
umero de vectores coincide con la dimension de E, de acuerdo con 2.2.2 es
suficiente probar que e1 , . . . , en generan E. Ahora bien,
4.2.2

Re1 + . . . + Ren1 + Ren = (Ren ) + Ren = E .

26

CAPITULO 4. GEOMETRIA EUCLIDEA

Captulo 5

Endomorfismos
5.1

Polinomios

En este captulo, de nuevo los escalares seran K = Q, R o C.


Regla de Ruffini (1765-1822): Sea p(x) un polinomio con coeficientes en K. Si K es
una raz de p(x), entonces p(x) es m
ultiplo de x :
p(x) = (x )q(x) .
Demostraci
on: Dividiendo p(x) por x tendremos que p(x) = (x )q(x) + r, y sustituyendo x = en esta igualdad obtenemos que
0 = p() = ( )q() + r = r ,
y concluimos p(x) = (x )q(x).
Definici
on: Si K es una raz de un polinomio no nulo p(x) con coeficientes en K,
llamaremos multiplicidad de tal raz al mayor n
umero natural m tal que (x )m divida
m
a p(x); es decir, p(x) = (x ) q(x) donde q(x) ya no admite la raz , de acuerdo con la
Regla de Ruffini. Las races de multiplicidad 1 se denominan simples.
Consideremos un polinomio p(x) 6= 0 con coeficientes en K. Si admite una raz 1 K,
tendremos p(x) = (x 1 )m1 q1 (x), donde el polinomio q1 (x) tambien tiene coeficientes en
K y ya no admite la raz 1 . Ahora, si p(x) admite otra raz 2 K, ha de ser una raz de
q1 (x), de modo que p(x) = (x1 )m1 (x2 )m2 q2 (x). Procediendo de este modo obtenemos
una descomposicion
p(x) = (x 1 )m1 (x 2 )m2 . . . (x r )mr q(x) ,

(5.1)

donde 1 , . . . , r son todas las races de p(x) en K, los exponentes m1 , . . . , mr son sus
respectivas multiplicidades, y el polinomio q(x) carece de races en K. Esta descomposicion
muestra que el n
umero de races en K de un polinomio no nulo p(x), cada una contada con
su multiplicidad, est
a acotado por el grado del polinomio, y diremos que p(x) tiene todas sus
races en K cuando se de la igualdad; i.e., cuando en 5.1 el polinomio q(x) sea constante.
Teorema de DAlembert (1717-1783): Todo polinomio no constante con coeficientes complejos admite alguna raz compleja.
La demostracion de este teorema fundamental se dara en cursos posteriores. De acuerdo
con este teorema, en el caso de polinomios con coeficientes complejos, en la descomposicion
5.1 el factor q(x) ha de ser constante: El n
umero de races complejas de un polinomio no
constante, contadas con su multiplicidad, siempre es el grado del polinomio.
27

CAPITULO 5. ENDOMORFISMOS

28

5.2

Valores y Vectores Propios

Definici
on: Llamaremos endomorfismos de un K-espacio vectorial E a las aplicaciones
K-lineales T : E E. Si S, T : E E son dos endomorfismos, su producto ST es la
composicion S T , que tambien es un endomorfismo de E.
Fijada una base e1 , . . . , en de E, cada endomorfismo T : E E esta determinado por
su matriz A = (aij ) Mnn (K) en tal base:
T (ej ) =

n
P
i=1

aij ei

j = 1, . . . , n .

Si se considera una nueva base en E, y B es la matriz del cambio de base, seg


un 3.6 la
matriz A de T en la nueva base es
A = B 1 AB .

(5.2)

Definici
on: Dado un endomorfismo T de un K-espacio vectorial de dimension finita E,
diremos que un escalar K es un valor propio de T si existe alg
un vector no nulo e E
tal que T (e) = e, en cuyo caso diremos que e es un vector propio de T y pondremos
V = Ker (Id T ) = {e E : T (e) = e}
de modo que V es un subespacio vectorial de E, y V 6= 0.
Definici
on: Sea T un endomorfismo de un espacio vectorial E de dimension finita n. Si A
es la matriz de T en alguna base de E, diremos que el polinomio

x a11
a12
...
a1n

n
a21
x a22 . . .
a2n
cT (x) =
= xn
aii xn1 + . . . + (1)n |A|

...
...
...
i=1
...
an1
an2
. . . x ann
es el polinomio caracterstico de T , pues no depende de la base elegida, sino solo de T .
En efecto, si A es la matriz de T en otra base de E, entonces A = B 1 AB y
= |xB 1 IB B 1 AB| = |B 1 (xI A)B| =
|xI A|
= |B 1 | |xI A| |B| = |B|1 |B| |xI A| = |xI A| .
on finita E.
Teorema 5.2.1 Sea T un endomorfismo de un K-espacio vectorial de dimensi
Los valores propios de T son las races en K de su polinomio caracterstico cT (x).
Demostraci
on: Sea n = dim E. Por definicion, K es un valor propio de T precisamente
cuando 0 6= Ker (Id T ); es decir, si y solo si

3.2.2
= n rg (I A) ;
0 6= dim Ker (Id T )
lo que significa que rg (I A) < n, y ocurre justamente cuando cT () = |I A| = 0.
Corolario 5.2.2 El n
umero de valores propios de un endomorfismo T de un espacio vectorial E de dimensi
on n siempre es menor o igual que n.
Demostraci
on: El grado del polinomio caracterstico cT (x) es n = dim E, y el n
umero de
races en K de un polinomio siempre esta acotado por el grado del polinomio.
Corolario 5.2.3 Todo endomorfismo de un espacio vectorial complejo de dimensi
on finita
tiene alg
un valor propio.
Demostraci
on: Es consecuencia directa de 5.2.1 y del Teorema de DAlembert.

DE ENDOMORFISMOS
5.3. DIAGONALIZACION

29

Teorema de Hamilton-Cayley (1805-1865 y 1821-1895): El polinomio caracterstico


c(x) = xn + . . . + c1 x + c0 de un endomorfismo T de un K-espacio vectorial de dimensi
on finita E siempre anula al endomorfismo: c(T ) = T n + . . . + c1 T + c0 Id = 0 .
Demostraci
on: Si A Mnn (K) es la matriz de T en una base de E, la matriz del endomorfismo c(T ) es c(A) = An + . . . + c1 A + c0 I = 0, as que el teorema afirma que c(A) = 0,
donde c(x) = |xI A|; luego basta probarlo en el caso K = C.
En tal caso procedemos por induccion sobre n = dim E. Si n = 1, entonces A = (a) para
alg
un escalar a C. Luego c(x) = x a y c(A) = A aI = 0.
Si n > 1, de acuerdo con 5.2.3, el endomorfismo T tiene alg
un valor propio C.
Consideremos un vector propio e1 E de valor propio , y una base e1 , . . . , en en E. La
matriz A de T en esta base es de la forma

...
A=
0 A
para cierta matriz cuadrada A de n 1 columnas. Luego c(x) = (x )
c(x), donde c(x) =
y, por hipotesis de induccion, c(A)
= 0. Ahora
|xI A|

r
...
r
A =
0 Ar

0
c(A) = (A I)
c(A) =
0

5.3

...
B

c()
0


...
0
= 0
c(A)

...
B

c() . . .
0
0

=0.

Diagonalizaci
on de Endomorfismos

Definici
on: Diremos que un endomorfismo T de un K-espacio vectorial de dimension finita
E es diagonalizable si existe alguna base e1 , . . . , ed de E formada por vectores propios de
T ; i.e., T (ej ) = j ej para ciertos escalares j K, lo que significa que la matriz de T en
tal base es diagonal (todos sus coeficientes son nulos, salvo quizas los de la diagonal):

1 0 . . . 0
0 2 . . . 0

D =
. . . . . . . . . . . .
0
0 . . . d
De acuerdo con 5.2, un endomorfismo T de matriz A es diagonalizable si existe alguna
matriz invertible B tal que D = B 1 AB es una matriz diagonal D. En tal caso A = BDB 1 ,
y es sencillo calcular las potencias An (y por tanto, la solucion general Xn = An X0 del
sistema de ecuaciones en diferencias finitas Xn+1 = AXn ), porque
An = (BDB 1 )(BDB 1 ) . . . (BDB 1 ) = BDn B 1 .

Igualmente, la solucion general del sistema de ecuaciones diferenciales X 0 = AX es X = B X,


0

donde X es la solucion general del sistema X = DX. En efecto:


0 = BDX
= BDB 1 X = AX .
X 0 = BX
0 = DX,
basta observar que la solucion general de la
Ahora, para resolver el sistema X
0
ecuacion diferencial x
i = i x
i es
x
i (t) = c ei t .

CAPITULO 5. ENDOMORFISMOS

30
Ejemplos:

1. Para resolver la ecuacion diferencial x00 = ax0 + bx, a, b R, planteamos el siguiente


sistema de ecuaciones diferenciales con una nueva funcion incognita y(t):
(

x0 = y
x
x
0 1
0 1
,
=
,
A
=
y
b a
y
b a
y 0 = ay + bx
El polinomio caracterstico del endomorfismo A : R2 R2 es

u
1
= u2 au b .
c(u) = |uI A| =
b u a
Si el polinomio caracterstico u2 aub tiene dos races reales y distintas (a2 +4b > 0)

a a2 + 4b
1 , 2 =
2
estas son los valores propios de tal endomorfismo. Para hallar vectores propios se han
de resolver los sistemas de ecuaciones lineales homogeneos


1
1
x1
0
2
1
x1
0
=
,
=
b 1 a
x2
0
b 2 a
x2
0
1 x1 x2 = 0

2 x1 x2 = 0

Los vectores propios e1 = (1, 1 ) y e2 = (1, 2 ) forman una base de R2 ,y nos permiten
diagonalizar la matriz A:

1 0
1
1
1
D=
= B AB
,
B=
0 2
1 2
0 = DX:

Ahora resolvemos el sistema de ecuaciones diferenciales X


(
(
0

x
0 = 1 x

x
= c1 e1 t
x

1 0
x

,
=
,
0
y
0 2
y
y = 2 y
y = c2 e2 t

y la solucion general del sistema de ecuaciones diferenciales X 0 = AX es X = B X:



t
x
1
1
c1 e 1
=
y
1 2
c2 e2 t
x(t) = c1 e1 t + c2 e2 t

c1 , c2 R .

2. Si el polinomio caracterstico u2 au b tiene dos races imaginarias (a2 + 4b < 0)

a
a2 4b
i = i
,
2
2
hemos de sustituir R por C en el razonamiento anterior y considerar funciones con
valores complejos, de modo que la solucion general de la ecuacion diferencial x00 =
ax0 + bx es

x(t) = c1 e(+i)t +c2 e(i)t = et c1 eit +c2 eit


,
c1 , c2 C
En las soluciones reales c1 y c2 han de ser conjugados, c1 = ei y c2 = ei , as que

x(t) = et ei(t+) + ei(t+)


x(t) = c et cos(t + )

c, R .

DE ENDOMORFISMOS
5.3. DIAGONALIZACION

31

3. Para hallar las sucesiones (xn ) = (x0 , x1 , . . .) tales que xn+2 = axn+1 +bxn , planteamos
el siguiente sistema de ecuaciones con una nueva sucesion incognita (yn ):
(


xn+1 = yn
xn+1
0 1
xn
,
=
, Xn+1 = AXn
y
yn
b
a
n+1
yn+1 = ayn + bxn
cuya solucion general es Xn = An X0 . Cuando a2 + 4b 6= 0, la matriz A es diagonalizable, A = BDB 1 , de modo que la solucion general es Xn = BDn B 1 X0 :

1
n
xn
1
1
x0
1
1
1 0
=
1 2
yn
1 2
0 2n
y0
n
1
xn
=
yn
1n+1

2n
2n+1


c1
c2


c1
1
=
c2
1

1
2

1
x0
y0

(5.3)

xn = c1 1n + c2 2n
4. La sucesion de Fibonacci (1170-1250) es la sucesion 0, 1, 1, 2, 3, 5, 8, 13,... cuyos
terminos iniciales son x0 = 0, x1 = 1, y cada termino es la suma de los dos anteriores:
xn+2 = xn+1 + x
ces del polinomio u2 u 1 son 1 = y 2 = 1 ,
n . Como las ra
0
donde = (1 + 5)/2 1 618... es la llamada proporcion
aurea, el termino general
de la sucesion de Fibonacci es
xn = c1 n + c2 ()n .

(5.4)

Las constantes c1 y c2 pueden determinarse a partir de los terminos iniciales x0 = 0,


y0 = x1 = 1 mediante la formula 5.3, o bien resolviendo el sistema de ecuaciones
lineales que se obtiene al dar los valores n = 0 y n = 1 en 5.4:

1
1
c1 + c2 = x0 = 0
,
c1 =
= , c2 = c1 .
c1 c2 1 = x1 = 1
+ 1
5
xn =

n ()n

.
5

Teorema 5.3.1 Si 1 , . . . , m son valores propios de un endomorfismo T , distintos entre


s, entonces la suma de los subespacios vectoriales V1 , . . . , Vm es directa, y por tanto
dim (V1 + . . . + Vm ) = dim V1 + . . . + dim Vm .
Demostraci
on: Seg
un la definicion de suma directa, hemos de probar que es inyectiva la
siguiente aplicacion lineal:
s : V1 . . . Vm V1 + . . . + Vm

s(v1 , . . . , vm ) = v1 + . . . + vm .

Procedemos por induccion sobre m, y el enunciado es obvio cuando m = 1.


Si m > 1 y v1 + . . . + vm = 0, donde vi Vi , tendremos que
0 = T (v1 + . . . + vm ) = 1 v1 + . . . + m vm
y restando la igualdad 0 = m (v1 + . . . + vm ) obtenemos que
0 = (1 m )v1 + . . . + (m1 m )vm1 .
Por hipotesis de induccion, se sigue que (1 m )v1 = . . . = (m1 m )vm1 = 0. Como
i 6= j cuando i 6= j, concluimos que v1 = . . . = vm1 = 0, y por tanto que tambien
vm = v1 . . . vm1 = 0.
Por u
ltimo, dim (V1 . . . Vm ) = dim V1 + . . . + dim Vm de acuerdo con 3.2.5.

CAPITULO 5. ENDOMORFISMOS

32

Lema 5.3.2 Sean 1 , . . . , r todos los valores propios de un endomorfismo T de un espacio


vectorial E de dimensi
on finita. T es diagonalizable si y s
olo si V1 + . . . + Vr = E.
Demostraci
on: Si T es diagonalizable, por definicion V1 + . . . + Vr contiene una base de
E, y como es un subespacio vectorial de E, concluimos que V1 + . . . + Vr = E.
Recprocamente, si V1 + . . . + Vr = E, considerando una base en cada sumando Vi
vemos que E admite un sistema de generadores formado por vectores propios de T , y 2.2.2
permite concluir que E admite una base formada por vectores propios de T ; es decir, que T
es diagonalizable.
Corolario 5.3.3 Si un endomorfismo T de un K-espacio vectorial E de dimensi
on n tiene
n valores propios distintos (su polinomio caracterstico tiene todas sus races en K y son
simples), entonces T es diagonalizable.
Demostraci
on: Si 1 , . . . , n son los valores propios de T , tenemos que 1 dim Vi as que
5.3.1

n dim V1 + . . . + dim Vn = dim (V1 + . . . + Vn ) dim E = n .


Luego dim (V1 + . . . + Vn ) = n, de modo que V1 + . . . + Vn = E y T es diagonalizable
de acuerdo con 5.3.2.
Criterio de Diagonalizaci
on: Un endomorfismo T de un K-espacio vectorial de dimensi
on finita E es diagonalizable si y s
olo si su polinomio caracterstico cT (x) tiene todas sus
races en K y la multiplicidad mi de cada raz i coincide con la dimensi
on de Vi :
mi = dim Vi .
Demostraci
on: Si T es diagonalizable, por definicion su matriz en alguna base de E es

1 0 . . . 0
0 2 . . . 0

D =
. . . . . . . . . . . .
0
0 . . . n
as que su polinomio caracterstico cT (x) = |xI D| = (x 1 ) . . . (x n ) claramente tiene
todas sus races en K, y la multiplicidad mi de cada raz i es el n
umero de veces que se
repite i en la sucesion 1 , . . . , n , de modo que rg (D i I) = n mi y
mi = n rg (i I D)

3.2.2

dim Ker (i Id T ) = dim Vi .

Recprocamente, sean 1 , . . . , r K las races en K de cT (x) y m1 , . . . , mr sus respectivas multiplicidades. Si cT (x) tiene todas sus races en K, entonces
m1 + . . . + mr = gr cT (x) = dim E .
Si ademas mi = dim Vi para todo ndice i = 1, . . . , r, entonces
dim (V1 + . . . + Vr )

5.3.1

dim V1 + . . . + dim Vr = m1 + . . . + mr = dim E,

y obtenemos que V1 + . . . + Vr = E. Luego T es diagonalizable de seg


un 5.3.2.
Nota: Si A es la matriz de T en una base de E, de acuerdo con 3.2.2

dim Vi = dim Ker (i I T ) = n rg (i I A) .

Indice de Materias
altura, 22
aplicacion, 3
biyectiva, 4
epiyectiva, 3
inversa, 4
inyectiva, 3
lineal, 15
argumento, 3
aurea, proporcion, 31

distancia, 21, 24
ecuaciones
implcitas, 18
parametricas, 18
endomorfismo, 28
diagonalizable, 29
epiyectiva, aplicacion, 3
equivalencia
, clase de, 1
, relacion de, 1
escalar, 5, 7
, producto, 21
espacio vectorial, 7
cociente, 9
eucldeo, 23
Euler
, formula de, 2
, recta de, 23
exponencial compleja, 3

baricentro, 11
base, 9
, cambio de, 19
ortonormal, 25
biyectiva, aplicacion, 4
cambio de base, 19
canonica, proyeccion, 4
caracterstico, polinomio, 28
ciclo, 4
circuncentro, 22
clase de equivalencia, 1
cociente
, conjunto, 1
, espacio vectorial, 9
complejos, n
umeros, 2
composicion, 3
congruencia, 1, 8
conjugado, 2
conjunto cociente, 1
coordenadas, 9
coseno, 22
Cramer, regla de, 6
cuadrilatero, 11

generadores, sistema de, 9


Hamilton-Cayley, teorema de, 29
identidad, 3
imagen, 3, 15
imaginaria, parte, 2
impar, permutacion, 4
implcitas, ecuaciones, 18
independencia lineal, 9
inversa
, aplicacion, 4
, matriz, 5
invertible, matriz, 5
inyectiva, aplicacion, 3
isomorfa, teorema de, 17
isomorfismo, 17

DAlembert, teorema de, 27


dependencia lineal, 9
determinante, 5
diagonalizable, endomorfismo, 29
diagonalizacion, criterio de, 32
dimension, 10
direccion, 8
directa, suma, 14
disjuntos, ciclos, 4

lineal
, aplicacion, 15
, dependencia, 9
, independencia, 9
, subvariedad, 8
33

INDICE DE MATERIAS

34
m
odulo
de un n
umero complejo, 2
de un vector, 21
matriz, 5
, determinante de una, 5
, menor de una, 6
, rango de una, 6
invertible, 5
traspuesta, 5
unidad, 5
mediana, 11
mediatriz, 22
medio, punto, 11
menor de una matriz, 6
multiplicidad de una raz, 27
n
ucleo, 15
ortocentro, 22
ortogonal
, proyeccion, 24
, subespacio vectorial, 23
ortonormal, base, 25
paralelismo, 8
paralelogramo, 11
parametricas, ecuaciones, 18
permutacion, 4
impar, 4
par, 4
perpendicularidad, 24
Pitagoras, teorema de, 22
plano, 11
polinomio caracterstico, 28
producto
de matrices, 5
de n
umeros complejos, 2
escalar, 21
propio
, valor, 28
, vector, 28
proyeccion
canonica, 4
ortogonal, 24
raz simple, 27
rango, 6
, teorema del, 6
real, parte, 2
recta, 11
relacion, 1
de equivalencia, 1
Rouche-Frobenius, teorema de, 6, 13
Ruffini, regla de, 27

signo de una permutacion, 4


simetra, 24
simple, raz, 27
sistema de generadores, 9
subespacio vectorial, 7
subvariedad lineal, 8
suma
de subespacios vectoriales, 8
directa, 14
suplementario, 14
trasposicion, 4
traspuesta, matriz, 5
triangulo, 11
unidad, matriz, 5
valor propio, 28
vector, 7
propio, 28

También podría gustarte

  • Calculo de Limites Ejercicios Resueltos
    Calculo de Limites Ejercicios Resueltos
    Documento8 páginas
    Calculo de Limites Ejercicios Resueltos
    thespeedfreak
    Aún no hay calificaciones
  • Problemas Galois PDF
    Problemas Galois PDF
    Documento26 páginas
    Problemas Galois PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Seminario de Matematica
    Seminario de Matematica
    Documento1 página
    Seminario de Matematica
    Brandon Carhuas
    Aún no hay calificaciones
  • Seminario de Matematica
    Seminario de Matematica
    Documento1 página
    Seminario de Matematica
    Brandon Carhuas
    Aún no hay calificaciones
  • EjTmedRes PDF
    EjTmedRes PDF
    Documento44 páginas
    EjTmedRes PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Anillos PDF
    Anillos PDF
    Documento88 páginas
    Anillos PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Practica7 c1 PDF
    Practica7 c1 PDF
    Documento1 página
    Practica7 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • GeomRiem PDF
    GeomRiem PDF
    Documento119 páginas
    GeomRiem PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • 1 Quincena 1
    1 Quincena 1
    Documento16 páginas
    1 Quincena 1
    Daisy Alejandra Muñoz Silva
    Aún no hay calificaciones
  • Pract5.8 c1 PDF
    Pract5.8 c1 PDF
    Documento3 páginas
    Pract5.8 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Ecuaciones Diferenciales Punto Fijo PDF
    Ecuaciones Diferenciales Punto Fijo PDF
    Documento39 páginas
    Ecuaciones Diferenciales Punto Fijo PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Practica2 c1 PDF
    Practica2 c1 PDF
    Documento3 páginas
    Practica2 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Pract2.1 c1
    Pract2.1 c1
    Documento3 páginas
    Pract2.1 c1
    Brandon Carhuas
    Aún no hay calificaciones
  • Pract5.10 c1 PDF
    Pract5.10 c1 PDF
    Documento2 páginas
    Pract5.10 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Gdiferencial PDF
    Gdiferencial PDF
    Documento180 páginas
    Gdiferencial PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Unidad 2
    Unidad 2
    Documento28 páginas
    Unidad 2
    Victor Gomez
    Aún no hay calificaciones
  • Algebra de Boole PDF
    Algebra de Boole PDF
    Documento76 páginas
    Algebra de Boole PDF
    Guillermo Guevara
    Aún no hay calificaciones
  • Derivada Parcial Parte 2
    Derivada Parcial Parte 2
    Documento17 páginas
    Derivada Parcial Parte 2
    Adrian Gaytan
    Aún no hay calificaciones
  • Pract5.13 c1
    Pract5.13 c1
    Documento1 página
    Pract5.13 c1
    Brandon Carhuas
    Aún no hay calificaciones
  • Practica2 c1
    Practica2 c1
    Documento3 páginas
    Practica2 c1
    Brandon Carhuas
    Aún no hay calificaciones
  • Asintotas Web Ejercicios Resueltos
    Asintotas Web Ejercicios Resueltos
    Documento14 páginas
    Asintotas Web Ejercicios Resueltos
    Olga Huertas Castelblanco
    Aún no hay calificaciones
  • Pract2.5 c1
    Pract2.5 c1
    Documento1 página
    Pract2.5 c1
    Brandon Carhuas
    Aún no hay calificaciones
  • Pract3.2 c1 PDF
    Pract3.2 c1 PDF
    Documento3 páginas
    Pract3.2 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Pract5.8 c1
    Pract5.8 c1
    Documento3 páginas
    Pract5.8 c1
    Brandon Carhuas
    Aún no hay calificaciones
  • Practica7 c1 PDF
    Practica7 c1 PDF
    Documento1 página
    Practica7 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Pract2.6 c1
    Pract2.6 c1
    Documento2 páginas
    Pract2.6 c1
    Brandon Carhuas
    Aún no hay calificaciones
  • TEMA2EDO
    TEMA2EDO
    Documento23 páginas
    TEMA2EDO
    A94leo14hsetma
    Aún no hay calificaciones
  • Practica8 c1 PDF
    Practica8 c1 PDF
    Documento2 páginas
    Practica8 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones
  • Pract3.1 c1
    Pract3.1 c1
    Documento7 páginas
    Pract3.1 c1
    Brandon Carhuas
    Aún no hay calificaciones
  • Pract2.3 c1 PDF
    Pract2.3 c1 PDF
    Documento4 páginas
    Pract2.3 c1 PDF
    Brandon Carhuas
    Aún no hay calificaciones