Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Espacios Vectoriales PDF
Espacios Vectoriales PDF
En el presente trabajo se detalla un resumen general de la materia lgebra Lineal , en el cual se tratara de
enlazar las relaciones de todos los temas vistos en l transcurso del ciclo.
Por ejemplo, dimensin y espacio vectorial, combinacin lineal y matrices n x m, y otros temas estn
ampliamente relacionados igual que otros temas que veremos en el transcurso de este trabajo.
Tratar de enlazar los temas de la presente asignatura fue satisfactorio ya que as nos damos cuenta de que
tanto necesitamos aprender los temas anteriores para poder resolver los nuevos problemas, sin tener una buena
base de los temas estudiados en el transcurso del trabajo no podramos realizar los problemas de otros temas
no presentes en este trabajo ejemplo los valores y vectores propios en este se necesita que se domine casi todo
este trabajo para poder entender y poder analizar este tema ya que estn grandemente relacionados .
Tambin tratamos de sacar la esencia de cada tema y darles una vista relativamente rapida pero completa, ya
que este trabajo esta propuesto para ensear brevemente pero ampliamente los temas en este..
ESTRUCTURAS ALGEBRAICAS
Una estructura algebraica es un conjunto de operaciones binarias, esta se representan <A, operacin>, <{a, b,
c}, operacin>, as se representan las estructuras algebraicas sencillas, las dobles se representan <conjunto,
1o. operacin, 2o. operacin>.
Una operacion binaria es cuando dos conjuntos se operan entre si y el resultado de esta operacin da un tercer
conjunto.
Tabla de Cayley es una tabla que contiene filas y columnas, para poder trabajar con estas tablas se necesitan
dos conjuntos finitos ejemplo:
A{1,2,3} y B{4,5,6}
C = A x B ! C donde x es una multiplicacin ordinaria.
x
1
2
3
4
4
8
12
5
5
10
15
6
6
12
18
Donde c ={4,5,6,8,10,12,15,18}
ESTRUCTURA ALGEBRAICA:
Estos se pueden clasificar segn la cantidad de operaciones que tengan.
Segn las leyes que cumplan Las estructuras algebraicas de una operacin asi tienen un nombre en particular
as:
Si cumple la ley de cierre se le denomina como estructura algebraica monoide.
Si cumple la de cierre y la asociativa es un semigrupo.
1
Elemento inverso o Identidad: este dice que un elemento operado con el neutro de la operacin esta debe de
dar de resultado el elemento ejemplo: el elemento neutro de la suma es el 0 entonces a + 0 = a y 0 + a = 0.
Elemento inverso: este es aquel que al ser operado con cualquier elemento este debe de dar de resultado el
elemento neutro de la operacin ejemplo: el elemento inverso de la suma es la resta entonces a + (a) = 0 y
(a) + a = 0.
Ley asociativa: este dice que los elementos se pueden asociar sin alterar el resultado ejemplo: (a + b) + c = a +
(b + c)=d.
Ley conmutativa: este dice que el orden de los elementos no altera el producto ejemplo:
a + b = b + a = c.
ESPACIOS VECTORIALES
Espacio euclidiano o Espacio vectorial:
Un espacio euclidiano es el conjunto de nadas ordenadas, tambien conocido por espacio ndimencional y de
denota por Rn este es una sucesin de n nmeros reales ejemplo (a1,a2,...,an) donde los vectores Rn se
clasifican as:
R1 = espacio unidimensional, lnea recta real.
R2 = espacio bidimensional, pares ordenados.
R3 = espacio tridimensional, terna ordenadas.
.......
Rn = espacio ndimencional, nadas ordenadas.
Operaciones Basicas con Vectores en R2:
Suma de vectores y multiplicacin por un escalar:
Siendo X y Y dos vectores y H un escalar se dice que:
X + Y = (x1 , x2) + (y1 , y2) = (y1 , y2) + (x1 , x2) y la multiplicacin por un escalar se define H(x1 ,
x2)=(Hx1 , Hx2).
Las propiedades que cumple la suma de vectores son las misma que cumplan las estructuras algebraica de
una operacin que son: la de cierre, la conmutativa, la asociativa, elemento neutro e identidad y la distributiva.
Las leyes que cumple la multiplicacin por un escalar son:
La de cierre bajo la multiplicacin Hx,
La distributiva (H+I)x = Hx + Ix ; H(x + y) = Hx + Hy,
La asociativa (HI)x = H(Ix),
condiciones:
A es invertible.
Ax = b si tiene una solucin nica para la matriz bn x 1.
Ax = 0 tiene solucin trivial.
A es equivalente por renglones a 1n.
El determinante de A (|A|) " 0.
Rango (A) = n
Los n vectores fila de A son linealmente independientes.
Los n vectores columna de A son linealmente independientes.
Coordenadas y cambio de base:
Siendo B={ v1, v2, ..., vn} una base de un espacio vectorial y x un vector en V que representndose como
combinacin lineal ( x = c1v1 + c2v2 + ... + cnvn ) siendo los escalares c. Se denomina como coordenadas x
con respecto B en el vector Rn denotado as xB = ( c1, c2, ..., cn ).
Cambio de base.
Partiendo de una base B a una base B' se tiene que hacer una multiplicacin por una matriz p1 y esta la
obtenemos sacando la inversa de la base B esto seria P1 y multiplicando P1 por B obtenemos B' y
viserversa.
Aplicacin de los espacios vectoriales:
Secciones cnicas y rotacin de ejes:
Toda cnica esta dada por ax2 + by2 + cxy + dx + cy + f = 0 donde c de xy = 0 cuando sus ejes son paralelos
al plano. Si la ecuacin tiene c en xy " 0 se necesita sacar x' y y'. El ngulo de rotaciones debe sacar con la
formula Cot 2 = (ac)/b rotando los polos en sentido antihorario en esta forma la base standard ya vista en
temas anteriores exhortada formando un nueva base que es B'= { (Cos , Sen ), (Sen , Cos )} esto para
hallar coordenadas en el plano P(x, y) respecto en a'x'2 + b'y'2 + c'x'y' + d'x' + c'y' + f' = 0 rotando los ejes en
sentido antihorario utilizando la formula anterior de angulos rotados y sabiendo que x = x'Cos y'Sen y
que y = x'Sen + y'Cos .
Ecuaciones diferenciales Lineales:
Una ecuacin diferencial de orden n se denota yn + gn1 (x) yn1 + ... + g1 (x) y' + g0 (x) y = f(x) donde g1,
g2, ..., gn dominios comunes. Si f(x) = 0 esta funcin se le denomina como funcin homognea en caso
contraria es una funcin no homognea. Se denomina solucin de la ecuacin diferencial lineal si la solucin
satisface cuando y y sus n primeras derivadas se sustituyen en la ecuacin.
Toda ecuacin diferencial lineal homognea de orden n tienen solucion linealmente independiente si {y1, y2,
..., yn } tienen solucion linealmente independiente entonces la solucin seria : y = c1y1 + c2y2 + ... + cnyn
esta es la solucion general donde c es un numero real.
Sea {y1, y2, ..., yn } un conjunto de funciones estas poseen n1 derivadas en el intervalo I. El determinante w
es el llamado wroskiano del conjunto de funciones dadas.
Para probar el que una ecuacin diferencial es linealmente independiente se puede hacer por wroskiano. Este
se hace si el wroskiano es diferente de cero (w " 0).
proyU V = [ ( U%V ) / ( U%U ) ]U donde U%V y V%V son el producto punto o producto interno Euclidiano.
Para en el espacio la proyeccin se denota como proyv U = [ / ]V , proyv U = [ / ]U.
La proyeccin ortogonal y distancia:
Siendo U y V dos vectores en el espacio V con producto interno y V " 0. Entonces la distancia d ( U, proyv ) <
d ( U, cV ) donde c " / .
Definicin de conjuntos ortonormales y conjuntos ortogonales:
En un conjunto de vectores S de el espacio vectorial V es producto interno es ortogonal si cada vector de y
seria espacio ortonormal si cada vector S es unitario.
Es ortonormal si < vi, vj > = 0 i " j y || vj || = 1 donde i = 1, 2, 3, ..., n y es ortonormal si < vi, vj > = 0 i " j
donde vi, vj pertenecen al conjunto s = { v1, v2, ..., vn }
Un conjunto ortogonal es linealmente independiente si s es un conjunto de vectores diferentes de cero y que
pertenecen al espacio v con producto interno.
Proceso para ortonormalizar de Gram Schmidt:
Ver si la base tiene producto interno (como ya lo vimos).
Convertir la base a una base ortogonal.
Sea B = { v1, v2, ..., vn }
w1 = v1
w2 = v2 proyw1 v2
wn = vn proyw1 v3 proyw(n1) vn
B' = { w1, w2, ..., wn }
y para ortonormalizar ui = wi / ||wi|| donde I = 1, 2, ..., n.
Donde B'' = { u1, u2, ..., un } es un abase ortonormal.
Aplicacin de los espacios con producto interno:
Producto cruz de dos vectores en el espacio:
Donde U = (u1, u2, ..., un )
V = (v1, v2, ..., vn )
UxV=
por el mtodo de cofactores = i + j + k .
las propiedades del producto cruz:
11
UxV=VxU
c(UxV)=cUxV=UxcV
UxU=0
Ux(V+W)=(UxV)+(UxW)
Ux0=0xU
U(VxW)=(UxV)W
U x V son paralelos si U x V = 0.
Aproximacin por mnimos cuadrados:
Siendo f y g dos funciones en x y funciones continuas en un intervalo finito [ a, b ] entonces.
I = 2 dx siendo I = 0 si ( f g ) ! 0 esto se puede representar como :
= 2 dx siendo I = 2 dx = = || f g || 2 esto significa que es equivalente minimizar || f g || 2 y || f g ||.
La aproximacin de minimos cuadrados esta dada por:
g = w1 +w2 + ... + wn siendo w1 = w1 donde b = {w1, w2, w3,}
TRANSFORMACIONES LINEALES:
Notacin standard de la transformada lineal es: V se denomina de T. Si v pertenece a V y w esta en W, T(v) =
w donde w ser la imagen de v bajo T, el conjunto de todas las imgenes se llama contradominio de T y el
conjunto de v de V tales que T(v) = w se llama preimagen de w.
La definicin de transformacin lineal es que todo espacio vectorial en V y W se puede hacer transformacin
lineal si cumplen con los axiomas de la distribucin bajo la suma ( T(U + V) = T( U ) + T ( v )) y la
multiplicacin por un escalar (T(cU)= cT(u)). Cumpliendo con lo anterior la transformada lineal tiene sus
propiedades que son :
T(0) = 0
T(v) = T(v)
T(vu) = T(v)T(u)
S v = c1v1 + c2v2 + ... + cnvn entonces v = c1 T(v1)+ c2 T(v2)+ ... + cn T(vn).
Para definir una transformacion lineal por una matriz esta se notara as: siendo a la matriz m x n la funcion T
se definir T(v) = Av que suna transformacin lineal de Rn en Rm .
El ncleo se puede encontrar definiendo la transformada as. T(v) = 0 esto tambin se denomina como Kernel
de T y se denota Ker (T) para que sea ncleo esta debe cumplir que Ax = 0.
La dimensin del ncleo se llama nulidad y la dimensin del contradominio de T se llama rango (si A =
matriz entonces el rango de T va ser = rango de A).
Dimensin del dominio = dimensin del rango + dimensin del ncleo.
12
Las transformaciones lineales puede ser uno a uno que son aquellas que la preimagen de W consta de un solo
vector, o sea, ser uno a uno para toda u y v en V, T(u) = T(v), tambin hay que tomar en cuenta que ker(T) =
0. Tambin las transformadas lineales puede ser sobre si y solo si el rango de T es igual a la dimensin de W.
Y un transformacin lineal es biyectiba si es uno a uno y sobre.
Existencia de una transformacin inversa:
Sea T: Rn ! Rn una transformada de una matriz standard. Debe cumplir las siguientes condiciones:
T es invertible
T es un isomorfismo
A es invertible
Si T es invertible con matriz standard A, entonces la matriz standard de T1 es A1.
Un caso especial seria cuando V 0 W y B = B', don de la matriz A que se denomina matriz de T con respecto a
la base B. En este caso la matriz de la transformacin identidad es simplemente In.
La matriz de transicin de un transformada lineal depende del espacio V.
Las matriz de transicin T con respecto a la base B es diferente a la matriz T con respecto a otra base B'.
A'[(V)]B' ! [ T(V)]B' es la forma directa a travs de la matriz A'.
P1AP[V]B' = T[(V)]B' forma indirecta.
A' = P1AP
Donde a es la matriz de T con respecto a B, A' es la matriz T con respecto a B', P es la matriz de transicin de
B' a B, P1 es la matriz de transicin B a B'
Concluciones
Despus de haber realizado a plenitud este trabajo se han relacionado todos los temas que se han visto en el
transcurso del ciclo de la materia de lgebra Lineal
Se han visto mas detallado y con mas exactitud los teoremas y propiedades que hilan todos los temas
propuestos por este trabajo y se ha se ha llegado a la conclusin de todos los temas estn relacionados en
cierta forma ya que en varios de estos se necesita recurrir a las propiedades que se han visto en temas
anteriores.
Con esto podramos decir que nos ha enseado a tener un amplio criterio de la utilidad de temas ya vistos en
nuestra carrera, ya que no podemos omitir las enseanzas pasadas ya que estas nos forman las bases para
comprender y analizar y poder poner en practica los temas futuros.
Este trabajo se ha hecho con el fin de comprender de que no hay que dejar tirado lo ye hemos aprendido antes
ya que eso nos va a ayudar a solucionar problemas en nuestro futuro, citando el dicho popular si no
aprendemos de nuestros errores del pasado los mismo nos estarn esperando en un futuro.
13