Está en la página 1de 28

UNIVERSIDAD VERACRUZANA

FACULTAD DE INGENIERIA
MECANICA ELECTRICA

Actividad 4

Algebra lineal

Julio Cesar Barradas Gutierrez


Brayan Miguel Uscanga Corro
Jefte Sandoval Gómez.

Ing. Guillermo Álvaro Hernández Viveros

Xalapa, Ver. 10- diciembre - 2021.


Espacios vectorales RN

Un espacio vectorial Rn es un conjunto de elementos llamados vectores, en los


que se definen dos operaciones fundamentales: la suma y el producto por un
escalar. Se demostró que el resultado de sumar dos vectores Rn también
pertenece a Rn, así como el producto por un escalar de un vector Rn. También
se analizó que los vectores en Rn son conmutativos y asociativos bajo la suma:

Al conjunto que satisfaga los siguientes axiomas se le dará el nombre de espacio


vectorial y a sus elementos el nombre de vectores.
Un espacio vectorial es un conjunto V de elementos llamados vectores, cuyas
operaciones de suma y producto por un escalar se encuentran definidas en él. Si
se tienen u, v y w elementos de V, y c, d son escalares.

Axiomas de cerradura

1. La suma u + v existe y es un elemento de V.
2. cu es un elemento de V.

Axiomas de la suma

1. u + v = v + u (propiedad conmutativa).
2. u + (v + w) = (u + v) + w (propiedad asociativa).
3. Existe un elemento de V, denominado vector cero, que denota como 0, tal
que u + 0 = u.
4. Para todo elemento de u de V, existe un elemento llamado el negativo
de u, que se denota –u, tal que u + (-u) = 0

Axiomas de la multiplicación por un escalar

1. c(u + v) = cu + cv
2. (c + d)u = cu +du
3. c(du) = (cd)u
4. 1u = u
Para que a un conjunto se le dé el nombre de espacio vectorial deberá satisfacer
todos los axiomas.

Espacios vectoriales de matrices

Considera un conjunto de matrices 2 x 2. Denota este conjunto con M22.

Anteriormente ya se han definido estas operaciones de suma y del producto por


un escalar a este conjunto, el cual forma un espacio vectorial.

Se analizarán los axiomas 1, 3, 4, 5 y 6.

Utilizando la notación vectorial para indicar los elementos de M22. Sean

Dos matrices de 2 x 2 cualesquiera. Se tiene

u + v es una matriz de 2 x 2. Por consiguiente, M22 es cerrada bajo la suma.

Axiomas 3 y 4:

De acuerdo con los estudios anteriores, se sabe que las matrices de 2 x 2 son
conmutativas y asociativas bajo la suma.
El conjunto de matrices M22 de 2 x 2 es un espacio vectorial. Las propiedades
algebraicas de M22 son similares a las de Rn. Asimismo, el conjunto de matrices
m x n, Mmn, es un espacio vectorial.

Subespacios

Ciertos subconjuntos de espacios vectoriales forman espacios vectoriales ellos


mismos. En el espacio Rn es un conjunto de vectores en el que se han definido
las operaciones de suma y del producto por un escalar. Si se suman dos
vectores en Rn, se obtiene un elemento de Rn; asimismo, si se multiplica un
elemento de Rn por un escalar, se obtiene un elemento de Rn. Por ejemplo, en
R3.

Considera el subconjunto de V de R3, que consta de los vectores de la forma

consta de todos los elementos de R3 que tienen las primeras dos

componentes iguales. Por ejemplo, (3, 3, 1) y (-2, -2, 5) que se


encuentran en V; (3, 4, 5) no pertenece a V. Observa que, si sumas dos
elementos de V, obtienes un elemento de V y si multiplicas un elemento de V por
un escalar, obtienes un elemento de V. Sean (a, a, b) y (c, c, d) elementos de V y
Se definen las operaciones de suma y del producto por un escalar; por lo tanto,
se define como espacio vectorial contenido en R3. Llamándosele a dicho espacio
vectorial un subespacio del espacio mayor.

Sea V un espacio vectorial y U un subconjunto no vacío de V. Se dice que U es


un subespacio de V si es cerrado bajo la suma y el producto por un escalar.

Ejemplo 1. Sea U un subconjunto de R3 que consta de todos los vectores de la


forma (0, a, 0), demuestra que U es un subespacio de R3.

Sean (0, a, 0) y (0, b, 0) dos elementos de U y sea k un escalar, se tiene que:

La suma y el producto de un escalar pertenecen a U; por lo tanto, U es un


subespacio de R3.

Geométricamente, U es el conjunto de vectores que se encuentran en el eje y.


Nota que la suma de los vectores se encuentra en el eje y, también la
multiplicación por un escalar de cualquiera de estos vectores.
Para poner en practica lo visto haremos los siguientes ejercicios:

Ejercicio 1:

Ejercicio 2.
Ejercicio 3.

Ejercicio 4.
Ejercicio 5.
Espacios con producto interno.

Producto interno.

Sea V un espacio vectorial sobre C. Un producto interno en V es una función de


𝑉𝑥𝑉 en C que asigna a cada pareja ordenada ( 𝑢̅ , ̅𝑣 ) de vectores de V un
escalar ( 𝑢̅ |̅𝑣 ) ∈ 𝐶, llamado el producto de 𝑢̅ por 𝑣̅, que satisface las siguientes
propiedades:

i) ( 𝑢̅ |̅𝑣 ) = ( 𝑣̅|𝑢̅ ̅̅ )

ii) ( 𝑢̅ |̅𝑣 + 𝑤̅) = ( 𝑢̅ |̅𝑣 ) + ( 𝑢̅ |𝑤̅ )

iii) (𝛼𝑢̅ |̅𝑣 ) = 𝛼(𝑢̅ |̅𝑣 )

iv) ( 𝑢̅ |̅𝑣 ) > 0 si 𝑢̅ ≠ 0

Teorema: Sea V un espacio vectorial sobre C y sea (□|□) un producto interno en


V; entonces, ∀̅𝑢, 𝑣̅ ∈ 𝑉 y 𝛼 𝜖 𝐶:

i) ( 𝑢̅ | 𝛼𝑣̅) = 𝛼̅ ( 𝑢̅ | 𝑣̅)

ii) ( 𝑢̅ | 𝑣̅) ∈ 𝑅

iii) ( 0̅ | 𝑢̅ ) = 0 = ( 𝑢̅ | 0̅ )

iv) ( 𝑢̅ | 𝑣̅) = 0 ⇔ 𝑢̅ = 0

Desigualdad de Cauchy-Schwarz

Sea V un espacio vectorial sobre C y sea (□|□) un producto interno en V;


entonces ∀̅𝑢, 𝑣̅ ∈ 𝑉:

|( 𝑢̅ | 𝑣̅)| 2 ≤ ( 𝑢̅ | 𝑢̅ )( 𝑣̅| 𝑣̅)

Donde |( 𝑢̅ | 𝑣̅)| es el módulo de ( 𝑢̅ | 𝑣̅). Además, la igualdad se cumple si y solo


si 𝑢̅ y 𝑣̅ son linealmente dependientes.
Norma

Sea V un espacio vectorial sobre C y sea (□|□) un producto interno en V. Se


llama norma de 𝑣̅ ∈ 𝑉, y se representa con ||𝑣̅||, al número real no negativo
definido por: ||𝑣̅|| = ( 𝑣̅| 𝑣̅)1/2

Teorema: Si V es un espacio vectorial con producto interno, entonces ∀̅𝑢, 𝑣̅ ∈ 𝑉 y


𝛼 𝜖 𝐶:

i) ||𝑣̅|| ≥ 0

ii) ||𝑣̅|| = 0 si y solo si 𝑣̅= 0̅

iii) ||𝛼𝑣̅|| = |𝛼| ||𝑣̅||

iv) ||𝑢̅ + 𝑣̅|| ≤ ||𝑢̅|| + ||𝑣̅||

Distancia entre vectores

Sea V un espacio vectorial con producto interno, y sean 𝑢̅, 𝑣̅ ∈ 𝑉. Se llama


distancia de 𝑢̅ 𝑎 𝑣̅, y se representa con 𝑑( 𝑢̅ , ̅𝑣 ), al número real definido por:

𝑑( 𝑢̅ , 𝑣̅) = ||𝑣̅− 𝑢̅||

Teorema: Si V es un espacio vectorial con producto interno, entonces ∀̅𝑢, 𝑣̅, 𝑤̅ ∈


𝑉: i) 𝑑( 𝑢̅ , 𝑣̅) ≥ 0

ii) 𝑑( 𝑢̅ , 𝑣̅) = 0 si y solo si 𝑢̅ = 𝑣̅

iii) 𝑑( 𝑢̅ , 𝑣̅) = 𝑑( 𝑣̅, 𝑢̅ )

iv) 𝑑( 𝑢̅ , 𝑤̅ ) ≤ 𝑑( 𝑢̅ , 𝑣̅) + 𝑑( 𝑣̅, 𝑤̅ )

Ángulo entre vectores

Sea V un espacio vectorial con producto interno real, y sean 𝑢̅, 𝑣̅ dos vectores no
nulos de V. Se llama ángulo entre 𝑢̅ y 𝑣̅al número real 𝜃, en el intervalo 0 ≤ 𝜃 ≤ 𝜋,
tal que:

cos 𝜃 = ( 𝑢̅ |𝑣̅) / ||𝑢̅|| ||𝑣̅||


Vectores ortogonales

Sea V un espacio vectorial con producto interno. Dos vectores 𝑢̅, 𝑣̅ ∈ 𝑉 son
ortogonales si ( 𝑢̅ | 𝑣̅) = 0.

Conjunto ortogonal

Sea V un espacio con producto interno y sea 𝑆 = {𝑣̅1, 𝑣̅2, … , 𝑣𝑛̅} un conjunto de
vectores de V. Se dice que S es un conjunto ortogonal cuando:

( 𝑣̅𝑖 | 𝑣̅𝑗 ) = 0, ∀ 𝑖 ≠𝑗

Si además ||𝑣̅𝑖 || = 1, ∀ 𝑖, el conjunto S es ortonormal.

Teorema: Un conjunto ortogonal de vectores no nulos es linealmente


independiente.

Proceso de Gram-Schmidt

Sea V un espacio con producto interno y sea 𝐺 = {𝑣̅1, 𝑣̅2, … , 𝑣𝑛̅} un generador
de V. El conjunto 𝐺0 = {𝑤̅1, 𝑤̅2, … , 𝑤̅𝑛} donde 𝑤̅1 = 𝑣̅1:

𝑤̅𝑖 = 𝑣̅𝑖 − ∑ ( 𝑣̅𝑖 | 𝑤̅𝑘 ) / ( 𝑤̅𝑘 | 𝑤̅𝑘 ) * 𝑤̅𝑘

Para 𝑖 = 2,3, … , 𝑛; es un generador ortogonal de V.

Vector ortogonal

Sea V un espacio con producto interno y sea S un subconjunto de V. Se dice que


un vector 𝑣̅ ∈ 𝑉 es ortogonal al conjunto S si:

( 𝑣̅| 𝑢̅ ) = 0 ∀ 𝑢̅ ∈ 𝑆

El conjunto de todos los vectores de V ortogonales a S se denota con 𝑆 ⊥; esto


es: 𝑆 ⊥ = {𝑣̅∈ 𝑉|( 𝑣̅| 𝑢̅ ) = 0, ∀ 𝑢̅ ∈ 𝑆}

Teorema: Sea V un espacio vectorial con producto interno y sea W un


subespacio de V de dimensión finita. Entones, cualquier vector 𝑣̅ ∈ 𝑉 puede
expresarse en forma única como:

𝑣̅= 𝑤̅ + 𝑤̅′ ; Donde 𝑤̅ ∈ 𝑊 y 𝑤̅′ ∈ 𝑊⊥

Proyección
Sean V un espacio con producto interno, W un subespacio de V de dimensión
finita y {𝑒1̅, 𝑒2̅, … , 𝑒𝑛̅} una base ortonormal de W.

∑( 𝑣̅| 𝑒̅𝑖 )𝑒̅𝑖

Se llama la proyección de 𝑣̅ sobre W.

Teorema: Sea V un espacio con producto interno y sea W un subespacio de V.


Para cada vector 𝑣̅ ∈ 𝑉 existe uno y solo un vector 𝑤̅0 ∈ 𝑊 tal que:

||𝑣̅− 𝑤̅0|| < ||𝑣̅− 𝑤̅||, ∀ 𝑤̅ ∈ 𝑊, 𝑤̅ ≠ 𝑤̅0

Dicho vector es la proyección de 𝑣̅ sobre W.

Mínimos cuadrados.
Es una técnica de análisis numérico encuadrada dentro de la optimización
matemática, en la que, dados un conjunto de pares (o ternas, etc.), se intenta
encontrar la función que mejor se aproxime a los datos (un mejor ajuste), de
acuerdo con el criterio de mínimo error cuadrático. La siguiente figura muestra el
concepto de mínimos cuadrados.

Tomando como base un sistema de 𝑚 ecuaciones lineales y 𝑛 incógnitas 𝐴𝑥̅ = 𝑏̅,


el vector de términos independientes puede pertenecer al espacio columna de la
matriz de coeficientes, dado que el producto 𝐴𝑥̅ = 𝑏̅ es una combinación lineal de
columnas de 𝐴; Si la condición expuesta no se cumple, entonces el sistema de
ecuaciones no tiene una solución exacta; pero sí es posible obtener una
aproximación a ella. Dicha solución, denotada como 𝑥̅′, es aquélla que
minimizará el error 𝐸 = ǁ𝐴𝑥̅′ − 𝑏̅ǁ; en otras palabras, es la distancia mínima entre
la solución aproximada y la solución real.
Para poner en práctica lo visto se verán los siguientes ejercicios:

Ejercicio 1.

-Ejercicio 2.
-Ejercicio 3.

-Ejercicio
4.
-Ejercicio 5.
Transformaciones lineales
Se denomina transformación lineal a toda aplicación cuyo dominio y codominio
sean espacios vectoriales y se cumplan las siguientes condiciones:

Sean V y W espacios vectoriales reales. Una transformación lineal T de V en W


es una función que asigna a cada vector v ϵ V un vector único Tv ϵ W y que
satisface, para cada u y v en V y cada escalar ∝,

T=(u+v) = Tu+Tv

T(αv) = αTv, donde α es un escalar

Es importante señalar lo siguiente sobre la notación:

1. Se escribe T: V → W para indicar que T toma el espacio vectorial real V y lo


lleva al espacio vectorial real W; esto es, T es una función con V como su
dominio y un subconjunto de W como su imagen.

2. Se escriben indistintamente Tv y T (v). denotan lo mismo; las dos fases se


leen “T de v”.

3. Muchas de las definiciones y teoremas se cumplen también para los espacios


vectoriales complejos (espacios vectoriales en donde los escalares son números
complejos). Las transformaciones lineales con frecuencia se llaman operadores
lineales

Teorema 1:

Sea T: V S W una transformación lineal. Entonces para todos los vectores u, v,


v1, v2, . . . , vn en V y todos los escalares a1, a2, . . . , an:

I. T(0) = 0

II. II. T(u - v) = Tu - Tv

III. III. T(a1v1 + a2v2 +. . .+ anvn) = a1Tv1 + a2Tv2 +. . .+ anTvn


Teorema 2:

Sea V un espacio vectorial de dimensión finita con base B = {v1, v2, . . . ,vn};
sean w1, w2, . . . , wn vectores en W. Suponga que T1 y T2 son dos
transformaciones lineales de V en W tales que T1vi = T2vi = wi para i = 1, 2, . . . ,
n. Entonces para cualquier vector v ∈ V, T1v = T2v; es decir T1 = T2.

Núcleo e imagen de una transformación lineal.

Sean V y W dos espacios vectoriales y sea T:V W una transformación lineal.

Entonces

I. El núcleo de T, denotado por un, está dado por:

II. La imagen de T, denotado por Im T, está dado por:

Observamos que un T es no vacío porque, de acuerdo al teorema 1, T(0) = 0 de


manera que 0 ϵ un T para cualquier transformación lineal T. Se tiene interés en
encontrar otros vectores en V que “se transformen en 0”. De nuevo, observe que
cuando escribimos T(0) = 0, el 0 de la izquierda está en V y el de la derecha en
W. Igualmente vemos en la imagen de T es simplemente el conjunto de
“imágenes” de los vectores en V bajo la transformación T. De hecho, si w = Tv,
se dice que w es la imagen de v bajo T.

Teorema 3.

Si T:V W es una transformación lineal, entonces

i.Un T es un subespacio de V.

ii.Im T es un subespacio de W.

Representación matricial de una transformación lineal.


Sean V y W dos espacios vectoriales de dimensión n y m, respectivamente, y
sea T: V W una transformación lineal, entonces existe una matriz A de
orden m × n llamada matriz de transformación o representación matricial de T
que satisface T(v) = Av para toda v en V.

Para poner en práctica lo visto se harán los siguientes ejercicios:


Ejercicio 1:

Ejercicio 2.
Ejercicio 3.

Ejercicio 4.
Ejercicio 5.

.
Valores propios, vectores propios y formas cuadráticas.
Dada una matriz cuadrada A de orden 3 se dice que el número es un valor
propio de A si existe un vector columna tridimensional c no nulo t.m.

AC= c

El vector c se llama vector propio de A asociado al valor propio .

Valor propio Vector propio

autovalor autovector

Valor característico Vector característico

eigenvalor eigenvector

Matrices simétricas y diagonalización ortogonal


Matrices Simétricas. La propiedad de simetría viene dada por los elementos que
hay alrededor de la diagonal principal. Dado que una matriz cuadrada es una
matriz simétrica, siempre tendrá el mismo número de elementos por encima y por
debajo de la diagonal principal. Estos elementos son iguales de forma simétrica.
Es decir, la diagonal principal actúa como un espejo.

d s e
P3x 3 s d a
e a d

La letra d representa los elementos de la diagonal principal. Las otras letras


representan cualquier número real. Podemos ver que la diagonal principal actúa
como un espejo: refleja los elementos de ambos lados. En otras palabras,
cuando los elementos de ambos lados de la diagonal son iguales simétricamente
decimos que la matriz P es una matriz simétrica. 

Diagonalización ortogonal de matrices simétricas

Se cumple el siguiente resultado para una matriz cuadrada real A: Si A es


simétrica, entonces existen Q ortogonal y D diagonal tales que A= QDQ-1.
Recordamos que por ser Q invertible esta es también la factorización entre
matrices A y D semejantes, y que por tanto D es la matriz de autovalores, y las
columnas de Q forman la base de los correspondientes autovectores. Además,
por ser Q ortogonal dicha base es base ortonormal respecto del producto escalar
habitual.

Por existir la matriz ortogonal Q tal que A=QDQ-1 se dice de A que es


“ortogonalmente diagonalizable”.

1. A tiene n raíces reales contando multiplicidades, por tanto, n autovalores


reales contando multiplicidades.

2. La dimensión de los subespacios propios es igual a la multiplicidad algebraica


de los correspondientes autovalores. Como consecuencia de este y el anterior
resultado se tiene que A es diagonalizable.

3. Los subespacios propios correspondientes a autovalores distintos son


ortogonales entre sí respecto del producto escalar canónico en

4. Obteniendo para cada subespacio propio una base ortogonal, y uniendo estas
bases, lograremos una base ortogonal de formada por autovectores de A.
Dividiendo cada vector por su norma obtendremos finalmente una base
ortonormal de formada por autovectores.

A=QDQ-1 = QDQt es Q= siendo la base autonormal de


autovectores.

Formas cuadráticas y secciones cónicas


Formas cuadráticas. Un polinomio de segundo grado en el que todos los
términos son de segundo grado, se suele denominar forma cuadrática. En dos
variables (x,y) entonces tendremos

Secciones cónicas

Las secciones cónicas son todas las curvas resultantes de las diferentes
intersecciones entre un cono y un plano, cuando ese plano no pasa por el vértice
del cono. Existen cuatro tipos de secciones cónicas: la circunferencia, la elipse,
la parábola y la hipérbola.
Ecuación general de las secciones cónicas:

 Forma canónica de Jordan


El bloque de Jordan de tamaño k x k y valor propio es la matriz cuadrada k x k
que tiene:

El número en la diagonal principal

El número 1 es la supradiagonal principal

El número 0 en los restantes términos

El bloque de Jordan de tamaño 3x3 y valor propio 5 es

5 1 1
0 5 1
0 0 5

El bloque de Jordan de tamaño 2x2 y valor propio -4 es

−4 1
0 −4
Para poner en práctica lo visto se verán los siguientes ejercicios:
Ejercicio 1

Ejercicio 2
Ejercicio 3
Ejercicio 4

Ejercicio 5
Conclusiones.
El algebra lineal es una materia de gran importancia en la carrera de ingeniería
mecánica eléctrica que nos ayudara al diagnóstico, planteamiento y resolución
de problemas complejos mediante la aplicación al diseño y optimización de
equipos, materiales y procesos; debido a esta importancia los temas vistos en
este trabajo y en todo el curso nos serán de mucha utilidad para resolver
problemas de ingeniería en el futuro, en estos temas reforzamos nuestros
conocimientos sobre matrices, vectores y sistemas de ecuaciones lineales
mediante el planteamiento, análisis para la resolución de problemas, así mismo
los ejercicios realizados en este trabajo de investigación fueron de mucha utilidad
para aplicar lo investigado.
Bibliografía.
http://www.vc.ehu.es/campus/centros/farmacia/deptosf/depme/apuntes/
gracia/Curso_Actual/bolonia/matematicas/capitulo_1/espectral/
ValoresVectoresPropiosPapel.pdf
https://personales.unican.es/carballor/curso17_18/cap7.pdf
https://personal.us.es/ealgaba/algebra%20=04-05/TEMA2.pdf
https://www.geometriaanalitica.info/secciones-conicas/
https://www.youtube.com/watch?v=waJOyQV0Ueo
https://www.youtube.com/watch?v=3lxSMxPZ61A
https://profe-alexz.blogspot.com/2011/02/transformacion-lineal-
problemas.html
http://www.samhain.softgot.com/algebralineal/notasclase/
espacios_producto_interno.pdf
https://sites.google.com/site/sistemasalgebralineal/unidad-4---espacios-
vectoriales/espacio-vectorial-con-producto-interno
https://ocw.ehu.eus/file.php/133/algebra/rel2.pdf
http://www2.udec.cl/webmath/
ej_resueltos_de_algebra_lineal_espacios_vectoriales.htm
https://gc.scalahed.com/recursos/files/r157r/w13173w/AlgLineal_unidad
%208.pdf
https://hopelchen.tecnm.mx/principal/sylabus/fpdb/recursos/r117192.PDF

También podría gustarte