Está en la página 1de 15

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERIA TEXTIL

TRABAJO DE INVESTIGACIÓN

Alumna: Olivares Villamares Jabneel Zabai

Profesora: Adriana Sandoval Hernández

Asignatura: Algebra Lineal

Grupo: 1TM4
ÍNDICE

1. Objetivo general
2. El sistema de ecuaciones lineales como modelo matemático de
problemas
3. Bases y Dimensión
4. Bases ortonormales
5. Proceso de Gram-Schmidt
6. Matriz de coordenadas
7. Cambios de bases
8. Conclusiones
9. Bibliografía
Objetivo General
El objetivo general de esta investigación es nada mas el introducirnos a los
conocimientos previos que se nos darán en la clase de algebra, son conceptos
básicos que deberíamos de conocer antes de pasar a otros temas.
El decir que son conceptos básicos, no quiere decir que les tomemos menos
importancia, pues la clave del aprendizaje es el comprender un tema y si
deseamos comprender un tema debemos de estudiarlo a fondo y recordar lo que
una vez se nos explicó, pues hay veces en las que vamos avanzando en los
temas sin comprender al cien porciento la base de la se desglosan.
En este trabajo veremos en un inicio los sistemas de ecuaciones como la base de
los siguientes temas, es importante el recordarnos que es un sistema de
ecuaciones para poder conocer las soluciones que les podemos dar y los métodos
por los cuales obtener una solución.
Es por eso que hago el trabajo de investigación, recordar lo comprendido para
obtener nuevos conocimientos acerca de los temas que se verán.
El Sistema de ecuaciones lineales como modelo matemático de problemas
El sistema de ecuaciones lineales permite el planteamiento de problemas y
soluciones que toman en cuenta varias condiciones a la vez. Las ecuaciones y los
sistemas formados a partir de ellas establecen una herramienta básica en el
modelo de problemas de ingeniería.
Se llama ecuación lineal a una ecuación de la forma:
a1 x1 + a 2 x 2 + ... + a n xn

Una ecuación lineal es aquella en la cual todos los productos entre las variables
dan como resultado un exponente unitario; es decir, no hay términos en los cuales
las variables se multipliquen entre sí, o se eleven a una potencia deferente de uno.
El planteamiento de una sola ecuación lineal implica el uso de una sola situación
con varias cantidades desconocidas; su solución siempre dependerá del número
de incógnitas implicadas, y de las cantidades arbitrarias que sean asignadas a
dichas variables.
Existen casos en los cuales se necesita encontrar una solución se satisfaga no
sola una ecuación sino a dos, tes o incluso más ecuaciones.
Sistemas De Ecuaciones Lineales Y Matrices
La teoría general de matrices encuentra una de sus aplicaciones más inmediatas
en la resolución de sistemas de ecuaciones lineales con múltiples incógnitas.
Aunque posteriormente fue objeto de un extenso desarrollo teórico, este campo de
las matemáticas surgió en realidad como un instrumento de cálculo para facilitar
las operaciones algebraicas complejas.

Según el aspecto de las matrices, éstas pueden clasificarse en:

Matrices cuadradas:
Una matriz cuadrada es la que tiene el mismo número de filas que de columnas.
Se dice que una matriz cuadrada n  n es de orden n y se denomina matriz n-
cuadrada.
Ejemplo: Sean las matrices.

[ ][
3 7 8
A= 1 5 5
2 4 3
1 5
0 1
=B ]

Entonces, A y B son matrices cuadradas de orden 3 y 2 respectivamente.


Dada una matriz cuadrada A de orden n x n (o, simplemente, n), se define matriz
identidad I como la que, con la misma dimensión n, está formada por elementos
que son todos nulos salvo los situados en la diagonal principal, cuyo valor es 1.
Es decir:
A × I = I × A = A.
Para dicha matriz A de orden n, se dice que existe una matriz inversa A-1 también
de orden n, cuando el producto de ambas es igual a la matriz identidad:
A × A-1 = A-1 × A = I.
Toda matriz que tiene inversa se dice inversible o regular, mientras que cuando
carece de inversa se denomina matriz singular.
Para calcular la matriz inversa de una dada, puede recurrirse a la resolución de las
ecuaciones que plantearía el producto de matrices A × X = I, siendo los
coeficientes de A e I conocidos y los de X correspondientes a las incógnitas.
También se puede aplicar el llamado método de reducción o gaussiano, según el
siguiente esquema:
 Dada la matriz original A = (a ij), con i, j = 1, 2, ..., n, se forma primero
su matriz ampliada (A | I).
 Después, se aplican operaciones elementales sobre las filas de la
matriz hasta conseguir reducir A a la matriz unidad. Las mismas
transformaciones se van haciendo en I. La nueva matriz obtenida es A -1.
   Las operaciones elementales que se pueden aplicar a las matrices
ampliadas son:
 Multiplicación de una fila por un número distinto de cero.
 Suma ordenada a los elementos de una fila del múltiplo de los de otra.
 Intercambio de filas.

Dentro del sistema de ecuaciones obtenemos diferentes soluciones, de las cueles


pueden ser:
1. Tener una solución
2. Tener infinidad de soluciones
3. No tener ninguna solución
Tipos de ecuaciones lineales:
 Ecuación compatible es aquella que tiene alguna solución. Puede ser, a su
vez, compatible determinada cuando tiene una única solución, y compatible
indeterminada cuando tiene más de una solución (en este caso tendrá
infinitas soluciones).
 Ecuación incompatible es aquella que no tiene ninguna solución:
0x1 + 0x 2 +...+ 0xn = c, con c = 0.
 Ecuación homogénea es la que tiene nulo el término independiente; es
decir, es una ecuación de la forma: a1x1 + a 2 x2 +...+an x n = 0.
Tipos de Sistemas Lineales:
 Sistema compatible es aquél que tiene alguna solución. Puede ser, a su
vez, compatible determinado cuando tiene una única solución, y
compatible indeterminado cuando tiene más de una solución (en este
caso tendrá infinitas soluciones).
 Sistema incompatible es aquel que no tiene ninguna solución
 Sistema Homogéneo es aquel que tiene nulos los términos
independientes, es decir, es un sistema de la forma:

5 x−13 y +10 z =0
2 x−4 y+3 z=0
x + y + z=0
Ejemplos de la vida cotidiana:
La gente tiende a no pensar en términos de ecuaciones y fórmulas en sus
vidas diarias. Usan el lenguaje para describir la situación. Pero las palabras
se pueden traducir en el lenguaje de las matemáticas.
Un ejemplo muy simple: una madre tiene que dividir seis manzanas entre
tres hijos. Sin esfuerzo se llega a la conclusión de que cada niño recibe dos
manzanas. Lo que se ha utilizado es la función matemática de la división
para llegar a la respuesta: 6/3 = 2.

Los sistemas lineales son una de las herramientas de las matemáticas que
tienen múltiples usos en el mundo real. La vida está llena de situaciones en
las que la salida de un sistema se duplica si la entrada se duplica y en donde
la salida se corta a la mitad si la entrada hace lo mismo. Eso es lo que es un
sistema lineal y cualquier sistema lineal puede describirse con una ecuación
lineal.

Bases y Dimensiones

En términos generales, una “base” para un espacio vectorial es un conjunto de


vectores del espacio, a partir de los cuales se puede obtener cualquier otro vector
de dicho espacio, haciendo uso de las operaciones en él definidas. La base es
natural, estándar o canónica si los vectores v1, v2…, vn forman base para Rn.

Si S= {v1, v2…, vn} es una base para un espacio vectorial V entonces todo vector v
en V se puede expresar como:

1.      V = c1v1+ c2v2+…+ cnvn

2.      V = k1v1+ k2v2+…+ knvn


Uno de los conceptos más importantes en Espacios de Vectores es el concepto de
Dimensión. Este concepto se relaciona con el número de elementos mínimo que
se requieren para representar a los elementos de un espacio de vectores. Por
ejemplo, ubicados en el contexto de las ecuaciones diferenciales lineales y
homogéneas, la solución general tiene la forma

y(x) = c1 y1(x) + c2 y2(x) + · · · + cn yn(x)

de aquí vemos que hacen falta n funciones yi(x) para construir todas las
soluciones a la ecuación: la dimensión del conjunto de soluciones es n.

Se llama dimensión de un espacio vectorial V al número de vectores que hay en


cualquiera de sus bases. Se denota dim (V)

 La dimensión de Rn con las operaciones normales es n.

 La dimensión de Pn con las operaciones normales es n+1.

 La dimensión de Mm, n con las operaciones normales es mn.

Si W es un subespacio de un espacio vectorial n-dimensional, entonces se puede


demostrar que la dimensión de W es finita y que la dimensión de W es menor o
igual que n.

 Espacio Renglón y Espacio Columna de una matriz

Sea A una matriz m x n.

El espacio renglón de A es el subespacio de Rn generado por los vectores


renglón de A.

El espacio columna de A es el subespacio de Rn generado por los vectores


columna de A.

Estos dos comparten muchas propiedades, pero debido al conocimiento que se


tiene sobre las operaciones elementales en los renglones se empieza por
considerar el espacio renglón de una matriz.

Cabe recordar que dos matrices son equivalentes por renglones si una puede
obtenerse a partir de la otra al aplicar operaciones elementales en los renglones.
El siguiente teorema establece que las matrices equivalentes por renglones tienen
el mismo espacio renglón. 

Base para el Espacio Renglón de una Matriz: Si una matriz A es equivalente por
renglones a una matriz B que está en forma escalonada, entonces los vectores
renglón de B diferentes de cero forman una base del espacio renglón de A.
Rango de una Matriz: La dimensión del espacio renglón (o columna) de una matriz
A se llama rango de A y se denota por rango (A).

Bases Ortonormales

Una base ortonormal es un espacio vectorial con producto interno (producto


escalar) en el que los elementos son mutuamente ortogonales y normales, es
decir, de magnitud unitaria. Se define como un conjunto de vectores linealmente
independientes capaces de generar dicho espacio.

Una base ortogonal satisface las mismas condiciones, salvo la de magnitud


unitaria; es muy sencillo transformar una base ortogonal en una base ortonormal
mediante el producto por un escalar apropiado y una base ortonormal se
transforma: por medio de una base ortogonal.

Así, una base ortonormal es una base ortogonal, en la cual la norma (longitud o
magnitud del vector) de cada elemento que la compone es unitaria. Las bases
ortonormales están formadas por vectores ortogonales y unitarios. Los vectores
que forman una base ortonormal son perpendiculares entre sí, y además tienen de
módulo la unidad.

Los vectores tienen tres elementos distintivos: magnitud o módulo, dirección y


sentido. Una base ortonormal es especialmente útil para representarlos y operar
con ellos, pues cualquier vector que pertenezca a cierto espacio vectorial V, se
puede escribir como una combinación lineal de los vectores que forman la base
ortonormal. De esta forma se ejecutan analíticamente las operaciones entre
vectores, tales como suma, resta y los distintos tipos de productos definidos en
dicho espacio.

Propiedades de conjuntos ortogonales y ortonormales


 Todo conjunto ortogonal de vectores no nulos se puede normalizar. Es
v
decir, si S es un conjunto de vectores distintos de 0, entonces: S′= {
‫ ׀׀‬v ‫׀׀‬
: v ∈ S} es un conjunto ortonormal.
 Si S es un conjunto ortogonal de vectores no nulos, entonces los elementos
de V son linealmente independientes.

 Como cada elemento de un conjunto ortonormal tiene norma 1, entonces no


puede ser nulo, así que, como corolario de la proposición anterior, todo
conjunto ortonormal es linealmente independiente.

 Una base B es el conjunto más pequeño posible de vectores que generan


el espacio vectorial V.
 Los elementos de B son linealmente independientes.
 Cualquier base B de un espacio vectorial V, permite expresar todos los
vectores de V como combinación lineal de ella y esta forma es única para
cada vector. Por ello a B se la conoce también como sistema generador.
 Un mismo espacio vectorial V puede tener diferentes bases.

¿Cuál es la diferencia entre ortogonal y ortonormal??

 Un subconjunto no vacío S de un espacio de producto interno V se dice que


es ortogonal, si y solo si para cada uno distinto tu, v en S, [u, v] = 0. Sin
embargo, es ortonormal, si y solo si una condición adicional, para cada
vector tu en S, [u, u] = 1 está satisfecho.
 Cualquier conjunto ortonormal es ortogonal pero no al revés.
 Cualquier conjunto ortogonal corresponde a un conjunto ortonormal único,
pero un conjunto ortonormal puede corresponder a muchos conjuntos
ortogonales. 

Proceso De Gram-Schmidt

El metodo de ortogonalizacion de gram-schmidt permite construir conjuntos de


cualquier espacio con producto interno, de dimensión finita o infinita, a partir de
una sucesión de vectores no nulos. En este además se nos dice que al poder un
conjunto de vectores ortogonales a partir de un conjunto de vectores linealmente
independientes

El método de Gram-Schmidt. Usamos el método de Gram-Schmidt para encontrar


bases ortonormales para un plano en R3. Creado por Sal Khan. Encontrar la
proyección en el subespacio con base ortonormal .

El método de Gram-Schmidt se usa para hallar bases ortogonales (Espacio


Euclídeo no normalizado) de cualquier base no euclídea.
En primer lugar, tenemos que:
Es un vector ortogonal a  . Entonces, dados los vectores 

Generalizando en k:

A partir de las propiedades de la proyección y del producto escalar, es sencillo


probar que la sucesión de vectores   es ortonormal.

Aparte, se puede aplicar este algoritmo usando la definición del operador


proyector:
Definimos el operador proyector como:

Y el algoritmo queda:

Generali
zando en k:

Para hallar los vectores ortonormales basta con dividir entre la norma de cada
vector de la base hallada: 

Conjunto ortonormal en Rm

Se dice que un conjunto de vectores S={u1,u2,…,uk) en Rn es un conjunto


ortonormal si (1)(2)
Si solo satisface la ecuación (1), se dice que el conjunto es ortogonal.

Si u,v y w en Rn y a es un número real, entonces (3)(4)(5)6(7)

Ahora se presenta otra función útil

Si V € Rn entonces la longitud o norma de v, esta denotada por (8)

Matriz de Coordenadas y Cambio de Base

 Las ecuaciones de cambio de base nos permiten obtener las coordenadas de un


vector respecto de un base supuesto que la conocemos respecto de otras.
Queremos construir una matriz que nos permita cambiar las coordenadas de un
vector en una base por las coordenadas del mismo vector en otra base.

Un concepto importante relacionado con las bases y las coordenadas es la matriz


de cambio de base o matriz de transición. Cuando hay dos bases ordenadas para
un mismo espacio vectorial, la matriz de cambio de base de la primera base a la
segunda, es la matriz que nos permite obtener el vector de coordenadas relativo a
la segunda base utilizando solo el vector de coordenadas relativo a la primera, sin
necesidad de conocer las bases.

Como calcularla:

La matriz de cambio de base (o matriz de transición) C[A->B] de la base de la A a


la base B, se puede calcular transponiendo la matriz de los coeficientes cuando se
expresan los vectores de A como combinación lineal de los vectores de B. Otra
manera, la que será utilizada, es multiplicando la inversa de la matriz de la base B
por la matriz de la base A, donde la matriz de una base es la matriz cuyas
columnas son los vectores de la base.

Las matrices de una base siempre son invertibles, debido a su rango coincide con
su orden. Este método de cálculo se basa en la siguiente fórmula: C[A->B] = C[N-
>B]•C[A->N] donde N es la base canónica, y C[N->B] = inv(C[B->N]). La matriz de
cambio de base de cualquier base B a la base canónica N es igual a la matriz de
la base B.

Paso 1: Escribir la matriz de cambio de base de la base B a la base canónica N


(Es la matriz de la base B).

Paso 2: Invertir la matriz C[B->N].

Paso 3: Escribir la matriz de cambio de base de la base A a la base canónica N


(Es la matriz de la base A).

Paso 4: Multiplicar las matrices

Ahora que se tiene la matriz de coordenadas de una marca con respecto a otra, lo
que se necesita es obtener los ángulos de rotación con respecto a cada uno de los
ejes. El problema es que en la escasa documentación que nos ofrece Artoolkit lo
que dice es que la última columna de la matriz indica la distancia en los distintos
ejes X, Y y Z..

Teorema

Sean B = {b1, . . . , bn} y C = {c1, . . . , cn} las bases de un espacio vectorial V.

Entonces existe una sola matriz P C←B de n × n tal que

[ x ]C = P C←B [ x ]B (4)

Las columnas de P C←B son los vectores de C-coordenadas de los vectores de la


base B.

Esto es,

P C←B = [b1]C [b2]C · · · [bn]C]

La matriz P C←B del teorema se denomina matriz de cambio de coordenadas de


B a C. La multiplicación por P C←B convierte B-coordenadas en C-coordenadas.

En la figura se muestra la ecuación de cambio de coordenadas.


Las columnas de P C←B son linealmente independientes porque son los vectores
de coordenadas del conjunto linealmente independiente B. Como P C←B es
cuadrada, debe ser invertible, según el teorema de la matriz invertible. Al
multiplicar por la izquierda ambos lados de (4) por ( P C←B) −1 se obtiene

( P C←B) −1 [ x ]C = [ x ]B

Entonces ( P C←B) −1 es la matriz que convierte C-coordenadas en B-


coordenadas. Esto es,

( P C←B) −1 = P B←C

Cambio de base en Rn

Si B = {b1, . . . , bn} y E es la base estándar {e1, . . . , en} en Rn, entonces [b1]E =


b1, y lo mismo es válido para los otros vectores en B. En este caso, P E←B es
igual a la matriz de cambio de coordenadas PB que se introdujo, a saber,

PB = [ b1 b2 · · · bn ]

Para cambiar coordenadas entre dos bases no estándar en Rn, se requiere el


teorema. El teorema establece que, para resolver el problema de cambio de
coordenadas, se necesitan los vectores de coordenadas de la base anterior
relativos a la base nueva.
CONCLUSIONES
Una vez mas reconozco que nunca dejamos de adquirir conocimiento, el buscar e
investigar acerca de temas nuevos es un poco pesado, pues tienes que leer lo que
estas poniendo, ya que hay veces en las que la información recabada no se
relaciona con lo anterior que pusiste.
Todo lo que abarcan los sistemas de ecuaciones lineales es un mundo entero, uno
desde la secundaria se queda con lo que le enseñan sus profesores, pero a esa
edad uno no ve la importancia de ampliar el panorama de la enseñanza.
Los temas abordados en este trabajo son muy extensos en información, pero
fáciles de comprender. Hay métodos que son muy cómodos para resolver los
problemas que se exponen.
Concluyo con que los sistemas de ecuaciones nos aportan desde cosas básicas
hasta cosas muy complicadas, pero con una gran comprensión sea fácil de
aprender.
BIBLIOGRAFIA
 sistemas_ecuaciones_lineales.pdf
 Algebra Lineal: Bases y Dimensión (itesm.mx)
 https://sites.google.com/site/sistemasalgebralineal/unidad-4---espacios-
vectoriales/base-y-dimension-de-un-espacio-vectorial
 Bases ortonormales y proceso de ortonormalizacion (slideshare.net)
 Bases ortogonales y ortonormales: definición y ejemplos - El blog de Leo
(nekomath.com)
 Base ortonormal: propiedades, ejemplos y ejercicios (lifeder.com)
 Base ortogonal y base ortonormal de dos vectores (superprof.es)
 Proceso de ortogonalización de Gram-Schmidt : definición de Proceso de
ortogonalización de Gram-Schmidt y sinónimos de Proceso de
ortogonalización de Gram-Schmidt (español) (sensagent.com)
 INFORMÁTICA : RESUMA EN QUE CONSISTE EL MÉTODO DE GRAM–
SCHMIDT? (informaticadavidv.blogspot.com)
 Cambio de base. (ugr.es)
 Matriz de cambio de base - [Guía completa con ejemplos resueltos]
(utn.edu.ar)
 Calcular la matriz de cambio de base - Nibcode Solutions
 ma1010-28a.pdf (itesm.mx)
 El problema de la semana - Coordenadas y matriz de cambio de base -
Nibcode Solutions

También podría gustarte