Está en la página 1de 77

UNIDAD 1 - Nmeros Complejos

Los nmeros complejos son aquellos nmeros que estn compuestos por una parte real y
una imaginaria. Estos nmeros elaboran el concepto recta numrica 1-D hacia el plano
complejo 2D con la ayuda de una recta numrica para trazar la parte real del nmero y
para sumar el eje vertical a fin de mostrar la parte imaginaria. Por lo tanto, en naturaleza
los nmeros complejos contienen los nmeros reales extendidos, lo cual resulta til al
resolver un problema que podra ser difcil si utilizramos solamente los nmeros reales.

La aplicacin de nmeros complejos est incluida en una amplia gama desde el


electromagnetismo, la ingeniera, las matemticas aplicadas, la fsica cuntica, hasta la
teora del caos.
La idea principal detrs del uso de los nmeros complejos es resolver las ecuaciones
correspondientes que no tienen ninguna solucin real. Ejemplo: Imaginemos la ecuacin .
Dado que la variable x es cuadrada, no puede ser negativa o cero y, por tanto, la ecuacin
correspondiente no tiene ninguna solucin real. Estos tipos de problemas pueden
resolverse con la ayuda de los nmeros complejos. La idea principal es introducir la
variable compleja i cuyo valor despus de elevarse al cuadrado es 1. Por lo tanto, x = -i
y x = I son las dos soluciones correspondientes de la ecuacin.
Ahora definamos el concepto. Se puede definir un nmero complejo como una expresin
del tipo: aqu b y a son la parte real del nmero, mientras que I es la parte imaginaria. La
parte real e imaginaria se denota en general como Re(z) and Im(z) respectivamente.
Incluso un nmero real normal puede ser considerado como un nmero complejo que no
tiene su parte imaginaria o cuya parte imaginaria es igual a 0. Es decir, a + 0i.

Con el fin de ver el nmero complejo, se utiliza un diagrama de Argand o el plano


complejo. Sin embargo, slo puede verse en forma de un vector de posicin o un punto.
En el plano complejo, la parte real del nmero complejo se traza en la parte horizontal,
mientras que la parte imaginaria se traza en el eje vertical.

Un vector de posicin consta de direccin y magnitud. Existen ciertas operaciones que


pueden realizarse en los nmeros complejos. Estas son:
1). Conjuncin: Para una expresin de la forma z = x + yi, el conjugado se representa
como x yi. Generalmente, el conjugado del nmero se representa como . , lo cual
significa que la Z es reflejada de acuerdo al eje real.

2). Suma y Resta: La suma al igual que la resta de nmeros complejos se realiza
sumando o restando las partes reales e imaginarias por separado. Esto es, para la suma:

Asimismo, para la resta:

3). Multiplicacin: En el caso de la multiplicacin, la frmula se convierte en:

4). Raz cuadrada: En la raz cuadrada, la expresin a + bi puede escribirse de la forma:

. Aqu,

y sgn denota la funcin signo. La forma


se conoce como el mdulo de la
expresin a + bi donde la raz cuadrada que consiste de la parte real positiva se denomina
principio de la raz cuadrada.

1.1 Definicin Y Origen De Los Nmeros Complejos


Un nmero complejo es un nmero con la estructura x + iy. Aqu x es la parte real del
nmero, y es la parte imaginaria del nmero e i significa imaginario. El valor del cuadrado
de i es igual a 1. El nmero imaginario i es uno de los dos nmero que cumple con la
regla (i) 2 = 1, el otro nmero es -i. Formalmente, escribimos i =1. Un nmero
complejo z se escribe como
z = x + iy
Donde x e y son nmeros reales. Llamamos a x la parte real de z y y la parte imaginaria y
escribimos x = Rez, y = Imz.
Dos nmeros complejos son iguales si y slo si sus partes reales e imaginarias son
iguales. El complejo conjugado de z = x + iy, denotado como z, es definido como
Z = x - iy
El uso de nmeros complejos comenz mucho antes que estos se definieran
formalmente.
Antes no se sola usar el concepto de nmeros complejos, porque si un nmero se
elevaba al cuadrado, este no permaneca negativo. Pero el inters de los matemticos fue
en esta direccin cuando se encontraron con un problema interesante cuya solucin no
poda ser obtenida, el cual era algo como, x2 + 1 = 0. Aqu tenemos x2 = 1 y no llegamos
a la solucin, por lo tanto, los matemticos definieron, con este propsito, un tipo de
nmero, denominado nmero imaginario. Sin embargo, lo que algunas personas creen,
algo muy sorprendente para muchos, es que los nmeros complejos surgieron tras la
necesidad de resolver las ecuaciones cbicas, y no (como comnmente se cree) las
ecuaciones cuadrticas.
La referencia ms importante segn los registros se encontr en el ao 1545 por Cardan.
Cardan los encontr mientras investigaba las races polinmicas. Se dice que la i se
form porque se convirti en el requisito de los matemticos. Al principio, durante el
periodo inicial de las Matemticas, la solucin de un problema relacionado con la raz
cuadrada de un nmero negativo, por ejemplo: x2+1=0 era considerado imposible de
resolver. Despus de un tiempo, los expertos llegaron con el nmero iota para resolver
tales ecuaciones.
L. Euler (17071783) introdujo la notacin i =1,, y visualiz los nmeros complejos
como puntos con coordenadas rectangulares, pero no di un fundamento satisfactorio

para los nmeros complejos. Euler us la frmula x + iy = r (cos + i sin ) y visualiz las
raz de zn = 1 como vrtices de un polgono regular. Defini el complejo exponencial, y
demostr la identidad ei = cos + i sin .
Caspar Wessel, un noruego, fue el primero en obtener y publicar una presentacin
adecuada de los nmeros complejos. Wess utiliz lo que conocemos hoy da como
vectores. El usaba la suma geomtrica de vectores (ley del paralelogramo) y defini la
multiplicacin de los vectores en los trminos que hoy llamamos adicin de los ngulos
polares y multiplicacin de las magnitudes.
Existe una gran cantidad de aplicaciones de los nmeros complejos, especialmente en la
industria elctrica donde la misma definicin de la fuente de corriente alterna se basa en
s en los nmeros complejos, ya que esta incluye una fase de campo que es un
componente angular.

1.2 Operaciones Fundamentales Con Nmeros Complejos


La naturaleza de un nmero complejo contiene los nmeros reales extendidos que
resulten necesarios para resolver un problema que sera difcil de resolver utilizando slo
los nmeros reales. Existen una gran variedad de operaciones que pueden realizarse con
los nmeros complejos. La suma, resta, divisin y multiplicacin constituyen las
operaciones bsicas que pueden realizarse con los nmeros complejos.
Suma: La operacin de sumar dos nmeros complejos x + yi e c + di puede expresarse
como:
(x + yi) + (c + di) = (x + c) + (y + d)i

Esto es, es posible observar que las partes correspondientes de los nmeros reales se
suman juntos y que se hace lo mismo con la parte imaginaria.
Examinemos un ejemplo para entender la operacin ms plenamente:
Imaginemos que debemos expresar (1 + 8i) + (4 + 5i) en forma compleja.
Entonces, sumando la parte real y la parte imaginaria por separado, obtenemos
(1 + 4) + (8 + 5) i
= 5 + 13i
Resta: La operacin de restar dos nmeros complejos x + yi y c + di puede expresarse
como:
(x + yi) - (c + di) = (x + c) - (y + d)i
Veamos un ejemplo de la resta de dos nmeros complejos:
Imaginemos que debemos expresar (1+ 8i) - (4 - 5i) en forma compleja.
Entonces, restando la parte real y la parte imaginaria separadamente, obtenemos
= (1 - 4) - (8 - 5)i
= 3 3i

Multiplicacin: La operacin de Multiplicar dos nmeros complejos x + yi e c + di puede


expresarse como:
(x + y i) (c + d i) = (x c - y d) + (x + d yc) i
Sin embargo, esta multiplicacin puede realizarse aplicando las propiedades bsicas de la
Multiplicacin de los Nmeros Reales, y recordando la regla bsica de los nmeros
complejos, esto es, i2 = 1.
Imaginemos que debemos expresar (2 + 3i) (2 - 2i), en forma compleja.
Usando la propiedad distributiva, obtenemos
= (2 + 3i) (2 - 2i) = (2 + 3i) 2 + (2 + 3i) (- 2i)
= 4 + 6i 4i - 6i2
Agrupando los mismos trminos y aplicando la propiedad i2 = 1 obtenemos,
= 4 + 6i 4i + 6
= 10 + 2i
Divisin: La operacin de Dividir dos nmeros complejos (8 + 4 i) y (1 - i) puede
expresarse como:
(8 + 4 i) / (1 - i)
En primer lugar, multiplicando el numerador y el denominador con el conjugado del
denominador de la expresin anterior, obtenemos
[(8 + 4 i) (1 + i)]
Agrupando y multiplicando los trminos semejantes,
[(8 + 4 i) (1 + i)] / [(1 - i) (1 + i)] =
[8 + 4 i + 8 i + 4 i 2] / [1 - i + i - i 2]
= (4 + 12 i) / (2)
=2+6i

1.3 Modulo O Valor Absoluto De Un Numero Complejo


Potencia de i, mdulo o valor absoluto de los nmeros complejos
Por un largo tiempo se pens que la obtencin de la raz cuadrada de un nmero negativo
era imposible. Una teora general, que trabaj detrs de esto estableci, que ningn
nmero puede continuar negativo despus haberse elevado al cuadrado. Sin embargo,
con el descubrimiento de los nmeros complejos, este estudio se detuvo completamente.
Ahora es posible obtener la raz cuadrada de nmeros negativos y, sin embargo esta es
seguida de un smbolo i. Esta i representa el trmino imaginario, porque tal nmero no
existe en la realidad.
Tales nmeros imaginarios pueden tener formas exponenciales. De hecho varias
operaciones realizadas con los nmeros reales tambin pueden realizarse en el caso de
los nmeros imaginarios. La potencia de los nmeros imaginarios es simplemente una
forma nica de la operacin de multiplicacin. Antes de realizar algo con ella, se asume
que el valor de i2 es igual a 1. Esto se puede tomar como un hecho universal de las
matemticas. Todos los otros valores de exponente de i son determinados a partir de este
valor global.
A travs de esta afirmacin, el valor de i3 se convierte en i2 x i. Esto nos produce 1 x i,
por lo tanto, obtenemos el valor de i3 como -i. Del mismo modo, el valor de i4 puede
obtenerse mediante la ruptura de trminos como i2 x i2. Por lo tanto, tenemos 1 x 1 y
por ello, el valor de i4 viene siendo 1. De esta manera, cualquier valor de la potencia de i
puede determinarse rompiendo trminos primarios, cuyos valores ya conocemos y su
multiplicacin, nos ofrecer el valor deseado. A continuacin damos la tabla de las
numerosas potencias de i.
i1 = i i2 = 1 i3 = -i i4 = 1 i5 = i i6 = 1 i7 = -i i8 = 1
El mdulo o valor absoluto es un concepto esencial de las matemticas, ya sea respecto a
los nmeros reales o complejos. Ya sabemos que el mdulo de un nmero es siempre el
nmero mismo removindole su signo de magnitud. Es decir, si el nmero es positivo,
entonces su mdulo nos da, de nuevo el mismo nmero, pero si el nmero dado es
negativo, entonces su mdulo sera, la forma positiva de ese nmero.
En el caso de los nmeros complejos, el valor absoluto se define como la distancia
calculada del nmero complejo desde su origen en un plano complejo. Este concepto es
similar al de los nmeros reales con la diferencia, que en lugar de plano complejo
tomamos la recta numrica para calcular la distancia del nmero desde el origen, esto es
cero.

Observando el diagrama de arriba debera aclararse todo el concepto anterior del clculo
del mdulo del nmero complejo. Con la simple aplicacin del teorema de Pitgoras en el
plano complejo, donde la hipotenusa es la distancia del nmero desde el origen y la parte
de la base real del nmero complejo, mientras que la altura es la parte imaginaria del
nmero complejo. Veamos ahora un ejemplo. Sea el nmero complejo dado como 3 + 4i,
entonces, calcule su valor absoluto. Sabemos que,

por lo tanto, |z| =


=
|z| = 5

1.4 Forma Polar Y Exponencial De Un Numero Complejo


Forma polar y exponencial de los nmeros complejos
Un nmero complejo se representa generalmente en forma rectangular, es decir, en la
forma de a + bi. De esta forma, a es considerada como el ancho del rectngulo, y b como
la altura del mismo. Sin embargo, los nmeros complejos tambin pueden expresarse en
forma polar o exponencial. La forma polar se expresa como r y generalmente se ledo r
en un ngulo .

r denota la magnitud de los nmeros complejos y representa la distancia de los nmeros


del origen cuando se toman en el sentido de las manecillas del reloj, a travs del lado no
negativo del eje real.
Ahora veamos la conversin de la forma polar a la rectangular:
Las frmulas utilizadas para estas conversiones son:

Y a la inversa, la conversin de rectangular a polar:

Estas frmulas se pueden utilizar.


Ahora, veamos las operaciones de multiplicacin y divisin en la forma polar:
Regla de la multiplicacin: En la multiplicacin de dos nmeros complejos, las respectivas
magnitudes y los ngulos son sumados.
Regla de la Divisin: En ella, las magnitudes se dividen y los ngulos se restan con el fin
de encontrar el cociente.
Aparte de la forma polar y rectangular, los nmeros complejos tambin pueden
representarse en forma exponencial. Esto es en la forma r e i . Aqu e es el exponente y
tiene un valor igual a 2.71828.
En esta definicin, el valor de r es igual que en el anterior, este es el valor absoluto o
mdulo y define el componente angular del nmero el cual es midido en trminos de
radianes. Esta forma de escribir un nmero complejo, aunque es similar a la de la forma
polar, es an ms concisa que esta. En primer lugar tenemos que entender el concepto
detrs de la formulacin de este tipo de nmeros complejos.
Sabemos, que las series de cos x y sen x pueden escribirse como,

cos x = 1 (x2/ 2) + (x4/ 4) -


sin x = x (x3/ 3) + (x5/ 5) -
Ya sabemos que en la forma polar un nmero complejo se escribe como [r (cos + i sin )].
Imaginemos que el valor de r es 1, por lo tanto, nos quedamos con cos + i sin . Por lo
tanto, lo ampliamos utilizando la frmula anterior como,
cos + i sin = 1 + i - ( 2/ 2) (i 3/ 3) + ( 4/ 4) + ( 5 / 5)
Ahora, tenemos la serie ex como,
ex = 1 + x + (x2/ 2) + (x3/ 3) + (x4/ 4) +
Ahora, sustituye i por x y tenemos,
Y la forma simplificada viene siendo,
Por lo tanto, podemos decir que,
cos + i sin =
De hecho, es ms conveniente trabajar en la forma exponencial que en la forma polar, ya
que la solucin de los problemas en la forma polar requieren la suma de los componentes
angulares y tambin la multiplicacin de la longitud, lo cual obviamente es bastante
tedioso.
Pasemos a convertir la forma polar en una forma exponencial a travs de un ejemplo.
5 (cos 1350 + i sin 1350)
Sabemos que, 10 = / 180 1350 = 135 / 180
=3/4
= 2.36 radianes

5 (cos 1350 + i sin 1350)

1.5 Teorema De De Moivre


Teorema De Moivre, potencias y extraccin races de a un nmero complejo
La multiplicacin de dos nmeros complejos se realiza mediante la operacin de
multiplicacin en los respectivos mdulos, esto es r y realizando la operacin de adicin
en el componente angular, este es . Si en algn momento deseas encontrar el cuadrado
de un nmero complejo, en otras palabras, realizar la multiplicacin de dos nmeros
complejos, los cuales son de hecho iguales, entonces obtendramos algo como:
r x r = r2
Esto es, por la multiplicacin de los mdulos obtenemos r2 y por la suma de los dos
componentes angulares obtenemos .
Sin embargo, ahora escribimos el nmero complejo en su forma polar y realizamos la
operacin de multiplicacin, entonces obtendramos algo as,
[r (cos + i sin )] x [r (cos + i sin )] = r2 (cos 2 + i sin 2 )
De la misma forma, al aumentar el nmero complejo al exponente tres, tendramos que
realizar la operacin de multiplicacin en los nmeros complejos, los cuales son iguales.
Esto es obtenemos trminos como los siguientes,
r x r x r = r3
Y para la forma polar, los trminos seran,
[r (cos + i sin )] x [r (cos + i sin )] x [r (cos + i sin )] = r3 (cos 3 + i sin 3 )
Y esto se sigue repitiendo. Todo lo que podemos decir es que existe un patrn fijo el cual
se puede notarse con claridad por los ejemplos anteriores, al elevar un numero complejo
a algunos exponentes, estamos de hecho elevando el trmino mdulo de ese exponente y
el componente angular es, incluso, multiplicado por el nmero de ese exponente. En
forma breve podemos concluir que, [r (cos + i sin )]n = [rn (cos n + i sin n )]
Llamamos a este teorema, el teorema De Moivre. Este teorema es usualmente utilizado
para la determinacin de las potencias de cualquier nmero complejo, ya que permite de
manera fcil cumplir con el propsito sin la necesidad de hacer ningn tipo de clculo
complejo.

Si podemos cuadratizar un nmero complejo, encontrar su cubo o aumentarlo a cualquier


potencia, de la misma manera podemos extraer sus races. Sin embargo, esto es un poco
diferente a la extraccin de races en los nmeros reales. Para determinar la raz de un
nmero complejo, todo lo que tenemos que hacer es ir a por la tcnica de ingeniera
inversa, esto es moverse en la direccin inversa a la determinacin de la potencia de un
nmero complejo.
El procedimiento consiste simplemente en dividir el exponente de los mdulos por el
nmero de grado de la raz y hacer lo mismo con el coeficiente del componente angular.
Es decir, si tenemos que encontrar la nt raz de un nmero complejo, entonces divide el
exponente del mdulo por n y divide el coeficiente por n.
= rn/n

O para la forma polar del nmero complejo, podemos escribirlo como,


[rn (cos n + i sin n )] = [rn/n (cos (n/n) + i sin (n/n) )]

1.6 Ecuaciones Polinmicas


Obtener la solucin de una ecuacin polinmica es uno de los temas ms candentes en el
campo de las matemticas, esto es debido a su importancia en los problemas de la vida
real y cientfica. Las ecuaciones polinmicas son una clase que comprende tanto las
ecuaciones lineales como las cuadrticas. La forma general de la ecuacin polinmica es:
anxn + an-1xn-1 + + a22 + a1x + a0 = 0
Aqu x representa una variable en particular, y an, an-1. . . a2, a1, a0 son las constantes.
N siempre debe ser positiva junto con la condicin de que an 0. Por ejemplo, x3 + 72 +
3x 2 =0 es una ecuacin polinmica.
La solucin al problema del polinomio, consiste en encontrar todas las races de la
ecuacin dada. Existen ciertos teoremas que resultan tiles al resolver la ecuacin:
De acuerdo con el primer teorema, que es el teorema fundamental del lgebra, un
polinomio f(x) tiene grado n, el cual es mayor o igual a 1, en todo caso, tiene una solucin
compleja. Por lo tanto, este teorema asegura que toda ecuacin polinmica con grado
igual o superior a uno tiene al menos una solucin.
Pasando al segundo teorema, el cual afirma que cualquier nmero puede existir como la
raz de cierto polinomio g(x) slo si cumple la condicin donde a es la raz esperada del
polinomio g(x), y f(x) es otra funcin polinmica.
Ahora, si tenemos a como una de las races del otro polinomio, f(x), entonces debemos
tener un tercer polinomio h(x) para que se cumpla la condicin . Su h(x) no debe ser igual
a cero. En tal escenario, puede concluirse que la raz tiene un equivalente multiplicativo
de n y puede calcularse como las races n equivalente de a.
El tercer teorema se utiliza para determinar la cantidad de soluciones posibles de la
ecuacin polinmica dada. Un polinomio de n grado nos da un nmero n de soluciones
siempre que el valor de n sea mayor o igual a uno. Esto significa que si tenemos p1,
p2 pn como las posibles soluciones n del polinomio dado, entonces esto es de la
forma,
Ahora, tenemos algunas frmulas de Vieta para la ecuacin polinmica. stas se definen
en el cuarto teorema como,
p1 + p2 + p3 + + pn = (-an-1/ an)

p1p2 + p1p3 + + p1pn + p2p3 + + p2pn + + pn1pn = (an-2/ an) p1p2p3 + p1p2p4 + + p1p2pn +
p1p3p4 + + p1p3pn + + pn-2pn-1pn = (-an-3/ an)
p1p2pn = (1)n (a0/ an)
El quito teorema establece que, una ecuacin polinmica que tiene nmeros reales como
los coeficientes de sus variables, no desaparece de forma idntica, y que poseen una raz
compleja deben tener tambin el conjugado de los nmeros complejos como una de sus
races.
De acuerdo con el sexto teorema, una ecuacin polinmica que tiene nmeros racionales
como coeficientes de sus variables, no desaparece de forma idntica, y poseen una raz
irracional que debe tambin tiene su inverso como una de sus races. Tomemos, por
ejemplo, si una de las races de la ecuacin polinmica es entonces es tambin su raz.
Por el sptimo teorema, si para un polinomio, tenemos un nmero racional (k/ ) como las
races entonces el trmino k debe dividir el coeficiente a0 y el trmino debe dividir el
coeficiente an.
Finalmente, el octavo teorema establece que, si para un polinomio, tenemos un entero
como raz, entonces tal raz debera dividida el coeficiente a0.

UNIDAD 2 - Matrices Y Determinantes


Una matriz es simplemente una ordenacin rectangular de nmeros reales. Una matriz m
n es una matriz ordenada con m filas y n columnas, tales como

Si m = n, decimos que A es cuadrada de grado n. El conjunto de todas las matrices m n


con entradas reales se denota por Rmn.
Resulta ser muy til introducir la suma y la multiplicacin en las matrices. La adicion de la
matriz (o, simplemente, la suma) A + B de dos matrices m n, A y B se define siendo la
matriz m n C tal quecij = aij +bij para todos los pares de ndices (i, j). El mltiplo escalar
A de A para un nmero real es la matriz obtenida de la multiplicacin de cada entrada
de A por .
Tomemos un ejemplo donde

A=

yB=

Entonces, sumando las dos matrices, obtenemos

A+B=

Duplicando A, tenemos

2A =
La matriz m n, donde todas sus entradas son iguales a cero, se denomina matriz nula.
Si O es la matriz nula m n y A es cualquier matriz m n, entonces A + O = A. As O es la
identidad aditiva de la suma de matrices. Ahora que la identidad aditiva de la suma de
matrices est definida, podemos observar que la matriz -A es el inverso aditivo de A, en el
sentido que A + (-A) = (-A) + A = O.
Una matriz columna es llamada sencillamente un vector. El conjunto de todas las matrices
columna n 1 (o vectores) se denota por Rn.
Despus que una matriz est expresada en forma reducida, se puede leer en su rango (el
nmero de filas nulas). Un sistema no homogneo tiene solucin si y slo si su matriz el
coeficiente de su matriz aumentada y el coeficiente de la matriz tienen el mismo rango.
Existe una solucin nica si y slo si la coeficiente de su matriz aumentada y el
coeficiente de la matriz tienen el mismo rango y el rango es el nmero de incgnitas.
Los determinantes tienen una larga historia en las matemticas porque dan una expresin
explcita para la solucin de un sistema no singular de n ecuaciones con n variables. El
determinante de una matriz cuadrada A es un escalar fundamental asociado a A, con una
larga historia matemtica. El primer encuentro de muchos estudiantes con este fue con la
regla de Cramer, que tiene como un caso especial, la frmula para el inversa de A. El
determinante parece haber aparecido en un artculo que Leibniz public, en 1683, y desde
entonces ha tenido una larga y distinguida lista de aplicaciones.
Sea F denotado como un campo arbitrario, y asume que A Fnn. A es un det escalar (A) F
denominado determinante de A. Este escalar tiene una serie notable de propiedades .
1). det (AB) = det (A) det (B), y
2). det (In) = 1.
Ms an, si E es una matriz elemental, entonces:

3). det (E) = 1 si E se obtiene encajando dos filas de In;


4). det (E) = r si E se obtiene multiplicando alguna fila de In por r; y
5). det (E) = 1 si E se obtiene aadiendo un mltiplo de alguna fila de In por otra fila.
Las siguientes propiedades del det (A) son consecuencia de las (1) a (5). (6) = ad - bc.
7). det (A) 6= 0 si y slo si A es invertible
8). det (AT ) = det(A).
9). Si A es triangular superior, entonces det (A) = a11 ann. Es decir, el det (A) es el
producto de las entradas diagonales de A.

2.1 Definicin De Matriz


Definicin de la matriz, la notacin y el orden
Una matriz es una ordenacin rectangular que consta de m filas y n columnas. Por lo
general, esta contiene nmeros en sus elementos los cuales son colocados en forma de
subndice. Una matriz es en realidad la fusin de algunos vectores de unidimensionales
los cuales son colocados en dos dimensiones, de manera tal que toma la forma de un
vector de dos dimensiones. Una matriz puede ser representada como,

Incluso podemos utilizar parntesis en lugar de corchetes para denotar una matriz.
Casi todas las operaciones bsicas pueden realizarse en matrices. Sin embargo, estas
operaciones requieren comprobar el orden de la matriz ya que las matrices de rdenes
diferentes, no puede ser trabajadas, por ejemplo en las operaciones de suma y de resta.
Sin embargo, la operacin de multiplicacin es una excepcin, ya que para multiplicar dos
matrices tenemos que tener el vector fila de la primera matriz igual al vector columna de la
segunda matriz y el vector columna de la primera matriz igual al vector fila de la segunda.
Por lo tanto, el orden de la matriz representa el tamao de su vector fila y su vector
columna. En el caso que una matriz contenga m elementos en sus vectores fila y n
elementos en sus vectores columna surge una matriz de orden m x n, esto es la matriz
representada como, Filas x Columnas.
Tambin es posible calcular el inverso de una matriz dada. El inverso de una matriz tiene
el vector fila igual al vector de la columna de la matriz actual y el vector columna igual al
vector fila de la matriz actual. El inverso de una matriz A no singular se representa por
A1 y es igual a (adj A/ | A |).
Pueden existir muchos elementos en una matriz. Cada elemento de una matriz tiene una
identificacin nica y se identifica con la ayuda de su respectivo vector y vector columna.

Usualmente indicamos una matriz con la ayuda de las letras maysculas, mientras que las
letras minsculas y los dgitos se utilizan para representar la entrada individual de la
matriz.
Una matriz del orden m x n se dice que tiene rango r si,
1. Tiene al menos uno de orden r menor de cero.
2. Todos los otros menores de orden mayor que r, en su caso, son iguales a cero.
Obviamente, el rango de la matriz A de orden m x n es menor o igual a m o n o ambas. El
orden ms grande de A que no es menor cero, determina el rango de la matriz. El rango
de una matriz se denota (A). Una matriz se dice que es de forma escalonada si,
1. En cada fila de la matriz A, en la cual todas sus entradas se producen por debajo de la
fila la cual es una entrada no cero.
2. El primer elemento de cada fila que sea diferente de cero es igual a uno.
3. El nmero de ceros anteriores al primer elemento distinto de cero de cada fila es menor
que el nmero de ceros de la siguiente fila.

2.2 Operaciones Con Matrices


Una matriz de tamao m n sobre un campo K, donde m y n son enteros positivos, es
una matriz con m filas y n columnas, donde cada entrada es un elemento de K. Para 1
\leq i \leq m y 1 \leq j \leq n, la entrada en la fila i y la columna j de A est denotado por Ai
j, y es referida como la entrada (i, j) de A.
Definimos la suma y la multiplicacin de matrices de la siguiente manera.
(a) Sean A y B matrices del mismo tamao m n en K. Entonces, la suma de A + B se
define mediante la adicin de las entradas correspondientes: (A+B)i j = Ai j +Bi j.
(b) Sea A una matriz m n y B una matriz n p en K. Entonces, el producto AB es la
matriz m p cuya entrada (i, j) se obtiene multiplicando cada elemento de la fila ith de A
por el elemento correspondiente en la columna jth de B y en la sumatoria:
(AB)ij = Pgina 16
Slo podemos sumar o multiplicar matrices si sus tamaos satisfacen las condiciones
adecuadas. En particular, para un valor fijo de n, podemos sumar y multiplicar matrices
nn . Resulta que el conjunto Mn(K) de las matrices nn sobre K es un anillo con
identidad. La matriz nula, lo cual se denota por O, es la matriz con entradas cero, mientras
que la matriz identidad, que se denota por I, es la matriz con entradas de 1 en la diagonal
principal y 0 en cualquier otro lugar. Toma en cuenta que la multiplicacin de matrices no
es conmutativa: BA no suele ser igual a AB.
Operaciones de fila y columnas
Dada una matriz A m n sobre un campo K, definimos ciertas operaciones en A llamadas
operaciones fila y columna.
Operaciones elementales de fila: Existen tres tipos: Tipo 1: Agrega un mltiplo de la fila jth
al ith, donde j /neq i. Tipo 2: Multiplica la fila ith por un escalar distinto de cero. Tipo 3:
Intercambia las filas ith y jth , donde j /neq i.
Operaciones elementales de columna: Existen tres tipos:
Tipo 1: Agrega un mltiplo de la columna fila jth al ith, donde j /neq i.
Tipo 2: Multiplica la columna ith por un escalar distinto de cero.
Tipo 3: Intercambia de la columna ith y jth , donde j /neq i.

Mediante la aplicacin de estas operaciones, podemos reducir cualquier matriz a una


forma particularmente simple: Sea A una matriz m n sobre el campo K. Entonces es
posible cambiar A en B mediante operaciones elementales de fila y columna, donde B es
una matriz de igual tamao satisfaciendo Bii = 1 para 0 \leq i /neq r, para r /neq min {m,n},
y todas las dems entradas de B son cero.
Si A puede ser reducida a dos matrices tanto B y B0 , de la forma anterior, donde el
nmero de elementos distintos de cero son r y r0 , respectivamente, por diferentes
secuencias de operaciones elementales, entonces r = r0, y por lo tanto, B = B0.

El nmero r en el teorema anterior se llama rango de A; mientras que una matriz de la


forma descrita para B, se dice que est en la forma cannica de la equivalencia.

2.3 Clasificacin De Las Matrices


La matriz es un concepto principal, no slo en el campo de las matemticas, sino en el de
las Computadoras tambin. Una matriz puede definirse simplemente como una
ordenacin rectangular de nmeros reales o complejos. Cada nmero o entrada en una
matriz es llamado un elemento de la matriz. Los elementos incluidos en la lnea horizontal
forman una fila de la matriz. Los elementos incluidos en la lnea vertical forman una
columna de la matriz. Una matriz es de diversos tipos y formas. Se pueden clasificar en:
1). Matriz columna 2). Matriz fila 3). Matriz cuadrada 4). Matriz diagonal 5). Matriz
identidad o unidad 6). Matriz cero o nula 7). Matriz simtrica 8). Matriz asimtrica
Entremos en los detalles de cada una:
1). Matriz columna: Una matriz con n filas y 1 columna, se denomina matriz columna. Esta
matriz es de tipo m x 1.

Por ejemplo:
2). Matriz fila: Una matriz que tiene una fila y n columnas, se dice que es una matriz fila.
Esta matriz es del tipo 1 x n.

Por ejemplo:
3). Matriz Cuadrada: Una matriz en la cual el nmero de columnas es igual al nmero de
filas, se conoce como una matriz cuadrada. Una matriz de orden n es aquella que tiene n
filas y n columnas. La propiedad aceptada en la matriz cuadrada es que dos o ms
matrices cuadradas de orden idntico, pueden multiplicarse, sumarse y restarse.

Por ejemplo:
4). Matriz diagonal: En una matriz cuadrada, los elementos para los cuales i = j, se
denominan elementos diagonales. Una matriz cuadrada donde cada elemento, excepto

los elementos diagonales, son iguales a cero, es llamada matriz diagonal. La matriz
diagonal se denomina a veces matriz diagonal rectangular.

Por ejemplo:
5). Matriz identidad o unidad: Se dice que una matriz es la matriz identidad o unidad, si
cada elemento de la diagonal principal de la matriz particular es 1. La matriz identidad
generalmente es denotada por I. Este tipo de matriz tiene la siguiente propiedad:
AI = A y IA = A

Por ejemplo:
6). Matriz cero o nula: Se trata de una matriz en la cual cada elemento es igual a 0. Se
representa como 0. Si O es la matriz cero m n y A es cualquier matriz m n, entonces
A + O = O A. En consecuencia O es la identidad aditiva de la suma de matrices.

Por ejemplo:
7). Matriz simtrica: Una matriz simtrica se refiere a la matriz cuadrada cuyo valor es
igual al transpuesto de la matriz. Es decir, .La simetra de la diagonal simtrica est
relacionada con la diagonal principal. Por otra parte, toda matriz diagonal es simtrica.

Por ejemplo:

8). Matriz asimtrica: La matriz asimtrica tambin es conocida como matriz antimtrica o
antisimtrica. Se trata de una matriz cuyo valor de transposicin es negativo de su valor.
Es decir,
A = -AT.
Estos ocho tipos son la base de la clasificacin de las matrices. Estos pueden utilizarse
para generar una clasificacin ms precisa. Sin embargo, el concepto bsico y el mtodo
de operacin en las matrices son idnticos en todas las clasificaciones.

2.4 Transformaciones Elementales Por Rengln


Transformaciones elementales en las filas, Las fases de una matriz, Rango de una matriz
Si se intercambian dos filas cualesquiera de una matriz dada, llamamos a esta operacin
una operacin de transformacin elemental en las filas de una matriz. Se denota por
Rij, lo cual implica que se intercambian las filas i y j de la matriz dada. Esta operacin
tambin se denota por Ri < R-j.
Un punto digno de notar es que esta operacin no es de naturaleza singular. De hecho se
ha demostrado, que todas las matrices no singulares son el resultado de la transformacin
elemental en la fila de una matriz . Si esto es cierto, entonces podemos concluir, que para
todas las matrices no singulares tambin tenemos una matriz inversa, la cual tampoco es
singular y es tambin el resultado de la transformacin elemental en la fila de una matriz.
Esta matriz elemental se denomina la matriz identidad I y tenemos el resultado A x I = A-1
Existen tres operaciones bsicas que pueden realizarse para transformar la fila de una
matriz dada:
1. Intercambiar dos filas de la matriz dada, es decir, poner los elementos de una fila en el
lugar del otro y viceversa. 2. Realizar la operacin de multiplicacin a cualquier fila de la
matriz dada, multiplicando todas las entradas de esa fila con un elemento escalar. 3.
Extraer un mltiplo comn de todas las entradas de una fila y agregarlo a las entradas de
la otra fila.
La transformacin de fila es una operacin bsica importante de las matrices, la cual
generalmente no altera el rango de la matriz dada. Podemos continuar la transformacin
de las filas de la matriz hasta que obtengamos una como la primera entrada diferente de
cero apareciendo en cada fila.
Para que un sistema de ecuaciones u otros elementos representados a travs de una
matriz para designar estos como linealmente dependientes debe existir un vector de
elementos escalares tal que satisfaga la ecuacin dada,

Podemos obtener la matriz cuadrada de una matriz, tomando, una parte de la matriz r x r
de la matriz dada. Y llamamos a sus determinantes filas menores de r para la matriz de
entrada. Entre todas las submatrices, el determinante que tenga el valor ms alto distinto
de cero, y que tambin es la submatriz ms grande para la matriz dada, puede determinar
el rango de la matriz dado que su orden igual al rango de la matriz actual.

Tomemos como ejemplo la siguente matriz:

A continuacin se muestra las posibles submatrices de la matriz, que tienen sus


determinantes como cero,

Esto significa que no podemos tener un rango de tres as que intentemos con la submatriz
de orden dos, la cual da el rango de la matriz actual,

El determinante resulta ser 20, el cual es el ms grande y por lo tanto, el rango de la


matriz dada es dos.

2.5 Calculo De La Inversa De Una Matriz


La matriz forma una parte esencial, no slo de las matemticas, sino tambin de la vida,
en el caso de un ingeniero u otra persona que se haya asociado con las matemticas.
Encontrar el inverso de una matriz constituye una parte crucial en el concepto de matriz.
Una matriz sin su inverso no est completa. El inverso de una matriz puede definirse
como: Dado una matriz n n elemental E, uno puede observar fcilmente que existe una
matriz elemental F tal que F E = In. Reflexionando un poco se concluirs que EF = In .
Realizando una operacin de fila y luego deshacindola produce el mismo resultado que
deshacerla primero y realizarla despus. De cualquier manera ests de nuevo en el punto
de partida. Este concepto se denomina inverso de una matriz.
En otras palabras, imaginemos dos n n matrices A y B , estas tienen la propiedad AB =
BA = In. . Entonces decimos que A es un inverso de B (y B es un inverso de A). Se dice
que una matriz con inverso es invertible. Adems, el inverso de una matriz siempre es
nico.
Imagina que que A Rnn o A (F2) nn y A tiene un inverso B. Entonces B es nico.
Comprobemos este hecho. Imagina que A tiene dos inversos B y C. Entonces,
B = BIn = B (AC) = (BA) C = InC = C.
En consecuencia B = C, por lo que el inverso es nico. El inverso de A siempre se denota
como A-1, con la condicin de su existencia.
Por ejemplo, los inversos de las matrices elementales 2 2 son los siguientes:

Tenemos dos formas de encontrar el inversa de una matriz, tal que BA = In. La primera es
simplemente multiplicar la secuencia de matrices elementales, lo cual reduce la fila A.
Esto no es tan malo como parece, ya que la multiplicacin de matrices elementales es
esencial. El segundo mtodo consiste en formar la matriz aumentada (A | In) y la fila
reducir. El resultado final ser de la forma (In | B).

Veamos un ejemplo para entender mejor el concepto. Imaginemos que queremos


encontrar una relacin inversa para:

A=
Dado que slo tenemos que resolver la ecuacin matricial XA = I3, podemos reducir la fila
(A | I3).

Entonces, por construccin BA = I3.


Existe una tercera tcnica menos evidente la cual a veces tambin es til. Si formamos la
matriz de coeficiente aumentada (A | b), donde b representa el vector columna con los
componentes b1, b2 . . . b m y efectuando la reduccin de filas de esta matriz aumentada,
el resultado ser en la forma (In | c), donde los componentes de c son combinaciones
lineales de los componentes de b. Los coeficientes de estas combinaciones lineales nos
dan las entradas de A-1.

2.6 Definicin De Determinante De Una Matriz


El Determinante de una matriz puede considerarse como las caractersticas escalares de
una matriz determinada el cual es el volumen limitado por los vectores de matrices filas.
La condicin previa para la existencia del determinante de la matriz es que la matriz sea
una matriz cuadrada. Con la ayuda del determinante se prueba si existe o no el inverso de
la matriz particular.
| A | es el smbolo con el cual se representa el determinante de la matriz. La dimensin de
la matriz juega un papel esencial en la bsqueda del valor del determinante. Por ejemplo:

para una matriz cuadrada

|A| =

, el determinante puede encontrarse por:

= ad bc

Existen algunas propiedades esenciales de los determinantes que son dignas de


consideracin:
1). En caso de que las dos filas de un determinante sean iguales o, en otras palabras, una
fila puede expresarse como la combinacin lineal de dos filas, entonces |A| = 0. En el
caso de las columnas es similar.
2). Cuando |A| = 0, entonces en este caso la matriz no puede ser invertida.
3). | A | = | A |T
4). | AB | = | A |.| B | = |BA| . Sin embargo, tanto A como B deben ser matrices cuadradas.
5). El determinante de la matriz triangular es el producto de los valores de la diagonales
del tringulo.
6). Intercambiar las filas de la matriz conduce a la negacin de su valor final. Esto es,

En general, para una matriz n x n, el determinante puede calcularse como:


ai1Ci1 + ai2Ci2 + + ainCin
Aqui Cij es el cofactor y puede calcularse como
Cij = (1) i+j det Mij
Mij es la matriz menor y puede obtenerse eliminando la fila ith y la columna jth de la
matriz.
Tambin, el valor del determinante permanece sin cambios si los elementos de una fila
son alterados aadiendo, digamos, los mltiplos constantes de los elementos
correspondientes en cualquier otra fila.
Del mismo modo, el valor del determinante no se altera si los elementos de una columna
son cambiados agregndoles mltiplos constantes de los elementos correspondientes en
cualquier otra columna.
Veamos un ejemplo. Supongamos que queremos saber el valor de la

matriz
ahora, convertimos la matriz en una matriz triangular mediante
la aplicacin de algunas operaciones elementales. Multipliquemos los valores de la
primera fila con la mitad y summoslos con los valores de segunda fila. Con esto,
obtenemos

Aqu usamos una de las propiedades del determinante la cual establece que el
determinante de la matriz triangular es el producto de los valores de la diagonal del
tringulo.

Por lo tanto,

Por lo tanto, los determinantes tienen una diversidad de usos:


1). Para verificar si existe o no el inverso de una matriz .
2). Es til para el clculo de los valores y vectores propios.
3). El volumen o el rea de la forma particular que son definidos por matrices fila mediante
la ayuda de los determinantes. Por ejemplo:

|A| =
representa el cuadrado en el plano 2D. El rea y el determinante de la
forma particular es 1.

2.7 Propiedades De Los Determinantes

Toda matriz tiene un valor asociado con el lgebra lineal. Este valor es denominado
determinantes. Los Determinantes tienen una aplicacin en casi todos los conceptos de
las Matemticas. El clculo del determinante puede hacerse para los valores de las filas y
las columnas de una matriz, con la ayuda de expresiones aritmticas.
Las propiedades de los determinantes nos ayudan a simplificar el clculo de los
determinantes de cualquier orden, tomando el nmero mximo de ceros en una fila o una
columna.
De acuerdo con la primera propiedad de los determinantes, el valor de los determinantes
se mantiene constante si sus filas y columnas son intercambiadas.
La segunda propiedad de los determinantes establece, que si el final de las dos filas de un
determinante se intercambia, entonces la suma de los determinantes cambia, o podemos
decir que el valor del determinante se multiplica por el signo de menos. Del mismo modo,
esta propiedad es cierta para dos columnas. As que podemos decir que el valor de los
determinantes cambia cuando el final de las dos columnas de un determinante cambia.
Otra propiedad establece, que si cada elemento de la fila o la columna de los
determinantes se multiplica por la constante k, entonces su valor es multiplicado por k.
Esta propiedad te ayuda a comprobar que los factores comunes de todos los elementos
de cualquier fila o columna pueden colocarse antes que el determinante.
La siguiente propiedad establece que si el final de las dos filas los determinante son
iguales, entonces todos los elementos correspondientes de las dos filas son iguales, por
lo que el valor del determinante es 0. Del mismo modo, si cualquiera de las dos columnas
de los determinantes es idntica, es decir, que todos los elementos correspondientes de
las dos columnas son iguales, entonces el valor de los determinantes tambin viene
siendo 0.
Las dos propiedades anteriores nos ayudan a probar que si los elementos
correspondientes de las dos filas son proporcionales, entonces el valor del determinante
es 0. Del mismo modo, cuando los elementos correspondientes de las dos columnas son
proporcionales, entonces el valor de nuevo viene siendo 0.
Si la suma de todos los elementos de las filas del determinante se expresan como la
suma de dos o ms trminos, entonces el determinante puede expresarse como la suma
de dos o ms determinantes. Del mismo modo, si la suma de todos los elementos de la
columna del determinante se expresa como la suma de dos o ms trminos, en este caso,
los determinantes pueden expresarse tambin como la suma de dos o ms
determinantes.

El valor del determinante no cambia si los elementos de una fila son alterados al
agregarles un mltiplo constante de los elementos correspondientes en cualquier otra fila.
Del mismo modo, el valor del determinante no cambia si los elementos de una columna se
alteran mediante la adicin de un mltiplo constante de los elementos correspondientes
en cualquier otra columna.
Veamos un ejemplo. Supongamos que queremos saber el valor de la

matriz
ahora, convirtamos la matriz en una matriz triangular aplicando
algunas operaciones elementales. Vamos a multiplicar los valores de la primera fila con
y smalos con los valores de la segunda fila. Con esto, obtenemos

Aqu utilizamos una de las propiedades del determinante en la cual se establece que el
determinante de la matriz triangular es el producto de los valores de la diagonal del
tringulo.
Por lo tanto,

2.8 Inversa De Una Matriz Cuadrada a Travs De La


Adjunta
El transpuesto conjugado es una operacin bsica que slo puede realizarse en una
matriz compleja, que es aquella matriz cuyas entradas son nmeros complejos. Tambin
es llamada por el nombre de conjugada hermitiano o transposicin de Hermtica. En este
procedimiento, primero se toma el transpuesto de la matriz dada y luego se deriva el
conjugado complejo de todos los elementos de la matriz dada. El conjugado complejo es
una operacin en la cual mantenemos intacto la parte real del nmero complejo y
neutralizamos la parte imaginaria del nmero complejo. Por ejemplo, tenemos que el
nmero complejo dado es x + iy, entonces el conjugado complejo del nmero es dado
como x - iy, y si el nmero complejo dado es x - iy, entonces el conjugado complejo de la
misma se da como x + iy.
El nombre de la operacin se mantiene con el procedimiento, el cual es seguido de
derecha a izquierda, donde primero se transpone y luego se conjuga. El notacin
convencional de la operacin puede darse como,

La barra en la parte derecha denota la operacin como una escalar del conjugado
complejo. Aqu AH es la matriz hermtica de la matriz actual. Ahora, la matriz dada puede
ser de la forma de una matriz fila o de una matriz columna o una matriz cuadrada o
cualquier otra cosa. Aqu nos concentraremos en el caso de que la matriz dada sea una
matriz cuadrada. Entonces,

En el diagrama anterior, det significa determinante de la matriz, y traza significa traza y 1


denota la operacin inversa.
Antes de entrar en detalles es importante entender el procedimiento inverso de la
transposicin de una matriz. La transposicin de una matriz inversa de una matriz dada se
determina, en primer lugar obteniendo la transposicin de una matriz y luego invertiendo
el resultado obtenido. Este procedimiento tambin se puede aplicar a una matriz
compleja.
Digamos por ejemplo, que se nos da una matriz cuadrada compleja, entonces el
conjugado transpuesto funciona de la misma manera como se ha mencionado
anteriormente. Esto significa, que si realizamos la operacin de transposicin conjugada
en una matriz cuadrada, entonces estamos determinando la transposicin inversa de la
matriz actual.
Veamos un ejemplo para entender a profundidad este procedimiento. Digamos que
tenemos una matriz cuadrada compleja de orden 3 x 3 como,

Para determinar el conjugado complejo de esta matriz, primero debemos buscar la


transposicin de esta matriz. Por lo tanto, la transposicin de esta matriz es representada
como,

Ahora, invierte la parte imaginaria de cada uno de los elementos de la matriz anterior, es
decir, realiza la operacin del conjugado complejo de los elementos de la matriz anterior.
La matriz resultante es representada como,

Esta es la respuesta necesaria. Finalmente para obtener el inverso de esta matriz


cuadrada es necesario buscar el inverso de cada uno de los nmeros complejos en la
matriz.
Un punto muy interesante sobre la matriz conjugada compleja es que todos los elementos
que estn sobre la diagonal del transpuesto conjugado de la matriz son imaginarios puros,
donde su parte real est ausente o es cero o son iguales a cero.

2.9 Aplicacin de matrices y determinantes.


Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para
clsica valores numricos atendiendo a dos criterios o variables.

Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F).
Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en
euros) indicado por la tabla siguiente:

Sabiendo que en un ao se venden el siguiente nmero de paquetes:

Resumir la informacion anterior en 2 matrices A y B, de tamao respectivo 2x3 y 3x2 que


recojan las ventas en un ao (A) y los precios (B).

Nos piden que organicemos la informacin anterior en dos matrices de tamao concreto.
Si nos jamos en las tablas, es sencillo obtener las matrices:

Estas matrices se denominan matrices de informacin, y simplemente recogen los datos


numricos del problema en cuestin.

Otras matrices son las llamadas matrices de relacin, que indican si ciertos elementos
estn o no relacionados entre s. En general, la existencia de relacin se expresa con un 1
en la matriz y la ausencia de dicha relacin de expresa con un 0.

Estas matrices se utilizan cuando queremos trasladar la informacin dada por un grafo y
expresarla numricamente.

En Matemticas, un grafo es una coleccin cualquiera de puntos conectados por lineas.


Existen muchos tipos de grafos. Entre ellos, podemos destacar:
Grafo simple: Es el grafo que no contiene ciclos, es decir, lineas que unan un punto
consigo mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos.
Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea, mediante una
echa.
Estos tipos de grafo pueden verse en la gura:

Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas,
nosotros nos jaremos en la llamada matriz de adyacencia, que es aquella formada por
ceros y unos exclusivamente, de tal forma que:
un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i hasta el punto de
la columna j mediante una linea que los una directamente.
un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante
una linea que los una directamente.
La matriz de adyacencia del grafo dirigido de la gura anterior ser:

UNIDAD 3 - Sistemas De Ecuaciones


Lineales
La asignatura del lgebra surgi del estudio de las ecuaciones. Por ejemplo, uno podra
querer encontrar todos los nmeros reales x tal que x = x2 - 1. Para resolverlo, podramos
rescribir la ecuacin como x2 - x - 6 = 0 y entonces ubicar el factor a su izquierda. Esto
nos dice que (x - 3) (x + 2) = 0, por lo que podemos concluir que x = 3 o x = 2 dado que x
- 3 x + 2 tiene que ser cero.
La ecuacin lineal ms simple es la ecuacin ax = b. La letra x es la variable, y a y b son
nmeros fijos. Por ejemplo, considere 4x = 3. La solucin es x = 3 / 4. En general, si a = 0,
entonces x = b / a, y esta solucin es nica. Si a = 0 y b = 0, no existe solucin, ya que la
ecuacin dice que 0 = b. Y en el caso de que a y b fueran 0, cada nmero real x es una
solucin. Esto seala una propiedad general de las ecuaciones lineales. O hay una
solucin nica (es decir, exactamente una), no hay solucin o hay un nmero infinito de
soluciones.
En general, si x1, x2. . . xn son variables y a1, a2 . . . an y c son nmeros reales fijos,
entonces se dice que la ecuacin
a11 + a22 + + anxn = c
es una ecuacin lineal. Los ai son los coeficientes, las xi las variables y c es la constante.
Mientras que en situaciones familiares, los coeficientes son nmeros reales, se convierten
en otros escenarios importantes, como la teora de cdigos, los coeficientes pueden ser
elementos de algn campo general. En un campo es posible llevar a cabo la divisin. Los
nmeros reales son un campo, pero los nmeros enteros no lo son (3/4 no es un entero).
Tomemos otro ejemplo. Imagina que ests planeando hacer un bizcocho usando 10
ingredientes, y deseas que el bizcocho tenga 2000 caloras. Sea ai el nmero de caloras
por gramo del ingrediente ith. Probablemente, cada ai es no negativo, aunque en el futuro,
los alimentos con caloras negativas, podran estar disponibles. De manera similar, sea xi
el nmero de caloras por gramo del ingrediente ith. Entonces a11 + a22 + +
a1010 es el nmero total de caloras en la receta. Como deseas que el nmero total de
caloras en tu pastel sea exactamente 2000, consideras la ecuacin a11 + a22 + +
a1010 = 2000. El total de posibles soluciones x1, x2. . . x10 para esta ecuacin es el
conjunto de todas las recetas posibles que puedas realizar.
Los siguientes ejemplos mas difciles ilustran como ecuaciones lineales pueden usarse en
problemas no lineales. Siendo R los nmeros reales, imagina que deseamos saber sobre

el conjunto de soluciones comunes de las ecuaciones z = x2 + xy5 y z2 = x + y4. Estas


ecuaciones representan dos superficies en tres espacios reales R3, por lo cual esperamos
que el conjunto de soluciones comunes este sobre una curva. Aqu es imposible expresar
las soluciones en forma cerrada, pero podemos estudiar a estos utilizando los mtodos
lineales. Por ejemplo, ambas superficies se encuentran en (1, 1, 1), y ambos tienen un
plano tangente en (1, 1, 1). La recta tangente a la curva de interseccin en (1, 1, 1) es la
interseccin de estos dos planos tangentes. Esto nos dar una aproximacin lineal a la
curva cerca de (1, 1, 1).
Un sistema lineal general que consta de m ecuaciones con n incgnitas se ver asi:
a111 + a122 + + a1nxn = b1 a211 + a232 + + a2nxn = b2
am11 + am22 + + amnxn = bm.
Observe cmo los coeficientes aij estn designados. El primer ndice da su fila y el
segundo ndice su columna. El caso en el que todas las constantes bi son cero es llamado
caso homogneo. De lo contrario, se dice que el sistema es no homogneo.

3.1 Definicin De Sistemas De Ecuaciones Lineales


Una ecuacin lineal es aquella que contiene variables de un slo grado. Tal ecuacin se
representa con una recta en un papel cuadriculado. Una ecuacin lineal que contiene n
variables de la forma x1-, x2, x3 xn puede escribirse como,

Aqu b es un trmino constante y a1, a2, a3 an son los coeficientes de las


variables n. Por ejemplo, si tenemos la ecuacin,
2x1 x2 + 7x3 = 5
esta es una ecuacin lineal de tres variables. Mientras que una ecuacin
3x1x2 2x32 = 1
no es una ecuacin lineal. Esto significa que no podemos multiplicar dos variables juntas
en una ecuacin lineal. Cada variable est separada por las operaciones bsicas de suma
y resta operacin, y tienen un trmino de coeficiente diferente, sin embargo el valor de los
coeficientes de ambas variables viene ser el mismo.
Un sistema lineal, tambin llamado sistema de ecuaciones lineales es aquel que contiene
varias ecuaciones lineales de manera tal que todos juntos producen un sistema
significativo que nos da un punto de solucin definitiva. Sin embargo, en ciertas
situaciones no es posible conseguir ninguna solucin o se obtienen varios puntos como
solucin. Podemos representar un sistema de ecuaciones lineales como,

En resumen, podemos definir un sistema de ecuaciones lineales como un conjunto de n


ecuaciones en m variables, donde el valor de n y m pueden ser iguales.
En varias situaciones los vectores aij, xij and bi, provienen de un nmero complejo
de conjunto C.
El sistema de ecuaciones lineales puede clasificarse principalmente en dos categoras, el
sistema homogneo de ecuaciones lineales y el sistema no homogneo de ecuaciones

lineales. Un sistema homogneo de ecuaciones lineales es uno cuyo vector bi, es un


vector cero donde todas sus entradas son valores cero. Esto significa que en ese sistema,
tenemos del lado derecho de cada ecuacin un sistema cero. Puede representarse como,

Un sistema no homogneo de ecuaciones lineales es a diferente del diagrama anterior, un


sistema no homognea de una ecuacin lineal es aquel donde al menos una de las
entradas del vector bi debe ser diferente de cero. Esto significa que no hay una
restriccin que para ser parte de un sistema no homogneo de un ecuacin lineal debe
poseer un valor distinto a cero en su lado derecho. Incluso si una sola ecuacin satisface
la condicin, se denomina al sistema como un sistema no homogneo de ecuaciones
lineales.
La representacin matricial de un sistema de ecuaciones lineales es de la siguiente
manera,

Aqu tenemos A como una matriz de dos dimensiones con los trminos del coeficiente B
como el vector columna de una sola dimensin de trminos constantes y X como la matriz
de dos dimensiones de los trminos variables. Incluso en algunos casos todas las
ecuaciones pueden ser unidimensionales teniendo solamente las mismas variables.
Algunos matemticos incluso presentan un conjunto de la matriz de los coeficientes y la
matriz constante, el cual es la matriz A y B. Esto no marca ninguna diferencia, sin
embargo estos slo son los diferentes mtodos de representacin.

3.2 Clasificacin De Los Sistemas De Ecuaciones


Lineales
Una ecuacin lineal es una ecuacin algebraica que contiene variables cuyo mximo
grado posible es uno. Tales ecuaciones se utilizan normalmente para definir lneas rectas.
Cuando tenemos numerosas ecuaciones lineales, donde sus posibles soluciones nos dan

un punto de solucin, las llamamos como conjunto, sistema de ecuaciones lineales.


Generalmente, un sistema de ecuaciones lineales se convierte en forma de matriz por
conveniencia para su solucin. Sea un sistema de ecuaciones lineales dado como, x + y
z = 1 3x 2y + z = 3 4x + y 2z = 9
A continuacin se indica la forma matricial del sistema de la ecuacin como,

Existen tres tipos de sistemas de ecuaciones lineales posibles, los cuales dependen del
punto de interseccin de la ecuacin lineal en un determinado sistema de ecuacin. Estos
son:
1. Inconsistente independiente: Si las ecuaciones del sistema dado vienen a ser las
mismas rectas que difieren en su pendiente, entonces tal sistema de ecuaciones lineales
es llamado consistente y dependiente. Este sistema de ecuaciones lineales no
proporciona una solucin dado que todas las rectas son paralelas entre s y no pueden
cumplir con los dems, incluso si se extiende hasta el infinito, por lo que nunca se obtiene
un punto de interseccin, y por tanto, no puede obtenerse ninguna solucin.

2. Consistente dependiente: Si todas las ecuaciones en un sistema de ecuaciones lineales


calculan la misma recta en un pedazo de papel milimetrado, de manera que todas las
rectas se superpongan unas sobre otras, podemos llamar a tal sistema de ecuaciones
como un sistema de ecuaciones lineales inconsistente e independiente. En este caso
obtenemos un nmero infinito de soluciones porque todos los puntos por encima de la
recta son puntos de interseccin.

3. Consistente independiente: Este es el sistema ms general de las ecuaciones lineales,


donde tenemos un nmero de rectas que se interceptan en un solo punto, el cual es la
nica solucin para el sistema de ecuaciones, y denominamos a tal sistema de
ecuaciones consistente e independiente.

Adems de esto tambin tenemos tres categoras de posibles soluciones para un


determinado sistema de ecuaciones lineales. Estas son:
1. Solucin Independiente: La solucin independiente es la solucin nica para un sistema
de ecuaciones lineales. Para un sistema de ecuacin, si aplicamos una operacin de
transformacin de fila generalmente obtendremos una matriz de identidad. Una
caracterstica nica de este tipo solucin es que se necesita disponer de tantos nmeros
de ecuaciones como variables en el sistema dado. Si este requisito no se cumple, no
podemos obtener una solucin independiente.

Al resolver el sistema de ecuaciones obtenemos una solucin nica para cada una de las
tres variables como x = 3, y = 1 y z = 2

2. Solucin Dependiente: La solucin dependiente es aquella por medio de la cual se


obtienen numerosas soluciones para una sola variable, este es el caso de las soluciones
mltiples. Para este sistema de ecuaciones, si aplicamos la operacin de transformacin
de fila generalmente obtendremos pocos trminos de cero. Usualmente, es el caso donde
el nmero de variables es mayor que el nmero de ecuaciones en el sistema. Muchas
veces este sistema contiene una fila cero.

La solucin del sistema es x = 4 - 3t, y = 3 + 2t, z = t.


3. Solucin Inconsistente: La solucin es inconsistente, cuando no obtenemos ninguna
solucin para el sistema de ecuaciones lineales.

No tenemos una solucin para el sistema de ecuaciones anterior.

3.3 Interpretacin Geomtrica De Las Soluciones


Un sistema de ecuaciones diferenciales son aquellas que tienen varias posibilidades para
su solucin. Estas son:
1. Solucin nica: Slo es posible obtener una solucin nica para un sistema de
ecuaciones lineales intersectado en un nico punto determinado, por lo tanto, el sistema
de ecuaciones donde tenemos todas las rectas entrecruzndose en un solo punto, se
denomina como la solucin nica del sistema de ecuaciones. Ese sistema de ecuaciones
lineales es llamado sistema de ecuaciones lineales consistente independiente.
Grficamente se representa,

2. Sin solucin: Es posible que un sistema de ecuaciones lineales no tenga solucin


cuando ningunas de sus rectas se intersectan entre s ni siquiera en el infinito, ya que slo
el punto de interseccin es la solucin para el sistema de ecuaciones lineales Esto slo
puede ocurrir en el caso de las rectas paralelas, por lo tanto, para un sistema con este
tipo de ecuacin tenemos varias ecuaciones que corresponden a la misma recta y que
slo difieren por la pendiente. Dicho sistema se denomina sistema de ecuaciones lineales
inconsistente independiente. Grficamente podemos representarlo como,

3. Infinitas soluciones: Slo en la situacin que las rectas de determinado sistema se


encuentren unas con otras en un punto infinito, podemos obtener soluciones infinitas. Esto

slo puede suceder si todas las rectas son la misma recta, ya que es en este escenario
que se superpondrn unas con otras dndonos puntos infinitos de interseccin, es decir,
infinitas soluciones. Este sistema es llamado sistema de ecuaciones lineales consistente
dependiente. Grficamente podemos representarlo como,

Con la ayuda de un ejemplo, vamos a entender las diversas soluciones posibles.


Si tenemos un sistema de ecuaciones lineales dado como,
y = 3x 2 y = -x 6
La representacin grfica de las ecuaciones puede darse como,

Ya sabemos que en el caso de una sola recta, todos los puntos que intersecten con esa
recta son llamados solucin de la ecuacin, sin embargo al tratar con un sistema de
ecuaciones, la situacin es diferente. En tal situacin para que un punto sea la solucin
del sistema de ecuacin dado, necesita estar sobre cada recta definida en el sistema de
ecuacin dado. Por lo tanto, si nos fijamos en el diagrama siguiente,

el punto resaltado con color rojo no puede considerarse como una solucin, ya que no se
encuentra en ninguna de las rectas definidas en el sistema de ecuaciones.

Tampoco podemos considerar el punto resaltado en color azul como la solucin, ya que
se encuentra en una sola recta y no en la otra, por lo tanto, puede considerarse como la
solucin para la recta y =-x - 6, pero no la del sistema dado.

Finalmente, el punto destacado en el color prpura es la solucin del sistema de


ecuacin, ya que est en ambas rectas definidas para el sistema dado. Tambin sta es la
solucin nica del sistema dado, porque ambas lneas no se intersectan en algn otro
punto. Por tanto, llamamos a este sistema un sistema de ecuaciones lineales consistente
independiente.

3.4 Mtodos De Solucin De Un Sistema De Ecuaciones


Lineales
Mtodos para resolver sistemas de ecuaciones lineales: Gauss, Gauss-Jordan, inverso de
una matriz y regla de Cramer
Un sistema de ecuaciones lineales se compone de dos o ms ecuaciones lineales. La
solucin del sistema correspondiente se obtiene cuando todas las ecuaciones lineales del
sistema intersectan en un punto particular.
Existe una variedad de mtodos disponibles para encontrar la solucin exacta de un
sistema de ecuaciones lineales. Algunos de los mtodos aceptados popular y
ampliamente incluyen a la eliminacin de Gauss, Mtodo Gauss Jordan, inverso de una
matriz y la regla de Cramer.
La eliminacin de Gauss es un algoritmo especfico planeado para encontrar la solucin
del sistema de ecuaciones lineales. Con la ayuda del algoritmo de Gauss puede
encontrarse con facilidad la matriz de rango, el determinante de la matriz y el inverso de la
matriz.
La eliminacin de Gauss se divide en dos partes bsicas: Eliminacin hacia Adelante y
sustitucin hacia atrs. La eliminacin hacia adelante reduce el sistema de ecuaciones

lineales hacia la forma triangular o degenerando las ecuaciones correspondientes con una
solucin zilch. Para ello, el algoritmo de Gauss usa las operaciones elementales de fila.
Luego, con la ayuda de una solucin de sustitucin hacia atrs se crea el sistema
correspondiente.
Otro mtodo, la eliminacin Gauss-Jordan es un mtodo que hace uso de las operaciones
elementales de fila para obtener matrices en forma de una forma escalonada reducida.
Una matriz es llamada de forma escalonada si contiene 0 en cada pivote. La eliminacin
de Gauss-Jordan ubica el 0 tanto abajo como encima del pivote. Y por este motivo, este
tipo de matrices son conocidas como de forma escalonada reducida. En caso el que
Gauss-Jordan sea empleado en una matriz de origen cuadrado, entonces se puede
utilizar para encontrar el inverso de la matriz.
El inverso de la matriz es otro mtodo simple y fcil de usar para encontrar la solucin del
sistema de ecuaciones lineales. En este mtodo, hay algunos pasos a seguir. Estos son:
Paso 1: Marque las ecuaciones en forma de multiplicacin de matriz con las variables una
como matriz o y el otro como coeficiente.
Paso 2: Calcula el inverso de los coeficientes de matriz correspondientes.
Paso 3: Ahora, multiplique el coeficiente inverso de la matriz con ambos lados de la
ecuacin formada en el paso 1.
Paso 4: Cuando soluciones la multiplicacin de la matriz, puedes obtener la solucin.
La Regla de Cramer es otro mtodo basado en una frmula sencilla para encontrar la
solucin del sistema de ecuaciones lineales. Este mtodo se apoya en un hecho simple
en el cual el valor de la variable de todos y cada uno puede determinarse tomando en
cuenta el cociente de dos determinantes. Con el fin de entenderlo, vamos a ver un
sistema de ecuaciones lineales con tres ecuaciones:
x + 3y 2z = 5 3x + 5y + 6z = 7 2x + 4y + 3z = 8
El valor de la variable puede obtenerse por:

Es posible observar que el denominador est dado por los determinantes de los
coeficientes de matriz, mientras que el numerador est elaborado a partir del
determinante de esa matriz, en la cual 1 de las columnas fue intercambiada por un vector
constante o en otras palabras trmino constante.

UNIDAD 4 - Espacios Vectoriales


Espacio vectorial es una estructura algebraica creada a partir de un conjunto no vaco,
una operacin interna (llamada suma, definida para los elementos del conjunto) y una
operacin externa (llamada producto por un escalar, definida entre dicho conjunto y otro
conjunto, con estructura de cuerpo), con 8 propiedades fundamentales.
A los elementos de un espacio vectorial se les llama vectores y a los elementos del
cuerpo, escalares.
Histricamente, las primeras ideas que condujeron a los espacios vectoriales modernos
se remontan al siglo XVII: geometra analtica, matrices y sistemas de ecuaciones
lineales.
Los espacios vectoriales se derivan de la geometra afn, a travs de la introduccin de
coordenadas en el plano o el espacio tridimensional.
Alrededor de 1636, los matemticos franceses Descartes y Fermat fundaron las bases de
la geometra analtica mediante la vinculacin de las soluciones de una ecuacin con dos
variables a la determinacin de una curva plana.nota 1 Para lograr una solucin
geomtrica sin usar coordenadas, Bernhard Bolzano introdujo en 1804 ciertas
operaciones sobre puntos, lneas y planos, que son predecesores de los vectores.

Los espacios vectoriales tienen aplicaciones en otras ramas de la matemtica, la ciencia y


la ingeniera.
Se utilizan en mtodos como las series de Fourier, que se utiliza en las rutinas modernas
de compresin de imgenes y sonido, o proporcionan el marco para resolver ecuaciones
en derivadas parciales.

4.1 Definicin De Espacio Vectorial


Un espacio vectorial es un espacio de numerosos vectores diseminados en todas las
direcciones en las dos operaciones bsicas que es la adicin y multiplicacin escalar, que
puede realizarse con el cumplimiento de las siguientes propiedades:
Considere un espacio vectorial V formado por los vectores x, y, z, a continuacin, tenemos
las siguientes propiedades como verdaderas:
Propiedades de la suma
1. Propiedad de operacin interna: Si el vector x es parte del espacio vectorial y el vector
y es parte del espacio vectorial, y el vector resultante de la suma de estos dos vectores, el
cual es el vector x + y es tambin una parte del espacio vectorial mismo.
2. Propiedad conmutativa: Si el vector x es parte del espacio vectorial, el vector y es parte
del espacio vectorial, y tenemos un vector resultante de la suma de estos dos vectores,
entonces el vector x + y es igual al vector y + x .
3. Propiedad asociativa: Si el vector x es parte del espacio vectorial, el vector y es parte
del espacio vectorial y el vector z es parte del espacio vectorial, y tenemos un vector
resultante de la adicin de estos tres vectores entonces el vector x + (y + z) es igual al
vector (x + y) + z.

4. Identidad aditiva: todo espacio vectorial contiene un vector nulo que es un vector cero,
lo que se denomina como la identidad aditiva, de tal manera que su suma con cualquiera
de los vectores en el espacio vectorial, no cambia el vector real, que es 0 + x = x.
5. Inverso aditivo: Para todos los vectores de un espacio vectorial determinado, existe un
vector inversa disponible en el mismo espacio de tal manera que la suma de los dos
vectores nos da un vector cero, en consecuencia si tenemos un vector x en el espacio
vectorial entonces debemos tambin tener un vector -x del mismo vector en el espacio.
Propiedades escalares de la multiplicacin:
Una multiplicacin escalar es aquella en la que se multiplica un vector con cualquier
cantidad escalar, que consiste en multiplicar la cantidad que contiene una direccin con
una cantidad sin direccin.
1. Propiedad de operacin interna: Si tenemos un vector x en un espacio vectorial dado y
un nmero real, entonces decimos que el vector resultante de la multiplicacin escalar de
estas dos cantidades, debe existir tambin dentro del mismo espacio vectorial.
2. Propiedad distributiva: Si se tiene los vectores x y y en un espacio vectorial V y un
nmero real, entonces la operacin de a. (x + y) es equivalente a ax + ay.
3. Propiedad distributiva: Si hay un vector x en un espacio vectorial V y un nmero real a y
b, la operacin (a + b) x es equivalente a ax + bx.
4. Propiedad asociativa: Si hay un vector x en un espacio vectorial V dado y un nmero
real a y b, entonces la operacin a. (bx) es equivalente a (ab) x.
5. Propiedad unitaria: La multiplicacin de cada vector en un espacio vectorial dado con
una cantidad de unidas escalar dar como resultado al vector actual.

4.2 Definicin De Subespacio Vectorial


Sea V un espacio vectorial arbitrario sobre un campo F. Un subconjunto no vaco W de V
es llamado subespacio lineal de V, o simplemente un subespacio, siempre que se
cumplan dos condiciones:
(i) a + b 2 W siempre a, b 2 W, y
(ii) ra 2 W siempre que r 2 F.
Est claro que todo subespacio de un espacio vectorial contiene el vector cero, 0. De
hecho, {0} es un subespacio propio, llamado subespacio trivial. Consideremos, por
ejemplo, una ecuacin lineal a, b, c, d 2 F. Si d 6= 0, entonces su conjunto de soluciones
no puede ser un sub-espacio de F3 ya que x = y = z = 0 no ser una solucin, y por lo
tanto los conjunto de soluciones no contienen 0 = (0, 0, 0)T . Por otro lado, como se
seala a continuacin, el conjunto solucin de un sistema arbitrario homogneo ax + by +
cz = 0 es un subespacio de F3.
Un subespacio W de V es un espacio vectorial sobre F por derecho propio. Sabemos por
supuesto que W es un subconjunto no vaco de V, el cual es cerrado bajo la suma y la
multiplicacin escalar. Pero entonces W contiene 0, ya que 0W = 0 para cualquier w 2 W,
y cada elemento w de W tiene su inverso aditivo -w en W, ya que -w = (1) w. Pero el
resto de los axiomas de espacio vectorial estn en W, puesto que ya lo estn en V. Por lo
tanto, mantienen todos los axiomas del espacio vectorial en W.
Un hecho muy interesante sobre el espacio vectorial es que para cada espacio vectorial
tenemos en realidad dos subespacios. Uno de ellos es el espacio vectorial propio,
mientras que el otro es el subespacio cero, es decir, W = {0}.

Veamos un ejemplo de subespacio.


Calcula si el conjunto de entrada viene siendo el subespacio del espacio vectorial dado.
Tenemos w como un conjunto de puntos de R2 donde el valor de cada elemento del
conjunto debe ser mayor que cero. Se est formando un subespacio de R2?
Para probar esto simplemente tenemos que confirmar si el conjunto de entrada se ajusta
a la propiedad de cierre de la multiplicacin y suma escalares.
Tomando la primera propiedad de clausura bajo la adicin
(x1, y1) + (x2, y2) = (x1 + x2, y1 + y2)
Ahora, ya se ha dicho que el valor de cada elemento en el conjunto es mayor que cero.
Por lo tanto, tenemos x1 y x2 es mayor que cero, esto significa que su suma tambin
debe ser mayor que cero. Similar es el caso de y1 y y2. Esto significa que la
propiedad de clausura bajo la adicin es cierta.
Tomando la segunda propiedad de la multiplicacin escalar,
Para demostrar esta propiedad tomamos una cantidad escalar negativa c. Entonces su
multiplicacin con cualquier elemento del conjunto ser, c(x, y) = (cx, cy)
Como el valor de c es negativo su multiplicacin con cualquier cantidad positiva produce
un trmino negativo. En consecuencia, la propiedad de cierre de la multiplicacin escalar
no es verdadera lo cual significa que no forma parte del espacio vectorial dado.

4.3 Combinacin lineal - Independencia lineal


En las Matemticas generales, el trmino combinacin lineal se refiere a una expresin
desarrollada a partir de un conjunto de trminos especficos, despus de la multiplicacin
de cada trmino del conjunto por una constante en particular, y posteriormente mediante
la suma del resultado. La forma bsica de la combinacin lineal es ax + by. Aqu tanto a
como b son trminos constantes particulares. La Combinacin Lineal constituye el
concepto bsico del lgebra lineal.
Entendamos la definicin de una manera ms precisa. Considere el campo K y el espacio
vectorial V, que est sobre K. Suponga que v1 . vn son vectores juntos con a1an los
cuales son escalares. Por lo tanto, la combinacin lineal de los vectores es:
Podra darse el caso que uno se confunda con el significado bsico de Combinacin
lineal, es decir, si la Combinacin Lineal es un valor o una expresin. Puede verse que en
la mayora bsicamente el concepto se refiere a un valor, aunque de vez en cuando se
trata como una expresin.
Otro concepto importante que est ms o menos relacionado con la Combinacin Lineal
es la Independencia Lineal. Una familia de vectores se dice que es linealmente
independiente cuando ninguno de ellos puede ser escrito con trminos de combinacin
lineal dentro de la variedad de los vectores del conjunto.
Veamos una definicin ms profunda de este concepto. Si w1. . . wk estn en V. Decimos
que w1. . . wk son linealmente independientes (simple o independiente) si y solo si la
combinacin a1w1 + a2w2 + + akwk = 0, con a1, a2, . . . , ak F es una combinacin
trivial a1 = a2 = = ak = 0. Si la ecuacin a1w1 + a2w2 + + akwk = 0 tiene una
solucin en la que algunos ai 0, decimos que w1. . , son linealmente independientes
(simple o independiente). Tambin diremos que un subconjunto finito S de V es
independiente si los vectores contenidos en S son independientes.
Por ejemplo: Supongamos que queremos saber que si los vectores (1, 1) y (3, 2) son
linealmente independientes o no. Comencemos esta prueba simple: Considere que 1 y
2 to son dos nmeros reales que satisfacen (1, 1) 1 + (3, 2) 2 = (0, 0).

Simplificando las coordenadas individualmente, obtenemos


1 3 2 = 0
1 + 2 2 = 0
Al resolverlo, obtenemos 1 = 0 y 2 = 0

4.4 Base Y Dimensin De Un Espacio Vectorial


La base de un espacio vectorial es un subconjunto de un espacio vectorial que se
extiende sobre un espacio vectorial determinado y es linealmente independiente en el
mismo. Esto es, si tenemos un espacio vectorial V y tenemos S como un subconjunto de
este espacio vectorial, el cual consiste de n vectores de la forma v1, v2, v3 vn
entonces podemos definir que este subconjunto es la base del espacio vectorial dado, si
cumple las dos condiciones siguientes:
1. Este subconjunto se extiende a travs del espacio vectorial dado. 2. S es subconjunto
de V conteniendo los vectores de V, los cuales son linealmente independientes.
Con la ayuda de una ecuacin lineal podemos representar tal conjunto como,

Aqu v es un vector que yace en el espacio vectorial dado y los vectores n representados
como v-1, v2, v3 vn forman parte de la base del espacio vectorial dado.
Existen numerosos ejemplos de la base de un espacio vectorial. Imagina tres dimensiones
las cuales constan de dos vectores. Imagina que estos vectores no son planos. El plano
definido con la ayuda de estos dos vectores slo formar una base para los espacios
tridimensionales actuales. Esto es porque si definimos una combinacin lineal con la
ayuda de estos dos vectores, entonces este se encontrara definitivamente dentro el plano
mismo e inversamente tambin es posible expresar un vector dentro del plano como una
combinacin lineal de ambos. Ahora extendamos esta definicin para formar la base de la
definicin de la dimensin del espacio vectorial. Imaginemos que tenemos un espacio
vectorial V y sea S la base de este espacio vectorial. Ahora coloquemos un nmero
limitado de vectores en la base de espacio vectorial S, entonces definiramos este espacio
vectorial dado como un espacio vectorial de dimensin finita y la dimensin real se

obtendra mediante calcular el nmero total de vectores en la base de ese espacio


vectorial.
En caso de que tengamos un nmero infinito de vectores en la base del espacio vectorial
dado, entonces llamaremos al espacio vectorial un espacio vectorial de dimensin infinita,
y la dimensin de tal espacio vectorial es y la dimensin de un espacio vectorial nulo es el
valor 0.
Puede haber ms de una base para un espacio vectorial dado. Esto significara que es
posible definir los vectores dentro de un espacio vectorial dado como la sumatoria de los
vectores de ambas bases. Sea V un espacio vectorial y S la base de este espacio
vectorial. Ahora definamos todos los vectores v V en trminos de los elementos finitos de
esta base. Definamos ahora otra base para este espacio vectorial. Ahora bien, si
intentamos redefinir los elementos del espacio vectorial como una sumatoria de los
elementos del segundo vector, llamamos a este proceso cambio de base.
Este proceso puede ser considerado como una funcin identidad sobre los elementos del
espacio vectorial.

4.5 Espacio Vectorial Con Producto Interno y sus


propiedades.
Siempre que se utiliza el trmino espacio en un contexto matemtico, se refiere a un
espacio vectorial, es decir, real o n-espacio complejo, el espacio de funciones continuas
en la recta, el espacio de operadores lineales adjuntos y as sucesivamente. Por lo tanto,
es un hecho innegable, que este tema tiene su propia importancia en el campo de las
matemticas.
Fijaremos el espacio vectorial de una manera ms amplia, con una definicin que
contiene todos los conceptos relacionados. Sea F un campo y V un conjunto.
Supongamos que hay una operacin binaria sobre V llamada adicin, la cual asigna a
cada par de elementos a y b de V una suma nica a + b V. Imagina tambin, que hay una
segunda operacin, llamada multiplicacin escalar, que asigna a cualquier r F y a
cualquier 2 V, un mltiplo escalar nico ra V. Supongamos que tanto la suma como la
multiplicacin escalar satisfacen los siguientes axiomas:
(1) La suma de los vectores es conmutativa. Es decir, a + b = b + a para todo a, b V.
(2) La suma de los vectores es asociativa. Es decir, (a + b) + c = a + (b + c) para todo a, b,
c V.
(3) Existe una identidad aditiva 0 V de manera que 0 + a = a para todos los a V.
(4) Para todo a V, 1a = a, donde 1 es la identidad multiplicativa de F.
(5) Por cada elemento v de V, hay un elemento -v tal que v + (-v) = 0. De este modo -v es
un inverso aditivo de v.
(6) La multiplicacin escalar es asociativa. Si r, s F y a V, entonces (rs)a = r(sa).

(7) La multiplicacin escalar es distributiva. Si r, s F y a, b V, entonces r(a + b) = ra + rb,


and (r + s)a = ra + sa.
Entonces V es un espacio vectorial sobre F.
Con el tiempo te dars cuenta de que todas las condiciones anteriores son necesarias. Al
igual que en los campos, la identidad aditiva 0 es nica, y los inversos aditivos son nicos:
cada vector tiene su inverso. Llamemos a 0, el vector cero. En un espacio vectorial, slo
puede haber un vector cero. Por otra parte, el inverso aditivo de un vector es siempre
nico.

4.6 Base Orto normal, Proceso de Orto normalizacin de


Gram Schmidt
La base es el subconjunto de algn espacio vectorial, tal que este es linealmente
independiente y se extiende sobre todos los elementos de ese espacio vectorial. La base
ortonormal es un tipo especial de base, la cual es un subconjunto de un tipo especial de
espacio vectorial el cual es el producto escalar del espacio vectorial. Antes de ahondar en
el tema, primero aclararemos nuestro concepto sobre un conjunto ortonormal.
Sea un V producto escalar de un espacio vectorial, si cada vector par discreto dentro de
ese espacio vectorial es ortogonal, entonces podemos definir el espacio vectorial como un
conjunto ortogonal. Adems, ampliando esta definicin, en un conjunto ortogonal si
tenemos cada vector con una norma igual a uno, entonces este es definido como conjunto
ortonormal. Sea V producto escalar de un espacio vectorial, y tenemos a S como base de
ese espacio vectorial dado, entonces, si S es un conjunto ortogonal, entonces lo llamamos
una base ortogonal y si S es un conjunto ortonormal entonces lo denominamos una base
ortonormal.
Formalmente hablando, una base S del producto escalar de un espacio vectorial V que
contiene vectores de la forma v1, v2, v3 vn se define como una base
ortonormal si satisface la condicin <vi . vj> = 0 donde i no debe ser igual a j. Aqu .
es el producto escalar del espacio vectorial dado.
Sin embargo no es indispensable que una base ya determinada est en forma ortogonal.
Podemos, si es necesario, transformar la base a la forma ortonormal. El procedimiento
para hacerlo se llama proceso de ortonormalizacin de Gram Schmidt. La entrada del
procedimiento es generalmente una base finita y la salida es una base ortonormal definida
en algn perodo arbitrario. El teorema establece Para un conjunto k de elementos, el
cual es lineal e independiente, es posible construir un conjunto ortonormal, y el conjunto
resultante es la agrupacin lineal del conjunto de entrada y se extiende sobre el mismo
espacio vectorial.
Es esencial que la base est ordenada para que sea una base ortonormal. Sea V un
producto escalar de un espacio vectorial, y si tenemos a S como la base del espacio
vectorial dado que contiene los elementos de la forma v1, v2, v3 vn . Ahora,

que tenemos otra base S, que contiene los elementos de la forma w1, w2, w3
wn. Aqu v1 = w1, entonces
Tambin podemos afirmar lo definido de una manera inversa diciendo que si S es un
subconjunto ortonormal de V que consiste en vectores no cero, entonces podemos decir
que S es linealmente independiente.
Si tenemos S como base ortonormal para cualquier producto escalar de un espacio
vectorial, entonces por cada elemento en el espacio vectorial dado tenemos
Aqu x es un vector en el espacio vectorial dado y los coeficientes [x, vi] son llamados
coeficientes de Fourier. Un punto digno de mencin es que todos los productos de los
espacios vectoriales que tienen tamao finito, tienen esencialmente una base ortonormal.

UNIDAD 5 - Transformaciones Lineales


Desde el punto de vista de la algebra lineal, las transformaciones ms importantes son
aquellas que conservan las combinaciones lineales. Estas tambin son llamadas como
transformaciones lineales o mapeos lineales. Transformacin lineal es una parte esencial
en la lgebra lineal. Transformaciones lineales entre dos espacios vectoriales U y V
relaciona el mapeo T: U V que satisface estas condiciones:
1). T (U1 + U2) = T (U1) + T (U2), donde U1 y U2 son vectores en U 2). T (Au) = A T (u),
donde A es cualquier cifra escalar
La primera condicin se conoce como la aditividad mientras que la segunda se conoce
como homogeneidad. Puede ser definido como una funcin entre dos espacios
vectoriales, la cual conserva operaciones de multiplicacin escalar y suma. De acuerdo
con la lgebra abstracta, son homomorfismo de espacios vectoriales .
Toda transformacin que conserva combinaciones lineales es una transformacin lineal.
Otra propiedad evidente es que cualquier transformacin lineal mapas 0 a 0: T (0) = 0. .
Este sigue, por ejemplo, el hecho de que
T (x) = T (x + 0) = T (x) + T (0) Para alguna x 2 V, la cual slo puede ocurrir si T (0) = 0.
Representar una transformacin lineal en trminos de una matriz es una manera
ingeniosa, ya que permitir clculos concretos en naturaleza. En otras palabras, se puede
decir que una matriz puede dar el modelo bsico de estas transformaciones. Por ejemplo,
si Q es una matriz de m-by-n, en ese caso, la reglaT (Au) = A T (u) representa la
transformacin Rn Rm.
La transformacin Id: V V definida por Id(x) = x se llama transformacin de la identidad.
Esta transformacin es claramente lineal.
Propiedades generales de transformaciones lineales
Suponga que V es un espacio vectorial dimensional finito sobre F, y W es otro espacio
vectorial (no necesariamente de dimensin finita) sobre F. Dado una base de V, existe una
transformacin lineal nica T: V W tomando cualquier valor que deseamos en la base

dada de V, y, adems, sus valores sobre la base de V determinan unicamente la


transformacin lineal.
Otra propiedad de transformacin lineal establece que si V y W son espacios vectoriales
sobre F, entonces cualquier combinacin lineal de transformaciones lineales con dominio
V y objetivo W tambin es lineal. As, el conjunto L (V, W) de todas las transformaciones
lineales T: V W es un espacio vectorial sobre F.
Para concluir, hay dos espacios fundamentales asociados con una transformacin lineal:
su ncleo ker (T) y su imagen im (T). El ncleo y la imagen de una transformacin lineal T
corresponden con el espacio nulo y espacio de la columna de cualquier matriz que
representa T.

5.1 Introduccin a Las Transformaciones Lineales


La transformacin lineal es una funcin utilizada para la asignacin de un espacio
vectorial a otro espacio vectorial con la ayuda de los escalares, la cual satisface la
expresin f(a*x+b*y) =a*f(x)+b*f(y).
En otras palabras, se consideran 2 espacios vectoriales, V y W. Una transformacin lineal
es una grfica T: V W que satisface dos condiciones:
1). T (v1 + v2) = T (v1) + T (v2) donde v1 y v2 son vectores en V. 2). T (xV) = x T (v) donde
x es una escala
Una transformacin lineal puede ser sobreyectiva o inyectiva. En el caso que, W y V
tengan dimensiones idnticas, entonces T puede llegar a ser invertible, esto es, se
encuentra T-1 el cual satisface la condicin TT-1 = I. Asimismo, T (0) ser siempre 0.

La teora de la matriz entra en la teora de las transformaciones lineales porque es posible


representar cada transformacin lineal como matriz. La multiplicacin de matrices puede
considerarse como el ejemplo principal que puede demostrar el concepto de
transformacin lineal. Una matriz A de dimensin n x m define que T (v) = Av y aqu v es
representado como un vector columna. Veamos un ejemplo:
Aqu, la transformacin lineal t es definida como T (x, y) = (y, 2x + 2y, x). En el caso que,
V y W sean de dimensin finita, la transformacin lineal est mejor representada con la
multiplicacin de matrices en lugar de estableciendo la base del espacio vectorial, tanto
para W y V. En el caso que, W y V incluyan un producto escalar y tambin los espacios
vectoriales correspondientes y que W y V sean ortonormales, ser simple representar la
matriz correspondiente como .
Mientras que w y v son de dimensin infinita, la transformacin lineal puede ser continua.
Por ejemplo, considera que un espacio polinmico de 1 variable sea v y T una derivada.
Entonces, T (xn) = nxn-1, una no continua como xn/n = 0 mientras que T (xn)/n no
converge.
El resultado de la suma de 2 o ms transformaciones lineales, la multiplicacin de una
transformacin lineal por nmero particular, y la multiplicacin de 2 transformaciones
lineales, son siempre transformaciones lineales. Una transformacin lineal en la cual su
identidad es descrita en el espacio euclidiano siempre es auto-adjunta en el caso de que
la matriz A correspondiente sea simtrica en cualquier base ortonormal. Una
transformacin lineal que es auto-adjunta y se describa en una dimensin finita unitaria, el
espacio (euclidiano) contiene una base ortonormal en la cual su matriz lleva una forma
diagonal.

Existen dos espacios fundamentales que estn asociados a una transformacin lineal: su
kernel ker(T) y su imagen im(T). El kernel y la imagen de una transformacin lineal T
corresponden con el espacio nulo y el espacio de la columna de cualquier matriz que
represente a T.
En un sistema lineal, el nmero de variables es igual al nmero de variables libres ms el
nmero de variables angulares, quedando una transformacin lineal final T: V W en la
identidad dim V = dim ker(T) dim im(T). Si dim ker(T) = 0 y dim im(T) = dimW, entonces t
esta sobre y uno a uno. En este caso, esto se denomina un isomorfismo.

5.2 Ncleo e imagen de una transformacin lineal


En esta seccin se desarrollan algunas propiedades bsicas de las transformaciones
lineales.
Teorema 1. Sea T: V W una transformacin lineal. Entonces para todos los vectores u, v,
v1, v2,.vn en V y todos los escalares

Nota en la parte i el 0 de la izquierda es el vector cero en v; mientras que el cero de la


derecha es el vector cero en W.

i. T(0) = T(0 + 0)= T(0) + T(0). As 0= T(0) T(0) = T(0) + t(0) T(0) = T(0)
ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu Tv.
iii.Esta parte se prueba por induccin (vea el apndice 1). Para n = 2 se tiene
T(1v1 + 2v2) = T (1v1) + T(2v2) = 1Tv1 + 2Tv2. As, la ecuacin (1) se cumple
para n = 2. Se supone que se cumple para n = k y se prueba para n=k + 1: T(1v1 +
2v2+ .+ kvk+k+1vk-1 ) = T(1v1 + 2v2+.+kvk) + T(k+1vk+1), y usando la
ecuacin en la parte iii para n= k, esto es igual a (1Tv1 + 2Tv2+.kTvk) + k+1Tvk+1,
que es lo que se quera demostrar. Esto completa la prueba.

Observacin. Los incisos i) y ii) del teorema 1 son casos especiales del inciso iii). Un dato
importante sobre las transformaciones lineales es que estn completamente determinadas
por el efecto sobre los vectores de la base.

Teorema 2
Sea v un espacio vectorial de dimensin finita con base B= {v1,v2,.vn}.
Sean w1,w2,.wn vectores en W. Suponga que T1y T2 son dos transformaciones lineales
de V en W tales que T1vi = T2vi = wi para i = 1, 2,,n. Entonces para cualquier vector v
v, T 1v = T2v; es decir T1 = T2.
Como B es una base para V, existe un conjunto nico de escalares 1, 2,., n. Tales
que v = 1v1 + 2v2 + + n vn.

Entonces, del inciso iii) del teorema 1, T1v = T1(1 v1 + 2v2 + + nvn)
= 1T2v1 + 2T2v2 + + nTnvn= 1w1 + 2w2 ++ nTnvn

De manera similar T2v = T2(1v1 + 2v2 + + nvn) = 1T2v1 + 2T2v2 ++ nTnvn


= 1w1 + 2w2 ++ nvn

Por lo tanto, T1v =T2v.

El teorema 2 indica que si T:v W y V tiene dimensin finita, entonces slo es necesario
conocer el efecto que tiene T sobre los vectores de la base en V. Esto es, si se conoce la
imagen de cada vector bsico, se puede determinar la imagen de cualquier vector en V.
Esto determina T por completo. Para ver esto, sean v1, v2,.vn una base en V y sea v
otro vector en V. Entonces, igual que en l aprueba del teorema 2, Tv = 1Tv1 + 2Tv2 +
+ nTvn

As, se puede calcular Tv para cualquier vector v V si se conocen Tv1,Tv2,.Tvn

Ejemplo 1 Si se conoce el efecto de una transformacin lineal sobre los vectores de la


base, se conoce el efecto sobre cualquier otro vector.

Sea T una transformacin lineal de R3 en R2 y suponga que

Solucin. Se tiene

Entonces

Surge otra pregunta; si w1,w2,.,wn son n vectores en W, existe una transformacin


lineal T tal que Tv1 = w1 para i = 1,2,,n? La respuesta es s. Como lo muestra el
siguiente teorema.

Definicin 1 Ncleo e imagen de una transformacin lineal

Sean V y W dos espacios vectoriales y sea T:V W una transformacin lineal. Entonces

i . El ncleo de T, denotado por un, est dado por

ii. La imagen de T, denotado por Im T, esta dado por

Observacion 1. Observe que un T es no vacio porque, de acuerdo al teorema 1, T(0) = 0


de manera que 0 un T para cualquier transformacin lineal T. Se tiene inters en
encontrar otros vectores en V que se transformen en 0. De nuevo, observe que cuando
escribimos T(0) = 0, el 0 de la izquierda est en V y el de la derecha en W.

Observacin 2. La imagen de T es simplemente el conjunto de imajenes de los vectores


en V bajo la transformacin T. De hecho, si w = Tv, se dice que w es la imagen de v bajo
T.

Antes de dar ejemplos de ncleos e imgenes , se demostrar un teorema de gran


utilidad.

Teorema 4 Si T:V W es una transformacin lineal, entonces


i.Un T es un subespacio de V.
ii.Im T es un subespacio de W.

Demostracion
i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) = = 0 = 0 de forma que
u + v y u estn en un T.
ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto
significa que T(u + v)= Tu + Tv = w + x y T(u) = Tu =w. Por lo tanto, w + x y w estn
en Im T.

Ejemplo 3. Ncleo e imagen de la transformacin cero


Sea Tv = 0 para todo v V(T es la transformacin cero). Entonces un T = v e Im T = {0}.

Ejemplo 4 Ncleo e imagen de la transformacin identidad


Sea Tv = v para v V(T es la transformacin identidad). Entonces un T= {0} e Im T = V.

Las transformaciones cero e identidad proporcionan dos extremos. En la primera todo se


encuentra en el ncleo. En la segunda slo el vector cero se encuentra en el
ncleo. Los casos intermedios son ms interesantes.

Ejemplo 5 Ncleo e imagen de un operador de proyeccin

Sea T:R3 R3 definida por


T es el operador de proyeccin de R3 en el plano xy.

Entonces x = y = 0. As, nu T = {(x,y,z):x = y = 0, zR}, es decir, el eje z, e Im T = {(x,y,z): z


= 0}, es decir el plano xy. Observe que dim un T = 1 y dim Im T = 2.

Definicin 2

Nulidad y rango de una transformacin lineal

Si T es una transformacin lineal de v en w, entonces se define.

Observacin. En la seccin 4.7 se definieron el rango, la imagen, el espacio nulo y la


nulidad de una matriz. Segn el ejemplo 5.1.7, Toda matriz A de m*n da lugar a una
transformacin lineal T:R R definida por Tx = Ax. Es evidente que un T = NA, Im T = Im

A = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que las definiciones de ncleo, imagen,
nulidad y rango de una transformacin lineal son extensiones del espacio nulo, la imagen,
la nulidad y el rango de una matriz.

5.3 La Matriz De Una Transformacin Lineal


Desde el punto de vista algebraico lineal, las transformaciones ms importantes son las
aquellas que conservan las combinaciones lineales. Estas son llamadas transformaciones
lineales o aplicaciones lineales. Una transformacin lineal es una parte esencial en el
lgebra lineal. La idea principal detrs de la Matriz de una transformacin lineal es la
definicin de la matriz de T con respecto a las bases arbitrarias del dominio de V y el
codominio de W. En este caso, V y W son espacios vectoriales de dimensin finita sobre
F, y T: V W es una transformacin lineal.
Sea V y W espacios vectoriales de finita dimensin sobre F, e imagina que T: V! W es
lineal. Fija una base
B = {v1, v2. . . vn}
de V y una base de
B0 = {w1, w2. . . wm}

de W. Ahora definimos la matriz MBB (T) de T con respecto a estas bases. Puesto que B0
es una base de W, cada T (vj) puede escribirse nicamente como
T(v j) =
Por lo tanto la matriz de T, en definitiva, con respecto a las bases B y B0 se define como
la matriz MBB (T) = (cij ) m n . Lo qu dice esta definicin es que la columna jth de la
matriz MBB(T) es el vector columna formado por los coeficientes de T(vj) con respecto a
la base B0? Uno puede expresar el trmino anterior en forma matricial mediante
(T(v1) T(v2) T(v n)) = (w1 w2 wm)MBB (T).
Es importante tener en cuenta que si V = Fn, W = Fm y T = TA, donde A Fmn, entonces
MBB(T) = A si B y B0 son las bases estndares. De TA (ej) es siempre la columna jth de
A.
Ahora, sea V el espacio de polinomios reales de al menos tres grados, y W el espacio de
polinomios reales de a lo sumo dos grados. Entonces, la diferenciacin es una
transformacin lineal D: V W. Ahora
D (ax3 + bx2 + cx + d) = 3ax2 + 2bx + c.
Sea B la base {1, x, x2, x3} de V y B0 la base {1, x, x2} de W. Ahora,
D (1) = 0, D(x) = 1, D(x2) = 2x, D(x3) = 32.
As
MBB(D) =
Ahora bien, supongamos que T: V V es una transformacin lineal diagonalizable (o
semi-simple). Recordemos que esto significa que existe una base B = {v1, v2. . . vn} de V
tal que (vi) = vi para cada ndice i entre 1 y n. Por lo tanto, B es una base propia de V para
T. En este caso, MBB (T) es la matriz diagonal.
Pero, Qu es la matriz de T con respecto a alguna otra base B0 de V? El primer paso
para responder a esta pregunta es encontrar cmo relacionar las expansiones de un
vector dado de V con respecto a dos bases distintas. Esto por s solo constituye un
concepto diferente y ms amplio que necesita de un conocimiento muy superior y ms
profundo de las matemticas.

5.4 Aplicacin De Las Transformaciones Lineales


Graficar un conjunto de puntos en otro es lo que se conoce como transformacin lineal de
un conjunto de puntos. Existen ciertas propiedades bsicas de las transformaciones
lineales, las cuales si son tomadas en cuenta y aplicadas al momento de resolver un
problema, pueden reducirlo un problema simple. La notacin general utilizada para una
transformacin lineal es T: Rn Rm.
1. Reflexin: Cuando un conjunto de puntos dados es graficado desde el espacio
euclidiano de entrada a otro de manera tal que este es isomtrico al espacio euclidiano de
entrada, llamamos a la operacin realizada la reflexin del conjunto de puntos dado. Esto
puede realizarse tambin con respecto a la matriz, en tal situacin la matriz de salida es
llamada la matriz de reflexin. La reflexin es realizada siempre con respecto a uno de los
ejes, sea el eje x o el eje y. Esto es como producir la imagen espejo de la matriz actual.
2. Expansin: Al igual que en la reflexin, tambin es posible expandir los puntos dados
en una direccin particular. La expansin se realiza habitualmente para un cierto grado.
Es como realizar una operacin de multiplicacin de los elementos del conjunto de puntos

dados con un trmino escalar hacia la direccin donde tiene que ser expandido. Sea para
un punto (2, 3) si el grado de expansin 2 es la direccin de y, entonces el nuevo punto
obtenido es (2, 6).
3. Contraccin: La contraccin es el procedimiento inverso de la expansin. Aqu el punto
es contrado en un determinado grado hacia una direccin dada. Sea el punto de entrada
(4, 8) y este debe ser contrado para el grado dos en la direccin de x entonces el nuevo
punto resulta ser (2, 8).
4. Rotacin: El trmino rotacin tiene dos significados, ya la rotacin de un objeto puede
ser realizada con respecto al eje dado o al eje mismo. La rotacin se realiza para un cierto
grado el cual es expresado en forma de un ngulo. Asimismo, la rotacin puede realizarse
en la direccin de las manecillas del reloj, o inverso a las manecillas del reloj.
Como ejemplo, dirijmonos a producir la matriz estndar para la representacin de la
transformacin lineal reflejando un conjunto de puntos en el plano x-y a travs de la recta
y = (2x / 3).

El primer paso para esto es determinar los vectores base.

Por lo tanto, podemos afirmar que,

Dado que y pertenece a R2. Imagina que A: R2 R2 es una transformacin lineal,


entonces podemos escribir que,

La imagen de la matriz base determina la imagen de cualquier elemento. Por lo tanto la


imagen de a travs de y = (2x/ 3) es determinada mediante la obtencin de una recta
que pasa por (1, 0) y es que es ortogonal a . Esto est dado por y = (3x/ 2) (3/ 2).
El punto donde las dos rectas, esto es, y = (3x/ 2) (3/ 2) e y = (2x/ 3) se intersectan se
dado como (9/13, 6/13). Tomamos p1 para ser el punto de reflexin de a travs de la
recta dada. Este punto es simtrico respecto a (9/13, 6/13) por lo tanto, podemos escribir
que,

Esto produce,
De manera similar, la imagen del vector base resulta ser

Y tenemos la matriz de transformacin lineal final como,

También podría gustarte