Está en la página 1de 69

TEMARIO Unidad 1 Numeros complejos. 1.1 Definicion y origen de los numeros complejos. 1.

2 Operaciones fundamentales con numeros complejos. 1.3 Potencias de i,modulo o valor absoluto de un numero complejo. 1.4 Forma polar y exponencial de un numero complejo. 1.5 Teorema de De Moivre, potencias y extraccion de raices de un numero complejo. 1.6 Ecuaciones polinomicas. Unidad 2 Matrices y determinantes. 2.1 Definicion de matriz, notacion y orden. 2.2 Operaciones con matrices. 2.3 Clasificacion de las matrices. 2.4 Transformaciones elementales por renglon. Escalonamiento de una matriz. Rango de una matriz. 2.5 Calculo de la inversa de una matriz. 2.6 Definicion de determinante de una matriz. 2.7 Propiedades de los determinantes. 2.8 Inversa de una matriz cuadrada a traves de la adjunta. 2.9 Aplicacion de matrices y determinantes. Unidad 3Sistemas de ecuaciones Lineales. 3.1 Definicion de sistemas de ecuaciones lineales. 3.2 Clasificacion de los sistemas de ecuaciones lineales y tipos de solucion 3.3 Interpretacion geometrica de las soluciones. 3.4 Metodos de solucion de un sistema de ecuaciones lineales: Gauss, Gauss Jordan, inversa de una matriz y regla de Cramer.

3.5 Aplicaciones. Unidad 4 Espacios vectoriales. 4.1 Definicion de espacio vectorial. 4.2 Definicion de subespacio vectorial y sus propiedades. 4.3 Combinacion lineal. Independencia lineal. 4.4 Base y dimension de un espacio vectorial, cambio de base. 4.5 Espacio vectorial con producto interno y sus propiedades. 4.6 Base ortonormal, proceso de ortonormalizacion de Gram Schmidt. Unidad 5 Transformaciones lineales. 5.1 Introduccion a las transformaciones lineales. 5.2 Nucleo e imagen de una transformacion lineal. 5.3 La matriz de una transformacion lineal. 5.4 Aplicacion de las transformaciones lineales: reflexion, dilatacion, contraccion y rotacion.

1.1 Definicion y origen de los numeros complejos.

Un nmero complejo es un nmero con la estructura x + iy. Aqu x es la parte real del nmero, y es la parte imaginaria del nmero e i significa imaginario. El valor del cuadrado de i es igual a 1. El nmero imaginario i es uno de los dos nmero que cumple con la regla (i) 2 = 1, el otro nmero es -i. Formalmente, escribimos i =1. Un nmero complejo z se escribe como z = x + iy donde x e y son nmeros reales. Llamamos a x la parte real de z y y la parte imaginaria y escribimos x = Rez, y = Imz. Dos nmeros complejos son iguales si y slo si sus partes reales e imaginarias son iguales. El complejo conjugado de z = x + iy, denotado como z, es definido como Z = x - iy El uso de nmeros complejos comenz mucho antes que estos se definieran formalmente. Antes no se sola usar el concepto de nmeros complejos, porque si un nmero se elevaba al cuadrado, este no permaneca negativo. Pero el inters de los matemticos fue en esta direccin cuando se encontraron con un problema interesante cuya solucin no poda ser obtenida, el cual era algo como, x2 + 1 = 0. Aqu tenemos x2 = 1 y no llegamos a la solucin, por lo tanto, los matemticos definieron, con este propsito, un tipo de nmero, denominado nmero imaginario . Sin embargo, lo que algunas personas creen, algo muy sorprendente para muchos, es que los nmeros complejos surgieron tras la necesidad de resolver las ecuaciones cbicas, y no (como comnmente se cree) las ecuaciones cuadrticas. La referencia ms importante segn los registros se encontr en el ao 1545 por Cardan. Cardan los encontr mientras investigaba las races polinmicas. Se dice que la i se form porque se convirti en el requisito de los matemticos. Al principio, durante el periodo inicial de las Matemticas, la solucin de un problema relacionado con la raz cuadrada de un nmero negativo, por ejemplo: x2+1=0 era

considerado imposible de resolver. Despus de un tiempo, los expertos llegaron con el nmero iota para resolver tales ecuaciones. L. Euler (17071783) introdujo la notacin i =1,, y visualiz los nmeros complejos como puntos con coordenadas rectangulares, pero no di un fundamento satisfactorio para los nmeros complejos. Euler us la frmula x + iy = r (cos + i sin ) y visualiz las raz de zn = 1 como vrtices de un polgono regular. Defini el complejo exponencial, y demostr la identidad ei = cos + i sin . 1.2 Operaciones fundamentales con numeros complejos. La naturaleza de un nmero complejo contiene los nmeros reales extendidos que resulten necesarios para resolver un problema que sera difcil de resolver utilizando slo los nmeros reales. Existen una gran variedad de operaciones que pueden realizarse con los nmeros complejos. La suma, resta, divisin y multiplicacin constituyen las operaciones bsicas que pueden realizarse con los nmeros complejos. Suma: La operacin de sumar dos nmeros complejos x + yi e c + di puede expresarse como: (x + yi) + (c + di) = (x + c) + (y + d)i Esto es, es posible observar que las partes correspondientes de los nmeros reales se suman juntos y que se hace lo mismo con la parte imaginaria. Examinemos un ejemplo para entender la operacin ms plenamente: Imaginemos que debemos expresar (1 + 8i) + (4 + 5i) en forma compleja. Entonces, sumando la parte real y la parte imaginaria por separado, obtenemos (1 + 4) + (8 + 5) i = 5 + 13i Resta: La operacin de restar dos nmeros complejos x + yi y c + di puede expresarse como: (x + yi) - (c + di) = (x + c) - (y + d)i Veamos un ejemplo de la resta de dos nmeros complejos:

Imaginemos que debemos expresar (1+ 8i) - (4 - 5i) en forma compleja. Entonces, restando la parte real y la parte imaginaria separadamente, obtenemos = (1 - 4) - (8 - 5)i = 3 3i Multiplicacin: La operacin de Multiplicar dos nmeros complejos x + yi e c + di puede expresarse como: (x + y i) (c + d i) = (x c - y d) + (x + d yc) i Sin embargo, esta multiplicacin puede realizarse aplicando las propiedades bsicas de la Multiplicacin de los Nmeros Reales, y recordando la regla bsica de los nmeros complejos, esto es, i2 = 1. Veamos un ejemplo: Imaginemos que debemos expresar (2 + 3i) (2 - 2i), en forma compleja. Usando la propiedad distributiva, obtenemos = (2 + 3i) (2 - 2i) = (2 + 3i) 2 + (2 + 3i) (- 2i) = 4 + 6i 4i - 6i2 Agrupando los mismos trminos y aplicando la propiedad i2 = 1 obtenemos, = 4 + 6i 4i + 6 = 10 + 2i Divisin: La operacin de Dividir dos nmeros complejos (8 + 4 i) y (1 - i) puede expresarse como: (8 + 4 i) / (1 - i) En primer lugar, multiplicando el numerador y el denominador con el conjugado del denominador de la expresin anterior, obtenemos [(8 + 4 i) (1 + i)] Agrupando y multiplicando los trminos semejantes,

[(8 + 4 i) (1 + i)] / [(1 - i) (1 + i)] = [8 + 4 i + 8 i + 4 i 2] / [1 - i + i - i 2] = (4 + 12 i) / (2)

1.3 Potencias de i,modulo o valor absoluto de un numero complejo. Por un largo tiempo se pens que la obtencin de la raz cuadrada de un nmero negativo era imposible. Una teora general, que trabaj detrs de esto estableci, que ningn nmero puede continuar negativo despus haberse elevado al cuadrado. Sin embargo, con el descubrimiento de los nmeros complejos, este estudio se detuvo completamente. Ahora es posible obtener la raz cuadrada de nmeros negativos y, sin embargo esta es seguida de un smbolo i. Esta i representa el trmino imaginario, porque tal nmero no existe en la realidad. Tales nmeros imaginarios pueden tener formas exponenciales. De hecho varias operaciones realizadas con los nmeros reales tambin pueden realizarse en el caso de los nmeros imaginarios. La potencia de los nmeros imaginarios es simplemente una forma nica de la operacin de multiplicacin. Antes de realizar algo con ella, se asume que el valor de i2 es igual a 1. Esto se puede tomar como un hecho universal de las matemticas. Todos los otros valores de exponente de i son determinados a partir de este valor global. A travs de esta afirmacin, el valor de i3 se convierte en i2 x i. Esto nos produce 1 x i, por lo tanto, obtenemos el valor de i3 como -i. Del mismo modo, el valor de i4 puede obtenerse mediante la ruptura de trminos como i2 x i2. Por lo tanto, tenemos 1 x 1 y por ello, el valor de i4 viene siendo 1. De esta manera, cualquier valor de la potencia de i puede determinarse rompiendo trminos primarios, cuyos valores ya conocemos y su multiplicacin, nos ofrecer el valor deseado. A continuacin damos la tabla de las numerosas potencias de i. i1 = i i2 = 1 i3 = -i i4 = 1 i5 = i i6 = 1 i7 = -i i8 = 1 El mdulo o valor absoluto es un concepto esencial de las matemticas, ya sea respecto a los nmeros reales o complejos. Ya sabemos que el mdulo de un nmero es siempre el nmero mismo removindole su signo de magnitud. Es decir, si el nmero es positivo, entonces su mdulo nos da, de nuevo el mismo nmero, pero si el nmero dado es negativo, entonces su mdulo sera, la forma positiva de ese nmero.

En el caso de los nmeros complejos, el valor absoluto se define como la distancia calculada del nmero complejo desde su origen en un plano complejo. Este concepto es similar al de los nmeros reales con la diferencia, que en lugar de plano complejo tomamos la recta numrica para calcular la distancia del nmero desde el origen, esto es cero.

Observando el diagrama de arriba debera aclararse todo el concepto anterior del clculo del mdulo del nmero complejo. Con la simple aplicacin del teorema de Pitgoras en el plano complejo, donde la hipotenusa es la distancia del nmero desde el origen y la parte de la base real del nmero complejo, mientras que la altura es la parte imaginaria del nmero complejo. Veamos ahora un ejemplo. Sea el nmero complejo dado como 3 + 4i, entonces, calcule su valor absoluto. Sabemos que,

por lo tanto, |z| =

= |z| = 5

1.4 Forma polar y exponencial de un numero complejo. Un nmero complejo se representa generalmente en forma rectangular, es decir, en la forma de a + bi. De esta forma, a es considerada como el ancho del rectngulo, y b como la altura del mismo. Sin embargo, los nmeros complejos tambin pueden expresarse en forma polar o exponencial. La forma polar se expresa como r y generalmente se ledo r en un ngulo .

r denota la magnitud de los nmeros complejos y representa la distancia de los nmeros del origen cuando se toman en el sentido de las manecillas del reloj, a travs del lado no negativo del eje real. Ahora veamos la conversin de la forma polar a la rectangular: Las frmulas utilizadas para estas conversiones son:

Y a la inversa, la conversin de rectangular a polar:

Estas frmulas se pueden utilizar. Ahora, veamos las operaciones de multiplicacin y divisin en la forma polar: Regla de la multiplicacin: En la multiplicacin de dos nmeros complejos, las respectivas magnitudes y los ngulos son sumados. Regla de la Divisin: En ella, las magnitudes se dividen y los ngulos se restan con el fin de encontrar el cociente. Aparte de la forma polar y rectangular, los nmeros complejos tambin pueden representarse en forma exponencial. Esto es en la forma r e i . Aqu e es el exponente y tiene un valor igual a 2.71828. En esta definicin, el valor de r es igual que en el anterior, este es el valor absoluto o mdulo y define el componente angular del nmero el cual es midido en trminos de radianes. Esta forma de escribir un nmero complejo, aunque es similar a la de la forma polar, es an ms concisa que esta. En primer lugar tenemos que entender el concepto detrs de la formulacin de este tipo de nmeros complejos. Sabemos, que las series de cos x y sen x pueden escribirse como,

cos x = 1 (x2/ 2) + (x4/ 4) - sin x = x (x3/ 3) + (x5/ 5) - Ya sabemos que en la forma polar un nmero complejo se escribe como [r (cos + i sin )]. Imaginemos que el valor de r es 1, por lo tanto, nos quedamos con cos + i sin . Por lo tanto, lo ampliamos utilizando la frmula anterior como, cos + i sin = 1 + i - ( 2/ 2) (i 3/ 3) + ( 4/ 4) + ( 5 / 5) Ahora, tenemos la serie ex como, ex = 1 + x + (x2/ 2) + (x3/ 3) + (x4/ 4) + Ahora, sustituye i por x y tenemos, Y la forma simplificada viene siendo, Por lo tanto, podemos decir que, cos + i sin = De hecho, es ms conveniente trabajar en la forma exponencial que en la forma polar, ya que la solucin de los problemas en la forma polar requieren la suma de los componentes angulares y tambin la multiplicacin de la longitud, lo cual obviamente es bastante tedioso. Pasemos a convertir la forma polar en una forma exponencial a travs de un ejemplo. 5 (cos 1350 + i sin 1350) Sabemos que, 10 = / 180 1350 = 135 / 180 =3/4 = 2.36 radianes 5 (cos 1350 + i sin 1350) = 1.5 Teorema de De Moivre, potencias y extraccion de raices de un numero complejo. La multiplicacin de dos nmeros complejos se realiza mediante la operacin de multiplicacin en los respectivos mdulos, esto es r y realizando la operacin de adicin en el componente angular, este es . Si en algn momento deseas

encontrar el cuadrado de un nmero complejo, en otras palabras, realizar la multiplicacin de dos nmeros complejos, los cuales son de hecho iguales, entonces obtendramos algo como: r x r = r2 Esto es, por la multiplicacin de los mdulos obtenemos r2 y por la suma de los dos componentes angulares obtenemos . Sin embargo, ahora escribimos el nmero complejo en su forma polar y realizamos la operacin de multiplicacin, entonces obtendramos algo as, [r (cos + i sin )] x [r (cos + i sin )] = r2 (cos 2 + i sin 2 ) De la misma forma, al aumentar el nmero complejo al exponente tres, tendramos que realizar la operacin de multiplicacin en los nmeros complejos, los cuales son iguales. Esto es obtenemos trminos como los siguientes, r x r x r = r3 Y para la forma polar, los trminos seran, [r (cos + i sin )] x [r (cos + i sin )] x [r (cos + i sin )] = r3 (cos 3 + i sin 3 ) Y esto se sigue repitiendo. Todo lo que podemos decir es que existe un patrn fijo el cual se puede notarse con claridad por los ejemplos anteriores, al elevar un numero complejo a algunos exponentes, estamos de hecho elevando el trmino mdulo de ese exponente y el componente angular es, incluso, multiplicado por el nmero de ese exponente. En forma breve podemos concluir que, [r (cos + i sin )]n = [rn (cos n + i sin n )] Llamamos a este teorema, el teorema De Moivre. Este teorema es usualmente utilizado para la determinacin de las potencias de cualquier nmero complejo, ya que permite de manera fcil cumplir con el propsito sin la necesidad de hacer ningn tipo de clculo complejo. Si podemos cuadratizar un nmero complejo, encontrar su cubo o aumentarlo a cualquier potencia, de la misma manera podemos extraer sus races. Sin embargo, esto es un poco diferente a la extraccin de races en los nmeros reales. Para determinar la raz de un nmero complejo, todo lo que tenemos que hacer es ir a por la tcnica de ingeniera inversa, esto es moverse en la direccin inversa a la determinacin de la potencia de un nmero complejo.

El procedimiento consiste simplemente en dividir el exponente de los mdulos por el nmero de grado de la raz y hacer lo mismo con el coeficiente del componente angular. Es decir, si tenemos que encontrar la nt raz de un nmero complejo, entonces divide el exponente del mdulo por n y divide el coeficiente por n. = rn/n O para la forma polar del nmero complejo, podemos escribirlo como, [rn (cos n + i sin n )] = [rn/n (cos (n/n) + i sin (n/n) )] 1.6 Ecuaciones polinomicas. Obtener la solucin de una ecuacin polinmica es uno de los temas ms candentes en el campo de las matemticas, esto es debido a su importancia en los problemas de la vida real y cientfica. Las ecuaciones polinmicas son una clase que comprende tanto las ecuaciones lineales como las cuadrticas. La forma general de la ecuacin polinmica es: anxn + an-1xn-1 + + a22 + a1x + a0 = 0 Aqu x representa una variable en particular, y an, an-1. . . a2, a1, a0 son las constantes. N siempre debe ser positiva junto con la condicin de que an 0. Por ejemplo, x3 + 72 + 3x 2 =0 es una ecuacin polinmica. La solucin al problema del polinomio, consiste en encontrar todas las races de la ecuacin dada. Existen ciertos teoremas que resultan tiles al resolver la ecuacin: De acuerdo con el primer teorema, que es el teorema fundamental del lgebra, un polinomio f(x) tiene grado n, el cual es mayor o igual a 1, en todo caso, tiene una solucin compleja. Por lo tanto, este teorema asegura que toda ecuacin polinmica con grado igual o superior a uno tiene al menos una solucin. Pasando al segundo teorema, el cual afirma que cualquier nmero puede existir como la raz de cierto polinomio g(x) slo si cumple la condicin donde a es la raz esperada del polinomio g(x), y f(x) es otra funcin polinmica. Ahora, si tenemos a como una de las races del otro polinomio, f(x), entonces debemos tener un tercer polinomio h(x) para que se cumpla la condicin . Su h(x) no debe ser igual a cero. En tal escenario, puede concluirse que la raz tiene un equivalente multiplicativo de n y puede calcularse como las races n equivalente de a.

El tercer teorema se utiliza para determinar la cantidad de soluciones posibles de la ecuacin polinmica dada. Un polinomio de n grado nos da un nmero n de soluciones siempre que el valor de n sea mayor o igual a uno. Esto significa que si tenemos p1, p2 pn como las posibles soluciones n del polino mio dado, entonces esto es de la forma, Ahora, tenemos algunas frmulas de Vieta para la ecuacin polinmica. stas se definen en el cuarto teorema como, p1 + p2 + p3 + + pn = (-an-1/ an) p1p2 + p1p3 + + p1pn + p2p3 + + p2pn + + pn-1pn = (an-2/ an) p1p2p3 + p1p2p4 + + p1p2pn + p1p3p4 + + p1p3pn + + pn -2pn1pn = (-an-3/ an) p1p2pn = (1)n (a0/ an) El quito teorema establece que, una ecuacin polinmica que tiene nmeros reales como los coeficientes de sus variables, no desaparece de forma idntica, y que poseen una raz compleja deben tener tambin el conjugado de los nmeros complejos como una de sus races. De acuerdo con el sexto teorema, una ecuacin polinmica que tiene nmeros racionales como coeficientes de sus variables, no desaparece de forma idntica, y poseen una raz irracional que debe tambin tiene su inverso como una de sus races. Tomemos, por ejemplo, si una de las races de la ecuacin polinmica es entonces es tambin su raz. Por el sptimo teorema, si para un polinomio, tenemos un nmero racional (k/ ) como las races entonces el trmino k debe dividir el coeficiente a0 y el trmino debe dividir el coeficiente an. Finalmente, el octavo teorema establece que, si para un polinomio, tenemos un entero como raz, entonces tal raz debera dividida el coeficiente a0. 2.1 Definicion de matriz, notacion y orden. Una matriz es una ordenacin rectangular que consta de m filas y n columnas. Por lo general, esta contiene nmeros en sus elementos los cuales son colocados en forma de subndice. Una matriz es en realidad la fusin de algunos vectores de unidimensionales los cuales son colocados en dos dimensiones, de manera tal que toma la forma de un vector de dos dimensiones. Una matriz puede ser representada como,

Incluso podemos utilizar parntesis en lugar de corchetes para denotar una matriz. Casi todas las operaciones bsicas pueden realizarse en matrices. Sin embargo, estas operaciones requieren comprobar el orden de la matriz ya que las matrices de rdenes diferentes, no puede ser trabajadas, por ejemplo en las operaciones de suma y de resta. Sin embargo, la operacin de multiplicacin es una excepcin, ya que para multiplicar dos matrices tenemos que tener el vector fila de la primera matriz igual al vector columna de la segunda matriz y el vector columna de la primera matriz igual al vector fila de la segunda. Por lo tanto, el orden de la matriz representa el tamao de su vector fila y su vector columna. En el caso que una matriz contenga m elementos en sus vectores fila y n elementos en sus vectores columna surge una matriz de orden m x n, esto es la matriz representada como, Filas x Columnas. Tambin es posible calcular el inverso de una matriz dada. El inverso de una matriz tiene el vector fila igual al vector de la columna de la matriz actual y el vector columna igual al vector fila de la matriz actual. El inverso de una matriz A no singular se representa por A1 y es igual a (adj A/ | A |). Pueden existir muchos elementos en una matriz. Cada elemento de una matriz tiene una identificacin nica y se identifica con la ayuda de su respectivo vector y vector columna. Usualmente indicamos una matriz con la ayuda de las letras maysculas, mientras que las letras minsculas y los dgitos se utilizan para representar la entrada individual de la matriz. Una matriz del orden m x n se dice que tiene rango r si, 1. Tiene al menos uno de orden r menor de cero. 2. Todos los otros menores de orden mayor que r, en su caso, son iguales a cero. Obviamente, el rango de la matriz A de orden m x n es menor o igual a m o n o ambas. El orden ms grande de A que no es menor cero, determina el rango de la

matriz. El rango de una matriz se denota (A). Una matriz se dice que es de forma escalonada si, 1. En cada fila de la matriz A, en la cual todas sus entradas se producen por debajo de la fila la cual es una entrada no cero. 2. El primer elemento de cada fila que sea diferente de cero es igual a uno. 3. El nmero de ceros anteriores al primer elemento distinto de cero de cada fila es menor que el nmero de ceros de la siguiente fila. 2.2 Operaciones con matrices. Una matriz de tamao m n sobre un campo K, donde m y n son enteros positivos, es una matriz con m filas y n columnas, donde cada entrada es un elemento de K. Para 1 \leq i \leq m y 1 \leq j \leq n, la entrada en la fila i y la columna j de A est denotado por Ai j, y es referida como la entrada (i, j) de A. Definimos la suma y la multiplicacin de matrices de la siguiente manera. (a) Sean A y B matrices del mismo tamao m n en K. Entonces, la suma de A + B se define mediante la adicin de las entradas correspondientes: (A+B)i j = Ai j +Bi j. (b) Sea A una matriz m n y B una matriz n p en K. Entonces, el producto AB es la matriz m p cuya entrada (i, j) se obtiene multiplicando cada elemento de la fila ith de A por el elemento correspondiente en la columna jth de B y en la sumatoria: (AB)ij = Pgina 16 Slo podemos sumar o multiplicar matrices si sus tamaos satisfacen las condiciones adecuadas. En particular, para un valor fijo de n, podemos sumar y multiplicar matrices nn . Resulta que el conjunto Mn(K) de las matrices nn sobre K es un anillo con identidad. La matriz nula, lo cual se denota por O, es la matriz con entradas cero, mientras que la matriz identidad, que se denota por I, es la matriz con entradas de 1 en la diagonal principal y 0 en cualquier otro lugar. Toma en cuenta que la multiplicacin de matrices no es conmutativa: BA no suele ser igual a AB. Operaciones de fila y columnas Dada una matriz A m n sobre un campo K, definimos ciertas operaciones en A llamadas operaciones fila y columna.

Operaciones elementales de fila: Existen tres tipos: Tipo 1: Agrega un mltiplo de la fila jth al ith, donde j /neq i. Tipo 2: Multiplica la fila ith por un escalar distinto de cero. Tipo 3: Intercambia las filas ith y jth , donde j /neq i. Operaciones elementales de columna: Existen tres tipos: Tipo 1: Agrega un mltiplo de la columna fila jth al ith, donde j /neq i. Tipo 2: Multiplica la columna ith por un escalar distinto de cero. Tipo 3: Intercambia de la columna ith y jth , donde j /neq i. Mediante la aplicacin de estas operaciones, podemos reducir cualquier matriz a una forma particularmente simple: Sea A una matriz m n sobre el campo K. Entonces es posible cambiar A en B mediante operaciones elementales de fila y columna, donde B es una matriz de igual tamao satisfaciendo Bii = 1 para 0 \leq i /neq r, para r /neq min {m,n}, y todas las dems entradas de B son cero. Si A puede ser reducida a dos matrices tanto B y B0 , de la forma anterior, donde el nmero de elementos distintos de cero son r y r0 , respectivamente, por diferentes secuencias de operaciones elementales, entonces r = r0, y por lo tanto, B = B0. El nmero r en el teorema anterior se llama rango de A; mientras que una matriz de la forma descrita para B, se dice que est en la forma cannica de la equivalencia. 2.3 Clasificacion de las matrices La matriz es un concepto principal, no slo en el campo de las matemticas, sino en el de las Computadoras tambin. Una matriz puede definirse simplemente como una ordenacin rectangular de nmeros reales o complejos. Cada nmero o entrada en una matriz es llamado un elemento de la matriz. Los elementos incluidos en la lnea horizontal forman una fila de la matriz. Los elementos incluidos en la lnea vertical forman una columna de la matriz. Una matriz es de diversos tipos y formas. Se pueden clasificar en: 1). Matriz columna 2). Matriz fila 3). Matriz cuadrada 4). Matriz diagonal 5). Matriz identidad o unidad 6). Matriz cero o nula 7). Matriz simtrica 8). Matriz asimtrica Entremos en los detalles de cada una: 1). Matriz columna: Una matriz con n filas y 1 columna, se denomina matriz columna. Esta matriz es de tipo m x 1.

Por ejemplo: 2). Matriz fila: Una matriz que tiene una fila y n columnas, se dice que es una matriz fila. Esta matriz es del tipo 1 x n.

Por ejemplo: 3). Matriz Cuadrada: Una matriz en la cual el nmero de columnas es igual al nmero de filas, se conoce como una matriz cuadrada. Una matriz de orden n es aquella que tiene n filas y n columnas. La propiedad aceptada en la matriz cuadrada es que dos o ms matrices cuadradas de orden idntico, pueden multiplicarse, sumarse y restarse.

Por ejemplo: 4). Matriz diagonal: En una matriz cuadrada, los elementos para los cuales i = j, se denominan elementos diagonales. Una matriz cuadrada donde cada elemento, excepto los elementos diagonales, son iguales a cero, es llamada matriz diagonal. La matriz diagonal se denomina a veces matriz diagonal rectangular.

Por ejemplo: 5). Matriz identidad o unidad: Se dice que una matriz es la matriz identidad o unidad, si cada elemento de la diagonal principal de la matriz particular es 1. La matriz identidad generalmente es denotada por I. Este tipo de matriz tiene la siguiente propiedad: AI = A y IA = A

Por ejemplo: 6). Matriz cero o nula: Se trata de una matriz en la cual cada elemento es igual a 0. Se representa como 0. Si O es la matriz cero m n y A es cualquier matriz m n, entonces A + O = O A. En consecuencia O es la identidad aditiva de la suma de matrices.

Por ejemplo: 7). Matriz simtrica: Una matriz simtrica se refiere a la matriz cuadrada cuyo valor es igual al transpuesto de la matriz. Es decir, .La simetra de la diagonal simtrica est relacionada con la diagonal principal. Por otra parte, toda matriz diagonal es simtrica.

Por ejemplo: 8). Matriz asimtrica: La matriz asimtrica tambin es conocida como matriz antimtrica o antisimtrica. Se trata de una matriz cuyo valor de transposicin es negativo de su valor. Es decir, A = -AT. Estos ocho tipos son la base de la clasificacin de las matrices. Estos pueden utilizarse para generar una clasificacin ms precisa. Sin embargo, el concepto bsico y el mtodo de operacin en las matrices son idnticos en todas las clasificaciones. 2.4 Transformaciones elementales por renglon. Escalonamiento de una matriz. Rango de una matriz. Si se intercambian dos filas cualesquiera de una matriz dada, llamamos a esta operacin una operacin de transformacin elemental en las filas de una matriz. Se denota por Rij, lo cual implica que se intercambian las filas i y j de la matriz dada. Esta operacin tambin se denota por Ri < R -j.

Un punto digno de notar es que esta operacin no es de naturaleza singular. De hecho se ha demostrado, que todas las matrices no singulares son el resultado de la transformacin elemental en la fila de una matriz . Si esto es cierto, entonces podemos concluir, que para todas las matrices no singulares tambin tenemos una matriz inversa, la cual tampoco es singular y es tambin el resultado de la transformacin elemental en la fila de una matriz. Esta matriz elemental se denomina la matriz identidad I y tenemos el resultado A x I = A-1 Existen tres operaciones bsicas que pueden realizarse para transformar la fila de una matriz dada: 1. Intercambiar dos filas de la matriz dada, es decir, poner los elementos de una fila en el lugar del otro y viceversa. 2. Realizar la operacin de multiplicacin a cualquier fila de la matriz dada, multiplicando todas las entradas de esa fila con un elemento escalar. 3. Extraer un mltiplo comn de todas las entradas de una fila y agregarlo a las entradas de la otra fila. La transformacin de fila es una operacin bsica importante de las matrices, la cual generalmente no altera el rango de la matriz dada. Podemos continuar la transformacin de las filas de la matriz hasta que obtengamos una como la primera entrada diferente de cero apareciendo en cada fila. Para que un sistema de ecuaciones u otros elementos representados a travs de una matriz para designar estos como linealmente dependientes debe existir un vector de elementos escalares tal que satisfaga la ecuacin dada,

Podemos obtener la matriz cuadrada de una matriz, tomando, una parte de la matriz r x r de la matriz dada. Y llamamos a sus determinantes filas menores de r para la matriz de entrada. Entre todas las submatrices, el determinante que tenga el valor ms alto distinto de cero, y que tambin es la submatriz ms grande para la matriz dada, puede determinar el rango de la matriz dado que su orden igual al rango de la matriz actual. Tomemos como ejemplo la siguente matriz:

A continuacin se muestra las posibles submatrices de la matriz, que tienen sus determinantes como cero,

Esto significa que no podemos tener un rango de tres as que intentemos con la submatriz de orden dos, la cual da el rango de la matriz actual,

El determinante resulta ser 20, el cual es el ms grande y por lo tanto, el rango de la matriz dada es dos. 2.5 Calculo de la inversa de una matriz. La matriz forma una parte esencial, no slo de las matemticas, sino tambin de la vida, en el caso de un ingeniero u otra persona que se haya asociado con las matemticas. Encontrar el inverso de una matriz constituye una parte crucial en el concepto de matriz. Una matriz sin su inverso no est completa. El inverso de una matriz puede definirse como: Dado una matriz n n elemental E, uno puede observar fcilmente que existe una matriz elemental F tal que F E = In. Reflexionando un poco se concluirs que EF = In . Realizando una operacin de fila y luego deshacindola produce el mismo resultado que deshacerla primero y realizarla despus. De cualquier manera ests de nuevo en el punto de partida. Este concepto se denomina inverso de una matriz. En otras palabras, imaginemos dos n n matrices A y B , estas tienen la propiedad AB = BA = In. . Entonces decimos que A es un inverso de B (y B es un inverso de A). Se dice que una matriz con inverso es invertible. Adems, el inverso de una matriz siempre es nico. Imagina que que A Rnn o A (F2) nn y A tiene un inverso B. Entonces B es nico. Comprobemos este hecho. Imagina que A tiene dos inversos B y C. Entonces, B = BIn = B (AC) = (BA) C = InC = C.

En consecuencia B = C, por lo que el inverso es nico. El inverso de A siempre se denota como A-1, con la condicin de su existencia. Por ejemplo, los inversos de las matrices elementales 2 2 son los siguientes:

Tenemos dos formas de encontrar el inversa de una matriz, tal que BA = In. La primera es simplemente multiplicar la secuencia de matrices elementales, lo cual reduce la fila A. Esto no es tan malo como parece, ya que la multiplicacin de matrices elementales es esencial. El segundo mtodo consiste en formar la matriz aumentada (A | In) y la fila reducir. El resultado final ser de la forma (In | B). Veamos un ejemplo para entender mejor el concepto. Imaginemos que queremos encontrar una relacin inversa para:

A= Dado que slo tenemos que resolver la ecuacin matricial XA = I3, podemos reducir la fila (A | I3).

Entonces, por construccin BA = I3. Existe una tercera tcnica menos evidente la cual a veces tambin es til. Si formamos la matriz de coeficiente aumentada (A | b), donde b representa el vector columna con los componentes b1, b2 . . . b m y efectuando la reduccin de filas de esta matriz aumentada, el resultado ser en la forma (In | c), donde los componentes de c son combinaciones lineales de los componentes de b. Los coeficientes de estas combinaciones lineales nos dan las entradas de A-1. 2.6 Definicion de determinante de una matriz. El Determinante de una matriz puede considerarse como las caractersticas escalares de una matriz determinada el cual es el volumen limitado por los vectores de matrices filas. La condicin previa para la existencia del determinante de la matriz es que la matriz sea una matriz cuadrada. Con la ayuda del determinante se prueba si existe o no el inverso de la matriz particular. | A | es el smbolo con el cual se representa el determinante de la matriz. La dimensin de la matriz juega un papel esencial en la bsqueda del valor del determinante. Por ejemplo:

para una matriz cuadrada

, el determinante puede encontrarse por:

|A|=

= ad bc

Existen algunas propiedades esenciales de los determinantes que son dignas de consideracin: 1). En caso de que las dos filas de un determinante sean iguales o, en otras palabras, una fila puede expresarse como la combinacin lineal de dos filas, entonces |A| = 0. En el caso de las columnas es similar. 2). Cuando |A| = 0, entonces en este caso la matriz no puede ser invertida. 3). | A | = | A |T 4). | AB | = | A |.| B | = |BA| . Sin embargo, tanto A como B deben ser matrices cuadradas.

5). El determinante de la matriz triangular es el producto de los valores de la diagonales del tringulo. 6). Intercambiar las filas de la matriz conduce a la negacin de su valor final. Esto es,

En general, para una matriz n x n, el determinante puede calcularse como: ai1Ci1 + ai2Ci2 + + ainCin Aqui Cij es el cofactor y puede calcularse como Cij = (1) i+j det Mij Mij es la matriz menor y puede obtenerse eliminando la fila ith y la columna jth de la matriz. Tambin, el valor del determinante permanece sin cambios si los elementos de una fila son alterados aadiendo, digamos, los mltiplos constantes de los elementos correspondientes en cualquier otra fila. Del mismo modo, el valor del determinante no se altera si los elementos de una columna son cambiados agregndoles mltiplos constantes de los elementos correspondientes en cualquier otra columna. Veamos un ejemplo. Supongamos que queremos saber el valor de la

matriz ahora, convertimos la matriz en una matriz triangular mediante la aplicacin de algunas operaciones elementales. Multipliquemos los valores de la primera fila con la mitad y summoslos con los valores de segunda fila. Con esto, obtenemos

Aqu usamos una de las propiedades del determinante la cual establece que el determinante de la matriz triangular es el producto de los valores de la diagonal del tringulo. Por lo tanto,

Por lo tanto, los determinantes tienen una diversidad de usos: 1). Para verificar si existe o no el inverso de una matriz . 2). Es til para el clculo de los valores y vectores propios. 3). El volumen o el rea de la forma particular que son definidos por matrices fila mediante la ayuda de los determinantes. Por ejemplo:

|A|= representa el cuadrado en el plano 2D. El rea y el determinante de la forma particular es 1. 2.7 Propiedades de los determinantes. Toda matriz tiene un valor asociado con el lgebra lineal. Este valor es denominado determinantes. Los Determinantes tienen una aplicacin en casi todos los conceptos de las Matemticas. El clculo del determinante puede hacerse para los valores de las filas y las columnas de una matriz, con la ayuda de expresiones aritmticas. Las propiedades de los determinantes nos ayudan a simplificar el clculo de los determinantes de cualquier orden, tomando el nmero mximo de ceros en una fila o una columna. De acuerdo con la primera propiedad de los determinantes, el valor de los determinantes se mantiene constante si sus filas y columnas son intercambiados. La segunda propiedad de los determinantes establece, que si el final de las dos filas de un determinante se intercambia, entonces la suma de los determinantes cambia, o podemos decir que el valor del determinante se multiplica por el signo

de menos. Del mismo modo, esta propiedad es cierta para dos columnas. As que podemos decir que el valor de los determinantes cambia cuando el final de las dos columnas de un determinante cambia. Otra propiedad establece, que si cada elemento de la fila o la columna de los determinantes se multiplica por la constante k, entonces su valor es multiplicado por k. Esta propiedad te ayuda a comprobar que los factores comunes de todos los elementos de cualquier fila o columna pueden colocarse antes que el determinante. La siguiente propiedad establece que si el final de las dos filas los determinante son iguales, entonces todos los elementos correspondientes de las dos filas son iguales, por lo que el valor del determinante es 0. Del mismo modo, si cualquiera de las dos columnas de los determinantes es idntica, es decir, que todos los elementos correspondientes de las dos columnas son iguales, entonces el valor de los determinantes tambin viene siendo 0. Las dos propiedades anteriores nos ayudan a probar que si los elementos correspondientes de las dos filas son proporcionales, entonces el valor del determinante es 0. Del mismo modo, cuando los elementos correspondientes de las dos columnas son proporcionales, entonces el valor de nuevo viene siendo 0. Si la suma de todos los elementos de las filas del determinante se expresan como la suma de dos o ms trminos, entonces el determinante puede expresarse como la suma de dos o ms determinantes. Del mismo modo, si la suma de todos los elementos de la columna del determinante se expresa como la suma de dos o ms trminos, en este caso, los determinantes pueden expresarse tambin como la suma de dos o ms determinantes. El valor del determinante no cambia si los elementos de una fila son alterados al agregarles un mltiplo constante de los elementos correspondientes en cualquier otra fila. Del mismo modo, el valor del determinante no cambia si los elementos de una columna se alteran mediante la adicin de un mltiplo constante de los elementos correspondientes en cualquier otra columna. Veamos un ejemplo. Supongamos que queremos saber el valor de la

matriz ahora, convirtamos la matriz en una matriz triangular aplicando algunas operaciones elementales. Vamos a multiplicar los valores de la primera fila con y smalos con los valores de la segunda fila. Con esto, obtenemos

Aqu utilizamos una de las propiedades del determinante en la cual se establece que el determinante de la matriz triangular es el producto de los valores de la diagonal del tringulo. Por lo tanto,

2.8 Inversa de una matriz cuadrada a traves de la adjunta. El transpuesto conjugado es una operacin bsica que slo puede realizarse en una matriz compleja, que es aquella matriz cuyas entradas son nmeros complejos. Tambin es llamada por el nombre de conjugada hermitiano o transposicin de Hermtica. En este procedimiento, primero se toma el transpuesto de la matriz dada y luego se deriva el conjugado complejo de todos los elementos de la matriz dada. El conjugado complejo es una operacin en la cual mantenemos intacto la parte real del nmero complejo y neutralizamos la parte imaginaria del nmero complejo. Por ejemplo, tenemos que el nmero complejo dado es x + iy, entonces el conjugado complejo del nmero es dado como x - iy, y si el nmero complejo dado es x - iy, entonces el conjugado complejo de la misma se da como x + iy. El nombre de la operacin se mantiene con el procedimiento, el cual es seguido de derecha a izquierda, donde primero se transpone y luego se conjuga. El notacin convencional de la operacin puede darse como,

La barra en la parte derecha denota la operacin como una escalar del conjugado complejo. Aqu AH es la matriz hermtica de la matriz actual. Ahora, la matriz dada puede ser de la forma de una matriz fila o de una matriz columna o una matriz cuadrada o cualquier otra cosa. Aqu nos concentraremos en el caso de que la matriz dada sea una matriz cuadrada. Entonces,

En el diagrama anterior, det significa determinante de la matriz, y traza significa traza y 1 denota la operacin inversa. Antes de entrar en detalles es importante entender el procedimiento inverso de la transposicin de una matriz. La transposicin de una matriz inversa de una matriz dada se determina, en primer lugar obteniendo la transposicin de una matriz y luego invertiendo el resultado obtenido. Este procedimiento tambin se puede aplicar a una matriz compleja. Digamos por ejemplo, que se nos da una matriz cuadrada compleja, entonces el conjugado transpuesto funciona de la misma manera como se ha mencionado anteriormente. Esto significa, que si realizamos la operacin de transposicin conjugada en una matriz cuadrada, entonces estamos determinando la transposicin inversa de la matriz actual.

Veamos un ejemplo para entender a profundidad este procedimiento. Digamos que tenemos una matriz cuadrada compleja de orden 3 x 3 como,

Para determinar el conjugado complejo de esta matriz, primero debemos buscar la transposicin de esta matriz. Por lo tanto, la transposicin de esta matriz es representada como,

Ahora, invierte la parte imaginaria de cada uno de los elementos de la matriz anterior, es decir, realiza la operacin del conjugado complejo de los elementos de la matriz anterior. La matriz resultante es representada como,

Esta es la respuesta necesaria. Finalmente para obtener el inverso de esta matriz cuadrada es necesario buscar el inverso de cada uno de los nmeros complejos en la matriz. Un punto muy interesante sobre la matriz conjugada compleja es que todos los elementos que estn sobre la diagonal del transpuesto conjugado de la matriz son imaginarios puros, donde su parte real est ausente o es cero o son iguales a cero.

2.9 Aplicacion de matrices y determinantes. Las matrices se utilizan en el contexto de las ciencias como elementos que sirven para clasicar valores numricos atendiendo a dos criterios o variables.

Ejemplo: Un importador de globos los importa de dos colores, naranja (N) y fresa (F). Todos ellos se envasan en paquetes de 2, 5 y 10 unidades, que se venden al precio (en euros) indicado por la tabla siguiente:

Sabiendo que en un ao se venden el siguiente nmero de paquetes:

Resumir la informacion anterior en 2 matrices A y B, de tamao respectivo 2x3 y 3x2 que recojan las ventas en un ao (A) y los precios (B).

Nos piden que organicemos la informacin anterior en dos matrices de tamao concreto. Si nos jamos en las tablas, es sencillo obtener las matrices:

Estas matrices se denominan matrices de informacin, y simplemente recogen los datos numricos del problema en cuestin.

Otras matrices son las llamadas matrices de relacin, que indican si ciertos elementos estn o no relacionados entre s. En general, la existencia de relacin se expresa con un 1 en la matriz y la ausencia de dicha relacion de expresa con un 0.

Estas matrices se utilizan cuando queremos trasladar la informacin dada por un grafo y expresarla numricamente.

En Matemticas, un grafo es una coleccin cualquiera de puntos conectados por lineas. Existen muchos tipos de grafos. Entre ellos, podemos destacar: Grafo simple: Es el grafo que no contiene ciclos, es decir, lineas que unan un punto consigo mismo, ni lineas paralelas, es decir, lineas que conectan el mismo par de puntos. Grafo dirigido: Es el grafo que indica un sentido de recorrido de cada linea, mediante una echa. Estos tipos de grafo pueden verse en la gura:

Relacionadas con los grafos se pueden denir algunas matrices. Entre todas ellas, nosotros nos jaremos en la llamada matriz de adyacencia, que es aquella formada por ceros y unos exclusivamente, de tal forma que:

un 1 en el lugar (i,j) expresa la posibilidad de ir desde el punto de la la i hasta el punto de la columna j mediante una linea que los una directamente. un 0 en el lugar (i,j) expresa la imposibilidad de ir del primer punto al segundo mediante una linea que los una directamente. La matriz de adyacencia del grafo dirigido de la gura anterior ser:

3.1 Definicin de sistemas de ecuaciones lineales. En matemticas y lgebra lineal, un sistema de ecuaciones lineales, tambin conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales (es decir, un sistema de ecuaciones en donde cada ecuacin es de primer grado), definidas sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sera el siguiente:

El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones.

El problema de los sistemas lineales de ecuaciones es uno de los ms antiguos de la matemtica y tiene una infinidad de aplicaciones, como en procesamiento digital de seales, anlisis estructural, estimacin, prediccin y ms generalmente en programacin lineal as como en la aproximacin de problemas no lineales de anlisis numrico.

En general, un sistema con m ecuaciones lineales y n incgnitas puede ser escrito en forma normal como:

Donde

son las incgnitas y los nmeros

son los coeficientes

del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notacin matricial:

Si representamos cada matriz con una nica letra obtenemos:

Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminacin de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes. 3.2 Clasificacion de los sistemas de ecuaciones lineales y tipos de solucion Una ecuacin lineal es una ecuacin algebraica que contiene variables cuyo mximo grado posible es uno. Tales ecuaciones se utilizan normalmente para definir lneas rectas. Cuando tenemos numerosas ecuaciones lineales, donde sus posibles soluciones nos dan un punto de solucin, las llamamos como conjunto, sistema de ecuaciones lineales. Generalmente, un sistema de ecuaciones lineales se convierte en forma de matriz por conveniencia para su solucin. Sea un sistema de ecuaciones lineales dado como, x + y z = 1 3x 2y + z = 3 4x + y 2z = 9 A continuacin se indica la forma matricial del sistema de la ecuacin como,

Existen tres tipos de sistemas de ecuaciones lineales posibles, los cuales dependen del punto de interseccin de la ecuacin lineal en un determinado sistema de ecuacin. Estos son: 1. Inconsistente independiente: Si las ecuaciones del sistema dado vienen a ser las mismas rectas que difieren en su pendiente, entonces tal sistema de ecuaciones lineales es llamado consistente y dependiente. Este sistema de ecuaciones lineales no proporciona una solucin dado que todas las rectas son paralelas entre s y no pueden cumplir con los dems, incluso si se extiende hasta el infinito, por lo que nunca se obtiene un punto de interseccin, y por tanto, no puede obtenerse ninguna solucin.

2. Consistente dependiente: Si todas las ecuaciones en un sistema de ecuaciones lineales calculan la misma recta en un pedazo de papel milimetrado, de manera que todas las rectas se superpongan unas sobre otras, podemos llamar a tal sistema de ecuaciones como un sistema de ecuaciones lineales inconsistente e independiente. En este caso obtenemos un nmero infinito de soluciones porque todos los puntos por encima de la recta son puntos de interseccin.

3. Consistente independiente: Este es el sistema ms general de las ecuaciones lineales, donde tenemos un nmero de rectas que se interceptan en un solo punto, el cual es la nica solucin para el sistema de ecuaciones, y denominamos a tal sistema de ecuaciones consistente e independiente.

Adems de esto tambin tenemos tres categoras de posibles soluciones para un determinado sistema de ecuaciones lineales. Estas son: 1. Solucin Independiente: La solucin independiente es la solucin nica para un sistema de ecuaciones lineales. Para un sistema de ecuacin, si aplicamos una operacin de transformacin de fila generalmente obtendremos una matriz de identidad. Una caracterstica nica de este tipo solucin es que se necesita disponer de tantos nmeros de ecuaciones como variables en el sistema dado. Si este requisito no se cumple, no podemos obtener una solucin independiente.

Al resolver el sistema de ecuaciones obtenemos una solucin nica para cada una de las tres variables como x = 3, y = 1 y z = 2

2. Solucin Dependiente: La solucin dependiente es aquella por medio de la cual se obtienen numerosas soluciones para una sola variable, este es el caso de las soluciones mltiples. Para este sistema de ecuaciones, si aplicamos la operacin de transformacin de fila generalmente obtendremos pocos trminos de cero. Usualmente, es el caso donde el nmero de variables es mayor que el nmero de ecuaciones en el sistema. Muchas veces este sistema contiene una fila cero.

La solucin del sistema es x = 4 - 3t, y = 3 + 2t, z = t. 3. Solucin Inconsistente: La solucin es inconsistente, cuando no obtenemos ninguna solucin para el sistema de ecuaciones lineales.

No tenemos una solucin para el sistema de ecuaciones anterior. 3.3 Interpretacin geomtrica de las soluciones. Cada ecuacin representa un plano en el espacio tridimensional. Luego se trata de estudiar la posicin relativa de tres planos en el espacio. Las soluciones del sistema son geomtricamente los puntos de interseccin de los tres planos, los casos son:

=Un punto nico. Sistema compatible determinado.. Los tres planos se cortan en P.

=Una recta. Son soluciones todos los puntos representativos de la recta comn. Sistema compatible indeterminado con un grado de libertad. Los planos se cortan en r.

=Un plano. Los planos son coincidentes. El sistema es compatible indeterminado con dos grados de libertad.

=Ningn punto. El sistema es incompatible. Esta situacin se presenta geomtricamente de distintas maneras. Para estudiar las posiciones relativas de los planos hay que tomarlos de dos en dos.

=Se pueden presentar varios casos: Que los planos sean paralelos:

3.4 Metodos de solucion de un sistema de ecuaciones lineales: Gauss, Gauss Jordan, inversa de una matriz y regla de Cramer. Un sistema de ecuaciones lineales se compone de dos o ms ecuaciones lineales. La solucin del sistema correspondiente se obtiene cuando todas las ecuaciones lineales del sistema intersectan en un punto particular. Existe una variedad de mtodos disponibles para encontrar la solucin exacta de un sistema de ecuaciones lineales. Algunos de los mtodos aceptados popular y ampliamente incluyen a la eliminacin de Gauss, Mtodo Gauss Jordan, inverso de una matriz y la regla de Cramer.

La eliminacin de Gauss es un algoritmo especfico planeado para encontrar la solucin del sistema de ecuaciones lineales. Con la ayuda del algoritmo de Gauss puede encontrarse con facilidad la matriz de rango, el determinante de la matriz y el inverso de la matriz. La eliminacin de Gauss se divide en dos partes bsicas: Eliminacin hacia Adelante y sustitucin hacia atrs. La eliminacin hacia adelante reduce el sistema de ecuaciones lineales hacia la forma triangular o degenerando las ecuaciones correspondientes con una solucin zilch. Para ello, el algoritmo de Gauss usa las operaciones elementales de fila. Luego, con la ayuda de una solucin de sustitucin hacia atrs se crea el sistema correspondiente. Otro mtodo, la eliminacin Gauss-Jordan es un mtodo que hace uso de las operaciones elementales de fila para obtener matrices en forma de una forma escalonada reducida. Una matriz es llamada de forma escalonada si contiene 0 en cada pivote. La eliminacin de Gauss-Jordan ubica el 0 tanto abajo como encima del pivote. Y por este motivo, este tipo de matrices son conocidas como de forma escalonada reducida. En caso el que Gauss-Jordan sea empleado en una matriz de origen cuadrado, entonces se puede utilizar para encontrar el inverso de la matriz. El inverso de la matriz es otro mtodo simple y fcil de usar para encontrar la solucin del sistema de ecuaciones lineales. En este mtodo, hay algunos pasos a seguir. Estos son: Paso 1: Marque las ecuaciones en forma de multiplicacin de matriz con las variables una como matriz o y el otro como coeficiente. Paso 2: Calcula el inverso de los coeficientes de matriz correspondientes. Paso 3: Ahora, multiplique el coeficiente inverso de la matriz con ambos lados de la ecuacin formada en el paso 1. Paso 4: Cuando soluciones la multiplicacin de la matriz, puedes obtener la solucin. La Regla de Cramer es otro mtodo basado en una frmula sencilla para encontrar la solucin del sistema de ecuaciones lineales. Este mtodo se apoya en un hecho simple en el cual el valor de la variable de todos y cada uno puede determinarse tomando en cuenta el cociente de dos determinantes. Con el fin de entenderlo, vamos a ver un sistema de ecuaciones lineales con tres ecuaciones: x + 3y 2z = 5 3x + 5y + 6z = 7 2x + 4y + 3z = 8

El valor de la variable puede obtenerse por:

Es posible observar que el denominador est dado por los determinantes de los coeficientes de matriz, mientras que el numerador est elaborado a partir del determinante de esa matriz, en la cual 1 de las columnas fue intercambiada por un vector constante o en otras palabras trmino constante 3.5 Aplicaciones. =Fracciones parciales = Una tcnica muy conveniente utilizada en algunas tareas matemticas es aquella conocida como fracciones idea principal consiste en cambiar la forma que puede ser expresado un cociente entre polinomios a otra forma ms conveniente para cierto tipo de clculo.

Ejemplo 4.1 Determine los valores de las constantes a y b para que satisfagan:

SOLUCIN

Ejemplo: (Forma dudosa) Determine los valores de las constantes a y b para que satisfagan:

SOLUCIN

= Determinacin de curvas = Un problema comun en diferentes areas es la determinacion de curvas. es decir el problema de encontrar la funcin que pasa por un conjunto de puntos. Usualmente se conoce la naturaleza de la funcin, es decir, se conoce la forma que debe tener la funcin. Por ejemplo, lnea recta, parbola o exponencial etc. Lo que se hace para resolver este tipo de problemas es describir la forma ms general de la funcin mediante parmetros constantes. Y posteriormente se determinan estos parmetros haciendo pasar la funcin por los puntos conocidos.

Ejemplo: Determine la funcin cudrtica que pasa por los puntos P (1, 4), Q(1, 2), y R(2, 3).

Solucin

La forma ms general de una cuadrtica es: f (x) = a x2 + b x + c donde los coecientes a, b, y c son constantes numericas. El problema consiste en determinar estos coecientes.

As pues los parmetros a, b, y c se vuelven ahora las incgnitas. Y para poderlas determinar requerimos de ecuaciones o igualdades que deben satisfacer. Para determinar estas ecuaciones debemos usar los puntos.

Para que la funcin pase por el punto P (1, 4) se debe cumplir que f (x = 1) = 4, es decir, se debe cumplir: a (1)2 + b (1) + c = 4 es decir, se debe cumplir: a + b + c =4

Procediendo de igual manera con el punto Q(1, 2): formulamos la ecuacin: a b + c =2 y para R(2, 3): 4a + 2b + c = 3. Resumiendo para que la funcin f (x) = a x2 + b x + c pase por los puntos P , Q, y R deben cumplirse las ecuaciones: a+b+c=4 ab+c=2 4a + 2b + c = 3 La solucin a este sistema es: a = 2/3, b = 1, y c =11/3

La misma situacin presentada en el problema de las fracciones parciales que originaba un sistema inconsistente, se puede presentar en la determinacin de funciones. Y la conclusin es similar: si el sistema originado es inconsistente lo que se concluye es que no existe una funcion con esa forma general que pase exactamente por los puntos dados.

=Balanceo de Reacciones Qumicas=

Una aplicacin sencilla de los sistemas de ecuaciones se da en el balanceo de reacciones qumicas. La problemtica consiste en determinar el nmero entero de molculas que intervienen en una reaccin qumica cuidando siempre que el nmero de tomos de cada sustancia se preserve.

Ejemplo Balancee la reaccin qumica: aCH4 + bO2=cCO2 + dH2O

Solucin: Para determinar los coeficientes a, b, c, y d que representan el numero de molculas de las sustancias en la reaccin debemos igualar el numero de tomos en cada miembro: Por los tomos de carbono: a = c. Por los tomos de oxigeno: 2 b = 2 c + d. Por los tomos de hidrgeno: 4 a = 2 d

Este sistema es consistente y origina infinitas soluciones. La formula general para las soluciones queda: a = 1/2 d b=d c = 1/2 d

El valor ms pequeo de d que hace que los nmeros de molculas sean enteros positivos es d = 2: a = 1, b = 2, c = 1, y d = 2

=Aplicaciones a Manufactura= Ejemplo: Patito computers fabrica tres modelos de computadoras personales: canon, clon, y lenta-pero-segura. Para armar una computadora modelo canon necesita 12 horas de ensamblado, 2.5 para probarla, y 2 mas para instalar sus programas. Para una clon requiere 10 horas de ensamblado, 2 para probarla, y 2 para instalar programas. Y por ultimo, para una lenta-pero-segura requiere 6 para ensamblado, 1.5 para probarla, y 1.5 para instalar programas. Si la fabrica

dispone en horas por mes de 556 para ensamble, 120 para pruebas, y 103 horas para instalacin de programas, cuantas computadoras se pueden producir por mes?

Solucin En nuestro caso las incgnitas el numero de cada tipo de computadora a producir: x = numero de computadoras can y = numero de computadoras clon z = numero de computadoras lenta-pero-segura

Para determinar las ecuaciones debemos utilizar los tiempos de ensamblado, pruebas, e instalacin de programas.

Ensamblado: 556(total) = 12 x(caon) + 10 y(clon) + 6 z(lenta) Pruebas: 120(total) = 2.5 x(caon) + 2 y(clon) + 1.5 z(lenta) Instalacin de programas: 103(total) = 2 x(caon) + 2 y(clon) + 1.5 z(lenta) Al resolver este sistema obtenemos: x = 34, y = 4, z = 18

Dado lo comn de las aplicaciones hacia el rea de manufactura, existe una forma simple de construir la matriz del sistema de ecuaciones que en general se trabaja como una tabla: En la ultima columna aparecen los recursos: un rengln para cada tipo de recursos y en cuya posicin final se pone el total de recursos disponibles. En las primera columnas se colocan los objetos o modelos a ser ensamblados o construidos: en cada posicin se coloca el total de recursos que consume en forma unitaria cada tipo de objeto.

4.1 Definicin de espacio vectorial. Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto por escalar que asigna a cada par u, vV una suma u+vV y a cada par uV, kK un producto kuV. V recibe el nombre de espacio vectorial sobre K (y los elementos de V se llaman vectores) si satisfacen los siguientes axiomas.

[A1] para toda terna de vectores u, v, wV, (u+v)+w=u+(v+w). [A2] existe un vector en V, denotado por 0 y denominado el vector cero, tal que u+0=u para todo vector uV. [A3] para todo vector uV existe un nico vector en V, denotado por u, tal que u+(-u)=0. [A4] para todo par de vectores u, vV, u+v=v+u. [M1] para todo escalar kK y todo par de vectores u, vV, k(u+v)=ku+kv. [M2] para todo par de escalares a, bK y todo vector uV, (a+b)u=au+bu. [M3] para todo par de escalares a, bK y todo vector uV, (ab)u=a(bu). [M4] el escalar unidad 1K cumple 1u=u para todo vector uV.

Los axiomas precedentes se desdoblan de forma natural en dos categoras. Los cuatro primeros ataen nicamente a la estructura aditiva de V y pueden resumirse diciendo que V es un grupo conmutativo bajo la suma. De ello se deriva que cualquier suma de vectores de la forma v1+v2++vm no requieren parntesis y no depende del orden de los sumandos, que el vector cero, 0, es nico, que el opuesto u de u es nico y que se verifica la ley de cancelacin; esto es, para tres vectores cualesquiera u, v, wV.

U+w=v+w implica u=v. Asimismo, la resta se define segn u-v=u+(-v).

Por otra parte, los cuatro axiomas restantes se refieren a la <<accin>> del cuerpo K sobre V. observece que la rotulacin de los axiomas refleja este desdoblamiento. Empleando estos axiomas adicionales probaremos las siguientes propiedades elementales de un espacio vectorial.

Teorema: sea V un espacio vectorial sobre un cuerpo K. Para todo escalar kK y 0V, k0-0. Para 0K y todo vector uV, 0u=0. Si ku=0, donde kK y uV, entonces k=0 o u=0. Para todo kK y todo uV, (-k)u=-ku.

4.2 Definicin de subespacio vectorial y sus propiedades. Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones de V, suma vectorial y producto por un escalar. Un criterio simple para identificar subespacios es el siguiente.

Teorema: supongamos que W es un subconjunto de un espacio vectorial V. entonces W es un subespacio de V si y solo si se cumple: 0W W es cerrado bajo la suma de vectores, es decir: para todo par de vectores u, vW, la suma u+vW. W es cerrado bajo el producto por un escalar, esto es: para todo uW y para todo kK el mltiplo kuW.

Corolario: W es un subespacio de V si y solo si: 0W. au+bvW para todos los u, vW y a, bK.

Ejemplo: sean U y W subespacios de un espacio vectorial V. probemos que la interseccin UW es tambin subespacio de V. claramente, 0U y 0W, porque U y W son subespacios, de donde 0UW. supongamos ahora que u, vUW. entonces u, vU y u, vE y, dado que U y W son subespacios, u+v, kuU y u+v, kuW para cualquier escalar k. as u+v, kuUW y por consiguiente UW es un subespacio de V. El resultado del ejemplo precedente se generaliza como sigue.

Teorema: la interseccin de cualquier nmero de subespacios de un espacio vectorial V es un subespacio de V.

Recurdese que toda solucin de un sistema de ecuaciones lineales con n incgnitas AX=B puede verse como un punto en Kn y por tanto el conjunto solucin de tal sistema es un subconjunto de Kn. Supongamos que el sistema homogneo, es decir, supongamos que el sistema tiene la forma AX=0. Denotemos por W su conjunto solucin. Como A0=0, el vector cero 0W adems, si u y v pertenecen a W, esto es, si u y v son soluciones de AX=0, necesariamente Au=0 y Av=0. Por esta razn, para todo par de escalares a y b en K, tendremos A(au+bv)=aAu+bAv=a0+b0=0+0=0. De esta manera, au + bv es tambin una solucin de AX=0 o, dicho de otro modo, au+bvW. En consecuencia, segn el corolario, hemos demostrado:

Teorema: el conjunto solucin W de un sistema homogneo con n incgnitas AX=0 es un subespacio de kn.

Hacemos nfasis en que el conjunto solucin de un sistema inhomogneo AX=B no es subespacio de Kn. De hecho, el vector cero, 0, no pertenece a dicho conjunto solucin.

4.3 Combinacin lineal. Independencia lineal. COMBINACIN LINEAL Sean v1, v2, , vn, vectores en un espacio vectorial V. entonces cualquier vector de la forma: a1v1+a2v2++anvn, donde a1,a2,,an son escalares se denomina una combinacin lineal de v1, v2,,vn. Una combinacin lineal en M23

Conjunto generador. Se dice que los vectores v1, v2, , vn de un espacio vectorial V generan a V si todo vector en V se puede escribir como una combinacin lineal de los mismo. Es decir, para todo vV, existen escalares a1, a2, , an tales que v=a1v1+a2v2++anvn Cuatro vectores que generan a M22

Espacio generado por un conjunto de vectores. Sean v, v2, , vk, k vectores de un espacio vectorial V. el espacio generado por {v1, v2, , vk} es el conjunto de combinaciones lineales v1, v2, , vk. Es decir donde a1, a2, , ak, son escalares arbitrarios.

Teorema: si v1, v2, , vk son vectores en un espacio vectorial V, entonces gen{v1, v2, , vk} es un subespacio de V. Ejemplo: el espacio generado por dos vectores en R3 Sea v1=(2,-1,4) y v2=(4,1,6). Entonces H=gen{v1, v2}={v:v=a1(2,-1,4)+a2(4,1,6)}. Cul es la apariencia de H? si v=(x, y,z)H, entonces tiene x=2a1+4a 2, y=-a1+a2 y z=4a 1+6 2. Si se piensa que (x, y, z) esta fijo, entonces estas ecuaciones se pueden ver como un sistema de tres ecuaciones con tres incognitas a1, a2. Este sistema se resuelve en la forma usual:

INDEPENDENCIA LINEAL En el estudio del algebra lineal, una de las ideas centrales es la de dependencia o independencia lineal de los vectores. En esta seccin se define el significado de independencia lineal y se muestra su relacin con la teora de sistemas homogneos de ecuaciones y determinantes.

Existe una relacin espacial entre los vectores , se puede apreciar que v2=2v1; o si se escribe esta ecuacin de otra manera. 2v1v2=0. En otras palabras, el vector cero se puede escribir como una combinacin no trivial de v1 y v2 (es decir, donde los coeficientes en la combinacin lineal no son ambos cero). Qu tienen de especial los

vectores ? La respuesta a esta pregunta es ms difcil a simple vista. Sin embargo, es sencillo verificar que v3=3v1+2v2; rescribiendo esto se obtiene .

Se ha escrito el vector cero como una combinacin lineal de v1, v2, y v3. Parece que los dos vectores de la ecuacin y los tres vectores de la otra ecuacin tienen una relacin ms cercana que un par arbitrario de 2-vectores a una terna arbitraria de 3-vectores. En cada caso, se dice que los vectores son linealmente dependientes. En trminos generales, se tiene la importante definicin a continuacin presentada. Definicin: sean v1, v2, , vn vectores en un espacio vectorial V. entonces se dice que lois vectores son linealmente dependientes si existen n escalares c1, c2, , cn no todos ceros tales que .

Si los vectores no son linealmente dependientes, se dice que son linealmente independientes. Para decirlo de otra forma, v1, v2, .., vn son linealmente independientes si la ecuacin c1v1+c2v2++cnvn=0 se cumple nicamente para c1=c2==cn=0. Son linealmente dependientes si el vector cero en V se puede expresar como una combinacin lienal de v1, v2,,vn con coeficientes no todos iguales a cero. Nota. Se dice que los vectores v1, v2, , vn son linealmente independientes (o dependientes), o que el conjunto de vectores {v1, v2, , vn} es linealmente independiente (o pendiente). Esto es, se usan las dos frases indistintivamente. Teorema:dependencia e independencia lineal Dos vectores en un espacio vectorial son linealmente dependientes si y solo si uno de ellos es un mltiplo escalar del otro. Demostracin: primero suponga que v2=cv1 para elgun escalar c0. Entonces cv1-v2=0 y v1 y v2 son linealmente dependientes. Por otro parte, suponga que v1 y v2 son linealmente dependientes. Entonces existen constantes c1 y c2 al menos

uno distinto a cero, tales que c1v1+c2v2=0. Si c10, entonces dividiendo entre c1

se obtiene v1+(c2/c1)v2=0, o sea, Es decir, v1 es un mltiplo escalar de v2. Si c1=0, entonces c20 y, por lo tanto, v2=0=0v1. 4.4 Bases y dimensin de un espacio vectorial, cambio de base La base de un espacio vectorial es un subconjunto de un espacio vectorial que se extiende sobre un espacio vectorial determinado y es linealmente independiente en el mismo. Esto es, si tenemos un espacio vectorial V y tenemos S como un subconjunto de este espacio vectorial, el cual consiste de n vectores de la forma v1, v2, v3 vn entonces podemos definir que este subconjunto es la base del espacio vectorial dado, si cumple las dos condiciones siguientes: 1. Este subconjunto se extiende a travs del espacio vectorial dado. 2. S es subconjunto de V conteniendo los vectores de V, los cuales son linealmente independientes. Con la ayuda de una ecuacin lineal podemos representar tal conjunto como,

Aqu v es un vector que yace en el espacio vectorial dado y los vectores n representados como v-1, v2, v3 vn forman parte de la base del espacio vectorial dado. Existen numerosos ejemplos de la base de un espacio vectorial. Imagina tres dimensiones las cuales constan de dos vectores. Imagina que estos vectores no son planos. El plano definido con la ayuda de estos dos vectores slo formar una base para los espacios tridimensionales actuales. Esto es porque si definimos una combinacin lineal con la ayuda de estos dos vectores, entonces este se encontrara definitivamente dentro el plano mismo e inversamente tambin es posible expresar un vector dentro del plano como una combinacin lineal de ambos. Ahora extendamos esta definicin para formar la base de la definicin de la dimensin del espacio vectorial. Imaginemos que tenemos un espacio vectorial V y sea S la base de este espacio vectorial. Ahora coloquemos un nmero limitado de vectores en la base de espacio vectorial S, entonces definiramos este espacio vectorial dado como un espacio vectorial de dimensin finita y la dimensin real se

obtendra mediante calcular el nmero total de vectores en la base de ese espacio vectorial. En caso de que tengamos un nmero infinito de vectores en la base del espacio vectorial dado, entonces llamaremos al espacio vectorial un espacio vectorial de dimensin infinita, y la dimensin de tal espacio vectorial es y la dimensin de un espacio vectorial nulo es el valor 0. Puede haber ms de una base para un espacio vectorial dado. Esto significara que es posible definir los vectores dentro de un espacio vectorial dado como la sumatoria de los vectores de ambas bases. Sea V un espacio vectorial y S la base de este espacio vectorial. Ahora definamos todos los vectores v V en trminos de los elementos finitos de esta base. Definamos ahora otra base para este espacio vectorial. Ahora bien, si intentamos redefinir los elementos del espacio vectorial como una sumatoria de los elementos del segundo vector, llamamos a este proceso cambio de base. Este proceso puede ser considerado como una funcin identidad sobre los elementos del espacio vectorial 4.5 Espacio vectorial con producto interno y sus propiedades. Un espacio vectorial complejo V se denomina espacio con producto interno si para cada par ordenado de vectores u y v en V, existe un numero complejo nico (u,v), denominado producto interno de u y v, tal que si u, v y w estn en V y C, entonces

La barra es las condiciones v) y vii) denota el conjugado complejo. Nota. Si (u,v) es real, entonces (u,v)=(u,v) y se puede eliminar la barra en v).

EJEMPLO: producto interno de dos vectores en C3 En C3 sean x=(1+i, -3, 4-3i) y y=(2-i, -i, 2+i). entonces

Sea V un espacio con producto interno y suponga que u y v estn en V. entonces

Nota 1. Aqu se usa la doble barra en lugar de una sola para evitar confusin con el valor absoluto. Por ejemplo sen t denota la norma de sen t como un vector en C[0, 2] mientras que |sen t| denota el valor absoluto de la funcin sen t. Nota 2. La ecuacin anterior tiene sentido ya que (u, u)0.

EJEMPLO: dos vectores ortogonales en C2 En C2 los vectores (3,-i) y (2,6i) son ortogonales porque

Conjunto ortonormal El conjunto de vectores y Si solo el primero se cumple, se dice que el conjunto es ortonormal. es un conjunto ortonormal en V si

TEOREMA: cualquier conjunto finito de vectores ortonormales diferentes de cero en un espacio con producto interno es linealmente independiente.

TEOREMA: cualquier conjunto finito linealmente independiente en un espacio con producto interno se puede convertir en un conjunto ortonormal mediante el proceso de Gram-Schmidt. En particular, cualquier espacio con producto interno tiene una base ortonormal.

Proyeccin ortogonal Sea H un subespacio del espacio con producto interno V con base ortonormal

Si vV, entonces la proyeccin ortonormal de v sobre H denotada por proyHv esta dada por (6)

Las demostraciones de los siguientes teoremas son idnticas a sus contrapartes en Rn. TEOREMA: sea H un subespacio de dimensin finita con producto interno V. suponga que H tiene dos bases ortonormales

Sea vV. entonces

Complemento ortogonal

Sea H un subespacio del espacio con producto interno V. entonces el complemento ortogonal de H, denotado por H, esta dado por (7)

TEOREMA: si H es un subespacio del espacio con producto interno V, entonces

TEOREMA DE PROYECCIN: sea H un subespacio de dimensin finita del espacio con producto interno V y suponga que vV. entonces existe un par nico de vectores h y p tales que hH, pH, y (8) v=h+p donde h=proyHv.

Si V tiene dimensin finita, entonces p=proyHv.

TEOREMA: sea A una matriz de nxn; entonces A tiene vectores propios linealmente independientes si y solo si multiplicidad geomtrica de cada valor propio es igual a su multiplicidades algebraica. En particular, A tiene n vectores propios linealmente independientes si todos los valores propios son distintos (ya que entonces la multiplicidad algebraica de cada valor propio es 1). 4.6 Base ortonormal, Proceso de ortonormalizacin de Gram Schmidt La base es el subconjunto de algn espacio vectorial, tal que este es linealmente independiente y se extiende sobre todos los elementos de ese espacio vectorial. La base ortonormal es un tipo especial de base, la cual es un subconjunto de un tipo especial de espacio vectorial el cual es el producto escalar del espacio vectorial. Antes de ahondar en el tema, primero aclararemos nuestro concepto sobre un conjunto ortonormal. Sea un V producto escalar de un espacio vectorial, si cada vector par discreto dentro de ese espacio vectorial es ortogonal, entonces podemos definir el espacio vectorial como un conjunto ortogonal. Adems, ampliando esta definicin, en un conjunto ortogonal si tenemos cada vector con una norma igual a uno, entonces este es definido como conjunto ortonormal. Sea V producto escalar de un espacio vectorial, y tenemos a S como base de ese espacio vectorial dado, entonces, si S

es un conjunto ortogonal, entonces lo llamamos una base ortogonal y si S es un conjunto ortonormal entonces lo denominamos una base ortonormal. Formalmente hablando, una base S del producto escalar de un espacio vectorial V que contiene vectores de la forma v1, v2, v3 vn se define como una base ortonormal si satisface la condicin <vi . vj> = 0 donde i no debe ser igual a j. Aqu . es el producto escalar del espacio vectorial dado. Sin embargo no es indispensable que una base ya determinada est en forma ortogonal. Podemos, si es necesario, transformar la base a la forma ortonormal. El procedimiento para hacerlo se llama proceso de ortonormalizacin de Gram Schmidt. La entrada del procedimiento es generalmente una base finita y la salida es una base ortonormal definida en algn perodo arbitrario. El teorema establece Para un conjunto k de elementos, el cual es lineal e independiente, es posible construir un conjunto ortonormal, y el conjunto resultante es la agrupacin lineal del conjunto de entrada y se extiende sobre el mismo espacio vectorial. Es esencial que la base est ordenada para que sea una base ortonormal. Sea V un producto escalar de un espacio vectorial, y si tenemos a S como la base del espacio vectorial dado que contiene los elementos de la forma v1, v2, v3 vn . Ahora, que tenemos otra base S, que contiene los elementos de la forma w1, w2, w3 wn. Aqu v1 = w1, entonces,

Tambin podemos afirmar lo definido de una manera inversa diciendo que si S es un subconjunto ortonormal de V que consiste en vectores no cero, entonces podemos decir que S es linealmente independiente. Si tenemos S como base ortonormal para cualquier producto escalar de un espacio vectorial, entonces por cada elemento en el espacio vectorial dado tenemos,

Aqu x es un vector en el espacio vectorial dado y los coeficientes [x, vi] son llamados coeficientes de Fourier. Un punto digno de mencin es que todos los productos de los espacios vectoriales que tienen tamao finito, tienen esencialmente una base ortonormal

5.1 Introduccin a las transformaciones lineales.

El presente capitulo aborda una clase especial de funciones denominadas transformaciones lineales que ocurren con mucha frecuencia en el algebra lineal y otras ramas de las matematicas. Estas tienen una gran variedad de aplicaciones importantes. Antes de definirlas, se estudiaran dos ejemplos sencillos para ver lo que es posible realizar.

Ejemplo 1: reflexin respecto al eje x En R2 se define una funcin T mediante la formula T(x;y)=(x;-y). Geomtricamente, T toma un vector en R2 y lo refleja respecto al eje x. esto se ilustra en la figura. Una vez que se ha dado la definicin bsica, se vera que T es una transformacin lineal de R2 en R2.

Ejemplo 2: transformacin de un vector de produccin en un vector de materia prima. Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2, P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero de unidades de cada materia prima que se requieren para fabricar 1 unidad de cada producto.

Ejemplo 2: transformacin de un vector de produccin en un vector de materia prima. Un fabricante elabora cuatro tipos de productos distintos, de los cuales cada uno requiere tres tipos de materiales. Se identifican los cuatro productos como P1, P2, P3, y P4 y a los materiales por R1, R2 y R3. La tabla siguiente muestra el numero de unidades de cada materia prima que se requieren para fabricar 1 unidad de cada producto.

Surge una pregunta natural: si se produce cierto nmero de los cuatro productos, Cuntas unidades de cada material se necesitan? Seanp1, p2, p3 y p4 el nmero de artculos fabricados en los cuatro productos y sean r1, r2, y r3 el nmero de unidades necesarios de los tres materiales. Entonces se define

Por ejemplo, suponga que P=(10,30,20,50). Cuntas unidades de R1 se necesitan para producir estos nmeros de unidades de los cuatro productos? De la tabla se tiene que r=p1*2+p2*1+p3*3+p4*4=10*2+30*1+20*3+50*4=310 unidades de manera similar r2=10*4+30*2+20*2+50*1=190 unidades y r3=10*3+30*3+20*1+50*2=240 unidades en general se ve que

o Ap= r. Esto se puede ver de otra manera. Si a p se le conoce como le vector de produccin y a r como el vector de materia prima, se define la funcin T por = T(p) = Ap. Esto es, T es la funcin que transforma el vector de produccin en el vector de materia prima y se hace mediante la multiplicacin de matrices ordinaria. Como se ver , esta funcin es tambin una transformacin lineal. Antes de definir una transformacin lineal, hablaremos un poco sobre las funciones. En la seccin 1.7 se escribi un sistema de ecuaciones como Ax=b Donde A es una matriz de m*n, x R y b R. Se pidi encontrar x cuando A y b se conocan . No obstante, esta ecuacin se puede ver de otra forma: suponga que A se conoce. Entonces la ecuacin Ax=b dice : proporcione una x en R y yo le dar una b en R; es decir , A representa una funcin con dominio R e imagen en R. La funcin que se acaba de definir tiene las propiedades de que A ( si es un escalar y A(x + y) = Ax + Ay. Esta propiedad caracteriza las transformaciones lineales.

Definicin 1 transformacin lineal Sean V y W espacios vectoriales reales. Una transformacin lineal T de V en W es una funcin que asigna a cada vector v V un vector nico Tv W y que satisface, para cada u y v en V y cada escalar . T(u + v) = Tu + Tv Y

T(av)=aTv

TRES OBSERVACIONES SOBRE NOTACIN 1. Se escribe T: v W para indicar que T toma el espacio vectorial real V y lo lleva al espacio vectorial real W; esto es, T es una funcin con V como su dominio y un subconjunto de W como su imagen. 2. Se escriben indistintamente Tv y T(v). Denotan lo mismo; las dos se leen T de v. Esto es anlogo a la notacin funcional (x), que se lee de x. 3. Gran parte de las definiciones y teoremas en este captulo tambin se cumplen para los espacios vectoriales complejos (espacios vectoriales en donde los escalares son nmeros complejos).

Ejemplo 5 La transformacin identidad

Sea V un espacio vectorial y definida I: V V por Iv = v para todo v en V. Aqu es obvio que es I es una transformacin lineal, la cual se denomina transformacin identidad u operador identidad.

Ejemplo 6

Transformacin de reflexin

Sea T:R2 R2 definida por T(x;y)=(x;-y). Es fcil verificar que T es lineal. En trminos geomtricos, T toma un vector en R2 y lo refleja respecto al eje y (vea la figura 5.2)

Ejemplo 7 Transformaciones de Rn Rm dada por la multiplicacin por una matriz de m*n. Sea A una matriz de m*n y definida T:R R por Tx = Ax. Como A(x + y) = Ax + Ay y A( si x y y estn en R, se observa que T es una transformacin lineal. Entonces: toda matriz A de m*n se puede utilizar para definir una transformacin lineal de R en R. 5.2 Ncleo e imagen de una transformacin lineal.

En esta seccin se desarrollan algunas propiedades bsicas de las transformaciones lineales. Teorema 1. Sea T: V W una transformacin lineal. Entonces para todos los vectores u, v, v1, v2,.vn en V y todos los escalares

Nota en la parte i el 0 de la izquierda es el vector cero en v; mientras que el cero de la derecha es el vector cero en W. i. T(0) = T(0 + 0)= T(0) + T(0). As 0= T(0) T(0) = T(0) + t(0) T(0) = T(0) ii.T(u-v) = T[u + (-1)v] = Tu + T[(-1)v] = Tu + (-1)Tv = Tu Tv. iii.Esta parte se prueba por induccin (vea el apndice 1). Para n = 2 se tiene T(1v1 + 2v2) = T (1v1) + T(2v2) = 1Tv1 + 2Tv2. As, la ecuacin (1) se cumple para n = 2. Se supone que se cumple para n = k y se prueba para n=k + 1: T(1v1 + 2v2+ .+ kvk+k+1vk-1 ) = T(1v1 + 2v2+.+kvk) + T(k+1vk+1), y usando la ecuacin en la parte iii para n= k, esto es igual a (1Tv1 + 2Tv2+.kTvk) + k+1Tvk+1, que es lo que se quera demostrar. Esto completa la prueba.

Observacin. Los incisos i) y ii) del teorema 1 son casos especiales del inciso iii). Un dato importante sobre las transformaciones lineales es que estn completamente determinadas por el efecto sobre los vectores de la base.

Teorema 2 Sea v un espacio vectorial de dimensin finita con base B= {v1,v2,.vn}. Sean w1,w2,.wn vectores en W. Suponga que T1 y T2 son dos transformaciones lineales de V en W tales que T1vi = T2vi = wi para i = 1, 2,,n. Entonces para cualquier vector v v, T 1v = T2v; es decir T1 = T2. Como B es una base para V, existe un conjunto nico de escalares 1, 2,., n. Tales que v = 1v1 + 2v2 + + n vn.

Entonces, del inciso iii) del teorema 1, T1v = T1(1 v1 + 2v2 + + nvn) = 1T2v1 + 2T2v2 + + nTnvn= 1w1 + 2w2 ++ nTnvn

De manera similar T2v = T2(1v1 + 2v2 + + nvn) = 1T2v1 + 2T2v2 ++ nTnvn 2w2 ++ nvn

= 1w1 +

Por lo tanto, T1v =T2v.

El teorema 2 indica que si T:v W y V tiene dimensin finita, entonces slo es necesario conocer el efecto que tiene T sobre los vectores de la base en V. Esto es, si se conoce la imagen de cada vector bsico, se puede determinar la imagen de cualquier vector en V. Esto determina T por completo. Para ver esto, sean v1, v2,.vn una base en V y sea v otro vector en V. Entonces, igual que en l aprueba del teorema 2, Tv = 1Tv1 + 2Tv2 ++ nTvn

As, se puede calcular Tv para cualquier vector v V si se conocen Tv1,Tv2,.Tvn

Ejemplo 1 Si se conoce el efecto de una transformacin lineal sobre los vectores de la base, se conoce el efecto sobre cualquier otro vector.

Sea T una transformacin lineal de R3 en R2 y suponga que

Solucin. Se tiene

Entonces

Surge otra pregunta; si w1,w2,.,wn son n vectores en W, existe una transformacin lineal T tal que Tv1 = w1 para i = 1,2,,n? La respuesta es s. Como lo muestra el siguiente teorema.

Definicin 1 Ncleo e imagen de una transformacin lineal Sean V y W dos espacios vectoriales y sea T:V W una transformacin lineal. Entonces

i . El ncleo de T, denotado por un, est dado por

ii. La imagen de T, denotado por Im T, esta dado por

Observacion 1. Observe que un T es no vacio porque, de acuerdo al teorema 1, T(0) = 0 de manera que 0 un T para cualquier transformacin lineal T. Se tiene inters en encontrar otros vectores en V que se transformen en 0. De nuevo, observe que cuando escribimos T(0) = 0, el 0 de la izquierda est en V y el de la derecha en W.

Observacin 2. La imagen de T es simplemente el conjunto de imajenes de los vectores en V bajo la transformacin T. De hecho, si w = Tv, se dice que w es la imagen de v bajo T.

Antes de dar ejemplos de ncleos e imgenes , se demostrar un teorema de gran utilidad.

Teorema 4 Si T:V W es una transformacin lineal, entonces i.Un T es un subespacio de V. ii.Im T es un subespacio de W.

Demostracion i.Sean u y v en un T; Entonces T(u + v) = Tu + Tv =0 + 0 =0 y T( ) = = 0 = 0 de forma que u + v y u estn en un T. ii. Sean w y x en Im T. Entonces w = Tu y x = Tv para dos vestores u y v en V. Esto significa que T(u + v)= Tu + Tv = w + x y T(u) = Tu =w. Por lo tanto, w + x y w estn en Im T.

Ejemplo 3. Ncleo e imagen de la transformacin cero Sea Tv = 0 para todo v V(T es la transformacin cero). Entonces un T = v e Im T = {0}.

Ejemplo 4 Ncleo e imagen de la transformacin identidad Sea Tv = v para v V(T es la transformacin identidad). Entonces un T= {0} e Im T = V.

Las transformaciones cero e identidad proporcionan dos extremos. En la primera todo se encuentra en el ncleo. En la segunda slo el vector cero se encuentra en el ncleo. Los casos intermedios son ms interesantes.

Ejemplo 5 Ncleo e imagen de un operador de proyeccin

Sea T:R3 R3 definida por T es el operador de proyeccin de R3 en el plano xy.

Entonces x = y = 0. As, nu T = {(x,y,z):x = y = 0, zR}, es decir, el eje z, e Im T = {(x,y,z): z = 0}, es decir el plano xy. Observe que dim un T = 1 y dim Im T = 2.

Definicin 2

Nulidad y rango de una transformacin lineal

Si T es una transformacin lineal de v en w, entonces se define.

Observacin. En la seccin 4.7 se definieron el rango, la imagen, el espacio nulo y la nulidad de una matriz. Segn el ejemplo 5.1.7, Toda matriz A de m*n da lugar a una transformacin lineal T:R R definida por Tx = Ax. Es evidente que un T = NA, Im T = Im A = CA, v(T) = v(A) y p(T) = p(A). Entonces se ve que las definiciones de ncleo, imagen, nulidad y rango de una transformacin lineal son extensiones del espacio nulo, la imagen, la nulidad y el rango de una matriz.

Ejemplo 6. Ncleo y nulidad de un operador de proyeccin

Sea H un subespacio de R y sea Tv = proyH v. Es obvio que la Im T = H. Se tiene que toda v V si v=h + proyH v + proyHv. Si Tv = 0, entonces h=0, lo que significa498

5.3 La matriz de una transformacin lineal Desde el punto de vista algebraico lineal, las transformaciones ms importantes son las aquellas que conservan las combinaciones lineales. Estas son llamadas transformaciones lineales o aplicaciones lineales. Una transformacin lineal es una parte esencial en el lgebra lineal. La idea principal detrs de la Matriz de una transformacin lineal es la definicin de la matriz de T con respecto a las bases arbitrarias del dominio de V y el codominio de W. En este caso, V y W son espacios vectoriales de dimensin finita sobre F, y T: V W es una transformacin lineal. Sea V y W espacios vectoriales de finita dimensin sobre F, e imagina que T: V! W es lineal. Fija una base B = {v1, v2. . . vn} de V y una base de B0 = {w1, w2. . . wm} de W. Ahora definimos la matriz MBB (T) de T con respecto a estas bases. Puesto que B0 es una base de W, cada T (vj) puede escribirse nicamente como T(v j) = Por lo tanto la matriz de T, en definitiva, con respecto a las bases B y B0 se define como la matriz MBB (T) = (cij ) m n . Lo qu dice esta definicin es que la columna jth de la matriz MBB(T) es el vector columna formado por los coeficientes de T(vj) con respecto a la base B0? Uno puede expresar el trmino anterior en forma matricial mediante (T(v1) T(v2) T(v n)) = (w1 w2 wm)MBB (T). Es importante tener en cuenta que si V = Fn, W = Fm y T = TA, donde A Fmn, entonces MBB(T) = A si B y B0 son las bases estndares. De TA (ej) es siempre la columna jth de A.

Ahora, sea V el espacio de polinomios reales de al menos tres grados, y W el espacio de polinomios reales de a lo sumo dos grados. Entonces, la diferenciacin es una transformacin lineal D: V W. Ahora D (ax3 + bx2 + cx + d) = 3ax2 + 2bx + c. Sea B la base {1, x, x2, x3} de V y B0 la base {1, x, x2} de W. Ahora, D (1) = 0, D(x) = 1, D(x2) = 2x, D(x3) = 32. As MBB(D) = Ahora bien, supongamos que T: V V es una transformacin lineal diagonalizable (o semi-simple). Recordemos que esto significa que existe una base B = {v1, v2. . . vn} de V tal que (vi) = vi para cada ndice i entre 1 y n. Por lo tanto, B es una base propia de V para T. En este caso, MBB (T) es la matriz diagonal . Pero, Qu es la matriz de T con respecto a alguna otra base B0 de V? El primer paso para responder a esta pregunta es encontrar cmo relacionar las expansiones de un vector dado de V con respecto a dos bases distintas. Esto por s solo constituye un concepto diferente y ms amplio que necesita de un conocimiento muy superior y ms profundo de las matemticas . 5.4 Aplicacin de las transformaciones lineales: reflexin, expansin, contraccin y rotacin Graficar un conjunto de puntos en otro es lo que se conoce como transformacin lineal de un conjunto de puntos. Existen ciertas propiedades bsicas de las transformaciones lineales, las cuales si son tomadas en cuenta y aplicadas al momento de resolver un problema, pueden reducirlo un problema simple. La notacin general utilizada para una transformacin lineal es T: Rn Rm. 1. Reflexin: Cuando un conjunto de puntos dados es graficado desde el espacio euclidiano de entrada a otro de manera tal que este es isomtrico al espacio euclidiano de entrada, llamamos a la operacin realizada la reflexin del conjunto de puntos dado. Esto puede realizarse tambin con respecto a la matriz, en tal situacin la matriz de salida es llamada la matriz de reflexin. La reflexin es realizada siempre con respecto a uno de los ejes, sea el eje x o el eje y. Esto es como producir la imagen espejo de la matriz actual.

2. Expansin: Al igual que en la reflexin, tambin es posible expandir los puntos dados en una direccin particular. La expansin se realiza habitualmente para un cierto grado. Es como realizar una operacin de multiplicacin de los elementos del conjunto de puntos dados con un trmino escalar hacia la direccin donde tiene que ser expandido. Sea para un punto (2, 3) si el grado de expansin 2 es la direccin de y, entonces el nuevo punto obtenido es (2, 6). 3. Contraccin: La contraccin es el procedimiento inverso de la expansin. Aqu el punto es contrado en un determinado grado hacia una direccin dada. Sea el punto de entrada (4, 8) y este debe ser contrado para el grado dos en la direccin de x entonces el nuevo punto resulta ser (2, 8). 4. Rotacin: El trmino rotacin tiene dos significados, ya la rotacin de un objeto puede ser realizada con respecto al eje dado o al eje mismo. La rotacin se realiza para un cierto grado el cual es expresado en forma de un ngulo. Asimismo, la rotacin puede realizarse en la direccin de las manecillas del reloj, o inverso a las manecillas del reloj. Como ejemplo, dirijmonos a producir la matriz estndar para la representacin de la transformacin lineal reflejando un conjunto de puntos en el plano x-y a travs de la recta y = (2x / 3). El primer paso para esto es determinar los vectores base.

Por lo tanto, podemos afirmar que,

Dado que y pertenece a R2. Imagina que A: R2 R2 es una transformacin lineal, entonces podemos escribir que,

La imagen de la matriz base determina la imagen de cualquier elemento. Por lo tanto la imagen de a travs de y = (2x/ 3) es determinada mediante la obtencin de una recta que pasa por (1, 0) y es que es ortogonal a . Esto est dado por y = (3x/ 2) (3/ 2). El punto donde las dos rectas, esto es, y = (3x/ 2) (3/ 2) e y = (2x/ 3) se intersectan se dado como (9/13, 6/13). Tomamos p1 para ser el punto de reflexin de a travs de la recta dada. Este punto es simtrico respecto a (9/13, 6/13) por lo tanto, podemos escribir que,

Esto produce, De manera similar, la imagen del vector base resulta ser

Y tenemos la matriz de transformacin lineal final como,

También podría gustarte