Está en la página 1de 10

Determinante En matemticas se define el determinante como una forma multilineal alternada de un cuerpo.

Esta definicin indica una serie de propiedades matemticas y generaliza el concepto de determinante hacindolo aplicable en numerosos campos. Sin embargo, el concepto de determinante o de volumen orientado fue introducido para estudiar el nmero de soluciones de los sistemas de ecuaciones lineales. Propiedades de los determinantes 1.|At|= |A| 2. |A|=0 Si: Posee dos lneas iguales Todos los elementos de una lnea son nulos. Los elementos de una lnea son combinacin lineal de las otras. 3. Un determinante triangular es igual al producto de los elementos de la diagonal principal.. 4. Si en un determinante se cambian entre s dos lneas paralelas su determinante cambia de signo. 5. Si a los elementos de una lnea se le suman los elementos de otra paralela multiplicados previamente por un n real el valor del determinante no vara. 6. Si se multiplica un determinante por un nmero real, queda multiplicado por dicho nmero cualquier lnea, pero slo una. 7. Si todos los elementos de una fila o columna estn formados por dos sumandos, dicho determinante se descompone en la suma de dos determinantes. 8. |AB| =|A||B| Historia de los determinantes Los determinantes fueron introducidos en Occidente a partir del siglo XVI, esto es, antes que las matrices, que no aparecieron hasta el siglo XIX. Conviene recordar que los chinos (Hui, Liu. iuzhang Suanshu o Los nueve captulos del arte matemtico.) fueron los primeros en utilizar la tabla de ceros y en aplicar un algoritmo que, desde el Siglo XIX, se conoce con el nombre de Eliminacin de Gauss-Jordan. La historia de los determinantes

Los determinantes hicieron su aparicin en las matemticas ms de un siglo antes que las matrices. El trmino matriz fue creado por James Joseph Sylvester, tratando de dar a entender que era la madre de los determinantes. Algunos de los ms grandes matemticos de los siglos XVIII y XIX contribuyeron al desarrollo de las propiedades de los determinantes. La mayora de los historiadores coinciden en afirmar que la teora de los determinantes se origin con el matemtico alemn Goofried Wilhelm Leibniz (16461716) quien fue con Newton, el co inventor del clculo diferencial e integral. Leibniz emple los determinantes en 1693 con relacin a los sistemas de ecuaciones lineales simultneas. No obstante hay quienes creen que el matemtico japons Seki Kowa hizo lo mismo unos 10 aos antes. Las contribuciones ms prolficas a la teora de los determinantes fueron las del matemtico francs Agustin-Louis Cauchy (1789-1857). Cauchy escribi, en 1812 una memoria de 84 pginas que contena la primera demostracin del teorema detAB=detA detB. En 1840 Cauchy hizo muchas otras contribuciones a las matemticas. En su texto de clculo de 1829 Lecons sur le calcul diffrential, dio la primera definicin razonablemente clara de lmite. Cauchy escribi ampliamente tanto en las matemticas puras como en las aplicadas. Solo Euler escribi ms. Cauchy hizo contribuciones en varias reas, incluyendo la teora de las funciones reales y complejas, la teora de la probabilidad, geometra, teora de propagacin de las ondas y las series infinitas. A Cauchy se le reconoce el haber establecido nuevos niveles de rigor en las publicaciones matemticas. Despus de Cauchy, fue mucho ms difcil publicar escritos basndose en la intuicin; se exigi una estricta adhesin a las demostraciones rigurosas. El volumen de las publicaciones de Cauchy fue abrumador . Cuando la Academis Francesa de Ciencias comenz a publicar su revista Comptes Rendus en 1835, Cauchy envi su obra para que se publicara, en poco tiempo los gastos de impresin se hicieron tan grandes, solo por la obra de Cauchy, que la academia impuso un lmite de cuatro cuartillas por cada documento a ser publicado. Hay algunos otros matemticos que merecen ser mencionados aqu. El desarrollo de un determinante por cofactores fue empleado por primera vez por el matemtico francs Pierre de Laplace (1749-1827). Laplace es mejor conocido por la transformacin que lleva su nombre que se estudia en los cursos de matemticas aplicadas. Un contribuyente principal de la teora de los determinantes (estando solo Cauchy antes que l) fue el matemtico alemn Carl Gustav Jacobi (1804-1851). Fue con l con quien la palabra determinante gan la aceptacin definitiva. Lo primero en lo que Jacobi emple los determinantes fue en las funciones, al establecer la teora de las funciones de varias variables. Sylvester llam ms tarde jacobiano a ste determinante. Determinantes 1, 2,3

A cada matriz cuadrada A se le asigna un escalar particular denominado determinante de A , denotado por |A| o por det (A). Determinante de orden uno |a 11| = a 11 Determinante de orden dos = a 11 a 22 - a 12 a 21 Determinante de orden tres = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 - a 13 a22 a31 - a12 a21 a 33 - a11 a23 a32. Regla de Cramer La regla de Cramer es un teorema en lgebra lineal, que da la solucin de un sistema lineal de ecuaciones en trminos de determinantes. Recibe este nombre en honor a Gabriel Cramer (1704 - 1752), quien public la regla en su Introduction l'analyse des lignes courbes algbriques de 1750, aunque Colin Maclaurin tambin public el mtodo en su Treatise of Geometry de 1748 (y probablemente saba del mtodo desde 1729).[1] La regla de Cramer es de importancia terica porque da una expresin explcita para la solucin del sistema. Sin embargo, para sistemas de ecuaciones lineales de ms de tres ecuaciones su aplicacin para la resolucin del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prcticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es ms eficiente que la eliminacin gaussiana para matrices pequeas, particularmente cuando son usadas operaciones SIMD. Si es un sistema de ecuaciones. A es la matriz de coeficientes del sistema, es el vector columna de las incgnitas y es el vector columna de los trminos independientes. Entonces la solucin al sistema se presenta as: donde Aj es la matriz resultante de reemplazar la j-sima columna de A por el vector columna b. Hgase notar que para que el sistema sea compatible determinado, el determinante de la matriz A ha de ser no nulo. resolusion de sistema lineal 3x3 Consideremos una matriz 3 x 3 arbitraria A = (aij). El determinante de A se define como sigue: =

a11 a22 a33 + a12 a23 a 31 + a13 a21 a32 - a 13 a22 a31 - a12 a21 a 33 - a11 a23 a32. = 3 2 4 + 2 (-5) (-2) + 1 0 1 - 1 2 (-2) - 2 0 4 - 3 (-5) 1 = = 24 + 20 + 0 - (-4) - 0 - (-15) = = 44 + 4 + 15 = 63 Obsrvese que hay seis productos, cada uno de ellos formado por tres elementos de la matriz. Tres de los productos aparecen con signo positivo (conservan su signo) y tres con signo negativo (cambian su signo). Matriz (matemtica) En matemticas, una matriz es una tabla bidimensional de nmeros consistente en cantidades abstractas que pueden sumarse y multiplicarse. Las matrices se utilizan para describir sistemas de ecuaciones lineales, realizar un seguimiento de los coeficientes de una aplicacin lineal y registrar los datos que dependen de varios parmetros. Las matrices se describen en el campo de la teora de matrices. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que tambin las hace un concepto clave en el campo del lgebra lineal. Historia El origen de las matrices es muy antiguo. Un cuadrado mgico, 3 por 3, se registra en la literatura china hacia el 650 a. C.[2] Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un importante texto matemtico chino que proviene del ao 300 a. C. a 200 a. C., Nueve captulos sobre el Arte de las matemticas (Jiu Zhang Suan Shu), es el primer ejemplo conocido de uso del mtodo de matrices para resolver un sistema de ecuaciones simultneas.[3] En el captulo sptimo, "Ni mucho ni poco", el concepto de determinante apareci por primera vez, dos mil aos antes de su publicacin por el matemtico japons Seki K wa en 1683 y el matemtico alemn Gottfried Leibniz en 1693. Los "cuadrados mgicos" eran conocidos por los matemticos rabes, posiblemente desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los matemticos y astrnomos de la India, junto con otros aspectos de las matemticas combinatorias. Todo esto sugiere que la idea provino de China. Los primeros "cuadrados mgicos" de orden 5 y 6 aparecieron en Bagdad en el 983, en la Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan alSafa).[2] Despus del desarrollo de la teora de determinantes por Seki Kowa y Leibniz, a finales del siglo XVII, Cramer present en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan desarrollaron la eliminacin de Gauss-Jordan en el siglo XIX. El trmino "matriz" fue acuado en 1848, por J. J. Sylvester. En 1853, Hamilton hizo algunos aportes a la teora de matrices. Cayley introdujo en 1858 la notacin matricial, como forma abreviada de escribir un sistema de m ecuaciones lineales con n incgnitas. Grassmann, Frobenius y von Neumann estn entre los matemticos famosos que trabajaron sobre la teora de matrices. Definiciones y notaciones

Una matriz es una tabla cuadrada o rectangular de datos (llamados elementos o entradas de la matriz) ordenados en filas y columnas, donde una fila es cada una de las lneas horizontales de la matriz y una columna es cada una de las lneas verticales. A una matriz con m filas y n columnas se le denomina matriz m-por-n (escrito mn), y a m y n dimensiones de la matriz. Las dimensiones de una matriz siempre se dan con el nmero de filas primero y el nmero de columnas despus. Comnmente se dice que una matriz m-por-n tiene un orden de m n ("orden" tiene el significado de tamao). Dos matrices se dice que son iguales si son del mismo orden y tienen los mismos elementos. Al elemento de una matriz que se encuentra en la fila i-sima y la columna j-sima se le llama elemento i,j o elemento (i,j)-isimo de la matriz. Se vuelve a poner primero las filas y despus las columnas. Casi siempre, se denotan a las matrices con letras maysculas mientras que se utilizan las correspondientes letras en minsculas para denotar a los elementos de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en la fila i-sima y la columna j-sima se le denota como ai,j o a[i,j]. Notaciones alternativas son A[i,j] o Ai,j. Adems de utilizar letras maysculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros tipos de variables. As A es una matriz, mientras que A es un escalar. Normalmente se escribe para definir una matriz A m n con cada entrada en la matriz A[i,j] llamada aij para todo 1 i m y 1 j n. Sin embargo, la convencin del inicio de los ndices i y j en 1 no es universal: algunos lenguajes de programacin comienzan en cero, en cul caso se tiene 0 i m 1 y 0 j n 1. Una matriz con una sola columna o una sola fila se denomina a menudo vector, y se interpreta como un elemento del espacio eucldeo. Una matriz 1 n (una fila y n columnas) se denomina vector fila, y una matriz m 1 (una columna y m filas) se denomina vector columna. Matriz rectangular La matriz rectangular tiene distinto nmero de filas que de columnas, siendo su dimensin mxn. Matrices cuadradas y definiciones relacionadas Una matriz cuadrada es una matriz que tiene el mismo nmero de filas que de columnas. El conjunto de todas las matrices cuadradas n-por-n junto a la suma y la multiplicacin de matrices, es un anillo que generalmente no es conmutativo. M(n,R), el anillo de las matrices cuadradas reales, es un lgebra asociativa real unitaria. M(n,C), el anillo de las matrices cuadradas complejas, es un lgebra asociativa compleja. La matriz identidad In de orden n es la matriz n por n en la cual todos los elementos de la diagonal principal son iguales a 1 y todos los dems elementos son iguales a 0. La matriz identidad se denomina as porque satisface las ecuaciones MIn = M y InN = N para cualquier matriz M m por n y N n por k. Por ejemplo, si n = 3: La matriz identidad es el elemento unitario en el anillo de matrices cuadradas. Los elementos invertibles de este anillo se llaman matrices invertibles o matrices no singulares. Una matriz A n por n es invertible si y slo si existe una matriz B tal que

AB = In = BA. En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de todas las matrices invertibles n por n forma un grupo (concretamente un grupo de Lie) bajo la multiplicacin de matrices, el grupo lineal general. Si es un nmero y v es un vector no nulo tal que Av = v, entonces se dice que v es un vector propio de A y que es su valor propio asociado. El nmero es un valor propio de A si y slo si A In no es invertible, lo que sucede si y slo si pA( ) = 0, donde pA(x) es el polinomio caracter stico de A. pA(x) es un polinomio de grado n y por lo tanto, tiene n ra ces complejas mltiples ra ces si se cuentan de acuerdo a su multiplicidad. Cada matriz cuadrada tiene como mucho n valores propios complejos. El determinante de una matriz cuadrada A es el producto de sus n valores propios, pero tambin puede ser definida por la frmula de Leibniz. Las matrices invertibles son precisamente las matrices cuyo determinante es distinto de cero. El algoritmo de eliminacin gaussiana puede ser usado para calcular el determinante, el rango y la inversa de una matriz y para resolver sistemas de ecuaciones lineales. La traza de una matriz cuadrada es la suma de los elementos de la diagonal, lo que equivale a la suma de sus n valores propios. Matriz fila Una matriz fila est constituida por una sola fila. Matriz columna La matriz columna tiene una sola columna Matriz rectangular La matriz rectangular tiene distinto nmero de filas que de columnas, siendo su dimensin mxn. Matriz cuadrada La matriz cuadrada tiene el mismo nmero de filas que de columnas. Los elementos de la forma aii constituyen la diagonal principal. La diagonal secundaria la forman los elementos con i+j = n+1. Matriz nula En una matriz nula todos los elementos son ceros. Matriz triangular superior En una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros. Matriz triangular inferior

En una matriz triangular inferior los elementos situados por encima de la diagonal principal son ceros. Matriz diagonal En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal principal son nulos. Matriz escalar Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son iguales. Matriz identidad o unidad Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1. Matriz traspuesta Dada una matriz A, se llama matriz traspuesta de A a la matriz que se obtiene cambiando ordenadamente las filas por las columnas (At)t = A (A + B)t = At + Bt ( A)t = At (A B)t = Bt At Matriz regular Una matriz regular es una matriz cuadrada que tiene inversa. Matriz singular Una matriz singular no tiene matriz inversa. Matriz idempotente Una matriz, A, es idempotente si: A2 = A. Matriz involutiva

Una matriz, A, es involutiva si: A2 = I. Matriz simtrica Una matriz simtrica es una matriz cuadrada que verifica: A = At. Matriz antisimtrica o hemisimtrica Una matriz antisimtrica o hemisimtrica es una matriz cuadrada que verifica: A = -At. Matriz ortogonal Una matriz es ortogonal si verifica que: AAt = I. Operaciones con matrices Dadas dos matrices de la misma dimensin, A=(aij) y B=(bij), se define la matriz suma como: A+B=(aij+bij). Es decir, aquella matriz cuyos elementos se obtienen: sumando los elementos de las dos matrices que ocupan la misma misma posicin. Suma o adicin Dadas las matrices m-por-n ,A y B, su suma A + B es la matriz m-por-n calculada sumando los elementos correspondientes (i.e. (A + B)[i, j] = A[i, j] + B[i, j] ). Es decir, sumar cada uno de los elementos homlogos de las matrices a sumar. Por ejemplo: Multiplicacin de un escalar por un vector La multiplicacin de un nmero k por un vector es otro vector: Con igual direccin que el vector . Con el mismo sentido que el vector si k es positivo. Con sentido contrario del vector si k es negativo. De mdulo

Las componentes del vector resultante se obtienen multiplicando por el escalar, k, por las componentes del vector. Multiplicacin de un escalar por una matriz Dada una matriz A=(aij) y un nmero real k R, se define la multiplicacin de un nmero real por una matriz a la matriz del mismo orden que A, en la que cada elemento est multiplicado por k. k A=(k aij) Matriz inversa El producto de una matriz por su inversa es igual al matriz identidad. A A-1 = A-1 A = I Se puede calcular la matriz inversa por dos mtodos: 1. Clculo de la matriz inversa pr determinantes Ejemplo 1. Calculamos el determinante de la matriz, en el caso que el determinante sea nulo la matriz no tendr inversa. 2. Hallamos la matriz adjunta, que es aquella en la que cada elemento se sustituye por su adjunto. 3. Calculamos la traspuesta de la matriz adjunta. 4. La matriz inversa es igual al inverso del valor de su determinante por la matriz traspuesta de la adjunta. 2. Clculo de la matriz inversa por el mtodo de Gauss Sea A una matriz cuadrada de orden n. Para calcular la matriz inversa de A, que denotaremos como A-1, seguiremos los siguientes pasos: 1 Construir una matriz del tipo M = (A | I), es decir, A est en la mitad izquierda de M y la matriz identidad I en la derecha. Consideremos una matriz 3x3 arbitraria La ampliamos con la matriz identidad de orden 3. 2 Utilizando el mtodo Gauss vamos a transformar la mitad izquierda, A, en la matriz identidad, que ahora est a la derecha, y la matriz que resulte en el lado derecho ser la matriz inversa: A-1.

F2 - F1 F3 + F2 F2 - F3 F1 + F2 (-1) F2 La matriz inversa es: Propiedades de la matriz inversa (A B)-1 = B-1 A-1 (A-1)-1 = A (k A)-1 = k-1 A-1 (A t)-1 = (A -1)t

También podría gustarte