Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ir a la navegaciónIr a la búsqueda
Para otros usos de este término, véase Matriz.
En matemática, una matriz es un arreglo bidimensional de números. Dado que puede
definirse tanto la suma como el producto de matrices, en mayor generalidad se dice
que son elementos de un anillo. Una matriz se representa por medio de una letra
mayúscula (A,B, …) y sus elementos con la misma letra en minúscula (a,b, …), con un
doble subíndice donde el primero indica la fila y el segundo la columna a la que
pertenece.
Índice
1 Historia
2 Introducción
2.1 Definición
2.2 Ejemplo
2.3 Operaciones básicas entre matrices
2.3.1 Suma o adición
2.3.2 Producto por un escalar
2.3.3 Producto de matrices
3 Otros conceptos relacionados con matrices
3.1 Rango de una matriz
3.2 Matriz traspuesta
3.3 Matrices cuadradas y definiciones relacionadas
3.4 Matriz Lógica
3.4.1 Representación de una relación matricial
3.4.2 Ejemplo
3.4.3 Algunas Propiedades
4 Aplicaciones
4.1 Las matrices en la Computación
4.2 Ejemplo de brazo robótico
4.3 Teoría de matrices
4.4 Matrices relacionadas con otros temas
4.5 Matrices en teoría de grafos
4.6 Análisis y geometría
5 Algunos teoremas
6 Véase también
7 Referencias
7.1 Notas
8 Enlaces externos
Historia
Cronología1
Año Acontecimiento
200 a.C. En China los matemáticos usan series de números.
1848 J. J. Sylvester introduce el término «matriz».
1858 Cayley publica Memorias sobre la teoría de matrices.
1878 Frobenius demuestra resultados fundamentales en álgebra matricial.
1925 Heisenberg utiliza la teoría matricial en la mecánica cuántica
El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados
mágicos se estudiaron desde hace mucho tiempo. Un cuadrado mágico, 3 por 3, se
registra en la literatura china hacia el 650 a. C.2
Es larga la historia del uso de las matrices para resolver ecuaciones lineales. Un
importante texto matemático chino que proviene del año 300 a. C. a 200 a. C., Nueve
capítulos sobre el Arte de las matemáticas (Jiu Zhang Suan Shu), es el primer
ejemplo conocido de uso del método de matrices para resolver un sistema de
ecuaciones simultáneas.3 En el capítulo séptimo, "Ni mucho ni poco", el concepto de
determinante apareció por primera vez, dos mil años antes de su publicación por el
matemático japonés Seki Kōwa en 1683 y el matemático alemán Gottfried Leibniz en
1693.
Los "cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente
desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los
matemáticos y astrónomos de la India, junto con otros aspectos de las matemáticas
combinatorias. Todo esto sugiere que la idea provino de China. Los primeros
"cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el año 983, en la
Enciclopedia de la Hermandad de Pureza (Rasa'il Ihkwan al-Safa).2
Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz para
facilitar la resolución de ecuaciones lineales, a finales del siglo XVII, Cramer
presentó en 1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y
Wilhelm Jordan desarrollaron la eliminación de Gauss-Jordan en el siglo XIX.
Fue James Joseph Sylvester quien utilizó por primera vez el término «matriz» en
1848/1850.
Introducción
Definición
Una matriz es un arreglo bidimensional de números (llamados entradas de la matriz)
ordenados en filas (o renglones) y columnas, donde una fila es cada una de las
líneas horizontales de la matriz y una columna es cada una de las líneas
verticales. A una matriz con m filas y n columnas se le denomina «matriz m por n»
(escrito {\displaystyle m\times n}{\displaystyle m\times n}) donde {\displaystyle
m,n\in \mathbb {N} -\{0\}}{\displaystyle m,n\in \mathbb {N} -\{0\}}. El conjunto de
las matrices de tamaño {\displaystyle m\times n}{\displaystyle m\times n} se
representa como {\displaystyle {\mathcal {M}}_{m\times n}(\mathbb {K} )}
{\displaystyle {\mathcal {M}}_{m\times n}(\mathbb {K} )}, donde {\displaystyle
\mathbb {K} }{\mathbb {K}} es el campo al cual pertenecen las entradas. El tamaño
de una matriz siempre se da con el número de filas primero y el número de columnas
después.
Dos matrices se dice que son iguales si tienen el mismo tamaño y los mismos
elementos en las mismas posiciones. A la entrada de una matriz que se encuentra en
la fila {\displaystyle i-\,\!}i-\,\!ésima y la columna {\displaystyle j-\,\!}j-\,\!
ésima se le llama entrada {\displaystyle i,j\,\!}i,j\,\! o entrada {\displaystyle
(i,j)\,\!}(i,j)\,\!-ésimo de la matriz. En estas expresiones también se consideran
primero las filas y después las columnas.
Como caso particular de matriz, se definen los vectores fila y los vectores
columna. Un vector fila o vector renglón es cualquier matriz de tamaño
{\displaystyle 1\times n}1\times n mientras que un vector columna es cualquier
matriz de tamaño {\displaystyle m\times 1}m\times 1.
A las matrices que tienen el mismo número de filas que de columnas, se les llama
matrices cuadradas y el conjunto se denota {\displaystyle {\mathcal {M}}_{n}
(\mathbb {R} )}{\displaystyle {\mathcal {M}}_{n}(\mathbb {R} )}
Ejemplo
Dada la matriz {\displaystyle A\in {\mathcal {M}}_{4\times 3}(\mathbb {K} )}
{\displaystyle A\in {\mathcal {M}}_{4\times 3}(\mathbb {K} )}
{\displaystyle
A={\begin{bmatrix}1&2&3\\1&2&7\\4&9&2\\6&0&5\\\end{bmatrix}}}A={\begin{bmatrix}1&2&
3\\1&2&7\\4&9&2\\6&0&5\\\end{bmatrix}}
es una matriz de tamaño {\displaystyle 4\times 3}4\times 3. La entrada
{\displaystyle a_{23}\,\!}a_{{23}}\,\! es 7.
{\displaystyle
R={\begin{bmatrix}1&2&3&4&5&6&7&8&9\end{bmatrix}}}R={\begin{bmatrix}1&2&3&4&5&6&7&8
&9\end{bmatrix}}
es una matriz de tamaño {\displaystyle 1\times 9}1\times 9: un vector fila con 9
entradas.
Suma o adición
Sean {\displaystyle A,B\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}A,B\in
{\mathcal {M}}_{{n\times m}}({\mathbb {K}})
{\displaystyle {\begin{bmatrix}1&3&2\\1&0&0\\1&2&2\end{bmatrix}}+
{\begin{bmatrix}1&0&5\\7&5&0\\2&1&1\end{bmatrix}}={\begin{bmatrix}1+1&3+0&2+5\\1+7&
0+5&0+0\\1+2&2+1&2+1\end{bmatrix}}={\begin{bmatrix}2&3&7\\8&5&0\\3&3&3\end{bmatrix}
}}{\begin{bmatrix}1&3&2\\1&0&0\\1&2&2\end{bmatrix}}+
{\begin{bmatrix}1&0&5\\7&5&0\\2&1&1\end{bmatrix}}={\begin{bmatrix}1+1&3+0&2+5\\1+7&
0+5&0+0\\1+2&2+1&2+1\end{bmatrix}}={\begin{bmatrix}2&3&7\\8&5&0\\3&3&3\end{bmatrix}
}
No es necesario que las matrices sean cuadradas:
A la luz de estos ejemplos es inmediato ver que dos matrices se pueden sumar
solamente si ambas tienen el mismo tamaño. La suma de matrices, en el caso de que
las entradas estén en un campo, poseen las propiedades de asociatividad,
conmutatividad, existencia de elemento neutro aditivo y existencia de inverso
aditivo. Esto es así ya que estas son propiedades de los campos en los que están
las entradas de la matriz.
Asociatividad
{\displaystyle (A+B)+C=A+(B+C)\,\!}(A+B)+C=A+(B+C)\,\!
Demostración
Conmutatividad
{\displaystyle (A+B)=(B+A)\,\!}(A+B)=(B+A)\,\!
Demostración
Existencia del elemento neutro aditivo
Existe {\displaystyle 0\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}0\in {\mathcal
{M}}_{{n\times m}}({\mathbb {K}}) tal que
{\displaystyle A+0=0+A=A\,\!}A+0=0+A=A\,\!
Demostración
Existencia del inverso aditivo
Existe {\displaystyle D\in {\mathcal {M}}_{n\times m}(\mathbb {K} )}D\in {\mathcal
{M}}_{{n\times m}}({\mathbb {K}}) tal que
{\displaystyle A+D=0\,\!}A+D=0\,\!
a esta matriz {\displaystyle D\,\!}D\,\! se le denota por {\displaystyle -A\,\!}-
A\,\!.
Demostración
En efecto, estas propiedades dependen del conjunto en el que estén las entradas,
como se ha dicho antes, aunque en las aplicaciones generalmente los campos usados
son {\displaystyle \mathbb {R} }\mathbb{R} (los números reales) y {\displaystyle
\mathbb {C} }\mathbb{C} (los números complejos).
Por como se definió la operación binaria adición se dice que ésta operación es una
operación interna por lo que se cumple intrínsecamente la propiedad de que
{\displaystyle {\mathcal {M}}_{n\times m}(\mathbb {K} )}{\mathcal {M}}_{{n\times
m}}({\mathbb {K}}) es cerrado bajo adición. Con éstas propiedades se tiene que
{\displaystyle ({\mathcal {M}}_{n\times m}(\mathbb {K} ),+)}({\mathcal
{M}}_{{n\times m}}({\mathbb {K}}),+) es un grupo abeliano.
Asociatividad
{\displaystyle (\lambda \mu )A=\lambda (\mu A)\,\!}(\lambda \mu )A=\lambda (\mu
A)\,\!
Demostración
Distributividad respecto de la suma de matrices
{\displaystyle \lambda (A+B)=\lambda A+\lambda B\,\!}\lambda (A+B)=\lambda
A+\lambda B\,\!
Demostración
Distributividad respecto de la suma en el campo
{\displaystyle (\lambda +\mu )A=\lambda A+\mu A\,\!}(\lambda +\mu )A=\lambda A+\mu
A\,\!
Demostración
Producto por el neutro multiplicativo del campo
{\displaystyle 1_{\mathbb {K} }A=A\,\!}1_{{{\mathbb {K}}}}A=A\,\!
Demostración
Por como se definió la operación de producto por escalares se dice que
{\displaystyle {\mathcal {M}}_{n\times m}(\mathbb {K} )}{\mathcal {M}}_{{n\times
m}}({\mathbb {K}}) es cerrado bajo producto por escalares. Con éstas propiedades y
las de la adición se tiene que {\displaystyle {\mathcal {M}}_{n\times m}(\mathbb
{K} )}{\mathcal {M}}_{{n\times m}}({\mathbb {K}}) es un espacio vectorial con las
operaciones de suma y producto por escalares definidas antes.
Demostración
{\displaystyle 0_{\mathbb {K} }A=0}0_{{{\mathbb {K}}}}A=0
Demostración
{\displaystyle \lambda A=0\longrightarrow \lambda =0_{\mathbb {K} }
{\text{ o }}A=0}\lambda A=0\longrightarrow \lambda =0_{{{\mathbb {K}}}}
{\text{ o }}A=0
Demostración
{\displaystyle (-\lambda )A=\lambda (-A)\,\!}(-\lambda )A=\lambda (-A)\,\!
Demostración
Este último resultado permite usar la notación {\displaystyle -\lambda
A\,\!}-\lambda A\,\! sin riesgo de ambigüedad.
Producto de matrices
Sin tomar en cuenta la motivación que viene desde las aplicaciones lineales, es
evidente ver que si ignoramos la definición de la función de producto de matrices y
solo se toma en cuenta la definición de las entradas, el producto no estará bien
definido, ya que si {\displaystyle A\,\!}A\,\! no tiene el mismo número de columnas
que {\displaystyle B\,\!}B\,\! de filas entonces no podremos establecer en donde
acaba la suma: si la acabamos en el mayor de éstos números habrá sumandos que no
están definidos ya que una de las matrices no tendrá más entradas, mientras que si
tomamos el menor habrá entradas de alguna de las matrices que no se tomen en
cuenta. Así es necesario que {\displaystyle A\,\!}A\,\! tenga el mismo número de
columnas que {\displaystyle B\,\!}B\,\! de filas para que {\displaystyle
AB\,\!}AB\,\! esté definida.
Como se puede suponer también, las propiedades de ésta operación serán más
limitadas en la generalidad ya que además de las limitaciones impuestas por la
naturaleza de las entradas está esta limitación respecto a tamaño. Es claro,
además, que el producto de matrices no siempre es una operación interna.
Asociatividad
{\displaystyle A(BC)=(AB)C\,\!}A(BC)=(AB)C\,\!
Demostración
Distributividad respecto de la suma de matrices por la derecha
{\displaystyle (A+B)C=AC+BC\,\!}(A+B)C=AC+BC\,\!
Demostración
Distributividad respecto de la suma de matrices por la izquierda
{\displaystyle A(B+C)=AB+AC\,\!}A(B+C)=AB+AC\,\!
Demostración
Matriz traspuesta
Artículo principal: Matriz traspuesta
La traspuesta de una matriz {\displaystyle A\in {\mathcal {M}}_{n\times m}
(X)\,\!}A\in {\mathcal {M}}_{{n\times m}}(X)\,\!, donde {\displaystyle X\,\!}X\,\!
no es necesariamente un campo, es una matriz {\displaystyle B\in {\mathcal
{M}}_{m\times n}(X)\,\!}B\in {\mathcal {M}}_{{m\times n}}(X)\,\! tal que
{\displaystyle b_{ij}=a_{ji}\,\!}b_{{ij}}=a_{{ji}}\,\!. Por ejemplo la entrada
{\displaystyle b_{12}=a_{21}\,\!}b_{{12}}=a_{{21}}\,\!.
{\displaystyle {\begin{aligned}&(A^{T})^{T}=A,\\&(A+B)^{T}=A^{T}
+B^{T},\\&(AB)^{T}=B^{T}A^{T},\\\end{aligned}}}
{\begin{aligned}&(A^{{T}})^{{T}}=A,\\&(A+B)^{{T}}=A^{{T}}
+B^{{T}},\\&(AB)^{{T}}=B^{{T}}A^{{T}},\\\end{aligned}}
Si {\displaystyle A\in {\mathcal {M}}_{n\times m}(X)\,\!}A\in {\mathcal
{M}}_{{n\times m}}(X)\,\! representa una aplicación lineal, entonces la matriz
{\displaystyle A^{T}\,\!}A^{{T}}\,\! describe la traspuesta de la aplicación
lineal.
(left)
En este caso, B es la matriz inversa de A, identificada por A-1 . El conjunto de
todas las matrices invertibles n por n forma un grupo (concretamente un grupo de
Lie) bajo la multiplicación de matrices, el grupo lineal general.
Una matriz de Vandermonde es una matriz cuadrada cuyas filas son las potencias de
un número. Su determinante es fácil de calcular.
Matriz Lógica
Una matriz lógica, matriz binaria, matriz de relación, matriz booleana o matriz
(0,1) es una matriz con entradas del dominio booleano {\displaystyle B=\{0,1\}}
{\displaystyle B=\{0,1\}}. Tal matriz puede ser usada para representar una relación
binaria entre un par de conjuntos finitos.
Ejemplo
La relación binaria R en el conjunto {1, 2, 3, 4} se define de manera que aRb se
lleva a cabo si y sólo si a divide b uniformemente, sin resto. Por ejemplo, 2R4
satisface la relación porque 2 divide 4 sin dejar un resto, pero 3R4 no porque
cuando 3 divide 4 hay un resto de 1. El conjunto siguiente es el conjunto de pares
para los que se mantiene la relación R.
{(1, 1), (1, 2), (1, 3), (1, 4), (2, 2), (2, 4), (3, 3), (4, 4)}.
La representación correspondiente como matriz booleana es:
{\displaystyle {\begin{pmatrix}1&1&1&1\\0&1&0&1\\0&0&1&0\\0&0&0&1\end{pmatrix}}.}
{\displaystyle {\begin{pmatrix}1&1&1&1\\0&1&0&1\\0&0&1&0\\0&0&0&1\end{pmatrix}}.}
Algunas Propiedades
La representación matricial de la relación de igualdad en un conjunto finito es la
matriz de identidad, es decir, una matriz cuya diagonal principal es todo unos (1),
mientras que el resto de elementos son ceros(0). Si el dominio booleano es visto
como un semianillo, donde la suma corresponde al OR lógico y la multiplicación al
AND lógico, la representación matricial de la composición de dos relaciones es
igual al producto de la matriz de las representaciones matriciales de esta
relación. Este producto se puede calcular en el tiempo esperado O(n2).
Aplicaciones
Las matrices en la Computación
Las matrices son utilizadas ampliamente en la computación, por su facilidad y
liviandad para manipular información. En este contexto, son una buena forma para
representar grafos, y son muy utilizadas en el cálculo numérico. En la computación
gráfica, las matrices son ampliamente usadas para lograr animaciones de objetos y
formas.
Brazo Robótico
-El modelo FK consiste en encontrar una matriz de transformación homogénea T que
relacione la posición cartesiana (Px, Py, PZ) y los ángulos de Euler (φ,ψ,θ)
Escogiendo adecuadamente el sistema de coordenadas ligado a cada segmento es
posible ir de un sistema referencial al siguiente por medio de 4 transformaciones
básicas.
Teoría de matrices
La teoría de matrices es una rama de las matemáticas que se centra en el estudio de
matrices. Inicialmente una rama secundaria del álgebra lineal, ha venido cubriendo
también los temas relacionados con la teoría de grafos, el álgebra, la combinatoria
y la estadística.
/ V1 V2 V3 V4 V5
V1 0 1 0 0 0
V2 1 0 1 1 0
V3 1 1 0 1 0
V4 0 1 1 1 0
V5 0 0 1 0 0
La matriz de adyacencia se basa en las conexiones que se realizan entre los
vértices del grafo apareciendo así un 1 en los casos en los que dos vértices están
conectados y un 0 en los casos en los que no.
Cabe decir que si se toma otra ordenación de los vértices la matriz de adyacencia
sera diferente, pero todas las matrices de adyacencia resultantes de un mismo grafo
están unidas por una matriz de permutación P tal que P-1 C P = A (Siendo C y A dos
matrices de adyacencia distintas pero provenientes de un mismo grafo).
Análisis y geometría
La Matriz de Hessian de una función diferencial ƒ: Rn → R consiste en la segunda
derivada de f con respecto a las varias direcciones de coordenadas, esto es,
Algunos teoremas
Teorema de Cayley-Hamilton
Teorema de Gerschgorin
Véase también
Descomposición de Schur
Descomposición en valores singulares
Descomposición QR
Determinante (matemática)
Eliminación de Gauss-Jordan
Factorización LU
Forma canónica de Jordan
Lema de Schur
Matlab
Matriz triangular