Está en la página 1de 5

17/02/2021

ALGEBRA MATRICIAL
Sylvester – Hamilton
Los comienzos de las matrices y los determinantes datan del siglo II AC, aunque hay
indicios desde el siglo IV AC. Sin embargo, no fue hasta fines del siglo XVII que las ideas
reaparecieron y se desarrollaron con fuerza. Los comienzos de las matrices y los
determinantes surgen a través del estudio de sistemas de ecuaciones lineales. En
Babilonia se estudiaron problemas que involucraban a ecuaciones lineales simultáneas
y algunos de estos son conservados en tabletas de arcilla que permanecieron en el
tiempo.

Los chinos, entre los años 200 AC y 100 AC, estuvieron mucho más cerca de las
matrices que los babilonios. Verdaderamente es justo decir que el texto “Nueve
Capítulos de Arte Matemático”, escrito durante la Dinastía Han, da el primer
ejemplo conocido sobre métodos matriciales.

El origen de las matrices es muy antiguo. Los cuadrados latinos y los cuadrados
mágicos se estudiaron desde hace mucho tiempo. Un cuadrado mágico, por
ejemplo, de 3 por 3, se registra en la literatura china hacia el 650 a. C. Los
"cuadrados mágicos" eran conocidos por los matemáticos árabes, posiblemente
desde comienzos del siglo VII, quienes a su vez pudieron tomarlos de los
matemáticos y astrónomos de la India, junto con otros aspectos del análisis
combinatorio. Todo esto sugiere que la idea provino de China. Los primeros
"cuadrados mágicos" de orden 5 y 6 aparecieron en Bagdad en el 983.

Trataremos de hacer un recorrido histórico de la evolución del concepto de matriz,


desde su aparición en el siglo XIX hasta su consolidación en el siglo XX. Conoceremos
las aportaciones de J.J. Sylvester y A. Cayley el año 1850, que introducen la notación
matricial; las escuelas algebraicas inglesas consolidan el concepto de matriz.

JULIO CESAR RODRIGUEZ B. Pá gina 1


En el siglo XX la idea de matriz se transformó en un elemento básico del álgebra. Se ha
pasado de la idea original de Sylvester (1851) de matriz como madre de los menores de
un determinante, por las leyes del cálculo de matrices de Cayley (1858), hasta los
procedimientos de descomposición matricial de Weyr (1885).

Después del desarrollo de la teoría de determinantes por Seki Kowa y Leibniz para
facilitar la resolución de ecuaciones lineales, a finales del siglo XVII, Cramer presentó en
1750 la ahora denominada regla de Cramer. Carl Friedrich Gauss y Wilhelm Jordan
desarrollaron la eliminación de Gauss-Jordan en el siglo XIX, uno de los dos fundadores
del análisis, desarrolló la teoría de los determinantes en 1693 para facilitar la Resolución
de las ecuaciones lineales. Gabriel Cramer tuvo que profundizar esta teoría, presentando
el método de Cramer en 1750. En los años 1800, el método de eliminación de Gauss-
Jordan se puso a punto. Fue James Joseph Sylvester quien utilizó por primera vez el
término « matriz » en1848/1850.

En 1853, Hamilton hizo algunos aportes a la teoría de matrices. Cayley introdujo en


1858 la notación matricial, como forma abreviada de escribir un sistema de ecuaciones
lineales.

Cayley, Hamilton, Hermann Grassmann, Frobenius, Olga Taussky-Todd y John von


Neumann cuentan entre los matemáticos famosos que trabajaron sobre la teoría de las
matrices. En 1925, Werner Heisenberg redescubre el cálculo matricial fundando una
primera formulación de lo que iba a pasar a ser la mecánica cuántica. Se le considera a
este respecto como uno de los padres de la mecánica cuántica. Olga Taussky-Todd
(1906-1995), durante la II Guerra Mundial, usó la teoría de matrices para investigar el
fenómeno de aeroelasticidad llamado fluttering.

Muchos resultados estándar de teoría de matrices elementales aparecieron antes de


que las matrices fueran objeto de investigación matemática. Por ejemplo, de Witt en
“Elementos de curvas”, publicado como una parte de la comentada “Versión Latina de
la Geometría de Descartes”  en 1660, muestra como una transformación de ejes
reducen una ecuación dada de una cónica a la forma canónica. Esto resultaba de la
diagonalización de una matriz simétrica, pero, de Witt nunca pensó en estos términos.

JULIO CESAR RODRIGUEZ B. Pá gina 2


RESUMEN CRONOLOGICO
AÑO ACONTECIMIENTO
200 A.C. En China los matemáticos usan series de números.
1850 D.C. J. J. Sylvester introduce el término "matriz".
1858 Cayley publica Memorias sobre la teoría de matrices.
1878 Frobenius demuestra resultados fundamentales en álgebra matricial.
1925 Werner Heisenberg utiliza la teoría matricial en la mecánica cuántica
En matemáticas se puede definir o representar una matriz a partir de criterios
superficiales a criterios muy profundos, una representación muy sencilla: Matriz será
un arreglo bidimensional de números o elementos dispuestos en filas y columnas, una
matriz puede representar una tabla de valores, un determinante, una familia de
vectores, una transformación lineal, un endomorfismo, y en su mayor generalidad
como estructura algebraica serán elementos de un Anillo, un sistema de ecuaciones
diferenciales, una forma bilineal, es decir podemos ver una misma representación
matricial y reiteramos que se puede interpretar de distintas maneras pero, también,
diferentes matrices pueden representar el mismo objeto.

En el marco teórico desarrollaremos el concepto de matriz a partir de conceptos del


algebra moderna que se desarrolló en un curso de Algebra Básica.

1.1 CONJUNTO PRODUCTO Sean A, B conjuntos

A x B = { (x,y) / x ∈ A, y , x ∈ B }

Ejemplo:

I m= { 1, 2, 3 ,4....................,m }
I m= { 1, 2, 3 ,4 .....................,n }

I m×I n= {(1,1), (1, 2 ),. .. .. ,(1,n ), .. .. . .(2,1),(2,2),. ..... .(2,n ),. ... .. ,(m,1),(m,2), .... ... .. . .. . ,(m,n) }

1.2 CUERPO. - Se define como una estructura algebraica superior

JULIO CESAR RODRIGUEZ B. Pá gina 3


Donde .- K ≠ø : Conjunto no vacío (R, C )

+ : Operación binaria de adición


• : Operación binaria de multiplicación

(K, + , •) se define como un cuerpo ↔

i) Axioma del cerrado


∀ a , b ∈ K ⟹ ( a+b ) ∈ K
ii) Axioma asociativo
∀ a , b , c ∈ K ⟹ ( a+ b ) +c=a+( b+c)
iii) Existencia del neutro
∀ a ∈ K , ∃e ∈ K ⟹ a+e=e +a=a
iv) Existencia del simétrico
∀ a ∈ K , ∃(−a)∈ K ⟹ a+(−a)=(−a)+ a=e
v) Axioma conmutativo
∀ a , b ∈ K ⟹ a+b=b+ a

vi) Axioma distributivo


∀ a , b , c ∈ K ⟹ a • ( b+c )=a• b+a • c
∀ a , b , c ∈ K ⟹ ( b+ c ) • a=b • a+c •a

vii) Axioma del cerrado (clausura)


∀ a , b ∈ K ⟹ ( a •b ) ∈ K

viii) Axioma asociativo


∀ a , b , c ∈ K ⟹ ( a+ b ) +c=a+( b+c)
∀ a , b , c ∈ K ⟹ ( a • b ) • c=a •(b • c)
ix) Axioma conmutativo
∀ a , b ∈ K ⟹ a •b=b •a

x) Existencia del elemento identidad para la multiplicación


∀ a ∈ K , ∃1 ∈ K ⟹ a• 1=1 •a=a

xi) Existencia del elemento simétrico multiplicativo


∀ a ∈ K , ∃a−1 ∈ K ⟹ a • a−1=a−1 • a=1

Esta estructura no cumple con el Teorema de Divisores de cero

Por tanto (K, + , •) es un cuerpo

1.3 FUNCIONES

JULIO CESAR RODRIGUEZ B. Pá gina 4


Recordemos que Función o Aplicación, se define como una relación biunivoca entre
dos conjuntos:

f : A→B

f : x ↦ y Ley de correspondencia
Donde. -
A : Dominio de la función

B : Codominio o Rango de Imágenes

Es decir, función o aplicación de A en B es una relación entre A y B, y es subconjunto de


AxB ; que satisface condiciones de existencia y unicidad

NOTA : Se define Funcion como Aplicación cuando el Dominio es todo el conjunto de


partida

ATENTAMENTE:

Ing. Julio César Rodríguez Blacutt


DOCENTE MAT1100 “ALGEBRA I”

JULIO CESAR RODRIGUEZ B. Pá gina 5

También podría gustarte