Está en la página 1de 8

Breve historia del álgebra matricial

Estas breves notas pretenden mostrar cómo ductos: el interior (véase la sección 6) y el
han surgido en la historia algunos conceptos exterior. Aplicó estos productos para resolver
propios del álgebra matricial. Se ha pretendi- problemas geométricos concretos (el producto
do dar más énfasis a las ideas que a las bi- exterior de vectores no es hoy una herramien-
ografı́as de los matemáticos creadores de la ta estándar en la matemática moderna).
teorı́a. En la siguiente dirección La formulación final se debe a Gibbs (1839–
http://www-groups.dcs.st-and.ac.uk 1903) en un panfleto de circulación privada
se halla una colección de biografı́as de los entre sus alumnos y por Heaviside (1850–
matemáticos más famosos. 1925) en el libro Electromagnetic Theory pu-
La mayor parte de estas notas históricas blicado en 1893. En ambos libros se introdu-
están sacadas de [1]. jeron el producto escalar y el vectorial de for-
ma moderna.
1. Geometrı́a de IR2 y IR3
2. Matrices
Los antecedentes históricos del estudio de
la geometrı́a plana y espacial se remontan Los determinantes surgieron cuando se em-
a la introducción por Descartes (1596–1650) pezaron a resolver los sistemas de ecuaciones
en el siglo XVII de la geometrı́a analı́tica lineales. En 1693, Leibniz (1646–1716) usó un
que lleva su nombre. La idea de vector en- conjunto sistemático de ı́ndices para los coe-
tró en las matemáticas calladamente. Stevin ficientes de un sistema de tres ecuaciones li-
(1548–1620) empleó la ley del paralelogramo neales con tres incógnitas obteniendo un de-
en problemas de estática y Galileo (1564– terminante.
1642) enunció esta ley de forma explı́cita. La solución de ecuaciones lineales de dos,
Después de la representación geométrica tres y cuatro incógnitas fue obtenida por
de los números complejos proporcionada por Maclaurin (1698–1746) publicada en 1748
Wessel (1745–1818), Argand (1768–1822) y en su Treatise of algebra. Cramer (1704–
Gauss (1777–1855) fuera algo familiar, los 1752) publicó en 1750 el libro Introduction
matemáticos se percataron de que los números à l’analyse des lignes courbes algébriques la
complejos podı́an usarse para trabajar los vec- regla para determinar los coeficientes de una
tores en el plano. Sin embargo, la utilidad de cónica general pasando por 5 puntos da-
los números complejos está limitada a proble- dos utilizando determinantes. En 1776 Bezout
mas planos. La creación de un análogo tridi- (1730–1783) demostró que la anulación del de-
mensional útil de los números complejos se terminante de un sistema de dos ecuaciones
debe a Hamilton (1805–1865) cuando des- con dos incógnitas homogéneo es una condi-
cubrió los cuaterniones en 1843. ción necesaria y suficiente para que haya solu-
Mientras Hamilton trabajaba con sus cua- ciones no nulas.
terniones, Grassmann (1809–1877) estaba de- Vandermonde (1735–1796), en 1776, fue el
sarrollando la idea moderna de vector. En este primero en dar una exposición coherente y
sentido, Grassmann definió de forma moderna lógica de la teorı́a de los determinantes co-
la suma y el producto por escalares de vec- mo tales, aplicándolos a los sistemas de ecua-
tores de IRn e introdujo dos clases de pro- ciones lineales. Proporcionó una regla para

1
calcular determinantes por medio de subma- que la idea de matriz es lógicamente anterior a
trices de orden 2. En un ensayo de 1772 la de determinante, pero históricamente el or-
“Recherches sur le calcul intégral et sur le den fue el inverso. Cayley fue el primero en de-
système du monde”, Laplace generalizó el sarrollar de modo independiente el concepto
método de Vandermonde. de matriz en un artı́culo publicado en 1855, A
Como hemos visto, los determinantes memoir on the theory of matrices. Definió las
surgieron en la solución de los sistemas de matrices nula y unidad, la suma de matrices
ecuaciones lineales; pero pronto surgieron en y señala que esta operación es asociativa y
los siguientes problemas: Transformación de conmutativa. Cayley toma directamente de la
coordenadas, solución de sistemas de ecua- representación del efecto de dos transforma-
ciones diferenciales, o cambios de variables en ciones sucesivas la definición de multiplicación
las integrales dobles y triples, por citar sólo de dos matrices. Cayley señala que una matriz
algunos. m × n puede ser multiplicada solamente por
La palabra determinante, usada por una matriz n × p. En este mismo artı́culo es-
primera vez por Gauss, la aplicó Cauchy tablece que una matriz tiene inversa si y sólo
(1789–1857) a los determinantes ya apareci- si su determinante es nulo. Además prueba
dos en el siglo XVIII en un artı́culo publicado
1
en 1815. La disposición de los elementos en A−1 = Adj(At ). (1)
tabla y la notación de subı́ndices dobles se le det(A)
debe a él. Binet (1786–1856), en 1812, enun-
Cayley aseguró que el producto de dos ma-
ció el teorema de multiplicación, demostrado
trices puede ser la matriz nula siendo las dos
correctamente por Cauchy, que en notación
matrices invertibles. En realidad Cayley se
moderna es det(AB) = det(A) det(B).
equivocó: Si AB = 0, entonces A ó B no
Heinrich Scherk (1798–1885) en su “Math-
tienen inversa (¿por qué?)
ematische Abhandlungen” aportó nuevas re-
A partir de este momento los trabajos sobre
glas para de los determinantes, por ejemplo,
matrices se disparan. Debemos citar los tra-
si una fila es combinación lineal de otras, el
bajos de Jordan (1838–1922), Rouché (1832–
determinante es nulo; o la regla para calcular
1910) y a Frobenius (1849–1917). En el siglo
determinantes triangulares.
XX es rara la rama de la matemática apli-
Dirı́amos que el campo de las matrices es-
cada que no use la teorı́a de matrices. Pode-
tuvo bien formado aún antes de crearse. Los
mos citar una afirmación profética hecha por
determinantes fueron estudiados a mediados
el fı́sico Tait (1831–1901) a mediados del siglo
del siglo XVIII. Un determinante contiene
XIX: “Cayley está forjando las armas para las
un cuadro de números y parecı́a deducirse
futuras generaciones de fı́sicos”.
de la inmensa cantidad de trabajos sobre los
determinantes que el cuadro podı́a ser estu-
diado en sı́ mismo y manipulado para mu-
3. Sistemas de ecuaciones lineales
chos propósitos. Quedaba por reconocer que Como ya mencionamos en la sección 2, los
al cuadro como tal se le podı́a proporcionar sistemas de ecuaciones lineales comenzaron a
una identidad independiente de la del deter- ser estudiados sistemáticamente por Leibniz y
minante. El cuadro por sı́ mismo es llama- Cramer a mediados del siglo XVIII. Este últi-
do matriz. La palabra matriz fue usada por mo matemático, expuso lo que hoy conocemos
primer vez por Sylvester (1814–1897) en 1850. como regla de Cramer para los sistemas de or-
Es cierto, como dice Cayley (1821–1895), den 3. A mediados del siglo XIX fue Cayley, al

2
estudiar las matrices, quien dedujo la fórmula la pivotación parcial, una ligera variante del
general de la regla de Cramer y quien expuso método de Gauss, para intentar que los erro-
claramente la condición necesaria y suficiente res parciales sean los menores posibles. En
para que un sistema cuadrado de ecuaciones 1948, el matemático inglés Alan Turing de-
lineales tuviera solución única, a saber, que sarrolló la factorización LU.
la matriz de los coeficientes del sistema fuera
invertible. 4. Espacios vectoriales
Frobenius introdujo la noción de rango de Como ya se vió en la sección 1, la idea de
una matriz en 1879, aunque en relación con los vector de IRn entró en las matemáticas de for-
determinantes. Esta definición permitió gene- ma callada. Más aún, podemos decir que la
ralizar el teorema que hoy conocemos como idea de vector abstracto fue introducida por
teorema de Rouché-Frobenius. Euler (1707–1783) sin que éste se diera cuen-
Gauss dedujo a principios del siglo XIX ta: al resolver la ecuación diferencial que hoy
un método que permite resolver cualquier llamamos lineal de orden n homogénea de co-
sistema de ecuaciones lineales. Este método eficientes constantes, Euler indica que la solu-
cayó en el olvido pues es más engorroso que la ción general ha de contener n constantes ar-
presentación matricial hecha por Cayley y por bitrarias y que dicha solución vendrı́a dada
Frobenius. Jordan1 dedujo un algoritmo alter- por combinaciones de n soluciones particu-
nativo a la fórmula (1) presentada por Cayley lares independientes. De un modo más preciso,
para calcular la inversa de una matriz. Hoy si y = y(t) es la solución, entonces
conocemos este método como el algoritmo de
Gauss-Jordan. y(t) = C1 y1 (t) + · · · + Cn yn (t),
A medida que en otras disciplinas cientı́fi-
cas se iba encontrando que los problemas se donde C1 , . . . , Cn son constantes arbitrarias e
podı́an plantear en términos de sistemas de y1 , . . . , yn son soluciones independientes. Eu-
ecuaciones lineales los matemáticos se em- ler no aclara lo que para él son funciones
pezaron a preocupar de aspectos como el independientes. En trabajos posteriores, La-
número de operaciones en un algoritmo. Pron- grange (1736–1813) extendió este resultado a
to se dieron cuenta que la fórmula (1) para ecuaciones lineales homogéneas de coeficientes
el cálculo de la inversa es muy costosa por el variables. Fue Cauchy quien aisló la noción de
número de operaciones, mientras que el méto- independencia lineal y la aplicó al estudio de
do de Gauss exigı́a un número considerable- ecuaciones diferenciales. Curiosamente se de-
mente menor. sarrollaron los conceptos básicos en el espacio
Un problema muy complicado es el sigu- de las funciones continuas antes que en IRn .
iente: ¿De qué forma contribuyen los errores En 1844, Grassmann, en el libro Die lin-
de redondeo individuales al error total? Fue eale ausdehnungslehre, axiomatizó el concepto
atacado por primera vez por Von Neumann, de independencia lineal aplicándolo a los ele-
si bien sólo encontró estimaciones muy com- mentos de IRn . La exposición de Grassmann
plicadas. Actualmente se utiliza el método de estaba ligada con ideas geométricas, pero a él
se le deben los conceptos claves de la teorı́a
1
Aunque ha habido confusión sobre qué Jordan de espacios vectoriales. El primero en dar la
debe recibir el mérito por este algoritmo, ahora parece
claro que este método fue introducido por Wilhem Jor-
definición axiomática actual de espacio vecto-
dan (1842–1899) y no por el más conocido Marie En- rial fue Peano (1858–1932) en su libro Calco-
nemond Camile Jordan. lo geometrico secondo l’Ausdehnungslehre di

3
H. Grassmann preceduto dalle operazioni del- En lenguaje moderno, (2) equivale a escribir
la logica deduttiva publicado en 1888. x = Ax0 , donde A = (aij ), x = (x, y, z)t y
x0 = (x0 , y 0 , z 0 )t . Mientras que las condiciones
5. Aplicaciones lineales (3) y (4) equivalen a AAt = I.
Descartes, en uno de sus intentos por alge- La relación entre matriz y aplicación lin-
brizar la geometrı́a plana estudió la relación eal se hizo más patente cuando Cayley es-
entre (x, y) y (x0 , y 0 ) si el segundo se obtiene cribió de forma matricial las ecuaciones de los
girando un ángulo α el primer punto. Jean diferentes tipos de transformaciones geométri-
Bernouilli (1667–1748) en una carta a Leib- cas. También escribió de forma matricial las
niz en 1715 introdujo los planos coordena- ecuaciones obtenidas por Lagrange obtenien-
dos en IR3 tal como los conocemos hoy en do un tipot particular de matrices: las ortogo-
dı́a. Rápidamente se empezaron a estudiar nales (AA = I). El concepto de aplicación
las ecuaciones de las principales transforma- lineal en su forma actual se le debe a Peano
ciones geométricas en el espacio: proyecciones, cuando axiomatizó la definición de espacio
simetrı́as y giros. vectorial.
Los siguientes pasos los dieron Euler y La- Hoy en dı́a las aplicaciones lineales son im-
grange desde dos puntos de vista: el geométri- portantes en las matemáticas y en las cien-
co y el analı́tico. Euler, al estudiar la ecuación cias aplicadas. Las aplicaciones lineales mode-
general de segundo grado en tres coordenadas lan las transformaciones geométricas ası́ co-
cambió los ejes para que la expresión resulte mo las ecuaciones lineales. Muchos proble-
lo más sencilla posible, de esta manera, fue mas de la ingenierı́a se plantean usando ma-
capaz de clasificar todas las cuádricas2 . La- trices, y por tanto, con aplicaciones lineales.
grange, en un ensayo sobre la atracción de los Muchos problemas complicados se aproximan
esferoides, proporcionó la forma general de los mediante la linealización prefiriendo estudiar
movimientos que conservan distancias: los problemas lineales que surgen. Incluso en
la mecánica cuántica un observable es cierto
0
x = a11 x + a12 y + a13 z0 0 operador lineal en un espacio vectorial com-
0
y = a21 x + a22 y + a23 z0 0 (2) plejo.
0
z = a31 x + a32 y + a33 z0 0

6. Espacio vectorial euclı́deo


donde los coeficientes aij verifican
Cuando los matemáticos posteriores a

a211 + a221 + a231 = 1 
 Descartes desarrollaron la geometrı́a analı́tica
a212 + a222 + a232 = 1 (3) no se dieron cuenta que el concepto de perpen-
a213 + a223 + a233

= 1  dicularidad era independiente del concepto de
paralelismo. Los desarrollos obtenidos por los
y matemáticos en los siglos XVIII y principios
 del XIX los consideraron como parte del mis-
a11 a12 + a21 a22 + a31 a32 = 0 
 mo tipo de geometrı́a.
a11 a13 + a21 a23 + a31 a33 = 0 (4) Fue a principios del siglo XIX, con el es-

a12 a13 + a22 a23 + a32 a33 = 0  tudio de la geometrı́a proyectiva y las ge-
2
Al hacer esta clasificación Euler descubrió el
ometrı́as no euclı́deas cuando se observó que
paraboloide hiperbólico, superficie desconocida para las ideas de paralelismo e incidencia son con-
los griegos. ceptos independientes de la métrica del espa-

4
cio. El desarrollo de la teorı́a que hoy cono- Desde el punto de vista del análisis, ya
cemos como producto interno vino de dos Euler se dio cuenta, al estudiar el desarrol-
caminos diferentes: el álgebra y el análisis. lo de una función en serie trigonométrica, la
Grassmann definió en su libro Die lineale relación
ausdehnungslehre lo que llamó cantidad ex- Z π
tensiva (un tipo de hipernúmero con n com- fi (x)fj (x) dx = 0, i 6= j,
−π
ponentes). Para Grassmann un hipernúmero
es una expresión del tipo siendo fi , fj cualesquiera funciones del llama-
do sistema trigonométrico:
α = α1 e1 + α2 e2 + · · · + αn en ,

donde los αi son números reales y donde ei {1, cos x, sen x, cos(2x), sen(2x), . . .}.
son unidades cualitativas representadas geo-
métricamente por segmentos de lı́nea dirigidos Legendre (1752–1833) obtuvo, al estudiar la
(de una unidad de longitud) trazados desde ecuación diferencial que hoy lleva su nombre,
un origen común determinando un sistema de una serie de polinomios pi que satisfacen
ejes ortogonal. Las αi ei son múltiplos de las 1
(
1 si i = j,
Z
unidades primarias y están representadas por pi (x)pj (x) dx =
longitudes αi a lo largo de los ejes respectivos, −1 0 si i 6= j.
mientras que α está representado por un seg-
mento de lı́nea dirigido en el espacio cuyas Sturm (1803–1855) y Liouville (1809–1882)
proyecciones sobre los ejes son las longitudes generalizaron este tipo de funciones y es-
αi . Grassmann define la suma y el producto tablecieron una clara analogı́a del compor-
por escalares tamiento de todas estas funciones con el de-
sarrollo hecho por Grassmann. La teorı́a tuvo
(α1 e1 + · · · + αn en ) + (β1 e1 + · · · + βn en ) que esperar a los trabajos de Hilbert (1862–
= (α1 + β1 )e1 + · · · + (αn + βn )en , 1943) sobre las ecuaciones integrales definien-
do con claridad un producto interno en el es-
y pacio de las funciones que generaliza al pro-
ducto de Grassmann.
λ(α1 e1 + · · · + αn en ) Aunque Hilbert no desarrolló un lengua-
= (λα1 )e1 + · · · + (λαn )en je geométrico puso los fundamentos para el
desarrollo de la teorı́a general que fue hecha
Grassmann introdujo dos clases de produc-
por Schmidt (1876–1959) a principios del siglo
tos, el interno y el externo. Para el primero
XX. Consideraba las funciones como elemen-
Grassmann postuló
tos de un espacio de dimensión infinita, intro-
dujo la notación que hoy utilizamos, definió el
(
1 si i = j,
ei |ej = concepto de perpendicularidad, norma y de-
0 si i 6= j,
dujo los principales teoremas: Pitágoras, de-
la propiedad distributiva con respecto a la sigualdad de Bessel, desigualdad de Cauchy-
suma, la conmutativa y (αe)|f = α(e|f ), sien- Schwarz y la desigualdad triangular.
do e y f dos hipernúmeros. Grassmann de- En 1958, J. H. Wilkinson desarrolló la fac-
fine el valor numérico de un hipernúmero (lo torización QR a partir del proceso de ortogo-
que hoy llamamos norma) y ángulo entre dos nalización de Gram-Schmidt. Al matemático
hipernúmeros. danés Jorgen Pedersen Gram (1850-1916) se

5
le recuerda sobre todo por este proceso de or- tar hacer mı́nima la función de dos variables
togonalización que construye un conjunto or- n
X
togonal de vectores a partir de un conjunto in- f (a, b) = (a + bxi − yi )2 ,
dependiente. Sin embargo, él no fue el primero i=1
en usar este método. Parece ser que fue descu-
bierto por Laplace y fue usado esencialmente Para ello se iguala ∂f /∂a y ∂f /∂b a cero
por Cauchy in 1836. obteniendo un sistema de ecuaciones. Moder-
namente se prefiere deducir este sistema por
métodos algebraicos, ya que si lo que se pre-
7. Aproximación mı́nimos-cuadrática
tende es minimizar la norma de cierto vec-
En el primer dı́a del año 1801, un cuerpo, tor de IRn , parece claro que podemos utilizar
posteriormente identificado como un asteroide técnicas de producto interior.
y llamado Ceres, fue descubierto mientras que
se aproximaba al Sol. Los astrónomos fueron 8. Teorı́a espectral
incapaces de calcular su órbita, a pesar de El tema de los valores propios apare-
que pudieron observar este cuerpo durante 40 ció cuando Euler, en el primer tercio del siglo
dı́as seguidos hasta que lo perdieron de vista. XVIII, estudió sistemáticamente la ecuación
Después de sólo tres observaciones Gauss de- general de segundo grado en dos y tres vari-
sarrolló una técnica para calcular su órbita ables en el plano y en el espacio respectiva-
con tal precisión que los astrónomos a finales mente. Demuestra que existen unos ejes per-
de 1801 y principios de 1802 pudieron lo- pendiculares donde la expresión de la cónica
calizar Ceres sin ninguna dificultad. Con este o cuádrica es especialmente sencilla. Posteri-
avance en astronomı́a, Gauss logró un rápi- ormente en 1760 en su libro Recherches sur
do reconocimiento en el ámbito cientı́fico. Su la courbure des surfaces, al estudiar las sec-
método, que no fue descrito hasta 1809 en el ciones normales de una superficie en un pun-
libro Theoria motus corporum coelestium, to- to encuentra que hay dos planos mutuamente
davı́a es usado hoy en dı́a y sólo requiere unas ortogonales cuyas secciones proporcionan las
pocas modificaciones para adaptarse a los or- curvas de máxima y mı́nima curvatura. Poste-
denadores modernos. riormente se vio que estas dos situaciones son
Tres años antes y de modo independiente, casos particulares del hecho de que una matriz
Legendre en su Nouvelles méthodes pour la simétrica sea ortogonalmente diagonalizable.
détermination des orbites des comètes, desa- La noción de polinomio caracterı́stico aparece
rrolló el primer tratamiento del método de los explı́citamente en el trabajo de Lagrange so-
mı́nimos cuadrados. bre sistemas de ecuaciones diferenciales en
En esencia el método de Gauss fue como 1774 y en el trabajo de Laplace (1749–1827)
sigue. Si se obtiene una tabla de medidas entre en 1775.
las variables x e y ligadas por medio de la Cauchy reconoció el problema del valor pro-
relación y = a + bx: pio en la obra de Euler, Lagrange y Laplace.
En 1826 tomó el problema de la reducción de
x x1 x2 · · · xn la forma cuadrática en tres variables y de-
y y1 y2 · · · y n mostró que la ecuación caracterı́stica es in-
variante para cualquier cambio en los ejes
Y se busca la recta y = a + bx que mejor se rectangulares, en lenguaje moderno, si A es
“ajusta” a esta tabla de puntos, se debe inten- una matriz cuadrada y si S es invertible, en-

6
tonces los ejes principales generalizado en espacios
de dimensión infinita. Hilbert llevó a cabo
det(A − λI) = det(SAS −1 − λI).
un proceso de paso al lı́mite que le permi-
En 1829 Cauchy prueba que los valores pro- tió generalizar resultados sobre sistemas fini-
pios de una matriz simétrica son reales. Las tos de ecuaciones lineales. Sobre esta base
t
matrices hermı́ticas (A = A ) fueron intro- decidió que un tratamiento de las formas
ducidas por Hermite (1822–1901). Frobenius cuadráticas infinitas “vendrı́a a completar de
en 1878 prueba la diagonalizabilidad de las una manera esencial la teorı́a bien conocida
matrices ortogonales, extendiendo en 1883 la de las formas cuadráticas con un número fini-
t
demostración a matrices unitarias (AA = I). to de variables”.
El teorema espectral para matrices normales
t t
(AA = A A) es debido a Toeplitz (1881– 9. Aplicaciones de la teorı́a espectral
1940). Como se vio en la sección anterior, Cauchy
Jacobi (1804–1851) dio la solución del sis- se dio cuenta de la estrecha relación entre
tema de ecuaciones diferenciales Y 0 = AY , los valores y vectores propios de una matriz
siendo A una matriz diagonalizable. Jordan simétrica con las direcciones principales y las
resolvió el caso no diagonalizable usando los longitudes de los ejes de la cónica asociada a
conceptos de matrices similares (dos matrices esta matriz simétrica. El motivo de introducir
A y B se dicen similares si existe una ma- el concepto de ortogonalmente diagonalizable
triz invertible S tal que A = SBS −1 ) y de fue precisamente éste.
ecuación caracterı́stica. En el libro Traité des Una de las primeras aplicaciones de la
substitutions (1870) demostró que una matriz teorı́a de los valores y vectores propios fue
puede ser transformada a una forma canónica el estudio de las sucesiones dadas por recu-
hoy llamada forma canónica de Jordan. rrencia lineales, por ejemplo la sucesión de Fi-
Un paso simultáneo hacia el concepto de bonacci.
valor y vector propio en un espacio vectorial
abstracto lo dieron Sturm y Liouville al estu- a1 = 1, a2 = 1, an+2 = an+1 + an ∀n ≥ 1.
diar las ecuaciones que hoy llevan su nombre.
Observaron que si φ es cierto operador dife- La técnica que aún usamos hoy en dı́a se re-
rencial, entonces existe una sucesión de valo- duce al cálculo de la potencia de una matriz.
res λn tales que existen funciones yn no nulas Márkov (1856–1922) fue el primero en es-
ortogonales entre sı́ verificando φ(yn ) = λn yn . tudiar los procesos estocásticos no depen-
Desde 1904 hasta 1910, Hilbert
Rb
estudió la dientes del tiempo, llamados hoy cadenas
ecuación integral u(x) = λ a K(x, y)u(y) dy. de Márkov. Una cadena de Márkov es una
Supone que K es simétrico y define lo que sucesión de variables dependientes X(ti ) =
es un operador autoadjunto para un espacio (x1 (ti ), . . . , xn (ti )) identificadas por valores
de funciones, lo que le permite hacer uso de discretos crecientes de ti (usualmente el tiem-
las propiedades de las matrices simétricas en po) con la propiedad de que cualquier predic-
el caso finito. En concreto demuestra que el ción de X(ti ) es sólo función de X(ti−1 ). Esto
operador φ(u)(x) = ab K(x, y)u(y) dy es au-
R
es, el valor futuro de la variable X depende
toadjunto. Las autofunciones asociadas a los sólo del valor presente y no de los valores
distintos autovalores son perpendiculares dos en el pasado. Utilizando la teorı́a de diago-
a dos. Con estos resultados Hilbert puede de- nalización de matrices Márkov pudo estudiar
mostrar lo que se conoce como el teorema de completamente las cadenas de Márkov donde

7
la relación entre X(ti ) y X(ti−1 ) es lineal. Su versity Press, 1972. (Hay traducción
trabajo además ha sido aplicado a la biolo- castellana: El pensamiento matemático:
gı́a. En 1945 Leslie, introdujo un cierto tipo de la antigüedad a nuestros dı́as. Alianza
de matrices (llamadas hoy en dı́a matrices Universidad.)
de Leslie con el fin de estudiar problemas de
evolución de poblaciones de animales. Julio Benı́tez López

Breve cronologı́a Universidad Politécnica de Valencia


1693. Leibniz
6 de Noviembre de 2007
1750. Cramer: resolución de sistemas de
ecuaciones lineales.
Final del siglo XVIII. Lagrange: Formas bi-
lineales para la optimización de una función
real de dos o más variables
1800 Gauss: Eliminación gaussiana (en el
siglo III se descubrió en China este método
para sistemas 3 × 3.
1844 Grassmann: Álgebra vectorial.
1848 Sylvester: Introdujo el término matriz.
1855 Cayley: Define la multiplicación ma-
tricial motivado por la composición de trans-
formaciones. También introdujo las inversas.
1878 Frobenius: Introdujo el rango y
provó el Teorema de Cayley-Hamilton.
1888 Peano: Dió la definición moderna de
espacio vectorial.
1942 von Neumann: Definió el número de
condición de una matriz que sirve para estudi-
ar la sensibilidad de un sistema de ecuaciones
lineales.
1948 Turing: Introdujo la factorización LU.
1958 Wilkinson: Introdujo la factorización
QR.

Referencias
[1] M. Kline: Mathematical Thought From
Ancient to Modern Times. Oxford Uni-

También podría gustarte