Está en la página 1de 16

TECNOLOGICO NACIONAL DE MEXICO

“INSTITUTO TECNOLOGICO DE TAPACHULA”

CATEDRATICO:
ING. DIMELZA TORRES HIDALGO

INTEGRANTES:
CARLOS ALFREDO SALAS VELÁZQUEZ

MATERIA:
ANALISIS ESTRUCTURAL AVANZADO

SEMESTRE: 7° GRUPO: “B”

CARRERA:
INGENIERIA CIVIL

TRABAJO:
INVESTIGACION

CHIAPAS 18 DE MAYO DEL 2021.


SUMA, RESTA Y MULTIPLICACION MATRICIAL.

Antes que todo cabe mencionar qué es una matriz. Una matriz es una forma
rectangular donde se ordenan los números reales mediante coordenadas reflejadas
en los subíndices.

La dimensión de una matriz se representa como la multiplicación de la dimensión


de la fila con la dimensión de la columna. Denominamos (m) para la dimensión de
las filas y (n) para la dimensión de las columnas. Entonces, una
matriz mxn tendrá m filas y n columnas.

SUMA Y RESTA

La unión de dos o más matrices solo puede hacerse si dichas matrices tienen la
misma dimensión. Cada elemento de las matrices puede sumarse con los
elementos que coincidan en posición en diferentes matrices

En el caso de restar dos o más matrices se sigue el mismo procedimiento que


usamos para sumar dos o más matrices. En otras palabras, cuando sumamos o
restamos matrices nos vamos a fijar en: Las matrices compartan la misma
dimensión.

Sumar o restar los elementos con la misma posición en matrices distintas.

Como hemos dicho, primero comprobamos que sean matrices de igual dimensión.
En este caso, son dos matrices 2×2. A continuación, sumamos los elementos que
tienen las mismas coordenadas. Por ejemplo, (d) y (h) comparten la misma posición
en matrices distintas. La posición, denotada como P, para (d) y (h) es P22.

Cuando restamos matrices es como en álgebra común, multiplicamos por (-1) la


matriz que tiene el signo de restar delante. En este caso es la matriz B.

MULTIPLICACION

Generalmente, la multiplicación de matrices cumple la propiedad no conmutativa,


es decir, importa el orden de los elementos durante la multiplicación. Existen casos
llamados matrices conmutativas que sí cumplen la propiedad.

Sean Ry X dos matrices no conmutativas, implica que:


RX ≠ XR
Sean R’y X’dos matrices conmutativas, implica que:
RX=XR
Para multiplicar dos matrices necesitamos que el número de columnas de la primera
matriz sea igual al número de filas de la segunda matriz.

El orden de multiplicación sería tomar la primera fila de la matriz T, multiplicarla por


la primera columna de la matriz F y sumar sus elementos.
Podemos multiplicar una matriz por un escalar z cualquiera. En este caso z=2.

Cada elemento de la matriz queda multiplicado por el escalar z=2.


QUE ES UNA MATRIZ IDENTIDAD, MATRIZ DIAGONAL, MATRIZ
DE BANDA O BANDEADA.

- MATRIZ IDENTIDAD

La matriz identidad es una matriz que cumple la propiedad de ser el elemento neutro
del producto de matrices. Esto quiere decir que el producto de cualquier matriz por
la matriz identidad (donde dicho producto esté definido) no tiene ningún efecto. La

columna i-ésima de una matriz identidad es el vector unitario de una base


vectorial inmersa en un espacio Euclídeo de dimensión n. Toda matriz representa
una aplicación lineal entre dos espacios vectoriales de dimensión finita. La matriz
identidad se llama así porque representa a la aplicación identidad que va de un
espacio vectorial de dimensión finita a sí mismo.

Como el producto de matrices sólo tiene sentido si sus dimensiones son


compatibles, existen infinitas matrices identidad dependiendo de las dimensiones.

, la matriz identidad de tamaño n, se define como de las entradas de la diagonal


principal,:

Empleando la notación que a veces se usa para describir concisamente las matrices
diagonales, resulta:

Si el tamaño es inmaterial, o se puede deducir de forma trivial por el contexto,


entonces se escribe simplemente como I

También se puede escribir usando la notación delta de Kronecker:


- MATRIZ DIAGONAL

En álgebra lineal, una matriz diagonal es una matriz cuadrada en que las entradas
de las diagonales de la matriz son todas nulas salvo en la diagonal principal, y éstas
pueden ser nulas o no. Así, la matriz D = (di,j) es diagonal si:

Toda matriz diagonal es también una matriz simétrica, triangular (superior e inferior)
y (si las entradas provienen del cuerpo R o C) normal.

Otro ejemplo de matriz diagonal es la matriz identidad.

Las matrices diagonales tienen lugar en muchas áreas del álgebra lineal. Debido a
la sencillez de las operaciones con matrices diagonales y el cálculo de su
determinante y de sus valores y vectores propios, siempre es deseable representar
una matriz dada o transformación lineal como una matriz diagonal.

De hecho, una matriz dada de n×n es similar a una matriz diagonal si y sólo si tiene
n autovectores linealmente independientes. Tales matrices se dicen
diagonalizables.

En el cuerpo de los números reales o complejos existen más propiedades: toda


matriz normal es similar a una matriz diagonal (véase teorema espectral) y toda
matriz es equivalente a una matriz diagonal con entradas no negativas.
- MATRIZ DE BANDA O BANDEADA

En matemáticas, a una matriz se le llama matriz banda cuando es una matriz donde
los valores no nulos son confinados en un entorno de la diagonal principal, formando
una banda de valores no nulos que completan la diagonal principal de la matriz y
más diagonales en cada uno de sus costados.

Escrito formalmente, una matriz n×n A=(ai,j ) es una matriz banda si todos sus
elementos son cero fuera de una zona diagonal cuyo rango se determina por las
constantes k1 y k2:

Los valores k1 y k2 son el semiancho de banda izquierdo y derecho


respectivamente. El ancho de banda de una matriz es k1 + k2 + 1, y se puede definir
como el número menor de diagonales adyacentes con valores no nulos.

Una matriz banda con k1 = k2 = 0 es una matriz diagonal

Una matriz banda con k1 = k2 = 1 es una matriz tridiagonal; cuando k1 = k2 = 2 se


tiene una matriz pentadiagonal y así sucesivamente.

Una matriz banda con k1 = k2 = p, dependiendo del número p, se le puede llamar


matriz p-banda, formalmente se puede definir como:

Una matriz con k1 = 0, k2 = n−1, se obtiene la definición de una matriz triangular


inferior. De forma similar, para k1 = n−1, k2 = 0, se obtiene la definición de una
matriz triangular superior.
PROCESO DE INVERSIÓN DE MATRICES Y DE TRANSPUESTA
DE UNA MATRIZ.

Observa el siguiente cuadro para conocer el procedimiento de la mecánica del


algoritmo de inversión de una matriz cuadrada “A”

Debe resaltarse que dentro del procedimiento indicado para la inversión de matrices
existe la posibilidad de que, por lo menos en un renglón o columna de la matriz,
todos sus elementos se vuelvan cero; esto significará que la matriz “A” no es
inversible. Entonces, el procedimiento en ese punto se detiene y se reporta la no
inversibilidad.

Es muy importante recordar que todas las operaciones realizadas sobre la matriz
“A” a invertir deben realizarse en la misma secuencia y en el mismo orden sobre la
matriz de identidad “I” que fue colocada a su lado. Al final del procedimiento, en el
lugar de la matriz identidad se obtendrá la matriz invertida “A-1”.

- Observa el ejemplo de este procedimiento:


Obtener la inversa de la siguiente matriz indicada:

Para empezar, se colocan lado a lado la matriz “A” y la matriz de identidad “I” del
mismo orden:

El cálculo de inversión consta de los siguientes pasos (ver notación del método de
Gauss) y se desarrolla en esa secuencia posteriormente:
En el ejemplo anterior se observa que efectivamente, en el lugar de la matriz
“A”, ahora queda la matriz “I” y, en el lugar de la matriz “I”, queda ahora la
matriz “A -1 ”.
MATRIZ ORTOGONAL Y UNA MATRIZ ORTONORMAL.

- MATRIZ ORTOGONAL

Una matriz ortogonal es una matriz cuadrada cuya matriz inversa coincide con su
matriz traspuesta. El conjunto de matrices ortogonales constituyen una
representación lineal del grupo ortogonal

Geométricamente, las matrices ortogonales representan transformaciones


isométricas en espacios vectoriales reales1 (o más exactamente espacios de Hilbert
reales) llamadas justamente, transformaciones ortogonales. Estas transformaciones
son isomorfismos internos del espacio vectorial en cuestión. En el caso real, dichas
transformaciones pueden ser rotaciones, reflexiones especulares o inversiones y
son usadas extensivamente en computación gráfica. Por sus propiedades, también
son usadas para el estudio de ciertos fibrados y en física se las usa en el estudio
del movimiento de cuerpos rígidos y en la formulación de ciertas teorías de campos.

Ejemplo:
Supongamos que la matriz de números reales

Es ortogonal y su determinante es +1 o -1.

Por lo que:
- PROCESO DE ORTOGONALIZACIÓN DE GRAM SCHMIDZ.

En álgebra lineal, el proceso de ortonormalización de Gram–Schmidt es


un algoritmo para construir, a partir de un conjunto de vectores de un espacio
vectorial con producto interno, otro conjunto ortonormal de vectores que genere el
mismo subespacio vectorial.

El proceso se basa en un resultado de la geometría euclídea, el cual establece que


la diferencia entre un vector V y su proyección sobre otro vector U , es perpendicular
al vector U. Dicho resultado constituye una herramienta para construir, a partir de
un conjunto de dos vectores no paralelos, otro conjunto, conformado por dos
vectores perpendiculares.

Este algoritmo recibe su nombre de los matemáticos Jørgen Pedersen


Gram y Erhard Schmidt.

Ejemplo:
Que es una base ortogonal de R3 con respecto al producto escalar canónico.
BIBLIOGRAFIA

- http://132.248.48.64/repositorio/moodle/pluginfile.php/1086/mod_res
ource/content/5/contenido/index.html
- https://www.lifeder.com/matriz-ortogonal/
- https://es.wikipedia.org/wiki/Proceso_de_ortogonalizaci%C3%B3n_
de_Gram-Schmidt
- https://es.wikipedia.org/wiki/Proceso_de_ortogonalizaci%C3%B3n_
de_Gram-Schmidt
- https://economipedia.com/definiciones/operaciones-con-
matrices.html

También podría gustarte