Está en la página 1de 24

S.E.P. S.N.E.S.T. D.G.E.S.

ESPECIALIDAD:

ING. CIVIL

MATERIA:

FUNDAMENTOS DE MACANICA DE LOS MEDIOS CONTINUOS

TEMA:

UIDAD I. FUNDAMENTOS MATEMATICOS

PRESENTA:

CATEDRATICO:

SEMESTRE:

GRUPO:

“G”

JUCHITAN DE ZARAGOZA, OAX. A DICIEMBRE DE 2017


CONTENIDO

INTRODUCCION

UNIDAD I Fundamentos matemáticos

1.1 Notación indical.

1.2 Operaciones de tensores.

1.3 Métodos para el calculo de valores y vectores propios.

1.4 Gradiente, divergencia y rotacional.

1.5 Teoremas de Green y Stokes.

CONCLCION

BIBLIOGRAFIA
INTRODUCCION

Matemática es el estudio de los sistemas que consisten de objetos


elementales, cuya naturaleza ha de ser exacta y no tener doble sentido (dos
objetos pueden ser iguales o diferentes, conectados o no, cualquier operación
ha de dar el resultado exacto etc.). Matemática puede ser vista como “la ciencia
de todos los mundos posibles” (mundos de objetos exactos).

En estos temas se abarca lo principal en cuanto al movimiento y equilibrio de la


una partícula o objeto cundo se le aplica esfuerzos en diferentes puntos y
diferente dirección con fuerzas variables.

Matemática se divide en distintas ramas, las bases internas o externas de


cualquier trabajo matemático que pueden estar formalizadas como teorías
axiomáticas. Cada teoría es un estudio de un cierto sistema(mundo) de objetos
llamado el modelo de esa teoría. Aunque cada modelo de teoría puede ser sólo
una de sus posibles interpretaciones entre otros modelos igual de legítimos.
Por ejemplo, digamos que todas las hojas de papel son el sistema de puntos
materiales, los modelos de la misma teoría de la geometría plana euclidiana,
pero independientes entre sí.
UNIDAD I.- Fundamentos matemáticos
Los Fundamentos de la matemática es el estudio de conceptos matemáticos
básicos como números, figuras geométricas, conjuntos, funciones, etc. y cómo
forman jerarquías de estructuras y conceptos más complejos, especialmente
las estructuras fundamentalmente importantes que forman el lenguaje de la
matemática: fórmulas, teorías y sus modelos, dando un significado a las
fórmulas, definiciones, pruebas, algoritmos, etc. también llamados
conceptos metamatemáticas, con atención a los aspectos filosóficos y la unidad
de la matemática. La búsqueda por los fundamentos de la matemática es una
pregunta central de la filosofía de las matemáticas; la naturaleza abstracta de
los objetos matemáticos presenta desafíos filosóficos especiales.

Los fundamentos de la matemática como un todo no apuntan a contener los


fundamentos de cada tópico matemático. Generalmente, los fundamentos de
un campo de estudio se refieren a un análisis más o menos sistemático de sus
conceptos más básicos, su unidad conceptual y su ordenamiento natural o
jerarquía de conceptos, los cuales podrían ayudar a conectarlos con el resto
del conocimiento humano. El desarrollo, surgimiento y aclaración de los
fundamentos puede aparecer tarde en la historia de un campo, y podría no ser
visto por algunos como su parte más interesante.

Las matemáticas siempre jugaron un rol especial en el pensamiento científico,


sirviendo desde tiempos antiguos como modelo de verdad y rigor para la
inquisición racional, dando herramientas o incluso fundamentos para otras
ciencias (especialmente la física). Pero la matemática ya hacía abstracciones
muy elevadas en el siglo XIX, que trajeron paradojas y nuevos desafíos,
exigiendo un examen más profundo y sistemático de la naturaleza y del criterio
de la verdad matemática, así como también una unificación de las diversas
ramas de la matemática en un todo coherente.

La búsqueda sistemática de los fundamentos de la matemática empezó al fin


del siglo XIX, y formó una disciplina matemática nueva llamada lógica
matemática, con fuertes vínculos con la ciencia de la computación teórica. Fue
mediante una serie de crisis con resultados paradójicos, que los
descubrimientos se estabilizaron durante el siglo XX con un amplio y coherente
cuerpo de conocimiento matemático con muchísimos aspectos o componentes
(teoría de conjuntos, teoría de modelos, teoría de pruebas...), cuyas detalladas
propiedades y posibles variantes aún están en campo de investigación. Su alto
nivel de sofisticación técnica inspiró a muchos filósofos a conjeturar que
podrían servir como modelo para los fundamentos de otras ciencias.
1.1. Notación indicial.

El convenio de sumación de Einstein, notación de Einstein o notación indicial a


la convención utilizada para abreviar la escritura de sumatorios, en el que se
suprime el símbolo de sumatorio (representado con la letra griega sigma - Σ). El
convenio fue introducido por Albert Einstein en 1916. Se aplica
en matemáticas en especial a los cálculos realizados en álgebra
lineal destinados a la física. El convenio se aplica sólo a sumatorias sobre
índices repetidos. El convenio se usa especialmente con tensores donde es
muy frecuente la operación de suma sobre índices repetidos y sería muy
fatigoso escribir explícitamente los signos de sumatorios.
Definición. Dada una expresión lineal en en la que se escriben todos sus
términos de forma explícita:

𝒖 = 𝑢1 𝑥1 + 𝑢2 𝑥2 + ⋯ + 𝑢𝑛 𝑥𝑛
Esta puede expresarse convencionalmente como el sumatorio:
𝑛

𝒖 = ∑ 𝑢𝑖 𝑥𝑖
𝑖=1

La notación de Einstein obtiene una expresión aún más condensada


eliminando el signo de sumatorio y entendiendo que en la expresión resultante
un índice indica suma sobre todos los posibles valores del mismo.
𝒖 = 𝑢𝑖 𝑥𝑖

Índice. Un índice utilizado en la notación de Einstein puede aparecer en forma


de producto hasta dos veces en mismo término de una expresión, por lo que
las siguientes expresiones son válidas:
𝑘𝑖 𝑥𝑖
𝑽𝑖 = 𝑢𝑖𝑗 𝑥𝑗 𝐶𝑖𝑗𝑘 𝑒𝑖 𝑒𝑗 𝑒𝑘
Y las siguientes expresiones no se encuentran definidas o son inválidas:
𝑥𝑖 𝑦𝑖 𝑧𝑖
𝑎𝑚 𝑥𝑚𝑗 𝑦𝑚𝑘
En cálculo de tensores es también común utilizar una de las ocurrencias como
un subíndice y la otra como un superíndice. Por ejemplo, en la siguiente
expresión en .
𝑎𝜇 𝑏𝜇 = 𝑎0 𝑏0 + 𝑎1 𝑏1 + 𝑎2 𝑏2 + 𝑎3 𝑏3
Un índice que se repite dos veces en el mismo término de una ecuación se
conoce como índice mudo, por ejemplo:
𝐴 = 𝐴𝑖 𝑒𝑖
Un índice que se repite en cada uno de los términos de una expresión a
excepción de los términos constantes se conoce como índice libre:
𝑆𝑟 = 𝑎𝑟 𝑥𝑖 + 𝑏𝑟 𝑥𝑗 + 𝑐𝑟 − 1
Los índices libres no se expanden en forma de sumatorio, sino que representan
un sistema de ecuaciones independientes.

Representación vectorial. Se emplea el convenio de Einstein en Álgebra


lineal para distinguir fácilmente entre vectores columna y vectores fila. Se
puede, por ejemplo, poner índices sobre-escritos para representar elementos
en una columna e índices subscritos para representar elementos en una fila.
Siguiendo esta convención, entonces:
𝑢 = 𝑢𝑖 = [𝑢1 , 𝑢2 … 𝑢𝑛 ] Para 𝑖 = 1,2,3, … , 𝑛

Representa 1 𝑥𝑛 vector fila y representa𝑛𝑥 1 vector columna.


𝑢1
𝑗
𝑉 = 𝑣 = [ 𝑢2 ] Para 𝑗 = 1,2,3, … , 𝑛
𝑢𝑛
En matemática y en física teórica y en particular en la relatividad general, los
vectores fila representan vectores contra variantes mientras que los vectores
columna representan vectores variantes.

Ejemplo:

Reescribir en notación indical las siguientes expresiones:

1) 𝑎1 𝑥1 𝑥3 + 𝑎2 𝑥2 𝑥3 + 𝑎3 𝑥3 𝑥3

Solución: 𝑎1 𝑥1 𝑥3 (𝑖 = 1,2,3)

2) 𝑥1 𝑥1 + 𝑥2 𝑥2

Solución: 𝑥1 𝑥1 (𝑖 = 1,2)

𝑎11 𝑥 + 𝑎12 𝑦 + 𝑎13 𝑧 = 𝑏𝑥


3) {𝑎21 𝑥 + 𝑎22 𝑦 + 𝑎23 𝑧 = 𝑏𝑦
𝑎31 𝑥 + 𝑎32 𝑦 + 𝑎33 𝑧 = 𝑏𝑧

Solución:

𝑎11 𝑥1 + 𝑎12 𝑥2 + 𝑎13 𝑥3 = 𝑏1 𝑎1𝑗 𝑥𝑗 = 𝑏1


{𝑎21 𝑥1 + 𝑎22 𝑥2 + 𝑎23 𝑥3 = 𝑏2 ⟶ {𝑎2𝑗 𝑥𝑗 = 𝑏2 ⟶ 𝑎𝑖𝑗 𝑥𝑗 = 𝑏𝑖
𝑎31 𝑥1 + 𝑎32 𝑥2 + 𝑎33 𝑥3 = 𝑏3 𝑎3𝑗 𝑥𝑗 = 𝑏3

Como podemos apreciar, la utilización indicial supone que la expresión quede


concisa. En muchos casos, tratar de realizar manipulaciones algebraicas sin
utilizar notación indical o tensorial es casi imposible debido a la gran cantidad
de términos que pueden intervenir.

1.2. Operaciones de Tensores.


Producto tensorial y producto exterior. Dados dos tensores se puede definir
entre ellos el llamado producto tensorial cuyo resultado es un tensor de tipo
más complejo cuyas componentes pueden obtenerse a partir de los tensores
originales.
El producto de dos tensores es un tensor cuyo rango es la suma de los rangos
dados por los dos tensores. Este producto implica la multiplicación ordinaria de
los componentes de un tensor y es llamado producto exterior.
Por ejemplo:
𝒋𝒌 𝒋𝒌𝒍
𝑨𝒊 𝑩𝒍𝒎 = 𝑪𝒊𝒎
Subir y bajar índices. En una variedad riemanniana existe la posibilidad de
definir una operación sobre tensores, que en general no puede realizarse en
una variedad cualquiera. Esa operación permite substituir en los cálculos un
tensor de tipo por otro de tipo con tal que . Esta
operación se denomina usualmente ley de subir o bajar índices.
Esa operación se basa en la existencia de un isomorfismos entre espacios
de tensores variantes y contra variantes definidos sobre una variedad
riemanniana o pseudoriemanniana . Por tanto para emplear, la subida
y bajada de índices es necesario usar el tensor métrico (y su inverso ,
llamado co-tensor métrico).
Estas operaciones resultan muy útiles en la teoría general de la
relatividad donde cualquier magnitud física puede ser representada por
tensores variantes o contra variantes indistintamente, y sin alterar el significado
físico, según las necesidades del problema planteado.

Así para cualquier magnitud física representada por un tensor de tercer rango,
puede ser representado por varios conjuntos de magnitudes relacionables
gracias a la operación de "subir y bajar índices":

Contracción. La contracción de tensores es una operación que reduce el


orden total de un tensor. Esta operación reduce un tensor tipo (𝒏, 𝒎) a otro tipo
(𝒏 − 𝟏, 𝒎 − 𝟏). En términos de componentes, esta operación se logra sumando
el índice de un tensor contra variante y una variante. Por ejemplo, un tensor
(1,1) puede ser contraído a un escalar a través de ; donde el convenio de
sumación de Einstein es empleado. Cuando el tensor (1,1) se lo interpreta
como un mapeo lineal, esta operación es conocida como la traza.
La contracción se utiliza usualmente con el producto tensorial para contraer el
índice de cada tensor. La contracción puede también entenderse en términos
de la definición de un tensor como un elemento de un producto tensorial de
copias del espacio con el espacio , descomponiendo primero el tensor en
una combinación lineal de tensores más simples, y posteriormente aplicando
un factor de a un factor de . Por ejemplo:

Puede ser escrito como la combinación lineal de

La contracción de en el primero y último espacio es entonces el vector:

Producto interno. El producto interno de dos tensores se produce al contraer


el producto exterior de los tensores. Por ejemplo, dados dos tensores
y su producto externo es Igualando índices, , se obtiene el
producto interno: .

Ejemplo 1:

La siguiente tabla presenta los cosenos directos descritos entre la base original 𝑥1 , y la
nueva base 𝑥‘1 . Determine los cosenos de la tercera línea.

𝑥1 𝑥2 𝑥3
𝑥‘1 3/5 -4/5 0
𝑥‘2 0 0 1
𝑥‘3

Solución

Se debe cumplir que ê‘3 = ê‘1 × ê‘2


𝑒1 𝑒2 𝑒3
4 3
|3/5 −4/5 0 | = − 𝑒1 − 𝑒2 + 0𝑒3
0 0 1 5 5

3/5 −4/5 0
⇒ 𝑄=| 0 0 1|
−4/5 −3/5 0
1.3. Métodos para el cálculo de valores y vectores propios.

En álgebra lineal, los vectores propios, auto vectores o eigenvectores de


un operador lineal son los vectores no nulos que, cuando son transformados
por el operador, dan lugar a un múltiplo escalar de sí mismos, con lo que no
cambian su dirección. Este escalar λrecibe el nombre valor
propio, autovalor, valor característico o eigenvalor. A menudo, una
transformación queda completamente determinada por sus vectores propios y
valores propios. Un espacio propio, auto espacio o eigenespacio es
el conjunto de vectores propios con un valor propio común.
Las transformaciones lineales del espacio —como la rotación, la reflexión, el
ensanchamiento, o cualquier combinación de las anteriores; en esta lista
podrían incluirse otras transformaciones— pueden interpretarse mediante el
efecto que producen en los vectores. Los vectores pueden visualizarse como
flechas de una cierta longitud apuntando en una dirección
y sentido determinados.

 Los vectores propios de las transformaciones lineales son vectores que, o


no se ven afectados por la transformación o se ven multiplicados por
un escalar, y por tanto no varían su dirección.
 El valor propio de un vector propio es el factor de escala por el que ha sido
multiplicado.
 Un espacio propio es un espacio formado por todos los vectores propios
del mismo valor propio, además del vector nulo, que no es un vector propio.
 La multiplicidad geométrica de un valor propio es la dimensión del
espacio propio asociado.
 El espectro de una transformación en espacios vectoriales finitos es el
conjunto de todos sus valores propios.
Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector
situado en el eje de rotación sobre el cual se realiza la rotación. El valor
propio correspondiente es 1 y el espacio propio contiene a todos los
vectores paralelos al eje. Como es un espacio de una dimensión,
su multiplicidad geométrica es uno. Es el único valor propio del espectro (de
esta rotación) que es un número real.
Formalmente, se definen los vectores propios y valores propios de la siguiente
manera: Si A: V → V es un operador lineal en un cierto espacio
vectorial V, v es un vector diferente de cero en V y c es un escalar tales que
𝐴𝒗 = 𝑐𝒗

Entonces decimos que v es un vector propio del operador A, y su valor propio


asociado es c. Observe que si v es un vector propio con el valor
propio c entonces cualquier múltiplo diferente de cero de v es también un
vector propio con el valor propio c. De hecho, todos los vectores propios con el
valor propio asociado c junto con 0, forman un subespacio de V, el espacio
propio para el valor propio c. Observe además que un un espacio propio Z es
un subespacio invariante de A, es decir dado w un vector en Z, el
vector Aw también pertenece a Z. espacio propio Z es un subespacio
invariante de A, es decir dado w un vector en Z, el vector Aw también
pertenece a Z.
Casos de interes espcial. Intuitivamente, para las transformaciones
lineales del espacio de dos dimensiones , los vectores propios son:

 Rotación: ningún vector propio de valores reales (existen en cambio


pares valor propio, vector propio complejos).

 Reflexión: los vectores propios son perpendiculares y paralelos al eje de


simetría, los valores propios son -1 y 1, respectivamente.

 Escalado uniforme: todos los vectores son vectores propios, y el valor


propio es el factor de escala.

 Proyección sobre una recta: los vectores propios con el valor propio 1
son paralelos a la línea, vectores propios con el valor propio 0 son
paralelos a la dirección de la proyección.

Cálculo de valores propios y vectores propios de matrices. Si se quiere


calcular los valores propios de una matriz dada y ésta es pequeña, se puede
calcular simbólicamente usando el polinomio característico. Sin embargo, a
menudo resulta imposible para matrices extensas, caso en el que se debe usar
un método numérico.

Cálculo simbólico. Una herramienta importante para encontrar valores propios


de matrices cuadradas es el polinomio característico: decir que λ es un valor
propio de A es equivalente a decir que el sistema de ecuaciones
lineales A v = λ v --> A v - λ v = 0 (Factorizando por v queda) (A - λI) v = 0
(donde I es la matriz identidad) tiene una solución no nula v (un vector propio),
y de esta forma es equivalente al determinante:
det(𝐴 − 𝜆𝐼) = 0
La función p(λ) = det(𝐴 − 𝜆𝐼)es un polinomio de λ pues los determinantes se
definen como sumas de productos. Éste es el polinomio característico de A: los
valores propios de una matriz son los ceros de su polinomio característico.
Todos los valores propios de una matriz A pueden calcularse resolviendo la
ecuación:
Si A es una matriz 𝑛 × 𝑛, entonces tiene grado 𝑛 y 𝐴 tiene como
máximo 𝑛 valores propios.
El teorema fundamental del álgebra dice que esta ecuación tiene
exactamente 𝑛 raíces (ceros), teniendo en cuenta su multiplicidad. Todos los
polinomios reales de grado impar tienen un número real como raíz, así que
para n impar toda matriz real tiene al menos valor propio real. En el caso de las
matrices reales, para 𝑛 par e impar, los valores propios no reales son pares
conjugados.
Encontrando vectores propios. Una vez que se conocen los valores propios
λ, los vectores propios se pueden hallar resolviendo el sistema de ecuaciones
homogéneo:

Una forma más sencilla de obtener vectores propios sin resolver un sistema de
ecuaciones lineales se basa en el teorema de Cayley-Hamilton que establece
que cada matriz cuadrada satisface su propio polinomio característico. Así,
si son los valores propios de A se cumple que

por lo que los vectores columna de son vectores


propios de .
Ejemplo de matriz sin valores propios reales. Un ejemplo de matriz sin
valores propios reales es la rotación de 90 grados en el sentido de las
manecillas del reloj:

Cuyo polinomio característico es y sus valores propios son el par de


conjugados complejos i, -i. Los vectores propios asociados tampoco son reales.

Ejemplo:
Considérese la matriz

que representa un operador lineal R³ → R³. Si se desea computar todos los


valores propios de A, se podría empezar determinando el polinomio
característico:

y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1


y -1. El teorema de Cayley-Hamilton establece que cada matriz cuadrada
satisface su propio polinomio característico. Es decir:

Efectivamente, para el caso del valor propio 2, se puede comprobar que


De donde (1, 1, -1) es un vector propio asociado a 2.

Cálculo numérico. En la práctica, los valores propios de las matrices extensas


no se calculan usando el polinomio característico. Calcular el polinomio resulta
muy costoso, y extraer las raíces exactas de un polinomio de grado alto puede
ser difícil de calcular y expresar: el teorema de Abel-Ruffini implica que las
raíces de los polinomios de grado alto (5 o superior) no pueden expresarse
usándose simplemente raíces enésimas. Existen algoritmos eficientes para
aproximar raíces de polinomios, pero pequeños errores en la estimación de los
valores propios pueden dar lugar a errores grandes en los vectores propios. En
consecuencia, los algoritmos generales para encontrar vectores propios y
valores propios son iterativos. La manera más fácil es el método de las
potencias: se escoge un vector aleatorio y se calcula una secuencia
de vectores unitarios:

, , , ...
Esta sucesión casi siempre convergerá a un vector propio correspondiente al
mayor valor propio. Este algoritmo es sencillo, pero no demasiado útil
aisladamente. Sin embargo, hay métodos más populares, como
la descomposición QR, que se basan en él.

1.4. Gradiente, divergencia y rotacional.

Gradiente. En cálculo vectorial, el gradiente de un campo escalar es


un campo vectorial. El vector gradiente de evaluado en un punto genérico
del dominio de , ( ), indica la dirección en la cual el campo varía más
rápidamente y su módulo representa el ritmo de variación de en la dirección
de dicho vector gradiente. El gradiente se representa con el operador
diferencial nabla seguido de la función (cuidado de no confundir el gradiente
con la divergencia, ésta última se denota con un punto de producto escalar
entre el operador nabla y el campo). También puede representarse mediante
, o usando la notación . La generalización del concepto de
gradiente a campos vectoriales es el concepto de matriz Jacobiana.
Si se toma como campo escalar el que se asigna a cada punto del espacio una
presión P (campo escalar de 3 variables), entonces el vector gradiente en un
punto genérico del espacio indicará la dirección en la cual la presión cambiará
más rápidamente. Otro ejemplo es el de considerar el mapa de líneas de nivel
de una montaña como campo escalar que asigna a cada pareja de
coordenadas latitud/longitud una escalar altitud (campo escalar de 2 variables).
En este caso el vector gradiente en un punto genérico indicará la dirección de
máxima inclinación de la montaña. Nótese que el vector gradiente será
perpendicular a las líneas de contorno (líneas "equiescalares") del mapa. El
gradiente se define como el campo vectorial cuyas funciones coordenadas son
las derivadas parciales del campo escalar, esto es:

Esta definición se basa en que el gradiente permite calcular fácilmente las


derivadas direccionales. Definiendo en primer lugar la derivada direccional
según un vector:

Una forma equivalente de definir el gradiente es como el único vector que,


multiplicado por el vector unitario, da la derivada direccional del campo escalar:

Con la definición anterior, el gradiente está caracterizado de forma unívoca. El


gradiente se expresa alternativamente mediante el uso del operador nabla:

Interpretación del gradiente. De forma geométrica el gradiente es un vector


que se encuentra normal (perpendicular) a la curva de nivel en el punto que se
está estudiando, llámese (𝑥, 𝑦), (𝑥, 𝑦, 𝑧), (tiempo, temperatura), etcétera.
Algunos ejemplos son:

 Considere una habitación en la cual la temperatura se define a través de un


campo escalar, de tal manera que en cualquier punto ∅(𝑥, 𝑦, 𝑧), la
temperatura es ∅(𝑥, 𝑦, 𝑧). Asumiremos que la temperatura no varía con
respecto al tiempo. Siendo esto así, para cada punto de la habitación, el
gradiente en ese punto nos dará la dirección en la cual se calienta más
rápido. La magnitud del gradiente nos dirá cuán rápido se calienta en esa
dirección.
 Considere una montaña en la cual su altura en el punto (𝑥, 𝑦) se define
como 𝐻(𝑥, 𝑦). El gradiente de H en ese punto estará en la dirección para la
que hay un mayor grado de inclinación. La magnitud del gradiente nos
mostrará cuán empinada se encuentra la pendiente.
Propiedades. El gradiente verifica que:

 Es ortogonal a las superficies equiescalares, definidas por =cte.


 Apunta en la dirección en que la derivada direccional es máxima.
 Su módulo es igual a esta derivada direccional máxima.
 Se anula en los puntos estacionarios (máximos, mínimos y puntos de silla).
 El campo formado por el gradiente en cada punto es siempre ir rotacional,
esto es,
Divergencia. La divergencia de un campo vectorial mide la diferencia entre el
flujo entrante y el flujo saliente de un campo vectorial sobre la superficie que
rodea a un volumen de control, por tanto, si el campo tiene "fuentes" o
"sumideros" la divergencia de dicho campo será diferente de cero.
Divergencia de un campo vectorial. La divergencia de un campo vectorial en
un punto es un campo escalar, y se define como el flujo del campo vectorial por
unidad de volumen conforme el volumen alrededor del punto tiende a cero:

Donde es una superficie cerrada que se reduce a un punto en el límite. El


símbolo representa el operador nabla.
Esta definición está directamente relacionada con el concepto de flujo del
campo. Como en el caso del flujo, si la divergencia en un punto es positiva, se
dice que el campo posee fuentes. Si la divergencia es negativa, se dice que
tiene sumideros. El ejemplo más característico lo dan las cargas eléctricas, que
dan la divergencia del campo eléctrico, siendo las cargas positivas manantiales
y las negativas sumideros del campo eléctrico. Se llaman fuentes escalares del
campo al campo escalar que se obtiene a partir de la divergencia de

La divergencia de un campo vectorial se relaciona con el flujo a través


del teorema de Gauss o teorema de la divergencia.
Coordenadas cartesianas. Cuando la definición de divergencia se aplica al
caso de un campo expresado en coordenadas cartesianas,

El resultado es sencillo:

Coordenadas ortogonales. Sin embargo, para un caso más general


de coordenadas ortogonales curvilíneas, como las cilíndricas o las esféricas, la
expresión se complica debido a la dependencia de los vectores de la base con
la posición. La expresión para un sistema de coordenadas ortogonales es:

Donde los son los factores de escala del sistema de coordenadas,


relacionados con la forma del tensor métrico en dicho sistema de coordenadas.
Esta fórmula general, para el caso de coordenadas cartesianas (
) se reduce a la expresión anterior.
Para coordenadas cilíndricas ( ) resulta:
Para coordenadas esféricas ( ) resulta

Coordenadas generales. En sistemas de coordenadas generales, no


necesariamente ortogonales, la divergencia de un vector puede expresarse en
términos de las derivadas parciales respecto a las coordenadas y el
determinante del tensor métrico:

Rotacional. En el cálculo vectorial, el rotacional o rotor es un operador


vectorial que muestra la tendencia de un campo vectorial a inducir rotación
alrededor de un punto.
Matemáticamente, esta idea se expresa como el límite de la circulación del
campo vectorial, cuando la curva sobre la que se integra se reduce a un punto:

Aquí, es el área de la superficie apoyada en la curva , que se reduce a


un punto. El resultado de este límite no es el rotacional completo (que es un
vector), sino solo su componente según la dirección normal a y orientada
según la regla de la mano derecha. Para obtener el rotacional completo
deberán calcularse tres límites, considerando tres curvas situadas
en planos perpendiculares.
Fuente vectorial y escalar. Al campo vectorial, J, que se obtiene calculando el
rotacional de un campo F en cada punto,
𝐉= ∇×𝐅
Se conoce como las fuentes vectoriales de F (siendo las fuentes escalares las
que se obtienen mediante la divergencia).
Un campo cuyo rotacional es nulo en todos los puntos del espacio se
denomina irrotacional o se dice que carece de fuentes vectoriales. Y si está
definido sobre un dominio simplemente conexo entonces dicho campo puede
expresarse como el gradiente de una función escalar, o dicho de otra forma, el
campo deriva de un potencial:
Expresión en formas cartesianas.
Partiendo de la definición mediante un límite, puede demostrarse que la
expresión, en coordenadas cartesianas, del rotacional es

Que se puede expresar de forma más concisa con ayuda del


operador nabla como un producto vectorial, calculable mediante
un determinante:

Debe tenerse muy presente que dicho determinante en realidad no es tal pues
los elementos de la segunda fila no tienen argumento y por tanto carecen de
sentido. Además dicho determinante sólo puede desarrollarse por la primera
fila. En definitiva, la notación en forma de determinante sirve para recordar
fácilmente la expresión del rotacional.
En la notación de Einstein, con el símbolo de Levi-Civita se escribe como:

Propiedades:

 Todo campo potencial (expresable como el gradiente de un potencial


escalar) es irrotacional y viceversa, esto es,

 Todo campo central (radial y dependiente sólo de la distancia al centro)


es irrotacional.

En particular, el campo electrostático de una carga puntual (y por


superposición, cualquier campo electrostático) es ir rotacional.

 El rotacional de un campo vectorial es siempre un campo solenoidal,


esto es, su divergencia siempre es nula:
Ejemplos 1:

Sea F= (x2yz2, xyz2, x+y+z)

Aplicando la fórmula del rotacional obtenemos:

Rot F =(1-2xyz) i –(1-2x2yz) j +(yz2-x2z2) k

La divergencia de F será

Div F =2xyz2+xz2+1

Veamos como son el rotacional y la divergencia en (0, 0, 0), (1, 1, 1)

(0, 0, 0) ...... Rot F = i - j ………. Div F = 1

O sea que este flujo, en este punto tiene una fuente y además el flujo tiene una
tendencia rotacional.

La rotación del flujo se da en un plano cuya normal es el vector i - j y además,


como la divergencia = 1, su flujo tiene a abrirse (es una fuente)

(1, 1, 1) ...... Rot F = -i + j.........Div F = 4

En este punto, el flujo tiene una tendencia rotacional en el plano cuya normal
es el vector -i+j, y como la divergencia es igual a 4, hay una fuente.

Ejemplo 2:

La divergencia de un rotacional es igual a 0

F= (M (x, y, x), N(x, y, z), P(x, y, z)) = M(x, y, x) i + N(x, y, z) j + P(x, y, z) k

Rot F = (Py - Nz, - Px + Mz, Nx – My))

Div Rot F = Pyx – Nzx - Pxy + Mzy + Nxz - Myz

=0

Existirá el Rot (Div F)?

Nota: Un campo cuyo rotacional es 0, se llama irrotacional.


1.5. Teoremas de Green y de Stokes.

Teorema de Green. En física y matemáticas, el teorema de Green da la


relación entre una integral de línea alrededor de una curva cerrada simple C y
una integral doble sobre la región plana D limitada por C. El teorema de Green
se llama así por el científico británico George Green y es un caso especial del
más general teorema de Stokes. El teorema afirma:
Sea C una curva cerrada simple positivamente orientada, diferenciable por
trozos, en el plano y sea D la región limitada por C. Si L y M tienen derivadas
parciales continuas en una región abierta que contiene D,

A veces la notación

Se utiliza para establecer que la integral de línea está calculada usando la


orientación positiva (anti horaria) de la curva cerrada C.
Relación con el teorema de la divergencia:
El teorema de Green es equivalente a la siguiente analogía bidimensional
del teorema de Stokes:

Donde es el vector normal saliente en la frontera.


Para ver esto, considere la unidad normal en la parte derecha de la ecuación.
Como es un vector apuntando tangencialmente a través de
una curva, y la curva C está orientada de manera positiva (es decir, en contra
del sentido de las agujas del reloj) a través de la frontera, un vector normal
saliente sería aquel que apunta en 90º hacia la derecha, el cual podría
ser .
El módulo de este vector es:

.
Por lo tanto:
.
Tomando los componentes de:

El lado derecho se convierte en:

Que por medio del teorema de Green resulta:

Teorema de Stokes. El teorema de Stokes en geometría diferencial es una


proposición sobre la integración de formas diferenciales que generaliza
varios teoremas del cálculo vectorial. Se nombra así por George Gabriel
Stokes (1819-1903), a pesar de que la primera formulación conocida del
teorema fue realizada por William Thomson y aparece en una correspondencia
que él mantuvo con Stokes.
El teorema fundamental del cálculo establece que la integral de una
función f en el intervalo [a, b] puede ser calculada por medio de una anti
derivada F de f:

El teorema de Stokes es una generalización de este teorema en el siguiente


sentido:

 Para la F elegida, . En el lenguaje de las formas diferenciales es


decir que f(x) dx es la derivada exterior de la 0-forma (como por ejemplo
una función) F: dF = f dx. El teorema general de Stokes aplica para formas
diferenciales mayores en vez de F.

 En un lenguaje matemático, el intervalo abierto (a, b) es una variedad


matemática unidimensional. Su frontera es el conjunto que consiste en los
dos puntos a y b. Integrar f en ese intervalo puede ser generalizado como
integrar formas en una variedad matemática de mayor orden. Para esto se
necesitan dos condiciones técnicas: la variedad matemática debe ser
orientable, y la forma tiene que ser compacta de manera que otorgue una
integral bien definida.

 Los dos puntos a y b forman parte de la frontera del intervalo abierto. Más
genéricamente, el teorema de Stokes se aplica a variedades
orientadas M con frontera. La frontera ∂M de Mes una variedad en sí misma
y hereda la orientación natural de M. Por ejemplo, la orientación natural del
intervalo da una orientación de los dos puntos frontera. Intuitivamente a
hereda la orientación opuesta a b, al ser extremos opuestos del intervalo.
Entonces, integrando F en los dos puntos frontera a, b es equivalente a
tomar la diferencia F(b) − F(a).
Por lo que el teorema fundamental relaciona la integral de una función sobre un
intervalo, con una integral o suma de la primitiva de la función en los límites
que encierran dicho intervalo:

Por otro lado el teorema de Green hace algo similar en dos dimensiones,
relaciona la integral a lo largo de una curva simple con la integral de una
combinación de derivadas sobre un área limitada por la curva simple:

Similarmente el teorema de la divergencia relaciona la integral de una función


sobre una superficie con la integral de una combinación de derivadas sobre el
interior del conjunto:

El teorema de Stokes generaliza todos estos resultados, relacionando la


integral sobre una frontera con la integral de una función "derivada" sobre el
interior de la región limitada por la frontera.

Formulación General. Sea M una variedad de dimensión n diferenciable por


trozos orientada compacta y sea ω una forma diferencial en M de grado n-1 y
de clase C. Si ∂ M denota el límite de M con su orientación inducida, entonces

aquí d es la derivada exterior, que se define usando solamente la estructura de


variedad. El teorema debe ser considerado como generalización del teorema
fundamental del cálculo y, de hecho, se prueba fácilmente usando este
teorema.
El teorema se utiliza a menudo en situaciones donde M es una subvariedad
orientada sumergida en una variedad más grande en la cual la forma ω se
define.
El teorema se extiende fácilmente a las combinaciones lineales de las
subvariedades diferenciables por trozos, las, así llamadas, cadenas. El teorema
de Stokes demuestra entonces que las formas cerradas
definidas módulo una forma exacta se pueden integrar sobre las cadenas
definidas módulo borde. Ésta es la base para el apareamiento entre los grupos
de homología y la homología de Rham.

El clásico teorema de Kelvin-Stokes:

que relaciona la integral de superficie del rotacional del campo vectorial sobre
una superficie Σ en el 3-espacio euclidiano a la integral de línea del campo
vectorial sobre su borde, es un caso especial del teorema de Stokes
generalizado (con n = 2) una vez que identifiquemos el campo vectorial con
una 1-forma usando la métrica en el 3-espacio euclidiano.
Asimismo el teorema de Ostrogradsky-Gauss o Teorema de la divergencia:

Es un caso especial si identificamos un campo vectorial con la n-1 forma


obtenida contrayendo el campo vectorial con la forma de volumen euclidiano.
El teorema fundamental del cálculo y el teorema de Green son también casos
especiales del teorema de Stokes generalizado.
La forma general del teorema de Stokes que usa formas diferenciales es de
más alcance que los casos especiales, por supuesto, aunque los últimos son
más accesibles y a menudo son considerados más convenientes por físicos e
ingenieros.
Otra forma de escribir el mismo teorema es la siguiente:

Donde es un campo vectorial cualquiera.


Establece que la integral de superficie del rotacional de un campo
vectorial sobre una superficie abierta es igual a la integral (curvilínea) cerrada
del campo vectorial a lo largo del contorno que limita la superficie.

Ejemplos:
Calcule el área de la porción del paraboloide z = x 2 + y 2 que está
comprendida entre los planos z = 0 y z = 1.
Solución:
La intersección del paraboloide con el plano z = 0 es el punto (0, 0) y con el
plano z = 1 es la circunferencia x 2 + y 2 = 1. La región limitada por la
proyección de dicha circunferencia sobre el plano XY es

𝐷 = {(𝑥, 𝑦) ∈ ℝ2 : 𝑥 2 + 𝑦 2 ≤ 1}
Podemos considerar la siguiente parametrización:

𝑟(𝑥, 𝑦) = (𝑥, 𝑦, 𝑥 2 + 𝑦 2 ), (𝑥, 𝑦) ∈ 𝐷


De esta manera S = r(D), siendo S la superficie descrita en el enunciado. Su
producto vectorial fundamental es:

𝑁(𝑥, 𝑦) = (−2𝑥, −2𝑦, 1), 𝑦 ‖𝑁(𝑥, 𝑦)‖ = √4𝑥 2 + 4𝑦 2 + 1.

El área solicitada será:

𝑎(𝑆) = ∬ ‖𝑁(𝑥, 𝑦)‖𝑑𝑥𝑑𝑦 ∬ √4𝑥 2 + 4𝑦 2 + 1𝑑𝑥𝑑𝑦.


𝐷 𝐷

Esta integral la haremos mediante un cambio de variable a coordenadas


polares.
𝑥 = 𝜌 cos 𝜑 0<𝜌≤1
𝑦 = 𝜌 𝑠𝑒𝑛 𝜑} 𝑐𝑜𝑛 𝑦 𝐽𝑇 (𝜌, 𝜑) = 𝜌 > 0
0 < 𝜑 < 2𝜋
1 2𝜋
𝑎(𝑆) = ∬ √4𝑥 2 + 4𝑦 2 + 1𝑑𝑥𝑑𝑦 = ∫ [∫ √4𝜌2 + 1𝜌𝑑𝜑 ] 𝑑𝜌 =
𝐷 0 0

12 1 𝜋
= 2𝜋 [ (4𝜌2 + 1)3/2 ] = (5√5 − 1).
83 0 6
CONCLUSION

En esta unidad se han expuesto los fundamentos principales que se han tenido
en cuenta al estudiar los procesos de resolución de problemas y de formación
de habilidades matemáticas en relación con la lógica y estructura del proceso
de enseñanza aprendizaje.

Como se ha visto en esta unidad la notación indical fue introducida por Einstein
en 1916 dando así a diversos de matemáticos a continuar con las ecuaciones
dadas. Llegando así a complementar con la teoría de Green y Stokes.

Cada una de las teorías es el marco natural que se utiliza para formalizar la
otra: cada teoría de conjuntos está formalizada como una teoría descrita por la
teoría de modelos; esta última más bien viene como un desarrollo de la teoría
de conjuntos (definiendo teorías y sistemas como objetos complejos) que
directamente como una teoría. Ambas conexiones deben ser consideradas por
separado: los dos papeles de la teoría de conjuntos, como base y un objeto de
estudio para la teoría de modelos, deben distinguirse. Pero estas
formalizaciones van a exigir mucho trabajo para completarse.

La resolución de problemas se refleja en las tendencias contemporáneas de la


educación matemática como eje del diseño curricular en sus funciones de
medio y fundamento del aprendizaje y de fijación del saber y poder
matemáticos.
BIBLIOGRAFIA

http://es.wikipedia.org/wiki/C%C3A1lculo_tensorial
http://w3.mecanica.upn.es/mmc-ig/Apuntes/indices.pdf

http://es.wikipedia.org/wiki/Vector_propio_y_valor_propio

http://es.wikipedia.org/wiki/Divergencia_(matematica)

http://es.wikipedia.org/wiki/Gradiente

http://es.wikipedia.org/wiki/Teoria_de_Green

http://es.wikipedia.org/wiki/Teoria_de_Stokes

También podría gustarte