Está en la página 1de 33

La mecánica (Griego Μηχανική y de latín mechanìca o arte de construir una máquina)

es la rama de la física que describe el movimiento de los cuerpos, y su evolución en el


tiempo, bajo la acción de fuerzas. El conjunto de disciplinas que abarca la mecánica
convencional es muy amplio y es posible agruparlas en cuatro bloques principales:

Mecánica clásica Mecánica cuántica

Mecánica relativista Teoría cuántica de campos

La mecánica es una ciencia física, ya que estudia fenómenos físicos. Sin embargo,
mientras algunos la relacionan con las matemáticas, otros la relacionan con la
ingeniería. Ambos puntos de vista se justifican parcialmente ya que, si bien la mecánica
es la base para la mayoría de las ciencias de la ingeniería clásica, no tiene un carácter
tan empírico como estas y, en cambio, por su rigor y razonamiento deductivo, se parece
más a la matemática.

Tabla de contenidos
[ocultar]

• 1 Subdisciplinas de la mecánica
o 1.1 Mecánica clásica
 1.1.1 Otras áreas
o 1.2 Mecánica relativista
o 1.3 Mecánica cuántica
o 1.4 Teoría cuántica de campos

• 2 Estudios interdisciplinarios relacionados con la mecánica

Subdisciplinas de la mecánica [editar]


Mecánica clásica [editar]

Artículo principal: Mecánica clásica

Incluye tanto la mecánica del sólido rígido como la mecánica de medios continuos y
otros sistemas mecánicos con un número finito de grados de libertad. Existen dos
formulaciones diferentes, que difieren en el grado de formalización:

• Mecánica newtoniana. Dio origen a las demás disciplinas y se divide en varias


disciplinas: la cinemática, estudio del movimiento en sí, sin atender a las causas
que lo originan; la estática, que estudia el equilibrio entre fuerzas y la dinámica
que es el estudio del movimiento atendiendo a sus orígenes, las fuerzas.
• Mecánica analítica, una formulación matemática muy potente de la mecánica
newtoniana basada en el principio de Hamilton, que emplea el formalismo de
variedades diferenciables, en concreto el espacio de configuración y el espacio
fásico.

Aplicados al espacio euclídeo tridimensional y a sistemas de referencia inerciales, las


tres formulaciones son básicamente equivalentes.

Otras áreas [editar]

Artículos principales: Mecánica de medios continuos y Mecánica estadística

Existen otras áreas de la mecánica que cubren diversos campos aunque no tienen
carácter global. No forman un núcleo fuerte para considerarse como disciplina.

Una de estas áreas es la mecánica de medios continuos que trata de cuerpos materiales
extensos deformables y que no pueden ser tratados como sistemas con un número finito
de grados de libertad. Esta parte de la mecánica trata a su vez de:

• La mecánica de sólidos deformables, que considera los fenómenos de la


elasticidad, la plasticidad, la viscoelasticidad, etc.
• La mecánica de fluidos, que comprende un conjunto de teorías parciales como la
hidráulica, la hidrostática o fluidoestática y la hidrodinámica) o fluidodinámica.
Dentro del estudio de los flujos se distingue entre flujo compresible y flujo
incompresible. Si se atiende a los fluidos de acuerdo a su ecuación constitutiva,
se tienen fluidos perfectos, fluidos newtonianos y fluidos no-newtonianos.
• La acústica, la mecánica ondulatoria clásica.

Otra de estas áreas es la mecánica estadística, que trata sistema con un gran número de
grados de libertad (o sistemas de muchísimas partículas) y trata de resolver la ingente
cantidad de ecuaciones que surgen por métodos estadísticos. Los resultados obtenidos
coinciden con los resultados de la termodinámica. Usa tanto formulaciones de la
mecánica hamiltoniana como formulaciones de la teoría de probabilidad. Existen
estudios de mecánica estadística basados tanto en la mecánica clásica como en la
mecánica cuántica.

Mecánica relativista [editar]

Artículo principal: Teoría de la Relatividad

La Mecánica relativista o Teoría de la Relatividad comprende:

• La Teoría de la Relatividad Especial, que describe adecuadamente el


comportamiento clásico de los cuerpos que se mueven a grandes velocidades en
un espacio-tiempo plano (no-curvado).
• La Teoría general de la relatividad, que generaliza la anterior describiendo el
movimiento en espacios-tiempo curvados, además de englobar una teoría
relativista de la gravitación que generaliza la teoría de la gravitación de Newton.

Mecánica cuántica [editar]

Artículo principal: Mecánica cuántica


La Mecánica cuántica trata con:

Teoría cuántica de campos [editar]

Artículo principal: Teoría cuántica de campos

La teoría cuántica de campos aúna principios cuánticos y teoría de la relatividad


especial. Dentro de esta teoría, no se consideran ya estados de las partículas sino del
espacio-tiempo. De hecho cada uno de los estados cuánticos posibles de un espacio-
tiempo viene caracterizado por el número de partículas de cada tipo, representadas por
campos cuánticos y la propiedades de dichos campos.

Es decir, un universo donde existan Ni partículas del tipo i en los estados cuánticos E1,
..., ENi representa un estado cuántico diferente de otro estado en el que observamos en
mismo universo con un número diferente de partículas. Pero ambos, "estados" o
aspectos del universo son dos de los posibles estados cuánticos físicamente realizables
del espacio-tiempo. De hecho la noción de partícula cuántica es abandonada en la teoría
cuántica de campos, y esta noción se substituye por la de campo cuántico. Un campo
cuántico es una aplicación que asigna a una función suave sobre una región del espacio-
tiempo un operador autoadjunto. La función suave representa la región donde se mide el
campo, y los valores propios del operador número asociado al campo el número de
partículas observables a la hora de realizar una medida de dicho campo.

La hemodinámica es aquella parte de la cardiología que se encarga del estudio


anatómico y funcional del corazón mediante la introducción de catéteres finos a través
de las arterias de la ingle o del brazo. Esta técnica conocida como cateterismo cardíaco
permite conocer con exactitud el estado de las arterias del corazón.

Tabla de contenidos
[ocultar]

• 1 Participantes de la circulación sanguínea


• 2 Producción de la circulación sanguínea
o 2.1 Circulación mayor o circulación somática o sistémica
o 2.2 Circulación menor o circulación pulmonar o central

• 3 Fases del ciclo cardiaco

Participantes de la circulación sanguínea [editar]


• Arterias: las arterias están hechas de tres capas de tejido, uno muscular en el medio y
una capa interna de tejido epitelial.

• Capilares: los capilares están embebidos en los tejidos, permitiendo además el


intercambio de gases dentro del tejido. Los capilares son muy delgados y frágiles,
teniendo solo el espesor de una capa epitelial.
• Venas: las venas transportan sangre a más baja presión que las arterias, no siendo tan
fuerte como ellas. La sangre es entregada a las venas por los capilares después que el
intercambio entre el oxígeno y el dióxido de carbono ha tenido lugar. Las venas
transportan sangre rica en residuos de vuelta al corazón y a los pulmones. Las venas
tienen en su interior válvulas que aseguran que la sangre con baja presión se mueva
siempre en la dirección correcta, hacia el corazón, sin permitir que retroceda. La sangre
rica en residuos retorna al corazón y luego todo el proceso se repite.

• El corazón: el corazón es el órgano principal del aparato circulatorio. Es un músculo


estriado hueco que actúa como una bomba aspirante e impelente, que aspira hacia las
aurículas la sangre que circula por las venas, y la impulsa desde los ventrículos hacia las
arterias. Tiene 4 cavidades, 2 aurículas y 2 ventrículos.

Producción de la circulación sanguínea [editar]


En primer lugar, la circulación sanguínea realiza dos circuitos a partir del corazón:

Circulación mayor o circulación somática o sistémica [editar]

El recorrido de la sangre comienza en el ventrículo izquierdo del corazón, cargada de


oxígeno, y se extiende por la arteria aorta y sus ramas arteriales hasta el sistema capilar,
donde se forman las venas que contienen sangre pobre en oxígeno. Estas desembocan
en las dos venas cavas (superior e inferior) que drenan en la aurícula derecha del
corazón.

Circulación menor o circulación pulmonar o central [editar]

La sangre pobre en oxígeno parte desde el ventrículo derecho del corazón por la arteria
pulmonar que se bifurca en sendos troncos para cada uno de ambos pulmones. En los
capilares alveolares pulmonares la sangre se oxigena a través de un proceso conocido
como hematosis y se reconduce por las cuatro venas pulmonares que drenan la sangre
rica en oxígeno, en la aurícula izquierda del corazón. La actividad del corazón es cíclica
y continua. El ciclo cardiaco es el conjunto de acontecimientos eléctricos,
hemodinámicas, mecanismos, acústicos y volumétricos que ocurren en las aurículas,
ventrículos y grandes vasos, durante las fases de actividad y de reposo del corazón.

El ciclo cardiaco comprende el período entre el final de una contracción, hasta el final
de la siguiente contracción. Tiene como finalidad producir una serie de cambios de
presión para que la sangre circule.

Fases del ciclo cardiaco [editar]


1. Fase de llenado: tenemos válvulas sigmoideas aórtica y pulmonar (cerradas), y
válvulas auriculoventriculares denominadas tricúspide y mitral (abiertas). Durante esta
fase la sangre pasa desde la aurícula al ventrículo, es el principio de la diástole
(relajación de los ventrículos)

2. Fase de contracción isométrica ventricular: en esta fase comienza la sístole


(contracción ventricular) va a cerrar las válvulas auriculoventriculares.
3. Fase de expulsión: es la sístole propiamente dicha, en donde hay una contracción
ventricular (cerrados) abriéndose las válvulas sigmoideas, existe una salida de sangre a
la aorta y a la pulmonar.

4. Fase de relajación ventricular: los ventrículos se relajan, las válvulas sigmoideas se


cierran y las válvulas auriculoventriculares se abren. El ciclo completo dura unos 0,8 s
(Reposo)

Obtenido de "http://es.wikipedia.org/wiki/Hemodin%C3%A1mica"

El electromagnetismo es una rama de la Física que estudia y unifica los fenómenos


eléctricos y magnéticos en una sola teoría, cuyos fundamentos fueron sentados por
Michael Faraday y formulados por primera vez de modo completo por James Clerk
Maxwell. La formulación consiste en cuatro ecuaciones diferenciales vectoriales que
relacionan el campo eléctrico, el campo magnético y sus respectivas fuentes materiales
(corriente eléctrica, polarización eléctrica y polarización magnética), conocidas como
ecuaciones de Maxwell.

El electromagnetismo es una teoría de campos; es decir, las explicaciones y


predicciones que provee se basan en magnitudes físicas vectoriales dependientes de la
posición en el espacio y del tiempo. El electromagnetismo describe los fenómenos
físicos macroscópicos en los cuales intervienen cargas eléctricas en reposo y en
movimiento, usando para ello campos eléctricos y magnéticos y sus efectos sobre las
sustancias sólidas, líquidas y gaseosas. Por ser una teoría macroscópica, es decir,
aplicable sólo a un número muy grande de partículas y a distancias grandes respecto de
las dimensiones de éstas, el Electromagnetismo no describe los fenómenos atómicos y
moleculares, para los que es necesario usar la Mecánica Cuántica.

Tabla de contenidos
[ocultar]

• 1 Historia
• 2 Electrostática
• 3 Magnetostática
• 4 Electrodinámica clásica
o 4.1 Formulación covariante
• 5 Electrodinámica cuántica
• 6 Véase también
• 7 Referencias
o 7.1 Generales
• 8 Enlaces externos

Historia [editar]
Artículo principal: Historia del electromagnetismo

Desde la antigua Grecia se conocían los fenómenos magnéticos y eléctricos pero no es


hasta inicios del siglo XVII donde se comienza a realizar experimentos y a llegar a
conclusiones científicas de éstos fenómenos.1 Durante éstos dos siglos, XVII y XVIII,
grandes hombres de ciencia como William Gilbert, Otto von Guericke, Stephen Gray,
Benjamin Franklin, Alessandro Volta entre otros estuvieron investigando estos dos
fenómenos de manera separada y llegando a conclusiones coherentes con sus
experimentos.

Michael Faraday.

A principios del siglo XIX Hans Christian Ørsted encontró evidencia empírica de que
los fenómenos magnéticos y eléctricos estaban relacionados. De ahí es que los trabajos
de físicos como André-Marie Ampère, William Sturgeon, Joseph Henry, Georg Simon
Ohm, Michael Faraday en ese siglo, son unificados por James Clerk Maxwell en 1861
con un conjunto de ecuaciones que describían ambos fenómenos como uno solo, como
un fenómeno electromagnético.1

James Clerk Maxwell.

Las ahora llamadas ecuaciones de Maxwell demostraba que los campos eléctricos y los
campos magnéticos eran manifestaciones un solo campo electromagnético. Además
describía la naturaleza ondulatoria de la luz, y su semejanza con la naturaleza de los
campos magnéticos y eléctricos, como parte de una onda electromagnética.2 Con una
sola teoría consistente que describía estos dos fenómenos antes separados, los físicos
pudieron realizar varios experimentos prodigiosos e inventos muy útiles como la
bombilla eléctrica por Thomas Alva Edison o el generador de corriente alterna por
Nikola Tesla.3 El éxito predicitivo de la teoría de Maxwell y la búsqueda de una
interpretación coherente de sus implicaciones, fue lo que llevó a Albert Einstein a
formular su teoría de la relatividad que se apoyaba en algunos resultados previos de
Hendrik Antoon Lorentz y Henri Poincaré.

En la primera mitad del siglo XX, con el advenimiento de la mecánica cuántica, el


electromagnétismo tenía que mejorar su fomulación con el objetivo que sea coherente
con la nueva teoría. Ésto se logró en la década de 1940 cuando se completó una teoría
cúantica electromagnética o mejor conocida como electrodinámica cuántica.

Electrostática [editar]
Artículo principal: Electrostática

Un electroscopio usado para medir la carga eléctrica de un objeto

Cuando hablamos de electrostática nos referimos a los fenómenos que ocurren debido a
una propiedad intrínseca y discreta de la materia, la carga, cuando es estacionaria o no
depende del tiempo. La unidad de carga elemental, es decir, la más pequeña observable,
es la carga que tiene el electrón.4 Se dice que un cuerpo esta cargado eléctricamente
cuando tiene exceso o falta de electrones en sus átomos que lo componen. Por defición
la carencia de electrones se la denomina carga positiva y al exceso carga negativa.5 La
relación entre los dos tipos de carga es de atracción cuando son diferentes y de repulsión
cuando son iguales.

La carga elemental es una unidad muy pequeña para cálculos prácticos, es por eso que
en el sistema internacional a la unidad de carga eléctrica, el culombio, se lo define como
la cantidad de carga de 6,25 x 1018 electrones.4 El movimiento de electrones por un
conductor se denomina corriente eléctrica y la cantidad de carga eléctrica que pasa por
unidad de tiempo se la define como intensidad de corriente. Se pueden introducir mas
conceptos como el de diferencia de potencial o el de resistencia, que nos conduciría
ineludiblemente al área de circuitos eléctricos, y todo eso se puede ver con mas detalle
en el artículo principal.

El nombre de la unidad de carga se debe a Coulomb quien en 1785 llegó a una relación
matemática entre cargas, que ahora se la conoce como ley de coulomb:
entre dos tipos de cargas y existe una fuerza de atracción o repulsión que varía
de acuerdo al cuadrado de la distancia entre ellas y de dirección radial ; y es una
constante conocida como permitividad eléctrica.

Las cargas elementales al no encontrarse solas se las debe tratar como una distribución
de ellas. Es por eso que debe implementarse el concepto de campo, definido como una
región del espacio donde existe una magnitud escalar o vectorial dependiente o
independiente del tiempo. Así el campo eléctrico está definido como la región del
espacio donde actúan las fuerzas eléctricas. Su intensidad se define como el límite al
que tiende la fuerza de una distribución de carga sobre una carga positiva que tiende a
cero, así:

Campo eléctrico de cargas puntuales.

Y así finalmente llegamos a la expresión matemática que define el campo eléctrico:

Es importante conocer el alcance de este concepto de campo eléctrico, éste nos brinda la
oportunidad de conocer cuál es su intensidad y qué ocurre con una carga en cualquier
parte de dicho campo sin importar el desconocimiento de qué lo provoca.6

Una forma de obtener qué cantidad de fuerza eléctrica pasa por cierto punto o superficie
del campo eléctrico es que se ideó el concepto de flujo eléctrico. Este flujo eléctrico Φ
se define como la suma de la cantidad de campo que atraviesa un área determinada, así:
El matemático y físico, Carl Friedrich Gauss, demostró que la cantidad de flujo eléctrico
en un campo es igual al cociente de la carga encerrada por la superficie en la que se
calcula el flujo, , y la permitividad eléctrica, . Esta relación se conoce como ley de
Gauss:

(1)

Véase también: Carga eléctrica, Ley de Coulomb, Campo eléctrico, Potencial eléctrico, y
Ley de Gauss

Magnetostática [editar]
Artículo principal: Magnetostática

Lineas de fuerza de una barra magnética.

No fue si no hasta el año de 1820, cuando Hans Christian Oersted descubrió que el
fenómeno magnético estaba ligado al eléctrico, que se obtuvo una teoría científica para
el magnetismo.7 La presencia de una corriente eléctrica, o sea, de un flujo de carga
debido a una diferencia de potencial, genera una fuerza magnética que no varía en el
tiempo. Si tenemos una carga a una velocidad , ésta generará un campo magnético
que es perpendicular a la fuerza magnética inducida por el movimiento en ésta corriente,
así:

Para determinar el valor de ese campo magnético, Jean Baptiste Biot en 1820,8 dedujo
una relación para corrientes estacionarias, ahora conocida como ley de Biot-Savart:
Donde es un coeficiente de proporcionalidad conocido como permeabilidad
magnética, es la intensidad de corriente, el es el diferencial de longitud de la
corriente y es la dirección de la corriente. De manera más estricta, es la inducción
magnética, dicho en otras palabras, es el flujo magnético por unidad de área.
Experimentalmente se llegó a la conclusión que las líneas de fuerza de campos
magnéticos eran cerradas, eliminando la posibilidad de un monopolo magnético. La
relación matemática se la conoce como ley de Gauss para el campo magnético:

(2)

Además en la magnetostática existe una ley comparable a la de Gauss en la


electrostática, la ley de Ampère. Ésta ley nos dice que la circulación en un campo
magnético es igual a la densidad de corriente que exista en una superficie cerrada:

Cabe indicar que esta ley de Gauss es una generalización de la ley de Biot-Savart.
Además que las fórmulas expresadas aquí son para cargas en el vacío, para más
información consúltese los artículos principales.

Véase también: Ley de Ampère, Corriente eléctrica, Campo magnético, Ley de Biot-
Savart, y Momento magnético dipolar

Electrodinámica clásica [editar]


Artículo principal: Electrodinámica

Hasta el momento se han estudiado los campos eléctricos y magnéticos que no varían
con el tiempo. Pero los físicos a finales del siglo XIX descubrieron que ambos campos
estaban ligados y así un campo eléctrico en movimiento, una corriente eléctrica que
varíe, genera un campo magnético y un campo magnético de por si implica la presencia
de un campo eléctrico. Entonces, lo primero que debemos definir es la fuerza que
tendría una partícula cargada que se mueva en un campo magnético y así llegamos a la
unión de las dos fuerzas anteriores, lo que hoy conocemos como la fuerza de Lorentz:

(3)

Entre 1890 y 1900 Liénard y Wiechert calcularon el campo electromagnético asociado a


cargas en movimiento arbitrario, resultado que se conoce hoy como potenciales de
Liénard-Wiechert.
Por otro lado, para generar una corriente eléctrica en un circuito cerrado debe existir una
diferencia de potencial entre dos puntos del circuito, a ésta diferencia de potencial se la
conoce como fuerza electromotriz o fem. Ésta fuerza electromotriz es proporcional a la
rapidez con que el flujo magnético varía en el tiempo, esta ley fue encontrada por
Michael Faraday y es la interpretación de la inducción electromagnética, así un campo
magnético que varía en el tiempo induce a un campo eléctrico, a una fuerza
electromotriz. Matemáticamente se representada como:

(4)

En un trabajo del físico James Clerk Maxwell de 1861 reunió las tres ecuaciones
anteriormente citadas (1), (2) y (4) e introdujo el concepto de una corriente de
desplazamiento como una densidad de corriente efectiva y llego a la última de las
ecuaciones, la ley de Ampère generalizada (5), ahora conocidas como ecuaciones de
Maxwell:

(5)

Las cuatro ecuaciones, tanto en su forma diferencial como en la integral aquí descritas,
fueron las revisiones hechas por Oliver Heaviside. Pero el verdadero poder de éstas
ecuaciones, más la fuerza de Lorentz (3), se centra en que juntas son capaces de
describir cualquier fenómeno electromagnético, ademas de las consecuencias físicas que
posteriormente se describirán.9

Esquema de una onda electromagnética.

La genialidad del trabajo de Maxwell es que sus ecuaciones describen un campo


eléctrico que va ligado inequívocamente a un campo magnético perpendicular a éste y a
la dirección de su propagación, éste campo es ahora llamado campo electromagnético.10
Además la solución de éstas ecuaciones permitía la existencia de una onda que se
propagaba a la velocidad de la luz, con lo que además de unificar los fenómenos
eléctricos y magnéticos la teoría formulada por Maxwell predecía con absoluta certeza
los fenómenos ópticos.

Así la teoría predecía a una onda que, contraria a las ideas de la época, no necesitaba un
medio de propagación; la onda electromagnética se podía propagar en el vacío debido a
la generación mutua de los campos magnéticos y eléctricos. Esta onda a pesar de tener
una velocidad constante, la velocidad de la luz c, puede tener diferente longitud de onda
y consecuentemente dicha onda transporta energía. La radiación electromagnética recibe
diferentes nombres al variar su longitud de onda, como rayos gamma, rayos X, espectro
visible, etc.; pero en su conjunto recibe el nombre de espectro electromagnético.
Espectro electromagnético.
Véase también: Fuerza de Lorentz, Fuerza electromotriz, Ley de Ampère, Ecuaciones de
Maxwell, Campo electromagnético, Radiación electromagnética, y Espectro
electromagnético

Formulación covariante [editar]

Artículo principal: Tensor de campo electromagnético

Clásicamente, al fijar un sistema de referencia, se puede descomponer los campos


eléctricos y magnéticos del campo electromagnético. Pero al tener a un observador con
movimiento relativo respecto al sistema de referencia, éste medirá efectos eléctricos y
magnéticos diferentes de un mismo fenómeno electromagnético. El campo eléctrico y la
inducción magnética a pesar de ser elementos vectoriales no se comportan como
magnitudes físicas vectoriales, por el contrario la unión de ambos constituye otro ente
físico llamado tensor y en este caso el tensor de campo electromagnético.11

Así, la expresión para el campo electromagnético es:


Y las expresiones covariantes para las ecuaciones de Maxwell (7) y la fuerza de Lorentz
(6) se reducen a:

(6)

(7)

Electrodinámica cuántica [editar]

Diagrama de Feynman mostrando la fuerza electromagnética entre dos electrones por


medio del intercambio de un fotón virtual.
Artículo principal: Electrodinámica cuántica

Posteriormente a la revolución cuántica de inicios del siglo XX, los físicos se vieron
forzados a buscar una teoría cuántica de la interacción electromagnética. El trabajo de
Einstein con el efecto fotoeléctrico y la posterior formulación de la mecánica cuántica
sugerían que la interacción electromagnética se producía mediante el intercambio de
partículas elementales llamadas fotones. La nueva formulación cuántica lograda en la
década de los años 40 del siglo XX describía la interacción de este fotón portador de
fuerza y las otras partículas portadoras de materia.12

La electrodinámica cuántica es principalmente una teoría cuántica de campos


renormalizada. Su desarrollo fue obra de Sinitiro Tomonaga, Julian Schwinger, Richard
Feynman y Freeman Dyson alrededor de los años 1947 a 1949.13 En la electrodinámica
cuántica, la interacción entre partículas viene descrita por un lagrangiano que posee
simetría local, concretamente simetría de gauge. Para la electrodinámica cuántica, el
campo de gauge donde las partículas interactúan es el campo electromagnético y esas
partículas son los fotones.13
Matemáticamente, el lagrangiano para la interacción entre fermiones mediante
intercambio de fotones viene dado por:

Donde el significado de los términos es:

son las matrices de Dirac;


y son los campos o espinores de Dirac que representan las partículas
cargadas eléctricamente;
es la derivada covariante asociada a la simetría gauge;
el operador asociado al potencial vector covariante del campo
electromagnético y
el operador de campo asociado tensor de campo
electromagnético.
Véase también: Teoría cuántica de campos, Ecuación de Dirac, y Modelo estándar

Véase también [editar]


• Interacción electromagnética
• Electrodinámica
• Electrostática
• Ecuaciones de Maxwell

Referencias [editar]
1. ↑ a b Rafael Lopez Valverde. Historia del Electromagnetismo. Consultado el 13/02/2008.
2. ↑ Clerk Maxwell, James (1873). A Treatise on Electricity and Magnetism (en inglés).
Consultado el 20 de noviembre de 2007.
3. ↑ Tesla, Nikola (1856–1943). Obras de Nikola Tesla en Wikisource en inglés (en inglés).
Consultado el 20 de noviembre de 2007.
4. ↑ a b J Villaruso Gato. Cuestiones:La carga elemental. Consultado el 13/02/2008.
5. ↑ Ministerio de Educación y Ciencia de España. Introducción a la Electricidad.
Consultado el 13/02/2008.
6. ↑ Agustín Borrego Colomer. Campo eléctrico. Consultado el 14/02/2008.
7. ↑ Introducción al electromagnetismo. Consultado el 15/02/2008.
8. ↑ Ley de Biot-Savart. Consultado el 15/02/2008.
9. ↑ David Stern (2004). Ondas electromagnéticas. Consultado el 17/02/2008.
10. ↑ Carlos Fenandez. La naturaleza de la luz. Consultado el 17/02/2008.
11. ↑ Landau & Lifshitz, Teoría clásica de los campos, Ed. Reverté. ISBN 84-291-4082-4.
12. ↑ Enciclopedia Encarta (2007). Electrodinámica cuántica. Consultado el 19/02/2008.
13. ↑ a b José Antonio Montiel Tosso (Universidad de Córdoba). Introducción a la Física
cuántica. Electrodinámica cuántica. Consultado el 19/02/2008.

Generales [editar]
La Óptica es la rama de la física que estudia el comportamiento de la luz, sus
características y sus manifestaciones. Abarca el estudio de la reflexión, la refracción, las
interferencias, la difracción, la formación de imágenes y la interacción de la luz con la
materia.

Tabla de contenidos
[ocultar]

• 1 Desarrollo histórico
o 1.1 Reflexión y refracción
o 1.2 Interferencia y difracción
o 1.3 Primeras teorías y otros fenómenos
o 1.4 Aportes de Fresnel
o 1.5 La teoría del éter
o 1.6 Las ondas luminosas como ondas electromagnéticas
o 1.7 La teoría cuántica
• 2 Teorías científicas
• 3 Espectro electromagnético
• 4 Véase también
• 5 Referencias

• 6 Enlaces externos

Desarrollo histórico [editar]


Reflexión y refracción [editar]

Reflexión de la luz en el agua.

En la Edad Antigua se conocía la propagación rectilínea de la luz y la reflexión y


refracción. Dos filósofos y matemáticos griegos escribieron tratados sobre óptica,
Empédocles y Euclides.

Ya en la Edad Moderna René Descartes consideraba la luz como una onda de presión
transmitida a través de un medio elástico perfecto (el éter) que llenaba el espacio.
Atribuyó los diferentes colores a movimientos rotatorios de diferentes velocidades de
las partículas en el medio.
La ley de la refracción fue descubierta experimentalmente en 1621 por Willebrord Snell.
En 1657 Pierre de Fermat enunció el principio del tiempo mínimo y a partir de él dedujo
la ley de la refracción.

Véase también: Ley de Snell

Interferencia y difracción [editar]

Interferencia (esquema simulado).

Robert Boyle y Robert Hooke descubrieron de forma independiente el fenómeno de la


interferencia conocido como anillos de Newton. Hooke también observó la presencia de
luz en la sombra geométrica, debido a la difracción, fenómeno que ya había sido
descubierto por Francesco Maria Grimaldi. Hooke pensaba que la luz consistía en
vibraciones propagadas instantáneamente a gran velocidad y creía que en un medio
homogéneo cada vibración generaba una esfera que crece de forma regular. Con estas
ideas, Hooke intentó explicar el fenómeno de la refracción e interpretar los colores. Sin
embargo, los estudios que aclararon las propiedades de los colores fueron desarrollados
por Newton que descubrió en 1666 que la luz blanca puede dividirse en sus colores
componentes mediante un prisma y encontró que cada color puro se caracteriza por una
refractabilidad específica. Las dificultades que la teoría ondulatoria se encontraba para
explicar la propagación rectilínea de la luz y la polarización (descubierta por Huygens)
llevaron a Newton a inclinarse por la teoría corpuscular, que supone que la luz se
propaga desde los cuerpos luminosos en forma de partículas.

Dispersión de la luz en dos prismas de distinto material.


En la época en que Newton publicó su teoría del color, no se conocía si la luz se
propagaba instantáneamente o no. El descubrimiento de la velocidad finita de la luz lo
realizó en 1675 Olaf Römer a partir de observaciones de los eclipses de Júpiter.

Primeras teorías y otros fenómenos [editar]

Por su parte, Hooke fue de los primeros defensores de la teoría ondulatoria que fue
extendida y mejorada por Christian Huygens que enunció el principio que lleva su
nombre, según el cual cada punto perturbado por una onda puede considerarse como el
centro de una nueva onda secundaria, la envolvente de estas ondas secundarias define el
frente de onda en un tiempo posterior. Con la ayuda de este principio, consiguió deducir
las leyes de la reflexión y refracción. También pudo interpretar la doble refracción del
espato de Islandia, fenómeno descubierto en 1669 por Erasmus Bartholinus, gracias a la
suposición de la transmisión de una onda secundaria elipsoidal, además de la principal
de forma esférica. Durante esta investigación Huygens descubrió la polarización. Cada
uno de los dos rayos emergentes de la refracción del espato de Islandia puede
extinguirse haciéndolo pasar por un segundo cristal del mismo material, rotado
alrededor de un eje con la misma dirección que el rayo luminoso. Fue sin embargo
Newton el que consiguió interpretar este fenómeno, suponiendo que los rayos tenían
“lados”, propiedad que le pareció una objeción insuperable para la teoría ondulatoria de
la luz, ya que en aquella época los científicos sólo estaban familiarizados con las ondas
longitudinales.

El prestigio de Newton, indujo el rechazo por parte de la comunidad científica de la


teoría ondulatoria, durante casi un siglo, con algunas excepciones, como la de Leonhard
Euler. No fue hasta el comienzo del Siglo XIX en que nuevos progresos llevaron a la
aceptación generalizada de la teoría ondulatoria. El primero de ellos fue la enunciación
por Thomas Young en 1801, del principio de interferencia y la explicación de los
colores de películas delgadas. Sin embargo, como fueron expresadas en términos
cualitativos no consiguieron reconocimiento generalizado. En esta misma época
Étienne-Louis Malus describió la polarización por reflexión, en 1808 observó la
reflexión del Sol desde una ventana a través de un cristal de espato de Islandia y
encontró que las dos imágenes birrefringentes variaban sus intensidades relativas al
rotar el cristal, aunque Malus no intentó interpretar el fenómeno.

Aportes de Fresnel [editar]

Augustin-Jean Fresnel ganó un premio instituido en 1818 por la academia de París por
la explicación de la difracción, basándose en la teoría ondulatoria, que fue la primera de
una serie de investigaciones que, en el curso de algunos años, terminaron por
desacreditar completamente la teoría corpuscular. Los principios básicos utilizados
fueron: el principio de Huygens y el de interferencia de Young, los cuales, según
demostró Fresnel, son suficientes para explicar, no sólo la propagación rectilínea, sino
las desviaciones de dicho comportamiento (como la difracción). Fresnel calculó la
difracción causada por rendijas, pequeñas aperturas y pantallas. Una confirmación
experimental de su teoría de la difracción fue la verificación realizada por François Jean
Dominique Arago de una predicción de Poisson a partir de las teorías de Fresnel, que es
la existencia de una mancha brillante en el centro de la sombra de un disco circular
pequeño.
En el mismo año (1818) Fresnel también investigó el problema de la influencia del
movimiento terrestre en la propagación de la luz. Básicamente el problema consistía en
determinar si existe alguna diferencia entre la luz de las estrellas y la de fuentes
terrestres. Arago encontró experimentalmente que (aparte de la aberración) no había
diferencia. Sobre la base de este descubrimiento Fresnel desarrolló su teoría de la
convección parcial del éter por interacción con la materia, sus resultados fueron
confirmados experimentalmente en 1851 por Armand Hypolite Louis Fizeau. Junto con
Arago, Fresnel investigó la interferencia de rayos polarizados y encontró en 1816 que
dos rayos polarizados perpendicularmente uno al otro, nunca interferían. Este hecho no
pudo ser reconciliado con la hipótesis de ondas longitudinales, que hasta entonces se
había dado por segura. Young explicó en 1817 el fenómeno con la suposición de ondas
transversales.

Fresnel intentó explicar la propagación de la luz como ondas en un material (éter) y


dado que en un fluido sólo son posibles las oscilaciones elásticas longitudinales,
concluyó que el éter debía comportarse como un sólido, pero como en aquella época la
teoría de ondas elásticas en sólidos no estaba desarrollada, Fresnel intentó deducir las
propiedades del éter de la observación experimental. Su punto de partida fueron las
leyes de propagación en cristales. En 1832, William Rowan Hamilton predijo a partir de
las teorías de Fresnel la denominada refracción cónica, confirmada posteriormente de
forma experimental por Humprey Lloyd.

Fue también Fresnel el que en 1821 dio la primera indicación de las causas de la
dispersión al considerar la estructura molecular de la materia, idea desarrollada
posteriormente por Cauchy.

Los modelos dinámicos de los mecanismos de las vibraciones del éter, llevaron a
Fresnel a deducir las leyes que ahora llevan su nombre y que gobiernan la intensidad y
polarización de los rayos luminosos producidos por la reflexión y refracción.

La teoría del éter [editar]

En 1850 Foucault, Fizeau y Breguet realizaron un experimento crucial para decidir entre
las teorías ondulatoria y corpuscular. El experimento fue propuesto inicialmente por
Arago y consiste en medir la velocidad de la luz en aire y agua. La teoría corpuscular
explica la refracción en términos de la atracción de los corpúsculos luminosos hacia el
medio más denso, lo que implica una velocidad mayor en el medio más denso. Por otra
parte, la teoría ondulatoria implica, de acuerdo con el principio de Huygens que en el
medio más denso la velocidad es menor.

En las décadas que siguieron, se desarrolló la teoría del éter. El primer paso fue la
formulación de una teoría de la elasticidad de los cuerpos sólidos desarrollada por
Claude Louis Marie Henri Navier que consideró que la materia consiste de un conjunto
de partículas ejerciendo entre ellas fuerzas a lo largo de las líneas que los unen.
Diferentes desarrollos aplicables a la Óptica fueron realizados por Siméon Denis
Poisson, George Green, James MacCullagh y Franz Neuman. Todas ellas encontraban
dificultades por intentar explicar el fenómeno óptico en términos mecánicos. Por
ejemplo, al incidir sobre un medio una onda transversal, se deberían producir ondas,
tanto longitudinales como transversales, pero, según los experimentos de Arago y
Fresnel, solo se producen del segundo tipo. Otra objeción a la hipótesis del éter es la
ausencia de resistencia al movimiento de los planetas.

Un primer paso para abandonar el concepto de éter elástico lo realizó MacCullagh, que
postuló un medio con propiedades diferentes a la de los cuerpos ordinarios. Las leyes de
propagación de ondas en este tipo de éter son similares a las ecuaciones
electromagnéticas de Maxwell.

A pesar de las dificultades, la teoría del éter elástico persistió y recibió aportaciones de
físicos del siglo XIX, entre ellos William Thomson (Lord Kelvin), Carl Neumann, John
William Strutt (Lord Rayleigh) y Gustav Kirchhoff.

Las ondas luminosas como ondas electromagnéticas [editar]

Mientras tanto, las investigaciones en electricidad y magnetismo se desarrollaban


culminando en los descubrimientos de Michael Faraday. James Clerk Maxwell
consiguió resumir todo el conocimiento previo en este campo en un sistema de
ecuaciones que establecían la posibilidad de ondas electromagnéticas con una velocidad
que podía calcularse a partir de los resultados de medidas eléctricas y magnéticas.
Cuando Rudolph Kohlrausch y Wilhelm Weber realizaron estas medidas, la velocidad
obtenida resultó coincidir con la velocidad de la luz. Esto llevó a Maxwell a especular
que las ondas luminosas eran electromagnéticas, lo que se verificó experimentalmente
en 1888 por Heinrich Hertz.

La teoría cuántica [editar]

Pero, incluso la teoría electromagnética de la luz es incapaz de explicar el proceso de


emisión y absorción. Las leyes que rigen estos últimos procesos comenzaron a
dilucidarse con Joseph von Fraunhofer que descubrió entre 1814-1817 líneas oscuras en
el espectro solar. La interpretación como líneas de absorción de las mismas se dio por
primera vez en 1861 sobre la base de los experimentos de Robert Wilhelm Bunsen y
Gustav Kirchhoff. La luz de espectro continuo del Sol, al pasar por los gases de la
atmósfera solar, pierde por absorción, justamente aquellas frecuencias que los gases que
la componen emiten. Este descubrimiento marca el inicio del análisis espectral que se
base en que cada elemento químico tiene un espectro de líneas característico. El estudio
de estos espectros no pertenece exclusivamente al campo de la Óptica ya que involucra
la mecánica de los propios átomos y las leyes de las líneas espectrales revelan
información, no tanto sobre la naturaleza de la luz como la estructura de las partículas
emisoras.

Finalmente la comunidad científica acabó aceptando que la mecánica clásica es


inadecuada para una descripción correcta de los sucesos que ocurren en el interior de los
átomos y debe ser reemplazada por la teoría cuántica. La aplicación de la misma
permitió a Niels Bohr explicar las leyes de las líneas espectrales de los gases. Así pues,
la mecánica cuántica ha influido decisivamente sobre el concepto científico de la
naturaleza de la luz. Fue Albert Einstein el que, basándose en los cuantos de Planck
retomó la teoría corpuscular de la luz en una nueva forma, asignándole realidad física de
dichos cuantos (fotones). De este modo pudo explicar algunos fenómenos que se habían
descubierto, relativos a la transformación de la luz en energía corpuscular que eran
inexplicables con la teoría ondulatoria. Así, en el efecto fotoeléctrico la energía
impartida a las partículas secundarias es independiente de la intensidad y es
proporcional a la frecuencia de la luz.

La teoría detallada de la interacción entre campo y materia requiere de los métodos de la


mecánica cuántica (cuantización del campo). En el caso de la radiación
electromagnética, Dirac fue el primero en realizarlo, fundando las bases de la óptica
cuántica.

La óptica a su vez ha influido decisivamente en otros frentes de la física, en particular la


rama de la óptica de cuerpos en movimiento participó en el desarrollo de la teoría de la
relatividad. El primer fenómeno observado en este campo fue la aberración de las
estrellas fijas, estudiado por James Bradley en 1728. El fenómeno aparece con la
observación de las estrellas en diferentes posiciones angulares, dependiendo del
movimiento de la Tierra respecto a la dirección del haz de luz. Bradley interpretó el
fenómeno como causado por la velocidad finita de la luz y pudo determinar su
velocidad de este modo. Otro fenómeno de la óptica de cuerpos en movimiento es la
convección de la luz por los cuerpos en movimiento, que Fresnel mostró se podía
entenderse como la participación de éter en el movimiento con sólo una fracción de la
velocidad del cuerpo en movimiento.

Fizeau demostró después esta convección experimentalmente con la ayuda de flujos de


agua. El efecto del movimiento de la fuente luminosa fue estudiado por Christian
Doppler, que formuló el principio de su mismo nombre. Hertz fue el primero en intentar
generalizar las leyes de Maxwell a objetos en movimiento. Su formulación, sin
embargo, entraba en conflicto con algunos experimentos. Otro investigador en este
campo fue Hendrik Antoon Lorentz que supuso el éter en estado de reposo absoluto
como portador del campo electromagnético y dedujo las propiedades de los cuerpos
materiales a partir de la interacción de partículas eléctricas elementales (los electrones).
Pudo deducir el coeficiente de convección de Fresnel a partir de su teoría, así como el
resto de fenómenos conocidos en 1895. Sin embargo con la mejora de la precisión en la
determinación de caminos ópticos, obtenida gracias al interferómetro de Albert
Abraham Michelson con el que se descubrió una anomalía: resultó imposible demostrar
la existencia de un corrimiento del éter requerida por la teoría del éter estacionario. Esta
anomalía fue resuelta por Albert Einstein en 1905 con su teoría especial de la
relatividad.

Teorías científicas [editar]


Desde el punto de vista físico, la luz es una onda electromagnética. Según el modelo
utilizado para la luz, se distingue entre las siguientes ramas, por orden creciente de
precisión (cada rama utiliza un modelo simplificado del empleado por la siguiente):

• La óptica geométrica: Trata a la luz como un conjunto de rayos que cumplen el


principio de Fermat. Se utiliza en el estudio de la transmisión de la luz por
medios homogéneos (lentes, espejos), la reflexión y la refracción.

• La óptica ondulatoria: Considera a la luz como una onda plana, teniendo en


cuenta su frecuencia y longitud de onda. Se utiliza para el estudio de difracción e
interferencia.
• La óptica electromagnética: Considera a la luz como una onda electromagnética,
explicando así la reflectancia y transmitancia, y los fenómenos de polarización y
anisotropía.

• La óptica cuántica u óptica física: Estudio cuántico de la interacción entre las


ondas electromagnéticas y la materia, en el que la dualidad onda-corpúsculo
desempeña un papel crucial.

Espectro electromagnético [editar]


Si bien la Óptica se inició como una rama de la física distinta del electromagnetismo en
la actualizada se sabe que la luz visible parte del espectro electromagnético, que no es
más que el conjunto de todas las frecuencias de vibración de la las ondas
electromagnéticas. Los colores visibles al ojo humano se agrupan en la parte del
espectro denominado visible.

La física atómica es un campo de la física que estudia las propiedades y el


comportamiento de los átomos (electrones y núcleos atómicos). Está claro que el
estudio de la física atómica incluye a los iones así como a los átomos neutrales y a
cualquier otra partícula que sea considerada parte de los átomos.

El término física atómica se asocia a menudo con el de energía nuclear y bombas


nucleares, debido en parte a la popularidad que tuvieron en los años 60 durante la guerra
fría, siendo además sinónimos las palabras atómico y nuclear en el inglés estándar. Sin
embargo, los físicos distinguen entre fisica atómica y la física nuclear, la primera trata
con todas las partes del átomo, mientras que la segunda lo hace sólo con el núcleo del
átomo.

Tabla de contenidos
[ocultar]

• 1 Historia
• 2 Bibliografía
• 3 Véase también

• 4 Referencias externas

Historia [editar]
Artículo principal: Teoría atómica

En los inicios su estudió se dedicó a las capas electrónicas exteriores de los átomos y a
los procesos que se deducián en cambios de esa capa. John Dalton (1766-1844),
generalmente reconocido como el fundador de la teoría atómica de la materia, pese a
que el atomismo tuvo continuados exponentes desde el tiempo de Demócrito. Dalton
dio a la teoría contenido científico sólido y la transformó así en la base de la física y de
la química. Los átomos de un elemento, dijo, son iguales pero el átomo de un elemento
difiere del átomo de otro. Creyó que los átomos eran indivisibles.

La física nuclear es una rama de la física que estudia las propiedades y el


comportamiento de los núcleos atómicos. La física nuclear es conocida
mayoritariamente por la sociedad en su papel en la energía nuclear en centrales
nucleares y en el desarrollo de armas nucleares, tanto de fisión como de fusión nuclear.
En un contexto más amplio, se define la física nuclear y física de partículas como la
rama de la física que estudia la estructura fundamental de la materia y las interacciones
entre las partículas subatómicas.

Tabla de contenidos
[ocultar]

• 1 Primeros experimentos
• 2 Reacciones nucleares
o 2.1 Colisión inelástica
o 2.2 Colisión elástica
o 2.3 Desintegración nuclear
o 2.4 Fisión
o 2.5 Fusión
• 3 Detección
o 3.1 Análisis radioquímico como apoyo a la detección
o 3.2 Análisis mediante activación neutrónica
• 4 Científicos relevantes en la física nuclear

• 5 Véase también

[editar] Primeros experimentos


La radiactividad fue descubierta en las sales de uranio por el físico francés Henri
Becquerel en 1896.

En 1898, los científicos franceses Marie y Pierre Curie descubrieron dos elementos
radiactivos existentes en la naturaleza, el polonio (84Po) y el radio (88Ra).

En 1913 Niels Bohr publica su modelo de átomo, consistente en un núcleo central


compuesto por partículas que concentran la práctica mayoría de la masa del átomo
(neutrones y protones), rodeado por varias capas de partículas cargadas casi sin masa
(electrones). Mientras que el tamaño del átomo resulta ser del orden del angstrom (10-10
m), el núcleo puede medirse en fermis (10-15 m), o sea, el núcleo es 100.000 veces
menor que el átomo.

Ernest Rutherford en el año 1918 definió la existencia de los núcleos de hidrógeno.


Rutherford sugirió que el núcleo de hidrógeno, cuyo número atómico se sabía que era 1,
debía ser una partícula fundamental. Se adoptó para esta nueva partícula el nombre de
protón sugerido en 1886 por Goldstein para definir ciertas partículas que aparecían en
los tubos catódicos.

Durante la década de 1930, Irène y Jean Frédéric Joliot-Curie obtuvieron los primeros
nucleidos radiactivos artificiales bombardeando boro (5B) y aluminio (13Al) con
partículas α para formar isótopos radiactivos de nitrógeno (7N) y fósforo (15P). Algunos
isótopos de estos elementos presentes en la naturaleza son estables. Los isótopos
inestables se encuentran en proporciones muy bajas.

En 1932 James Chadwick realizó una serie de experimentos con una radiactividad
especial que definió en términos de corpúsculos, o partículas que formaban esa
radiación. Esta nueva radiación no tenía carga eléctrica y poseía una masa casi idéntica
a la del protón. Inicialmente se postuló que fuera resultado de la unión de un protón y
un electrón formando una especie de dipolo eléctrico. Posteriores experimentos
descartaron esta idea llegando a la conclusión de que era una nueva partícula procedente
del núcleo a la que se llamó neutrones.

Los científicos alemanes Otto Hahn y Fritz Strassmann descubrieron la fisión nuclear en
1938. Cuando se irradia uranio con neutrones, algunos núcleos se dividen en dos
núcleos con números atómicos. La fisión libera una cantidad enorme de energía y se
utiliza en armas y reactores de fisión nuclear.

[editar] Reacciones nucleares


Véase también: Procesos nucleares

[editar] Colisión inelástica

La física nuclear incluye también el estudio de las reacciones nucleares: el uso de


proyectiles nucleares para convertir un tipo de núcleo en otro. Si, por ejemplo, se
bombardea el sodio con neutrones, parte de los núcleos estables Na capturan estos
neutrones para formar núcleos radiactivos ²Na:

Estas reacciones se estudian colocando muestras dentro de los reactores nucleares para
producir un flujo alto de neutrones (número elevado de neutrones por unidad de área).

Los núcleos también pueden reaccionar entre ellos pero, si están cargados
positivamente, se repelen entre sí con gran fuerza. Los núcleos proyectiles deben tener
una energía lo bastante alta como para superar la repulsión y reaccionar con los núcleos
blanco. Los núcleos de alta energía se obtienen en los ciclotrones, en los generadores de
Van de Graaff y en otros aceleradores de partículas.

Una reacción nuclear típica es la que se utilizó para producir artificialmente el elemento
siguiente al uranio (238U), que es el elemento más pesado existente en la naturaleza. El
neptunio (Np) se obtuvo bombardeando uranio con deuterones (núcleos del isótopo
hidrógeno pesado, 2H) según la reacción:

[editar] Colisión elástica

[editar] Desintegración nuclear

Véase también: Desintegración alfa, Desintegración beta, rayos gamma, y Partículas


elementales

Los núcleos atómicos consisten en protones, cargados positivamente y neutrones sin


carga. El número de protones de un núcleo es su número atómico, que define al
elemento químico. Todos los núcleos con 11 protones, por ejemplo, son núcleos de
átomos de sodio (Na). Un elemento puede tener varios isótopos, cuyos núcleos tienen
un número distinto de neutrones. Por ejemplo, el núcleo de sodio estable contiene 12
neutrones, mientras que los que contienen 13 neutrones son radiactivos. Esos isótopos
se anotan como y , donde el subíndice indica el número atómico, y el
superíndice representa el número total de nucleones, es decir, de neutrones y protones. A
cualquier especie de núcleo designada por un cierto número atómico y de neutrones se
le llama nucleido.
Los nucleidos radiactivos son inestables y sufren una transformación espontánea en
nucleidos de otros elementos, liberando energía en el proceso (véase Radiactividad).

Esas transformaciones incluyen la desintegración alfa, que supone la emisión de un


núcleo de helio ( ), y la desintegración beta (que puede ser β- o β+). En la
desintegración β- un neutrón se transforma en un protón con la emisión simultánea de un
electrón de alta energía y un antineutrino electrónico. En la desintegración β+ un protón
se convierte en un neutrón emitiendo un positrón.

Por ejemplo, el 24Na sufre una desintegración β- formando el elemento superior, el


magnesio:

La radiación gamma es radiación electromagnética de alta frecuencia (y por tanto


energía). Cuando se produce la desintegración α o β, el núcleo resultante permanece a
menudo en un estado excitado (de mayor energía), por lo que posteriormente se produce
la desexcitación emitiendo rayos gamma.

Al representar la desintegración de un nucleido radiactivo se debe determinar también el


periodo de semidesintegración del nucleido. El periodo de semidesintegración del
, es de 15 horas. Es importante determinar el tipo y energía de la radiación
emitida por el nucleido.

[editar] Fisión

Véase también: Fisión nuclear

Los conceptos de fisión y fusión nuclear difieren en las características de formación de


cada uno. De esta forma se encuentra que la fisión (utilizada en las bombas nucleares de
uranio, como las de la Segunda Guerra Mundial contra Japón) consiste en el
"bombardeo" de partículas subatómicas al uranio (o a cualquier elemento transuránico,
siempre y cuando sus características lo permitan), trayendo como consecuencia la fisión
(de allí su nombre) del átomo y con esto la de los demás átomos adyacentes al
bombardeado en reacción en cadena. Mientras que, la fusión es la unión bajo ciertas
condiciones (altas presiones, altas temperaturas, altas cargas, etc.) de dos o más átomos,
esta crea mucha más energía y se observa en la conocida bomba H (bomba de
hidrógeno).

[editar] Fusión

Véase también: Fusión nuclear

La fusión representa diversos problemas, ya que a nivel atómico las cargas de los
átomos se repelen entre sí impidiendo la unión de estos, por esto se recurre
generalmente a la utilización de isotópos ligeros, con menor carga eléctrica (como el
hidrógeno y sus isótopos deuterio y tritio). En ciertas condiciones, definidas por los
criterios de Lawson, se lograría la fusión de dichos átomos. Para ello primero se les
debe convertir al estado de plasma, ionizándolos, favoreciendo a la unión. Esto se
consigue mediante dos métodos básicos: el confinamiento magnéticoy el confinamiento
inercial. Existen varias posibilidades para producir la fusión a partir de los isótopos del
hidrógeno.

La energía de la fusión aun no se ha podido aprovechar con fines prácticos.

Representa algunas ventajas en relación a la fisión nuclear:

1. Produce menos residuos nucleares.


2. En los diseños actuales se necesita un aporte exterior de energía para que la
reacción en cadena se mantenga.
3. Produce más energía por reacción.

También posee desventajas:

1. La reacción más energética es deuterio+tritio, y el tritio es un elemento muy


escaso en la Tierra.
2. Las condiciones necesarias son tan extremas que solo se dan en el centro de las
estrellas, por lo que son muy difíciles de alcanzar y controlar.

Las técnicas conocidas de alcanzar las condiciones impuestas por los criterios de
Lawson son dos:

• El confinamiento magnético, principalmente en tokamaks como el ITER.


• El confinamiento inercial, mediante el uso de láseres o aceleradores de
partículas, como por ejemplo en el National Ignition Facility.

[editar] Detección
Véase también: Detector de partículas

[editar] Análisis radioquímico como apoyo a la detección

Las partículas alfa, que son emitidas normalmente por elementos con números atómicos
superiores a 83, tienen la energía discreta característica de los nucleidos emisores. Así,
los emisores α pueden ser identificados midiendo la energía de las partículas α. Las
muestras a medir deben ser muy delgadas porque estas partículas pierden rápidamente
energía al atravesar el material. Los rayos gamma también tienen la energía discreta
característica del nucleido que se desintegra, por lo que la energía de estos rayos
también puede usarse para identificar nucleidos. Puesto que los rayos gamma pueden
atravesar una cantidad considerable de material sin perder energía, la muestra no tiene
que ser delgada. Los espectros de energía de las partículas beta (y los positrones) no son
útiles para identificar nucleidos porque se extienden sobre todas las energías hasta un
máximo para cada emisor β.

[editar] Análisis mediante activación neutrónica


Con frecuencia, las técnicas de física nuclear se emplean para analizar materiales
rastreando elementos presentes en cantidades muy pequeñas. La técnica utilizada se
llama análisis de activación. Se irradia una muestra con proyectiles nucleares
(normalmente neutrones) para convertir nucleidos estables en nucleidos radiactivos, que
luego se miden con detectores de radiación nuclear. Por ejemplo, el sodio de una
muestra puede ser detectado irradiando la muestra con neutrones, y convirtiendo así
parte de los núcleos estables ®Na en núcleos radiactivos ²Na; a continuación se mide la
cantidad de estos últimos contando las partículas β y los rayos g emitidos.

El análisis de activación puede medir (sin separación química) cantidades tan pequeñas
como 1 nanogramo (10-9 g) de unos 35 elementos en materiales como el suelo, las
rocas, los meteoritos y las muestras lunares. También puede utilizarse para analizar
muestras biológicas, como la sangre y el tejido humano; sin embargo, en los materiales
biológicos se pueden observar pocos elementos sin separaciones químicas.

Otras aplicaciones importantes de la física nuclear son el desarrollo de métodos para


producir especies radiactivas utilizadas para la diagnosis y los tratamientos médicos.
También ha desarrollado los isótopos trazadores que se usan para estudiar el
comportamiento químico de los elementos, para medir el desgaste de los motores de
automóviles y en otros estudios que emplean cantidades mínimas de material.

Tiene una gran importancia política como salida marítima para los países de
la antigua Unión de Repúblicas Socialistas Soviéticas a través del Bósforo,
el mar de Mármara, los Dardanelos y el mar Negro, y para el acceso de
Europa y América al petróleo de Libia, Argelia y de la región del golfo
Pérsico a través del canal de Suez y los oleoductos terrestres.

Tiene una gran importancia política como salida marítima para los países de la
antigua Unión de Repúblicas Socialistas Soviéticas
El MAR MEDITERRÁNEO tiene una gran importancia política como salida marítima
para los países de la antigua Unión de Repúblicas Socialistas Soviéticas a través del
Bósforo, el mar de Mármara, los Dardanelos y el mar Negro, y para el acceso de Europa
y América al petróleo de Libia, Argelia y de la región del golfo Pérsico a través del
canal de Suez y los oleoductos terrestres.
Al mar Mediterráneo, del latín
medius- en medio y terra –tierra, se
abren tres continentes:Europa, Asia,
y Africa. Este mar intercontinental ha
desempeñado un papel trascendental
en el curso de la historia. No
obstante, los países que son
bañados por este mar, tanto por su
cultura como por su alimentación,
son distintos y es difícil encontrar un
punto en común o de hermandad
entre todos estos pueblos. La
religión, junto a los aspectos
climáticos y geológicos de cada país,
van a determinar los hábitos
alimenticios de cada uno de ellos.

Tan sólo algunos aspectos


alimentarios son comunes a toda la
cuenca mediterránea: el cultivo del
trigo, y a partir del mismo la
elaboración del pan, el aceite de
oliva, algunas legumbres, la
variedad de verduras y hortalizas,
la uva, y el vino, el pescado y cierto
tipo de ganadería básicamente
ovina por la influencia del mundo
árabe.

Es por todos conocida la importancia de la temática referida a los recursos


naturales y al problema ambiental. Esta toma de conciencia se debe a que el
deterioro del Medio Ambiente es un hecho irrefutable.
La humanidad necesita preservar sus
recursos naturales, de forma tal que las
necesidades de las presentes
generaciones sean satisfechas pero sin
poner en riesgo su existencia para
satisfacer las necesidades de las futuras.
Es decir, aprovechar los recursos de la
Tierra de manera sostenible y prudente.

El desarrollo sostenible armoniza el


concepto de protección del medio
ambiente, con el de progreso económico,
a través de la idea de eficiencia en el uso
de los recursos. El objeto es no Campaña de limpieza en el
comprometer la capacidad de las Cerro Aconcagua
generaciones futuras de satisfacer sus
necesidades y gozar de niveles de
confort y calidad de vida similares o
mayores a los de la generación presente.

Debemos adoptar estilos de vida y pautas de desarrollo que respeten y se


desenvuelvan dentro de los límites "tolerables" por el Medio Ambiente.

En 1991, Organizaciones Internacionales (The World Conservation Union,


Programa de las Naciones Unidas para el Medio Ambiente y World Wildlife
Fundation), dieron a conocer una nueva declaración sobre la emergencia
ambiental mundial, mediante un documento titulado "Cuidar la Tierra". Este
informe no sólo es un análisis, sino también un plan de acción de carácter
práctico sobre las políticas que se deben adoptar y las acciones que se deben
emprender para el cuidado y conservación de la naturaleza. Los nueve
principios centrales para guiar la acción humana hacia un futuro en el cual la
comunidad viva en equilibrio continuo con la tierra son:

1. Respetar y cuidar la comunidad de la vida.


2. Elevar la calidad de la vida humana.
3. Conservar la vitalidad y la diversidad de la Tierra.
4. Minimizar la tasa de agotamiento de los recursos no renovables.
5. Mantenerse dentro de la capacidad de carga de la Tierra.
6. Modificar las actitudes y prácticas personales.
7. Permitir que las comunidades se encarguen del cuidado de su
propio medio ambiente.
8. Proporcionar un marco adecuado para la integración del
desarrollo y la conservación.
9. Forjar una alianza mundial.

Pese al incremento del número de leyes nacionales e internacionales sobre el


ambiente y de las conferencias locales e internacionales que analizan todo tipo
de aspectos sobre la situación ambiental y el futuro de la humanidad, la
contaminación de la Tierra ha aumentado.
En concordancia con la toma de conciencia de la
humanidad sobre la necesidad de preservar los
recursos naturales y su hábitat, el Ejército
Argentino tiene asignada como una de las
misiones subsidiarias, la de "Contribuir a la
Preservación del Medio Ambiente", con la finalidad
de mejorar la calidad de vida de sus integrantes y
de apoyar a la comunidad mediante acciones
concretas de educación, prevención y ejecución de
tareas que tiendan a alcanzar este objetivo. La
Fuerza no solamente cuida el medio ambiente en
Lucha contra incendios
el desarrollo de sus actividades, sino que también
forestales
educa y difunde al resto de los actores sociales, la
importancia de su preservación.

El Derecho Internacional de los Conflictos Armados (DICA) señala la limitación


del derecho que tienen las partes en conflicto para elegir los medios o métodos
de combate. Entre los tratados que protegen al Medio Ambiente durante un
conflicto armado, se puede mencionar la Convención sobre la prohibición de
utilizar técnicas de modificación ambiental con fines militares u otros fines
hostiles (Convención ENMOD de ONU de Diciembre de 1976) y el Protocolo I
de 1977, adicional a los Convenios de Ginebra de 1949 que prohibe emplear
métodos o medios de hacer la guerra que hayan sido concebidos para causar o
que se prevea que puedan causar daños extensos, duraderos y graves al
Medio Ambiente Natural.

En 1992, en la 47° Sesión de la Asamblea


General de las Naciones Unidas se ratifica la
competencia de la Cruz Roja Internacional y la
Media Luna Roja en el ámbito de la protección
del Medio Ambiente, y en especial, durante
períodos de conflicto armado (Delito de Guerra).
Además se resuelve que las Fuerzas Armadas
incluyan en sus manuales medidas específicas
Trabajos de para la protección del Medio Ambiente.
descontaminación

En tal sentido, el Ejército Argentino preocupado por esta problemática posee un


cuerpo normativo específico, integrado por:

- Directiva del Jefe del Estado Mayor General del Ejército (JEMGE)
Nro 795/94 (Para la preservación del Medio Ambiente en
propiedades de la Fuerza).
- Directiva Técnica del JEMGE. Nro 803/95 (Para la preservación
del Medio Ambiente en propiedades de la Fuerza). Entre otros
aspectos establece el tratamiento de residuos peligrosos, basura,
líquidos cloacales, flora, fauna, fuentes alternativas de energía, etc.
- Directiva del JEMGE Nro 805/95 (Para la educación operacional
de cuadros y tropa - Cursillo de preservación del Medio Ambiente).
Esta directiva será reemplazada en noviembre de 2000,
incluyéndose en la misma un capítulo referido a la temática
ambiental.
- Directiva del JEMGE Nro 820/97 (Para la designación del Oficial
de Medio Ambiente, OMA, en todos los comandos, unidades y
organismos de la Fuerza).
- Directiva del SUBJEMGE Nro 674/98 (Bases para el planeamiento
y ejecución de apoyo a la comunidad en oportunidad de producirse
desastres naturales y otros tipos de siniestros). Esta directiva , entre
otros aspectos contempla: el plan nacional de manejo del fuego,
inundaciones, etc
- Directiva del JEMGE Nro 836/00 (Administración integrada de los
campos de instrucción). Esta directiva, revalorizando el concepto
que "Sin acceso a limpios recursos de tierra, aire o agua, no
podemos entrenar a nuestras tropas, y sin entrenamiento no
podemos defender a nuestra Nación", establece la administración
operacional y ambientalmente responsable de los campos de
instrucción.

Es necesario resaltar el cargo que el Ejército Argentino ha incorporado en sus


elementos componente, el del Oficial de Medio Ambiente, que bajo la
supervisión del Oficial de Operaciones, tiene la responsabilidad de entender en
todos los aspectos relativos al medio ambiente de la Unidad a la que pertenece
y asistir a los integrantes dependientes en la ejecución de aquellas actividades
relacionadas al mismo, tendientes a:
- Contribuir a preservar el Medio Ambiente en
el ámbito donde el elemento desarrolla las
actividades guarnicionales y operacionales, a
fin de mejorar la calidad de vida del personal
militar, sus familias y la comunidad.
- Desarrollar las actividades guarnicionales
con el mínimo impacto negativo
medioambiental y un máximo impacto
positivo, contribuyentes a los planes
regionales gubernamentales o los que
establezca la Fuerza.
- Inculcar y difundir en el personal del
elemento, el respeto a las leyes,
disposiciones y reglamentaciones
establecidas por la Fuerza, el Municipio, la
Provincia o la Nación, que al respecto se
encuentren vigentes.
- Confeccionar la Carta de Preservación del
Reconstrucción de Medio Ambiente del Elemento, que consiste
puente destruido en una evaluación de la incidencia de los
por inundaciones factores contaminantes de la atmósfera, el
suelo y el agua; cuáles son los efectos de la
degradación ambiental y cuáles son las
actividades a desarrollar dentro de la Unidad
para evitarlos.

Desde 1993, año en que el Ejército Argentino estableció los objetivos que la
Institución debía alcanzar y las políticas conducentes a los mismos para dar
cumplimiento a la misión de "contribuir a la preservación del Medio Ambiente",
se han ejecutado y se desarrollan una gran cantidad de acciones concretas
dentro de la Fuerza y en apoyo de la comunidad, en conjunto con Organismos
Gubernamentales y No Gubernamentales, entre otras:

- Campañas anuales de limpieza de parques provinciales y


nacionales, como la del Cerro Aconcagua.
- Limpieza de las áreas afectadas por incendios forestales y su
posterior reforestación, como en San Carlos de Bariloche.
- Implementación de planes de forestación de especies autóctonas
en diferentes puntos del país.
- Apoyo en la ejecución de las obras de saneamiento del Río
Reconquista.
- Actividades de difusión de la temática ambiental, mediante la
organización de seminarios, simposios y jornadas con la
participación de diversas instituciones y público en general, etc.

Por todo lo hecho hasta el presente, por el sistema de gestión ambiental que se
implementó, que es perfectible, por la actitud permanente de aprendizaje que
tienen los integrantes de la Institución para incrementar su eficiencia en la
ejecución de las acciones correspondientes, por el accionar junto a la
comunidad y en su apoyo, y por la actitud de todo el personal para enfrentar los
desafíos que noEl subsecretario de Estados Unidos para el Medio Ambiente, Daniel A. Reifsnyder,
aseguró en Guatemala que presentará a las autoridades centroamericanas una agenda de cinco puntos
para impulsar el apartado ambiental del tratado comercial entre su país y la región: leyes ambientales y
fortalecimiento institucional; biodiversidad y conservación; el mercado como método de preservación;
mayor cuidado por parte del sector privado; y obligaciones específicas del CAFTA-RD.

Reifsnyder estaba rodeado de instituciones de la sociedad civil guatemalteca, que llegaron a informarse y
discutir acerca del capítulo del Cafta-RD que se ocupa de la protección del medio ambiente y la necesidad
de cooperación ambiental existente entre los países centroamericanos y EE.UU.

Saúl Oliva, de comunicación del Ministerio de Ambiente y Recursos Naturales (Marn), admitió que, pese a
que hace ya un año que se firmó el Tratado de Libre Comercio, en este tiempo nada ha cambiado con
respecto a la protección de la naturaleza. “En general, ni siquiera se sabe que el Cafta obliga a defender
los recursos naturales: en Guatemala apenas se ha divulgado el capítulo 17”.

Oliva añadió que EE.UU. mandará ayuda y canjeará parte de la deuda de Guatemala por motivos
relacionados con la naturaleza, aunque no pudo precisar las cantidades.

Marta Pilón de Pacheco, directora de la Asociación de Organizaciones No Guberna-mentales de los


Recursos Natu-rales y del Medio Ambiente de Guatemala (Asorema), que agrupa 24 ONG, calificó este
apartado como muy beneficioso para los intereses de Guatemala. “El TLC incluye el delito ambiental la
posibilidad de demandar a quien está causando daños al medio ambiente”.

La sociedad civil puede escudriñar siempre sobre las actividades productivas y frustrar determinados
negocios si son perjudiciales para el entorno.

“Hay empresas que están violando la Ley. El capítulo 17 pondrá fin a eso, porque EE.UU. no va a importar
productos obtenidos en estas condiciones. Esperamos que favorezca, por ejemplo, la construcción de
plantas de tratamiento”, agregó.

Evelyn Saldaña, especialista en información de la Embajada de EE.UU., señaló que actos públicos, como
el de ayer o el que tendrá lugar mañana en Petén, buscan generar discusión sobre las necesidades s
impondrá el futuro relacionados con la problemática ambiental, se puede
afirmar que el Ejército Argentino cumple con la misión de "contribuir a la
preservación del medio ambiente".

También podría gustarte