Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FÍSICA
Introducción a las ciencias experimentales
1. Variables históricas y sociales en la construcción de la ciencia.
Los esfuerzos para sistematizar el conocimiento se remontan a los tiempos prehistóricos, como
atestiguan los dibujos que los pueblos del paleolítico pintaban en las paredes de las cuevas, los
datos numéricos grabados en hueso o piedra o los objetos fabricados por las civilizaciones del
neolítico. Los testimonios escritos más antiguos de investigaciones protocientíficas proceden de las
culturas mesopotámicas, y corresponden a listas de observaciones astronómicas, sustancias
químicas o síntomas de enfermedades —además de numerosas tablas matemáticas— inscritas en
caracteres cuneiformes sobre tablillas de arcilla. Otras tablillas que datan aproximadamente del
2000 a.C. demuestran que los babilonios conocían el teorema de Pitágoras, resolvían ecuaciones
cuadráticas y habían desarrollado un sistema sexagesimal de medidas (basado en el número 60) del
que se derivan las unidades modernas para tiempos y ángulos (véase Sistema numérico;
Numeración).
En el valle del Nilo se han descubierto papiros de un periodo cronológico próximo al de las culturas
mesopotámicas que contienen información sobre el tratamiento de heridas y enfermedades, la
distribución de pan y cerveza, y la forma de hallar el volumen de una parte de una pirámide.
Algunas de las unidades de longitud actuales proceden del sistema de medidas egipcio y el
calendario que empleamos es el resultado indirecto de observaciones astronómicas prehelénicas.
Los seres humanos nos hemos enfrentado siempre al reto, teórico y práctico a la vez, de aumentar
nuestros conocimientos y de transformar la realidad circundante y así hemos ido acumulando
saberes sobre el entorno en el que vivimos.
Este conjunto de conocimientos que las personas tenemos sobre el mundo, así como la actividad
humana destinada a conseguirlos, es lo que denominamos ciencia (deriva del latín "scire" que
significa: saber, conocer; su equivalente griego es "sophia", que significa el arte de saber ). No
obstante el título de ciencia no se puede aplicar a cualquier conocimiento, sino únicamente a los
saberes que han sido obtenidos mediante una metodología, el método científico, y cumplen
determinadas condiciones.
Y es que la ciencia no debe perseguir la ilusoria meta de que sus respuestas sean definitivas, ni
siquiera probables; antes bien, su avance se encamina hacia una finalidad infinita: la de descubrir
incesantemente problemas nuevos, más profundos, más generales, y justificar nuestras respuestas al
respecto. "La ciencia no pretende ser verdadera" - dirá Bunge (1969)- "ni por tanto final,
incorregible y cierta. Lo que afirma la ciencia es:
El conocimiento
Conocimiento empírico
Los conceptos empíricos son imprecisos e inciertos, se producen por ideas preconcebidas, tienden
a aceptar explicaciones metafísicas y son dogmáticos. Sin embargo, el conocimiento empírico sirve
de base al conocimiento científico, al extraerse con método de la realidad.
Conocimiento científico
Volviendo a los requisitos que debe cumplir un conocimiento para que pueda considerarse
conocimiento científico, Bunge exige que sea racional, sistemático, exacto, verificable y fiable. Por
su parte, Díaz y Heler apuntan las siguientes características:
- Explicativo. La ciencia formula teorías que dan lugar a leyes generales que explican
hechos particulares y predicen comportamientos. Son conocimientos útiles.
- Metódico. Los conocimientos científicos no se adquieran al azar, sino que son fruto de
rigurosos procedimientos (observación, reflexión, contrastación, experimentación, etc.).
Mediciones
Se consideran ciencias experimentales aquellas que por sus características y, particularmente por el
tipo de problemas de los que se ocupan, pueden someter sus afirmaciones o enunciados al juicio de
la experimentación. En un sentido científico la experimentación hace alusión a una observación
controlada; en otros términos, experimentar es reproducir en el laboratorio el fenómeno en estudio
con la posibilidad de variar a voluntad y de forma precisa las condiciones de observación.
MAGNITUDES Y MEDIDA
El gran físico inglés Kelvin consideraba que solamente puede aceptarse como satisfactorio nuestro
conocimiento si somos capaces de expresarlo mediante números. Aun cuando la afirmación de
Kelvin tomada al pie de la letra supondría la descalificación de valiosas formas de
conocimiento,destaca la importancia del conocimiento cuantitativo. La operación que permite
expresar una propiedad o atributo físico en forma numérica es precisamente la medida.
En el lenguaje de la física la noción de cantidad se refiere al valor que toma una magnitud dada en
un cuerpo o sistema concreto; la longitud de esta mesa, la masa de aquella moneda,el volumen de
ese lapicero, son ejemplos de cantidades. Una cantidad de referencia se denomina unidad y el
sistema físico que encarna la cantidad considerada como una unidad se denomina patrón.
La medida de una magnitud física supone, en último extremo, la comparación del objeto que
encarna dicha propiedad con otro de la misma naturaleza que se toma como referencia y que
constituye el patrón.
La medida de longitudes se efectuaba en la antigüedad empleando una vara como patrón, es decir,
determinando cuántas veces la longitud del objeto a medir contenía a la de patrón. La vara, como
predecesora del metro de sastre, ha pasado a la historia como una unidad de medida equivalente a
835,9 mm. Este tipo de comparación inmediata de objetos corresponde a las llamadas medidas
directas.
Con frecuencia, la comparación se efectúa entre atributos que, aun cuando están relacionados con lo
que se desea medir, son de diferente naturaleza. Tal es el caso de las medidas térmicas, en las que
comparando longitudes sobre la escala graduada de un termómetro se determinan temperaturas.
Esta otra clase de medidas se denominan indirectas.
Tipos de magnitudes
Entre las distintas propiedades medibles puede establecerse una clasificación básica. Un grupo
importante de ellas quedan perfectamente determinadas cuando se expresa su cantidad mediante un
número seguido de la unidad correspondiente. Este tipo de magnitudes reciben el nombre de
magnitudes escalares. La longitud, el volumen, la masa, la temperatura, la energía, son sólo algunos
ejemplos. Sin embargo, existen otras que precisan para su total definición que se especifique,
además de los elementos anteriores,una dirección o una recta de acción y un sentido: son las
llamadas magnitudes vectoriales o dirigidas. La fuerza es un ejemplo claro de magnitud vectorial,
pues sus efectos al actuar sobre un cuerpo dependerán no sólo de su cantidad,sino también de la
línea a lo largo de la cual se ejerza su acción.
Al igual que los números reales son utilizados para representar cantidades escalares, las cantidades
vectoriales requieren el empleo de otros elementos matemáticos diferentes de los números, con
mayor capacidad de descripción. Estos elementos matemáticos que pueden representar intensidad,
dirección y sentido se denominan vectores. Las magnitudes que se manejan en la vida diaria son,
por lo general, escalares. El dependiente de una tienda de ultramarinos, el comerciante o incluso el
contable, manejan masas,precios, volúmenes, etc., y por ello les es suficiente saber operar bien con
números. Sin embargo, el físico, y en la medida correspondiente el estudiante de física, al tener que
manejar magnitudes vectoriales, ha de operar, además, con vectores.
SISTEMAS DE UNIDADES
En las ciencias físicas tanto las leyes como las definiciones relacionan matemáticamente entre sí
grupos, por lo general amplios, de magnitudes. Por ello es posible seleccionar un conjunto reducido
pero completo de ellas de tal modo que cualquier otra magnitud pueda ser expresada en función de
dicho conjunto. Esas pocas magnitudes relacionadas se denominan magnitudes fundamentales,
mientras que el resto que pueden expresarse en función de las fundamentales reciben el nombre de
magnitudes derivadas.
Así, por ejemplo, la definición de amperio como unidad de intensidad de corriente ha evolucionado
sobre la base de este criterio. Debido a que las fuerzas se saben medir con bastante precisión y
facilidad, en la actualidad se define el amperio a partir de un fenómeno electromagnético en el que
aparecen fuerzas entre conductores cuya magnitud depende de la intensidad de corriente.
En esta línea de acción, la XI Conferencia General de Pesas y Medidas celebrada en París en 1960,
tomó la resolución de adoptar el llamado con anterioridad Sistema Práctico de Unidades, como
Sistema Internacional, que es, precisamente, como se le conoce a partir de entonces. El Sistema
Internacional de Unidades (abreviadamente SI) distingue y establece, además de las magnitudes
básicas y de las magnitudes derivadas, un tercer tipo formado por aquellas que aún no están
incluidas en ninguno de los dos anteriores, son denominadas magnitudes suplementarias.
Un día normal tiene 24 h aproximadamente, es decir 24 h.60 min = 1400 min y 1400 min.60 s = 86
400 s ; no obstante, esto tan sólo es aproximado, pues la duración del día varía a lo largo del año en
algunos segundos, de ahí que se tome como referencia la duración promediada del día solar. Pero
debido a que el periodo de rotación de la Tierra puede variar, y de hecho varía, se ha acudido al
átomo para buscar en él un periodo de tiempo fijo al cual referir la definición de su unidad
fundamental.
El sistema internacional
Unidades fundamentales
Unidad de Longitud: El metro (m) es la longitud recorrida por la luz en el vacío durante un
período de tiempo de 1/299 792 458 s.
Unidad de Masa: El kilogramo (kg) es la masa del prototipo internacional de platino iridiado que
se conserva en la Oficina de Pesas y Medidas de París.
Unidad de Tiempo: El segundo (s) es la duración de 9 192 631 770 períodos de la radiación
correspondiente a la transición entre dos niveles fundamentales del átomo Cesio 133.
Unidades derivadas
Ciertas unidades derivadas han recibido unos nombres y símbolos especiales. Estas unidades
pueden así mismo ser utilizadas en combinación con otras unidades base o derivadas para expresar
unidades de otras cantidades. Estos nombre y símbolos especiales son una forma de expresar
unidades de uso frecuente.
coulomb (C): Cantidad de electricidad transportada en un segundo por una corriente de un amperio.
joule (J): Trabajo producido por una fuerza de un newton cuando su punto de aplicación se desplaza
la distancia de un metro en la dirección de la fuerza.
newton (N): Es la fuerza que, aplicada a un cuerpo que tiene una masa de 1 kilogramo, le comunica
una aceleración de 1 metro por segundo, cada segundo.
pascal (Pa): Unidad de presión. Es la presión uniforme que,actuando sobre una superficie plana de
1 metro cuadrado, ejerce perpendicularmente a esta superficie una fuerza total de 1 newton.
watt (W): Potencia que da lugar a una producción de energía igual a 1 joule por segundo.
ohm (Ω): Unidad de resistencia eléctrica. Es la resistencia eléctrica que existe entre dos puntos de
un conductor cuando una diferencia de potencial constante de 1 volt aplicada entre estos dos puntos
produce, en dicho conductor, una corriente de intensidad 1 ampere, cuando no haya fuerza
electromotriz en el conductor.
weber (Wb): Unidad de flujo magnético, flujo de inducción magnética. Es el flujo magnético que,
al atravesar un circuito de una sola espira produce en la misma una fuerza electromotriz de 1 volt si
se anula dicho flujo en 1 segundo por decrecimiento uniforme.
EXPRESADAS EXPRESADAS
EN EN
TERMINOS TERMINOS
MAGNITUD DERIVADA NOMBRE SIMBOLO
DE OTRAS DE LAS
UNIDADES UNIDADES
DEL SI BASE DEL SI
ángulo plano radián rad m.m-1=1
ángulo sólido estereorradián sr m ².m-2=1
frecuencia hertz Hz s-1
fuerza newton N m.kg.s-2
presión, esfuerzo pascal Pa N/m ² m-1.kg.s-2
energía, trabajo, calor joule J N.m m ².kg.s-2
potencia, flujo de energía watt W J/s m ².kg.s-³
carga eléctrica, cantidad de
coulomb C s.A
electricidad
diferencia de potencial eléctrico,
volt V W/A m ².kg.s-³.A-1
fuerza electromotriz
capacitancia farad F C/V m-2.kg-1.s4.A ²
resistencia eléctrica ohm W V/A m ².kg.s-³.A-2
conductancia eléctrica siemens S A/V m-2.kg-1.s³.A ²
flujo magnético weber Wb V.s m ².kg.s-2.A-1
densidad de flujo magnético tesla T Wb/m ² kg.s-1.A-1
inductancia henry H Wb/A m ².kg.s-2.A-2
temperatura Celsius Celsius °C K
flujo luminoso lumen lm cd.sr m ².m ².cd=cd
m ².m-4.cd=m-
radiación luminosa lux lx lm/m ² 2
.cd
actividad (radiación ionizante) becquerel Bq s-1
dosis absorbida, energía específica
gray Gy J/kg m ².s-2
(transmitida)
dosis equivalente sievert Sv J/kg m ².s-2
Longitud
1 pica [computadora 1/6 in] = 4,233 333x10-³ m
1 año luz (1.y.) = 9,460 73x1015 m
1 fathom = 2 yd = 6 ft = 72 in = 1,828 8 m
1 Fermi = 1x10-15 m
1 minuto (min) = 60 s
1 biot (Bi) = 10 A
T/K=(T/°R)/ 1.8
T/°C=T/K - 273.15
Energía y trabajo
1 British thermal unit IT (Btu) = 1,055 056x10³ J
Cinemática
Movimiento, marco de referencia, posición, trayectoria, desplazamiento, velocidad, rapidez,
aceleración, representación e interpretación de datos en tablas, gráficos y ecuaciones.
Caída libre, puntos de vista de Aristóteles y de Galileo. Movimiento ondulatorio, velocidad
de propagación, relación longitud de onda y frecuencia. Sonido, fuente vibratoria.
Cinemática
La cinemática se ocupa de la descripción del movimiento sin tener en cuenta sus causas. La
velocidad (la tasa de variación de la posición) se define como la razón entre el espacio recorrido
(desde la posición x1 hasta la posición x2) y el tiempo transcurrido.
v = e/t (1)
siendo:
e: el espacio recorrido y
t: el tiempo transcurrido.
La ecuación (1) corresponde a un movimiento rectilíneo y uniforme, donde la velocidad permanece
constante en toda la trayectoria.
Aceleración
a = v/t
Existen varios tipos especiales de movimiento fáciles de describir. En primer lugar, aquél en el que
la velocidad es constante. En el caso más sencillo, la velocidad podría ser nula, y la posición no
cambiaría en el intervalo de tiempo considerado. Si la velocidad es constante, la velocidad media (o
promedio) es igual a la velocidad en cualquier instante determinado. Si el tiempo t se mide con un
reloj que se pone en marcha con t = 0, la distancia e recorrida a velocidad constante v será igual al
producto de la velocidad por el tiempo. En el movimiento rectilíneo uniforme la velocidad es
constante y la aceleración es nula.
v = e/t
v = constante
a=0
Otro tipo especial de movimiento es aquél en el que se mantiene constante la aceleración. Como la
velocidad varía, hay que definir la velocidad instantánea, que es la velocidad en un instante
determinado. En el caso de una aceleración a constante, considerando una velocidad inicial nula (v
= 0 en t = 0), la velocidad instantánea transcurrido el tiempo t será:
v = a.t
La distancia recorrida durante ese tiempo será
e = ½.a.t ²
Esta ecuación muestra una característica importante: la distancia depende del cuadrado del tiempo (t
²). En el movimiento uniformemente variado la velocidad varia y la aceleración es distinta de cero y
constante.
a ≠ 0 = constante
v = variable
1) Acelerado: a > 0
vf ² = vo ² + 2.a.Δx
2) Retardado: a < 0
vf ² = vo ² - 2.a.Δx
3) Caída libre: Un objeto pesado que cae libremente (sin influencia de la fricción del aire) cerca de
la superficie de la Tierra experimenta una aceleración constante. En este caso, la aceleración es
aproximadamente de 9,8 m/s ². Al final del primer segundo, una pelota habría caído 4,9 m y tendría
una velocidad de 9,8 m/s. Al final del siguiente segundo, la pelota habría caído 19,6 m y tendría una
velocidad de 19,6 m/s.
vo = 0
vf ² = 2.a.Δy
a=g
vo ≠ 0
vf ² = vo ² - 2.a.Δy
5) Tiro parabólico: Otro tipo de movimiento sencillo que se observa frecuentemente es el de una
pelota que se lanza al aire formando un ángulo con la horizontal. Debido a la gravedad, la pelota
experimenta una aceleración constante dirigida hacia abajo que primero reduce la velocidad vertical
hacia arriba que tenía al principio y después aumenta su velocidad hacia abajo mientras cae hacia el
suelo. Entretanto, la componente horizontal de la velocidad inicial permanece constante (si se
prescinde de la resistencia del aire), lo que hace que la pelota se desplace a velocidad constante en
dirección horizontal hasta que alcanza el suelo. Las componentes vertical y horizontal del
movimiento son independientes, y se pueden analizar por separado. La trayectoria de la pelota
resulta ser una parábola.
En eje x:
v = constante
a=0
En eje y:
a=g
vo ≠ 0
6) Tiro oblicuo: movimiento cuya velocidad inicial tiene componente en los eje x e y, en el eje y se
comporta como caída libre, mientras que en el eje x como M.R.U.
En eje x:
v = constante
a=0
En eje y:
a=g
vo = 0
El movimiento circular es otro tipo de movimiento sencillo. Si un objeto se mueve con celeridad
constante pero la aceleración forma siempre un ángulo recto con su velocidad, se desplazará en un
círculo. La aceleración está dirigida hacia el centro del círculo y se denomina aceleración normal o
centrípeta. En el caso de un objeto que se desplaza a velocidad v en un círculo de radio r, la
aceleración centrípeta es:
a = v ²/r.
1) Horizontal:
θ: ángulo desplazado
aN = R. ω ²
Sí v = constante aT = 0
2) Vertical: este movimiento no es uniforme ya que la velocidad del cuerpo aumenta cuando
desciende y disminuye cuando asciende. Para este modelo el cuerpo está sujeto por una cuerda,
entonces, las fuerzas que actúan son el peso del cuerpo y la tensión de la cuerda, que componen una
fuerza resultante.
FT = m.g.sen θ
FN = T - m.g.cos θ
T = m.(v ²/R + g)
T = m.(v ²/R - g)
En el punto mas alto la velocidad es crítica, por debajo de ésta la cuerda deja de estar tensa.
vc ² = R.g
3) Péndulo físico:
FT = m.g.sen θ
FN = T - m.g.cos θ
Amplitud:
s = R. θ
T = m.g.cos θ
θ=0
FT = 0
FN = T - P
τ = 2.π.√R/g
f = 1/ τ
DINAMICA
Dinámica y energía
Fuerza, efectos, medición, tipos, suma. Relación entre masa, fuerza y aceleración. Reposo.
Inercia. Leyes de Newton. Reposo. Gravitación, peso, modelos sobre movimiento de
los astros del sistema solar, representación gráfica fuerza contra distancia
Mareas, origen. Energía, relación fuerza y energía, energía cinética, energía potencial,
transformaciones de energía, conservación de la energía. Energéticos. Fuentes renovables
y no renovables
Estudia el movimiento de los objetos y de su respuesta a las fuerzas. Las descripciones del
movimiento comienzan con una definición cuidadosa de magnitudes como el desplazamiento, el
tiempo, la velocidad, la aceleración, la masa y la fuerza.
Isaac Newton demostró que la velocidad de los objetos que caen aumenta continuamente durante su
caída. Esta aceleración es la misma para objetos pesados o ligeros, siempre que no se tenga en
cuenta la resistencia del aire (rozamiento). Newton mejoró este análisis al definir la fuerza y la
masa, y relacionarlas con la aceleración.
Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de
Newton han sido sustituidas por la teoría de la relatividad de Albert Einstein. Para las partículas
atómicas y subatómicas, las leyes de Newton han sido sustituidas por la teoría cuántica. Pero para
los fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen siendo la piedra
angular de la dinámica (el estudio de las causas del cambio en el movimiento).
Las leyes del movimiento de Newton
Con la formulación de las tres leyes del movimiento, Isaac Newton estableció las bases de la
dinámica.
El que la fuerza ejercida sobre un objeto sea cero no significa necesariamente que su velocidad sea
cero. Si no está sometido a ninguna fuerza (incluido el rozamiento), un objeto en movimiento
seguirá desplazándose a velocidad constante.
Para que haya equilibrio, las componentes horizontales de las fuerzas que actúan sobre un objeto
deben cancelarse mutuamente, y lo mismo debe ocurrir con las componentes verticales. Esta
condición es necesaria para el equilibrio, pero no es suficiente. Por ejemplo, si una persona coloca
un libro de pie sobre una mesa y lo empuja igual de fuerte con una mano en un sentido y con la otra
en el sentido opuesto, el libro permanecerá en reposo si las manos están una frente a otra. (El
resultado total es que el libro se comprime). Pero si una mano está cerca de la parte superior del
libro y la otra mano cerca de la parte inferior, el libro caerá sobre la mesa. Para que haya equilibrio
también es necesario que la suma de los momentos en torno a cualquier eje sea cero. Los momentos
dextrógiros (a derechas) en torno a todo eje deben cancelarse con los momentos levógiros (a
izquierdas) en torno a ese eje. Puede demostrarse que si los momentos se cancelan para un eje
determinado, se cancelan para todos los ejes. Para calcular la fuerza total, hay que sumar las fuerzas
como vectores.
Σ Fx = 0
Σ Fy = 0
Σ MF = 0
Σ Fx = 0
Equilibrio de fuerzas Σ Fy = 0
Σ Fz = 0
Σ My = 0
Equilibrio de momentos Σ Mx = 0
Σ Mz = 0
Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la masa. Una
fuerza neta ejercida sobre un objeto lo acelerará, es decir, cambiará su velocidad. La aceleración
será proporcional a la magnitud de la fuerza total y tendrá la misma dirección y sentido que ésta. La
constante de proporcionalidad es la masa m del objeto. La masa es la medida de la cantidad de
sustancia de un cuerpo y es universal.
F = m.a
Se define por el efecto que produce la aceleración en la fuerza a la cual se aplica. Un newton se
define como la fuerza necesaria para suministrar a una masa de 1 kg una aceleración de 1 metro por
segundo cada segundo.
Un objeto con más masa requerirá una fuerza mayor para una aceleración dada que uno con menos
masa. Lo asombroso es que la masa, que mide la inercia de un objeto (su resistencia a cambiar la
velocidad), también mide la atracción gravitacional que ejerce sobre otros objetos. Resulta
sorprendente, y tiene consecuencias profundas, que la propiedad inercial y la propiedad
gravitacional estén determinadas por una misma cosa. Este fenómeno supone que es imposible
distinguir si un punto determinado está en un campo gravitatorio o en un sistema de referencia
acelerado. Albert Einstein hizo de esto una de las piedras angulares de su teoría general de la
relatividad, que es la teoría de la gravitación actualmente aceptada.
Se deduce que:
1 kgf = 9,81 N
P = m.g
Tercera ley de Newton (acción y reacción)
Cuando a un cuerpo se le aplica una fuerza (acción o reacción), este devuelve una fuerza de igual
magnitud, igual dirección y de sentido contrario (reacción o acción).
Por ejemplo, en una pista de patinaje sobre hielo, si un adulto empuja suavemente a un niño,no sólo
existe la fuerza que el adulto ejerce sobre el niño, sino que el niño ejerce una fuerza igual pero de
sentido opuesto sobre el adulto. Sin embargo, como la masa del adulto es mayor, su aceleración será
menor.
La tercera ley de Newton también implica la conservación del momento lineal, el producto de la
masa por la velocidad. En un sistema aislado, sobre el que no actúan fuerzas externas, el momento
debe ser constante. En el ejemplo del adulto y el niño en la pista de patinaje, sus velocidades
iniciales son cero, por lo que el momento inicial del sistema es cero. Durante la interacción operan
fuerzas internas entre el adulto y el niño, pero la suma de las fuerzas externas es cero. Por tanto, el
momento del sistema tiene que seguir siendo nulo. Después de que el adulto empuje al niño, el
producto de la masa grande y la velocidad pequeña del adulto debe ser igual al de la masa pequeña
y la velocidad grande del niño. Los momentos respectivos son iguales en magnitud pero de sentido
opuesto, por lo que su suma es cero.
Otra magnitud que se conserva es el momento angular o cinético. El momento angular de un objeto
en rotación depende de su velocidad angular, su masa y su distancia al eje. Cuando un patinador da
vueltas cada vez más rápido sobre el hielo, prácticamente sin rozamiento, el momento angular se
conserva a pesar de que la velocidad aumenta. Al principio del giro, el patinador tiene los brazos
extendidos. Parte de la masa del patinador tiene por tanto un radio de giro grande. Cuando el
patinador baja los brazos, reduciendo su distancia del eje de rotación, la velocidad angular debe
aumentar para mantener constante el momento angular.
Un libro colocado sobre una mesa es atraído hacia abajo por la atracción gravitacional de la Tierra y
es empujado hacia arriba por la repulsión molecular de la mesa. Como se ve se cumplen todas las
leyes de Newton.
Fg = G.m1.m2/r ²
La fuerza entre dos partículas de masas m1 y m2 y, que están separadas por una distancia r, es una
atracción que actúa a lo largo de la línea que une las partículas, en donde G es la constante universal
que tiene el mismo valor para todos los pares de partículas.
En 1798 Sir Henry Cavendish realizó la primera medición experimental de la constante G utilizando
para ello una balanza de torsión. El valor aceptado actualmente es:
G = 6,67.10-11 N.m²/kg²
Fuerza elástica:
Una fuerza puede deformar un resorte, como alargarlo o acortarlo. Cuanto mayor sea la fuerza,
mayor será la deformación del resorte (Δx), en muchos resortes, y dentro de un rango de fuerzas
limitado, es proporcional a la fuerza:
Fe = -k.Δx
Fuerza normal:
Fuerza normal al plano e igual pero de sentido contrario a la componente normal al plano, de la
fuerza peso.
N = cos α.m.g
Fuerza de rozamiento:
Fuerza aplicada y contraria al movimiento y que depende de la calidad de la superficie del cuerpo y
de la superficie sobre la cual se desliza.
Fr = μ.N
μ :Coeficiente de rozamiento.
Fuerza de rozamiento estática: fuerza mínima a vencer para poner en movimiento un cuerpo.
Fuerza de rozamiento cinética: fuerza retardadora que comienza junto con el movimiento de un
cuerpo.
Centro de gravedad
Contenido
Desarrollo.
Una fuerza constante genera trabajo cuando, aplicada a un cuerpo, lo desplaza a lo largo de una
determinada distancia.
Mientras se realiza trabajo sobre el cuerpo, se produce una transferencia de energía al mismo, por lo
que puede decirse que el trabajo es energía en movimiento. Por otra parte, si una fuerza constante
no produce movimiento, no se realiza trabajo. Por ejemplo, el sostener un libro con el brazo
extendido no implica trabajo alguno sobre el libro, independientemente del esfuerzo necesario. El
trabajo se expresa en Joules (J).
Cuando la fuerza tiene la dirección de movimiento.
L = F.d
L = F.cos α .d
Energía
La magnitud denominada energía enlaza todas las ramas de la física. En el ámbito de la física, debe
suministrarse energía para realizar trabajo. La energía se expresa en joules (J). Existen muchas
formas de energía: energía potencial eléctrica y magnética, energía cinética, energía acumulada en
resortes estirados, gases comprimidos o enlaces moleculares,energía térmica e incluso la propia
masa.
Energía cinética
Cuando una fuerza aumenta la velocidad de un cuerpo también se realiza trabajo, como ocurre por
ejemplo en la aceleración de un avión por el empuje de sus reactores. Cuando un cuerpo se desplaza
con movimiento variado desarrolla energía cinética.
Ec = ½.m.v ²
L = F.d
L = Ec
F.d = ½.m.v ²
El trabajo realizado por la fuerza resultante que actúa sobre una partícula es igual a la variación de
la energía cinética de dicha partícula.
Δ Ec = Ec2 - Ec1
L = Ec2 - Ec1
Energía potencial
Cuando se levanta un objeto desde el suelo hasta la superficie de una mesa, por ejemplo, se realiza
trabajo al tener que vencer la fuerza de la gravedad,dirigida hacia abajo; la energía comunicada al
cuerpo por este trabajo aumenta su energía potencial. Si se realiza trabajo para elevar un objeto a
una altura superior, se almacena energía en forma de energía potencial gravitatoria.
Ep = m.g.h
Δ Ep = Ep2 - Ep1
L = Ep2 - Ep1
En todas las transformaciones entre un tipo de energía y otro se conserva la energía total, y se
conoce como teorema de la energía mecánica (Δ E M). Por ejemplo, si se ejerce trabajo sobre una
pelota de goma para levantarla, se aumenta su energía potencial gravitatoria. Si se deja caer la
pelota, esta energía potencial gravitatoria se convierte en energía cinética. Cuando la pelota choca
contra el suelo, se deforma y se produce fricción entre las moléculas de su material. Esta fricción se
transforma en calor o energía térmica.
Fuerzas conservativas
Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1.
Una fuerza es conservativa si el trabajo efectuado por ella sobre una partícula que se mueve
en cualquier viaje de ida y vuelta es 0.
Δ EM = 0
L = Δ EM
Δ EM = Δ Ec + Δ Ep
L = Δ Ec + Δ E p
Fuerzas no conservativas
Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1.
Una fuerza es no conservativa si el trabajo efectuado por ella sobre una partícula que se
mueve en cualquier viaje de ida y vuelta es distinto de 0.
Δ EM ≠ 0
Δ EM = HO
L = Δ EM + HO
L = Δ Ec + Δ Ep + HO
Siendo: HO = Fr.d
Potencia
La potencia desarrollada por una fuerza aplicada a un cuerpo es el trabajo realizado por ésta durante
el tiempo de aplicación. La potencia se expresa en watt (W).
P= L/ t
P = F.d / t
v=d/t
P = F.v
También:
P = (Δ Ec + Δ Ep + HO)/t
P = (Δ Ec +Δ Ep)/t
Si no cambio su altura
P = (Δ Ec)/t
P: potencia
Caballo de vapor: Unidad tradicional para expresar la potencia mecánica, es decir, el trabajo
mecánico que puede realizar un motor por unidad de tiempo; suele abreviarse por CV. En el Sistema
Internacional de unidades, la unidad de potencia es el vatio; 1 caballo de vapor equivale a 736
vatios. Su valor original era, por definición, 75 kilográmetros por segundo.
TERMODINAMICA
Termodinámica y fluidos
Modelo cinético de partículas, relación con volumen, masa, densidad y estado físico.
Temperatura y calor. Presión y cambios de estado. Transformaciones de calor a otras
formas de energía. Principio de conservación de la energía. Presión y fuerza. Presión en
líquidos y gases. Principio de Pascal. Funcionamiento del submarino. Fenómenos
atmosféricos.
Sismos. Causas y consecuencias del efecto invernadero y del calentamiento global.
De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los
choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que
su velocidad permanezca constante, se producirá una disminución de su energía potencial sin que
aumente su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor. Así
el fósforo de las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los
metales, etc. Sí una bala de plomo se dispara contra una placa de acero, se puede alcanzar, en el
momento del choque, una temperatura superior a su punto de fusión. El calor debe, por
consiguiente, considerarse como una forma de energía, hipótesis que se ve corroborada por la
posibilidad de producir trabajo mecánico consumiendo calor, por ejemplo, en las maquinas de calor.
Otras formas de energía: eléctrica. La corriente eléctrica es uno de los numerosos fenómenos que
pueden producir trabajo mecánico o calor. La primera transformación se realiza en los motores y la
inversa de los generadores electromagnéticos de corriente (dínamos, alternadores). En todos los
conductores por los que pasan una corriente hay una producción de calor, conocida con el nombre
de efecto de joule; la transformación contraria directa, es decir de calor en electricidad, se observa
en las pilas termoeléctricas y basta calentar una de las dos soldaduras de dos metales diferentes que
forman parte de un circuito para que se engendre en el mismo una corriente. De ellos se deduce que
existe energía eléctrica y que el paso de una corriente es en realidad un transporte de energía a lo
largo de un circuito.
Un condensador cargado de corriente también energía eléctrica, puesto a descargarse es capaz de
producir una corriente, pero esta energía es potencial.
Química: Las reacciones químicas tienen lugar con absorción o desprendimiento de calor, según
los casos. La combustión, que es la combinación del oxígeno del cuerpo combustible o con los
elementos que lo integran, revelan que una muestra de carbón y oxigeno contiene energía química
potencial, que puede utilizarse al iniciar la combustión o la combinación de ambos cuerpos.
La energía química se emplea a si mismo en las pilas y acumuladores eléctricos, que la transforman
en energía eléctrica, y el fenómeno inverso se produce en la electrólisis, en particular al cargar los
acumuladores.
Radiante: La luz se produce de diversas formas, pero la más corriente de éstas consiste en calentar
cuerpos a una temperatura bastante elevada (lámpara de gas, Lámpara eléctrica de incandescencia).
La incandescencia es precisamente la transformación de energía calorífica en energía radiante.
En los fenómenos de luminiscencia, o emisión de luz en frío, interviene otra forma de energía que
es mecánica en el caso de la triboluminiscencia. La ruptura de ciertos cristales que se producen por
ejemplo al machacar azúcar provocan la aparición de luz. En la electroluminiscencia, la energía
eléctrica se transforma directamente en luz sin que pase por la forma calorífica intermedia. Así
acorde en los tubos de gas rarificado como el neón y los vapores de sodio y mercurio. En la
quimiluminiscencia, algunas reacciones químicas, como la oxidación lenta del fósforo blanco en
contacto del aire, provocan emisión de luz, sin calentamiento apreciable. La luz emitida por las
luciérnagas se debe a un fenómeno análogo, puesto que produce de las reacciones químicas que se
producen durante la digestión.
La energía radiante puede convertirse en cualquiera de las otras cuatro formas de energías que se
han considerado. Así, cuando una sustancia absorbe radiaciones, se calienta y este efecto calorífico
es particularmente intenso en el caso de las radiaciones infrarrojas. Por otra parte, los haces
luminosos dirigidos hacia los cuerpos ejercen en estos una fuerza de empuje que produce efectos
mecánicos y recibe el nombre de presión de radiación, fenómenos que explica la repulsión de la
cola de cometas por los rayos solares. La transformación de energía luminosa en energía eléctrica
tiene lugar en la fotoelectricidad al captárselos electrones que emiten algunos metales cuando recibe
la luz. Este fenómeno ha dado lugar a innumerables aplicaciones practicas, entre las cuales pueden
mencionarse el cine sonoro y la televisión.
Las modificaciones químicas sufridas por los cuerpos bajo la influencia de la luz son numerosas y
constituyen el objeto de la ciencia denominada fotoquímica, que estudia la transformación de la
energía luminosa en energía química. Las plantas realizan esta transformación gracias a la clorofila,
que absorbe las radiaciones solares, y la energía así almacenada se emplea para sintetizar los
alimentos hidrocarbonados.
Permítase que un sistema cambie de un estado inicial de equilibrio i, a un estado final de equilibrio
f, en un camino determinado, siendo Q el calor absorbido por el sistema y W el trabajo hecho por el
sistema. Después calculamos el valor de Q - W. A continuación cambiamos el sistema desde el
mismo estado i hasta el estado final f, pero en esta ocasión por un camino diferente. Lo hacemos
esto una y otra vez, usando diferentes caminos en cada caso. Encontramos que en todos los intentos
Q - W es la misma. Esto es, aunque Q y W separadamente dependen del camino tomado, Q - W no
depende, en lo absoluto, de cómo pasamos el sistema del estado i al estado f, sino solo de los
estados inicial y final (de equilibrio).
Del estudio de la mecánica recordará, que cuando un objeto se mueve de un punto inicial i a otro
final, f en un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las
posiciones de los puntos y no, en absoluto, de la trayectoria por la que el cuerpo se mueve. De esto
concluimos que hay una energía potencial, función de las coordenadas espaciales del cuerpo, cuyo
valor final menos su valor inicial, es igual al trabajo hecho al desplazar el cuerpo. Ahora, en la
termodinámica, encontramos experimentalmente, que cuando en un sistema ha cambiado su estado i
al f, la cantidad Q - W dependen solo de las coordenadas inicial y final y no, en absoluto, del
camino tomado entre estos puntos extremos. Concluimos que hay una función de las coordenadas
termodinámicas, cuyo valor final, menos su valor inicial es igual al cambio Q - W en el proceso. A
esta función le llamamos función de la energía interna.
Representemos la función de la energía interna por la letra U . Entonces la energía interna del
sistema en el estado f, Uf , es solo el cambio de energía interna del sistema, y esta cantidad tiene un
valor determinado independientemente de la forma en que el sistema pasa del estado i al estado f:
Tenemos entonces que:
Uf- Ui = ΔU = Q - W
Como sucede para la energía potencial, también para que la energía interna, lo que importa es su
cambio. Si se escoge un valor arbitrario para la energía interna en un sistema patrón de referencia,
su valor en cualquier otro estado puede recibir un valor determinado. Esta ecuación se conoce como
la primera ley de la termodinámica, al aplicarla debemos recordar que Q se considera positiva
cuando el calor entra al sistema y que W será positivo cuando el trabajo lo hace el sistema.
A la función interna U, se puede ver como muy abstracta en este momento. En realidad, la
termodinámica clásica no ofrece una explicación para ella, además que es una función de estado que
cambia en una forma predecible.
Por función del estado, queremos decir, que exactamente, que su valor depende solo del estado
físico del material: su constitución, presión, temperatura y volumen.
La primera ley de la termodinámica, se convierte entonces en un enunciado de la ley de la
conservación de la energía para los sistemas termodinámicos.
La energía total de un sistema de partículas (U), cambia en una cantidad exactamente igual a la
cantidad que se le agrega al sistema, menos la cantidad que se le quita.
Podrá parecer extraño que consideremos que Q sea positiva cuando el calor entra al sistema y que
W sea positivo cuando la energía sale del sistema como trabajo. Se llegó a esta convención, porque
fue el estudio de las máquinas térmicas lo que provocó inicialmente el estudio de la termodinámica.
Simplemente es una buena forma económica tratar de obtener el máximo trabajo con una maquina
de este tipo, y minimizar el calor que debe proporcionársele a un costo importante. Estas
naturalmente se convierten en cantidades de interés.
Si nuestro sistema sólo sufre un cambio infinitesimal en su estado, se absorbe nada más una
cantidad infinitesimal de calor dQ y se hace solo una cantidad infinitesimal de trabajo dW, de tal
manera que el cambio de energía interna dU también es infinitesimal. Aunque dW y dQ no son
diferencias verdaderas, podemos escribir la primera ley diferencial en la forma:
dU = dQ - dW.
La primera ley de la termodinámica se aplica a todo proceso de la naturaleza que parte de un estado
de equilibrio y termina en otro. Decimos que si un sistema esta en estado de equilibrio cuando
podemos describirlo por medio de un grupo apropiado de parámetros constantes del sistema como
presión , el volumen, temperatura, campo magnético y otros la primera ley sigue verificándose si los
estados por los que pasa el sistema de un estado inicial (equilibrio), a su estado final (equilibrio), no
son ellos mismos estados de equilibrio. Por ejemplo podemos aplicar la ley de la termodinámica a la
explosión de un cohete en un tambor de acero cerrado.
Hay algunas preguntas importantes que no puede decir la primera ley. Por ejemplo, aunque nos dice
que la energía se conserva en todos los procesos, no nos dice si un proceso en particular puede
ocurrir realmente. Esta información nos la da una generalización enteramente diferente, llamada
segunda ley de la termodinámica, y gran parte de los temas de la termodinámica dependen de la
segunda ley.
Las primeras máquinas térmicas construidas, fueron dispositivos muy ineficientes. Solo una
pequeña fracción del calor absorbido de la fuente de la alta temperatura se podía convertir en
trabajo útil. Aun al progresar los diseños de la ingeniería, una fracción apreciable del calor
absorbido se sigue descargando en el escape de una máquina a baja temperatura, sin que pueda
convertirse en energía mecánica. Sigue siendo una esperanza diseñar una maquina que pueda tomar
calor de un depósito abundante, como el océano y convertirlo íntegramente en un trabajo útil.
Entonces no seria necesario contar con una fuente de calor una temperatura más alta que el medio
ambiente quemando combustibles. De la misma manera, podría esperarse, que se diseñara un
refrigerador que simplemente transporte calor, desde un cuerpo frío a un cuerpo caliente, sin que
tenga que gastarse trabajo exterior. Ninguna de estas aspiraciones ambiciosas violan la primera ley
de la termodinámica. La máquina térmica sólo podría convertir energía calorífica completamente en
energía mecánica, conservándose la energía total del proceso. En el refrigerador simplemente se
transmitiría la energía calorífica de un cuerpo frío a un cuerpo caliente, sin que se perdiera la
energía en el proceso. Nunca se ha logrado ninguna de estas aspiraciones y hay razones para que se
crea que nunca se alcanzarán.
Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes:
es completamente imposible realizar una transformación cuyo único resultado final sea el de
cambiar en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. Este
enunciado elimina nuestras ambiciones de la máquina térmica, ya que implica que no podemos
producir trabajo mecánico sacando calor de un solo depósito, sin devolver ninguna cantidad de
calor a un depósito que esté a una temperatura más baja.
Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si cualquiera
de los enunciados es falso, el otro también debe serlo. Supóngase que es falso el enunciado de
Clausius, de tal manera que se pudieran tener un refrigerador que opere sin que se consuma el
trabajo. Podemos usar una máquina ordinaria para extraer calor de un cuerpo caliente, con el objeto
de hacer trabajo y devolver parte del calor a un cuerpo frío.
Pero conectando nuestro refrigerador "perfecto" al sistema, este calor se regresaría al cuerpo
caliente, sin gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina térmica.
De aquí que la combinación de una maquina ordinaria y el refrigerador "perfecto" formará una
máquina térmica que infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento. Si
el enunciado Kelvin-Planck fuera incorrecto, podríamos tener una máquina térmica que
sencillamente tome calor de una fuente y lo convierta por completo en trabajo. Conectando esta
máquina térmica "perfecta" a un refrigerador ordinario, podemos extraer calor de un cuerpo
ordinario, podemos extraer calor de un cuerpo caliente, convertirlo completamente en trabajo, usar
este trabajo para mover un refrigerador ordinario, extraer calor de un cuerpo frío, y entregarlo con el
trabajo convertido en calor por el refrigerador, al cuerpo caliente. El resultado neto es una
transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo, lo infringe el
enunciado de Clausius.
La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de
Clausius específicamente elimina una inversión simple del proceso de transmisión de calor de un
cuerpo caliente, a un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos,
sino que tampoco ninguna combinación de procesos pueden anular el efecto de un proceso
irreversible, sin provocar otro cambio correspondiente en otra parte.
la entropía de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto.
La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías
absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para
determinar la dirección de las reacciones químicas.
Una interpretación estadística de la tercera ley es más bien sencilla, puesto que la entropía se ha
definido como:
S = k.ln Ω
Ω 1 cuando T 0.
Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una
sustancia que obedezca la tercera ley.
Hay varios casos referidos en la literatura en donde los cálculos basados en la tercera ley no están
desacuerdo con los experimentos. Sin embargo, en todos los casos es posible explicar el desacuerdo
sobre la base de que la sustancia no es "pura", esto es, pueda haber dos o más isótopos o presentarse
moléculas diferentes o, también, una distribución de no equilibrio de las moléculas. En tales casos
hay más de un estado cuántico en el cero absoluto y la entropía no tiende a cero.
Entropía
La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y
debemos estar preparados para calcular el cambio en la entropía de procesos irreversibles,
conociendo sólo los estados de principio y al fin. Consideraremos dos ejemplos:
1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente
vacío, puesto que no se efectúa reacción alguna contra el vacío, W = 0 y, como el gas se encuentra
encerrado entre paredes no conductoras, Q = 0. por la primera ley se entiende que ΔU = 0 o:
Ui = Uf
donde i y f se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal, U depende
únicamente de la temperatura y no de la presión o el volumen, y la ecuación Ui = Uf implica que Ti
= Tf.
En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que
abrimos la llave. Hay sin envargo, una diferencia de entropía Sf - Si, entre los estados de equilibrio
inicial y final, pero no podemos calcularla con la ecuación , por que esta
relación se aplica únicamente a trayectorias reversibles; si tratamos de usar la ecuación, tendremos
inmediatamente la facultad de que Q = 0 para la dilatación libre - además - no sabremos como dar
valores significativos de T en los estados intermedios que no son de equilibrio.
Entonces, ¿Cómo calcularemos Sf- Si para estos estados?, lo haremos determinando una trayectoria
reversible (cualquier trayectoria reversible) que conecte los estados i y f, para así calcular el cambio
de entropía de la trayectoria. En la dilatación libre, un trayecto reversible conveniente (suponiendo
que se trate de un gas ideal) es una dilatación isotérmica de VI a Vf (= 2 Vi). Esto corresponde a la
dilatación isotérmica que se lleva a cabo entre los puntos a y b del ciclo del Carnot.
Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común la
única condición de que conectan el mismo grupo de estados de equilibrio, i y f. De la ecuación
y el ejemplo 1 tenemos.
Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático
irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí
mismo una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la
que el gas que en un recipiente aislado se comprima en forma espontánea de tal manera que ocupe
solo la mitad del volumen que tiene disponible libremente. Toda nuestra experiencia nos dice que el
primer proceso es inevitable y virtualmente, no se puede concebir el segundo.
2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son
semejantes en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura
TC, donde TH> TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no
conductoras, eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la
dilatación libre, el proceso es irreversible, por que perdemos el control del medio ambiente, una vez
que colocamos los dos cuerpos en la caja. Como la dilatación libre, este proceso también es
adiabático (irreversible), por que no entra o sale calor en el sistema durante el proceso.
Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos
encontrar un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio
Aquí T2 es una temperatura adecuada, escogida para que quede entre T cy Tm y Q es el calor
agregado. El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente.
Los dos cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el
estado de equilibrio final. El cambio de entropía para el sistema completo es:
Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema
aumenta en este proceso reversible y adiabático.
Nótese que, como la dilatación libre, nuestro ejemplo de la conducción del calor es un proceso que
en la naturaleza se desarrolla por sí mismo una vez que se ha iniciado. En realidad no podemos
concebir el proceso opuesto, en el cual, por ejemplo, una varilla de metal en equilibrio térmico a la
temperatura del cuarto espontáneamente se ajuste de tal manera, que un extremo quede más caliente
y en el otro más frío. De nuevo, la naturaleza tiene la preferencia irresistible para que el proceso se
efectúe en una dirección determinada y no en la opuesta.
En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible)
(dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se
pudiera calcular el cambio de entropía en el proceso real.
Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final
que el proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque
ella depende sólo los estados inicial y final y no de los procesos que los conectan, tanto si son
reversibles como si son irreversibles.
Calor y Temperatura
Lo que se percibe con más precisión es la temperatura del objeto o, más exactamente todavía, la
diferencia entre la temperatura del mismo y la de la mano que la toca. Ahora bien, aunque la
sensación experimentada sea tanto más intensa cuanto más elevada sea la temperatura, se trata sólo
una apreciación muy poco exacta que no puede considerarse como medida de temperatura. Para
efectuar esta ultima se utilizan otras propiedades del calor, como la dilatación, cuyos efectos son
susceptibles.
Con muy pocas excepciones todos los cuerpos aumentan de volumen al calentarse y disminuyen
cuando se enfrían. En caso de los sólidos, el volumen suele incrementarse en todas las direcciones
se puede observar este fenómeno en una de ellas con experiencia del pirómetro del cuadrante.
El, pirómetro del cuadrante consta de una barra metálica apoyada en dos soportes, uno de los cuales
se fija con un tornillo, mientras que el otro puede deslizarse y empujar una palanca acodada
terminada por una aguja que recorre un cuadrante o escala cuadrada. Cuando, mediante un mechero,
se calienta fuertemente la barra, está se dilata y el valor del alargamiento, ampliado por la palanca,
aparece en el cuadrante.
Otro experimento igualmente característico es el llamado del anillo de Gravesande. Este aparato se
compone de un soporte del que cuelga una esfera metálica cuyo diámetro es ligeramente inferior al
de un anillo el mismo metal por el cual puede pasar cuando las dos piezas están a l a misma
temperatura. Si se calienta la esfera dejando el anillo a la temperatura ordinaria, aquella se dilata y
no pasa por el anillo; en cambio puede volver a hacerlo una vez enfriada o en el caso en que se
hayan calentando simultáneamente y a la misma temperatura la esfera y el anillo.
La dilatación es, por consiguiente, una primera propiedad térmica de los cuerpos, que permite llegar
a la noción de la temperatura.
La segunda magnitud fundamental es la cantidad de calor que se supone reciben o ceden los
cuerpos al calentarse o al enfriarse, respectivamente.
La cantidad de calor que hay que proporcionar a un cuerpo para que su temperatura aumente en un
numero de unidades determinado es tanto mayor cuanto más elevada es la masa de dicho cuerpo y
es proporcional a lo que se denomina calor especifico de la sustancia de que está constituido.
Cuando se calienta un cuerpo en uno de sus puntos, el calor se propaga a los que son próximos y la
diferencia de temperatura entre el punto calentado directamente y otro situado a cierta distancia es
tanto menor cuando mejor conducto del calor es dicho cuerpo. Si la conductibilidad térmica de un
cuerpo es pequeña, la transmisión del calor se manifiesta por un descenso rápido de la temperatura
entre el punto calentado y otro próximo. Así sucede con el vidrio, la porcelana, el caucho, etc. En el
caso contrario, por ejemplo con metales como el cobre y la plata, la conductibilidad térmica es muy
grande y la disminución de temperatura entre un punto calentado y el otro próximo es muy
reducida.
Se desprende de lo anterior que el estudio del calor sólo puede hacerse después de haber definido de
una manera exacta los dos términos relativos al propio calor, es decir, la temperatura, que se expresa
en grados, y la cantidad de calor, que se expresa en calorías.
Habrá que definir después algunas propiedades específicas de los cuerpos en su manera de
comportarse con respecto al calor y la conductibilidad térmica.
Las dos escalas de temperatura de uso común son la Celsius (llamada anteriormente "centígrada") y
la Fahrenheit. Estas se encuentran definidas en términos de la escala Kelvin, que es las escala
fundamental de temperatura en la ciencia.
La escala Celsius de temperatura usa la unidad "grado Celsius" (símbolo °C), igual a la unidad
"Kelvin". Por esto, los intervalos de temperatura tienen el mismo valor numérico en las escalas
Celsius y Kelvin. La definición original de la escala Celsius se ha sustituido por otra que es más
conveniente. Sí hacemos que Tc represente la escala de temperatura, entonces:
Tc = T - 273.15°
relaciona la temperatura Celsius Tc(°C) y la temperatura Kelvin T(K). Vemos que el punto triple del
agua (= 273.16 K por definición), corresponde a 0.01°C. La escala Celsius se definió de tal manera
que la temperatura a la que el hielo y el aire saturado con agua se encuentran en equilibrio a la
presión atmosférica - el llamado punto de hielo - es 0.00 °C y la temperatura a la que el vapor y el
agua liquida, están en equilibrio a 1 atm de presión -el llamado punto del vapor- es de 100.00 °C.
La escala Fahrenheit, todavía se usa en algunos países que emplean el idioma ingles aunque
usualmente no se usa en el trabajo científico. Se define que la relación entre las escalas Fahrenheit y
Celsius es:
TF = 32 + 9.TC/5.
De esta relación podemos concluir que el punto del hielo (0.00°C) es igual a 32.0 °F, y que el punto
del vapor (100.0°C) es igual a 212.0 °F, y que un grado Fahrenheit es exactamente igual 5/9 del
tamaño de un grado Celsius.
No existe una computadora electrónica que pueda resolver el problema de aplicar las leyes de la
mecánica individualmente a todos los átomos que se encuentran en una botella de oxigeno, por
ejemplo. Aun si el problema pudiera resolverse, los resultados de estos cálculos serian demasiados
voluminosos para ser útiles.
Afortunadamente, no son importantes las historias individuales detalladas de los átomos que hay en
un gas, si sólo se trata de determinar el comportamiento microscópico del gas. Así, aplicamos las
leyes de la mecánica estadísticamente con lo que nos damos cuenta de que podemos expresar todas
las variables termodinámica como promedios adecuados de las propiedades atómicas. Por ejemplo,
la presión ejercida por un gas sobre las paredes de un recipiente es la rapidez media, por unidad de
área, a la que los átomos de gas transmiten ímpetu a la pared, mientras chocan con ella. En realidad
el numero de átomos en un sistema microscópico, casi siempre es tan grande, que estos promedios
definen perfectamente las cantidades.
Podemos aplicar las leyes de la mecánica estadísticamente a grupos de átomos en dos niveles
diferentes. Al nivel llamado teoría cinética, en el que procederemos en una forma más física,
usando para promediar técnicas matemáticas bastantes simples.
En otro nivel, podemos aplicar las leyes de la mecánica usando técnicas que son más formales y
abstractas que las de la teoría cinética. Este enfoque desarrollado por Josiah Willard Gibbs (1839-
1903) y por Ludwig Boltzmann (1844-1906)entre otros, se llama mecánica estadística, un termino
que incluye a la teoría cinética como una de sus ramas. Usando estos métodos podemos derivar las
leyes de la termodinámica, estableciendo a esta ciencia como una rama de la mecánica. El
florecimiento pleno de la mecánica estadística (estadística cuántica), que comprende la aplicación
estadística de las leyes de la mecánica cuántica, más que las de la mecánica clásica para sistemas de
muchos átomos.
Hagamos que cierta cantidad de gas esté confinada en un recipiente del volumen V. Es claro que
podemos reducir su densidad, retirando algo de gas en el recipiente, o colocando el gas en un
recipiente más grande. Encontramos experimentalmente que a densidades lo bastante pequeñas,
todos los gases tienden a mostrar ciertas relaciones simples entre las variables termodinámicas p, Vy
T. Esto sugiere el concepto de un gas ideal, uno que tendrá el mismo comportamiento simple, bajo
todas las condiciones de temperatura y presión.
Dado cualquier gas en un estado de equilibrio térmico, podemos medir su presión p, su temperatura
T y su volumen V. Para valores suficientes pequeños la densidad, los experimentos demuestran que
(1) para una masa dada de gas que se mantiene a temperatura constante, la presión es inversamente
proporcional al volumen (ley de Boyle), y (2) para una masa dada de gas que se mantiene a presión
constante, el volumen es directamente proporcional a la temperatura (ley de Charles y Gay Lussac).
Podemos resumir estos resultados experimentales por medio de la relación:
El volumen ocupado por un gas a una presión y temperaturas dadas, es proporcional a la masa del
gas. Así, la constante de la ecuación p.V/T = una constante, también debe ser proporcional a la masa
del gas, por ello escribimos la constante de la ecuación p.V/T =una constante; como nR, donde n es
el numero de moles de gas en la muestra y R es una constante que debe determinarse en forma
experimental para cada gas. Los experimentos demuestran que, a densidades suficientes pequeñas,
R tiene el mismo valor para todos los gases, a saber,
R se llama la constante universal de los gases. Con esto escribimos la ecuación p.V/T = una
constante, en la forma:
p.V = n.R.T,
y definimos a un gas ideal, como aquel que obedece esta relación bajo todas las condiciones. No
existe algo que sea en verdad un gas ideal, pero sigue siendo concepto muy útil y sencillo,
relacionado realmente, con el hecho que todos los gases reales se aproximan a la abstracción de los
gases ideales en su comportamiento, siempre que la densidad sea suficientemente pequeña. p.V =
n.R.T se llama ecuación de estado de un gas ideal.
Si pudiéramos llenar al bulbo de un termómetro de gas (ideal) a volumen constante, un gas ideal, de
veríamos, de acuerdo con la ecuación p.V = n.R.T, que podemos definir la temperatura en términos
de sus lecturas de presión; esto es: T = (P/P tr).273, 16 k (gas ideal).
Aquí P tr es la presión del gas en el punto triple del agua, en el que la temperatura P tr es por
definición 273.16 K. En la practica, debemos llenar nuestro termómetro con un gas real y medir la
temperatura extrapolando a la densidad cero, usando la ecuación:
Desde el punto de vista microscópico, definimos a un gas ideal haciendo las siguientes
suposiciones, con lo que nuestra tarea será la de aplicar las leyes de la mecánica clásica,
estadísticamente, a los átomos del gas y demostrar que nuestra definición microscópica es
consecuente con la definición macroscópica de la sección procedente:
1.- Un gas esta formado por partículas llamadas moléculas. Dependiendo del gas, cada molécula
esta formada por un átomo o un grupo de átomos. Si el gas es un elemento o un compuesto en su
estado estable, consideramos que todas sus moléculas son idénticas.
2.- Las moléculas se encuentran animadas de movimiento aleatorio y obedecen las leyes de
Newton del movimiento. Las moléculas se mueven en todas direcciones y a velocidades diferentes.
Al calcular las propiedades del movimiento suponemos que la mecánica newtoniana se puede
aplicar en el nivel microscópico. Como para todas nuestras suposiciones, esta mantendrá o
desechara, dependiendo de si los hechos experimentales indican o no que nuestras predicciones son
correctas.
4.- El volumen de las moléculas es una fracción despreciablemente pequeña del volumen
ocupado por el gas. Aunque hay muchas moléculas, son extremadamente pequeñas. Sabemos que
el volumen ocupado por una gas se puede cambiar en un margen muy amplio, con poca dificultad y
que, cuando un gas se condensa, el volumen ocupado por el líquido puede ser miles de veces menor
que la del gas se condensa, el volumen ocupado por el líquido puede ser miles de veces menor que
el del gas. De aquí que nuestra suposición es posible.
5.- No actúan fuerzas apreciables sobre las moléculas, excepto durante los choques. En el grado
de que esto sea cierto, una molécula se moverá con velocidad uniforme entre los choques. Como
hemos supuesto que las moléculas son tan pequeñas, la distancia media entre ellas es grande en
comparación con el tamaño de una de las moléculas. De aquí que suponemos que el alcance de las
fuerzas moleculares es comparable al tamaño molecular.
6.- Los choques son elásticos y de duración despreciable. En las choques entre las moléculas con
las paredes del recipiente se conserva el ímpetu y (suponemos)la energía cinética. Debido a que el
tiempo de choque es despreciable comparado con el tiempo que transcurre entre los choque de
moléculas, la energía cinética que se convierte en energía potencial durante el choque, queda
disponible de nuevo como energía cinética, después de un tiempo tan corto, que podemos ignorar
este cambio por completo.
Toda las masas gaseosas experimentan variaciones de presión, volumen y temperatura que se rigen
por las siguientes leyes:
Formula interpretación
V = volumen inicial
VN = volumen final
V.P = V´.P´
P = presión inicial
P´ = Presión final
Cuando se calienta un gas, el volumen aumenta 1/273 parte de su valor primitivo, siempre
que la presión no varíe. Temperatura y volumen son directamente proporcionales.
Formula interpretación
V = volumen inicial
V´ = volumen final
V.T´ = V´.T
T = temperatura inicial
T´ = temperatura final
Formula interpretación
P = presión inicial
P´ = presión final
P.T´ = P´.T
T = temperatura inicial
T´ = temperatura final
En una masa gaseosa los volúmenes y las presiones son directamente proporcionales a sus
temperaturas absolutas e inversamente proporcionales entre sí.
Formula Interpretación
Despejando presión P.V.T´ = P´.V´.T (a) P = presión inicial
P.V/T = P´.V´/T´ (b) P´ = presión final
V = volumen final
P = P´.V´.T / V.T´ (c) V´ = volumen final
P´ = P.V.T´/ V´.T (d) T´ = temperatura final
T = temperatura final
Durante 1997 el fenómeno ha causado severos cambios en el clima de todo el mundo. Según la
Administración Nacional Oceanográfica y Atmosférica (NOAA, por sus siglas en ingles) en el
continente americano provocara "inusuales alteraciones del clima", que se presentaran de
noviembre de 1997 a marzo de 1998; las observaciones satelitales el aumento de la temperatura del
Pacifico ecuatorial.
Ants Leetmaa, director del Centro de Predicciones Climáticas de la NOAA, menciono algunas de
estas inusuales modificaciones: monzones en el sudeste de Asia e India; sequías en Estados Unidos,
sudeste de Africa, Australia y el noreste de Brasil; fuertes tormentas en el Océano Pacifico e
inundaciones en Perú, Ecuador, Centroamericana y el sur de Estados Unidos. Por su parte,
investigadores del Centro de Predicción Ambiental Marítima de China informaron que el fenómeno
meteorológico será el mas fuerte de este siglo y sus efectos se agudizaran a finales del año. Son
Xuejia, director del centro, advirtió: "En estos momentos la fuerza de esta alteración natural es igual
a la de 1982, pero se espera que se fortalezca aun mas a finales de 1997".
Desde que se estudia, uno de los peores fenómenos que se ha presentado es el de 1982-1983,
cuando provoco inundaciones en Perú, lluvias torrenciales en el sur de California y benefició con un
invierno anormal a una parte de Estados Unidos. En lo que fue su ultimo gran golpe, el meteoro
causo graves sequías en Indonesia, Africa y Australia; persistentes lluvias en América, además de
severas inundaciones y deslizamientos.
En este periodo, ocasiono mas de 2 mil muertes en el mundo y de los materiales por 13 mil millones
de dólares. Por ahora, los pronósticos señalan que el fenómeno seguirá fortaleciéndose, pasara por
su máxima intensidad hacia finales de este año y se prolongara en su fase de debilitamiento en los
primeros meses del año.
¿ QUE ES EL NIÑO ?
Es una masa de agua con una temperatura por arriba de lo normal y se asocia con los tifones,
inundaciones, sequías terrestres y toda clase de cambios climáticos. Se desplaza desde las costas de
Indonesia por la línea ecuatorial, hasta las costas del pacifico sudamericano en el verano del
Hemisferio Sur; al suceder esto, las aguas costeras de Perú, Ecuador y del norte de Chile se elevan
algunos grados por encima del promedio.
Este fenómeno que se genera con intervalos de dos a siete años se caracteriza porque la superficie
del mar y la atmósfera sobre él presentan una condición anormal durante un periodo de 12 a 18
meses, que decae cuando no hay suficiente agua cálida para sostener el ciclo.
El Ingeniero Carlos Espinosa González, gerente del Sistema Meteorológico Nacional (SMN),
explico que el meteoro se inicia durante el verano, se propaga hacia el este y alcanza su etapa de
madurez en el invierno del Hemisferio Norte. El niño se origina en el Océano Pacifico tropical,
cerca de Australia e Indonesia, donde aumenta la temperatura de las aguas superficiales. Este
máximo de temperatura se desplaza gradualmente hacia el este y alrededor de seis meses después,
alcanza la costa de América del Sur, en el extremo este del Pacifico.
En tanto, los científicos lo llamaron ENOS (El niño, Oscilación del Sur) y lo definen como
alteraciones de los patrones de circulación del océano y la atmósfera. Durante ENOS se altera la
presión atmosférica en zonas distintas entre sí, cambia la dirección y velocidad del viento y se
desplazan las zonas de lluvia de la región tropical. En el océano, la contracorriente ecuatorial, que
dirige las aguas frías de la corriente del Perú hacia el oeste, se debilita, favoreciendo el transporte de
aguas cálidas hacia la costa de América del Sur.
Lo contrario a este fenómeno es La niña o fase fría de ENOS. En este caso las aguas son más frías
de lo normal en el Pacifico tropical del este, a la altura de las costas de Sudamérica.
Cuando se presenta en territorio nacional, los veranos son lluviosos, el invierno es tibio y la
actividad de huracanes aumenta principalmente en el Golfo de México y en el Océano Atlántico.
No se sabe cuando será el año de La niña; por lo pronto, hasta los primeros meses de 1998, El niño
seguirá modificando los patrones del clima del mundo. Estos fenómenos no se pueden presentar al
mismo tiempo y tampoco es factible predecir cuando volverá a darse cualquiera de los dos.
LA LLEGADA DE EL NIÑO.
Se ha presentado 17 veces desde 1925. Entre lo mas recordados esta el de 1953, pero al de este año
es al que se ha considera como el más intenso. Los científicos atribuyen a varias causas naturales su
aparición. Daniel Walter, investigador de la Universidad de Hawai, asocia el fenómeno con la
actividad que ocurre con el lecho del océano, dice que hay una conexión entre los terremotos bajo el
mar y la incidencia de El niño.
En su opinión, la aparición del fenómeno coincidió con sismos en el East Pacific Rise, una cadena
montañosa ubicada en el océano. La temperatura volcánica llegaba a la superficie del este y
calentaba el agua y el aire de la zona, desencadenando las anormalidades que lo caracterizan.
Por su parte, John Toole, oceanógrafo de Massachusetts, explica que el problema lo provocan el
océano y la atmósfera. "La principal causa esta en el primero, que es muy ancho para dar una
respuesta uniforme a la acción de la radiación solar".
¿Que es un coloide?
Es un sistema en el cual las partículas de una sustancia pueden hallarse en suspensión en un líquido
-sin tender a acumularse en la superficie ni en el fondo - merced a un equilibrio llamado estado
coloidal (sustancia cuyas partículas tienen propiedades coloidales).
Las partículas de todas las substancias coloidales se hayan cargadas eléctricamente y no pueden
atravesar dichas membranas.
Las partículas coloidales (micelas) se emulsionan en el seno del líquido y dan una seudo solución
(sol) cuya estabilidad depende de la viscosidad y tensión superficial del solvente y de la carga
eléctrica de las micelas. Esta carga puede ser negativa o positiva - según la sustancia de que se trate
- paro siempre del mismo signo para todas las micelas. Por consiguiente, estas se repelen y no
pueden aglomerarse.
Una parte de los tejidos vegetales y animales son de naturaleza coloidal. Además, los coloides
constituyen el punto de partida de importantes procesos industriales, cuales son la fabricación del
caucho, de la seda artificial, del celuloide y otras materias.
El ozono esta formado por los efluvios eléctricos, se encuentra en pequeñas cantidades en la baja
atmósfera, pero existe también en las capas más elevadas donde es engendrado por las radiaciones
solares ultravioleta.
Gas de la formula O3 que no es sino una variedad de oxigeno cuyas moléculas constan de tres
átomos en vez de los que tiene la molécula de oxigeno ordinario.
El aire atmosférico ejerce sobre toda pared sólida en la que se encuentra sumergido una presión
perpendicular, que se denomina presión atmosférica, cuyo valor es aproximadamente de un
kilogramo por centímetro cuadrado.
La presión atmosférica es la que ejerce la atmósfera sobre todos los objetos que se hallan en
contacto con ella y que no es sino la manifestación del peso del aire.
Una columna de aire cuya base mida 1 cm ²y cuya altura sea la de la atmósfera, pesa 1003 g y
equilibra el peso de la columna de mercurio de igual diámetro y de 76 cm de altura o una de agua de
10, 33 m, equivalentes a 1013 milibares. Dichos valores se refieren a la presión a nivel del mar, ya
que, como la densidad del aire disminuye rápidamente con la altura, también experimenta un rápido
descenso la presión, pues más de la mitad de todo el aire atmosférico se halla concentrado en los 5,
000 primeros metros y 96% del mismo en los primeros 20, 000 m. De ahí la necesidad de
comprimir el aire en las cabinas de los aviones y la imposibilidad para los mismos de sustentarse y
de hallar en la alta atmósfera el oxígeno necesario para el funcionamiento de los motores de
combustión aerobia. Pero los cohetes, que no se apoyan con los planos sustentadores y que llevan su
propia reserva de comburente, se mueven y funcionan en las atmósferas más enrarecidas e incluso
en el vacío.
La presión atmosférica al nivel del mar se halla sujeta a variaciones provocadas por os movimientos
de las masas de aire, dado que un aire frío es más denso que un aire caliente. Estos cambios
provocan perturbaciones del tiempo.
Se dice que la atmósfera material rodea a las personas y a las cosas. Y por extensión., la atmósfera
moral y el conjunto de factores que contribuyen a crear una situación o estado particular alrededor
de una persona.
¿ PORQUE EL CIELO ES AZUL ?
El azul del cielo y el rojo de la puesta del sol, se deben a un fenómeno llamado <<difusión>>.
Cuando la luz del sol pasa por la atmósfera de la Tierra, mucha de la luz es recogida por las
moléculas del aire y cedida otra vez en alguna otra dirección. El fenómeno es muy similar a la
acción de las ondas del agua sobre los objetos flotantes. Si, por ejemplo, las ondulaciones
procedentes de una piedra arrojada a un estanque de agua inmóvil encuentran algún corcho pequeño
flotando en su superficie, el corcho cabecea subiendo y bajando con la frecuencia de las ondas que
pasan.
La luz se describe como actuando del mismo modo sobre moléculas del aire y finas partículas de
polvo. Una vez puestas en vibración por una onda luminosa, una molécula o una partícula pueden
emitir de nuevo luz absorbida, algunas veces en la misma dirección, pero generalmente en cualquier
otra.
Los experimentos demuestran, de acuerdo con la teoría de la difusión, que las ondas más cortas se
difunden más fácilmente que las más largas. Para ser más específicos, la difusión es inversamente
proporcional a la cuarta potencia de la longitud de onda.
Difusión 1/ λ 4
De acuerdo con esta ley las ondas cortas de la luz violeta se difunden diez veces más fácilmente que
las ondas largas de la luz roja. Los otros colores se difunden en proporciones intermedias. Así
cuando la luz solar entra en la atmósfera de la Tierra, la luz violeta y la azul, se difunden más,
seguidas del verde, amarilla, anaranjada y roja, en el orden indicado.
Para cada diez ondas violetas (λ = 0, 00004 cm) difundidas en un haz, hay sólo una onda
roja (λ = 0, 00007 cm).
A mediodía, en un día claro cuando el Sol está directamente en el cenit, el cielo entero aparece
como azul claro. Este es el color compuesto de la mezcla de colores difundidos más efectivamente
por las moléculas del aire. Puesto que el azul claro del triángulo de los colores se obtiene de la
mezcla aditiva de violeta, azul, verde y amarillo.
Las puestas de sol son rojas, la luz del cielo esta polarizada linealmente en bastante grado, como
puede comprobarse sin dificultad mirando al cielo directamente hacia arriba, a través de una lamina
polarizante, puesto que la luz difusa es sustraída del haz original, que resulta debilitado durante este
proceso.
Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes
son enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que
la hidrostática,sólo podemos tratar aquí algunos conceptos básicos.
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse
de forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se
pueden despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así
en el caso de los fluidos reales en movimiento, los resultados de dicho análisis sólo pueden servir
como estimación para flujos en los que los efectos de la viscosidad son pequeños.
Estos flujos cumplen el llamado teorema de Bernoulli, que afirma que la energía mecánica total de
un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de
corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la
dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las
partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de
la presión, la velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión
disminuye. Este principio es importante para predecir la fuerza de sustentación de un ala en vuelo.
Ecuación de continuidad: (para flujo estacionario e incompresible, sin fuentes ni sumideros, por
evaluarse a lo largo de una línea de corriente).
Φ = A .v [m ³/s]
Ecuación de Bernoulli: (principio de conservación de la energía) para flujo ideal (sin fricción).
p1 + δ.g.h1 = p2 + δ.g.h2
El teorema de Bernoulli no se puede aplicar aquí,porque parte de la energía mecánica total se disipa
como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la
tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta caída de
presión debería ser proporcional a la velocidad de flujo. Los experimentos demostraron que esto
sólo era cierto para velocidades bajas; para velocidades mayores, la caída de presión era más bien
proporcional al cuadrado de la velocidad.
Este problema se resolvió cuando Reynolds demostró la existencia de dos tipos de flujo viscoso en
tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar),
y los resultados experimentales coinciden con las predicciones analíticas. A velocidades más
elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una
forma que ni siquiera en la actualidad se puede predecir completamente.
Reynolds también determinó que la transición del flujo laminar al turbulento era función de un
único parámetro, que desde entonces se conoce como número de Reynolds. Si el número de
Reynolds (que carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el
diámetro de la tubería dividido entre la viscosidad del fluido) es menor de 2.000, el flujo a través de
la tubería es siempre laminar; cuando los valores son mayores a 3000 el flujo es turbulento. El
concepto de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos.
Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas,
y su análisis depende de una combinación de datos experimentales y modelos matemáticos; gran
parte de la investigación moderna en mecánica de fluidos está dedicada a una mejor formulación de
la turbulencia. Puede observarse la transición del flujo laminar al turbulento y la complejidad del
flujo turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo. Al principio, sube
con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de cierta distancia se hace
inestable y se forma un sistema de remolinos entrelazados.
Los flujos pueden separarse en dos regiones principales. La región próxima a la superficie está
formada por una delgada capa límite donde se concentran los efectos viscosos y en la que puede
simplificarse mucho el modelo matemático. Fuera de esta capa límite, se pueden despreciar los
efectos de la viscosidad, y pueden emplearse las ecuaciones matemáticas más sencillas para flujos
no viscosos.
La teoría de la capa límite ha hecho posible gran parte del desarrollo de las alas de los aviones
modernos y del diseño de turbinas de gas y compresores.
d) Flujos compresibles
El interés por los flujos compresibles comenzó con el desarrollo de turbinas de vapor por el
británico Parsons y el sueco Laval. En esos mecanismos se descubrió por primera vez el flujo
rápido de vapor a través de tubos, y la necesidad de un diseño eficiente de turbinas llevó a una
mejora del análisis de los flujos compresibles. El interés por los flujos de alta velocidad sobre
superficies surgió de forma temprana en los estudios de balística,donde se necesitaba comprender el
movimiento de los proyectiles.
Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el
gas se ve sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura
también cambia, lo que lleva a problemas de análisis más complejos. El comportamiento de flujo de
un gas compresible depende de si la velocidad de flujo es mayor o menor que la velocidad del
sonido.
Viscosidad
Propiedad de un fluido que tiende a oponerse a su flujo cuando se le aplica una fuerza. Los fluidos
de alta viscosidad presentan una cierta resistencia a fluir; los fluidos de baja viscosidad fluyen con
facilidad. La fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas
adyacentes de fluido determina su viscosidad, que se mide con un recipiente (viscosímetro) que
tiene un orificio de tamaño conocido en el fondo. La velocidad con la que el fluido sale por el
orificio es una medida de su viscosidad.
La viscosidad de un fluido disminuye con la reducción de densidad que tiene lugar al aumentar la
temperatura. En un fluido menos denso hay menos moléculas por unidad de volumen que puedan
transferir impulso desde la capa en movimiento hasta la capa estacionaria. Esto, a su vez, afecta a la
velocidad de las distintas capas. El momento se transfiere con más dificultad entre las capas, y la
viscosidad disminuye. En algunos líquidos, el aumento de la velocidad molecular compensa la
reducción de la densidad. Los aceites de silicona, por ejemplo, cambian muy poco su tendencia a
fluir cuando cambia la temperatura, por lo que son muy útiles como lubricantes cuando una
máquina está sometida a grandes cambios de temperatura.
ELECTRICIDAD
Categoría de fenómenos físicos originados por la existencia de cargas eléctricas y por la interacción
de las mismas. Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas
eléctricas sobre las otras cargas situadas en su misma región del espacio; cuando está en
movimiento, produce además efectos magnéticos. Los efectos eléctricos y magnéticos dependen de
la posición y movimiento relativos de las partículas cargadas. En lo que respecta a los efectos
eléctricos, estas partículas pueden ser neutras, positivas o negativas. La electricidad se ocupa de las
partículas cargadas positivamente, como los protones, que se repelen mutuamente, y de las
partículas cargadas negativamente, como los electrones, que también se repelen mutuamente. En
cambio, las partículas negativas y positivas se atraen entre sí. Este comportamiento puede resumirse
diciendo que las cargas del mismo signo se repelen y las cargas de distinto signo se atraen.
El primer fenómeno eléctrico artificial que se observó fue la propiedad que presentan algunas
sustancias resinosas como el ámbar, que adquieren una carga negativa al ser frotadas con una piel o
un trapo de lana, tras lo cual atraen objetos pequeños. Un cuerpo así tiene un exceso de electrones.
Una varilla de vidrio frotada con seda tiene una capacidad similar para atraer objetos no cargados, y
atrae los cuerpos negativamente cargados con una fuerza aún mayor. El vidrio tiene una carga
positiva, que puede describirse como un defecto de electrones o un exceso de protones. William
Gilbert enunció la atracción y repulsión de los materiales.
Cuando algunos átomos se combinan para formar sólidos,frecuentemente quedan libres uno o más
electrones, que pueden moverse con facilidad a través del material. En algunos materiales, llamados
conductores, ciertos electrones se liberan fácilmente. Los metales, en particular el cobre y la plata,
son buenos conductores.
Carga eléctrica
El electroscopio es un instrumento cualitativo empleado para demostrar la presencia de cargas
eléctricas. El electroscopio está compuesto por dos láminas de metal muy finas, colgadas de un
soporte metálico en el interior de un recipiente de vidrio u otro material no conductor. Una esfera
recoge las cargas eléctricas del cuerpo cargado que se quiere observar; las cargas, positivas o
negativas, pasan a través del soporte metálico y llegan a ambas láminas. Al ser iguales, las cargas se
repelen y las láminas se separan. La distancia entre éstas depende de la cantidad de carga.
Pueden emplearse tres métodos para cargar eléctricamente un objeto (pasaje de cargas):
1) contacto con otro objeto de distinto material (como por ejemplo, ámbar y piel) seguido por
separación.
Ej.: Péndulo
Lata de coca
Jaula de Faraday
Efecto de superficie
Electrosforo
Conductor eléctrico
Cualquier material que ofrezca poca resistencia al flujo de electricidad se denomina conductor
eléctrico. La diferencia entre un conductor y un aislante, que es un mal conductor de electricidad o
de calor, es de grado más que de tipo, ya que todas las sustancias conducen electricidad en mayor o
en menor medida. Un buen conductor de electricidad, como la plata o el cobre, puede tener una
conductividad mil millones de veces superior a la de un buen aislante, como el vidrio o la mica. En
los conductores sólidos la corriente eléctrica es transportada por el movimiento de los electrones; y
en disoluciones y gases, lo hace por los iones.
Los materiales en los que los electrones están fuertemente ligados a los átomos se conocen como
aislantes, no conductores o dieléctricos. Algunos ejemplos son el vidrio, la goma o la madera seca.
Un tercer tipo de material es un sólido en el que un número relativamente pequeño de electrones
puede liberarse de sus átomos de forma que dejan un "hueco" en el lugar del electrón. El hueco, que
representa la ausencia de un electrón negativo, se comporta como si fuera una unidad de carga
positiva. Un campo eléctrico hace que tanto los electrones negativos como los huecos positivos se
desplacen a través del material, con lo que se produce una corriente eléctrica. Generalmente, un
sólido de este tipo, denominado semiconductor,tiene una resistencia mayor al paso de corriente que
un conductor como el cobre, pero menor que un aislante como el vidrio. Si la mayoría de la
corriente es transportada por los electrones negativos, se dice que es un semiconductor de tipo n. Si
la mayoría de la corriente corresponde a los huecos positivos, se dice que es de tipo p.
Si un material fuera un conductor perfecto, las cargas circularían por él sin ninguna resistencia; por
su parte,un aislante perfecto no permitiría que se movieran las cargas por él. No se conoce ninguna
sustancia que presente alguno de estos comportamientos extremos a temperatura ambiente. A esta
temperatura, los mejores conductores ofrecen una resistencia muy baja (pero no nula) al paso de la
corriente y los mejores aislantes ofrecen una resistencia alta (pero no infinita).
Buen conductor
Conductores Semiconductor
Mal conductor o aislador
Carga punto
Es un modelo que se caracteriza por no tener masa, por lo tanto no es afectada por la gravedad y no
tiene dimensiones. Se define Coulomb como la carga que tiene un punto que colocado en el vacío a
un metro de otra igual, la repele con una fuerza de 9.10 9 Newtons.
Una manifestación habitual de la electricidad es la fuerza de atracción o repulsión entre dos cuerpos
estacionarios que, de acuerdo con el principio de acción y reacción, ejercen la misma fuerza
eléctrica uno sobre otro. La carga eléctrica de cada cuerpo puede medirse en coulombs. La fuerza
(F) entre dos partículas con cargas q1 y q2 puede calcularse a partir de la ley de Coulomb:
F = ko.q1.q2/r ²
ko: constante de proporcionalidad que depende del medio que rodea a las cargas.
ko = 1/4.π. ε o
F = q1.q2/4.π. ε o.r ²
Toda partícula eléctricamente cargada crea a su alrededor un campo de fuerzas. Este campo puede
representarse mediante líneas de fuerza que indican la dirección de la fuerza eléctrica en cada punto.
MAGNETISMO
Las fuerzas magnéticas son producidas por el movimiento de partículas cargadas, como por ejemplo
electrones, lo que indica la estrecha relación entre la electricidad y el magnetismo. El marco que
aúna ambas fuerzas se denomina teoría electromagnética. La manifestación más conocida del
magnetismo es la fuerza de atracción o repulsión que actúa entre los materiales magnéticos como el
hierro. Sin embargo, en toda la materia se pueden observar efectos más sutiles del magnetismo.
Recientemente, estos efectos han proporcionado claves importantes para comprender la estructura
atómica de la materia.
Teoría electromagnética
Hans Christian Oersted descubrió que una aguja magnética podía ser desviada por una corriente
eléctrica. Este descubrimiento,que mostraba una conexión entre la electricidad y el magnetismo, fue
desarrollado por Ampère, que estudió las fuerzas entre cables por los que circulan corrientes
eléctricas, y por Arago, que magnetizó un pedazo de hierro colocándolo cerca de un cable recorrido
por una corriente. Faraday descubrió que el movimiento de un imán en las proximidades de un
cable induce en éste una corriente eléctrica; este efecto era inverso al hallado por Oersted. Así,
Oersted demostró que una corriente eléctrica crea un campo magnético, mientras que Faraday
demostró que puede emplearse un campo magnético para crear una corriente eléctrica. La
unificación de las teorías de la electricidad y el magnetismo se debió a Maxwell, que predijo la
existencia de ondas electromagnéticas e identificó la luz como un fenómeno electromagnético.
Los estudios posteriores se centraron en la comprensión del origen atómico y molecular de las
propiedades magnéticas de la materia. Langevin desarrolló una teoría sobre la variación con la
temperatura de las propiedades magnéticas de las sustancias paramagnéticas, basada en la estructura
atómica de la materia. Esta teoría es un ejemplo de la descripción de propiedades macroscópicas a
partir de las propiedades de los electrones y los átomos. La teoría de Langevin fue ampliada por
Pierre Ernest Weiss, que postuló la existencia de un campo magnético interno, molecular, en los
materiales como el hierro. Este concepto, combinado con la teoría de Langevin, sirvió para explicar
las propiedades de los materiales como la piedra imán.
La teoría de Neils Bohr sobre la estructura atómica, hizo que se comprendiera la tabla periódica y
mostró por qué el magnetismo aparece en los elementos de transición como el hierro o los
lantánidos o en compuestos que incluyen estos elementos. Samuel Abraham Goudsmit y Uhlenbeck
demostraron que los electrones tienen espín y se comportan como pequeños imanes con un
momento magnético definido.
El momento magnético de un objeto es una cantidad vectorial que expresa la intensidad y
orientación del campo magnético del objeto. Werner Karl Heisenberg dio una explicación detallada
del campo molecular de Weiss basada en la mecánica cuántica.
El campo magnético
Una barra imantada o un cable que transporta corriente pueden influir en otros materiales
magnéticos sin tocarlos físicamente porque los objetos magnéticos producen un c ampo magnético.
Los campos magnéticos suelen representarse mediante líneas de flujo magnético . En cualquier
punto, la dirección del campo magnético es igual a la dirección de las líneas de flujo, y la
intensidad del campo es inversamente proporcional al espacio entre las líneas de flujo.
En el caso de una barra imantada, las líneas de flujo salen de un extremo y se curvan para llegar al
otro extremo; estas líneas pueden considerarse como bucles cerrados, con una parte del bucle dentro
del imán y otra fuera.
En los extremos del imán, donde las líneas de flujo están más próximas, el campo magnético es más
intenso; en los lados del imán, donde las líneas de flujo están más separadas, el campo magnético es
más débil. Según su forma y su fuerza magnética, los distintos tipos de imán producen diferentes
esquemas de líneas de flujo. La estructura de las líneas de flujo creadas por un imán o por cualquier
objeto que genere un campo magnético puede visualizarse utilizando una brújula o limaduras de
hierro. Los imanes tienden a orientarse siguiendo las líneas de flujo magnético. Por tanto, una
brújula, que es un pequeño imán que puede rotar libremente, se orientará en la dirección de las
líneas. Marcando la dirección que señala la brújula al colocarla en diferentes puntos alrededor de la
fuente del campo magnético, puede deducirse el esquema de líneas de flujo. Igualmente, si se agitan
limaduras de hierro sobre una hoja de papel o un plástico por encima de un objeto que crea un
campo magnético, las limaduras se orientan siguiendo las líneas de flujo y permiten así visualizar su
estructura.
Los campos magnéticos influyen sobre los materiales magnéticos y sobre las partículas cargadas en
movimiento. En términos generales, cuando una partícula cargada se desplaza a través de un campo
magnético, experimenta una fuerza que forma ángulos rectos con la velocidad de la partícula y con
la dirección del campo. Como la fuerza siempre es perpendicular a la velocidad, las partículas se
mueven en trayectorias curvas. Los campos magnéticos se emplean para controlar las trayectorias
de partículas cargadas en dispositivos como los aceleradores de partículas o los espectrógrafos de
masas.
Brújula
Instrumento que indica el rumbo, empleado por marinos, pilotos, cazadores, excursionistas y
viajeros para orientarse. Hay dos tipos fundamentales de brújula: la brújula magnética y el
girocompás o brújula giroscópica.
Brújula magnética: En su forma más sencilla este tipo de brújula está formado por una aguja
magnetizada montada en un pivote situado en el centro de un círculo graduado fijo (denominado
rosa de los vientos) de modo que la aguja pueda oscilar libremente en el plano horizontal. En la
brújula magnética el rumbo se determina a partir de una o varias agujas magnetizadas que señalan al
polo norte magnético bajo la influencia del campo magnético terrestre. El compás náutico, una
brújula magnética utilizada en la navegación,tiene varios haces de agujas magnetizadas paralelas
fijados a la parte inferior de la rosa que pivota sobre su centro en un recipiente de bronce cubierto
de vidrio. El recipiente está montado en un balancín, por lo que la rosa mantiene una posición
horizontal a pesar del balanceo y cabeceo del barco.
En el compás líquido, el más estable de los compases náuticos, el recipiente está lleno de líquido,
una mezcla de alcohol y agua. El líquido ayuda a sostener la rosa, que en este tipo de brújula pivota
sobre su centro y flota en el líquido, con lo que se reduce la fricción en el pivote y se amortiguan las
vibraciones de la rosa causadas por el movimiento del buque. Estas ventajas hacen que el compás
líquido se emplee más que el compás seco. En ambos tipos hay trazada una línea negra vertical,
conocida como línea de fe, en la superficie interior del recipiente,orientada según la proa del barco.
El rumbo del buque se obtiene leyendo los grados que marca la rosa frente a la línea de fe. La
brújula magnética sólo apunta al norte magnético si el barco está libre de magnetismo y si no hay
objetos grandes de hierro o acero en las proximidades. Si el barco está magnetizado o la aguja se ve
afectada por objetos de hierro o acero, se produce el error conocido como desviación. Para corregir
la desviación la brújula se instala en un soporte denominado bitácora de compensación, equipado
con un sistema de imanes que compensan las influencias perturbadoras.
Para obtener el norte verdadero en una brújula magnética también hay que efectuar las correcciones
debidas a la declinación magnética (el ángulo formado entre el meridiano magnético y el meridiano
verdadero). Este ángulo (también llamado variación magnética) puede ser positivo o negativo, y
varía con la posición geográfica y en cierta medida con el tiempo. Se han determinado la magnitud,
el signo y el cambio anual de la declinación de la mayoría de los lugares de la superficie terrestre, y
estos datos están registrados en todas las cartas náuticas. Las tormentas magnéticas provocan
cambios transitorios e impredecibles de la declinación, sobre todo en las latitudes más elevadas.
El compás náutico convencional resulta poco fiable en las aeronaves debido a los errores
introducidos por los giros y aceleraciones bruscas del avión. Para eliminar estos errores, los
compases aeronáuticos tienen un diseño especial, con unidades direccionales magnéticas
estabilizadas respecto al movimiento del avión mediante péndulos o giróscopos.
Girocompás: Este dispositivo, dotado de uno o más giróscopos, se emplea para la navegación de
todos los buques de cierto tamaño. El girocompás, que no resulta afectado por el magnetismo
terrestre, consiste en un giróscopo cuyo rotor gira alrededor de un eje confinado al plano horizontal
de forma que dicho eje se alinea con la línea Norte-Sur paralela al eje de rotación terrestre, con lo
que indica el norte verdadero, sin estar sometido a los errores inherentes de desviación y
declinación que afectan a la brújula magnética. Los girocompases cuentan con dispositivos de
corrección para compensar la deriva hacia el Este debida al movimiento de la Tierra y los errores de
velocidad y rumbo. En la mayoría de los barcos oceánicos, el girocompás está conectado
eléctricamente con un piloto automático, un dispositivo que dirige el timón del barco de forma
automática y mantiene su rumbo de acuerdo a las señales del girocompás.
Las propiedades magnéticas de los materiales se clasifican siguiendo distintos criterios. Una de las
clasificaciones de los materiales magnéticos (diamagnéticos, paramagnéticos y ferromagnéticos) se
basa en la reacción del material ante un campo magnético. Cuando se coloca un material
diamagnético en un campo magnético, se induce en él un momento magnético de sentido opuesto al
campo magnético. En la actualidad se sabe que esta propiedad se debe a las corrientes eléctricas
inducidas en los átomos y moléculas individuales. Estas corrientes producen momentos magnéticos
opuestos al campo aplicado. Muchos materiales son diamagnéticos; los que presentan un
diamagnetismo más intenso son el bismuto metálico y las moléculas orgánicas que, como el
benceno, tienen una estructura cíclica, que permite que las corrientes eléctricas se establezcan con
facilidad.
El comportamiento paramagnético se produce cuando el campo magnético aplicado alinea todos los
momentos magnéticos ya existentes en los átomos o moléculas individuales que componen el
material. Esto produce un momento magnético global que se suma al campo magnético. Los
materiales paramagnéticos suelen contener metales de transición o lantánidos con electrones no
emparejados. El paramagnetismo en sustancias no metálicas suele caracterizarse por una
dependencia de la temperatura: la intensidad del momento magnético inducido varía inversamente
con la temperatura. Esto se debe a que al aumentar la temperatura, cada vez resulta más difícil
alinear los momentos magnéticos de los átomos individuales en la dirección del campo magnético.
Las sustancias ferromagnéticas son las que, como el hierro, mantienen un momento magnético
incluso cuando el campo magnético externo se hace nulo. Este efecto se debe a una fuerte
interacción entre los momentos magnéticos de los átomos o electrones individuales de la sustancia
magnética, que los hace alinearse de forma paralela entre sí. En circunstancias normales, los
materiales ferromagnéticos están divididos en regiones llamadas dominios; en cada dominio, los
momentos atómicos están alineados en paralelo. Los momentos de dominios diferentes no apuntan
necesariamente en la misma dirección. Aunque un trozo de hierro normal puede no tener un
momento magnético total, puede inducirse su magnetización colocándolo en un campo magnético,
que alinea los momentos de todos los dominios. La energía empleada en la reorientación de los
dominios desde el estado magnetizado hasta el estado desmagnetizado se manifiesta en un desfase
de la respuesta al campo magnético aplicado, conocido como histéresis.
Un material ferromagnético acaba perdiendo sus propiedades magnéticas cuando se calienta. Esta
pérdida es completa por encima de la temperatura de Curie (la temperatura de Curie del hierro
metálico es de 770 °C).
También se han hallado otras configuraciones más complejas de los momentos magnéticos
atómicos. Las sustancias ferrimagnéticas tienen al menos dos clases distintas de momento
magnético atómico, orientados entre sí de forma antiparalela. Como ambos momentos tienen
magnitudes diferentes, persiste un momento magnético neto, al contrario que en un material
antiferromagnético, donde todos los momentos magnéticos se anulan mutuamente. Curiosamente, la
piedra imán es ferrimagnética, y no ferromagnética; en este mineral existen dos tipos de ion
hierro,con momentos magnéticos diferentes. Se han encontrado disposiciones aún más complejas,
en las que los momentos magnéticos están ordenados en espiral. Los estudios de estos
ordenamientos han proporcionado mucha información sobre las interacciones entre los momentos
magnéticos en sólidos.
Aplicaciones
Los imanes grandes y potentes son cruciales en muchas tecnologías modernas. Los imanes
superconductores se emplean en los aceleradores de partículas más potentes para mantener las
partículas aceleradas en una trayectoria curva y enfocarlas.
OPTICA
Naturaleza de la luz
La energía radiante tiene una naturaleza dual, y obedece a leyes que pueden explicarse a partir de
una corriente de partículas o paquetes de energía, los llamados fotones, o a partir de un tren de
ondas transversales (Movimiento ondulatorio). El concepto de fotón se emplea para explicar las
interacciones de la luz con la materia que producen un cambio en la forma de energía, como ocurre
con el efecto fotoeléctrico o la luminiscencia. El concepto de onda suele emplearse para explicar la
propagación de la luz y algunos de los fenómenos de formación de imágenes. En las ondas de luz,
como en todas las ondas electromagnéticas, existen campos eléctricos y magnéticos en cada punto
del espacio, que fluctúan con rapidez. Como estos campos tienen, además de una magnitud,una
dirección determinada, son cantidades vectoriales. Los campos eléctrico y magnético son
perpendiculares entre sí y también perpendiculares a la dirección de propagación de la onda. La
onda luminosa más sencilla es una onda senoidal pura, llamada así porque una gráfica de la
intensidad del campo eléctrico o magnético trazada en cualquier momento a lo largo de la dirección
de propagación sería la gráfica de un seno.
La luz visible es sólo una pequeña parte del espectro electromagnético. En el espectro visible, las
diferencias en longitud de onda se manifiestan como diferencias de color. El rango visible va desde,
aproximadamente, 350 nanómetros (violeta) hasta unos 750 nanómetros (rojo), un nanómetro, nm,
es una milmillonésima de metro. La luz blanca es una mezcla de todas las longitudes de onda
visibles.
La velocidad de la luz en las sustancias materiales es menor que en el vacío, y varía para las
distintas longitudes de onda; este efecto se denomina dispersión. La relación entre la velocidad de la
luz en el vacío y la velocidad de una longitud de onda determinada en una sustancia se conoce como
índice de refracción de la sustancia para dicha longitud de onda. El índice de refracción del aire es
1,00029 y apenas varía con la longitud de onda. En la mayoría de las aplicaciones resulta
suficientemente preciso considerar que es igual a 1.
Las leyes de reflexión y refracción de la luz suelen deducirse empleando la teoría ondulatoria de la
luz introducida. El principio de Huygens afirma que todo punto en un frente de ondas inicial puede
considerarse como una fuente de ondas esféricas secundarias que se extienden en todas las
direcciones con la misma velocidad, frecuencia y longitud de onda que el frente de ondas del que
proceden. Con ello puede definirse un nuevo frente de onda que envuelve las ondas secundarias.
Como la luz avanza en ángulo recto a este frente de ondas, el principio de Huygens puede
emplearse para deducir los cambios de dirección de la luz.
Cuando las ondas secundarias llegan a otro medio u objeto, cada punto del límite entre los medios
se convierte en una fuente de dos conjuntos de ondas. El conjunto reflejado vuelve al primer medio,
y el conjunto refractado entra en el segundo medio. El comportamiento de los rayos reflejados y
refractados puede explicarse por el principio de Huygens. Es más sencillo, y a veces suficiente,
representar la propagación de la luz mediante rayos en vez de ondas. El rayo es la línea de avance, o
dirección de propagación, de la energía radiante. En la óptica geométrica se prescinde de la teoría
ondulatoria de la luz y se supone que la luz no se difracta. La trayectoria de los rayos a través de un
sistema óptico se determina aplicando las leyes de reflexión y refracción.
Optica física
Esta rama de la óptica se ocupa de aspectos del comportamiento de la luz tales como su emisión,
composición o absorción, así como de la polarización, la interferencia y la difracción.
Polarización de la luz
Los átomos de una fuente de luz ordinaria emiten pulsos de radiación de duración muy corta. Cada
pulso procedente de un único átomo es un tren de ondas prácticamente monocromático (con una
única longitud de onda). El vector eléctrico correspondiente a esa onda no gira en torno a la
dirección de propagación de la onda, sino que mantiene el mismo ángulo, o acimut, respecto a dicha
dirección. El ángulo inicial puede tener cualquier valor. Cuando hay un número elevado de átomos
emitiendo luz, los ángulos están distribuidos de forma aleatoria, las propiedades del haz de luz son
las mismas en todas direcciones, y se dice que la luz no está polarizada. Si los vectores eléctricos de
todas las ondas tienen el mismo ángulo acimutal (lo que significa que todas las ondas transversales
están en el mismo plano), se dice que la luz está polarizada en un plano, o polarizada linealmente.
Cualquier onda electromagnética puede considerarse como la suma de dos conjuntos de ondas: uno
en el que el vector eléctrico vibra formando ángulo recto con el plano de incidencia y otro en el que
vibra de forma paralela a dicho plano. Entre las vibraciones de ambas componentes puede existir
una diferencia de fase, que puede permanecer constante o variar de forma constante. Cuando la luz
está linealmente polarizada, por ejemplo, esta diferencia de fase se hace 0 o 180°. Si la relación de
fase es aleatoria, pero una de las componentes es más intensa que la otra, la luz está en parte
polarizada. Cuando la luz es dispersada por partículas de polvo, por ejemplo, la luz que se dispersa
en un ángulo de 90° con la trayectoria original del haz está polarizada en un plano, lo que explica
por qué la luz procedente del cenit está marcadamente polarizada.
Para ángulos de incidencia distintos de 0 o 90°, la proporción de luz reflejada en el límite entre dos
medios no es igual para ambas componentes de la luz. La componente que vibra de forma paralela
al plano de incidencia resulta menos reflejada. Cuando la luz incide sobre un medio no absorbente
con el denominado ángulo de Brewster, la parte reflejada de la componente que vibra de forma
paralela al plano de incidencia se hace nula. Con ese ángulo de incidencia, el rayo reflejado es
perpendicular al rayo refractado; la tangente de dicho ángulo de incidencia es igual al cociente entre
los índices de refracción del segundo medio y el primero.
Algunas sustancias son anisotrópicas, es decir, muestran propiedades distintas según la dirección
del eje a lo largo del cual se midan. En esos materiales, la velocidad de la luz depende de la
dirección en que ésta se propaga a través de ellos. Algunos cristales son birrefringentes, es decir,
presentan doble refracción. A no ser que la luz se propague de forma paralela a uno de los ejes de
simetría del cristal (un eje óptico del cristal), la luz se separa en dos partes que avanzan con
velocidades diferentes. Un cristal uniáxico tiene uno de estos ejes. La componente cuyo vector
eléctrico vibra en un plano que contiene el eje óptico es el llamado rayo ordinario; su velocidad es
la misma en todas las direcciones del cristal, y cumple la ley de refracción de Snell. La componente
que vibra formando un ángulo recto con el plano que contiene el eje óptico constituye el rayo
extraordinario, y la velocidad de este rayo depende de su dirección en el cristal. Si el rayo ordinario
se propaga a mayor velocidad que el rayo extraordinario, la birrefringencia es positiva; en caso
contrario la birrefringencia es negativa.
Cuando un cristal es biáxico, la velocidad depende de la dirección de propagación para todas las
componentes. Se pueden cortar y tallar los materiales birrefringentes para introducir diferencias de
fase específicas entre dos grupos de ondas polarizadas, para separarlos o para analizar el estado de
polarización de cualquier luz incidente. Un polarizador sólo transmite una componente de la
vibración, ya sea reflejando la otra mediante combinaciones de prismas adecuadamente tallados o
absorbiéndola. El fenómeno por el que un material absorbe preferentemente una componente de la
vibración se denomina dicroísmo. El material conocido como Polaroid presenta dicroísmo; está
formado por numerosos cristales dicroicos de pequeño tamaño incrustados en plástico, con todos
sus ejes orientados de forma paralela. Si la luz incidente es no polarizada, el Polaroid absorbe
aproximadamente la mitad de la luz. Los reflejos de grandes superficies planas, como un lago o una
carretera mojada, están compuestos por luz parcialmente polarizada, y un Polaroid con la
orientación adecuada puede absorberlos en más de la mitad. Este es el principio de las gafas o
anteojos de sol Polaroid.
Los llamados analizadores pueden ser físicamente idénticos a los polarizadores. Si se cruzan un
polarizador y un analizador situados consecutivamente, de forma que el analizador esté orientado
para permitir la transmisión de las vibraciones situadas en un plano perpendicular a las que
transmite el polarizador, se bloqueará toda la luz procedente del polarizador.
Las sustancias ópticamente activas giran el plano de polarización de la luz linealmente polarizada.
Un cristal de azúcar o una solución de azúcar, pueden ser ópticamente activos. Si se coloca una
solución de azúcar entre un polarizador y un analizador cruzados tal como se ha descrito antes,
parte de la luz puede atravesar el sistema. El ángulo que debe girarse el analizador para que no pase
nada de luz permite conocer la concentración de la solución. El polarímetro se basa en este
principio.
Algunas sustancias (como el vidrio y el plástico) que no presentan doble refracción en condiciones
normales pueden hacerlo al ser sometidas a una tensión. Si estos materiales bajo tensión se sitúan
entre un polarizador y un analizador, las zonas coloreadas claras y oscuras que aparecen
proporcionan información sobre las tensiones. La tecnología de la fotoelasticidad se basa en la
doble refracción producida por tensiones.
Interferencia y difracción
Cuando dos haces de luz se cruzan pueden interferir, lo que afecta a la distribución de intensidades
resultante. La coherencia de dos haces expresa hasta qué punto están en fase sus ondas. Si la
relación de fase cambia de forma rápida y aleatoria, los haces son incoherentes. Si dos trenes de
ondas son coherentes y el máximo de una onda coincide con el máximo de otra, ambas ondas se
combinan produciendo en ese punto una intensidad mayor que si los dos haces no fueran
coherentes. Si son coherentes y el máximo de una onda coincide con el mínimo de la otra, ambas
ondas se anularán entre sí parcial o totalmente, con lo que la intensidad disminuirá. Cuando las
ondas son coherentes, puede formarse un diagrama de interferencia formado por franjas oscuras y
claras. Para producir un diagrama de interferencia constante,ambos trenes de onda deben estar
polarizados en el mismo plano. Los átomos de una fuente de luz ordinaria irradian luz de forma
independiente, por lo que una fuente extensa de luz suele emitir radiación incoherente. Para obtener
luz coherente de una fuente así, se selecciona una parte reducida de la luz mediante un pequeño
orificio o rendija. Si esta parte vuelve a separarse mediante una doble rendija, un doble espejo o un
doble prisma y se hace que ambas partes recorran trayectorias de longitud ligeramente diferente
antes de combinarlas de nuevo, se produce un diagrama de interferencias. Los dispositivos
empleados para ello se denominan interferómetros; se emplean para medir ángulos pequeños,como
los diámetros aparentes de las estrellas, o distancias pequeñas, como las desviaciones de una
superficie óptica respecto a la forma deseada. Las distancias se miden en relación a la longitud de
onda de la luz empleada. El primero en mostrar un diagrama de interferencias fue Thomas Young,
en el experimento ilustrado en la figura 8. Un haz de luz que había pasado previamente por un
orificio, iluminaba una superficie opaca con dos orificios. La luz que pasaba por ambos orificios
formaba un diagrama de franjas circulares sucesivamente claras y oscuras en una pantalla. En la
ilustración están dibujadas las ondulaciones para mostrar que en puntos como A, C o E (intersección
de dos líneas continuas), las ondas de ambos orificios llegan en fase y se combinan aumentando la
intensidad. En otros puntos, como B o D (intersección de una línea continua con una línea de
puntos), las ondas están desfasadas 180° y se anulan mutuamente.
Las ondas de luz reflejadas por las dos superficies de una capa transparente extremadamente fina
situada sobre una superficie lisa pueden interferir entre sí. Las irisaciones de una fina capa de aceite
sobre el agua se deben a la interferencia, y demuestran la importancia del cociente entre el espesor
de la capa y la longitud de onda de la luz. Puede emplearse una capa o varias capas de materiales
diferentes para aumentar o disminuir la reflectividad de una superficie. Los separadores de haz
dicroicos son conjuntos de capas de distintos materiales, cuyo espesor se fija de forma que una
banda de longitudes de onda sea reflejada y otra sea transmitida. Un filtro interferencial construido
con estas capas transmite una banda de longitudes de onda extremadamente estrecha y refleja el
resto de las longitudes. La forma de la superficie de un elemento óptico puede comprobarse
presionándolo contra un patrón y observando el diagrama de franjas que se forma debido a la capa
delgada de aire que queda entre ambas superficies.
La luz que incide sobre el borde de un obstáculo es desviada, o difractada, y el obstáculo no genera
una sombra geométrica nítida. Los puntos situados en el borde del obstáculo actúan como fuente de
ondas coherentes, y se forma un diagrama de interferencias denominado diagrama de difracción. La
forma del borde del obstáculo no se reproduce con exactitud, porque parte del frente de ondas queda
cortado.
Como la luz pasa por una abertura finita al atravesar una lente, siempre se forma un diagrama de
difracción alrededor de la imagen de un objeto. Si el objeto es extremadamente pequeño, el
diagrama de difracción aparece como una serie de círculos concéntricos claros y oscuros alrededor
de un disco central, llamado disco de Airy. Esto ocurre incluso con una lente libre de aberraciones.
Si dos partículas están tan próximas que los dos diagramas se solapan y los anillos brillantes de una
de ellas coinciden con los anillos oscuros de la segunda, no es posible resolver (distinguir) ambas
partículas.
En óptica, el análisis de Fourier permite representar un objeto como una suma de ondas senoidales
sencillas,llamadas componentes. A veces se analizan los sistemas ópticos escogiendo un objeto
cuyas componentes de Fourier se conocen y analizando las componentes de Fourier de la imagen.
Estos procedimientos determinan la llamada función de transferencia óptica. En ocasiones, el
empleo de este tipo de técnicas permite extraer información de imágenes de baja calidad. También
se han aplicado teorías estadísticas al análisis de las imágenes formadas.
Una red de difracción está formada por varios miles de rendijas de igual anchura y separadas por
espacios iguales (se consiguen rayando el vidrio o el metal con una punta de diamante finísima).
Cada rendija produce un diagrama de difracción, y todos estos diagramas interfieren entre sí. Para
cada longitud de onda se forma una franja brillante en un lugar distinto. Si se hace incidir luz blanca
sobre la red, se forma un espectro continuo. En instrumentos como monocromadores,
espectrógrafos o espectrofotómetros se emplean prismas y redes de difracción para proporcionar luz
prácticamente monocromática o para analizar las longitudes de onda presentes en la luz incidente.
Emisión estimulada
Los átomos de una fuente de luz corriente (como una bombilla incandescente, una lámpara
fluorescente o una lámpara de neón) producen luz por emisión espontánea, y la radiación que
emiten es incoherente. Si un número suficiente de átomos absorben energía de manera que resultan
excitados y acceden a estados de mayor energía en la forma adecuada,puede producirse la emisión
estimulada. La luz de una determinada longitud de onda puede provocar la producción de más luz
con la misma fase y dirección que la onda original, por lo que la radiación será coherente. La
emisión estimulada amplifica la radiación con una longitud de onda determinada, y la luz generada
presenta una desviación del haz muy baja. El material excitado puede ser un gas, un sólido o un
líquido, pero su forma (o la forma de su recipiente) debe ser tal que forme un interferómetro en el
que la longitud de onda que se amplifica se refleje numerosas veces en un sentido y otro. Una
pequeña parte de la radiación excitada se transmite a través de uno de los espejos del
interferómetro. Este dispositivo se denomina láser, que en inglés corresponde al acrónimo de
"amplificación de luz por emisión estimulada de radiación". El proceso de suministrar energía a un
número elevado de átomos para llevarlos a un estado adecuado de energía superior se denomina
bombeo. El bombeo puede ser óptico o eléctrico. Como un láser puede emitir pulsos de energía
extremadamente alta con una desviación de haz muy pequeña, es posible detectar, por ejemplo, luz
láser enviada a la Luna y reflejada de vuelta a la Tierra, lo que permite medir con precisión la
distancia Tierra-Luna. El haz intenso y estrecho del láser ha encontrado aplicaciones prácticas en
cirugía y en el corte de metales.
Gabor fue el primero en observar que si se pudiera registrar el diagrama de difracción de un objeto
y conservar también la información sobre la fase, la imagen del objeto podría reconstruirse
iluminando con luz coherente el diagrama de difracción registrado. Si se iluminara el diagrama de
interferencia con una longitud de onda mayor que la empleada para producirlo, aparecería un
aumento de tamaño. Como la fase absoluta de una onda luminosa no puede detectarse directamente,
era necesario proporcionar un haz de referencia coherente con el haz que iluminaba el objeto,para
que interfiriera con el diagrama de difracción y proporcionara información sobre la fase. Antes del
desarrollo del láser, el proyecto de Gabor estaba limitado por la falta de fuentes de luz coherente lo
bastante intensas.
Los haces láser intensos y coherentes permiten estudiar nuevos efectos ópticos producidos por la
interacción de determinadas sustancias con campos eléctricos, y que dependen del cuadrado o de la
tercera potencia de la intensidad de campo. Esta rama de la óptica se denomina óptica no lineal, y
las interacciones que estudia afectan al índice de refracción de las sustancias. El efecto Kerr antes
mencionado pertenece a este grupo de fenómenos.
Se ha observado la generación armónica de luz. Por ejemplo, la luz láser infrarroja con longitud de
onda de 1,06 micrómetros puede convertirse en luz verde con longitud de onda de 0,53 micrómetros
(es decir, justo la mitad) mediante un cristal de niobato de sodio y bario. Es posible producir fuentes
de luz coherente ampliamente sintonizables en la zona de la luz visible y el infrarrojo cercano
bombeando medios adecuados con luz o con radiación de menor longitud de onda. Se puede lograr
que un cristal de niobato de litio presente fluorescencia roja, amarilla y verde bombeándolo con luz
láser azul verdosa con una longitud de onda de 488 nanómetros. Algunos fenómenos de difusión
pueden ser estimulados con un único láser para producir pulsos de luz intensos en una amplia gama
de longitudes de onda monocromáticas. Los efectos ópticos no lineales se aplican en el desarrollo
de moduladores eficaces de banda ancha para sistemas de comunicación.
Espectro
Serie de colores semejante a un arco iris (por este orden: violeta, azul, verde, amarillo, anaranjado y
rojo) que se produce al dividir una luz compuesta como la luz blanca en sus colores constituyentes.
El arco iris es un espectro natural producido por fenómenos meteorológicos. Puede lograrse un
efecto similar haciendo pasar luz solar a través de un prisma de vidrio.
Cuando un rayo de luz pasa de un medio transparente como el aire a otro medio transparente, por
ejemplo vidrio o agua, el rayo se desvía; al volver a salir al aire vuelve a desviarse. Esta desviación
se denomina refracción; la magnitud de la refracción depende de la longitud de onda de la luz. La
luz violeta, por ejemplo, se desvía más que la luz roja al pasar del aire al vidrio o del vidrio al aire.
Así, una mezcla de luces roja y violeta se dispersa al pasar por un prisma en forma de cuña y se
divide en dos colores.
Los aparatos para observar visualmente un espectro se denominan espectroscopios; los que sirven
para observar y registrar un espectro fotográficamente se llaman espectrógrafos; los empleados para
medir la intensidad de las diferentes partes del espectro se denominan espectrofotómetros. La
ciencia que utiliza los espectroscopios, espectrógrafos y espectrofotómetros para estudiar los
espectros se conoce como espectroscopia. Para medidas espectroscópicas extremadamente precisas
se emplean interferómetros. En el siglo XIX, los científicos descubrieron que más allá del extremo
violeta del espectro podía detectarse una radiación invisible para el ojo humano pero con una
marcada acción fotoquímica; se la denominó radiación ultravioleta. Igualmente, más allá del
extremo rojo del espectro se detectó radiación infrarroja que aunque era invisible transmitía energía,
como demostraba su capacidad para hacer subir un termómetro. Como consecuencia, se redefinió el
término espectro para que abarcara esas radiaciones invisibles, y desde entonces se ha ampliado
para incluir las ondas de radio más allá del infrarrojo y los rayos X y rayos gamma más allá del
ultravioleta.
Los distintos colores de luz tienen en común el ser radiaciones electromagnéticas que se desplazan
con la misma velocidad, aproximadamente 300.000 kilómetros por segundo. Se diferencian en su
frecuencia y longitud de onda (la frecuencia es igual a la velocidad de la luz dividida entre la
longitud de onda). Dos rayos de luz con la misma longitud de onda tienen la misma frecuencia y el
mismo color. La longitud de onda de la luz es tan corta que suele expresarse en nanómetros (nm),
que equivalen a una milmillonésima de metro, o una millonésima de milímetro. La longitud de onda
de la luz violeta varía entre unos 400 y 450 nm, y la de la luz roja entre unos 620 y 760 nm.
Oscilación
En física, química e ingeniería, movimiento repetido de un lado a otro en torno a una posición
central, o posición de equilibrio. El recorrido que consiste en ir desde una posición extrema a la otra
y volver a la primera,pasando dos veces por la posición central, se denomina ciclo. El número de
ciclos por segundo, o hercios (Hz), se conoce como frecuencia de la oscilación.
Frecuencia natural
Cualquier objeto oscilante tiene una ´frecuencia natural´, que es la frecuencia con la que tiende a
vibrar si no se le perturba. Por ejemplo, la frecuencia natural de un péndulo de 1 m de longitud es de
0,5 Hz, lo que significa que el péndulo va y vuelve una vez cada 2 segundos. Si se le da un ligero
impulso al péndulo cada 2 segundos, la amplitud de la oscilación aumenta gradualmente hasta
hacerse muy grande. El fenómeno por el que una fuerza relativamente pequeña aplicada de forma
repetida hace que la amplitud de un sistema oscilante se haga muy grande se denomina resonancia.
Muchos problemas graves de vibración en ingeniería son debidos a la resonancia. Por ejemplo, si la
frecuencia natural de la carrocería de un automóvil es la misma que el ritmo del motor cuando gira a
una velocidad determinada, la carrocería puede empezar a vibrar o a dar fuertes sacudidas. Esta
vibración puede evitarse al montar el motor sobre un material amortiguador, por ejemplo hule o
goma, para aislarlo de la carrocería.
Flameo
Un tipo peligroso de vibración es la oscilación repentina y violenta conocida como flameo. Este
fenómeno se produce sobre todo en las superficies de control de los aviones, pero también ocurre en
los cables eléctricos cubiertos de escarcha cuando la velocidad del viento es elevada. Uno de los
casos de flameo más espectaculares provocó en 1940 el hundimiento de un puente en Tacoma,
Estados Unidos. La causa fue un viento huracanado cuya velocidad potenció la vibración del
puente.
En el flameo, la amplitud de vibración de una estructura puede aumentar tan rápidamente como para
que ésta se desintegre casi de forma instantánea. Por eso, impedir el flameo es muy importante a la
hora de diseñar puentes y aviones. En el caso de los aviones, el análisis de flameo suele
complementarse con pruebas realizadas con una maqueta del avión en un túnel aerodinámico.
Frecuencia
Término empleado en física para indicar el número de veces que se repite en un segundo cualquier
fenómeno periódico. La frecuencia es muy importante en muchas áreas de la física, como la
mecánica o el estudio de las ondas de sonido.
Las frecuencias de los objetos oscilantes abarcan una amplísima gama de valores. Los temblores de
los terremotos pueden tener una frecuencia inferior a 1, mientras que las veloces oscilaciones
electromagnéticas de los rayos gamma pueden tener frecuencias de 10 20 o más. En casi todas las
formas de vibración mecánica existe una relación entre la frecuencia y las dimensiones físicas del
objeto que vibra. Por ejemplo, el tiempo que necesita un péndulo para realizar una oscilación
completa depende en parte de la longitud del péndulo; la frecuencia de vibración de la cuerda de un
instrumento musical está determinada en parte por la longitud de la cuerda. En general, cuanto más
corto es el objeto, mayor es la frecuencia de vibración.
En todas las clases de movimiento ondulatorio, la frecuencia de la onda suele darse indicando el
número de crestas de onda que pasan por un punto determinado cada segundo. La velocidad de la
onda y su frecuencia y longitud de onda están relacionadas entre sí. La longitud de onda (la
distancia entre dos crestas consecutivas) es inversamente proporcional a la frecuencia y
directamente proporcional a la velocidad. En términos matemáticos, esta relación se expresa por la
ecuación v = l f, donde v es la velocidad, f es la frecuencia y l (la letra griega lambda) es la longitud
de onda. A partir de esta ecuación puede hallarse cualquiera de las tres cantidades si se conocen las
otras dos.
La frecuencia se expresa en hercios (Hz); una frecuencia de 1 Hz significa que existe 1 ciclo u
oscilación por segundo. Heinrich Rudolf Hertz fue el primero en demostrar la naturaleza de la
propagación de las ondas electromagnéticas. Las unidades como kilohercios (kHz) (miles de ciclos
por segundo), megahercios (MHz) (millones de ciclos por segundo) y gigahercios (GHz) (miles de
millones de ciclos por segundo) se usan para describir fenómenos de alta frecuencia como las ondas
de radio. Estas ondas y otros tipos de radiación electromagnética pueden caracterizarse por sus
longitudes de onda o por sus frecuencias. Las ondas electromagnéticas de frecuencias
extremadamente elevadas, como la luz o los rayos X, suelen describirse mediante sus longitudes de
onda, que frecuentemente se expresan en nanómetros (un nanómetro,abreviado nm, es una
milmillonésima de metro). Una onda electromagnética con una longitud de onda de 1 nm tiene una
frecuencia de aproximadamente 300 millones de GHz.
RADIACION ELECTROMAGNETICA
Ondas producidas por la oscilación o la aceleración de una carga eléctrica. Las ondas
electromagnéticas tienen componentes eléctricos y magnéticos. La radiación electromagnética
puede ordenarse en un espectro que se extiende desde ondas de frecuencias muy elevadas
(longitudes de onda pequeñas) hasta frecuencias muy bajas (longitudes de onda altas).
Espectro
Serie de colores semejante a un arco iris (por este orden: violeta, azul, verde, amarillo, anaranjado y
rojo) que se produce al dividir una luz compuesta como la luz blanca en sus colores constituyentes.
El arco iris es un espectro natural producido por fenómenos meteorológicos. Puede lograrse un
efecto similar haciendo pasar luz solar a través de un prisma de vidrio.
Cuando un rayo de luz pasa de un medio transparente como el aire a otro medio transparente, por
ejemplo vidrio o agua, el rayo se desvía; al volver a salir al aire vuelve a desviarse. Esta desviación
se denomina refracción; la magnitud de la refracción depende de la longitud de onda de la luz. La
luz violeta, por ejemplo, se desvía más que la luz roja al pasar del aire al vidrio o del vidrio al aire.
Así, una mezcla de luces roja y violeta se dispersa al pasar por un prisma en forma de cuña y se
divide en dos colores. Se diferencian en su frecuencia y longitud de onda. Dos rayos de luz con la
misma longitud de onda tienen la misma frecuencia y el mismo color. La longitud de onda de la luz
es tan corta que suele expresarse en nanómetros (nm).
Los científicos descubrieron que más allá del extremo violeta del espectro podía detectarse una
radiación invisible para el ojo humano pero con una marcada acción fotoquímica; se la denominó
radiación ultravioleta. Igualmente, más allá del extremo rojo del espectro se detectó radiación
infrarroja que aunque era invisible transmitía energía, como demostraba su capacidad para hacer
subir un termómetro. Como consecuencia, se redefinió el término espectro para que abarcara esas
radiaciones invisibles, y desde entonces se ha ampliado para incluir las ondas de radio más allá del
infrarrojo y los rayos X y rayos gamma más allá del ultravioleta.
Las ondas electromagnéticas no necesitan un medio material para propagarse. Así, estas ondas
pueden atravesar el espacio interplanetario e interestelar y llegar a la Tierra desde el Sol y las
estrellas. Independientemente de su frecuencia y longitud de onda, todas las ondas
electromagnéticas se desplazan en el vacío a una velocidad c = 299.792 km/s. Todas las radiaciones
del espectro electromagnético presentan las propiedades típicas del movimiento ondulatorio, como
la difracción y la interferencia. La longitud de onda va desde billonésimas de metro hasta muchos
kilómetros, es importante para determinar su energía, su visibilidad, su poder de penetración y otras
características. y se expresa mediante la ecuación:
l.f = c
l: longitud de onda
f: frecuencia
Una onda electromagnética con una longitud de onda de 1 nm tiene una frecuencia de
aproximadamente 300 millones de GHz.
Teoría
Los físicos sabían que la luz se propaga como una onda transversal (una onda en la que las
vibraciones son perpendiculares a la dirección de avance del frente de ondas). Sin embargo,
suponían que las ondas de luz requerían algún medio material para transmitirse, por lo que
postulaban la existencia de una sustancia difusa, llamada éter, que constituía el medio no
observable. La teoría de Maxwell hacía innecesaria esa suposición, pero el concepto de éter no se
abandonó inmediatamente, porque encajaba con el concepto newtoniano de un marco absoluto de
referencia espaciotemporal. Un famoso experimento realizado por Michelson y Morley socavó el
concepto del éter, y fue muy importante en el desarrollo de la teoría de la relatividad. De este
trabajo concluyó que la velocidad de la radiación electromagnética en el vacío es una cantidad
invariante, que no depende de la velocidad de la fuente de radiación o del observador.
Cuantos de radiación
Los físicos se dieron cuenta de que la teoría ondulatoria no explicaba todas las propiedades de la
radiación. Planck demostró que la emisión y absorción de radiación se produce en unidades finitas
de energía denominadas cuantos . Albert Einstein consiguió explicar algunos resultados
experimentales sorprendentes en relación con el efecto fotoeléctrico externo postulando que la
radiación electromagnética puede comportarse como un chorro de partículas.
Hay otros fenómenos de la interacción entre radiación y materia que sólo la teoría cuántica explica.
Así,los físicos modernos se vieron obligados a reconocer que la radiación electromagnética se
comporta unas veces como partículas y otras como ondas. El concepto paralelo que implica que la
materia también puede presentar características ondulatorias además de corpusculares fue
desarrollado por De Broglie.
Rayos X
La longitud de onda de los rayos X va desde unos 10 nm hasta 0,001 nm. Cuanto menor es la
longitud de onda de los rayos X, mayores son su energía y poder de penetración. Los rayos de
mayor longitud de onda, cercanos a la banda ultravioleta del espectro electromagnético, se conocen
como rayos X blandos. Los de menor longitud de onda, que están más próximos a la zona de rayos
gamma, se denominan rayos X duros. Los rayos X formados por una mezcla de muchas longitudes
de onda diferentes se conocen como rayos X "blancos", para diferenciarlos de los rayos X
monocromáticos, que tienen una única longitud de onda.
Tanto la luz visible como los rayos X se producen a raíz de las transiciones de los electrones
atómicos de una órbita a otra. La luz visible corresponde a transiciones de electrones exteriores y
los rayos X a transiciones de electrones interiores. En el caso de la radiación de frenado, los rayos X
se producen por el frenado o deflección de electrones libres que atraviesan un campo eléctrico
intenso. Los rayos gamma, cuyos efectos son similares a los de los rayos X, se producen por
transiciones de energía en el interior de núcleos excitados.
Los rayos X se producen siempre que se bombardea un objeto material con electrones de alta
velocidad. Gran parte de la energía de los electrones se pierde en forma de calor; el resto produce
rayos X al provocar cambios en los átomos del blanco como resultado del impacto. Los rayos X
emitidos no pueden tener una energía mayor que la energía cinética de los electrones que los
producen. La radiación emitida no es monocromática, sino que se compone de una amplia gama de
longitudes de onda, con un marcado límite inferior que corresponde a la energía máxima de los
electrones empleados para el bombardeo. Este espectro continuo es independiente de la naturaleza
del blanco. Si se analizan los rayos X emitidos con un espectrómetro de rayos X, se encuentran
ciertas líneas definidas superpuestas sobre el espectro continuo; estas líneas, conocidas como rayos
X característicos, corresponden a longitudes de onda que dependen exclusivamente de la estructura
de los átomos del blanco. En otras palabras, un electrón de alta velocidad que choca contra el
blanco puede hacer dos cosas: inducir la emisión de rayos X de cualquier energía menor que su
energía cinética o provocar la emisión de rayos X de energías determinadas, que dependen de la
naturaleza de los átomos del blanco.
Producción de rayos X
El primer tubo de rayos X fue el tubo de Crookes, se trata de una ampolla de vidrio bajo vacío
parcial con dos electrodos. Cuando una corriente eléctrica pasa por un tubo de Crookes, el gas
residual que contiene se ioniza, y los iones positivos golpean el cátodo y expulsan electrones del
mismo. Estos electrones, que forman un haz de rayos catódicos,bombardean las paredes de vidrio
del tubo y producen rayos X. Estos tubos sólo generan rayos X blandos, de baja energía.
Un primer perfeccionamiento del tubo de rayos X fue la introducción de un cátodo curvo para
concentrar el haz de electrones sobre un blanco de metal pesado, llamado anticátodo o ánodo. Este
tipo de tubos genera rayos más duros,con menor longitud de onda y mayor energía que los del tubo
de Crookes original; sin embargo, su funcionamiento es errático porque la producción de rayos X
depende de la presión del gas en el tubo.
El tubo de Coolidge tiene un vacío muy alto y contiene un filamento calentado y un blanco.
Esencialmente, es un tubo de vacío termoiónico en el que el cátodo emite electrones al ser calentado
por una corriente auxiliar, y no al ser golpeado por iones, como ocurría en los anteriores tipos de
tubos. Los electrones emitidos por el cátodo calentado se aceleran mediante la aplicación de una
alta tensión entre los dos electrodos del tubo. Al aumentar la tensión disminuye la longitud de onda
mínima de la radiación.
La mayoría de los tubos de rayos X que se utilizan en la actualidad son tubos de Coolidge
modificados. Los tubos más grandes y potentes tienen anticátodos refrigerados por agua para
impedir que se fundan por el bombardeo de electrones. El tubo antichoque, muy usado, es una
modificación del tubo de Coolidge, con un mejor aislamiento de la carcasa (mediante aceite) y
cables de alimentación conectados a tierra. Los aparatos como el betatrón se emplean para producir
rayos X muy duros, de longitud de onda menor que la de los rayos gamma emitidos por elementos
naturalmente radiactivos.
Los rayos X afectan a una emulsión fotográfica del mismo modo que lo hace la luz. La absorción de
rayos X por una sustancia depende de su densidad y masa atómica. Cuanto menor sea la masa
atómica del material, más transparente será a los rayos X de una longitud de onda determinada.
Cuando se irradia el cuerpo humano con rayos X, los huesos (compuestos de elementos con mayor
masa atómica que los tejidos circundantes) absorben la radiación con más eficacia,por lo que
producen sombras más oscuras sobre una placa fotográfica. En la actualidad se utiliza radiación de
neutrones para algunos tipos de radiografía, y los resultados son casi los inversos. Los objetos que
producen sombras oscuras en una imagen de rayos X aparecen casi siempre claros en una
radiografía de neutrones.
Ionización : Otra característica importante de los rayos X es su poder de ionización, que depende
de su longitud de onda. La capacidad de ionización de los rayos X monocromáticos es directamente
proporcional a su energía. Esta propiedad proporciona un método para medir la energía de los rayos
X. Cuando se hacen pasar rayos X por una cámara de ionización se produce una corriente eléctrica
proporcional a la energía del haz incidente. Además de la cámara de ionización,otros aparatos más
sensibles como el contador Geiger o el contador de centelleo también miden la energía de los rayos
X a partir de la ionización que provocan. Por otra parte, la capacidad ionizante de los rayos X hace
que su trayectoria pueda visualizarse en una cámara de niebla o de burbujas.
Difracción de rayos X: Los rayos X pueden difractarse al atravesar un cristal, o ser dispersados por
él, ya que el cristal está formado por redes de átomos regulares que actúan como redes de difracción
muy finas. Los diagramas de interferencia resultantes pueden fotografiarse y analizarse para
determinar la longitud de onda de los rayos X incidentes o la distancia entre los átomos del cristal,
según cuál de ambos datos se desconozca. Los rayos X también pueden difractarse mediante redes
de difracción rayadas si su espaciado es aproximadamente igual a la longitud de onda de los rayos
X.
Algunas aplicaciones recientes de los rayos X en la investigación son cada vez más importantes. La
microrradiografía, por ejemplo, produce imágenes de alta resolución que pueden ampliarse
considerablemente. Dos radiografías pueden combinarse en un proyector para producir una imagen
tridimensional llamada estereorradiograma. La radiografía en color también se emplea para mejorar
el detalle. En este proceso, las diferencias en la absorción de rayos X por una muestra se
representan como colores distintos. La microsonda de electrones, que utiliza un haz de electrones
muy preciso para generar rayos X sobre una muestra en una superficie de sólo una micra cuadrada,
proporciona una información muy detallada.
Muchos productos industriales se inspeccionan de forma rutinaria mediante rayos X, para que las
unidades defectuosas puedan eliminarse en el lugar de producción. También existen otras
aplicaciones, entre las que figuran la identificación de gemas falsas o la detección de mercancías de
contrabando en las aduanas. Los rayos X ultrablandos se emplean para determinar la autenticidad de
obras de arte y para restaurar cuadros.
La utilidad de las radiografías para el diagnóstico se debe a la capacidad de penetración de los rayos
X. Las radiografías revelan minúsculas diferencias en los tejidos, y muchas enfermedades pueden
diagnosticarse con este método. Los rayos X eran el método más importante para diagnosticar la
tuberculosis, las imágenes de los pulmones eran fáciles de interpretar porque los espacios con aire
son más transparentes a los rayos X que los tejidos pulmonares. Otras cavidades del cuerpo pueden
llenarse artificialmente con materiales de contraste, de forma que un órgano determinado se vea con
mayor claridad. El sulfato de bario, muy opaco a los rayos X, se utiliza para la radiografía del
aparato digestivo. Para examinar los riñones o la vesícula biliar se administran determinados
compuestos opacos por vía oral o intravenosa. Estos compuestos pueden tener efectos secundarios
graves, por lo que sólo deben ser empleados después de una consulta cuidadosa. El uso rutinario de
los rayos X se ha desaconsejado en los últimos años, ya que su utilidad es cuestionable.
Un aparato de rayos X que se emplea sin compuestos de contraste, proporciona visiones claras de
cualquier parte de la anatomía, incluidos los tejidos blandos. Conocido como tomografía axial
computerizada; gira 180° en torno al cuerpo del paciente emitiendo un haz de rayos X del grosor de
un lápiz en 160 puntos diferentes. Unos cristales situados en los puntos opuestos reciben y registran
la absorción de los distintos espesores de tejido y huesos. Estos datos se envían a una computadora
que convierte la información en una imagen sobre una pantalla. Con la misma dosis de radiación
que un aparato de rayos X convencional, puede verse todo un corte de espesor determinado del
cuerpo con una claridad aproximadamente 100 veces mayor.
Rayos Ultravioletas
Radiación electromagnética cuyas longitudes de onda van aproximadamente desde los 400 nm, el
límite de la luz violeta, hasta los 15 nm, donde empiezan los rayos X. La radiación ultravioleta
puede producirse artificialmente mediante lámparas de arco; la de origen natural proviene
principalmente del Sol.
La radiación ultravioleta con longitudes de onda inferiores a 300 nm se emplea para esterilizar
superficies porque mata a las bacterias y los virus. En los seres humanos, la exposición a radiación
ultravioleta de longitudes de onda inferiores a los 310 nm puede producir quemaduras; una
exposición prolongada durante varios años puede provocar cáncer de piel.
La atmósfera terrestre protege a los organismos vivos de la radiación ultravioleta del Sol. Si toda la
radiación ultravioleta procedente del Sol llegara a la superficie de la Tierra, acabaría probablemente
con la mayor parte de la vida en el planeta. La capa de ozono de la atmósfera absorbe casi toda la
radiación ultravioleta de baja longitud de onda y gran parte de la de alta longitud de onda. Sin
embargo, la radiación ultravioleta no sólo tiene efectos perniciosos; gran parte de la vitamina D que
las personas y los animales necesitan para mantenerse sanos se produce cuando la piel es irradiada
por rayos ultravioleta.
Muchas sustancias se comportan de forma distinta cuando se las expone a luz ultravioleta que
cuando se las expone a luz visible. Por ejemplo, algunos minerales, colorantes, vitaminas, aceites
naturales y otros productos se vuelven fluorescentes en presencia de luz ultravioleta, es decir,
parecen brillar. Las moléculas de esas sustancias absorben la radiación ultravioleta invisible,
adquieren energía, y se desprenden del exceso de energía emitiendo luz visible. Otro ejemplo es el
vidrio de las ventanas, que es transparente a la luz visible pero opaco a una amplia gama de rayos
ultravioletas,especialmente los de baja longitud de onda. Algunos vidrios especiales son
transparentes para los rayos ultravioleta de mayor longitud de onda, y el cuarzo es transparente a
toda la gama de rayos ultravioleta naturales.
Rayos Infrarrojos
Los rayos infrarrojos se utilizan para obtener imágenes de objetos lejanos ocultos por la bruma
atmosférica, que dispersa la luz visible pero no la radiación infrarroja. Hay dispositivos infrarrojos
que permiten ver objetos en la oscuridad. Estos instrumentos consisten básicamente en una lámpara
que emite un haz de rayos infrarrojos, a veces denominados luz negra, y un telescopio que recibe la
radiación reflejada por el objeto y la convierte en una imagen visible. En astronomía se utilizan los
rayos infrarrojos para estudiar determinadas estrellas y nebulosas.
Para las fotografías infrarrojas de alta precisión se emplea un filtro opaco que sólo deja pasar
radiación infrarroja, pero generalmente basta un filtro corriente anaranjado o rojo claro, que absorbe
la luz azul y violeta. La teledetección mediante fotografía infrarroja aérea y orbital se ha empleado
para observar las condiciones de la cosecha y el daño por insectos y enfermedades en grandes zonas
agrícolas, así como para localizar depósitos minerales. En la industria, la espectroscopia de
infrarrojos es una parte cada vez más importante de la investigación de metales y aleaciones, y la
fotografía infrarroja se emplea para regular la calidad de los productos.
Microondas
Ondas electromagnéticas de radio situadas entre los rayos infrarrojos y las ondas de radio
convencionales. Su longitud de onda va aproximadamente desde 1 mm hasta 30 cm. Las
microondas se generan con tubos de electrones especiales como el clistrón o el magnetrón, que
incorporan resonadores para controlar la frecuencia, o con osciladores o dispositivos de estado
sólido especiales. Las microondas tienen muchas aplicaciones: radio y televisión, radares,
meteorología, comunicaciones vía satélite, medición de distancias, investigación de las propiedades
de la materia o cocinado de alimentos.
Los hornos de microondas funcionan excitando las moléculas de agua de los alimentos, lo que hace
que vibren y produzcan calor. Las microondas entran a través de aberturas practicadas en la parte
superior de la cavidad de cocción, donde un agitador las dispersa de forma homogénea por todo el
horno. Las microondas no pueden penetrar en un recipiente de metal para calentar la comida, pero sí
atraviesan los recipientes no metálicos.
Las microondas pueden detectarse con un instrumento formado por un rectificador de diodos de
silicio conectado a un amplificador y a un dispositivo de registro o una pantalla. La exposición a las
microondas es peligrosa cuando se producen densidades elevadas de radiación, como ocurre en los
máseres. Pueden provocar quemaduras, cataratas, daños en el sistema nervioso y esterilidad.
Todavía no se conocen bien los posibles peligros de la exposición prolongada a microondas de bajo
nivel.
Técnica desarrollada por Félix Bloch para el análisis espectroscópico de sustancias. En la RMN se
coloca una sustancia en un campo magnético intenso que afecta al espín de los núcleos atómicos de
algunos isótopos de elementos comunes. Después se hace pasar a través de la sustancia una onda de
radio que reorienta los núcleos. Cuando se desconecta la onda, los núcleos liberan un pulso de
energía que proporciona información sobre la estructura molecular de la sustancia y que puede ser
transformado en una imagen mediante técnicas informáticas. La RMN se convirtió también en una
herramienta de diagnóstico para obtener imágenes de tejidos del interior del cuerpo humano más
precisas que las logradas mediante tomografía axial computerizada. La RMN no implica
radiactividad ni ningún otro tipo de radiación ionizante, y es una técnica de exploración no superada
para obtener imágenes del cerebro, la cabeza y el cuello. No obstante, no debe emplearse en
pacientes con implantes metálicos. Por otra parte, la RMN es más cara que una tomografía axial
computerizada, que es el método que se suele emplear para diagnosticar hemorragias cerebrales.