Está en la página 1de 73

FÍSICA

Introducción a las ciencias experimentales


 Variables históricas y sociales en la construcción de la ciencia.
 Metodología, lógica explicativa y características de la ciencia.
 Selección y relación de variables.
 Razonamiento lógico, lenguaje simbólico, representaciones gráficas, elaboración de
preguntas, formulación de hipótesis e inferencias, explicación de fenómenos,
establecimiento de relaciones de causalidad.
 Utilidad de modelos en la ciencia.
 Papel predictivo de la ciencia.
 Conocimiento científico, tecnológico e impacto social.
 Medición. Instrumentos de medición de longitud y tiempo en diferentes culturas.
 Sistema internacional de unidades.
Cinemática
 Movimiento, marco de referencia, posición, trayectoria, desplazamiento, velocidad, rapidez,
aceleración, representación e interpretación de datos en tablas, gráficos y ecuaciones.
 Caída libre, puntos de vista de Aristóteles y de Galileo. Movimiento ondulatorio, velocidad
de propagación, relación longitud de onda y frecuencia. Sonido, fuente vibratoria.
Dinámica y energía
 Fuerza, efectos, medición, tipos, suma. Relación entre masa, fuerza y aceleración. Reposo.
 Inercia. Leyes de Newton. Reposo. Gravitación, peso, modelos sobre movimiento de
 los astros del sistema solar, representación gráfica fuerza contra distancia
 Mareas, origen. Energía, relación fuerza y energía, energía cinética, energía potencial,
 transformaciones de energía, conservación de la energía. Energéticos. Fuentes renovables
 y no renovables
Termodinámica y fluidos
 Modelo cinético de partículas, relación con volumen, masa, densidad y estado físico.
 Temperatura y calor. Presión y cambios de estado. Transformaciones de calor a otras
 formas de energía. Principio de conservación de la energía. Presión y fuerza. Presión en
 líquidos y gases. Principio de Pascal. Funcionamiento del submarino. Fenómenos
atmosféricos.
 Sismos. Causas y consecuencias del efecto invernadero y del calentamiento global.
Electromagnetismo
 �Carga eléctrica, unidad de carga, descubrimiento del electrón, fenómenos electrostáticos,
 formas de obtención de carga, fuerza eléctrica, corriente eléctrica, resistencia eléctrica,
 conductores y aislantes, energía eléctrica, funcionamiento del pararrayos. Imanes, origen
 del magnetismo, magnetismo terrestre, fuerza magnética, magnetización de materiales,
 funcionamiento de la brújula. Electroimán. Inducción electromagnética, origen de la
electricidad
 doméstica, aportaciones del electromagnetismo a la vida social. Ondas electromagnéticas,
 propagación, espectro, utilidad en el conocimiento del universo. Diferencia
 entre astronomía y astrología. Luz, reflexión, refracción. Refracción en un prisma. Arco
 iris. Relación entre color y frecuencia. Longitud de onda y energía de la onda.
Funcionamiento
 del láser. Fibra optica. Rayos X y diagnóstico de enfermedades.

FÍSICA
Introducción a las ciencias experimentales
1. Variables históricas y sociales en la construcción de la ciencia.

Los esfuerzos para sistematizar el conocimiento se remontan a los tiempos prehistóricos, como
atestiguan los dibujos que los pueblos del paleolítico pintaban en las paredes de las cuevas, los
datos numéricos grabados en hueso o piedra o los objetos fabricados por las civilizaciones del
neolítico. Los testimonios escritos más antiguos de investigaciones protocientíficas proceden de las
culturas mesopotámicas, y corresponden a listas de observaciones astronómicas, sustancias
químicas o síntomas de enfermedades —además de numerosas tablas matemáticas— inscritas en
caracteres cuneiformes sobre tablillas de arcilla. Otras tablillas que datan aproximadamente del
2000 a.C. demuestran que los babilonios conocían el teorema de Pitágoras, resolvían ecuaciones
cuadráticas y habían desarrollado un sistema sexagesimal de medidas (basado en el número 60) del
que se derivan las unidades modernas para tiempos y ángulos (véase Sistema numérico;
Numeración).

En el valle del Nilo se han descubierto papiros de un periodo cronológico próximo al de las culturas
mesopotámicas que contienen información sobre el tratamiento de heridas y enfermedades, la
distribución de pan y cerveza, y la forma de hallar el volumen de una parte de una pirámide.
Algunas de las unidades de longitud actuales proceden del sistema de medidas egipcio y el
calendario que empleamos es el resultado indirecto de observaciones astronómicas prehelénicas.

 Metodología, lógica explicativa y características de la ciencia

Los seres humanos nos hemos enfrentado siempre al reto, teórico y práctico a la vez, de aumentar
nuestros conocimientos y de transformar la realidad circundante y así hemos ido acumulando
saberes sobre el entorno en el que vivimos.

Este conjunto de conocimientos que las personas tenemos sobre el mundo, así como la actividad
humana destinada a conseguirlos, es lo que denominamos ciencia (deriva del latín "scire" que
significa: saber, conocer; su equivalente griego es "sophia", que significa el arte de saber ). No
obstante el título de ciencia no se puede aplicar a cualquier conocimiento, sino únicamente a los
saberes que han sido obtenidos mediante una metodología, el método científico, y cumplen
determinadas condiciones.

Entendemos por conocimiento el saber consciente y fundamentado que somos capaces de


comunicar y discutir; se corresponde con el término griego "episteme" y se distingue así del
conocimiento vulgar o "doxa" que es simplemente recordado y que no podemos someter a crítica.
Actualmente se considera que el conocimiento es un proceso, en oposición a la consideración de la
filosofía tradicional que lo concebía como algo estático (las formas inmanentes pero permanentes
de Aristóteles, el idealismo cartesiano, la teoría de la armonía preestablecida de Leibnitz, las
categorías a priori de Kant...). Así lo que caracteriza a la ciencia actual no es la pretensión de
alcanzar un saber verdadero sino, como afirma Popper (1985:68), la obtención de un saber riguroso
y contrastable: "La ciencia debe conseguir estructurar sistemáticamente los conocimientos en
función de unos principios generales que sirven de explicación y poseen a aquéllos, dando una
coherencia general y claridad inexistente anteriormente"

Y es que la ciencia no debe perseguir la ilusoria meta de que sus respuestas sean definitivas, ni
siquiera probables; antes bien, su avance se encamina hacia una finalidad infinita: la de descubrir
incesantemente problemas nuevos, más profundos, más generales, y justificar nuestras respuestas al
respecto. "La ciencia no pretende ser verdadera" - dirá Bunge (1969)- "ni por tanto final,
incorregible y cierta. Lo que afirma la ciencia es:

- Que es más verdadera que cualquier modelo no científico del mundo.

- Que es capaz de probar, sometiéndola a contrastación empírica, esa pretensión


de verdad.

- Que es capaz de descubrir sus propias deficiencias.

- Que es capaz de corregir sus propias deficiencias, o sea, de reconstruir


representaciones parciales de la estructura del mundo que sean cada vez más
adecuadas."

Papel predictivo de la ciencia


Los científicos realistas no afirman que todo en la ciencia actual es correcto pero, como era
de esperar, afirman que las mejores teorías actuales son poco más o menos verdaderas, que
la mayoría de las entidades a las que se refieren existen en realidad, y que en la historia de
la ciencia las últimas teorías en un campo concreto han estado por lo común más próximas
a la verdad que las teorías que sustituían. Para los realistas, el progreso científico consiste
sobre todo en generar descripciones cada vez más amplias y exactas de un mundo en su
mayor parte invisible.
Realistas e instrumentalistas están de acuerdo en que nuestras mejores teorías en las
ciencias físicas han tenido un notable éxito de predicción.

 Conocimiento científico, tecnológico e impacto social

origen del conocimiento

En la obtención del conocimiento intervienen tres elementos:

 Un sujeto que quieres conocer (sujeto cognoscente)


 Un objeto del estudio (objeto de conocimiento)

 El conocimiento

Conocimiento empírico

El conocimiento empírico se desprende de la experiencia y a través de los sentidos. Es el


conocimiento que le permite al hombre interactuar con su ambiente; es generacional, sin un
razonamiento elaborado, ni una crítica al procedimiento de obtención ni a las fuentes de
información.

Los conceptos empíricos son imprecisos e inciertos, se producen por ideas preconcebidas, tienden
a aceptar explicaciones metafísicas y son dogmáticos. Sin embargo, el conocimiento empírico sirve
de base al conocimiento científico, al extraerse con método de la realidad.
Conocimiento científico

El conocimiento empírico se convierte en científico al extraerlo de la realidad con métodos y


herramientas precisas. Se integra en un sistema de conceptos, teorías y leyes. El conocimiento
científico rebasa los hechos empíricos. Puede generalizarse. Puede pronosticarse.

El conocimiento científico resiste la confrontación con la realidad, descarta explicaciones


metafísicas, y utiliza fuentes de primera mano. Por ejemplo, una enfermera puede notar diferencias
entre la profesional y la técnica. Sabe que realizan aparentemente las mismas funciones
(conocimiento empírico), y aunque pudiera atribuir esto a los estereotipos, no acierta a explicarse
las determinantes de la práctica de enfermería, ni a definir las diferencias que percibe entre una y
otra. Sin embargo, al estudiar las determinantes históricas, políticas, culturales, económicas,
demográficas, ecológicas, educativas, etc., puede describir, explicar, generalizar y predecir
(conocimiento científico) las causas de una práctica profesional en relación con una técnica.

La forma de interpretar las informaciones de la realidad en un contexto científico, deriva de


cuatro posturas al respecto: Positivismo y neopositivismo, Hermenéutica, Dialéctica, y
Racionalismo crítico.

Volviendo a los requisitos que debe cumplir un conocimiento para que pueda considerarse
conocimiento científico, Bunge exige que sea racional, sistemático, exacto, verificable y fiable. Por
su parte, Díaz y Heler apuntan las siguientes características:

 - Saber crítico y fundamentado. Debe justificar sus conocimientos y dar pruebas de su


verdad.
 - Sistemático. El conocimiento científico no consiste en conocimientos dispersos e
inconexos, sino en un saber ordenado lógicamente que constituye un sistema que permite
relacionar hechos entre sí. Las interrelaciones entre los conocimientos es lo que da sentido a
las TEORÍAS (formulaciones que pretenden explicar un aspecto determinado de un
fenómeno), que se estructuran en LEYES y se representan mediante MODELOS
(representaciones simplificadas de la realidad que muestran su estructura y
funcionamiento).

 - Explicativo. La ciencia formula teorías que dan lugar a leyes generales que explican
hechos particulares y predicen comportamientos. Son conocimientos útiles.

 - Verificable. Se centra en fenómenos susceptibles de ser comprobados experimentalmente


o al menos contrastados experiencialmente (de manera que demuestren su adecuación, su
utilidad).

 - Metódico. Los conocimientos científicos no se adquieran al azar, sino que son fruto de
rigurosos procedimientos (observación, reflexión, contrastación, experimentación, etc.).

 - Objetivo. Aunque actualmente se reconoce la dificultad de una objetividad completa


incluso en el ámbito de las Ciencias Naturales.

 - Comunicable. Debe utilizar un lenguaje científico, unívoco en términos y proposiciones,


y que evite las ambigüedades.
 - Provisorio. La concepción de verdad como algo absoluto debe ser abandonada y
substituida por la certeza, considerada como una adecuación transitoria del saber a la
realidad. El saber científico está en permanente revisión, y así evoluciona.

Pero la ciencia no es únicamente un conjunto de conocimientos que cumplen unos determinados


requisitos. Tan importante como estos conocimientos es la forma como se obtienen. La manera de
proceder característica de la ciencia se ha dado en llamar el método científico. Bertran Russell
(1969) señala que el método científico consiste en observar aquellos hechos que permiten al
observador descubrir las leyes generales que los rigen., y describe así el proceso de investigación
científica: "Para llegar a establecer una ley científica existen tres etapas principales: la primera
consiste en observar los hechos significativos; la segunda en sentar hipótesis que, si son
verdaderas, expliquen aquellos hechos; la tercera en deducir de estas hipótesis consecuencias que
pueden ser puestas a prueba por la observación. Si las consecuencias son verificadas, se acepta
provisionalmente la hipótesis como verdadera, aunque requerirá ordinariamente modificación
posterior, como resultado del descubrimiento de hechos ulteriores."

Mediciones

Para la física y la química, en su calidad de ciencias experimentales, la medida constituye una


operación fundamental. Sus descripciones del mundo físico se refieren a magnitudes o propiedades
medibles. Las unidades, como cantidades de referencia a efectos de comparación,forman parte de
los resultados de las medidas. Cada dato experimental se acompaña de su error o, al menos, se
escriben sus cifras de tal modo que reflejen la precisión de la correspondiente medida.

Se consideran ciencias experimentales aquellas que por sus características y, particularmente por el
tipo de problemas de los que se ocupan, pueden someter sus afirmaciones o enunciados al juicio de
la experimentación. En un sentido científico la experimentación hace alusión a una observación
controlada; en otros términos, experimentar es reproducir en el laboratorio el fenómeno en estudio
con la posibilidad de variar a voluntad y de forma precisa las condiciones de observación.

La física y la química constituyen ejemplos de ciencias experimentales. La historia de ambas


disciplinas pone de manifiesto que la experimentación ha desempeñado un doble papel en su
desarrollo. Con frecuencia, los experimentos científicos sólo pueden ser entendidos en el marco de
una teoría que orienta y dirige al investigador sobre qué es lo que hay que buscar y sobre qué
hipótesis deberán ser contrastadas experimentalmente. Pero, en ocasiones, los resultados de los
experimentos generan información que sirve de base para una elaboración teórica posterior. Este
doble papel de la experimentación como juez y guía del trabajo científico se apoya en la realización
de medidas que facilitan una descripción de los fenómenos en términos de cantidad. La medida
constituye entonces una operación clave en las ciencias experimentales.

MAGNITUDES Y MEDIDA

El gran físico inglés Kelvin consideraba que solamente puede aceptarse como satisfactorio nuestro
conocimiento si somos capaces de expresarlo mediante números. Aun cuando la afirmación de
Kelvin tomada al pie de la letra supondría la descalificación de valiosas formas de
conocimiento,destaca la importancia del conocimiento cuantitativo. La operación que permite
expresar una propiedad o atributo físico en forma numérica es precisamente la medida.

Magnitud, cantidad y unidad


La noción de magnitud está inevitablemente relacionada con la de medida. Se denominan
magnitudes a ciertas propiedades o aspectos observables de un sistema físico que pueden ser
expresados en forma numérica. En otros términos, las magnitudes son propiedades o atributos
medibles.

La longitud, la masa, el volumen, la fuerza, la velocidad,la cantidad de sustancia son ejemplos de


magnitudes físicas. La belleza, sin embargo, no es una magnitud, entre otras razones porque no es
posible elaborar una escala y mucho menos un aparato que permita determinar cuántas veces una
persona o un objeto es más bello que otro. La sinceridad o la amabilidad tampoco lo son. Se trata de
aspectos cualitativos porque indican cualidad y no cantidad.

En el lenguaje de la física la noción de cantidad se refiere al valor que toma una magnitud dada en
un cuerpo o sistema concreto; la longitud de esta mesa, la masa de aquella moneda,el volumen de
ese lapicero, son ejemplos de cantidades. Una cantidad de referencia se denomina unidad y el
sistema físico que encarna la cantidad considerada como una unidad se denomina patrón.

La medida como comparación

La medida de una magnitud física supone, en último extremo, la comparación del objeto que
encarna dicha propiedad con otro de la misma naturaleza que se toma como referencia y que
constituye el patrón.

La medida de longitudes se efectuaba en la antigüedad empleando una vara como patrón, es decir,
determinando cuántas veces la longitud del objeto a medir contenía a la de patrón. La vara, como
predecesora del metro de sastre, ha pasado a la historia como una unidad de medida equivalente a
835,9 mm. Este tipo de comparación inmediata de objetos corresponde a las llamadas medidas
directas.

Con frecuencia, la comparación se efectúa entre atributos que, aun cuando están relacionados con lo
que se desea medir, son de diferente naturaleza. Tal es el caso de las medidas térmicas, en las que
comparando longitudes sobre la escala graduada de un termómetro se determinan temperaturas.
Esta otra clase de medidas se denominan indirectas.

Tipos de magnitudes

Entre las distintas propiedades medibles puede establecerse una clasificación básica. Un grupo
importante de ellas quedan perfectamente determinadas cuando se expresa su cantidad mediante un
número seguido de la unidad correspondiente. Este tipo de magnitudes reciben el nombre de
magnitudes escalares. La longitud, el volumen, la masa, la temperatura, la energía, son sólo algunos
ejemplos. Sin embargo, existen otras que precisan para su total definición que se especifique,
además de los elementos anteriores,una dirección o una recta de acción y un sentido: son las
llamadas magnitudes vectoriales o dirigidas. La fuerza es un ejemplo claro de magnitud vectorial,
pues sus efectos al actuar sobre un cuerpo dependerán no sólo de su cantidad,sino también de la
línea a lo largo de la cual se ejerza su acción.

Al igual que los números reales son utilizados para representar cantidades escalares, las cantidades
vectoriales requieren el empleo de otros elementos matemáticos diferentes de los números, con
mayor capacidad de descripción. Estos elementos matemáticos que pueden representar intensidad,
dirección y sentido se denominan vectores. Las magnitudes que se manejan en la vida diaria son,
por lo general, escalares. El dependiente de una tienda de ultramarinos, el comerciante o incluso el
contable, manejan masas,precios, volúmenes, etc., y por ello les es suficiente saber operar bien con
números. Sin embargo, el físico, y en la medida correspondiente el estudiante de física, al tener que
manejar magnitudes vectoriales, ha de operar, además, con vectores.

 Sistema internacional de unidades.

SISTEMAS DE UNIDADES

En las ciencias físicas tanto las leyes como las definiciones relacionan matemáticamente entre sí
grupos, por lo general amplios, de magnitudes. Por ello es posible seleccionar un conjunto reducido
pero completo de ellas de tal modo que cualquier otra magnitud pueda ser expresada en función de
dicho conjunto. Esas pocas magnitudes relacionadas se denominan magnitudes fundamentales,
mientras que el resto que pueden expresarse en función de las fundamentales reciben el nombre de
magnitudes derivadas.

Cuando se ha elegido ese conjunto reducido y completo de magnitudes fundamentales y se han


definido correctamente sus unidades correspondientes, se dispone entonces de un sistema de
unidades. La definición de unidades dentro de un sistema se atiene a diferentes criterios. Así la
unidad ha de ser constante como corresponde a su función de cantidad de referencia equivalente
para las diferentes mediciones,pero también ha de ser reproducible con relativa facilidad en un
laboratorio.

Así, por ejemplo, la definición de amperio como unidad de intensidad de corriente ha evolucionado
sobre la base de este criterio. Debido a que las fuerzas se saben medir con bastante precisión y
facilidad, en la actualidad se define el amperio a partir de un fenómeno electromagnético en el que
aparecen fuerzas entre conductores cuya magnitud depende de la intensidad de corriente.

El Sistema Internacional de Unidades (SI)

Las condiciones de definición de un sistema de unidades permitiría el establecimiento de una


considerable variedad de ellos. Así, es posible elegir conjuntos de magnitudes fundamentales
diferentes o incluso, aun aceptando el mismo conjunto, elegir y definir unidades distintas de un
sistema a otro. Desde un punto de vista formal, cada científico o cada país podría operar con su
propio sistema de unidades,sin embargo, y aunque en el pasado tal situación se ha dado con cierta
frecuencia (recuérdense los países anglosajones con sus millas, pies, libras, grados Fahrenheit, etc.),
existe una tendencia generalizada a adoptar un mismo sistema de unidades con el fin de facilitar la
cooperación y comunicación en el terreno científico y técnico.

En esta línea de acción, la XI Conferencia General de Pesas y Medidas celebrada en París en 1960,
tomó la resolución de adoptar el llamado con anterioridad Sistema Práctico de Unidades, como
Sistema Internacional, que es, precisamente, como se le conoce a partir de entonces. El Sistema
Internacional de Unidades (abreviadamente SI) distingue y establece, además de las magnitudes
básicas y de las magnitudes derivadas, un tercer tipo formado por aquellas que aún no están
incluidas en ninguno de los dos anteriores, son denominadas magnitudes suplementarias.

El SI toma como magnitudes fundamentales la longitud, la masa, el tiempo, la intensidad de


corriente eléctrica, la temperatura absoluta, la intensidad luminosa y la cantidad de sustancia, y fija
las correspondientes unidades para cada una de ellas. A estas siete magnitudes fundamentales hay
que añadir dos suplementarias asociadas a medidas angulares, el ángulo plano y el ángulo sólido. La
definición de las diferentes unidades fundamentales ha evolucionado con el tiempo al mismo ritmo
que las propias ciencias físicas. Así,el segundo se definió inicialmente como 1/86 400 la duración
del día solar medio, esto es, promediado a lo largo de un año.

Un día normal tiene 24 h aproximadamente, es decir 24 h.60 min = 1400 min y 1400 min.60 s = 86
400 s ; no obstante, esto tan sólo es aproximado, pues la duración del día varía a lo largo del año en
algunos segundos, de ahí que se tome como referencia la duración promediada del día solar. Pero
debido a que el periodo de rotación de la Tierra puede variar, y de hecho varía, se ha acudido al
átomo para buscar en él un periodo de tiempo fijo al cual referir la definición de su unidad
fundamental.

El sistema internacional

A lo largo de la historia el hombre ha venido empleando diversos tipos de sistemas de unidades.


Estos están íntimamente relacionados con la condición histórica de los pueblos que las crearon, las
adaptaron o las impusieron a otras culturas. Su permanencia y extensión en el tiempo lógicamente
también ha quedado ligada al destino de esos pueblos y a la aparición de otros sistemas más
coherentes y generalizados. El sistema anglosajón de medidas -millas, pies, libras, Grados
Fahrenheit - todavía en vigor en determinadas áreas geográficas, es, no obstante, un ejemplo
evidente de un sistema de unidades en recesión. Otros sistemas son el cegesimal - centímetro,
gramo, segundo -, el terrestre o técnico -metro-kilogramo, fuerza-segundo-, el Giorgi o MKS -
metro, kilogramo, segundo- y el sistema métrico decimal, muy extendido en ciencia, industria y
comercio,y que constituyó la base de elaboración del Sistema Internacional.

El SI es el sistema práctico de unidades de medidas adoptado por la XI Conferencia General de


Pesas y Medidas celebrada en octubre de 1960 en París. Trabaja sobre siete magnitudes
fundamentales (longitud, masa, tiempo, intensidad de corriente eléctrica, temperatura absoluta,
intensidad luminosa y cantidad de sustancia) de las que se determinan sus correspondientes
unidades fundamentales (metro, kilogramo, segundo, ampere, Kelvin, candela y mol). De estas siete
unidades se definen las derivadas (coulomb, joule, newton, pascal, volt, ohm, etc.), además de otras
suplementarias de estas últimas.

Unidades fundamentales

Unidad de Longitud: El metro (m) es la longitud recorrida por la luz en el vacío durante un
período de tiempo de 1/299 792 458 s.

Unidad de Masa: El kilogramo (kg) es la masa del prototipo internacional de platino iridiado que
se conserva en la Oficina de Pesas y Medidas de París.

Unidad de Tiempo: El segundo (s) es la duración de 9 192 631 770 períodos de la radiación
correspondiente a la transición entre dos niveles fundamentales del átomo Cesio 133.

Unidad de Corriente Eléctrica: El ampere (A) es la intensidad de corriente, la cual al mantenerse


entre dos conductores paralelos, rectilíneos, longitud infinita, sección transversal circular
despreciable y separados en el vacío por una distancia de un metro, producirá una fuerza entre estos
dos conductores igual a 2 x 10-7 N por cada metro de longitud.

Unidad de Temperatura Termodinámica: El Kelvin (K) es la fracción 1/273,16 de la temperatura


termodinámica del punto triple del agua.
Unidad de Intensidad Luminosa: La candela (cd) es la intensidad luminosa, en una dirección
dada,de una fuente que emite radiación monocromática de frecuencia 540 x 10 12 hertz y que tiene
una intensidad energética en esta dirección de 1/683 W por estereorradián (sr).

Unidad de Cantidad de Sustancia: El mol es la cantidad de materia contenida en un sistema y que


tiene tantas entidades elementales como átomos hay en 0,012 kilogramos de carbono 12. Cuando es
utilizado el mol, deben ser especificadas las entidades elementales y las mismas pueden ser átomos,
moléculas, iones, electrones, otras partículas o grupos de tales partículas.

Las unidades base del Sistema Internacional de Unidades son:

MAGNITUD BASE NOMBRE SIMBOLO


longitud metro m
masa kilogramo kg
tiempo segundo s
corriente eléctrica Ampere A
temperatura termodinámica Kelvin K
cantidad de sustancia mol mol
intensidad luminosa candela cd

Unidades derivadas

Ciertas unidades derivadas han recibido unos nombres y símbolos especiales. Estas unidades
pueden así mismo ser utilizadas en combinación con otras unidades base o derivadas para expresar
unidades de otras cantidades. Estos nombre y símbolos especiales son una forma de expresar
unidades de uso frecuente.

coulomb (C): Cantidad de electricidad transportada en un segundo por una corriente de un amperio.

joule (J): Trabajo producido por una fuerza de un newton cuando su punto de aplicación se desplaza
la distancia de un metro en la dirección de la fuerza.

newton (N): Es la fuerza que, aplicada a un cuerpo que tiene una masa de 1 kilogramo, le comunica
una aceleración de 1 metro por segundo, cada segundo.

pascal (Pa): Unidad de presión. Es la presión uniforme que,actuando sobre una superficie plana de
1 metro cuadrado, ejerce perpendicularmente a esta superficie una fuerza total de 1 newton.

volt (V): Unidad de tensión eléctrica, potencial eléctrico,fuerza electromotriz. Es la diferencia de


potencial eléctrico que existe entre dos puntos de un hilo conductor que transporta una corriente de
intensidad constante de 1 ampere cuando la potencia disipada entre esos puntos es igual a 1 watt.

watt (W): Potencia que da lugar a una producción de energía igual a 1 joule por segundo.

ohm (Ω): Unidad de resistencia eléctrica. Es la resistencia eléctrica que existe entre dos puntos de
un conductor cuando una diferencia de potencial constante de 1 volt aplicada entre estos dos puntos
produce, en dicho conductor, una corriente de intensidad 1 ampere, cuando no haya fuerza
electromotriz en el conductor.
weber (Wb): Unidad de flujo magnético, flujo de inducción magnética. Es el flujo magnético que,
al atravesar un circuito de una sola espira produce en la misma una fuerza electromotriz de 1 volt si
se anula dicho flujo en 1 segundo por decrecimiento uniforme.

EXPRESADAS EXPRESADAS
EN EN
TERMINOS TERMINOS
MAGNITUD DERIVADA NOMBRE SIMBOLO
DE OTRAS DE LAS
UNIDADES UNIDADES
DEL SI BASE DEL SI
ángulo plano radián rad m.m-1=1
ángulo sólido estereorradián sr m ².m-2=1
frecuencia hertz Hz s-1
fuerza newton N m.kg.s-2
presión, esfuerzo pascal Pa N/m ² m-1.kg.s-2
energía, trabajo, calor joule J N.m m ².kg.s-2
potencia, flujo de energía watt W J/s m ².kg.s-³
carga eléctrica, cantidad de
coulomb C s.A
electricidad
diferencia de potencial eléctrico,
volt V W/A m ².kg.s-³.A-1
fuerza electromotriz
capacitancia farad F C/V m-2.kg-1.s4.A ²
resistencia eléctrica ohm W V/A m ².kg.s-³.A-2
conductancia eléctrica siemens S A/V m-2.kg-1.s³.A ²
flujo magnético weber Wb V.s m ².kg.s-2.A-1
densidad de flujo magnético tesla T Wb/m ² kg.s-1.A-1
inductancia henry H Wb/A m ².kg.s-2.A-2
temperatura Celsius Celsius °C K
flujo luminoso lumen lm cd.sr m ².m ².cd=cd
m ².m-4.cd=m-
radiación luminosa lux lx lm/m ² 2
.cd
actividad (radiación ionizante) becquerel Bq s-1
dosis absorbida, energía específica
gray Gy J/kg m ².s-2
(transmitida)
dosis equivalente sievert Sv J/kg m ².s-2
Longitud
1 pica [computadora 1/6 in] = 4,233 333x10-³ m
1 año luz (1.y.) = 9,460 73x1015 m

1 cadena (ch) = 22 yd = 66 ft = 792 in = 20,116 8 m

1 milla (mi) = 1 760 yd = 5 280 ft = 63 360 in = 1 609,344 m

1 fathom = 2 yd = 6 ft = 72 in = 1,828 8 m

1 punto [computadora 1/72 in] = 3,527 778x10-4 m

1 rod (rd) = 5,5 yd = 16,5 ft = 198 in = 5,029 2 m

1 micro pulgada = 1x10-6 in = 2,54x10-8 m

1 milésima (0.001 in) = 1x10-³ in = 2,54x10-5 m

1 unidad astronómica (au) = 1,495 979x1011 m

1 ángstrom (Å) = 1x10-10 m

1 pica [impresoras] = 4,217 518x10-³ m

1 pie (ft) = 12 in = 0,304 8 m

1 pulgada (in) = 0,025 4 m

1 Fermi = 1x10-15 m

1 punto [impresora] = 3,514 598x10-4 m

1 micrón (μ) = 1x10-6 m

1 pársec (pe) = 3,085 678x1016 m

1 yarda (yd) = 3 ft = 36 in = 0,914 4 m

1 milla, náutica = 1,852 km = 1 852 m


Masa
1 carat, métrico = 2x10-4 kg

1 grano = 6,479 891x10-5 kg

1 slug (slug) = 14,593 9 kg

1 libra (lb) = 16 oz = 0,453 592 4 kg


1 libra [troy] (lb) = 0,373 241 7 kg

1 onza (oz) = 2,834 952x10-2 kg

1 onza [troy] (oz) = 3,110 348x10-2 kg

1 ton, métrica (t) = 1 000 kg

1 ton, assay (AT) = 2,916 667x10-2 kg

1 ton, corta = 2 000 lb = 32 000 oz = 907,184 7 kg

1 ton, larga = 2 240 lb = 35 840 oz = 1 016,047 kg

1 tonne [llamada "ton métrica "] (t) = 1 000 kg

1 pennyweight (dwt) = 1,555 174x10-³ kg

1 cien peso, corto = 100 lb = 1 600 oz = 45,359 24 kg

1 cien peso, largo = 112 lb = 1 792 oz = 50,802 35 kg


1 kilogramo-fuerza segundo cuadrado por metro (kgf.s ²/m) = 9,806 65 kg
Tiempo
1 año = 365 d = 8 760 h = 525 600 min = 31 536 000 s
1 año [sideral] = 3,155 815x107 s

1 año [tropical] = 3,155 693x107 s

1 día (d) = 24 h = 1 440 min = 86 400 s

1 día [sideral] = 8 616,409 s

1 hora (h) = 60 min = 3 600 s

1 minuto (min) = 60 s

1 minuto [sideral] = 59,836 17 s

1 segundo [sideral] = 0,997 269 6 s


Corriente eléctrica
1 abampere = 10 A

1 biot (Bi) = 10 A

1 E.M.U. de corriente (abampere) = 10 A


1 E.S.U. de corriente (statampere) = 3,335 641x10-10 A

1 gilbert (Gi) = 0,795 774 7 A

1 statampere = 3,335 641x10-10 A


Temperatura termodinámica
T/K = T/°C + 273.15

T/°C = (T/°F - 32) / 1.8

T/K = (T/°F + 459.67) / 1.8

T/K=(T/°R)/ 1.8

T/°C=T/K - 273.15
Energía y trabajo
1 British thermal unit IT (Btu) = 1,055 056x10³ J

1 British thermal unit Th (Btu) = 1,054 350x10³ J

1 British thermal unit [media] (Btu) = 1,055 87x10³ J

1 British thermal unit [39 °F] (Btu) = 1,059 67x10³ J

1 British thermal unit [59 °F] (Btu) = 1,054 80x10³ J

1 British thermal unit [60 °F] (Btu) = 1,054 68x10³ J

1 caloría IT (cal) = 4,186 8 J

1 caloría Th (cal) = 4,184 J

1 caloría [media] (cal) = 4,190 02 J

1 caloría [15 °C] (cal) = 4,185 80 J

1 caloría [20 °C] (cal) = 4,181 90 J

1 electrón voltio (eV) = 1,602 177x10-19 J

1 erg (erg) = 1x10-7 J

1 kilocaloría IT (cal) = 4,186 8x10³ J

1 kilocaloría Th (cal) = 4,184x10³ J


1 kilocaloría [mean] (cal) = 4,190 02x10³ J

1 kilovatio hora (kW.h) = 3,6x106 J

1 pie poundal = 4,214 011x10-2 J

1 pie libra-fuerza (ft.lbf) = 1,355 818 J

1 therm (EC) = 1,055 06x108 J

1 therm (U.S.) = 1,054 804 x108 J

1 tonelada de TNT = 4,184x109 J

1 vatio hora (W.h) = 3 600 J

1 vatio segundo (W.s) = 1 J

Cinemática
 Movimiento, marco de referencia, posición, trayectoria, desplazamiento, velocidad, rapidez,
aceleración, representación e interpretación de datos en tablas, gráficos y ecuaciones.
 Caída libre, puntos de vista de Aristóteles y de Galileo. Movimiento ondulatorio, velocidad
de propagación, relación longitud de onda y frecuencia. Sonido, fuente vibratoria.

Cinemática

La cinemática se ocupa de la descripción del movimiento sin tener en cuenta sus causas. La
velocidad (la tasa de variación de la posición) se define como la razón entre el espacio recorrido
(desde la posición x1 hasta la posición x2) y el tiempo transcurrido.

v = e/t (1)

siendo:

e: el espacio recorrido y

t: el tiempo transcurrido.
La ecuación (1) corresponde a un movimiento rectilíneo y uniforme, donde la velocidad permanece
constante en toda la trayectoria.

Aceleración

Se define como aceleración a la variación de la velocidad con respecto al tiempo. La aceleración es


la tasa de variación de la velocidad, el cambio de la velocidad dividido entre el tiempo en que se
produce. Por tanto, la aceleración tiene magnitud, dirección y sentido, y se mide en m/s ²,
gráficamente se representa con un vector.

a = v/t

Movimiento rectilíneo uniforme (M.R.U.)

Existen varios tipos especiales de movimiento fáciles de describir. En primer lugar, aquél en el que
la velocidad es constante. En el caso más sencillo, la velocidad podría ser nula, y la posición no
cambiaría en el intervalo de tiempo considerado. Si la velocidad es constante, la velocidad media (o
promedio) es igual a la velocidad en cualquier instante determinado. Si el tiempo t se mide con un
reloj que se pone en marcha con t = 0, la distancia e recorrida a velocidad constante v será igual al
producto de la velocidad por el tiempo. En el movimiento rectilíneo uniforme la velocidad es
constante y la aceleración es nula.

v = e/t

v = constante

a=0

Movimiento uniformemente variado (M.U.V.)

Otro tipo especial de movimiento es aquél en el que se mantiene constante la aceleración. Como la
velocidad varía, hay que definir la velocidad instantánea, que es la velocidad en un instante
determinado. En el caso de una aceleración a constante, considerando una velocidad inicial nula (v
= 0 en t = 0), la velocidad instantánea transcurrido el tiempo t será:

v = a.t
La distancia recorrida durante ese tiempo será

e = ½.a.t ²

Esta ecuación muestra una característica importante: la distancia depende del cuadrado del tiempo (t
²). En el movimiento uniformemente variado la velocidad varia y la aceleración es distinta de cero y
constante.

a ≠ 0 = constante

v = variable

1) Acelerado: a > 0

xf = xo + vo.t + ½.a.t ² (Ecuación de posición)

vf = vo + a.t (Ecuación de velocidad)

vf ² = vo ² + 2.a.Δx

2) Retardado: a < 0

xf = xo + vo.t - ½.a.t ² (Ecuación de posición)

vf = vo - a.t (Ecuación de velocidad)

vf ² = vo ² - 2.a.Δx

3) Caída libre: Un objeto pesado que cae libremente (sin influencia de la fricción del aire) cerca de
la superficie de la Tierra experimenta una aceleración constante. En este caso, la aceleración es
aproximadamente de 9,8 m/s ². Al final del primer segundo, una pelota habría caído 4,9 m y tendría
una velocidad de 9,8 m/s. Al final del siguiente segundo, la pelota habría caído 19,6 m y tendría una
velocidad de 19,6 m/s.

En la caída libre el movimiento acelerado donde la aceleración es la de la gravedad y carece de


velocidad inicial.
a=g

vo = 0

yf = ½.g.t ² (Ecuación de posición)

vf = g.t (Ecuación de velocidad)

vf ² = 2.a.Δy

4) Tiro vertical: movimiento acelerado donde la aceleración es la de la gravedad y la dirección del


movimiento, puede ser ascendente o descendente.

a=g

vo ≠ 0

yf = yo + vo.t - ½.g.t ² (Ecuación de posición)

vf = vo - g.t (Ecuación de velocidad)

vf ² = vo ² - 2.a.Δy

5) Tiro parabólico: Otro tipo de movimiento sencillo que se observa frecuentemente es el de una
pelota que se lanza al aire formando un ángulo con la horizontal. Debido a la gravedad, la pelota
experimenta una aceleración constante dirigida hacia abajo que primero reduce la velocidad vertical
hacia arriba que tenía al principio y después aumenta su velocidad hacia abajo mientras cae hacia el
suelo. Entretanto, la componente horizontal de la velocidad inicial permanece constante (si se
prescinde de la resistencia del aire), lo que hace que la pelota se desplace a velocidad constante en
dirección horizontal hasta que alcanza el suelo. Las componentes vertical y horizontal del
movimiento son independientes, y se pueden analizar por separado. La trayectoria de la pelota
resulta ser una parábola.

Es un movimiento cuya velocidad inicial tiene componentes en los ejes x e y, en el eje y se


comporta como tiro vertical, mientras que en el eje x como M.R.U.

En eje x:

v = constante

a=0

En eje y:

a=g

vo ≠ 0
6) Tiro oblicuo: movimiento cuya velocidad inicial tiene componente en los eje x e y, en el eje y se
comporta como caída libre, mientras que en el eje x como M.R.U.

En eje x:

v = constante

a=0

En eje y:

a=g

vo = 0

Movimiento circular en el plano

El movimiento circular es otro tipo de movimiento sencillo. Si un objeto se mueve con celeridad
constante pero la aceleración forma siempre un ángulo recto con su velocidad, se desplazará en un
círculo. La aceleración está dirigida hacia el centro del círculo y se denomina aceleración normal o
centrípeta. En el caso de un objeto que se desplaza a velocidad v en un círculo de radio r, la
aceleración centrípeta es:

a = v ²/r.

En este movimiento, tanto la aceleración como la velocidad tienen componentes en x e y.

1) Horizontal:

s = R. θ s: arco de circunferencia recorrido

θ: ángulo desplazado

v = R.ω ω: velocidad angular

aT = R. α aT: aceleración tangencial


α : aceleración angular

aN = v ²/R aN: aceleración normal o centrípeta

aN = R. ω ²

Sí v = constante  aT = 0

2) Vertical: este movimiento no es uniforme ya que la velocidad del cuerpo aumenta cuando
desciende y disminuye cuando asciende. Para este modelo el cuerpo está sujeto por una cuerda,
entonces, las fuerzas que actúan son el peso del cuerpo y la tensión de la cuerda, que componen una
fuerza resultante.

FT = m.g.sen θ

FN = T - m.g.cos θ

T = m.(v ²/R + g.cos θ)

Siendo en el punto más bajo

T = m.(v ²/R + g)

Siendo en el punto más alto

T = m.(v ²/R - g)

En el punto mas alto la velocidad es crítica, por debajo de ésta la cuerda deja de estar tensa.

vc ² = R.g

3) Péndulo físico:

FT = m.g.sen θ

FN = T - m.g.cos θ

Amplitud:
s = R. θ

La velocidad es variable, anulándose en cada extremo del arco de circunferencia (amplitud).

T = m.g.cos θ

En el punto más bajo:

θ=0

FT = 0

FN = T - P

El período τ es el tiempo en que se efectúa una oscilación completa.

τ = 2.π.√R/g

La frecuencia f es la relación entre el número de revoluciones y el tiempo de observación.

f = 1/ τ

DINAMICA

Dinámica y energía
 Fuerza, efectos, medición, tipos, suma. Relación entre masa, fuerza y aceleración. Reposo.
 Inercia. Leyes de Newton. Reposo. Gravitación, peso, modelos sobre movimiento de
 los astros del sistema solar, representación gráfica fuerza contra distancia
 Mareas, origen. Energía, relación fuerza y energía, energía cinética, energía potencial,
 transformaciones de energía, conservación de la energía. Energéticos. Fuentes renovables
 y no renovables

Estudia el movimiento de los objetos y de su respuesta a las fuerzas. Las descripciones del
movimiento comienzan con una definición cuidadosa de magnitudes como el desplazamiento, el
tiempo, la velocidad, la aceleración, la masa y la fuerza.

Isaac Newton demostró que la velocidad de los objetos que caen aumenta continuamente durante su
caída. Esta aceleración es la misma para objetos pesados o ligeros, siempre que no se tenga en
cuenta la resistencia del aire (rozamiento). Newton mejoró este análisis al definir la fuerza y la
masa, y relacionarlas con la aceleración.

Para los objetos que se desplazan a velocidades próximas a la velocidad de la luz, las leyes de
Newton han sido sustituidas por la teoría de la relatividad de Albert Einstein. Para las partículas
atómicas y subatómicas, las leyes de Newton han sido sustituidas por la teoría cuántica. Pero para
los fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen siendo la piedra
angular de la dinámica (el estudio de las causas del cambio en el movimiento).
Las leyes del movimiento de Newton

Con la formulación de las tres leyes del movimiento, Isaac Newton estableció las bases de la
dinámica.

Primera ley de Newton (equilibrio)

Un cuerpo permanece en reposo o en movimiento rectilíneo uniforme (M.R.U. = velocidad


constante) si la fuerza resultante es nula (ver condición de equilibrio).

El que la fuerza ejercida sobre un objeto sea cero no significa necesariamente que su velocidad sea
cero. Si no está sometido a ninguna fuerza (incluido el rozamiento), un objeto en movimiento
seguirá desplazándose a velocidad constante.

Para que haya equilibrio, las componentes horizontales de las fuerzas que actúan sobre un objeto
deben cancelarse mutuamente, y lo mismo debe ocurrir con las componentes verticales. Esta
condición es necesaria para el equilibrio, pero no es suficiente. Por ejemplo, si una persona coloca
un libro de pie sobre una mesa y lo empuja igual de fuerte con una mano en un sentido y con la otra
en el sentido opuesto, el libro permanecerá en reposo si las manos están una frente a otra. (El
resultado total es que el libro se comprime). Pero si una mano está cerca de la parte superior del
libro y la otra mano cerca de la parte inferior, el libro caerá sobre la mesa. Para que haya equilibrio
también es necesario que la suma de los momentos en torno a cualquier eje sea cero. Los momentos
dextrógiros (a derechas) en torno a todo eje deben cancelarse con los momentos levógiros (a
izquierdas) en torno a ese eje. Puede demostrarse que si los momentos se cancelan para un eje
determinado, se cancelan para todos los ejes. Para calcular la fuerza total, hay que sumar las fuerzas
como vectores.

a) Condición de equilibrio en el plano: la sumatoria de todas las fuerzas aplicadas y no aplicadas


debe ser nula y, la sumatoria de los momentos de todas las fuerzas con respecto a cualquier
punto debe ser nula.

Σ Fx = 0

Σ Fy = 0

Σ MF = 0

b) Condición de equilibrio en el espacio: la sumatoria de todas las fuerzas aplicadas y no


aplicadas debe ser nula y, la sumatoria de los momentos de todas las fuerzas con respecto a los
tres ejes de referencia debe ser nula.

Σ Fx = 0

Equilibrio de fuerzas Σ Fy = 0

Σ Fz = 0
Σ My = 0

Equilibrio de momentos Σ Mx = 0

Σ Mz = 0

Segunda ley de Newton (masa)

Para entender cómo y por qué se aceleran los objetos, hay que definir la fuerza y la masa. Una
fuerza neta ejercida sobre un objeto lo acelerará, es decir, cambiará su velocidad. La aceleración
será proporcional a la magnitud de la fuerza total y tendrá la misma dirección y sentido que ésta. La
constante de proporcionalidad es la masa m del objeto. La masa es la medida de la cantidad de
sustancia de un cuerpo y es universal.

Cuando a un cuerpo de masa m se le aplica una fuerza F se produce una aceleración a.

F = m.a

Unidades: En el Sistema Internacional de unidades (SI), la aceleración a se mide en metros por


segundo cuadrado, la masa m se mide en kilogramos, y la fuerza F en newtons.

Se define por el efecto que produce la aceleración en la fuerza a la cual se aplica. Un newton se
define como la fuerza necesaria para suministrar a una masa de 1 kg una aceleración de 1 metro por
segundo cada segundo.

Un objeto con más masa requerirá una fuerza mayor para una aceleración dada que uno con menos
masa. Lo asombroso es que la masa, que mide la inercia de un objeto (su resistencia a cambiar la
velocidad), también mide la atracción gravitacional que ejerce sobre otros objetos. Resulta
sorprendente, y tiene consecuencias profundas, que la propiedad inercial y la propiedad
gravitacional estén determinadas por una misma cosa. Este fenómeno supone que es imposible
distinguir si un punto determinado está en un campo gravitatorio o en un sistema de referencia
acelerado. Albert Einstein hizo de esto una de las piedras angulares de su teoría general de la
relatividad, que es la teoría de la gravitación actualmente aceptada.

Se deduce que:

1 kgf = 9,81 N

En particular para la fuerza peso:

P = m.g
Tercera ley de Newton (acción y reacción)

Cuando a un cuerpo se le aplica una fuerza (acción o reacción), este devuelve una fuerza de igual
magnitud, igual dirección y de sentido contrario (reacción o acción).

Por ejemplo, en una pista de patinaje sobre hielo, si un adulto empuja suavemente a un niño,no sólo
existe la fuerza que el adulto ejerce sobre el niño, sino que el niño ejerce una fuerza igual pero de
sentido opuesto sobre el adulto. Sin embargo, como la masa del adulto es mayor, su aceleración será
menor.

La tercera ley de Newton también implica la conservación del momento lineal, el producto de la
masa por la velocidad. En un sistema aislado, sobre el que no actúan fuerzas externas, el momento
debe ser constante. En el ejemplo del adulto y el niño en la pista de patinaje, sus velocidades
iniciales son cero, por lo que el momento inicial del sistema es cero. Durante la interacción operan
fuerzas internas entre el adulto y el niño, pero la suma de las fuerzas externas es cero. Por tanto, el
momento del sistema tiene que seguir siendo nulo. Después de que el adulto empuje al niño, el
producto de la masa grande y la velocidad pequeña del adulto debe ser igual al de la masa pequeña
y la velocidad grande del niño. Los momentos respectivos son iguales en magnitud pero de sentido
opuesto, por lo que su suma es cero.

Otra magnitud que se conserva es el momento angular o cinético. El momento angular de un objeto
en rotación depende de su velocidad angular, su masa y su distancia al eje. Cuando un patinador da
vueltas cada vez más rápido sobre el hielo, prácticamente sin rozamiento, el momento angular se
conserva a pesar de que la velocidad aumenta. Al principio del giro, el patinador tiene los brazos
extendidos. Parte de la masa del patinador tiene por tanto un radio de giro grande. Cuando el
patinador baja los brazos, reduciendo su distancia del eje de rotación, la velocidad angular debe
aumentar para mantener constante el momento angular.

Un libro colocado sobre una mesa es atraído hacia abajo por la atracción gravitacional de la Tierra y
es empujado hacia arriba por la repulsión molecular de la mesa. Como se ve se cumplen todas las
leyes de Newton.

Cuarta ley de Newton (gravitación)

Fg = G.m1.m2/r ²
La fuerza entre dos partículas de masas m1 y m2 y, que están separadas por una distancia r, es una
atracción que actúa a lo largo de la línea que une las partículas, en donde G es la constante universal
que tiene el mismo valor para todos los pares de partículas.

En 1798 Sir Henry Cavendish realizó la primera medición experimental de la constante G utilizando
para ello una balanza de torsión. El valor aceptado actualmente es:

G = 6,67.10-11 N.m²/kg²

Fuerza elástica:

Una fuerza puede deformar un resorte, como alargarlo o acortarlo. Cuanto mayor sea la fuerza,
mayor será la deformación del resorte (Δx), en muchos resortes, y dentro de un rango de fuerzas
limitado, es proporcional a la fuerza:

Fe = -k.Δx

k: Constante que depende del material y dimensiones del resorte.

Δx: Variación del resorte con respecto a su longitud normal.

Fuerza normal:

Fuerza normal al plano e igual pero de sentido contrario a la componente normal al plano, de la
fuerza peso.

N = cos α.m.g

Fuerza de rozamiento:

Fuerza aplicada y contraria al movimiento y que depende de la calidad de la superficie del cuerpo y
de la superficie sobre la cual se desliza.

Fr = μ.N
μ :Coeficiente de rozamiento.

Fuerza de rozamiento estática: fuerza mínima a vencer para poner en movimiento un cuerpo.

Fuerza de rozamiento cinética: fuerza retardadora que comienza junto con el movimiento de un
cuerpo.

En el caso de deslizamiento en seco, cuando no existe lubricación, la fuerza de rozamiento es casi


independiente de la velocidad. La fuerza de rozamiento tampoco depende del área aparente de
contacto entre un objeto y la superficie sobre la cual se desliza. El área real de contacto (la
superficie en la que las rugosidades microscópicas del objeto y de la superficie de deslizamiento se
tocan realmente) es relativamente pequeña. Cuando un objeto se mueve por encima de la superficie
de deslizamiento, las minúsculas rugosidades del objeto y la superficie chocan entre sí, y se necesita
fuerza para hacer que se sigan moviendo. El área real de contacto depende de la fuerza
perpendicular entre el objeto y la superficie de deslizamiento. Frecuentemente, esta fuerza no es
sino el peso del objeto que se desliza. Si se empuja el objeto formando un ángulo con la horizontal,
la componente vertical de la fuerza dirigida hacia abajo se sumará al peso del objeto. La fuerza de
rozamiento es proporcional a la fuerza perpendicular total.

Centro de gravedad

En cuanto al tamaño o peso del objeto en movimiento, no se presentan problemas matemáticos si el


objeto es muy pequeño en relación con las distancias consideradas. Si el objeto es grande, se emplea
un punto llamado centro de masas, cuyo movimiento puede considerarse característico de todo el
objeto. Si el objeto gira, muchas veces conviene describir su rotación en torno a un eje que pasa por
el centro de masas.

El centro de gravedad o baricentro o centro de masas, es un punto donde puede suponerse


encontrada todo el área,peso o masa de un cuerpo y tener ante un sistema externo de fuerzas un
comportamiento equivalente al cuerpo real.

TRABAJO - ENERGIA - POTENCIA

Contenido

Trabajo de una fuerza. Energía cinética. Energía potencial. Fuerzas conservativas y no


conservativas. Potencia.

Desarrollo.

Trabajo de una fuerza

Una fuerza constante genera trabajo cuando, aplicada a un cuerpo, lo desplaza a lo largo de una
determinada distancia.
Mientras se realiza trabajo sobre el cuerpo, se produce una transferencia de energía al mismo, por lo
que puede decirse que el trabajo es energía en movimiento. Por otra parte, si una fuerza constante
no produce movimiento, no se realiza trabajo. Por ejemplo, el sostener un libro con el brazo
extendido no implica trabajo alguno sobre el libro, independientemente del esfuerzo necesario. El
trabajo se expresa en Joules (J).
Cuando la fuerza tiene la dirección de movimiento.

L = F.d

L: Trabajo realizado por la fuerza.

Cuando la fuerza aplicada tiene una inclinación α con respecto al movimiento.

L = F.cos α .d

Todas las fuerzas perpendiculares al movimiento no realizan trabajo.

La fuerza puede no ser mecánica,como ocurre en el levantamiento de un cuerpo o en la aceleración


de un avión de reacción; también puede ser una fuerza electrostática, electrodinámica o de tensión
superficial.

Energía

La magnitud denominada energía enlaza todas las ramas de la física. En el ámbito de la física, debe
suministrarse energía para realizar trabajo. La energía se expresa en joules (J). Existen muchas
formas de energía: energía potencial eléctrica y magnética, energía cinética, energía acumulada en
resortes estirados, gases comprimidos o enlaces moleculares,energía térmica e incluso la propia
masa.

Energía cinética

Cuando una fuerza aumenta la velocidad de un cuerpo también se realiza trabajo, como ocurre por
ejemplo en la aceleración de un avión por el empuje de sus reactores. Cuando un cuerpo se desplaza
con movimiento variado desarrolla energía cinética.

Ec = ½.m.v ²

L = F.d

L = Ec

F.d = ½.m.v ²

Ec: Energía cinética.

El trabajo realizado por la fuerza resultante que actúa sobre una partícula es igual a la variación de
la energía cinética de dicha partícula.

Δ Ec = Ec2 - Ec1

L = Ec2 - Ec1

F.d = ½.m.(v ²2 - v ²1)


Δ Ec: Variación de la energía cinética.

Energía potencial

Cuando se levanta un objeto desde el suelo hasta la superficie de una mesa, por ejemplo, se realiza
trabajo al tener que vencer la fuerza de la gravedad,dirigida hacia abajo; la energía comunicada al
cuerpo por este trabajo aumenta su energía potencial. Si se realiza trabajo para elevar un objeto a
una altura superior, se almacena energía en forma de energía potencial gravitatoria.

Cuando un cuerpo varía su altura desarrolla energía potencial.

Ep = m.g.h

L = F.d  L = Ep  P.d = m.g.h

Ep: Energía potencial.

El trabajo realizado por la fuerza peso es igual a la variación de la energía potencial.

Δ Ep = Ep2 - Ep1

L = Ep2 - Ep1

P.d = m.g.(h2 - h1)

Δ Ep: Variación de la energía potencial.

En todas las transformaciones entre un tipo de energía y otro se conserva la energía total, y se
conoce como teorema de la energía mecánica (Δ E M). Por ejemplo, si se ejerce trabajo sobre una
pelota de goma para levantarla, se aumenta su energía potencial gravitatoria. Si se deja caer la
pelota, esta energía potencial gravitatoria se convierte en energía cinética. Cuando la pelota choca
contra el suelo, se deforma y se produce fricción entre las moléculas de su material. Esta fricción se
transforma en calor o energía térmica.

Fuerzas conservativas

Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1.

Una fuerza es conservativa si el trabajo efectuado por ella sobre una partícula que se mueve
en cualquier viaje de ida y vuelta es 0.

Δ EM = 0

Δ EM : Variación de la energía mecánica.

Trabajo de fuerzas conservativas:

L = Δ EM
Δ EM = Δ Ec + Δ Ep

L = Δ Ec + Δ E p

Fuerzas no conservativas

Para un cuerpo de masa m que se mueve del punto 1 al 2 y luego del punto 2 al 1.

Una fuerza es no conservativa si el trabajo efectuado por ella sobre una partícula que se
mueve en cualquier viaje de ida y vuelta es distinto de 0.

Δ EM ≠ 0

Δ EM = HO

Δ EM: Variación de la energía mecánica.

HO : Trabajo de la fuerza de rozamiento.

Trabajo de fuerzas no conservativas:

L = Δ EM + HO

L = Δ Ec + Δ Ep + HO

Siendo: HO = Fr.d

Potencia

La potencia desarrollada por una fuerza aplicada a un cuerpo es el trabajo realizado por ésta durante
el tiempo de aplicación. La potencia se expresa en watt (W).

P= L/ t

P = F.d / t

v=d/t

P = F.v

También:

P = (Δ Ec + Δ Ep + HO)/t

Si no hay fuerza de rozamiento

P = (Δ Ec +Δ Ep)/t
Si no cambio su altura

P = (Δ Ec)/t

P: potencia

Caballo de vapor: Unidad tradicional para expresar la potencia mecánica, es decir, el trabajo
mecánico que puede realizar un motor por unidad de tiempo; suele abreviarse por CV. En el Sistema
Internacional de unidades, la unidad de potencia es el vatio; 1 caballo de vapor equivale a 736
vatios. Su valor original era, por definición, 75 kilográmetros por segundo.

TERMODINAMICA

Termodinámica y fluidos
 Modelo cinético de partículas, relación con volumen, masa, densidad y estado físico.
 Temperatura y calor. Presión y cambios de estado. Transformaciones de calor a otras
 formas de energía. Principio de conservación de la energía. Presión y fuerza. Presión en
 líquidos y gases. Principio de Pascal. Funcionamiento del submarino. Fenómenos
atmosféricos.
 Sismos. Causas y consecuencias del efecto invernadero y del calentamiento global.

Energía calorífica: La suma de la energía potencial y de la energía sintética de un sistema no


permanece siempre constante.

De una manera general, la energía mecánica total de un sistema disminuye con el frotamiento y los
choques. Si por ejemplo, se frena un cuerpo durante su caída por un plano inclinado, de forma que
su velocidad permanezca constante, se producirá una disminución de su energía potencial sin que
aumente su energía cinética. Pero, en todos los fenómenos de esta naturaleza se produce calor. Así
el fósforo de las cerillas se inflama por frotamiento, las herramientas se calientan al labrar los
metales, etc. Sí una bala de plomo se dispara contra una placa de acero, se puede alcanzar, en el
momento del choque, una temperatura superior a su punto de fusión. El calor debe, por
consiguiente, considerarse como una forma de energía, hipótesis que se ve corroborada por la
posibilidad de producir trabajo mecánico consumiendo calor, por ejemplo, en las maquinas de calor.

Otras formas de energía: eléctrica. La corriente eléctrica es uno de los numerosos fenómenos que
pueden producir trabajo mecánico o calor. La primera transformación se realiza en los motores y la
inversa de los generadores electromagnéticos de corriente (dínamos, alternadores). En todos los
conductores por los que pasan una corriente hay una producción de calor, conocida con el nombre
de efecto de joule; la transformación contraria directa, es decir de calor en electricidad, se observa
en las pilas termoeléctricas y basta calentar una de las dos soldaduras de dos metales diferentes que
forman parte de un circuito para que se engendre en el mismo una corriente. De ellos se deduce que
existe energía eléctrica y que el paso de una corriente es en realidad un transporte de energía a lo
largo de un circuito.
Un condensador cargado de corriente también energía eléctrica, puesto a descargarse es capaz de
producir una corriente, pero esta energía es potencial.

Química: Las reacciones químicas tienen lugar con absorción o desprendimiento de calor, según
los casos. La combustión, que es la combinación del oxígeno del cuerpo combustible o con los
elementos que lo integran, revelan que una muestra de carbón y oxigeno contiene energía química
potencial, que puede utilizarse al iniciar la combustión o la combinación de ambos cuerpos.

La energía química se emplea a si mismo en las pilas y acumuladores eléctricos, que la transforman
en energía eléctrica, y el fenómeno inverso se produce en la electrólisis, en particular al cargar los
acumuladores.

Las explosiones son un ejemplo de transformación de energía química en trabajo mecánico.

Radiante: La luz se produce de diversas formas, pero la más corriente de éstas consiste en calentar
cuerpos a una temperatura bastante elevada (lámpara de gas, Lámpara eléctrica de incandescencia).
La incandescencia es precisamente la transformación de energía calorífica en energía radiante.

En los fenómenos de luminiscencia, o emisión de luz en frío, interviene otra forma de energía que
es mecánica en el caso de la triboluminiscencia. La ruptura de ciertos cristales que se producen por
ejemplo al machacar azúcar provocan la aparición de luz. En la electroluminiscencia, la energía
eléctrica se transforma directamente en luz sin que pase por la forma calorífica intermedia. Así
acorde en los tubos de gas rarificado como el neón y los vapores de sodio y mercurio. En la
quimiluminiscencia, algunas reacciones químicas, como la oxidación lenta del fósforo blanco en
contacto del aire, provocan emisión de luz, sin calentamiento apreciable. La luz emitida por las
luciérnagas se debe a un fenómeno análogo, puesto que produce de las reacciones químicas que se
producen durante la digestión.

La energía radiante puede convertirse en cualquiera de las otras cuatro formas de energías que se
han considerado. Así, cuando una sustancia absorbe radiaciones, se calienta y este efecto calorífico
es particularmente intenso en el caso de las radiaciones infrarrojas. Por otra parte, los haces
luminosos dirigidos hacia los cuerpos ejercen en estos una fuerza de empuje que produce efectos
mecánicos y recibe el nombre de presión de radiación, fenómenos que explica la repulsión de la
cola de cometas por los rayos solares. La transformación de energía luminosa en energía eléctrica
tiene lugar en la fotoelectricidad al captárselos electrones que emiten algunos metales cuando recibe
la luz. Este fenómeno ha dado lugar a innumerables aplicaciones practicas, entre las cuales pueden
mencionarse el cine sonoro y la televisión.

Las modificaciones químicas sufridas por los cuerpos bajo la influencia de la luz son numerosas y
constituyen el objeto de la ciencia denominada fotoquímica, que estudia la transformación de la
energía luminosa en energía química. Las plantas realizan esta transformación gracias a la clorofila,
que absorbe las radiaciones solares, y la energía así almacenada se emplea para sintetizar los
alimentos hidrocarbonados.

Primera ley de la termodinámica

Permítase que un sistema cambie de un estado inicial de equilibrio i, a un estado final de equilibrio
f, en un camino determinado, siendo Q el calor absorbido por el sistema y W el trabajo hecho por el
sistema. Después calculamos el valor de Q - W. A continuación cambiamos el sistema desde el
mismo estado i hasta el estado final f, pero en esta ocasión por un camino diferente. Lo hacemos
esto una y otra vez, usando diferentes caminos en cada caso. Encontramos que en todos los intentos
Q - W es la misma. Esto es, aunque Q y W separadamente dependen del camino tomado, Q - W no
depende, en lo absoluto, de cómo pasamos el sistema del estado i al estado f, sino solo de los
estados inicial y final (de equilibrio).

Del estudio de la mecánica recordará, que cuando un objeto se mueve de un punto inicial i a otro
final, f en un campo gravitacional en ausencia de fricción, el trabajo hecho depende solo de las
posiciones de los puntos y no, en absoluto, de la trayectoria por la que el cuerpo se mueve. De esto
concluimos que hay una energía potencial, función de las coordenadas espaciales del cuerpo, cuyo
valor final menos su valor inicial, es igual al trabajo hecho al desplazar el cuerpo. Ahora, en la
termodinámica, encontramos experimentalmente, que cuando en un sistema ha cambiado su estado i
al f, la cantidad Q - W dependen solo de las coordenadas inicial y final y no, en absoluto, del
camino tomado entre estos puntos extremos. Concluimos que hay una función de las coordenadas
termodinámicas, cuyo valor final, menos su valor inicial es igual al cambio Q - W en el proceso. A
esta función le llamamos función de la energía interna.

Representemos la función de la energía interna por la letra U . Entonces la energía interna del
sistema en el estado f, Uf , es solo el cambio de energía interna del sistema, y esta cantidad tiene un
valor determinado independientemente de la forma en que el sistema pasa del estado i al estado f:
Tenemos entonces que:

Uf- Ui = ΔU = Q - W

Como sucede para la energía potencial, también para que la energía interna, lo que importa es su
cambio. Si se escoge un valor arbitrario para la energía interna en un sistema patrón de referencia,
su valor en cualquier otro estado puede recibir un valor determinado. Esta ecuación se conoce como
la primera ley de la termodinámica, al aplicarla debemos recordar que Q se considera positiva
cuando el calor entra al sistema y que W será positivo cuando el trabajo lo hace el sistema.

A la función interna U, se puede ver como muy abstracta en este momento. En realidad, la
termodinámica clásica no ofrece una explicación para ella, además que es una función de estado que
cambia en una forma predecible.
Por función del estado, queremos decir, que exactamente, que su valor depende solo del estado
físico del material: su constitución, presión, temperatura y volumen.
La primera ley de la termodinámica, se convierte entonces en un enunciado de la ley de la
conservación de la energía para los sistemas termodinámicos.

La energía total de un sistema de partículas (U), cambia en una cantidad exactamente igual a la
cantidad que se le agrega al sistema, menos la cantidad que se le quita.

Podrá parecer extraño que consideremos que Q sea positiva cuando el calor entra al sistema y que
W sea positivo cuando la energía sale del sistema como trabajo. Se llegó a esta convención, porque
fue el estudio de las máquinas térmicas lo que provocó inicialmente el estudio de la termodinámica.
Simplemente es una buena forma económica tratar de obtener el máximo trabajo con una maquina
de este tipo, y minimizar el calor que debe proporcionársele a un costo importante. Estas
naturalmente se convierten en cantidades de interés.

Si nuestro sistema sólo sufre un cambio infinitesimal en su estado, se absorbe nada más una
cantidad infinitesimal de calor dQ y se hace solo una cantidad infinitesimal de trabajo dW, de tal
manera que el cambio de energía interna dU también es infinitesimal. Aunque dW y dQ no son
diferencias verdaderas, podemos escribir la primera ley diferencial en la forma:

dU = dQ - dW.

Podemos expresar la primera ley en palabras diciendo:


Todo sistema termodinámico en un estado de equilibrio, tiene una variable de estado llamada
energía interna U cuyo cambio dU en un proceso diferencial está dado por la ecuación antes
escrita.

La primera ley de la termodinámica se aplica a todo proceso de la naturaleza que parte de un estado
de equilibrio y termina en otro. Decimos que si un sistema esta en estado de equilibrio cuando
podemos describirlo por medio de un grupo apropiado de parámetros constantes del sistema como
presión , el volumen, temperatura, campo magnético y otros la primera ley sigue verificándose si los
estados por los que pasa el sistema de un estado inicial (equilibrio), a su estado final (equilibrio), no
son ellos mismos estados de equilibrio. Por ejemplo podemos aplicar la ley de la termodinámica a la
explosión de un cohete en un tambor de acero cerrado.

Hay algunas preguntas importantes que no puede decir la primera ley. Por ejemplo, aunque nos dice
que la energía se conserva en todos los procesos, no nos dice si un proceso en particular puede
ocurrir realmente. Esta información nos la da una generalización enteramente diferente, llamada
segunda ley de la termodinámica, y gran parte de los temas de la termodinámica dependen de la
segunda ley.

SEGUNDA LEY DE LA TERMODINAMICA

Las primeras máquinas térmicas construidas, fueron dispositivos muy ineficientes. Solo una
pequeña fracción del calor absorbido de la fuente de la alta temperatura se podía convertir en
trabajo útil. Aun al progresar los diseños de la ingeniería, una fracción apreciable del calor
absorbido se sigue descargando en el escape de una máquina a baja temperatura, sin que pueda
convertirse en energía mecánica. Sigue siendo una esperanza diseñar una maquina que pueda tomar
calor de un depósito abundante, como el océano y convertirlo íntegramente en un trabajo útil.
Entonces no seria necesario contar con una fuente de calor una temperatura más alta que el medio
ambiente quemando combustibles. De la misma manera, podría esperarse, que se diseñara un
refrigerador que simplemente transporte calor, desde un cuerpo frío a un cuerpo caliente, sin que
tenga que gastarse trabajo exterior. Ninguna de estas aspiraciones ambiciosas violan la primera ley
de la termodinámica. La máquina térmica sólo podría convertir energía calorífica completamente en
energía mecánica, conservándose la energía total del proceso. En el refrigerador simplemente se
transmitiría la energía calorífica de un cuerpo frío a un cuerpo caliente, sin que se perdiera la
energía en el proceso. Nunca se ha logrado ninguna de estas aspiraciones y hay razones para que se
crea que nunca se alcanzarán.

La segunda ley de la termodinámica, que es una generalización de la experiencia, es una exposición


cuyos artificios de aplicación no existen. Se tienen muchos enunciados de la segunda ley, cada uno
de los cuales hace destacar un aspecto de ella, pero se puede demostrar que son equivalentes entre
sí. Rudolf Clausius la enuncio como sigue: No es posible para una máquina cíclica llevar
continuamente calor de un cuerpo a otro que esté a temperatura más alta, sin que al mismo tiempo
se produzca otro efecto (de compensación). Este enunciado desecha la posibilidad de nuestro
ambicioso refrigerador, ya que éste implica que para transmitir calor continuamente de un objeto
frío a un objeto caliente, es necesario proporcionar trabajo de un agente exterior. Por nuestra
experiencia sabemos que cuando dos cuerpos se encuentran en contacto fluye calor del cuerpo
caliente al cuerpo frío. En este caso, la segunda ley elimina la posibilidad de que la energía fluya del
cuerpo frío al cuerpo caliente y así determina la dirección de la transmisión del calor. La dirección
se puede invertir solamente por medio de gasto de un trabajo.

Kelvin (con Planck) enuncio la segunda ley con palabras equivalentes a las siguientes:
es completamente imposible realizar una transformación cuyo único resultado final sea el de
cambiar en trabajo el calor extraído de una fuente que se encuentre a la misma temperatura. Este
enunciado elimina nuestras ambiciones de la máquina térmica, ya que implica que no podemos
producir trabajo mecánico sacando calor de un solo depósito, sin devolver ninguna cantidad de
calor a un depósito que esté a una temperatura más baja.

Para demostrar que los dos enunciados son equivalentes, necesitamos demostrar que si cualquiera
de los enunciados es falso, el otro también debe serlo. Supóngase que es falso el enunciado de
Clausius, de tal manera que se pudieran tener un refrigerador que opere sin que se consuma el
trabajo. Podemos usar una máquina ordinaria para extraer calor de un cuerpo caliente, con el objeto
de hacer trabajo y devolver parte del calor a un cuerpo frío.

Pero conectando nuestro refrigerador "perfecto" al sistema, este calor se regresaría al cuerpo
caliente, sin gasto de trabajo, quedando así utilizable de nuevo para su uso en una máquina térmica.
De aquí que la combinación de una maquina ordinaria y el refrigerador "perfecto" formará una
máquina térmica que infringe el enunciado de Kelvin-Planck. O podemos invertir el argumento. Si
el enunciado Kelvin-Planck fuera incorrecto, podríamos tener una máquina térmica que
sencillamente tome calor de una fuente y lo convierta por completo en trabajo. Conectando esta
máquina térmica "perfecta" a un refrigerador ordinario, podemos extraer calor de un cuerpo
ordinario, podemos extraer calor de un cuerpo caliente, convertirlo completamente en trabajo, usar
este trabajo para mover un refrigerador ordinario, extraer calor de un cuerpo frío, y entregarlo con el
trabajo convertido en calor por el refrigerador, al cuerpo caliente. El resultado neto es una
transmisión de calor desde un cuerpo frío, a un cuerpo caliente, sin gastar trabajo, lo infringe el
enunciado de Clausius.

La segunda ley nos dice que muchos procesos son irreversibles. Por ejemplo, el enunciado de
Clausius específicamente elimina una inversión simple del proceso de transmisión de calor de un
cuerpo caliente, a un cuerpo frío. Algunos procesos, no sólo no pueden regresarse por sí mismos,
sino que tampoco ninguna combinación de procesos pueden anular el efecto de un proceso
irreversible, sin provocar otro cambio correspondiente en otra parte.

TERCERA LEY DE LA TERMODINAMICA

En el análisis de muchas reacciones químicas es necesario fijar un estado de referencia para la


entropía. Este siempre puede escogerse algún nivel arbitrario de referencia cuando solo se involucra
un componente; para las tablas de vapor convencionales se ha escogido 32°F. Sobre la base de las
observaciones hechas por Walther Nernst y por otros, Planck estableció la tercera ley de la
termodinámica en 1912, así:

la entropía de todos los sólidos cristalinos perfectos es cero a la temperatura de cero absoluto.

Un cristal "perfecto" es aquel que esta en equilibrio termodinámica. En consecuencia, comúnmente


se establece la tercera ley en forma más general, como:
La entropía de cualquier sustancia pura en equilibrio termodinámico tiende a cero a medida que la
temperatura tiende a cero.

La importancia de la tercera ley es evidente. Suministra una base para el calculo de las entropías
absolutas de las sustancias, las cuales pueden utilizarse en las ecuaciones apropiadas para
determinar la dirección de las reacciones químicas.

Una interpretación estadística de la tercera ley es más bien sencilla, puesto que la entropía se ha
definido como:

S = k.ln Ω

En donde k es la constante de Boltzmann Ω es la probabilidad termodinámica. En vista de la


anterior disertación, la tercera ley equivale a establecer que:

Ω  1 cuando T  0.

Esto significa que sólo existe una forma de ocurrencia del estado de energía mínima para una
sustancia que obedezca la tercera ley.

Hay varios casos referidos en la literatura en donde los cálculos basados en la tercera ley no están
desacuerdo con los experimentos. Sin embargo, en todos los casos es posible explicar el desacuerdo
sobre la base de que la sustancia no es "pura", esto es, pueda haber dos o más isótopos o presentarse
moléculas diferentes o, también, una distribución de no equilibrio de las moléculas. En tales casos
hay más de un estado cuántico en el cero absoluto y la entropía no tiende a cero.

Entropía

La entropía, como todas las variables de estado, dependen sólo de los estados del sistema, y
debemos estar preparados para calcular el cambio en la entropía de procesos irreversibles,
conociendo sólo los estados de principio y al fin. Consideraremos dos ejemplos:

1.- Dilatación libre: Dupliquemos el volumen de un gas, haciendo que se dilate en un recipiente
vacío, puesto que no se efectúa reacción alguna contra el vacío, W = 0 y, como el gas se encuentra
encerrado entre paredes no conductoras, Q = 0. por la primera ley se entiende que ΔU = 0 o:

Ui = Uf

donde i y f se refieren a los estados inicial y final (de equilibrio). Si el gas es ideal, U depende
únicamente de la temperatura y no de la presión o el volumen, y la ecuación Ui = Uf implica que Ti
= Tf.

En realidad, la dilatación libre es irreversible, perdemos el control del medio ambiente una vez que
abrimos la llave. Hay sin envargo, una diferencia de entropía Sf - Si, entre los estados de equilibrio

inicial y final, pero no podemos calcularla con la ecuación , por que esta
relación se aplica únicamente a trayectorias reversibles; si tratamos de usar la ecuación, tendremos
inmediatamente la facultad de que Q = 0 para la dilatación libre - además - no sabremos como dar
valores significativos de T en los estados intermedios que no son de equilibrio.
Entonces, ¿Cómo calcularemos Sf- Si para estos estados?, lo haremos determinando una trayectoria
reversible (cualquier trayectoria reversible) que conecte los estados i y f, para así calcular el cambio
de entropía de la trayectoria. En la dilatación libre, un trayecto reversible conveniente (suponiendo
que se trate de un gas ideal) es una dilatación isotérmica de VI a Vf (= 2 Vi). Esto corresponde a la
dilatación isotérmica que se lleva a cabo entre los puntos a y b del ciclo del Carnot.

Esto representa un grupo de operaciones muy diferentes de la dilatación libre y tienen en común la
única condición de que conectan el mismo grupo de estados de equilibrio, i y f. De la ecuación

y el ejemplo 1 tenemos.

Esto es positivo, de tal manera que la entropía del sistema aumenta en este proceso adiabático
irreversible. Nótese que la dilatación libre es un proceso que, en la naturaleza se desarrolla por sí
mismo una vez iniciado. Realmente no podemos concebir lo opuesto, una compresión libre en la
que el gas que en un recipiente aislado se comprima en forma espontánea de tal manera que ocupe
solo la mitad del volumen que tiene disponible libremente. Toda nuestra experiencia nos dice que el
primer proceso es inevitable y virtualmente, no se puede concebir el segundo.

2.- Transmisión irreversible de calor. Como otro ejemplo, considérense dos cuerpos que son
semejantes en todo, excepto que uno se encuentra a una temperatura TH y el otro a la temperatura
TC, donde TH> TC. Si ponemos ambos objetos en contacto dentro de una caja con paredes no
conductoras, eventualmente llegan a la temperatura común Tm, con un valor entre TH y TC; como la
dilatación libre, el proceso es irreversible, por que perdemos el control del medio ambiente, una vez
que colocamos los dos cuerpos en la caja. Como la dilatación libre, este proceso también es
adiabático (irreversible), por que no entra o sale calor en el sistema durante el proceso.

Para calcular el cambio de entropía para el sistema durante este proceso, de nuevo debemos
encontrar un proceso reversible que conecte los mismos estados inicial y final y calcular el cambio

de entropía, aplicando la ecuación al proceso. Podemos hacerlo, si


imaginamos que tenemos a nuestra disposición un deposito de calor de gran capacidad calorífica,
cuya temperatura T este bajo nuestro control, digamos, haciendo girar una perilla. Primero
ajustamos, la temperatura del deposito a T Ha Tm, quitando calor al cuerpo caliente al mismo tiempo.
En este proceso el cuerpo caliente pierde entropía, siendo el cambio de esta magnitud Δ SH = -Q/T1.

Aquí T1 es una temperatura adecuada escogida entre TH y Tm y Q es el calor extraído.

En seguida ajustamos la temperatura de nuestro depósito a Tc y lo colocamos en contacto con el


segundo cuerpo (el más frío). A continuación elevamos lentamente (reversiblemente) la temperatura
del depósito de Tc a Tm, cediendo calor al cuerpo frío mientras lo hacemos. El cuerpo frío gana
entropía en este proceso, siendo su cambio Δ SC = Q/T2.

Aquí T2 es una temperatura adecuada, escogida para que quede entre T cy Tm y Q es el calor
agregado. El calor Q agregado al cuerpo frío es igual al Q extraído del cuerpo caliente.
Los dos cuerpos se encuentran ahora en la misma temperatura Tm y el sistema se encuentra en el
estado de equilibrio final. El cambio de entropía para el sistema completo es:

Sf- Si =Δ SH + Δ SC = -Q/T1 + Q/T2

Como T1>T2, tenemos Sf >Si. De nuevo, como para la dilatación libre, la entropía del sistema
aumenta en este proceso reversible y adiabático.

Nótese que, como la dilatación libre, nuestro ejemplo de la conducción del calor es un proceso que
en la naturaleza se desarrolla por sí mismo una vez que se ha iniciado. En realidad no podemos
concebir el proceso opuesto, en el cual, por ejemplo, una varilla de metal en equilibrio térmico a la
temperatura del cuarto espontáneamente se ajuste de tal manera, que un extremo quede más caliente
y en el otro más frío. De nuevo, la naturaleza tiene la preferencia irresistible para que el proceso se
efectúe en una dirección determinada y no en la opuesta.

En cada uno de estos ejemplos, debemos distinguir cuidadosamente el proceso real (irreversible)
(dilatación libre o transmisión del calor) y el proceso reversible que se introdujo, para que se
pudiera calcular el cambio de entropía en el proceso real.

Podemos escoger cualquier proceso reversible, mientras conecte los mismos estados inicial y final
que el proceso real; todos estos procesos reversibles llevarán al mismo cambio de entropía porque
ella depende sólo los estados inicial y final y no de los procesos que los conectan, tanto si son
reversibles como si son irreversibles.

Calor y Temperatura

Mediante el contacto de la epidermis con un objeto se perciben sensaciones de frío o de calor,


siendo está muy caliente. Los conceptos de calor y frío son totalmente relativos y sólo se pueden
establecer con la relación a un cuerpo de referencia como, por ejemplo, la mano del hombre.

Lo que se percibe con más precisión es la temperatura del objeto o, más exactamente todavía, la
diferencia entre la temperatura del mismo y la de la mano que la toca. Ahora bien, aunque la
sensación experimentada sea tanto más intensa cuanto más elevada sea la temperatura, se trata sólo
una apreciación muy poco exacta que no puede considerarse como medida de temperatura. Para
efectuar esta ultima se utilizan otras propiedades del calor, como la dilatación, cuyos efectos son
susceptibles.

Con muy pocas excepciones todos los cuerpos aumentan de volumen al calentarse y disminuyen
cuando se enfrían. En caso de los sólidos, el volumen suele incrementarse en todas las direcciones
se puede observar este fenómeno en una de ellas con experiencia del pirómetro del cuadrante.

El, pirómetro del cuadrante consta de una barra metálica apoyada en dos soportes, uno de los cuales
se fija con un tornillo, mientras que el otro puede deslizarse y empujar una palanca acodada
terminada por una aguja que recorre un cuadrante o escala cuadrada. Cuando, mediante un mechero,
se calienta fuertemente la barra, está se dilata y el valor del alargamiento, ampliado por la palanca,
aparece en el cuadrante.

Otro experimento igualmente característico es el llamado del anillo de Gravesande. Este aparato se
compone de un soporte del que cuelga una esfera metálica cuyo diámetro es ligeramente inferior al
de un anillo el mismo metal por el cual puede pasar cuando las dos piezas están a l a misma
temperatura. Si se calienta la esfera dejando el anillo a la temperatura ordinaria, aquella se dilata y
no pasa por el anillo; en cambio puede volver a hacerlo una vez enfriada o en el caso en que se
hayan calentando simultáneamente y a la misma temperatura la esfera y el anillo.

La dilatación es, por consiguiente, una primera propiedad térmica de los cuerpos, que permite llegar
a la noción de la temperatura.

La segunda magnitud fundamental es la cantidad de calor que se supone reciben o ceden los
cuerpos al calentarse o al enfriarse, respectivamente.

La cantidad de calor que hay que proporcionar a un cuerpo para que su temperatura aumente en un
numero de unidades determinado es tanto mayor cuanto más elevada es la masa de dicho cuerpo y
es proporcional a lo que se denomina calor especifico de la sustancia de que está constituido.

Cuando se calienta un cuerpo en uno de sus puntos, el calor se propaga a los que son próximos y la
diferencia de temperatura entre el punto calentado directamente y otro situado a cierta distancia es
tanto menor cuando mejor conducto del calor es dicho cuerpo. Si la conductibilidad térmica de un
cuerpo es pequeña, la transmisión del calor se manifiesta por un descenso rápido de la temperatura
entre el punto calentado y otro próximo. Así sucede con el vidrio, la porcelana, el caucho, etc. En el
caso contrario, por ejemplo con metales como el cobre y la plata, la conductibilidad térmica es muy
grande y la disminución de temperatura entre un punto calentado y el otro próximo es muy
reducida.

Se desprende de lo anterior que el estudio del calor sólo puede hacerse después de haber definido de
una manera exacta los dos términos relativos al propio calor, es decir, la temperatura, que se expresa
en grados, y la cantidad de calor, que se expresa en calorías.

Habrá que definir después algunas propiedades específicas de los cuerpos en su manera de
comportarse con respecto al calor y la conductibilidad térmica.

Escalas de medición de la temperatura

Las dos escalas de temperatura de uso común son la Celsius (llamada anteriormente "centígrada") y
la Fahrenheit. Estas se encuentran definidas en términos de la escala Kelvin, que es las escala
fundamental de temperatura en la ciencia.

La escala Celsius de temperatura usa la unidad "grado Celsius" (símbolo °C), igual a la unidad
"Kelvin". Por esto, los intervalos de temperatura tienen el mismo valor numérico en las escalas
Celsius y Kelvin. La definición original de la escala Celsius se ha sustituido por otra que es más
conveniente. Sí hacemos que Tc represente la escala de temperatura, entonces:

Tc = T - 273.15°

relaciona la temperatura Celsius Tc(°C) y la temperatura Kelvin T(K). Vemos que el punto triple del
agua (= 273.16 K por definición), corresponde a 0.01°C. La escala Celsius se definió de tal manera
que la temperatura a la que el hielo y el aire saturado con agua se encuentran en equilibrio a la
presión atmosférica - el llamado punto de hielo - es 0.00 °C y la temperatura a la que el vapor y el
agua liquida, están en equilibrio a 1 atm de presión -el llamado punto del vapor- es de 100.00 °C.
La escala Fahrenheit, todavía se usa en algunos países que emplean el idioma ingles aunque
usualmente no se usa en el trabajo científico. Se define que la relación entre las escalas Fahrenheit y
Celsius es:

TF = 32 + 9.TC/5.

De esta relación podemos concluir que el punto del hielo (0.00°C) es igual a 32.0 °F, y que el punto
del vapor (100.0°C) es igual a 212.0 °F, y que un grado Fahrenheit es exactamente igual 5/9 del
tamaño de un grado Celsius.

TEORIA CINETICA DE LOS GASES

La termodinámica se ocupa solo de variables microscópicas, como la presión, la temperatura y el


volumen. Sus leyes básicas, expresadas en términos de dichas cantidades, no se ocupan para nada
de que la materia esta formada por átomos. Sin embargo, la mecánica estadística, que estudia las
mismas áreas de la ciencia que la termodinámica, presupone la existencia de los átomos. Sus leyes
básicas son las leyes de la mecánica, las que se aplican en los átomos que forman el sistema.

No existe una computadora electrónica que pueda resolver el problema de aplicar las leyes de la
mecánica individualmente a todos los átomos que se encuentran en una botella de oxigeno, por
ejemplo. Aun si el problema pudiera resolverse, los resultados de estos cálculos serian demasiados
voluminosos para ser útiles.

Afortunadamente, no son importantes las historias individuales detalladas de los átomos que hay en
un gas, si sólo se trata de determinar el comportamiento microscópico del gas. Así, aplicamos las
leyes de la mecánica estadísticamente con lo que nos damos cuenta de que podemos expresar todas
las variables termodinámica como promedios adecuados de las propiedades atómicas. Por ejemplo,
la presión ejercida por un gas sobre las paredes de un recipiente es la rapidez media, por unidad de
área, a la que los átomos de gas transmiten ímpetu a la pared, mientras chocan con ella. En realidad
el numero de átomos en un sistema microscópico, casi siempre es tan grande, que estos promedios
definen perfectamente las cantidades.

Podemos aplicar las leyes de la mecánica estadísticamente a grupos de átomos en dos niveles
diferentes. Al nivel llamado teoría cinética, en el que procederemos en una forma más física,
usando para promediar técnicas matemáticas bastantes simples.

En otro nivel, podemos aplicar las leyes de la mecánica usando técnicas que son más formales y
abstractas que las de la teoría cinética. Este enfoque desarrollado por Josiah Willard Gibbs (1839-
1903) y por Ludwig Boltzmann (1844-1906)entre otros, se llama mecánica estadística, un termino
que incluye a la teoría cinética como una de sus ramas. Usando estos métodos podemos derivar las
leyes de la termodinámica, estableciendo a esta ciencia como una rama de la mecánica. El
florecimiento pleno de la mecánica estadística (estadística cuántica), que comprende la aplicación
estadística de las leyes de la mecánica cuántica, más que las de la mecánica clásica para sistemas de
muchos átomos.

Gas ideal : Una descripción macroscópica.

Hagamos que cierta cantidad de gas esté confinada en un recipiente del volumen V. Es claro que
podemos reducir su densidad, retirando algo de gas en el recipiente, o colocando el gas en un
recipiente más grande. Encontramos experimentalmente que a densidades lo bastante pequeñas,
todos los gases tienden a mostrar ciertas relaciones simples entre las variables termodinámicas p, Vy
T. Esto sugiere el concepto de un gas ideal, uno que tendrá el mismo comportamiento simple, bajo
todas las condiciones de temperatura y presión.

Dado cualquier gas en un estado de equilibrio térmico, podemos medir su presión p, su temperatura
T y su volumen V. Para valores suficientes pequeños la densidad, los experimentos demuestran que
(1) para una masa dada de gas que se mantiene a temperatura constante, la presión es inversamente
proporcional al volumen (ley de Boyle), y (2) para una masa dada de gas que se mantiene a presión
constante, el volumen es directamente proporcional a la temperatura (ley de Charles y Gay Lussac).
Podemos resumir estos resultados experimentales por medio de la relación:

p.V/T =una constante (para una masa fija de gas).

El volumen ocupado por un gas a una presión y temperaturas dadas, es proporcional a la masa del
gas. Así, la constante de la ecuación p.V/T = una constante, también debe ser proporcional a la masa
del gas, por ello escribimos la constante de la ecuación p.V/T =una constante; como nR, donde n es
el numero de moles de gas en la muestra y R es una constante que debe determinarse en forma
experimental para cada gas. Los experimentos demuestran que, a densidades suficientes pequeñas,
R tiene el mismo valor para todos los gases, a saber,

R = 8.314 J/mol K = 1.986 cal/mol K

R se llama la constante universal de los gases. Con esto escribimos la ecuación p.V/T = una
constante, en la forma:

p.V = n.R.T,

y definimos a un gas ideal, como aquel que obedece esta relación bajo todas las condiciones. No
existe algo que sea en verdad un gas ideal, pero sigue siendo concepto muy útil y sencillo,
relacionado realmente, con el hecho que todos los gases reales se aproximan a la abstracción de los
gases ideales en su comportamiento, siempre que la densidad sea suficientemente pequeña. p.V =
n.R.T se llama ecuación de estado de un gas ideal.

Si pudiéramos llenar al bulbo de un termómetro de gas (ideal) a volumen constante, un gas ideal, de
veríamos, de acuerdo con la ecuación p.V = n.R.T, que podemos definir la temperatura en términos
de sus lecturas de presión; esto es: T = (P/P tr).273, 16 k (gas ideal).

Aquí P tr es la presión del gas en el punto triple del agua, en el que la temperatura P tr es por
definición 273.16 K. En la practica, debemos llenar nuestro termómetro con un gas real y medir la
temperatura extrapolando a la densidad cero, usando la ecuación:

T = [lim(P/P tr)].273, 16 k (gas real).

Gas ideal: una descripción microscópica.

Desde el punto de vista microscópico, definimos a un gas ideal haciendo las siguientes
suposiciones, con lo que nuestra tarea será la de aplicar las leyes de la mecánica clásica,
estadísticamente, a los átomos del gas y demostrar que nuestra definición microscópica es
consecuente con la definición macroscópica de la sección procedente:

1.- Un gas esta formado por partículas llamadas moléculas. Dependiendo del gas, cada molécula
esta formada por un átomo o un grupo de átomos. Si el gas es un elemento o un compuesto en su
estado estable, consideramos que todas sus moléculas son idénticas.

2.- Las moléculas se encuentran animadas de movimiento aleatorio y obedecen las leyes de
Newton del movimiento. Las moléculas se mueven en todas direcciones y a velocidades diferentes.
Al calcular las propiedades del movimiento suponemos que la mecánica newtoniana se puede
aplicar en el nivel microscópico. Como para todas nuestras suposiciones, esta mantendrá o
desechara, dependiendo de si los hechos experimentales indican o no que nuestras predicciones son
correctas.

3.- El numero total de moléculas es grande. La dirección y la rapidez del movimiento de


cualquiera de las moléculas puede cambiar bruscamente en los choques con las paredes o con otras
moléculas. Cualquiera de las moléculas en particular, seguirá una trayectoria de zigzag, debido a
dichos choques. Sin embargo, como hay muchas moléculas, suponemos que el gran numero de
choques resultante mantiene una distribución total de las velocidades moleculares con un
movimiento promedio aleatorio,

4.- El volumen de las moléculas es una fracción despreciablemente pequeña del volumen
ocupado por el gas. Aunque hay muchas moléculas, son extremadamente pequeñas. Sabemos que
el volumen ocupado por una gas se puede cambiar en un margen muy amplio, con poca dificultad y
que, cuando un gas se condensa, el volumen ocupado por el líquido puede ser miles de veces menor
que la del gas se condensa, el volumen ocupado por el líquido puede ser miles de veces menor que
el del gas. De aquí que nuestra suposición es posible.

5.- No actúan fuerzas apreciables sobre las moléculas, excepto durante los choques. En el grado
de que esto sea cierto, una molécula se moverá con velocidad uniforme entre los choques. Como
hemos supuesto que las moléculas son tan pequeñas, la distancia media entre ellas es grande en
comparación con el tamaño de una de las moléculas. De aquí que suponemos que el alcance de las
fuerzas moleculares es comparable al tamaño molecular.

6.- Los choques son elásticos y de duración despreciable. En las choques entre las moléculas con
las paredes del recipiente se conserva el ímpetu y (suponemos)la energía cinética. Debido a que el
tiempo de choque es despreciable comparado con el tiempo que transcurre entre los choque de
moléculas, la energía cinética que se convierte en energía potencial durante el choque, queda
disponible de nuevo como energía cinética, después de un tiempo tan corto, que podemos ignorar
este cambio por completo.

Leyes de los gases:

Toda las masas gaseosas experimentan variaciones de presión, volumen y temperatura que se rigen
por las siguientes leyes:

primera ley (Boyle-Mariotte)


Los volúmenes ocupados por una misma masa gaseosa conservándose su temperatura
constante, son inversamente proporcionales a la presión que soporta.

Formula interpretación
V = volumen inicial
VN = volumen final
V.P = V´.P´
P = presión inicial
P´ = Presión final

Segunda ley (Gay Lussac).

Cuando se calienta un gas, el volumen aumenta 1/273 parte de su valor primitivo, siempre
que la presión no varíe. Temperatura y volumen son directamente proporcionales.

Formula interpretación
V = volumen inicial
V´ = volumen final
V.T´ = V´.T
T = temperatura inicial
T´ = temperatura final

Tercera ley (Charles)

La presión ejercida por una masa gaseosa es directamente proporcional a su temperatura


absoluta, siempre que el volumen sea constante.

Formula interpretación
P = presión inicial
P´ = presión final
P.T´ = P´.T
T = temperatura inicial
T´ = temperatura final

Ecuación general del estado gaseoso.

En una masa gaseosa los volúmenes y las presiones son directamente proporcionales a sus
temperaturas absolutas e inversamente proporcionales entre sí.

Formula Interpretación
Despejando presión P.V.T´ = P´.V´.T (a) P = presión inicial
P.V/T = P´.V´/T´ (b) P´ = presión final
V = volumen final
P = P´.V´.T / V.T´ (c) V´ = volumen final
P´ = P.V.T´/ V´.T (d) T´ = temperatura final
T = temperatura final

"EL MISTERIO DE El NIÑO CAMBIA AL MUNDO "

SUS EFECTOS, PREVISIBLES HASTA 1988.

Pescadores peruanos y ecuatorianos fueron los primeros en percatarse de un fenómeno climático


que ocurría con alguna regularidad, lo llamaron El niño pues se presentaba en vísperas de Navidad
y lo asociaban con la llegada del niño Jesús. Posteriormente llamó la atención de los científicos,
quienes comenzaron a estudiarlo.

Durante 1997 el fenómeno ha causado severos cambios en el clima de todo el mundo. Según la
Administración Nacional Oceanográfica y Atmosférica (NOAA, por sus siglas en ingles) en el
continente americano provocara "inusuales alteraciones del clima", que se presentaran de
noviembre de 1997 a marzo de 1998; las observaciones satelitales el aumento de la temperatura del
Pacifico ecuatorial.

Ants Leetmaa, director del Centro de Predicciones Climáticas de la NOAA, menciono algunas de
estas inusuales modificaciones: monzones en el sudeste de Asia e India; sequías en Estados Unidos,
sudeste de Africa, Australia y el noreste de Brasil; fuertes tormentas en el Océano Pacifico e
inundaciones en Perú, Ecuador, Centroamericana y el sur de Estados Unidos. Por su parte,
investigadores del Centro de Predicción Ambiental Marítima de China informaron que el fenómeno
meteorológico será el mas fuerte de este siglo y sus efectos se agudizaran a finales del año. Son
Xuejia, director del centro, advirtió: "En estos momentos la fuerza de esta alteración natural es igual
a la de 1982, pero se espera que se fortalezca aun mas a finales de 1997".

Dice que el mar ha registrado movimientos violentos y la alteración de las temperaturas


atmosféricas indica que durante este año El niño se presentara con tal fuera que probablemente será
catalogado como el peor del siglo.

EL NIÑO DEL SIGLO.

Desde que se estudia, uno de los peores fenómenos que se ha presentado es el de 1982-1983,
cuando provoco inundaciones en Perú, lluvias torrenciales en el sur de California y benefició con un
invierno anormal a una parte de Estados Unidos. En lo que fue su ultimo gran golpe, el meteoro
causo graves sequías en Indonesia, Africa y Australia; persistentes lluvias en América, además de
severas inundaciones y deslizamientos.

En este periodo, ocasiono mas de 2 mil muertes en el mundo y de los materiales por 13 mil millones
de dólares. Por ahora, los pronósticos señalan que el fenómeno seguirá fortaleciéndose, pasara por
su máxima intensidad hacia finales de este año y se prolongara en su fase de debilitamiento en los
primeros meses del año.

¿ QUE ES EL NIÑO ?
Es una masa de agua con una temperatura por arriba de lo normal y se asocia con los tifones,
inundaciones, sequías terrestres y toda clase de cambios climáticos. Se desplaza desde las costas de
Indonesia por la línea ecuatorial, hasta las costas del pacifico sudamericano en el verano del
Hemisferio Sur; al suceder esto, las aguas costeras de Perú, Ecuador y del norte de Chile se elevan
algunos grados por encima del promedio.

Este fenómeno que se genera con intervalos de dos a siete años se caracteriza porque la superficie
del mar y la atmósfera sobre él presentan una condición anormal durante un periodo de 12 a 18
meses, que decae cuando no hay suficiente agua cálida para sostener el ciclo.

El Ingeniero Carlos Espinosa González, gerente del Sistema Meteorológico Nacional (SMN),
explico que el meteoro se inicia durante el verano, se propaga hacia el este y alcanza su etapa de
madurez en el invierno del Hemisferio Norte. El niño se origina en el Océano Pacifico tropical,
cerca de Australia e Indonesia, donde aumenta la temperatura de las aguas superficiales. Este
máximo de temperatura se desplaza gradualmente hacia el este y alrededor de seis meses después,
alcanza la costa de América del Sur, en el extremo este del Pacifico.

El desplazamiento del máximo de temperatura va acompañado de un enfriamiento relativo en el


Océano Pacifico Occidental, cerca de Asia. Mientras esto sucede en el océano, en la atmósfera, se
altera el patrón de la presión atmosférica, la cual baja en el este del Pacifico y sube en el oeste. A la
aparición y desplazamiento del máximo de temperatura se le ha nombrado "episodio cálido" y al
sube y baja de la presión, oscilación del sur.

En tanto, los científicos lo llamaron ENOS (El niño, Oscilación del Sur) y lo definen como
alteraciones de los patrones de circulación del océano y la atmósfera. Durante ENOS se altera la
presión atmosférica en zonas distintas entre sí, cambia la dirección y velocidad del viento y se
desplazan las zonas de lluvia de la región tropical. En el océano, la contracorriente ecuatorial, que
dirige las aguas frías de la corriente del Perú hacia el oeste, se debilita, favoreciendo el transporte de
aguas cálidas hacia la costa de América del Sur.

Los cambios climáticos que acompañan a El niño son:

- Sube la presión atmosférica en el Pacifico, a la altura del Ecuador sobre el oeste.

- Los vientos predominantes se debilitan y revierten su dirección normal.

- El agua oceánica fluye a mayor temperatura hacia el Ecuador.

Se producen fuertes lluvias en el Pacifico Central y este, a la altura del Ecuador.

Lo contrario a este fenómeno es La niña o fase fría de ENOS. En este caso las aguas son más frías
de lo normal en el Pacifico tropical del este, a la altura de las costas de Sudamérica.

Cuando se presenta en territorio nacional, los veranos son lluviosos, el invierno es tibio y la
actividad de huracanes aumenta principalmente en el Golfo de México y en el Océano Atlántico.

No se sabe cuando será el año de La niña; por lo pronto, hasta los primeros meses de 1998, El niño
seguirá modificando los patrones del clima del mundo. Estos fenómenos no se pueden presentar al
mismo tiempo y tampoco es factible predecir cuando volverá a darse cualquiera de los dos.
LA LLEGADA DE EL NIÑO.

Se ha presentado 17 veces desde 1925. Entre lo mas recordados esta el de 1953, pero al de este año
es al que se ha considera como el más intenso. Los científicos atribuyen a varias causas naturales su
aparición. Daniel Walter, investigador de la Universidad de Hawai, asocia el fenómeno con la
actividad que ocurre con el lecho del océano, dice que hay una conexión entre los terremotos bajo el
mar y la incidencia de El niño.

En su opinión, la aparición del fenómeno coincidió con sismos en el East Pacific Rise, una cadena
montañosa ubicada en el océano. La temperatura volcánica llegaba a la superficie del este y
calentaba el agua y el aire de la zona, desencadenando las anormalidades que lo caracterizan.

Por su parte, John Toole, oceanógrafo de Massachusetts, explica que el problema lo provocan el
océano y la atmósfera. "La principal causa esta en el primero, que es muy ancho para dar una
respuesta uniforme a la acción de la radiación solar".

En la actualidad los investigadores vinculan más estrechamente la ocurrencia de El niño con


cambios en la presión atmosférica y en la dirección de los vientos en la zona ecuatorial. Carlos
Espinosa lo define como una combinación de interacciones entre el océano y la atmósfera, pero
advierte que "no se conocen las causas que originan el desarrollo del fenómeno y no se puede
pronosticar. Se sabe que apareció cuando el agua del océano se calentó más de lo normal y
predominaron los vientos de oeste a este.

¿Que es un coloide?

Es un sistema en el cual las partículas de una sustancia pueden hallarse en suspensión en un líquido
-sin tender a acumularse en la superficie ni en el fondo - merced a un equilibrio llamado estado
coloidal (sustancia cuyas partículas tienen propiedades coloidales).

Las partículas de todas las substancias coloidales se hayan cargadas eléctricamente y no pueden
atravesar dichas membranas.

Las partículas coloidales (micelas) se emulsionan en el seno del líquido y dan una seudo solución
(sol) cuya estabilidad depende de la viscosidad y tensión superficial del solvente y de la carga
eléctrica de las micelas. Esta carga puede ser negativa o positiva - según la sustancia de que se trate
- paro siempre del mismo signo para todas las micelas. Por consiguiente, estas se repelen y no
pueden aglomerarse.

Una parte de los tejidos vegetales y animales son de naturaleza coloidal. Además, los coloides
constituyen el punto de partida de importantes procesos industriales, cuales son la fabricación del
caucho, de la seda artificial, del celuloide y otras materias.

La suspensión de partículas liquidas en un medio gaseoso es aerosol.


¿Que es el ozono?

El ozono esta formado por los efluvios eléctricos, se encuentra en pequeñas cantidades en la baja
atmósfera, pero existe también en las capas más elevadas donde es engendrado por las radiaciones
solares ultravioleta.

Gas de la formula O3 que no es sino una variedad de oxigeno cuyas moléculas constan de tres
átomos en vez de los que tiene la molécula de oxigeno ordinario.

Si el ozono contenido en la atmósfera se hallara en el suelo, a la temperatura y presión normales,


formaría una capa del orden de 2, 5 mm de espesor. En realidad, casi todo este ozono esta
concentrado en la ozonósfera, parte de la estratosfera situada entre 15 y 40 km. Allí se produce, al
ser disociadas las moléculas de oxigeno del aire por los rayos ultravioletas de origen solar y también
por los electrones libres y las radiaciones libres y las radiaciones cósmicas. El ozono detiene así a
todos los rayos ultravioletas solares de la longitud de onda inferior a 2900 ángstrom, cuya
circunstancia se debe - dado las referidas radiaciones son mortales, tanto para los animales como
para las plantas - La existencia de vida en nuestro planeta.

Presión atmosférica en relación al medio ambiente

El aire atmosférico ejerce sobre toda pared sólida en la que se encuentra sumergido una presión
perpendicular, que se denomina presión atmosférica, cuyo valor es aproximadamente de un
kilogramo por centímetro cuadrado.

La presión atmosférica es la que ejerce la atmósfera sobre todos los objetos que se hallan en
contacto con ella y que no es sino la manifestación del peso del aire.

Una columna de aire cuya base mida 1 cm ²y cuya altura sea la de la atmósfera, pesa 1003 g y
equilibra el peso de la columna de mercurio de igual diámetro y de 76 cm de altura o una de agua de
10, 33 m, equivalentes a 1013 milibares. Dichos valores se refieren a la presión a nivel del mar, ya
que, como la densidad del aire disminuye rápidamente con la altura, también experimenta un rápido
descenso la presión, pues más de la mitad de todo el aire atmosférico se halla concentrado en los 5,
000 primeros metros y 96% del mismo en los primeros 20, 000 m. De ahí la necesidad de
comprimir el aire en las cabinas de los aviones y la imposibilidad para los mismos de sustentarse y
de hallar en la alta atmósfera el oxígeno necesario para el funcionamiento de los motores de
combustión aerobia. Pero los cohetes, que no se apoyan con los planos sustentadores y que llevan su
propia reserva de comburente, se mueven y funcionan en las atmósferas más enrarecidas e incluso
en el vacío.

La presión atmosférica al nivel del mar se halla sujeta a variaciones provocadas por os movimientos
de las masas de aire, dado que un aire frío es más denso que un aire caliente. Estos cambios
provocan perturbaciones del tiempo.

Se dice que la atmósfera material rodea a las personas y a las cosas. Y por extensión., la atmósfera
moral y el conjunto de factores que contribuyen a crear una situación o estado particular alrededor
de una persona.
¿ PORQUE EL CIELO ES AZUL ?

El azul del cielo y el rojo de la puesta del sol, se deben a un fenómeno llamado <<difusión>>.
Cuando la luz del sol pasa por la atmósfera de la Tierra, mucha de la luz es recogida por las
moléculas del aire y cedida otra vez en alguna otra dirección. El fenómeno es muy similar a la
acción de las ondas del agua sobre los objetos flotantes. Si, por ejemplo, las ondulaciones
procedentes de una piedra arrojada a un estanque de agua inmóvil encuentran algún corcho pequeño
flotando en su superficie, el corcho cabecea subiendo y bajando con la frecuencia de las ondas que
pasan.

La luz se describe como actuando del mismo modo sobre moléculas del aire y finas partículas de
polvo. Una vez puestas en vibración por una onda luminosa, una molécula o una partícula pueden
emitir de nuevo luz absorbida, algunas veces en la misma dirección, pero generalmente en cualquier
otra.

Los experimentos demuestran, de acuerdo con la teoría de la difusión, que las ondas más cortas se
difunden más fácilmente que las más largas. Para ser más específicos, la difusión es inversamente
proporcional a la cuarta potencia de la longitud de onda.

Difusión 1/ λ 4

De acuerdo con esta ley las ondas cortas de la luz violeta se difunden diez veces más fácilmente que
las ondas largas de la luz roja. Los otros colores se difunden en proporciones intermedias. Así
cuando la luz solar entra en la atmósfera de la Tierra, la luz violeta y la azul, se difunden más,
seguidas del verde, amarilla, anaranjada y roja, en el orden indicado.

Para cada diez ondas violetas (λ = 0, 00004 cm) difundidas en un haz, hay sólo una onda
roja (λ = 0, 00007 cm).

Violeta azul verde amarilla anaranjada roja


10 7 5 3 2 1

A mediodía, en un día claro cuando el Sol está directamente en el cenit, el cielo entero aparece
como azul claro. Este es el color compuesto de la mezcla de colores difundidos más efectivamente
por las moléculas del aire. Puesto que el azul claro del triángulo de los colores se obtiene de la
mezcla aditiva de violeta, azul, verde y amarillo.

Las puestas de sol son rojas, la luz del cielo esta polarizada linealmente en bastante grado, como
puede comprobarse sin dificultad mirando al cielo directamente hacia arriba, a través de una lamina
polarizante, puesto que la luz difusa es sustraída del haz original, que resulta debilitado durante este
proceso.

DINAMICA DE FLUIDOS O HIDRODINAMICA

Esta rama de la mecánica de fluidos se ocupa de las leyes de los fluidos en movimiento; estas leyes
son enormemente complejas, y aunque la hidrodinámica tiene una importancia práctica mayor que
la hidrostática,sólo podemos tratar aquí algunos conceptos básicos.
Euler fue el primero en reconocer que las leyes dinámicas para los fluidos sólo pueden expresarse
de forma relativamente sencilla si se supone que el fluido es incompresible e ideal, es decir, si se
pueden despreciar los efectos del rozamiento y la viscosidad. Sin embargo, como esto nunca es así
en el caso de los fluidos reales en movimiento, los resultados de dicho análisis sólo pueden servir
como estimación para flujos en los que los efectos de la viscosidad son pequeños.

a) Flujos incompresibles y sin rozamiento

Estos flujos cumplen el llamado teorema de Bernoulli, que afirma que la energía mecánica total de
un flujo incompresible y no viscoso (sin rozamiento) es constante a lo largo de una línea de
corriente. Las líneas de corriente son líneas de flujo imaginarias que siempre son paralelas a la
dirección del flujo en cada punto, y en el caso de flujo uniforme coinciden con la trayectoria de las
partículas individuales de fluido. El teorema de Bernoulli implica una relación entre los efectos de
la presión, la velocidad y la gravedad, e indica que la velocidad aumenta cuando la presión
disminuye. Este principio es importante para predecir la fuerza de sustentación de un ala en vuelo.

Ecuación de continuidad: (para flujo estacionario e incompresible, sin fuentes ni sumideros, por
evaluarse a lo largo de una línea de corriente).

1) Ley de conservación de la masa en la dinámica de los fluidos:

A1.v1 = A2.v2 = constante.

Recordar que p = F/A F = p.A

Flujo de volúmen: (caudal).

Φ = A .v [m ³/s]

Ecuación de Bernoulli: (principio de conservación de la energía) para flujo ideal (sin fricción).

p1 + δ.v1 ²/2 + δ.g.h1 = p2 + δ.v2 ²/2 + δ.g.h2 = constante

p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2


p/ δ = energía de presión por unidad de masa.

g.h = energía potencial por unidad de masa.

v ²/2 = energía cinética por unidad de masa.

Ecuación de Bernoulli para flujo en reposo: v1 = v2 = 0

p1 + δ.g.h1 = p2 + δ.g.h2

b) Flujos viscosos: movimiento laminar y turbulento

Los primeros experimentos cuidadosamente documentados del rozamiento en flujos de baja


velocidad a través de tuberías fueron realizados independientemente por Poiseuille y por Gotthilf
Heinrich Ludwig Hagen. El primer intento de incluir los efectos de la viscosidad en las ecuaciones
matemáticas se debió a Navier e, independientemente, a Sir George Gabriel Stokes, quien
perfeccionó las ecuaciones básicas para los fluidos viscosos incompresibles. Actualmente se las
conoce como ecuaciones de Navier-Stokes, y son tan complejas que sólo se pueden aplicar a flujos
sencillos. Uno de ellos es el de un fluido real que circula a través de una tubería recta.

El teorema de Bernoulli no se puede aplicar aquí,porque parte de la energía mecánica total se disipa
como consecuencia del rozamiento viscoso, lo que provoca una caída de presión a lo largo de la
tubería. Las ecuaciones sugieren que, dados una tubería y un fluido determinados, esta caída de
presión debería ser proporcional a la velocidad de flujo. Los experimentos demostraron que esto
sólo era cierto para velocidades bajas; para velocidades mayores, la caída de presión era más bien
proporcional al cuadrado de la velocidad.

Este problema se resolvió cuando Reynolds demostró la existencia de dos tipos de flujo viscoso en
tuberías. A velocidades bajas, las partículas del fluido siguen las líneas de corriente (flujo laminar),
y los resultados experimentales coinciden con las predicciones analíticas. A velocidades más
elevadas, surgen fluctuaciones en la velocidad del flujo, o remolinos (flujo turbulento), en una
forma que ni siquiera en la actualidad se puede predecir completamente.

Reynolds también determinó que la transición del flujo laminar al turbulento era función de un
único parámetro, que desde entonces se conoce como número de Reynolds. Si el número de
Reynolds (que carece de dimensiones y es el producto de la velocidad, la densidad del fluido y el
diámetro de la tubería dividido entre la viscosidad del fluido) es menor de 2.000, el flujo a través de
la tubería es siempre laminar; cuando los valores son mayores a 3000 el flujo es turbulento. El
concepto de número de Reynolds es esencial para gran parte de la moderna mecánica de fluidos.

Los flujos turbulentos no se pueden evaluar exclusivamente a partir de las predicciones calculadas,
y su análisis depende de una combinación de datos experimentales y modelos matemáticos; gran
parte de la investigación moderna en mecánica de fluidos está dedicada a una mejor formulación de
la turbulencia. Puede observarse la transición del flujo laminar al turbulento y la complejidad del
flujo turbulento cuando el humo de un cigarrillo asciende en aire muy tranquilo. Al principio, sube
con un movimiento laminar a lo largo de líneas de corriente, pero al cabo de cierta distancia se hace
inestable y se forma un sistema de remolinos entrelazados.

Ecuación de Bernoulli para flujo real (con fricción)


p1/δ + v1 ²/2 + g.h1 = p2/δ + v2 ²/2 + g.h2 + H0

H0 = perdida de energía por rozamiento desde 1 hasta 2.

c) Flujos de la capa límite

Los flujos pueden separarse en dos regiones principales. La región próxima a la superficie está
formada por una delgada capa límite donde se concentran los efectos viscosos y en la que puede
simplificarse mucho el modelo matemático. Fuera de esta capa límite, se pueden despreciar los
efectos de la viscosidad, y pueden emplearse las ecuaciones matemáticas más sencillas para flujos
no viscosos.

La teoría de la capa límite ha hecho posible gran parte del desarrollo de las alas de los aviones
modernos y del diseño de turbinas de gas y compresores.

d) Flujos compresibles

El interés por los flujos compresibles comenzó con el desarrollo de turbinas de vapor por el
británico Parsons y el sueco Laval. En esos mecanismos se descubrió por primera vez el flujo
rápido de vapor a través de tubos, y la necesidad de un diseño eficiente de turbinas llevó a una
mejora del análisis de los flujos compresibles. El interés por los flujos de alta velocidad sobre
superficies surgió de forma temprana en los estudios de balística,donde se necesitaba comprender el
movimiento de los proyectiles.

Uno de los principios básicos del flujo compresible es que la densidad de un gas cambia cuando el
gas se ve sometido a grandes cambios de velocidad y presión. Al mismo tiempo, su temperatura
también cambia, lo que lleva a problemas de análisis más complejos. El comportamiento de flujo de
un gas compresible depende de si la velocidad de flujo es mayor o menor que la velocidad del
sonido.

El sonido es la propagación de una pequeña perturbación, u onda de presión, dentro de un fluido.


Para un gas, la velocidad del sonido es proporcional a la raíz cuadrada de su temperatura absoluta.
La velocidad del sonido en el aire a 20 °C (293 Kelvin en la escala absoluta), es de unos 344 metros
por segundo. Si la velocidad de flujo es menor que la velocidad del sonido (flujo subsónico),las
ondas de presión pueden transmitirse a través de todo el fluido y así adaptar el flujo que se dirige
hacia un objeto. Por tanto, el flujo subsónico que se dirige hacia el ala de un avión se ajustará con
cierta distancia de antelación para fluir suavemente sobre la superficie. En el flujo supersónico, las
ondas de presión no pueden viajar corriente arriba para adaptar el flujo. Por ello, el aire que se
dirige hacia el ala de un avión en vuelo supersónico no está preparado para la perturbación que va a
causar el ala y tiene que cambiar de dirección repentinamente en la proximidad del ala, lo que
conlleva una compresión intensa u onda de choque. El ruido asociado con el paso de esta onda de
choque sobre los observadores situados en tierra constituye el estampido sónico de los aviones
supersónicos. Frecuentemente se identifican los flujos supersónicos por su número de Mach, que es
el cociente entre la velocidad de flujo y la velocidad del sonido. Por tanto, los flujos supersónicos
tienen un número de Mach superior a 1.

Viscosidad
Propiedad de un fluido que tiende a oponerse a su flujo cuando se le aplica una fuerza. Los fluidos
de alta viscosidad presentan una cierta resistencia a fluir; los fluidos de baja viscosidad fluyen con
facilidad. La fuerza con la que una capa de fluido en movimiento arrastra consigo a las capas
adyacentes de fluido determina su viscosidad, que se mide con un recipiente (viscosímetro) que
tiene un orificio de tamaño conocido en el fondo. La velocidad con la que el fluido sale por el
orificio es una medida de su viscosidad.

La viscosidad de un fluido disminuye con la reducción de densidad que tiene lugar al aumentar la
temperatura. En un fluido menos denso hay menos moléculas por unidad de volumen que puedan
transferir impulso desde la capa en movimiento hasta la capa estacionaria. Esto, a su vez, afecta a la
velocidad de las distintas capas. El momento se transfiere con más dificultad entre las capas, y la
viscosidad disminuye. En algunos líquidos, el aumento de la velocidad molecular compensa la
reducción de la densidad. Los aceites de silicona, por ejemplo, cambian muy poco su tendencia a
fluir cuando cambia la temperatura, por lo que son muy útiles como lubricantes cuando una
máquina está sometida a grandes cambios de temperatura.

ELECTRICIDAD

Categoría de fenómenos físicos originados por la existencia de cargas eléctricas y por la interacción
de las mismas. Cuando una carga eléctrica se encuentra estacionaria, o estática, produce fuerzas
eléctricas sobre las otras cargas situadas en su misma región del espacio; cuando está en
movimiento, produce además efectos magnéticos. Los efectos eléctricos y magnéticos dependen de
la posición y movimiento relativos de las partículas cargadas. En lo que respecta a los efectos
eléctricos, estas partículas pueden ser neutras, positivas o negativas. La electricidad se ocupa de las
partículas cargadas positivamente, como los protones, que se repelen mutuamente, y de las
partículas cargadas negativamente, como los electrones, que también se repelen mutuamente. En
cambio, las partículas negativas y positivas se atraen entre sí. Este comportamiento puede resumirse
diciendo que las cargas del mismo signo se repelen y las cargas de distinto signo se atraen.

Propiedades eléctricas de los materiales

El primer fenómeno eléctrico artificial que se observó fue la propiedad que presentan algunas
sustancias resinosas como el ámbar, que adquieren una carga negativa al ser frotadas con una piel o
un trapo de lana, tras lo cual atraen objetos pequeños. Un cuerpo así tiene un exceso de electrones.
Una varilla de vidrio frotada con seda tiene una capacidad similar para atraer objetos no cargados, y
atrae los cuerpos negativamente cargados con una fuerza aún mayor. El vidrio tiene una carga
positiva, que puede describirse como un defecto de electrones o un exceso de protones. William
Gilbert enunció la atracción y repulsión de los materiales.

Un cuerpo cargado negativamente,


es aquel que tiene un exceso de electrones;
un cuerpo cargado positivamente,
es aquel que tiene un defecto de electrones.

Cuando algunos átomos se combinan para formar sólidos,frecuentemente quedan libres uno o más
electrones, que pueden moverse con facilidad a través del material. En algunos materiales, llamados
conductores, ciertos electrones se liberan fácilmente. Los metales, en particular el cobre y la plata,
son buenos conductores.

Carga eléctrica
El electroscopio es un instrumento cualitativo empleado para demostrar la presencia de cargas
eléctricas. El electroscopio está compuesto por dos láminas de metal muy finas, colgadas de un
soporte metálico en el interior de un recipiente de vidrio u otro material no conductor. Una esfera
recoge las cargas eléctricas del cuerpo cargado que se quiere observar; las cargas, positivas o
negativas, pasan a través del soporte metálico y llegan a ambas láminas. Al ser iguales, las cargas se
repelen y las láminas se separan. La distancia entre éstas depende de la cantidad de carga.

Pueden emplearse tres métodos para cargar eléctricamente un objeto (pasaje de cargas):

1) contacto con otro objeto de distinto material (como por ejemplo, ámbar y piel) seguido por
separación.

2) contacto con otro cuerpo cargado (corriente de electrones).

3) inducción (no hay electrones en movimiento).

Ej.: Péndulo

Lata de coca

Jaula de Faraday

Efecto de superficie

Electrosforo

Conductor eléctrico

Cualquier material que ofrezca poca resistencia al flujo de electricidad se denomina conductor
eléctrico. La diferencia entre un conductor y un aislante, que es un mal conductor de electricidad o
de calor, es de grado más que de tipo, ya que todas las sustancias conducen electricidad en mayor o
en menor medida. Un buen conductor de electricidad, como la plata o el cobre, puede tener una
conductividad mil millones de veces superior a la de un buen aislante, como el vidrio o la mica. En
los conductores sólidos la corriente eléctrica es transportada por el movimiento de los electrones; y
en disoluciones y gases, lo hace por los iones.

Los materiales en los que los electrones están fuertemente ligados a los átomos se conocen como
aislantes, no conductores o dieléctricos. Algunos ejemplos son el vidrio, la goma o la madera seca.
Un tercer tipo de material es un sólido en el que un número relativamente pequeño de electrones
puede liberarse de sus átomos de forma que dejan un "hueco" en el lugar del electrón. El hueco, que
representa la ausencia de un electrón negativo, se comporta como si fuera una unidad de carga
positiva. Un campo eléctrico hace que tanto los electrones negativos como los huecos positivos se
desplacen a través del material, con lo que se produce una corriente eléctrica. Generalmente, un
sólido de este tipo, denominado semiconductor,tiene una resistencia mayor al paso de corriente que
un conductor como el cobre, pero menor que un aislante como el vidrio. Si la mayoría de la
corriente es transportada por los electrones negativos, se dice que es un semiconductor de tipo n. Si
la mayoría de la corriente corresponde a los huecos positivos, se dice que es de tipo p.

Si un material fuera un conductor perfecto, las cargas circularían por él sin ninguna resistencia; por
su parte,un aislante perfecto no permitiría que se movieran las cargas por él. No se conoce ninguna
sustancia que presente alguno de estos comportamientos extremos a temperatura ambiente. A esta
temperatura, los mejores conductores ofrecen una resistencia muy baja (pero no nula) al paso de la
corriente y los mejores aislantes ofrecen una resistencia alta (pero no infinita).

Buen conductor
Conductores Semiconductor
Mal conductor o aislador

Carga punto

Es un modelo que se caracteriza por no tener masa, por lo tanto no es afectada por la gravedad y no
tiene dimensiones. Se define Coulomb como la carga que tiene un punto que colocado en el vacío a
un metro de otra igual, la repele con una fuerza de 9.10 9 Newtons.

Una manifestación habitual de la electricidad es la fuerza de atracción o repulsión entre dos cuerpos
estacionarios que, de acuerdo con el principio de acción y reacción, ejercen la misma fuerza
eléctrica uno sobre otro. La carga eléctrica de cada cuerpo puede medirse en coulombs. La fuerza
(F) entre dos partículas con cargas q1 y q2 puede calcularse a partir de la ley de Coulomb:

F = ko.q1.q2/r ²

r: distancia entre cargas

ko: constante de proporcionalidad que depende del medio que rodea a las cargas.

ko = 9.109 N.m ²/C ²

Esta constante también se puede referir a la permeabilidad del vacío:

ko = 1/4.π. ε o

ε o = 8,85415.10-12 C ²/N.m ² (permeabilidad del vacío).

F = q1.q2/4.π. ε o.r ²

Toda partícula eléctricamente cargada crea a su alrededor un campo de fuerzas. Este campo puede
representarse mediante líneas de fuerza que indican la dirección de la fuerza eléctrica en cada punto.
MAGNETISMO

Las fuerzas magnéticas son producidas por el movimiento de partículas cargadas, como por ejemplo
electrones, lo que indica la estrecha relación entre la electricidad y el magnetismo. El marco que
aúna ambas fuerzas se denomina teoría electromagnética. La manifestación más conocida del
magnetismo es la fuerza de atracción o repulsión que actúa entre los materiales magnéticos como el
hierro. Sin embargo, en toda la materia se pueden observar efectos más sutiles del magnetismo.
Recientemente, estos efectos han proporcionado claves importantes para comprender la estructura
atómica de la materia.

Teoría electromagnética

Hans Christian Oersted descubrió que una aguja magnética podía ser desviada por una corriente
eléctrica. Este descubrimiento,que mostraba una conexión entre la electricidad y el magnetismo, fue
desarrollado por Ampère, que estudió las fuerzas entre cables por los que circulan corrientes
eléctricas, y por Arago, que magnetizó un pedazo de hierro colocándolo cerca de un cable recorrido
por una corriente. Faraday descubrió que el movimiento de un imán en las proximidades de un
cable induce en éste una corriente eléctrica; este efecto era inverso al hallado por Oersted. Así,
Oersted demostró que una corriente eléctrica crea un campo magnético, mientras que Faraday
demostró que puede emplearse un campo magnético para crear una corriente eléctrica. La
unificación de las teorías de la electricidad y el magnetismo se debió a Maxwell, que predijo la
existencia de ondas electromagnéticas e identificó la luz como un fenómeno electromagnético.

Los estudios posteriores se centraron en la comprensión del origen atómico y molecular de las
propiedades magnéticas de la materia. Langevin desarrolló una teoría sobre la variación con la
temperatura de las propiedades magnéticas de las sustancias paramagnéticas, basada en la estructura
atómica de la materia. Esta teoría es un ejemplo de la descripción de propiedades macroscópicas a
partir de las propiedades de los electrones y los átomos. La teoría de Langevin fue ampliada por
Pierre Ernest Weiss, que postuló la existencia de un campo magnético interno, molecular, en los
materiales como el hierro. Este concepto, combinado con la teoría de Langevin, sirvió para explicar
las propiedades de los materiales como la piedra imán.

La teoría de Neils Bohr sobre la estructura atómica, hizo que se comprendiera la tabla periódica y
mostró por qué el magnetismo aparece en los elementos de transición como el hierro o los
lantánidos o en compuestos que incluyen estos elementos. Samuel Abraham Goudsmit y Uhlenbeck
demostraron que los electrones tienen espín y se comportan como pequeños imanes con un
momento magnético definido.
El momento magnético de un objeto es una cantidad vectorial que expresa la intensidad y
orientación del campo magnético del objeto. Werner Karl Heisenberg dio una explicación detallada
del campo molecular de Weiss basada en la mecánica cuántica.

El campo magnético

Una barra imantada o un cable que transporta corriente pueden influir en otros materiales
magnéticos sin tocarlos físicamente porque los objetos magnéticos producen un c ampo magnético.
Los campos magnéticos suelen representarse mediante líneas de flujo magnético . En cualquier
punto, la dirección del campo magnético es igual a la dirección de las líneas de flujo, y la
intensidad del campo es inversamente proporcional al espacio entre las líneas de flujo.
En el caso de una barra imantada, las líneas de flujo salen de un extremo y se curvan para llegar al
otro extremo; estas líneas pueden considerarse como bucles cerrados, con una parte del bucle dentro
del imán y otra fuera.

En los extremos del imán, donde las líneas de flujo están más próximas, el campo magnético es más
intenso; en los lados del imán, donde las líneas de flujo están más separadas, el campo magnético es
más débil. Según su forma y su fuerza magnética, los distintos tipos de imán producen diferentes
esquemas de líneas de flujo. La estructura de las líneas de flujo creadas por un imán o por cualquier
objeto que genere un campo magnético puede visualizarse utilizando una brújula o limaduras de
hierro. Los imanes tienden a orientarse siguiendo las líneas de flujo magnético. Por tanto, una
brújula, que es un pequeño imán que puede rotar libremente, se orientará en la dirección de las
líneas. Marcando la dirección que señala la brújula al colocarla en diferentes puntos alrededor de la
fuente del campo magnético, puede deducirse el esquema de líneas de flujo. Igualmente, si se agitan
limaduras de hierro sobre una hoja de papel o un plástico por encima de un objeto que crea un
campo magnético, las limaduras se orientan siguiendo las líneas de flujo y permiten así visualizar su
estructura.

Los campos magnéticos influyen sobre los materiales magnéticos y sobre las partículas cargadas en
movimiento. En términos generales, cuando una partícula cargada se desplaza a través de un campo
magnético, experimenta una fuerza que forma ángulos rectos con la velocidad de la partícula y con
la dirección del campo. Como la fuerza siempre es perpendicular a la velocidad, las partículas se
mueven en trayectorias curvas. Los campos magnéticos se emplean para controlar las trayectorias
de partículas cargadas en dispositivos como los aceleradores de partículas o los espectrógrafos de
masas.

Brújula

Instrumento que indica el rumbo, empleado por marinos, pilotos, cazadores, excursionistas y
viajeros para orientarse. Hay dos tipos fundamentales de brújula: la brújula magnética y el
girocompás o brújula giroscópica.

Brújula magnética: En su forma más sencilla este tipo de brújula está formado por una aguja
magnetizada montada en un pivote situado en el centro de un círculo graduado fijo (denominado
rosa de los vientos) de modo que la aguja pueda oscilar libremente en el plano horizontal. En la
brújula magnética el rumbo se determina a partir de una o varias agujas magnetizadas que señalan al
polo norte magnético bajo la influencia del campo magnético terrestre. El compás náutico, una
brújula magnética utilizada en la navegación,tiene varios haces de agujas magnetizadas paralelas
fijados a la parte inferior de la rosa que pivota sobre su centro en un recipiente de bronce cubierto
de vidrio. El recipiente está montado en un balancín, por lo que la rosa mantiene una posición
horizontal a pesar del balanceo y cabeceo del barco.

En el compás líquido, el más estable de los compases náuticos, el recipiente está lleno de líquido,
una mezcla de alcohol y agua. El líquido ayuda a sostener la rosa, que en este tipo de brújula pivota
sobre su centro y flota en el líquido, con lo que se reduce la fricción en el pivote y se amortiguan las
vibraciones de la rosa causadas por el movimiento del buque. Estas ventajas hacen que el compás
líquido se emplee más que el compás seco. En ambos tipos hay trazada una línea negra vertical,
conocida como línea de fe, en la superficie interior del recipiente,orientada según la proa del barco.
El rumbo del buque se obtiene leyendo los grados que marca la rosa frente a la línea de fe. La
brújula magnética sólo apunta al norte magnético si el barco está libre de magnetismo y si no hay
objetos grandes de hierro o acero en las proximidades. Si el barco está magnetizado o la aguja se ve
afectada por objetos de hierro o acero, se produce el error conocido como desviación. Para corregir
la desviación la brújula se instala en un soporte denominado bitácora de compensación, equipado
con un sistema de imanes que compensan las influencias perturbadoras.

Para obtener el norte verdadero en una brújula magnética también hay que efectuar las correcciones
debidas a la declinación magnética (el ángulo formado entre el meridiano magnético y el meridiano
verdadero). Este ángulo (también llamado variación magnética) puede ser positivo o negativo, y
varía con la posición geográfica y en cierta medida con el tiempo. Se han determinado la magnitud,
el signo y el cambio anual de la declinación de la mayoría de los lugares de la superficie terrestre, y
estos datos están registrados en todas las cartas náuticas. Las tormentas magnéticas provocan
cambios transitorios e impredecibles de la declinación, sobre todo en las latitudes más elevadas.

El compás náutico convencional resulta poco fiable en las aeronaves debido a los errores
introducidos por los giros y aceleraciones bruscas del avión. Para eliminar estos errores, los
compases aeronáuticos tienen un diseño especial, con unidades direccionales magnéticas
estabilizadas respecto al movimiento del avión mediante péndulos o giróscopos.

Girocompás: Este dispositivo, dotado de uno o más giróscopos, se emplea para la navegación de
todos los buques de cierto tamaño. El girocompás, que no resulta afectado por el magnetismo
terrestre, consiste en un giróscopo cuyo rotor gira alrededor de un eje confinado al plano horizontal
de forma que dicho eje se alinea con la línea Norte-Sur paralela al eje de rotación terrestre, con lo
que indica el norte verdadero, sin estar sometido a los errores inherentes de desviación y
declinación que afectan a la brújula magnética. Los girocompases cuentan con dispositivos de
corrección para compensar la deriva hacia el Este debida al movimiento de la Tierra y los errores de
velocidad y rumbo. En la mayoría de los barcos oceánicos, el girocompás está conectado
eléctricamente con un piloto automático, un dispositivo que dirige el timón del barco de forma
automática y mantiene su rumbo de acuerdo a las señales del girocompás.

Tipos de materiales magnéticos

Las propiedades magnéticas de los materiales se clasifican siguiendo distintos criterios. Una de las
clasificaciones de los materiales magnéticos (diamagnéticos, paramagnéticos y ferromagnéticos) se
basa en la reacción del material ante un campo magnético. Cuando se coloca un material
diamagnético en un campo magnético, se induce en él un momento magnético de sentido opuesto al
campo magnético. En la actualidad se sabe que esta propiedad se debe a las corrientes eléctricas
inducidas en los átomos y moléculas individuales. Estas corrientes producen momentos magnéticos
opuestos al campo aplicado. Muchos materiales son diamagnéticos; los que presentan un
diamagnetismo más intenso son el bismuto metálico y las moléculas orgánicas que, como el
benceno, tienen una estructura cíclica, que permite que las corrientes eléctricas se establezcan con
facilidad.

El comportamiento paramagnético se produce cuando el campo magnético aplicado alinea todos los
momentos magnéticos ya existentes en los átomos o moléculas individuales que componen el
material. Esto produce un momento magnético global que se suma al campo magnético. Los
materiales paramagnéticos suelen contener metales de transición o lantánidos con electrones no
emparejados. El paramagnetismo en sustancias no metálicas suele caracterizarse por una
dependencia de la temperatura: la intensidad del momento magnético inducido varía inversamente
con la temperatura. Esto se debe a que al aumentar la temperatura, cada vez resulta más difícil
alinear los momentos magnéticos de los átomos individuales en la dirección del campo magnético.

Las sustancias ferromagnéticas son las que, como el hierro, mantienen un momento magnético
incluso cuando el campo magnético externo se hace nulo. Este efecto se debe a una fuerte
interacción entre los momentos magnéticos de los átomos o electrones individuales de la sustancia
magnética, que los hace alinearse de forma paralela entre sí. En circunstancias normales, los
materiales ferromagnéticos están divididos en regiones llamadas dominios; en cada dominio, los
momentos atómicos están alineados en paralelo. Los momentos de dominios diferentes no apuntan
necesariamente en la misma dirección. Aunque un trozo de hierro normal puede no tener un
momento magnético total, puede inducirse su magnetización colocándolo en un campo magnético,
que alinea los momentos de todos los dominios. La energía empleada en la reorientación de los
dominios desde el estado magnetizado hasta el estado desmagnetizado se manifiesta en un desfase
de la respuesta al campo magnético aplicado, conocido como histéresis.

Un material ferromagnético acaba perdiendo sus propiedades magnéticas cuando se calienta. Esta
pérdida es completa por encima de la temperatura de Curie (la temperatura de Curie del hierro
metálico es de 770 °C).

Otros ordenamientos magnéticos

La mejor comprensión de los orígenes atómicos de las propiedades magnéticas ha llevado al


descubrimiento de otros tipos de ordenamiento magnético. Se conocen casos en los que los
momentos magnéticos interactúan de tal forma que les resulta energéticamente favorable alinearse
entre sí en sentido antiparalelo; estos materiales se llaman antiferromagnéticos. La temperatura por
encima de la cual desaparece el orden antiferromagnético se denomina temperatura de Néel,.

También se han hallado otras configuraciones más complejas de los momentos magnéticos
atómicos. Las sustancias ferrimagnéticas tienen al menos dos clases distintas de momento
magnético atómico, orientados entre sí de forma antiparalela. Como ambos momentos tienen
magnitudes diferentes, persiste un momento magnético neto, al contrario que en un material
antiferromagnético, donde todos los momentos magnéticos se anulan mutuamente. Curiosamente, la
piedra imán es ferrimagnética, y no ferromagnética; en este mineral existen dos tipos de ion
hierro,con momentos magnéticos diferentes. Se han encontrado disposiciones aún más complejas,
en las que los momentos magnéticos están ordenados en espiral. Los estudios de estos
ordenamientos han proporcionado mucha información sobre las interacciones entre los momentos
magnéticos en sólidos.

Aplicaciones

El electroimán es la base del motor eléctrico y el transformador. El desarrollo de nuevos materiales


magnéticos ha influido notablemente en la revolución de los ordenadores o computadoras. Es
posible fabricar memorias de computadora utilizando dominios burbuja. Estos dominios son
pequeñas regiones de magnetización, paralelas o antiparalelas a la magnetización global del
material. Según que el sentido sea uno u otro, la burbuja indica un uno o un cero, por lo que actúa
como dígito en el sistema binario empleado por los ordenadores. Los materiales magnéticos
también son componentes importantes de las cintas y discos para almacenar datos.

Los imanes grandes y potentes son cruciales en muchas tecnologías modernas. Los imanes
superconductores se emplean en los aceleradores de partículas más potentes para mantener las
partículas aceleradas en una trayectoria curva y enfocarlas.

OPTICA

Rama de la física que se ocupa de la propagación y el comportamiento de la luz. En un sentido


amplio, la luz es la zona del espectro de radiación electromagnética que se extiende desde los rayos
X hasta las microondas, e incluye la energía radiante que produce la sensación de visión. El estudio
de la óptica se divide en dos ramas, la óptica geométrica y la óptica física.

Naturaleza de la luz

La energía radiante tiene una naturaleza dual, y obedece a leyes que pueden explicarse a partir de
una corriente de partículas o paquetes de energía, los llamados fotones, o a partir de un tren de
ondas transversales (Movimiento ondulatorio). El concepto de fotón se emplea para explicar las
interacciones de la luz con la materia que producen un cambio en la forma de energía, como ocurre
con el efecto fotoeléctrico o la luminiscencia. El concepto de onda suele emplearse para explicar la
propagación de la luz y algunos de los fenómenos de formación de imágenes. En las ondas de luz,
como en todas las ondas electromagnéticas, existen campos eléctricos y magnéticos en cada punto
del espacio, que fluctúan con rapidez. Como estos campos tienen, además de una magnitud,una
dirección determinada, son cantidades vectoriales. Los campos eléctrico y magnético son
perpendiculares entre sí y también perpendiculares a la dirección de propagación de la onda. La
onda luminosa más sencilla es una onda senoidal pura, llamada así porque una gráfica de la
intensidad del campo eléctrico o magnético trazada en cualquier momento a lo largo de la dirección
de propagación sería la gráfica de un seno.

La luz visible es sólo una pequeña parte del espectro electromagnético. En el espectro visible, las
diferencias en longitud de onda se manifiestan como diferencias de color. El rango visible va desde,
aproximadamente, 350 nanómetros (violeta) hasta unos 750 nanómetros (rojo), un nanómetro, nm,
es una milmillonésima de metro. La luz blanca es una mezcla de todas las longitudes de onda
visibles.

La velocidad de la luz en las sustancias materiales es menor que en el vacío, y varía para las
distintas longitudes de onda; este efecto se denomina dispersión. La relación entre la velocidad de la
luz en el vacío y la velocidad de una longitud de onda determinada en una sustancia se conoce como
índice de refracción de la sustancia para dicha longitud de onda. El índice de refracción del aire es
1,00029 y apenas varía con la longitud de onda. En la mayoría de las aplicaciones resulta
suficientemente preciso considerar que es igual a 1.

Las leyes de reflexión y refracción de la luz suelen deducirse empleando la teoría ondulatoria de la
luz introducida. El principio de Huygens afirma que todo punto en un frente de ondas inicial puede
considerarse como una fuente de ondas esféricas secundarias que se extienden en todas las
direcciones con la misma velocidad, frecuencia y longitud de onda que el frente de ondas del que
proceden. Con ello puede definirse un nuevo frente de onda que envuelve las ondas secundarias.
Como la luz avanza en ángulo recto a este frente de ondas, el principio de Huygens puede
emplearse para deducir los cambios de dirección de la luz.
Cuando las ondas secundarias llegan a otro medio u objeto, cada punto del límite entre los medios
se convierte en una fuente de dos conjuntos de ondas. El conjunto reflejado vuelve al primer medio,
y el conjunto refractado entra en el segundo medio. El comportamiento de los rayos reflejados y
refractados puede explicarse por el principio de Huygens. Es más sencillo, y a veces suficiente,
representar la propagación de la luz mediante rayos en vez de ondas. El rayo es la línea de avance, o
dirección de propagación, de la energía radiante. En la óptica geométrica se prescinde de la teoría
ondulatoria de la luz y se supone que la luz no se difracta. La trayectoria de los rayos a través de un
sistema óptico se determina aplicando las leyes de reflexión y refracción.

Optica física

Esta rama de la óptica se ocupa de aspectos del comportamiento de la luz tales como su emisión,
composición o absorción, así como de la polarización, la interferencia y la difracción.

Polarización de la luz

Los átomos de una fuente de luz ordinaria emiten pulsos de radiación de duración muy corta. Cada
pulso procedente de un único átomo es un tren de ondas prácticamente monocromático (con una
única longitud de onda). El vector eléctrico correspondiente a esa onda no gira en torno a la
dirección de propagación de la onda, sino que mantiene el mismo ángulo, o acimut, respecto a dicha
dirección. El ángulo inicial puede tener cualquier valor. Cuando hay un número elevado de átomos
emitiendo luz, los ángulos están distribuidos de forma aleatoria, las propiedades del haz de luz son
las mismas en todas direcciones, y se dice que la luz no está polarizada. Si los vectores eléctricos de
todas las ondas tienen el mismo ángulo acimutal (lo que significa que todas las ondas transversales
están en el mismo plano), se dice que la luz está polarizada en un plano, o polarizada linealmente.

Cualquier onda electromagnética puede considerarse como la suma de dos conjuntos de ondas: uno
en el que el vector eléctrico vibra formando ángulo recto con el plano de incidencia y otro en el que
vibra de forma paralela a dicho plano. Entre las vibraciones de ambas componentes puede existir
una diferencia de fase, que puede permanecer constante o variar de forma constante. Cuando la luz
está linealmente polarizada, por ejemplo, esta diferencia de fase se hace 0 o 180°. Si la relación de
fase es aleatoria, pero una de las componentes es más intensa que la otra, la luz está en parte
polarizada. Cuando la luz es dispersada por partículas de polvo, por ejemplo, la luz que se dispersa
en un ángulo de 90° con la trayectoria original del haz está polarizada en un plano, lo que explica
por qué la luz procedente del cenit está marcadamente polarizada.

Para ángulos de incidencia distintos de 0 o 90°, la proporción de luz reflejada en el límite entre dos
medios no es igual para ambas componentes de la luz. La componente que vibra de forma paralela
al plano de incidencia resulta menos reflejada. Cuando la luz incide sobre un medio no absorbente
con el denominado ángulo de Brewster, la parte reflejada de la componente que vibra de forma
paralela al plano de incidencia se hace nula. Con ese ángulo de incidencia, el rayo reflejado es
perpendicular al rayo refractado; la tangente de dicho ángulo de incidencia es igual al cociente entre
los índices de refracción del segundo medio y el primero.

Algunas sustancias son anisotrópicas, es decir, muestran propiedades distintas según la dirección
del eje a lo largo del cual se midan. En esos materiales, la velocidad de la luz depende de la
dirección en que ésta se propaga a través de ellos. Algunos cristales son birrefringentes, es decir,
presentan doble refracción. A no ser que la luz se propague de forma paralela a uno de los ejes de
simetría del cristal (un eje óptico del cristal), la luz se separa en dos partes que avanzan con
velocidades diferentes. Un cristal uniáxico tiene uno de estos ejes. La componente cuyo vector
eléctrico vibra en un plano que contiene el eje óptico es el llamado rayo ordinario; su velocidad es
la misma en todas las direcciones del cristal, y cumple la ley de refracción de Snell. La componente
que vibra formando un ángulo recto con el plano que contiene el eje óptico constituye el rayo
extraordinario, y la velocidad de este rayo depende de su dirección en el cristal. Si el rayo ordinario
se propaga a mayor velocidad que el rayo extraordinario, la birrefringencia es positiva; en caso
contrario la birrefringencia es negativa.

Cuando un cristal es biáxico, la velocidad depende de la dirección de propagación para todas las
componentes. Se pueden cortar y tallar los materiales birrefringentes para introducir diferencias de
fase específicas entre dos grupos de ondas polarizadas, para separarlos o para analizar el estado de
polarización de cualquier luz incidente. Un polarizador sólo transmite una componente de la
vibración, ya sea reflejando la otra mediante combinaciones de prismas adecuadamente tallados o
absorbiéndola. El fenómeno por el que un material absorbe preferentemente una componente de la
vibración se denomina dicroísmo. El material conocido como Polaroid presenta dicroísmo; está
formado por numerosos cristales dicroicos de pequeño tamaño incrustados en plástico, con todos
sus ejes orientados de forma paralela. Si la luz incidente es no polarizada, el Polaroid absorbe
aproximadamente la mitad de la luz. Los reflejos de grandes superficies planas, como un lago o una
carretera mojada, están compuestos por luz parcialmente polarizada, y un Polaroid con la
orientación adecuada puede absorberlos en más de la mitad. Este es el principio de las gafas o
anteojos de sol Polaroid.

Los llamados analizadores pueden ser físicamente idénticos a los polarizadores. Si se cruzan un
polarizador y un analizador situados consecutivamente, de forma que el analizador esté orientado
para permitir la transmisión de las vibraciones situadas en un plano perpendicular a las que
transmite el polarizador, se bloqueará toda la luz procedente del polarizador.

Las sustancias ópticamente activas giran el plano de polarización de la luz linealmente polarizada.
Un cristal de azúcar o una solución de azúcar, pueden ser ópticamente activos. Si se coloca una
solución de azúcar entre un polarizador y un analizador cruzados tal como se ha descrito antes,
parte de la luz puede atravesar el sistema. El ángulo que debe girarse el analizador para que no pase
nada de luz permite conocer la concentración de la solución. El polarímetro se basa en este
principio.

Algunas sustancias (como el vidrio y el plástico) que no presentan doble refracción en condiciones
normales pueden hacerlo al ser sometidas a una tensión. Si estos materiales bajo tensión se sitúan
entre un polarizador y un analizador, las zonas coloreadas claras y oscuras que aparecen
proporcionan información sobre las tensiones. La tecnología de la fotoelasticidad se basa en la
doble refracción producida por tensiones.

También puede introducirse birrefrigencia en materiales normalmente homogéneos mediante


campos magnéticos y eléctricos. Cuando se somete un líquido a un campo magnético fuerte, puede
presentar doble refracción. Este fenómeno se conoce como efecto Kerr. Si se coloca un material
apropiado entre un polarizador y un analizador cruzados, puede transmitirse o no la luz según si el
campo eléctrico en el material está conectado o desconectado. Este sistema puede actuar como un
conmutador o modulador de luz extremadamente rápido.

Interferencia y difracción

Cuando dos haces de luz se cruzan pueden interferir, lo que afecta a la distribución de intensidades
resultante. La coherencia de dos haces expresa hasta qué punto están en fase sus ondas. Si la
relación de fase cambia de forma rápida y aleatoria, los haces son incoherentes. Si dos trenes de
ondas son coherentes y el máximo de una onda coincide con el máximo de otra, ambas ondas se
combinan produciendo en ese punto una intensidad mayor que si los dos haces no fueran
coherentes. Si son coherentes y el máximo de una onda coincide con el mínimo de la otra, ambas
ondas se anularán entre sí parcial o totalmente, con lo que la intensidad disminuirá. Cuando las
ondas son coherentes, puede formarse un diagrama de interferencia formado por franjas oscuras y
claras. Para producir un diagrama de interferencia constante,ambos trenes de onda deben estar
polarizados en el mismo plano. Los átomos de una fuente de luz ordinaria irradian luz de forma
independiente, por lo que una fuente extensa de luz suele emitir radiación incoherente. Para obtener
luz coherente de una fuente así, se selecciona una parte reducida de la luz mediante un pequeño
orificio o rendija. Si esta parte vuelve a separarse mediante una doble rendija, un doble espejo o un
doble prisma y se hace que ambas partes recorran trayectorias de longitud ligeramente diferente
antes de combinarlas de nuevo, se produce un diagrama de interferencias. Los dispositivos
empleados para ello se denominan interferómetros; se emplean para medir ángulos pequeños,como
los diámetros aparentes de las estrellas, o distancias pequeñas, como las desviaciones de una
superficie óptica respecto a la forma deseada. Las distancias se miden en relación a la longitud de
onda de la luz empleada. El primero en mostrar un diagrama de interferencias fue Thomas Young,
en el experimento ilustrado en la figura 8. Un haz de luz que había pasado previamente por un
orificio, iluminaba una superficie opaca con dos orificios. La luz que pasaba por ambos orificios
formaba un diagrama de franjas circulares sucesivamente claras y oscuras en una pantalla. En la
ilustración están dibujadas las ondulaciones para mostrar que en puntos como A, C o E (intersección
de dos líneas continuas), las ondas de ambos orificios llegan en fase y se combinan aumentando la
intensidad. En otros puntos, como B o D (intersección de una línea continua con una línea de
puntos), las ondas están desfasadas 180° y se anulan mutuamente.

Las ondas de luz reflejadas por las dos superficies de una capa transparente extremadamente fina
situada sobre una superficie lisa pueden interferir entre sí. Las irisaciones de una fina capa de aceite
sobre el agua se deben a la interferencia, y demuestran la importancia del cociente entre el espesor
de la capa y la longitud de onda de la luz. Puede emplearse una capa o varias capas de materiales
diferentes para aumentar o disminuir la reflectividad de una superficie. Los separadores de haz
dicroicos son conjuntos de capas de distintos materiales, cuyo espesor se fija de forma que una
banda de longitudes de onda sea reflejada y otra sea transmitida. Un filtro interferencial construido
con estas capas transmite una banda de longitudes de onda extremadamente estrecha y refleja el
resto de las longitudes. La forma de la superficie de un elemento óptico puede comprobarse
presionándolo contra un patrón y observando el diagrama de franjas que se forma debido a la capa
delgada de aire que queda entre ambas superficies.

La luz que incide sobre el borde de un obstáculo es desviada, o difractada, y el obstáculo no genera
una sombra geométrica nítida. Los puntos situados en el borde del obstáculo actúan como fuente de
ondas coherentes, y se forma un diagrama de interferencias denominado diagrama de difracción. La
forma del borde del obstáculo no se reproduce con exactitud, porque parte del frente de ondas queda
cortado.

Como la luz pasa por una abertura finita al atravesar una lente, siempre se forma un diagrama de
difracción alrededor de la imagen de un objeto. Si el objeto es extremadamente pequeño, el
diagrama de difracción aparece como una serie de círculos concéntricos claros y oscuros alrededor
de un disco central, llamado disco de Airy. Esto ocurre incluso con una lente libre de aberraciones.
Si dos partículas están tan próximas que los dos diagramas se solapan y los anillos brillantes de una
de ellas coinciden con los anillos oscuros de la segunda, no es posible resolver (distinguir) ambas
partículas.
En óptica, el análisis de Fourier permite representar un objeto como una suma de ondas senoidales
sencillas,llamadas componentes. A veces se analizan los sistemas ópticos escogiendo un objeto
cuyas componentes de Fourier se conocen y analizando las componentes de Fourier de la imagen.
Estos procedimientos determinan la llamada función de transferencia óptica. En ocasiones, el
empleo de este tipo de técnicas permite extraer información de imágenes de baja calidad. También
se han aplicado teorías estadísticas al análisis de las imágenes formadas.

Una red de difracción está formada por varios miles de rendijas de igual anchura y separadas por
espacios iguales (se consiguen rayando el vidrio o el metal con una punta de diamante finísima).
Cada rendija produce un diagrama de difracción, y todos estos diagramas interfieren entre sí. Para
cada longitud de onda se forma una franja brillante en un lugar distinto. Si se hace incidir luz blanca
sobre la red, se forma un espectro continuo. En instrumentos como monocromadores,
espectrógrafos o espectrofotómetros se emplean prismas y redes de difracción para proporcionar luz
prácticamente monocromática o para analizar las longitudes de onda presentes en la luz incidente.

Emisión estimulada

Los átomos de una fuente de luz corriente (como una bombilla incandescente, una lámpara
fluorescente o una lámpara de neón) producen luz por emisión espontánea, y la radiación que
emiten es incoherente. Si un número suficiente de átomos absorben energía de manera que resultan
excitados y acceden a estados de mayor energía en la forma adecuada,puede producirse la emisión
estimulada. La luz de una determinada longitud de onda puede provocar la producción de más luz
con la misma fase y dirección que la onda original, por lo que la radiación será coherente. La
emisión estimulada amplifica la radiación con una longitud de onda determinada, y la luz generada
presenta una desviación del haz muy baja. El material excitado puede ser un gas, un sólido o un
líquido, pero su forma (o la forma de su recipiente) debe ser tal que forme un interferómetro en el
que la longitud de onda que se amplifica se refleje numerosas veces en un sentido y otro. Una
pequeña parte de la radiación excitada se transmite a través de uno de los espejos del
interferómetro. Este dispositivo se denomina láser, que en inglés corresponde al acrónimo de
"amplificación de luz por emisión estimulada de radiación". El proceso de suministrar energía a un
número elevado de átomos para llevarlos a un estado adecuado de energía superior se denomina
bombeo. El bombeo puede ser óptico o eléctrico. Como un láser puede emitir pulsos de energía
extremadamente alta con una desviación de haz muy pequeña, es posible detectar, por ejemplo, luz
láser enviada a la Luna y reflejada de vuelta a la Tierra, lo que permite medir con precisión la
distancia Tierra-Luna. El haz intenso y estrecho del láser ha encontrado aplicaciones prácticas en
cirugía y en el corte de metales.

Gabor fue el primero en observar que si se pudiera registrar el diagrama de difracción de un objeto
y conservar también la información sobre la fase, la imagen del objeto podría reconstruirse
iluminando con luz coherente el diagrama de difracción registrado. Si se iluminara el diagrama de
interferencia con una longitud de onda mayor que la empleada para producirlo, aparecería un
aumento de tamaño. Como la fase absoluta de una onda luminosa no puede detectarse directamente,
era necesario proporcionar un haz de referencia coherente con el haz que iluminaba el objeto,para
que interfiriera con el diagrama de difracción y proporcionara información sobre la fase. Antes del
desarrollo del láser, el proyecto de Gabor estaba limitado por la falta de fuentes de luz coherente lo
bastante intensas.

Un holograma es un registro fotográfico de la interferencia entre un haz de referencia y el diagrama


de difracción del objeto. Para generar un holograma, la luz procedente de un único láser se divide
en dos haces. El haz de referencia ilumina la placa fotográfica (por ejemplo, a través de una lente y
un espejo) y el segundo haz ilumina el objeto. El haz de referencia y la luz reflejada por el objeto
forman un diagrama de difracción sobre la placa fotográfica. Si una vez revelado el holograma se
ilumina con luz coherente, no necesariamente de la misma longitud de onda que la empleada para
crearlo, puede obtenerse una imagen tridimensional del objeto. Es posible producir hologramas de
un objeto teórico mediante ordenadores o computadoras, y después pueden reconstruirse las
imágenes de esos objetos.

Los haces láser intensos y coherentes permiten estudiar nuevos efectos ópticos producidos por la
interacción de determinadas sustancias con campos eléctricos, y que dependen del cuadrado o de la
tercera potencia de la intensidad de campo. Esta rama de la óptica se denomina óptica no lineal, y
las interacciones que estudia afectan al índice de refracción de las sustancias. El efecto Kerr antes
mencionado pertenece a este grupo de fenómenos.

Se ha observado la generación armónica de luz. Por ejemplo, la luz láser infrarroja con longitud de
onda de 1,06 micrómetros puede convertirse en luz verde con longitud de onda de 0,53 micrómetros
(es decir, justo la mitad) mediante un cristal de niobato de sodio y bario. Es posible producir fuentes
de luz coherente ampliamente sintonizables en la zona de la luz visible y el infrarrojo cercano
bombeando medios adecuados con luz o con radiación de menor longitud de onda. Se puede lograr
que un cristal de niobato de litio presente fluorescencia roja, amarilla y verde bombeándolo con luz
láser azul verdosa con una longitud de onda de 488 nanómetros. Algunos fenómenos de difusión
pueden ser estimulados con un único láser para producir pulsos de luz intensos en una amplia gama
de longitudes de onda monocromáticas. Los efectos ópticos no lineales se aplican en el desarrollo
de moduladores eficaces de banda ancha para sistemas de comunicación.

Espectro

Serie de colores semejante a un arco iris (por este orden: violeta, azul, verde, amarillo, anaranjado y
rojo) que se produce al dividir una luz compuesta como la luz blanca en sus colores constituyentes.
El arco iris es un espectro natural producido por fenómenos meteorológicos. Puede lograrse un
efecto similar haciendo pasar luz solar a través de un prisma de vidrio.

Cuando un rayo de luz pasa de un medio transparente como el aire a otro medio transparente, por
ejemplo vidrio o agua, el rayo se desvía; al volver a salir al aire vuelve a desviarse. Esta desviación
se denomina refracción; la magnitud de la refracción depende de la longitud de onda de la luz. La
luz violeta, por ejemplo, se desvía más que la luz roja al pasar del aire al vidrio o del vidrio al aire.
Así, una mezcla de luces roja y violeta se dispersa al pasar por un prisma en forma de cuña y se
divide en dos colores.

Los aparatos para observar visualmente un espectro se denominan espectroscopios; los que sirven
para observar y registrar un espectro fotográficamente se llaman espectrógrafos; los empleados para
medir la intensidad de las diferentes partes del espectro se denominan espectrofotómetros. La
ciencia que utiliza los espectroscopios, espectrógrafos y espectrofotómetros para estudiar los
espectros se conoce como espectroscopia. Para medidas espectroscópicas extremadamente precisas
se emplean interferómetros. En el siglo XIX, los científicos descubrieron que más allá del extremo
violeta del espectro podía detectarse una radiación invisible para el ojo humano pero con una
marcada acción fotoquímica; se la denominó radiación ultravioleta. Igualmente, más allá del
extremo rojo del espectro se detectó radiación infrarroja que aunque era invisible transmitía energía,
como demostraba su capacidad para hacer subir un termómetro. Como consecuencia, se redefinió el
término espectro para que abarcara esas radiaciones invisibles, y desde entonces se ha ampliado
para incluir las ondas de radio más allá del infrarrojo y los rayos X y rayos gamma más allá del
ultravioleta.

En la actualidad, el término espectro se aplica frecuentemente en un sentido más amplio a cualquier


distribución ordenada producida por el análisis de un fenómeno complejo. Un sonido complejo,
como por ejemplo un ruido, puede analizarse como un espectro acústico formado por tonos puros de
diferentes frecuencias. Igualmente, una mezcla compleja de elementos o isótopos con distinta masa
atómica puede ser separada en una secuencia ordenada según su masa atómica y denominada
espectro de masas.

La espectroscopia no sólo ha proporcionado un método importante y sensible para el análisis


químico, sino que ha sido el principal instrumento para descubrimientos en campos aparentemente
no relacionados, como la astrofísica o la teoría atómica. En general, los cambios en el movimiento
de los electrones exteriores de los átomos dan lugar a espectros en la región visible, infrarroja y
ultravioleta. Los cambios en el movimiento de los electrones interiores de los átomos pesados
producen espectros de rayos X. Los cambios en la configuración del núcleo de un átomo producen
espectros de rayos gamma. Los cambios en la configuración de las moléculas producen espectros
visibles e infrarrojos.

Los distintos colores de luz tienen en común el ser radiaciones electromagnéticas que se desplazan
con la misma velocidad, aproximadamente 300.000 kilómetros por segundo. Se diferencian en su
frecuencia y longitud de onda (la frecuencia es igual a la velocidad de la luz dividida entre la
longitud de onda). Dos rayos de luz con la misma longitud de onda tienen la misma frecuencia y el
mismo color. La longitud de onda de la luz es tan corta que suele expresarse en nanómetros (nm),
que equivalen a una milmillonésima de metro, o una millonésima de milímetro. La longitud de onda
de la luz violeta varía entre unos 400 y 450 nm, y la de la luz roja entre unos 620 y 760 nm.

Oscilación

En física, química e ingeniería, movimiento repetido de un lado a otro en torno a una posición
central, o posición de equilibrio. El recorrido que consiste en ir desde una posición extrema a la otra
y volver a la primera,pasando dos veces por la posición central, se denomina ciclo. El número de
ciclos por segundo, o hercios (Hz), se conoce como frecuencia de la oscilación.

Cuando se pone en movimiento un péndulo o se puntea la cuerda de una guitarra, el péndulo y la


cuerda acaban deteniéndose si no actúan sobre ellos otras fuerzas. La fuerza que hace que dejen de
oscilar se denomina amortiguadora. Con frecuencia, estas fuerzas son fuerzas de rozamiento, pero
en un sistema oscilante pueden existir otras fuerzas amortiguadoras, por ejemplo eléctricas o
magnéticas.

Frecuencia natural

Cualquier objeto oscilante tiene una ´frecuencia natural´, que es la frecuencia con la que tiende a
vibrar si no se le perturba. Por ejemplo, la frecuencia natural de un péndulo de 1 m de longitud es de
0,5 Hz, lo que significa que el péndulo va y vuelve una vez cada 2 segundos. Si se le da un ligero
impulso al péndulo cada 2 segundos, la amplitud de la oscilación aumenta gradualmente hasta
hacerse muy grande. El fenómeno por el que una fuerza relativamente pequeña aplicada de forma
repetida hace que la amplitud de un sistema oscilante se haga muy grande se denomina resonancia.
Muchos problemas graves de vibración en ingeniería son debidos a la resonancia. Por ejemplo, si la
frecuencia natural de la carrocería de un automóvil es la misma que el ritmo del motor cuando gira a
una velocidad determinada, la carrocería puede empezar a vibrar o a dar fuertes sacudidas. Esta
vibración puede evitarse al montar el motor sobre un material amortiguador, por ejemplo hule o
goma, para aislarlo de la carrocería.

Flameo

Un tipo peligroso de vibración es la oscilación repentina y violenta conocida como flameo. Este
fenómeno se produce sobre todo en las superficies de control de los aviones, pero también ocurre en
los cables eléctricos cubiertos de escarcha cuando la velocidad del viento es elevada. Uno de los
casos de flameo más espectaculares provocó en 1940 el hundimiento de un puente en Tacoma,
Estados Unidos. La causa fue un viento huracanado cuya velocidad potenció la vibración del
puente.

En el flameo, la amplitud de vibración de una estructura puede aumentar tan rápidamente como para
que ésta se desintegre casi de forma instantánea. Por eso, impedir el flameo es muy importante a la
hora de diseñar puentes y aviones. En el caso de los aviones, el análisis de flameo suele
complementarse con pruebas realizadas con una maqueta del avión en un túnel aerodinámico.

Frecuencia

Término empleado en física para indicar el número de veces que se repite en un segundo cualquier
fenómeno periódico. La frecuencia es muy importante en muchas áreas de la física, como la
mecánica o el estudio de las ondas de sonido.

Las frecuencias de los objetos oscilantes abarcan una amplísima gama de valores. Los temblores de
los terremotos pueden tener una frecuencia inferior a 1, mientras que las veloces oscilaciones
electromagnéticas de los rayos gamma pueden tener frecuencias de 10 20 o más. En casi todas las
formas de vibración mecánica existe una relación entre la frecuencia y las dimensiones físicas del
objeto que vibra. Por ejemplo, el tiempo que necesita un péndulo para realizar una oscilación
completa depende en parte de la longitud del péndulo; la frecuencia de vibración de la cuerda de un
instrumento musical está determinada en parte por la longitud de la cuerda. En general, cuanto más
corto es el objeto, mayor es la frecuencia de vibración.

En todas las clases de movimiento ondulatorio, la frecuencia de la onda suele darse indicando el
número de crestas de onda que pasan por un punto determinado cada segundo. La velocidad de la
onda y su frecuencia y longitud de onda están relacionadas entre sí. La longitud de onda (la
distancia entre dos crestas consecutivas) es inversamente proporcional a la frecuencia y
directamente proporcional a la velocidad. En términos matemáticos, esta relación se expresa por la
ecuación v = l f, donde v es la velocidad, f es la frecuencia y l (la letra griega lambda) es la longitud
de onda. A partir de esta ecuación puede hallarse cualquiera de las tres cantidades si se conocen las
otras dos.

La frecuencia se expresa en hercios (Hz); una frecuencia de 1 Hz significa que existe 1 ciclo u
oscilación por segundo. Heinrich Rudolf Hertz fue el primero en demostrar la naturaleza de la
propagación de las ondas electromagnéticas. Las unidades como kilohercios (kHz) (miles de ciclos
por segundo), megahercios (MHz) (millones de ciclos por segundo) y gigahercios (GHz) (miles de
millones de ciclos por segundo) se usan para describir fenómenos de alta frecuencia como las ondas
de radio. Estas ondas y otros tipos de radiación electromagnética pueden caracterizarse por sus
longitudes de onda o por sus frecuencias. Las ondas electromagnéticas de frecuencias
extremadamente elevadas, como la luz o los rayos X, suelen describirse mediante sus longitudes de
onda, que frecuentemente se expresan en nanómetros (un nanómetro,abreviado nm, es una
milmillonésima de metro). Una onda electromagnética con una longitud de onda de 1 nm tiene una
frecuencia de aproximadamente 300 millones de GHz.

RADIACION ELECTROMAGNETICA

Ondas producidas por la oscilación o la aceleración de una carga eléctrica. Las ondas
electromagnéticas tienen componentes eléctricos y magnéticos. La radiación electromagnética
puede ordenarse en un espectro que se extiende desde ondas de frecuencias muy elevadas
(longitudes de onda pequeñas) hasta frecuencias muy bajas (longitudes de onda altas).

Espectro

Serie de colores semejante a un arco iris (por este orden: violeta, azul, verde, amarillo, anaranjado y
rojo) que se produce al dividir una luz compuesta como la luz blanca en sus colores constituyentes.
El arco iris es un espectro natural producido por fenómenos meteorológicos. Puede lograrse un
efecto similar haciendo pasar luz solar a través de un prisma de vidrio.

Cuando un rayo de luz pasa de un medio transparente como el aire a otro medio transparente, por
ejemplo vidrio o agua, el rayo se desvía; al volver a salir al aire vuelve a desviarse. Esta desviación
se denomina refracción; la magnitud de la refracción depende de la longitud de onda de la luz. La
luz violeta, por ejemplo, se desvía más que la luz roja al pasar del aire al vidrio o del vidrio al aire.
Así, una mezcla de luces roja y violeta se dispersa al pasar por un prisma en forma de cuña y se
divide en dos colores. Se diferencian en su frecuencia y longitud de onda. Dos rayos de luz con la
misma longitud de onda tienen la misma frecuencia y el mismo color. La longitud de onda de la luz
es tan corta que suele expresarse en nanómetros (nm).

Los científicos descubrieron que más allá del extremo violeta del espectro podía detectarse una
radiación invisible para el ojo humano pero con una marcada acción fotoquímica; se la denominó
radiación ultravioleta. Igualmente, más allá del extremo rojo del espectro se detectó radiación
infrarroja que aunque era invisible transmitía energía, como demostraba su capacidad para hacer
subir un termómetro. Como consecuencia, se redefinió el término espectro para que abarcara esas
radiaciones invisibles, y desde entonces se ha ampliado para incluir las ondas de radio más allá del
infrarrojo y los rayos X y rayos gamma más allá del ultravioleta.

Por orden decreciente de frecuencias (o creciente de longitudes de onda), el espectro


electromagnético está compuesto por rayos gamma, rayos X duros y blandos, radiación
ultravioleta,luz visible, rayos infrarrojos, microondas y ondas de radio. Los rayos gamma y los
rayos X duros tienen una longitud de onda de entre 0,005 y 0,5 nanometros (un nanometro, o nm, es
una millonésima de milímetro). Los rayos X blandos se solapan con la radiación ultravioleta en
longitudes de onda próximas a los 50 nm. No existen límites definidos entre las diferentes
longitudes de onda, pero puede considerarse que la radiación ultravioleta va desde los 350 nm hasta
los 10 nm. El ultravioleta, a su vez, da paso a la luz visible, que va aproximadamente desde 400
hasta 800 nm. La longitud de onda de la luz violeta varía entre unos 400 y 450 nm, y la de la luz
roja entre unos 620 y 760 nm. Los rayos infrarrojos o "radiación de calor" se solapan con las
frecuencias de radio de microondas, entre los 100.000 y 400.000 nm. Desde esta longitud de onda
hasta unos 15.000 metros, el espectro está ocupado por las diferentes ondas de radio; más allá de la
zona de radio, el espectro entra en las bajas frecuencias, cuyas longitudes de onda llegan a medirse
en decenas de miles de kilómetros.
Propiedades

Las ondas electromagnéticas no necesitan un medio material para propagarse. Así, estas ondas
pueden atravesar el espacio interplanetario e interestelar y llegar a la Tierra desde el Sol y las
estrellas. Independientemente de su frecuencia y longitud de onda, todas las ondas
electromagnéticas se desplazan en el vacío a una velocidad c = 299.792 km/s. Todas las radiaciones
del espectro electromagnético presentan las propiedades típicas del movimiento ondulatorio, como
la difracción y la interferencia. La longitud de onda va desde billonésimas de metro hasta muchos
kilómetros, es importante para determinar su energía, su visibilidad, su poder de penetración y otras
características. y se expresa mediante la ecuación:

l.f = c

l: longitud de onda

f: frecuencia

c: velocidad de propagación de la luz

Una onda electromagnética con una longitud de onda de 1 nm tiene una frecuencia de
aproximadamente 300 millones de GHz.

Teoría

Maxwell estableció la teoría de las ondas electromagnéticas, analizó matemáticamente la teoría de


los campos electromagnéticos y afirmó que la luz visible era una onda electromagnética.

Los físicos sabían que la luz se propaga como una onda transversal (una onda en la que las
vibraciones son perpendiculares a la dirección de avance del frente de ondas). Sin embargo,
suponían que las ondas de luz requerían algún medio material para transmitirse, por lo que
postulaban la existencia de una sustancia difusa, llamada éter, que constituía el medio no
observable. La teoría de Maxwell hacía innecesaria esa suposición, pero el concepto de éter no se
abandonó inmediatamente, porque encajaba con el concepto newtoniano de un marco absoluto de
referencia espaciotemporal. Un famoso experimento realizado por Michelson y Morley socavó el
concepto del éter, y fue muy importante en el desarrollo de la teoría de la relatividad. De este
trabajo concluyó que la velocidad de la radiación electromagnética en el vacío es una cantidad
invariante, que no depende de la velocidad de la fuente de radiación o del observador.

Cuantos de radiación

Los físicos se dieron cuenta de que la teoría ondulatoria no explicaba todas las propiedades de la
radiación. Planck demostró que la emisión y absorción de radiación se produce en unidades finitas
de energía denominadas cuantos . Albert Einstein consiguió explicar algunos resultados
experimentales sorprendentes en relación con el efecto fotoeléctrico externo postulando que la
radiación electromagnética puede comportarse como un chorro de partículas.
Hay otros fenómenos de la interacción entre radiación y materia que sólo la teoría cuántica explica.
Así,los físicos modernos se vieron obligados a reconocer que la radiación electromagnética se
comporta unas veces como partículas y otras como ondas. El concepto paralelo que implica que la
materia también puede presentar características ondulatorias además de corpusculares fue
desarrollado por De Broglie.

Rayos X

Radiación electromagnética penetrante, producida bombardeando un blanco (generalmente de


wolframio) con electrones de alta velocidad. Los rayos X fueron descubiertos por Roentgen
mientras estudiaba los rayos catódicos en un tubo de descarga gaseosa de alto voltaje. A pesar de
que el tubo estaba dentro de una caja de cartón negro, Roentgen vio que una pantalla de
platinocianuro de bario, que casualmente estaba cerca, emitía luz fluorescente siempre que
funcionaba el tubo. Tras realizar experimentos adicionales, determinó que la fluorescencia se debía
a una radiación invisible más penetrante que la radiación ultravioleta.

La longitud de onda de los rayos X va desde unos 10 nm hasta 0,001 nm. Cuanto menor es la
longitud de onda de los rayos X, mayores son su energía y poder de penetración. Los rayos de
mayor longitud de onda, cercanos a la banda ultravioleta del espectro electromagnético, se conocen
como rayos X blandos. Los de menor longitud de onda, que están más próximos a la zona de rayos
gamma, se denominan rayos X duros. Los rayos X formados por una mezcla de muchas longitudes
de onda diferentes se conocen como rayos X "blancos", para diferenciarlos de los rayos X
monocromáticos, que tienen una única longitud de onda.

Tanto la luz visible como los rayos X se producen a raíz de las transiciones de los electrones
atómicos de una órbita a otra. La luz visible corresponde a transiciones de electrones exteriores y
los rayos X a transiciones de electrones interiores. En el caso de la radiación de frenado, los rayos X
se producen por el frenado o deflección de electrones libres que atraviesan un campo eléctrico
intenso. Los rayos gamma, cuyos efectos son similares a los de los rayos X, se producen por
transiciones de energía en el interior de núcleos excitados.

Los rayos X se producen siempre que se bombardea un objeto material con electrones de alta
velocidad. Gran parte de la energía de los electrones se pierde en forma de calor; el resto produce
rayos X al provocar cambios en los átomos del blanco como resultado del impacto. Los rayos X
emitidos no pueden tener una energía mayor que la energía cinética de los electrones que los
producen. La radiación emitida no es monocromática, sino que se compone de una amplia gama de
longitudes de onda, con un marcado límite inferior que corresponde a la energía máxima de los
electrones empleados para el bombardeo. Este espectro continuo es independiente de la naturaleza
del blanco. Si se analizan los rayos X emitidos con un espectrómetro de rayos X, se encuentran
ciertas líneas definidas superpuestas sobre el espectro continuo; estas líneas, conocidas como rayos
X característicos, corresponden a longitudes de onda que dependen exclusivamente de la estructura
de los átomos del blanco. En otras palabras, un electrón de alta velocidad que choca contra el
blanco puede hacer dos cosas: inducir la emisión de rayos X de cualquier energía menor que su
energía cinética o provocar la emisión de rayos X de energías determinadas, que dependen de la
naturaleza de los átomos del blanco.

Producción de rayos X

El primer tubo de rayos X fue el tubo de Crookes, se trata de una ampolla de vidrio bajo vacío
parcial con dos electrodos. Cuando una corriente eléctrica pasa por un tubo de Crookes, el gas
residual que contiene se ioniza, y los iones positivos golpean el cátodo y expulsan electrones del
mismo. Estos electrones, que forman un haz de rayos catódicos,bombardean las paredes de vidrio
del tubo y producen rayos X. Estos tubos sólo generan rayos X blandos, de baja energía.

Un primer perfeccionamiento del tubo de rayos X fue la introducción de un cátodo curvo para
concentrar el haz de electrones sobre un blanco de metal pesado, llamado anticátodo o ánodo. Este
tipo de tubos genera rayos más duros,con menor longitud de onda y mayor energía que los del tubo
de Crookes original; sin embargo, su funcionamiento es errático porque la producción de rayos X
depende de la presión del gas en el tubo.

El tubo de Coolidge tiene un vacío muy alto y contiene un filamento calentado y un blanco.
Esencialmente, es un tubo de vacío termoiónico en el que el cátodo emite electrones al ser calentado
por una corriente auxiliar, y no al ser golpeado por iones, como ocurría en los anteriores tipos de
tubos. Los electrones emitidos por el cátodo calentado se aceleran mediante la aplicación de una
alta tensión entre los dos electrodos del tubo. Al aumentar la tensión disminuye la longitud de onda
mínima de la radiación.

La mayoría de los tubos de rayos X que se utilizan en la actualidad son tubos de Coolidge
modificados. Los tubos más grandes y potentes tienen anticátodos refrigerados por agua para
impedir que se fundan por el bombardeo de electrones. El tubo antichoque, muy usado, es una
modificación del tubo de Coolidge, con un mejor aislamiento de la carcasa (mediante aceite) y
cables de alimentación conectados a tierra. Los aparatos como el betatrón se emplean para producir
rayos X muy duros, de longitud de onda menor que la de los rayos gamma emitidos por elementos
naturalmente radiactivos.

Propiedades de los rayos X

Los rayos X afectan a una emulsión fotográfica del mismo modo que lo hace la luz. La absorción de
rayos X por una sustancia depende de su densidad y masa atómica. Cuanto menor sea la masa
atómica del material, más transparente será a los rayos X de una longitud de onda determinada.
Cuando se irradia el cuerpo humano con rayos X, los huesos (compuestos de elementos con mayor
masa atómica que los tejidos circundantes) absorben la radiación con más eficacia,por lo que
producen sombras más oscuras sobre una placa fotográfica. En la actualidad se utiliza radiación de
neutrones para algunos tipos de radiografía, y los resultados son casi los inversos. Los objetos que
producen sombras oscuras en una imagen de rayos X aparecen casi siempre claros en una
radiografía de neutrones.

Fluorescencia : Los rayos X también producen fluorescencia en determinados materiales, como el


platinocianuro de bario o el sulfuro de cinc. Si se sustituye la película fotográfica por uno de estos
materiales fluorescentes, puede observarse directamente la estructura interna de objetos opacos.
Esta técnica se conoce como fluoroscopia.

Ionización : Otra característica importante de los rayos X es su poder de ionización, que depende
de su longitud de onda. La capacidad de ionización de los rayos X monocromáticos es directamente
proporcional a su energía. Esta propiedad proporciona un método para medir la energía de los rayos
X. Cuando se hacen pasar rayos X por una cámara de ionización se produce una corriente eléctrica
proporcional a la energía del haz incidente. Además de la cámara de ionización,otros aparatos más
sensibles como el contador Geiger o el contador de centelleo también miden la energía de los rayos
X a partir de la ionización que provocan. Por otra parte, la capacidad ionizante de los rayos X hace
que su trayectoria pueda visualizarse en una cámara de niebla o de burbujas.
Difracción de rayos X: Los rayos X pueden difractarse al atravesar un cristal, o ser dispersados por
él, ya que el cristal está formado por redes de átomos regulares que actúan como redes de difracción
muy finas. Los diagramas de interferencia resultantes pueden fotografiarse y analizarse para
determinar la longitud de onda de los rayos X incidentes o la distancia entre los átomos del cristal,
según cuál de ambos datos se desconozca. Los rayos X también pueden difractarse mediante redes
de difracción rayadas si su espaciado es aproximadamente igual a la longitud de onda de los rayos
X.

Interacción con la materia

Efecto fotoeléctrico: Cuando un cuanto de radiación o fotón correspondiente a la zona de rayos X


del espectro electromagnético choca contra un átomo, puede golpear un electrón de una capa
interior y expulsarlo del átomo. Si el fotón tiene más energía que la necesaria para expulsar el
electrón,le transferirá esta energía adicional en forma de energía cinética. Este fenómeno,
denominado efecto fotoeléctrico,tiene lugar principalmente en la absorción de rayos X de baja
energía.

Efecto Compton: El efecto Compton es una manifestación importante de la absorción de rayos X


de menor longitud de onda. Cuando un fotón de alta energía choca con un electrón, ambas
partículas pueden ser desviadas formando un ángulo con la trayectoria de la radiación incidente de
rayos X. El fotón incidente cede parte de su energía al electrón y sale del material con una longitud
de onda más corta. Estas desviaciones acompañadas por un cambio en la longitud de onda se
conocen como dispersión Compton.

Producción de pares: En el tercer tipo de absorción, que se observa especialmente cuando se


irradian elementos de masa atómica elevada con rayos X de muy alta energía, se produce el
fenómeno de producción de pares. Cuando un fotón de alta energía penetra en la capa electrónica
cercana al núcleo, puede crear un par de electrones, uno con carga negativa y otro con carga
positiva; los electrones con carga positiva se conocen también como positrones. La producción de
pares es un ejemplo de la conversión de energía en masa. El fotón necesita una energía de al menos
1,2 MeV para proporcionar la masa del par. Si el fotón incidente posee más energía de la necesaria
para la producción del par, el exceso de energía se cede al par de electrones en forma de energía
cinética. Las trayectorias de las dos partículas son divergentes.

Aplicaciones de los rayos X

Investigación: El estudio de los rayos X ha desempeñado un papel primordial en la física teórica,


especialmente en el desarrollo de la mecánica cuántica. Como herramienta de investigación, los
rayos X han permitido confirmar experimentalmente las teorías cristalográficas. Utilizando métodos
de difracción de rayos X es posible identificar las sustancias cristalinas y determinar su estructura.
Casi todos los conocimientos actuales en este campo se han obtenido o verificado mediante análisis
con rayos X. Los métodos de difracción de rayos X también pueden aplicarse a sustancias
pulverizadas que, sin ser cristalinas, presentan alguna regularidad en su estructura molecular.
Mediante estos métodos es posible identificar sustancias químicas y determinar el tamaño de
partículas ultramicroscópicas. Los elementos químicos y sus isótopos pueden identificarse mediante
espectroscopia de rayos X, que determina las longitudes de onda de sus espectros de líneas
característicos. Varios elementos fueron descubiertos mediante el análisis de espectros de rayos X.

Algunas aplicaciones recientes de los rayos X en la investigación son cada vez más importantes. La
microrradiografía, por ejemplo, produce imágenes de alta resolución que pueden ampliarse
considerablemente. Dos radiografías pueden combinarse en un proyector para producir una imagen
tridimensional llamada estereorradiograma. La radiografía en color también se emplea para mejorar
el detalle. En este proceso, las diferencias en la absorción de rayos X por una muestra se
representan como colores distintos. La microsonda de electrones, que utiliza un haz de electrones
muy preciso para generar rayos X sobre una muestra en una superficie de sólo una micra cuadrada,
proporciona una información muy detallada.

Industria: Los rayos X se emplean en la industria como herramienta de investigación y para


realizar numerosos procesos de prueba. Son muy útiles para examinar objetos, por ejemplo piezas
metálicas, sin destruirlos. Las imágenes de rayos X en placas fotográficas muestran la existencia de
fallos, pero la desventaja de este sistema es que el equipo de rayos X de alta potencia que se
necesita es voluminoso y caro. Por ello,en algunos casos se emplean radioisótopos que emiten rayos
gamma de alta penetración en vez de equipos de rayos X. Estas fuentes de isotópos pueden
albergarse en contenedores relativamente ligeros, compactos y blindados. Para la radiografía
industrial se suelen emplear el cobalto 60 y el cesio 137. En algunas aplicaciones médicas e
industriales se ha empleado tulio 70 en proyectores isotópicos pequeños y cómodos de usar.

Muchos productos industriales se inspeccionan de forma rutinaria mediante rayos X, para que las
unidades defectuosas puedan eliminarse en el lugar de producción. También existen otras
aplicaciones, entre las que figuran la identificación de gemas falsas o la detección de mercancías de
contrabando en las aduanas. Los rayos X ultrablandos se emplean para determinar la autenticidad de
obras de arte y para restaurar cuadros.

Medicina: Las radiografías y la fluoroscopia se emplean mucho en medicina como herramientas de


diagnóstico. En la radioterapia se emplean rayos X para tratar determinadas enfermedades,en
particular el cáncer, exponiendo los tumores a la radiación.

La utilidad de las radiografías para el diagnóstico se debe a la capacidad de penetración de los rayos
X. Las radiografías revelan minúsculas diferencias en los tejidos, y muchas enfermedades pueden
diagnosticarse con este método. Los rayos X eran el método más importante para diagnosticar la
tuberculosis, las imágenes de los pulmones eran fáciles de interpretar porque los espacios con aire
son más transparentes a los rayos X que los tejidos pulmonares. Otras cavidades del cuerpo pueden
llenarse artificialmente con materiales de contraste, de forma que un órgano determinado se vea con
mayor claridad. El sulfato de bario, muy opaco a los rayos X, se utiliza para la radiografía del
aparato digestivo. Para examinar los riñones o la vesícula biliar se administran determinados
compuestos opacos por vía oral o intravenosa. Estos compuestos pueden tener efectos secundarios
graves, por lo que sólo deben ser empleados después de una consulta cuidadosa. El uso rutinario de
los rayos X se ha desaconsejado en los últimos años, ya que su utilidad es cuestionable.

Un aparato de rayos X que se emplea sin compuestos de contraste, proporciona visiones claras de
cualquier parte de la anatomía, incluidos los tejidos blandos. Conocido como tomografía axial
computerizada; gira 180° en torno al cuerpo del paciente emitiendo un haz de rayos X del grosor de
un lápiz en 160 puntos diferentes. Unos cristales situados en los puntos opuestos reciben y registran
la absorción de los distintos espesores de tejido y huesos. Estos datos se envían a una computadora
que convierte la información en una imagen sobre una pantalla. Con la misma dosis de radiación
que un aparato de rayos X convencional, puede verse todo un corte de espesor determinado del
cuerpo con una claridad aproximadamente 100 veces mayor.

Rayos Ultravioletas
Radiación electromagnética cuyas longitudes de onda van aproximadamente desde los 400 nm, el
límite de la luz violeta, hasta los 15 nm, donde empiezan los rayos X. La radiación ultravioleta
puede producirse artificialmente mediante lámparas de arco; la de origen natural proviene
principalmente del Sol.

La radiación ultravioleta con longitudes de onda inferiores a 300 nm se emplea para esterilizar
superficies porque mata a las bacterias y los virus. En los seres humanos, la exposición a radiación
ultravioleta de longitudes de onda inferiores a los 310 nm puede producir quemaduras; una
exposición prolongada durante varios años puede provocar cáncer de piel.

La atmósfera terrestre protege a los organismos vivos de la radiación ultravioleta del Sol. Si toda la
radiación ultravioleta procedente del Sol llegara a la superficie de la Tierra, acabaría probablemente
con la mayor parte de la vida en el planeta. La capa de ozono de la atmósfera absorbe casi toda la
radiación ultravioleta de baja longitud de onda y gran parte de la de alta longitud de onda. Sin
embargo, la radiación ultravioleta no sólo tiene efectos perniciosos; gran parte de la vitamina D que
las personas y los animales necesitan para mantenerse sanos se produce cuando la piel es irradiada
por rayos ultravioleta.

Muchas sustancias se comportan de forma distinta cuando se las expone a luz ultravioleta que
cuando se las expone a luz visible. Por ejemplo, algunos minerales, colorantes, vitaminas, aceites
naturales y otros productos se vuelven fluorescentes en presencia de luz ultravioleta, es decir,
parecen brillar. Las moléculas de esas sustancias absorben la radiación ultravioleta invisible,
adquieren energía, y se desprenden del exceso de energía emitiendo luz visible. Otro ejemplo es el
vidrio de las ventanas, que es transparente a la luz visible pero opaco a una amplia gama de rayos
ultravioletas,especialmente los de baja longitud de onda. Algunos vidrios especiales son
transparentes para los rayos ultravioleta de mayor longitud de onda, y el cuarzo es transparente a
toda la gama de rayos ultravioleta naturales.

La astronomía ultravioleta se realiza con la ayuda de detectores montados en satélites artificiales


que proporcionan datos sobre objetos estelares inaccesibles desde la superficie de la Tierra.

Rayos Infrarrojos

Emisión de energía en forma de ondas electromagnéticas en la zona del espectro situada


inmediatamente después de la zona roja de la radiación visible. Oscila entre aproximadamente 10 -6 y
10-³ metros. La radiación infrarroja puede detectarse como calor, para lo que se emplean
instrumentos como el bolómetro.

Los rayos infrarrojos se utilizan para obtener imágenes de objetos lejanos ocultos por la bruma
atmosférica, que dispersa la luz visible pero no la radiación infrarroja. Hay dispositivos infrarrojos
que permiten ver objetos en la oscuridad. Estos instrumentos consisten básicamente en una lámpara
que emite un haz de rayos infrarrojos, a veces denominados luz negra, y un telescopio que recibe la
radiación reflejada por el objeto y la convierte en una imagen visible. En astronomía se utilizan los
rayos infrarrojos para estudiar determinadas estrellas y nebulosas.

Para las fotografías infrarrojas de alta precisión se emplea un filtro opaco que sólo deja pasar
radiación infrarroja, pero generalmente basta un filtro corriente anaranjado o rojo claro, que absorbe
la luz azul y violeta. La teledetección mediante fotografía infrarroja aérea y orbital se ha empleado
para observar las condiciones de la cosecha y el daño por insectos y enfermedades en grandes zonas
agrícolas, así como para localizar depósitos minerales. En la industria, la espectroscopia de
infrarrojos es una parte cada vez más importante de la investigación de metales y aleaciones, y la
fotografía infrarroja se emplea para regular la calidad de los productos.

Termografía : El uso de técnicas infrarrojas permite observar situaciones patológicas que no


pueden verse a simple vista ni en una radiografía. Mediante placas fotográficas o receptores de
imagen sensibles a los infrarrojos se obtienen termogramas (espectro electromagnético del calor) de
la totalidad o parte del cuerpo, que en medicina es la medida del calor corporal emitido por la piel.
Algunos tipos de cristal líquido sensibles al calor se pueden aplicar sobre la piel proporcionando
una lectura directa. Las variaciones de la temperatura cutánea dependen, entre otros factores, del
número de vasos sanguíneos y de su cercanía a la superficie corporal. Las imágenes anormales
pueden indicar una enfermedad. Un punto caliente de forma anormal puede indicar el desarrollo de
un cáncer,mientras que un punto frío de forma anormal puede indicar un bloqueo del torrente
sanguíneo como el producido por una trombosis.

En ingeniería la termografía es un método de impresión y copiado muy popular antes de la


invención de las fotocopiadoras. La impresión termográfica consiste en el calentamiento puntual de
tintas especiales, consiguiendo un efecto tridimensional especial con un coste muy bajo.

Microondas

Ondas electromagnéticas de radio situadas entre los rayos infrarrojos y las ondas de radio
convencionales. Su longitud de onda va aproximadamente desde 1 mm hasta 30 cm. Las
microondas se generan con tubos de electrones especiales como el clistrón o el magnetrón, que
incorporan resonadores para controlar la frecuencia, o con osciladores o dispositivos de estado
sólido especiales. Las microondas tienen muchas aplicaciones: radio y televisión, radares,
meteorología, comunicaciones vía satélite, medición de distancias, investigación de las propiedades
de la materia o cocinado de alimentos.

Los hornos de microondas funcionan excitando las moléculas de agua de los alimentos, lo que hace
que vibren y produzcan calor. Las microondas entran a través de aberturas practicadas en la parte
superior de la cavidad de cocción, donde un agitador las dispersa de forma homogénea por todo el
horno. Las microondas no pueden penetrar en un recipiente de metal para calentar la comida, pero sí
atraviesan los recipientes no metálicos.

Las microondas pueden detectarse con un instrumento formado por un rectificador de diodos de
silicio conectado a un amplificador y a un dispositivo de registro o una pantalla. La exposición a las
microondas es peligrosa cuando se producen densidades elevadas de radiación, como ocurre en los
máseres. Pueden provocar quemaduras, cataratas, daños en el sistema nervioso y esterilidad.
Todavía no se conocen bien los posibles peligros de la exposición prolongada a microondas de bajo
nivel.

Resonancia magnética nuclear o RMN

Técnica desarrollada por Félix Bloch para el análisis espectroscópico de sustancias. En la RMN se
coloca una sustancia en un campo magnético intenso que afecta al espín de los núcleos atómicos de
algunos isótopos de elementos comunes. Después se hace pasar a través de la sustancia una onda de
radio que reorienta los núcleos. Cuando se desconecta la onda, los núcleos liberan un pulso de
energía que proporciona información sobre la estructura molecular de la sustancia y que puede ser
transformado en una imagen mediante técnicas informáticas. La RMN se convirtió también en una
herramienta de diagnóstico para obtener imágenes de tejidos del interior del cuerpo humano más
precisas que las logradas mediante tomografía axial computerizada. La RMN no implica
radiactividad ni ningún otro tipo de radiación ionizante, y es una técnica de exploración no superada
para obtener imágenes del cerebro, la cabeza y el cuello. No obstante, no debe emplearse en
pacientes con implantes metálicos. Por otra parte, la RMN es más cara que una tomografía axial
computerizada, que es el método que se suele emplear para diagnosticar hemorragias cerebrales.

También podría gustarte