Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Física
y Química
Temario
Volumen II
Física II
Servicio
Exclusivo
Gratuito
&XHUSRGH3URIHVRUHV
GH(QVHxDQ]D6HFXQGDULD
)tVLFD\4XtPLFD
#
$
! %
! &
ZZZRSRVLFLRQVHFXQGDULDFRP
&'
$
!!
"
#
$
ZZZHGXIRUPDRQOLQHFRPSRUWDOSURIHVRUHV
!
"
% &'
(
% )
(
% &'
(
&XHUSRGH3URIHVRUHVGH(QVHxDQ]D6HFXQGDULD
)tVLFD
\4XtPLFD
7HPDULR
9ROXPHQ,,
)tVLFD,,
&RRUGLQDFLyQ,VDEHO*DUFtD/XFDV
75,9,80&HQWURGH2SRVLFLRQHVGH0XUFLD
-HV~V5XL]0DUWtQH]
'RFWRUHQ&LHQFLDV)tVLFDV
3URIHVRUWLWXODUGHOD8QLYHUVLGDGGH0XUFLD
(GLWRULDO0$'6/
-HV~V5XL]0DUWtQH]
6HJXQGDHGLFLyQMXOLR
'HSyVLWR/HJDO6(,,SiJLQDV
'HUHFKRVGHHGLFLyQUHVHUYDGRVDIDYRUGH(',725,$/0$'6/
3URKLELGDODUHSURGXFFLyQWRWDORSDUFLDOVLQSHUPLVRHVFULWRGHOHGLWRU
,035(62(1(63$f$
'LVHxR3RUWDGD(',725,$/0$'6/
(GLWD(',725,$/0$'6/
3OJ0HUNDF%1DYH$/&$/É'(*8$'$Ì5$6HYLOOD
7HOI
:(%ZZZPDGHV
,6%112
,6%118
,6%1REUDFRPSOHWD665-09381
,6%1REUDFRPSOHWD665-0938-0
3UHVHQWDFLyQ
(OOLEURTXHWLHQHHQODVPDQRVFRUUHVSRQGHDOWHPDULRGH2SRVLFLRQHVSDUDHO&XHUSRGH3UR
IHVRUHVGH(QVHxDQ]D6HFXQGDULDGHODHVSHFLDOLGDGGH)tVLFD\4XtPLFDTXH(GLWRULDO0$'SRQHD
GLVSRVLFLyQGHWRGRVDTXpOORVTXHDVSLUHQDFRQVHJXLUXQDH[FHOHQWHSUHSDUDFLyQTXHJDUDQWLFHHQOD
PHGLGDGHORSRVLEOHVXp[LWRHQODVRSRVLFLRQHV
$ODKRUDGHHVFULELUXQWHPDULRGHRSRVLFLRQHVGHJUDQFDOLGDGHOFULWHULREiVLFRKDGHVHUUH
GDFWDUFDGDWHPDFRQOD¿QDOLGDGGHTXHHORSRVLWRUQRWHQJDQHFHVLGDGGHDFXGLUDQLQJXQDRWUDREUD
GHFRQVXOWDHVGHFLUTXHHQFXHQWUHHQHOSURSLRWHPDULRDEVROXWDPHQWHWRGRHOPDWHULDOTXHQHFHVLWD
/DSUHPXUDFRQTXHFDVLVLHPSUHVHHVWXGLDXQDRSRVLFLyQKDFHQHFHVDULRTXHWRGDODPDWHULDHVWp
SUHVHQWDGDGHIRUPDFODUDDOPLVPRWLHPSRTXHVLVWHPiWLFD\ULJXURVDPHQWHH[SXHVWDFRQMXJDQGR
HVWRFRQXQQLYHOGHFRPSUHQVLyQTXHQRKDJDTXHHORSRVLWRUGHEDUHDOL]DUXQGREOHHVIXHU]RHQWHQ
GHUHOWHPD\HQWHQGHUDOUHGDFWRUGHOWHPD
'LVSRQHUGHXQWHPDULRFRQWUDVWDGR\DFWXDOL]DGRRWRUJDDOIXWXURSURIHVRUODJDUDQWtDGHFRQ
WDUFRQXQPDWHULDOTXHOHDKRUUHP~OWLSOHVHVIXHU]RV\TXHOHDVHJXUHXQDH[FHOHQWHSUHSDUDFLyQ
1XHVWUDH[SHULHQFLDGXUDQWHEDVWDQWHVDxRVHQHOFDPSRGHODSUHSDUDFLyQGHRSRVLWRUHVQRVKD
SHUPLWLGRFRPSUREDUSRUKDEHUWHQLGRDOXPQRVGHWRGDVODV&RPXQLGDGHV$XWyQRPDVTXHSRUORJH
QHUDODSUR[LPDGDPHQWHXQDFXDUWDSDUWHGHORVWHPDVVRQ³QXHYRV´HQVXFRQWHQLGRWDQWRSDUDORV
UHFLpQOLFHQFLDGRVFRPRSDUDPXFKRVGRFWRUDGRVDOQRKDEHUHVWXGLDGRORVDVSHFWRVIXQGDPHQWDOHV
GHpVWRVGXUDQWHVXIRUPDFLyQFRPRDOXPQRVHQODVGLIHUHQWHVXQLYHUVLGDGHV3RUHVRHVWHWHPDULRLQ
FRUSRUDQRVyORWRGRHOPDWHULDO\GHIRUPDDEXQGDQWHQHFHVDULRSDUDODFRPSUHQVLyQGHOWHPDVLQR
WDPELpQODGH¿QLFLyQFODUDGHFXDOTXLHUFRQFHSWRUHOHYDQWHTXHDSDUH]FDDVtFRPRODVDFODUDFLRQHV
FXDQGRVHDQSHUWLQHQWHV\WDPELpQPXFKRVRWURVGDWRVTXHSRVLELOLWHQODFRPSUHQVLyQ(VSUHIHULEOH
TXHORVGDWRV\ODVH[SOLFDFLRQHVVREUHDEXQGHQDTXHVHDQGHPDVLDGRHVFDVRVHORSRVLWRUVLHPSUH
SRGUi³UHFRUWDU´HOWHPDRVLQWHWL]DUORTXHHVWLPHPiVUHOHYDQWH
/RVUHVXOWDGRVREWHQLGRVGXUDQWHEDVWDQWHVDxRVSRUPXFKRVGHQXHVWURVDOXPQRVKDQVLGRH[
WUDRUGLQDULRV\KDQORJUDGRHQGLIHUHQWHVFRQYRFDWRULDV\HQWULEXQDOHVGHRSRVLFLyQYDULRVQ~PHURV
XQR\PXFKtVLPRVDSUREDGRVFRQSOD]D(VWRVLHPSUHQRVKDHVWLPXODGRDVHJXLUDFWXDOL]DQGR\³SX
OLHQGR´ORVWHPDVDVtFRPRDQLPDQGRDORVRSRVLWRUHVDFRQVHJXLUODSUHSDUDFLyQGHODPD\RUFDOLGDG
SRVLEOHFRQODFRQ¿DQ]DHQTXHVXHVIXHU]R¿QDOPHQWHWHQGUiHOUHVXOWDGRDQKHODGR
(ODXWRU
75,9,80&HQWURGH2SRVLFLRQHVGH0XUFLD
Índice
Tema 19. Naturaleza eléctrica de la materia. Electrostática. Discontinuidad y
conservación de la carga. Carácter conservativo del campo electrostático. Estudio
energético de la interacción eléctrica ...................................................................... 11
Tema 21. Campo magnético. Carácter no conservativo del campo magnético. Genera-
ción de campos magnéticos y efectos sobre cargas en movimiento. Aplicación a dispo-
sitivos tecnológicos..................................................................................................... 81
Tema 30. Teoría cuántica. Problemas precursores. Límites de la física clásica para
resolverlos. Fenómenos que corroboran la teoría cuántica ...................................... 395
19
Naturaleza eléctrica de la
materia. Electrostática.
Discontinuidad y conservación
de la carga. Carácter
conservativo del campo
electrostático. Estudio energético
de la interacción eléctrica
ÍNDICE SISTEMÁTICO
1. INTRODUCCIÓN
4. CAMPO ELÉCTRICO
4.1. Campo eléctrico producido por una distribución discreta de carga
4.2. Campo eléctrico producido por una distribución continua de carga
4.3. Líneas de campo eléctrico
4.4. Dipolo eléctrico
5. LEY DE GAUSS
5.1. Flujo eléctrico
5.2. Ley de Gauss para el campo eléctrico
5.3. Aplicaciones de la ley de Gauss
5.3.1. Campo próximo a una distribución lineal de carga
5.3.2. Campo próximo a una distribución de carga plana y extensa
5.3.3. Campo creado por una corteza esférica
5.3.4. Campo creado por una esfera uniformemente cargada
5.3.5. Propiedades de los conductores
5.4. Ley de Gauss en forma diferencial
BIBLIOGRAFÍA
1. INTRODUCCIÓN
En este tema vamos a presentar una nueva propiedad física de la materia, la carga eléctrica. Al
igual que la masa es la fuente de la interacción gravitatoria, la carga eléctrica es la fuente de una nueva
interacción, denominada eléctrica. Pero veremos que, a diferencia de la masa, la carga puede ser positi-
va o negativa, por lo que la fuerza entre partículas cargadas puede ser atractiva o repulsiva, dependiendo
de que la interacción tenga lugar entre cargas de signo opuesto o del mismo signo.
La fuerza eléctrica, unificada con la fuerza magnética y la denominada fuerza nuclear débil, jun-
to con la fuerza gravitatoria y la nuclear fuerte es una de las fuerzas fundamentales de la naturaleza.
Mientras que a escala astronómica la fuerza dominante es la gravitatoria, y a escala microscópica o
atómica son las fuerzas débil y fuerte, las fuerzas electromagnéticas son dominantes en el rango inter-
medio. Es decir, que en el mundo macroscópico la mayoría de las fuerzas, salvo la gravitatoria, son de
origen eléctrico o magnético.
Con el objeto de profundizar en el conocimiento de la fuerza eléctrica, comenzaremos su estudio
describiendo la interacción entre cuerpos estacionarios que tienen una carga neta que no varía con el tiem-
po; es decir, por el estudio de la fuerza electrostática entre partículas cargadas. A continuación, se estudia-
rán algunas características de la fuerza eléctrica, así como los aspectos relevantes de esta interacción, tales
como el energético.
Cuando se acerca un objeto cargado a la esfera las hojas metálicas se separan. Gilbert observó que había
muchas sustancias, aparte del ámbar, que, cuando se frotaban con un paño producían el mismo efecto
en el electroscopio. No obstante, un tipo de sustancia como los metales se resistía a este proceso de elec-
trificación. Cien años más tarde se comprobó que este tipo de sustancias son lo que llamamos sustancias
conductoras, en las que la carga eléctrica puede fluir libremente. Por esto, al frotar una sustancia con-
ductora la electricidad se escapa a través de la mano.
Conductor
Metal
Aislante
Cámara de vidrio
Otto von Guericke fue el primero en encontrar que un objeto pequeño que era atraído hacia un
cuerpo electrificado, después de entrar en contacto con él, era repelido por el objeto electrificado.
Después, el objeto podía atraer a otros objetos sin electrificar. Aunque las experiencias de Von Gue-
ricke eran en realidad experiencias sobre la conducción de la electricidad, fue Stephen Gray quien, a
principios del siglo XVIII, demostró experimentalmente que la electricidad podía transportarse de un
lugar a otro mediante hilos metálicos o hilos mojados. No obstante, esta propiedad de transporte de la
electricidad se reducía a un tipo de sustancia. Gray estableció así la diferencia entre sustancias con-
ductoras y aislantes, atendiendo a su capacidad de transmitir la electricidad.
En esta misma época, Charles François de Cisternay du Fay demostró que incluso las sustancias
conductoras podían electrificarse por frotamiento o fricción siempre que se colocasen en un soporte ais-
lante. Por otra parte, Du Fay descubrió que la electrificación producida en los cuerpos por frotación era
de dos tipos. Esta conclusión fue el resultado de una experiencia sencilla. En primer lugar electrificó
una lámina de oro de un electroscopio tocándola con una varilla de vidrio frotada con seda. Acercando
después la varilla a la lámina se veía que ambas se repelían. Pero Du Fay observó que si se acercaba a la
lámina de oro una varilla de ámbar frotada con lana, en contra de lo esperado, estas se atraían. De forma
análoga, una lámina de oro tocada en primer lugar por una varilla de ámbar era repelida por esta varilla
y atraída por una varilla de vidrio frotada con seda. Du Fay denominó al tipo de electricidad de la varilla
como vítrea y al de la resina como resinosa. A partir de este hecho desarrolló una teoría según la cual to-
dos los cuerpos tienen cantidades iguales de dos fluidos sin peso: la electricidad vítrea y la resinosa.
Estos fluidos eran tales que se autorrepelen pero se atraen mutuamente entre ellos, de manera que sus
efectos se neutralizan en los cuerpos normales.
Esta teoría de los dos fluidos fue sustituida por una teoría de un solo fluido propuesta indepen-
dientemente por William Watson y Benjamin Franklin. Según esta teoría la electricidad vítrea es el
exceso de una cierta cantidad normal de un solo fluido, mientras que la electricidad resinosa era una
deficiencia de este fluido. Por esta razón, Benjamin Franklin propuso denominar positiva a la electri-
cidad vítrea y negativa a la electricidad resinosa.
+
_ ++ +
_ _ ++ + +
__ _ + +
+
_ + +
+ +
+ +
++ ++
+ ++
+ + +
Figura 2. Efectos de atracción y
repulsión de una varilla cargada
sobre una esfera metálica.
Este fenómeno de inducción de carga puede utilizarse para cargar objetos conductores inicialmen-
te neutros. Consideremos por ejemplo dos esferas neutras colocadas sobre sendos apoyos aislantes y
que ponemos en contacto entre sí (fig. 3). Si acercamos una varilla cargada negativamente a una de las
esferas, los electrones móviles se alejarán hacia la parte más alejada de la segunda esfera, dejando en la
primera la misma carga pero de signo positivo. Si separamos ahora las dos esferas, estando la varilla to-
davía cerca de una de las esferas, tendremos dos esferas cargadas en la misma cantidad, una negativa y
la otra positivamente. Decimos que las esferas han sido cargadas por inducción. Obsérvese que para
que se pueda producir la carga por inducción es necesario que los electrones tengan gran movilidad en
dicha sustancia, condición que sólo se da en los conductores.
_ +
_ + _
_
_ + __
+ _
_
_ + _ _ _ +
_ + + +
_
_ + __ _ _ + +
+ _ _ _ + +
En algunas interacciones entre partículas elementales puede ocurrir que los electrones se creen o
se aniquilen. Por ejemplo, un fotón de alta energía (rayo gamma) puede dar lugar a la creación de un
electrón, pero a su vez se crea una partícula de carga positiva denominada positrón, de manera que la
carga neta antes y después es la misma. A este suceso se le denomina creación o producción de pares.
La igualdad de masa y de carga entre el electrón y el positrón son la manifestación de una evidente si-
metría en la naturaleza, la dualidad partícula-antipartícula. En todos los procesos se producen o des-
truyen cantidades iguales de carga positiva y negativa de manera que la carga del universo permanece
constante.
Una cuestión a la que de momento no podemos responder con toda seguridad es si la ley de con-
servación de la carga eléctrica es una consecuencia de otra ley más amplia de conservación que rigie-
ra la creación y aniquilación de partículas, o si por el contrario es un requerimiento previo y las demás
leyes han de caer dentro de sus límites. Pero lo que sí está claro es que la no conservación de la carga
sería incompatible con la teoría actual del electromagnetismo. En consecuencia, podemos establecer
la ley de conservación de la carga eléctrica como una ley empírica que ha sido confirmada por to-
dos los experimentos realizados hasta ahora:
La carga eléctrica total de un sistema aislado, entendiendo como tal la suma algebraica
de la carga positiva y negativa presente en un instante dado, no varía nunca.
r q q
F12 = k 1 2 2 r$21 (1)
r21
r
en donde F12 es la fuerza que la carga 1 ejerce sobre la carga 2, q1 y q2 son los valores algebraicos de
las cargas puntuales, r21 es la distancia entre ellas, r$21 es el vector unitario en la dirección de la línea
que une ambas cargas que va desde la carga 1 a la carga 2, y k es una constante de proporcionalidad.
La expresión (1) indica que si las dos cargas son del mismo signo, la fuerza es repulsiva, mientras
que si son de signo opuesto, la fuerza es atractiva.
r Por otro lado, de esta expresión vemos que la fuerza
eléctrica es newtoniana puesto que la fuerza F21 que la carga 2 ejerce sobre la carga 1 es igual y de signo
r r
contrario a la ejercida por la carga 1 sobre la 2: F21 = –F12 .
La constante k que aparece en la ley de Coulomb se incluye para tener en cuenta las unidades. Si
tuviésemos definida la unidad de carga, entonces la constante k se mediría de forma experimental,
como ocurría en el caso de la constante de la gravitación universal. Ahora bien, en el caso que nos
ocupa de la interacción eléctrica, la unidad de carga no está definida, por lo que se procede de forma
contraria. Se fija un valor para la constante k y a partir de ella se determina la unidad de carga. Fue así
como se definió la unidad electrostática de carga (ues) en el sistema CGS en donde se tomó k = 1. La
unidad de carga así definida es tal que dos cargas de ese valor, separadas un centímetro, se repelen
con una fuerza igual a una dina.
En el sistema internacional de unidades se utiliza otra unidad de carga denominada culombio o
coulomb (C). La razón de utilizar esta unidad es su relación simple con otras unidades eléctricas
como el amperio, el voltio o el ohmio. De hecho, el coulomb se define como aquella carga que fluye
entre dos puntos de un alambre en un segundo, cuando la corriente a través del alambre es un ampe-
rio. Si en la expresión de la ley de Coulomb tomamos la carga en coulomb, la distancia en metros, la
fuerza viene expresada en newton si tomamos como valor de k = 8,9875 ´ 109 . Como vemos, el cou-
lomb es una unidad de carga muy grande y la fuerza ejercida por dos cargas de un coulomb separadas
por una distancia de un metro es igual a F = k = 8,9875 ´ 109 N, es decir, aproximadamente igual al
peso de 15 millones de personas adultas. Las cargas típicas que pueden obtenerse en laboratorio me-
diante frotamiento o poniendo en contacto dos objetos oscilan entre los 10 nC (1 nC = 10–9 C) y los
0,1 mC (1mC = 10–6 C). Estos procesos llevan consigo una transferencia de un número elevado de
electrones, siendo la carga elemental de electrón:
e= 1,60´10–19 C (2)
en donde e0 se denomina permitividad del vacío. El hecho de expresar la constante de la ley de Cou-
lomb de esta manera es por que así se obtiene una forma más conveniente para otras ecuaciones que
se usan mucho más frecuentemente que la ley de Coulomb.
De acuerdo con lo visto anteriormente, se tiene que el valor de la permitividad del vacío es:
1
e0 = = 8,854´10–12 N–1 m –2 C2 (4)
4pk
q q q
Z Z
F1 F1
Z
F2 q1 Z
F2
q1
q1
q2 q2 Figura 6. Principio de
q2
superposición.
Si tenemos en cuenta que la fuerza de interacción de dos partículas cargadas viene dada por la
ley de Coulomb (1), el principio de superposición establece que la fuerza que un sistema de N cargas
puntuales qi ejerce sobre una carga determinada q viene dada por:
r N
r N
1 qq i
F = å Fi = å r$ (5)
i= 1 i= 1
4pe 0 ri2 i
en donde ri es la distancia de la carga qi a la carga q y r$i es el vector unitario en la dirección que va des-
de la carga qi a la carga q.
dq’
Z Z
r – r’
Z
r’
Z
r
El hecho de que la carga está cuantizada no tiene ninguna consecuencia física si tratamos con
cargas mucho más grandes que e. En estos casos en que se tiene un conjunto muy grande de cargas
puntuales ésta se pueden tratar como una distribución continua de carga. Para analizar una situación
así, consideremos una distribución de carga continua como la mostrada en la figura 7. La fuerza ejer-
cida sobre la carga q por un elemento de volumen que contiene una carga dq' es:
r 1 qdq' r r
dF = r r 3 (r – r ' ) (6)
4pe 0 | r – r ' |
r r
en donde r determina la posición de la carga q y r'determina la posición del elemento de volumen que
contiene la carga dq'.
La fuerza neta ejercida sobre la carga q por toda la distribución de carga la obtendremos sumando
todas las fuerzas correspondientes a todos los elementos de carga dq'. Matemáticamente esto significa
que la fuerza neta vendrá dada por:
r r q dq' r r
F = ò dF = ò | rr – rr' | (r – r ' ) (7)
4pe 0 3
La expresión anterior se puede escribir de forma más conveniente en función de la densidad de carga
de la distribución. Vamos a distinguir tres casos, dependiendo que la carga esté distribuida a lo largo
de una línea, una superficie o un volumen: los cuales corresponden a un problema unidimensional, bi-
dimensional y tridimensional.
– Una dimensión. Si la distribución de carga se realiza a lo largo de una línea, que asociamos
al eje x, y llamamos l (x) a la densidad lineal de carga, la carga elemental de un elemento in-
finitesimal de longitud dx vendrá dada por:
dq'= ldx' (8)
Sustituyendo esto en la expresión (7) obtenemos que la fuerza neta ejercida por la distribu-
ción lineal sobre la carga q viene dada por:
r q ldx' r r
F=
4pe 0
ò L
r r 3 (r – r ' )
| r – r' |
(9)
– Dos dimensiones. Supongamos ahora que la carga está distribuida sobre una superficie. Si
llamamos s a la densidad superficial de carga, la carga elemental de un elemento infinitesi-
mal de superficie dS' vendrá dada por:
dq'= sdS ' (10)
Sustituyendo esto en la expresión (7) obtenemos que la fuerza neta ejercida por la distribu-
ción superficial sobre la carga q viene dada por:
r q sdS ' r r
F=
4pe 0
ò S
r r 3 (r – r ' )
| r – r' |
(11)
– Tres dimensiones. Por último, supongamos que la carga está distribuida en un volumen. Si
llamamos r a la densidad volumétrica de carga, la carga elemental de un elemento infinite-
simal de volumen dV' vendrá dada por:
dq'= sdV ' (12)
Sustituyendo esto en la expresión (7) obtenemos que la fuerza neta ejercida por la distribu-
ción sobre la carga q viene dada por:
r q rdV ' r r
F=
4pe 0
ò V
r r 3 (r – r ' )
| r – r' |
(13)
Es evidente que para que un sistema de cargas permanezca en situación estacionaria es necesario
que sobre cada carga actúe otra fuerza no eléctrica de manera que la resultante de la fuerza sea nula.
En lo que sigue supondremos que dichas fuerzas existen y que por tanto el conjunto de cargas se en-
cuentra en situación estacionaria.
4. CAMPO ELÉCTRICO
El hecho de que las fuerzas fundamentales, entre ellas la fuerza eléctrica, actúen entre partículas
que se encuentran separadas en el espacio hace que debamos considerar algún mecanismo de propa-
gación de la interacción.
Una primera interpretación, denominada acción a distancia, es que la interacción tiene lugar direc-
tamente entre las partículas. Hoy, consideramos el problema de la acción a distancia mediante el con-
cepto de campo, introducido por Michael Faraday (1791-1867) para la descripción de la interacción
electromagnética, y que posteriormente fue adoptado por la gravitación. La interpretación de la interac-
ción eléctrica mediante el concepto de campo consiste en suponer que la presencia de una carga q en
una determinada región del espacio provoca una modificación de las propiedades de dicho espacio,
creando una situación física que denominamos campo eléctrico. Este campo se reconoce porque al co-
locar en dicha región una segunda carga q', ésta experimenta una fuerza de atracción o repulsión eléctri-
ca. Análogamente, la carga q' crea su propio campo eléctrico que produce una fuerza sobre la carga q.
Aunque en un primer momento el concepto de campo se asociaba a la región del espacio en la que se
modificaba una propiedad física, una visión más moderna asocia al campo los valores de esa magnitud
modificada en toda la región del espacio.
La interacción eléctrica entre las dos cargas se puede considerar como un proceso en dos etapas.
En la primera, cada carga crea un campo eléctrico en la región del espacio que la rodea. En la segun-
da, el campo creado por cada carga produce una fuerza sobre la otra. Es decir, el campo eléctrico es el
agente intermediario de la interacción entre las dos partículas cargadas.
Por otra parte, veremos que la idea de campo es necesaria para preservar la conservación de la ener-
gía. Pero, sobre todo, la potencia del concepto de campo aparece cuando tratamos campos creados por
cargas aceleradas. Aún cuando estas cargas se encuentran en una región limitada del espacio, el campo
eléctrico y magnético creado se extiende por todo el espacio y se propaga a la velocidad de la luz.
Supongamos un conjunto de N cargas qi en una determinada región del espacio. Si situamos una
carga de prueba q0 en esta región, su presencia cambiará la distribución general de la distribución de
cargas (como es el caso si las cargas se encuentran depositadas sobre conductores), a no ser que estas
cargas se encuentren fijas. Sin embargo podemos elegir dicha carga de prueba suficientemente pe-
queña de manera que su efecto sobre la distribución de cargas sea despreciable. Según el principio de
superposición, la fuerza resultante sobre la carga de prueba q0 es la suma vectorial de todas las fuerzas
que sobre ella ejerce cada una de las cargas individuales qi; y según la ley de Coulomb cada una de es-
tas fuerzas es proporcional a la carga de prueba q0. Por tanto, la fuerza total es proporcional a la carga
q0. Se define el campo eléctrico E en cada punto del espacio como la fuerza ejercida sobre una carga
de prueba positiva q0, situada en ese punto, dividida por q0:
r
r F
E= (14)
q0
en donde consideramos que la carga q0 es suficientemente pequeña como para no alterar la distribu-
ción de cargas original. Por esto, es más adecuado definir el campo eléctrico como:
r
r F
E = lim (15)
q0 ® 0 q
0
En realidad, la carga de prueba más pequeña que podemos utilizar es la carga del electrón. Esto sig-
nifica que el campo eléctrico no puede determinarse con precisión ilimitada. Esto es de importancia en
problemas a escala atómica, pero a escala macroscópica es irrelevante. Siempre
r que el campo eléctrico se
mida con una carga eléctrica de prueba suficientemente pequeña, el valor de E no diferiría apreciablemen-
te de la medida realizada con una carga de prueba infinitesimal como la sugerida por la expresión anterior.
El caso más simple de campo eléctrico es el creado por una sola carga puntual q, que supondre-
mos situada de forma estática en el origen de coordenadas. Si consideramos una carga de prueba q0 si-
tuada a una distancia r de q, el valor de la fuerza ejercida por q sobre la carga de prueba q0 viene dada
por la ley de Coulomb:
r 1 qq 0
F= r$ (16)
4pe 0 r 2
r 1 q
E= r$ (17)
4pe 0 r 2
en donde r$ es un vector unitario en la dirección que va desde la carga al punto donde calculamos el
campo (punto campo).
r N
r N
1 qi
E = å Ei = å r$ (18)
i= 1 i= 1
4pe 0 ri2 i
r
en donde ri es el vector de posición de la carga q con respecto a la carga qi y r$i es el vector unitario en
esa dirección. Esta expresión la podemos escribir en función de la posición r' i de la carga qi, y de la
posición del punto del espacio r en donde se coloca la carga de prueba como:
r N
1 qi r r
E= å r r 3 ( r – ri ' ) (19)
i= 1
4pe 0 | r – ri ' |
en donde con las “primas” indicamos que se trata de puntos fuente y sin ellas, de puntos campo.
Expresión que, como vimos en el caso de la fuerza, se puede escribir de forma más conveniente en
función de la densidad de carga de la distribución. Al igual que antes, vamos a distinguir tres casos,
dependiendo que la carga esté distribuida a lo largo de una línea, una superficie o un volumen: los
cuales corresponden a un problema unidimensional, bidimensional y tridimensional.
– Una dimensión. Si la distribución de carga se realiza a lo largo de una línea, que asociamos
al eje x, y llamamos l(x) a la densidad lineal de carga, la carga elemental de un elemento in-
finitesimal de longitud dx vendrá dada por:
Sustituyendo esto en la expresión (20) obtenemos que la el campo eléctrico creado por la dis-
tribución lineal de carga viene dado por:
r 1 ldx' r r
E=
4pe 0
ò L
r r (r – r ' )
| r – r ' |3
(22)
– Dos dimensiones. Supongamos ahora que la carga está distribuida sobre una superficie. Si
llamamos s a la densidad superficial de carga, la carga elemental de un elemento infinitesi-
mal de superficie dS' vendrá dada por:
Sustituyendo esto en la expresión (20) obtenemos que la el campo creado por la distribu-
ción superficial de la carga viene dado por:
r 1 sdS ' r r
E=
4pe 0
ò S
r r 3 (r – r ' )
| r – r' |
(24)
– Tres dimensiones. Por último, supongamos que la carga está distribuida en un volumen. Si
llamamos r a la densidad volumétrica de carga, la carga elemental de un elemento infinite-
simal de volumen dV' vendrá dada por:
Sustituyendo esto en la expresión (20) obtenemos que la el campo creado por la distribu-
ción de carga viene dado por:
r 1 rdV ' r r
E=
4pe 0
ò V
r r 3 (r – r ' )
| r – r' |
(26)
Una vez que se conoce el campo eléctrico creado por una carga, distribución discreta o distribu-
ción continua de carga, podemos encontrar la fuerza sobre cualquier carga puntual q' colocada en el
campo usando la expresión (14):
r r
F = Eq' (27)
Como vemos, las dimensiones del campo eléctrico son de fuerza por unidad de carga, por lo que en el
sistema internacional la unidad del campo eléctrico será de N/C.
Veamos a continuación como están relacionadas la densidad de líneas de campo con la intensidad
del campo eléctrico. La densidad de líneas de campo viene dada por el número de líneas por unidad de
superficie. A una distancia r de la carga las líneas de campo atraviesan una superficie S = 4pr2, por lo
que la densidad de líneas de campo decrece en proporción inversa al cuadrado de la distancia a la carga;
lo mismo que le ocurre a la intensidad del campo eléctrico cuya dependencia con la distancia a la carga
es de la forma E = kq/r2. En consecuencia, si el número de líneas de campo que salen de una carga pun-
tual es proporcional al valor de dicha carga, y dibujamos las líneas simétricamente alrededor de la car-
ga, la intensidad del campo eléctrico vendrá dada por la densidad de líneas de campo. El campo es más
débil en aquellas zonas en las que las líneas de campo están mas espaciadas que en aquellas otras en las
que las líneas de campo están mas cerca unas de otras, que corresponden a campo eléctrico intenso.
Una propiedad importante de las líneas de campo es que no pueden cortarse en ningún punto del
espacio en el que no exista carga ya que esto supondría que en ese punto existirían dos valores del cam-
po con dos direcciones diferentes, lo cual no tendría sentido alguno.
En la figura 9 se muestran las líneas de campo correspondiente a dos cargas puntuales positivas
(a), un dipolo eléctrico (b) y dos cargas una positiva y otra negativa siendo doble la carga positiva (c).
-q q
+ q q + - + 2q + - -q
y y
P P
Z Z
Z
r- r+ Z
r- r+
Z
r rZ
(d/2) cos q
q q q
Z Z
–q r’– r’+ q x –q x
(d/2) cos q
d d
Supongamos dos cargas q y -q separadas una distancia d (fig. 10). Consideremos un sistema de
referencia en el que el eje x coincide con la línea que une ambas cargas y cuyo origen se encuentra en
el punto medio entre ellas. Los vectores de posición de ambas cargas r´+ y r´– (puntos fuente) serán:
r d r d
r '+ = i$ r ' – = – i$ (28)
2 2
Supongamos un punto P cuya posición en el espacio viene dada por r (punto campo). El campo
eléctrico en dicho punto será:
r r r r
r q æ ö
ç (rr – rr '+ ) – (rr – rr ' – ) ÷
E (r )= ç 3 ÷
(29)
4pe 0 è | r – r '+ | 3
| r – r '– | ø
r r d xd
| r – r ' – |= r+ cos q = r+ (31)
2 2r
De esta expresión, utilizando el desarrollo del binomio y despreciando los términos de segundo
orden, se obtiene que:
r r æ 3xd ö
| r – r '+ |3 = r 3ç1– 2 ÷ (32)
è 2r ø
r r æ 3xd ö
| r – r ' – |3 = r 3ç1+ 2 ÷ (33)
è 2r ø
r q æ 3xd r ö
E= ç 2 r – di$ ÷ (37)
4pe 0 r è r
3
ø
qd æ 3xy ö
Ey = ç ÷ (39)
4pe 0 r è r 2 ø
3
r qd
E= ( 2cos qr$ +sen qq$ ) (40)
4pe 0 r 3
En las expresiones (37) y (40) vemos que la carga q y la distancia entre las cargas aparecen como el
producto
r qd al que se le denomina momento dipolar. Más concretamente, se define el momento dipo-
lar p de un dipolo como un vector dirigido desde la carga negativa a la positiva y de módulo igual al
producto de la carga por la distancia entre ellas. En nuestro caso:
r
p = pi$ = qdi$ (41)
El estudio que acabamos de hacer es válido para cualquier plano que contenga el eje dipolar, por
lo que el campo no puedertener ninguna componente perpendicular a cualquiera de dichos planos. Por
r posición tridimensional, si el ángulo q es
tanto, el vector posición r puede identificarse con el vector
el ángulo formado por este vector y el momento dipolar p.
La expresión (40) la podemos escribir en función del momento dipolar si tenemos en cuenta que
este puede escribirse, en coordenadas polares como:
r
p = qd cos qr$ – qd sen qq$ (42)
r
Si además tenemos en cuenta que p cos q = p×r$, se tiene finalmente que:
r 3( pr ×r$ )$r – pr
E= (44)
4pe 0 r 3
Un aspecto importante del campo creado por un dipolo es que decrece con la distancia en la for-
ma 1/r3 y por tanto lo hace más rápidamente que el campo creado por una carga puntual, que lo hace
en la forma 1/r2. Esto es debido a que los campos producidos por ambas cargas se neutralizan entre
ellos a distancias mayores que d = p/q.
5. LEY DE GAUSS
La ley de Gauss es otra manera de expresar la ley de Coulomb de interacción entre cargas eléctri-
cas estáticas, por lo que se trata de una de las leyes fundamentales del electromagnetismo. Ambas leyes
son consecuencia de que la fuerza eléctrica sea inversamente proporcional al cuadrado de la distancia,
proporcional a las cargas y dirigida en la dirección que une dichas cargas. En los campos eléctricos que
resultan de cargas estáticas o que se mueven lentamente, la ley de Coulomb y la ley de Gauss son equi-
valentes. Sin embargo, la ley de Gauss es más general, pues es aplicable a cargas que se mueven rápida-
mente o a cargas aceleradas. En consecuencia, dado que su campo de validez es más amplio, la ley de
Gauss es generalmente más útil que la ley de Coulomb.
Por otra parte, además de ser más elegante, la ley de Gauss es más fácil de aplicar que la ley de
Coulomb, en muchas ocasiones. En especial, en aquellas situaciones en las que existe una gran sime-
tría en la distribución de carga en la que estamos interesados.
Como paso previo al estudio de esta ley vamos a introducir un concepto que es necesario, el de flu-
jo eléctrico. Posteriormente, veremos algunos ejemplos que nos mostrarán su utilidad y fácil manejo.
En la definición anterior existe el inconveniente de la elección del sentido del vector unitario
normal a la superficie. Ahora bien, si la superficie total es una superficie cerrada tal ambigüedad de-
saparece, ya que por convenio, se elige el vector unitario normal a una superficie de manera que
apunte hacia el exterior de la misma.
Para calcular el flujo de un campo vectorial sobre una superficie finita debemos sumar los flujos
elementales sobre cada una de las superficies infinitesimales en que podemos dividir dicha superfi-
cie. Matemáticamente este flujo se expresa como:
r r
F= òS E ×dS (47)
Tal como vimos en el apartado de las líneas de campo eléctrico, la intensidad del campo eléctri-
co es proporcional al número de líneas de campo que atraviesa la unidad de superficie, por lo que el
flujo eléctrico que atraviesa una superficie es proporcional al número de líneas de campo que pasa a
través de dicha superficie.
n q E
Z
^
5.2. Ley de Gauss para el campo eléctrico
dS
Supongamos una carga puntual q y calculemos el flujo del campo
eléctrico que crea dicha carga a través de una superficie cerrada arbitra-
ria S que encierra a la carga (fig. 11). Según la ley de Coulomb el campo dW
eléctrico en cada uno de los puntos de la superficie viene dado por: O q
r 1 q
E= r$ (49)
4pe 0 r 2
Figura 11. Superficie
siendo r la distancia desde la carga a cada uno de los puntos de la super- gaussiana que encierra
ficie. una carga puntual q.
Sustituyendo esta expresión en la definición de flujo dada por (48), se tiene que el flujo eléctrico
a través de la superficie es:
r r q dS cos q
F E = òSE ×dS = ò (50)
4pe 0 S
r2
r
Ahora bien, dS cos q/r2 es el ángulo sólido dW subtendido por el elemento de superficie dS visto des-
de la carga q. Además, el ángulo sólido que subtiende cualquier superficie cerrada vista desde un pun-
to de su interior es 4p, es decir:
dS cos q
ò S
r2
= ò dW = 4p (51)
^n1 q1 Z
dW1 = - dW2 dS1 E1
dW1
Z
E2
dS2
dW2 q2
^
n2 Figura 12. Superficie gaussiana que
q no encierra ninguna carga eléctrica
O en su interior.
Si en el interior de una superficie cerrada S arbitraria hay varias cargas qi, como los campos crea-
dos por cada una de ellas por separado son independientes, podemos aplicar el razonamiento expues-
to anteriormente al flujo eléctrico total que atraviesa dicha superficie:
r r æN r ö r N
r r N
qi
çå E i ÷×dS = å òSE i ×dS = å e
F E = òSE ×dS = òSç ÷ (53)
è i= 1 ø i= 1 i= 1 0
Los resultados encontrados anteriormente constituyen la ley de Gauss, que podemos enunciar como:
El flujo eléctrico a través de una superficie cerrada que encierra un conjunto de cargas qi
es igual a:
q
FE = (54)
e0
en donde q = å
N
q i es la carga neta en el interior de la superficie.
i= 1
Si en el interior de la superficie no hay cargas, o si la carga neta es cero, el flujo eléctrico a través
de ella es cero.
La ley de Gauss establece que las cargas eléctricas son las fuentes o sumideros del flujo eléctrico
y de las líneas de campo. Si en el interior de una superficie cerrada no hay fuentes ni sumideros, el
mismo número de líneas de campo que entran en la superficie es igual al número de líneas que salen
de ella, y por tanto el flujo eléctrico es cero. Si en el interior de una superficie cerrada hay fuentes
(cargas positivas), el número de líneas de campo que sale de la superficie es mayor que el que entra, y
el flujo eléctrico será positivo. Si en el interior hay sumideros de líneas de campo (cargas negativas)
el número de líneas que entran es mayor que el de líneas que salen de la superficie, y por tanto el flujo
eléctrico será negativo. Si la superficie encierra cargas positivas y negativas, el flujo es proporcional
a la carga neta encerrada por la superficie.
z
5.3.1. Campo próximo a una distribución lineal Z
B1 dS
de carga
Supongamos una carga distribuida a lo largo de una línea muy
larga de densidad lineal de carga uniforme l, como puede ser una car-
C
ga distribuida en un alambre largo y estrecho como el mostrado en la Z
E
figura 3. El primer paso para determinar el campo eléctrico es elegir
una superficie gaussiana adecuada. Para ello debemos determinar el y
tipo de simetría que tendrá el campo, a partir de la distribución de B2 Z
dS
carga. En primer lugar podemos esperar que en un punto alejado de
los extremos el campo sea perpendicular al alambre, es decir, perpen- x
bre el eje z. El flujo a través de dicha superficie lo podemos expresar como la suma de los flujos a
través de las bases del cilindro B1 y B2 y del flujo a través de la superficie lateral C:
r r r r r r
F= òB E ×dS + òB E ×dS + òC E ×dS (55)
1 2
En cada una de las bases del cilindro, el campo eléctrico es paralelo a la superficie, por lo que el flujo
a través de ellas es nulo. Por otro
r lado,
r en la superficie lateral el campo eléctrico es normal a la super-
ficie, por lo que se tiene que E ×dS = EdS . Por tanto, el flujo dado por (55) queda como:
F= òC EdS (56)
Puesto que el valor del campo eléctrico es el mismo en todos los puntos de la superficie lateral, la inte-
gral anterior se reduce a:
F= òC EdS = E òC dS = ES = E 2prh (57)
Según la ley de Gauss, el flujo es igual a la carga neta encerrada dividida por la permitividad del va-
cío. Esta carga es igual a sS, por lo que se tendrá que:
q
F= 2ES = = sS (61)
e0
Y despejando de la ecuación anterior se tiene que el campo creado por la distribución de carga super-
ficial es:
s
E= (62)
2e 0
Z
E
r0
r y
r
Figura 15. Distribución superficial
de carga sobre una corteza esférica y
superficie gaussiana para el cálculo x
del campo eléctrico.
Para calcular el campo en los puntos interiores a la corteza esférica tomaremos una superficie
gaussiana de radio r menor que el de la distribución (fig. 15). Teniendo en cuenta, que por simetría, el
campo en todos los puntos de la superficie gaussiana es constante y en dirección radial y que la carga
encerrada por dicha superficie es cero, la aplicación de la ley de Gauss nos da:
F= E 4pr 2 = 0 (63)
Para calcular el campo en los puntos exteriores a la corteza esférica tomaremos una superficie
gaussiana de radio r mayor que el de la distribución. Teniendo en cuenta, que por simetría, el campo en
todos los puntos de la superficie gaussiana es constante y en dirección radial y que la carga encerrada
por dicha superficie es toda la carga de la distribución q0, la aplicación de la ley de Gauss nos da:
q0
F= E 4pr 2 = (65)
e0
Y despejando E de la expresión anterior, tenemos que el campo eléctrico en puntos exteriores a una
corteza esférica cargada viene dado por:
q0
E= ( r > r0 ) (66)
4pe 0 r 2
z
Z
E
r0
r y
r
Figura 16. Distribución de carga sobre
x una esfera y superficie gaussiana para el
cálculo del campo eléctrico.
Para calcular el campo en los puntos interiores a la distribución esférica tomaremos una superficie
gaussiana de radio r menor que el de la distribución (fig. 16). Por simetría, el campo en todos los puntos
de la superficie gaussiana es constante y en dirección radial. Por otra parte, si suponemos que la carga se
encuentra uniformemente distribuida, la carga encerrada por dicha superficie es q = q0r3/r03. La aplica-
ción de la ley de Gauss nos da:
q0 r3
F= E 4pr 2 = (67)
e 0 r03
Para calcular el campo en los puntos exteriores a la distribución esférica tomaremos una superficie
gaussiana de radio r mayor que el de la distribución. Teniendo en cuenta, que por simetría, el campo en
todos los puntos de la superficie gaussiana es constante y en dirección radial, y que la carga encerrada
por dicha superficie es toda la carga de la distribución q0, la aplicación de la ley de Gauss nos da:
q0
F= E 4pr 2 = (69)
e0
Y despejando E de la expresión anterior, tenemos que el campo eléctrico en puntos exteriores a una
corteza esférica cargada viene dado por:
q0
E= ( r > r0 ) (70)
4pe 0 r 2
Z
La ley de Gauss también puede aplicarse para deter-
E minar el campo eléctrico en la parte exterior de una superfi-
cie conductora. Consideremos una determinada región de
una superficie conductora. Puesto que el campo eléctrico
es perpendicular a la superficie del conductor, elijamos una
superficie gaussiana en forma de cilindro con caras parale-
las (fig. 19), con una de las caras en el interior del conduc-
tor. Si esta superficie es suficientemente pequeña podre-
mos despreciar los efectos de la curvatura de la superficie
conductora la región considerada, así como las pequeñas
variaciones del campo. Como el campo es cero en el inte-
rior del conductor, el flujo a través de la superficie situada
en el interior del conductor también será cero.
Figura 19. Conductor y superficie
gaussiana elegida justo de su Por otro lado, el campo eléctrico es paralelo a la su-
superficie real para determinar el perficie lateral del cilindro, por lo que el flujo a través de
campo eléctrico en puntos exteriores. esta superficie es cero. Por último, el flujo a través de la su-
perficie plana paralela a la superficie del conductor y situa-
do en el exterior de éste es EnS, siendo En el valor del cam-
po y S el área de dicha superficie. Según la ley de Gauss, el flujo es igual a la carga encerrada por di-
cha superficie dividida por e0. Si llamamos s a la densidad superficial de carga, la carga encerrada por
la superficie gaussiana es sS, por lo que se tiene que:
s
En = (71)
e0
s
En = Et = 0 (72)
e0
z
Ex(x-dx/2,y,z)
Z
E(x,y,z)
dz
dy
dx
Ex(x+dx/2,y,z)
Figura 20. Elemento diferencial
x de volumen para determinar la
y ley de Gauss en forma diferencial.
Comenzaremos por calcular el flujo a través de las superficies normales a la dirección del eje x.
Si el campo en el centro del cubo es:
r
E ( x, y, z ) = E x ( x, y, z )i$ + E y ( x, y, z ) $j + E z ( x, y, z )k$ (73)
el flujo a través de las caras anterior y posterior en la dirección del eje x será, respectivamente:
æ dx ö æ dx ö
dFçx – , y, z ÷= – E xçx – , y, z ÷dydz
è 2 ø è 2 ø
(74)
æ dx ¶E x ö
= –çE x ( x, y, z ) – ÷dydz
è 2 ¶x ø
æ dx ö æ dx ö
dFçx+ , y, z ÷=+E xçx+ , y, z ÷dydz
è 2 ø è 2 ø
(75)
æ dx ¶E x ö
=çE x ( x, y, z )+ ÷dydz
è 2 ¶x ø
Procediendo de forma análoga se encuentra que los flujos a través de las caras perpendiculares a los
ejes y y z vienen dados por:
¶E y
dF y = dxdydz (77)
¶y
¶E z
dF z = dxdydz (78)
¶z
El flujo total a través de toda la superficie será igual a:
æ ¶E x ¶E y ¶E z ö
dF= dF x +dF y +dF z =ç ÷
ç ¶x + ¶y + ¶z ÷dxdydz (79)
è ø
Si tenemos en cuenta que la carga encerrada por la superficie es dq, aplicando el teorema de Gauss, se
tiene que:
æ¶E x ¶E y ¶E z ö dq
ç ÷
ç ¶x + ¶y + ¶z ÷dxdydz = e (80)
è ø 0
¶E x ¶E y ¶E z r
+ + = (81)
¶x ¶y ¶z e0
en donde r es la densidad de carga en el punto del espacio en donde se calculan las derivadas parciales
æ dq ö
del campo eléctricoç r= ÷. La expresión (81) es la forma diferencial de la ley de Gauss.
è dV ø
La ley der Gauss en su forma diferencial puede escribirse de forma más compacta si utilizamos el
vector nabla Ñ definido como:
r ¶ ¶ ¶
Ñ = i$ + $j + k$ (82)
¶x ¶y ¶z
r r r
Ñ×E = (84)
e0
Esta ecuación nos permite encontrar el campo eléctrico en una región del espacio si conocemos el va-
lor de la densidad de carga en dicha región y a su vez las condiciones que el campo E debe cumplir so-
bre ciertas superficies o contornos cerrados del espacio.
Z
r
Figura 21. Carga q0 que se desplaza a lo largo
a de un arco de circunferencia en el seno de un
q campo eléctrico creado por una carga puntual q.
Calculemos el trabajo realizado por una fuerza eléctrica cuando una carga de prueba q0 se mueve en
el campo creado por una carga puntual q, que suponemos fija. Comenzaremos por estudiar la situación
mostrada en la figura 21, en la que la carga de prueba se
r mueve a lo largo de un
r arco de circunferencia con
centro en la carga q. En este caso, la fuerza eléctrica F y el desplazamiento d l son perpendiculares en to-
dos los puntos de la trayectoria entre la posición inicial a y la posición final b, por lo que el trabajo realiza-
do por la fuerza eléctrica es cero:
b r r b r r
òa F ×d l = q 0 òa E ×d l = 0 (85)
Z Z
dl F
a
q0
Figura 22. Carga q0 que se desplaza a Z
qq 0 rb dr qq 0 é 1ùrb
= ò =
4pe 0 r ra r 2 4pe 0 rê
–
ë rúûr
(86)
a
qq 0 æ
ç1 – 1÷
ö
= ç ÷
4pe 0 è ra rb ø
rb b
rc = rd
Figura 23. Carga q0 que se desplaza a lo
q0
largo de una trayectoria a tramos en el q
seno de un campo eléctrico creado por ra a
una carga puntual q. c
Supongamos ahora que la carga q0 se mueve a lo largo de la trayectoria a-c-d-b mostrada en la fi-
gura 23. Analicemos cada uno de los tramos de dicha trayectoria. Los tramos a-c y d-b son radiales,
por lo que el trabajo realizado en cada uno de ellos vendrá dado por la expresión (86). Por otra parte,
el tramo c-d es una trayectoria circular centrada en la carga q, por lo que el trabajo realizado en dicha
trayectoria es cero, según vimos en (85). El trabajo realizado por la fuerza eléctrica a lo largo de toda
la trayectoria será:
b r r c r r d r r b r r
òa F ×d l = òa F ×d l+ òc F ×d l+ òd F ×d l
(87)
qq 0 æ 1 1 ö
ç – ÷+ 0+ qq 0 ç
æ 1 1 ö
÷
= ç ÷ ç – ÷
4pe 0 è ra rc ø 4pe 0 è rd rb ø
Agrupando los términos, y teniendo en cuenta que rc = rd, el trabajo realizado queda como:
r r qq 0 æ
ç1 – 1÷
ö
ò
b
F ×d l = ç ÷ (88)
a 4pe 0 è ra rb ø
Vemos que el trabajo realizado por la fuerza en una trayectoria compuesta de tramos radiales y circu-
lares sólo depende de la posición inicial de la carga ra y de la posición final rb. Este resultado es válido
independientemente del número de tramos radiales y circulares de la trayectoria seguida por la carga
de prueba, puesto que los demás términos se cancelarán.
Para calcular el trabajo realizado por la fuerza eléctrica cuando la carga de prueba se mueve des-
de la posición inicial a a la posición final b a lo largo de una trayectoria cualquiera, descompondre-
mos dicha trayectoria en un número infinito de tramos radiales y circulares infinitesimales, y aplica-
remos el resultado anterior (fig. 24): el trabajo realizado en los tramos circulares es cero, y el trabajo
realizado en los tramos radiales, según hemos visto anteriormente, sólo depende de la posición inicial
y final. Por consiguiente, el trabajo recorrido por la fuerza eléctrica al recorrer una trayectoria cual-
quiera entre a y b es:
r r qq 0 æ
ç1 – 1÷
ö
ò
b
F ×d l = ç ÷ (89)
a 4pe 0 è ra rb ø
q0
q
Figura 24. La trayectoria de una carga q0 que se
desplaza a lo largo de una trayectoria radial en
el seno de un campo eléctrico creado por una
carga puntual q se puede descomponer en un
a número infinito de tramos radiales y circulares.
Este resultado demuestra que el trabajo realizado por la fuerza eléctrica es independiente de la
trayectoria seguida, y por tanto, la fuerza eléctrica es una fuerza conservativa. En realidad, lo que aca-
bamos de demostrar es que la fuerza eléctrica que una carga puntual ejerce sobre otra de prueba es
una fuerza conservativa. Ahora bien, la fuerza producida por cualquier distribución de cargas es la
suma de todas las fuerzas individuales ejercidas por cada una de las cargas sobre la carga de prueba;
es decir, la fuerza producida por una distribución de carga cualquiera puede escribirse como una
suma de términos semejantes a los de la ley de Coulomb. Por consiguiente, podemos concluir que la
fuerza eléctrica es una fuerza conservativa.
De esta definición, observamos que la diferencia de energía potencial es el trabajo que un agente ex-
terno ha de realizar en contra del campo eléctrico para llevar la carga q0 desde la posición a a la posi-
ción b.
r
Si el campo E es el creado por una carga puntual q, llevando la expresión (17) a la definición an-
terior, encontramos que:
b r r rbæ q ö
DU = – q 0 òa E ×d l = – q 0 òr çç r$ ÷
÷×(drr$ )
è 4pe 0 r
2
a
ø
qq 0 dr qq 0 é 1ùrb
ò
rb
=– = ê ú (91)
4pe 0 ra
r 2 4pe 0 ë r ûra
qq 0 æ
ç1 – 1÷
ö
= ç ÷
4pe 0 è rb ra ø
En física, lo único que tiene sentido son las variaciones de energía potencial. Ahora bien, la
ecuación anterior nos sugiere identificar cada uno de los términos con una función de la posición de la
carga, que llamamos energía potencial:
qq 0
U ( r )= +C (92)
4pe 0 r
en donde C es una constante arbitraria. Si hacemos esto, la expresión (91) se escribe como:
DU = U ( rb ) – U ( ra ) (93)
Vemos que la función energía potencial, así definida, está indeterminada en una constante C, y por tanto
no tiene sentido hablar de energía potencial de la carga de prueba en un punto mientras no eliminemos
esa indeterminación. Esto puede hacerse si elegimos un origen de energía potencial; esto es, si asigna-
mos un valor a la energía potencial en una posición determinada del espacio. Por lo general, se suele
asignar una energía potencial nula en aquél punto en que la fuerza que actúa sobre la carga de prueba es
nula; es decir, se suele elegir como origen de energía potencial el infinito, de forma que U (¥) = 0. La
elección de este origen supone que la constante C de la expresión anterior es igual a cero. Suprimida la
indeterminación, podremos hablar de la energía potencial de la carga de prueba como una función defi-
nida unívocamente y cuyo valor en cada punto del espacio viene dado por:
qq 0
U ( r )= (94)
4pe 0 r
Podemos encontrar el significado de la energía potencial de la carga q0 en un punto cualquiera del espa-
cio, si llevamos la elección del origen de energía potencial a la ecuación (91). Si hacemos rb = r y ra = ¥,
la ecuación (91) queda como:
r r r
U ( r ) = – ò¥ F ×d l (95)
De esta ecuación se tiene que la energía potencial U(r) de la carga de prueba q0 es igual al trabajo que
un agente externo debe realizar en contra del campo creado por la carga q para llevar la carga q0 des-
de el infinito a una posición separada una distancia r de la carga q.
A continuación vamos a ver cómo podemos determinar la fuerza o el campo eléctrico en cual-
quier punto del espacio a partir de la energía potencial eléctrica. De la expresión (90) se tiene que:
r r
dU = – F ×d l (96)
Comparando ahora la ecuación (97) con la ecuación (98), vemos que las componentes de la fuerza se
relacionan con la energía potencial por:
¶U ¶U ¶U
Fx = – Fy = – Fz = – (99)
¶x ¶y ¶z
Por tanto, si conocemos la función energía potencial podemos determinar inmediatamente las com-
ponentes de la fuerza y del campo eléctrico.
La relación entre la fuerza y la energía potencial se puede expresar de forma más compacta en
función del operador nabla. Para ello, escribamos la fuerza en forma vectorial, utilizando las relacio-
nes dadas por (99):
r ¶ U $ ¶ U $ ¶U $ æ¶ ¶ ¶ ö
F=– i– j– ç i$ + $j + k$ ÷
k = –ç ÷U (100)
¶x ¶y ¶z è ¶x ¶y ¶z ø
Si ahora tenemos en cuenta la definición del operador nabla dada por (82), obtenemos finalmente
que:
r r
F = – ÑU (101)
DU = – q 0 òa E ×d l = – q 0 òr çç å Ei ÷
÷×d l
a
è i= 1 ø
(102)
N
r r
= – q 0 å òa
b
E i ×d l
i= 1
Mediante un proceso análogo al seguido anteriormente en el caso de una carga puntual, y toman-
do como origen de energía potencial el infinito (U (¥) = 0), obtenemos que:
r r r b r r
N
U ( r ) = – ò¥ F ×d l = – q 0 å ò¥ E i ×d l (103)
i= 1
Si ahora tenemos en cuenta la expresión del campo creado por una carga puntual y lo sustituimos en
la ecuación anterior, integrando se tiene que:
N
q0 qi
U ( r )=
4pe 0
år (104)
i= 1 i
en donde ri es la distancia de la carga de prueba q0 a cada una de las cargas qi del sistema que produce
el campo.
La expresión (104) nos da la energía potencial de la carga de prueba q0 en el seno de un campo
eléctrico creado por un conjunto de cargas puntuales qi. Su significado lo encontramos a partir de
(103):
Esta energía potencial es el trabajo que un agente externo ha de realizar en contra del
campo para traer la carga q0 desde el infinito a una posición en el espacio tal que la distan-
cia al conjunto de cargas qi viene dada por ri.
en donde r13 y r23 son las distancias de la carga q3 a las cargas q1 y q2, respectivamente.
El trabajo total que hay que hacer para configurar el sistema es la suma de los trabajos que hemos
encontrado en cada uno de los procesos anteriores:
1 æ ö
ç q1 q2 + q1 q3 + q2 q3 ÷
U = U 12 +U 13 +U 23 = ç ÷ (107)
4pe 0 è r12 r13 r23 ø
Este resultado lo podemos generalizar para el caso de un sistema de N cargas qi, y la energía po-
tencial del sistema de cargas viene dada por:
N N
1 qi q j
U=
4pe 0
åå rij
(108)
i= 1 j> i
en donde rij es la distancia entre las cargas qi y qj. En la expresión anterior vemos que el sumatorio se
extiende a cada pareja de cargas del sistema, de ahí la restricción que j > i. Esta expresión es equiva-
lente a:
N N
1 1 qi q j
U=
2 4pe 0
åå rij
(109)
i= 1 j= 1
j¹ 1
en donde el factor 1/2 se introduce para no contabilizar dos veces la contribución que cada pareja de
cargas hace a la suma total.
El campo eléctrico es por tanto una magnitud que depende exclusivamente de la distribución de carga
que lo produce y no depende de la carga de prueba q0 utilizada para detectarlo.
Podemos proceder de forma análoga con la energía potencial de una carga de prueba en el seno
del campo creado por una distribución de carga. Como hemos visto en el apartado anterior, la ener-
gía potencial de la carga q0 es proporcional a su valor, se define el potencial eléctrico como la ener-
gía potencial de la carga de prueba por unidad de carga; es decir, el potencial eléctrico V se define
como:
U
V= (110)
q0
N
1 qi
V ( r )=
4pe 0
år (111)
i= 1 i
donde ri es la distancia del punto donde se calcula el potencial a cada una de las cargas qi de la distri-
bución.
En el caso más simple de que la distribución de cargas se reduce a una sola carga q, el potencial
en un punto del espacio viene dado por:
q
V ( r )= (112)
4pe 0 r
r
en donde r determina la posición del punto donde calculamos el potencial y r' determina la posición
del elemento de volumen que contiene la carga dq'.
Esta expresión se puede escribir de forma más conveniente en función de la densidad de carga de
la distribución, como:
1 rdV '
V=
4pe 0
ò
V
r r
| r – r' |
(114)
Conocido el potencial en cualquier punto del espacio, a partir de la definición de potencial dada
por (110), es inmediato calcular la energía potencial de cualquier carga q’ (respecto a su energía en el
infinito que tomamos cero):
U = q'V (115)
A menudo es frecuente calcular energías multiplicando una carga por un potencial. Puesto que la
unidad de carga e, que es la carga del electrón o protón, es utilizada asiduamente, es interesante intro-
ducir una unidad de energía igual a la carga del electrón por 1 voltio. Esta unidad de energía, muy útil
en física atómica y nuclear, se denomina electrón-voltio (eV), y corresponde a la energía ganada por
un electrón cuando es acelerada a través de una diferencia de potencial de un voltio:
Expresión que podemos escribir en función del potencial en los puntos inicial y final como:
b r r
Vb – Va = – òa E ×d l (118)
r
Ñ 2V = – (121)
e0
¶ 2V ¶ 2V ¶ 2V r
Ñ 2V = + 2 + 2 =– (122)
¶x 2
¶y ¶z e 0
En el caso particular de una región en donde hay fuentes del campo eléctrico r = 0, la ecuación ante-
rior se reduce a la ecuación de Laplace:
¶ 2V ¶ 2V ¶ 2V
Ñ 2V = + + =0 (123)
¶x 2 ¶y 2 ¶ z 2
La teoría clásica de campos, al menos desde el punto de vista matemático, trata fundamental-
mente del estudio de las soluciones de la ecuación de Laplace, soluciones que reciben el nombre de
funciones armónicas. Se puede demostrar que si se especifica el valor del potencial en todos los pun-
tos de las fronteras de una región, entonces la solución de la ecuación de Laplace es única (teorema de
unicidad). Este teorema es de gran importancia práctica puesto que si de alguna manera podemos en-
contrar un potencial que satisfaga la ecuación de Laplace y las condiciones de frontera, sabemos que
esta solución es la correcta pues es la única posible. En muchos casos prácticos es imposible expresar
de forma simple, en ningún sistema de coordenadas, las condiciones de frontera, por lo que la resolu-
ción de la ecuación de Laplace ha de hacerse por métodos gráficos o bien numéricamente.
Si comparamos la expresión encerrada entre paréntesis con la expresión (111) del potencial creado
por una distribución de carga, observamos que dicho término corresponde al potencial, en el sistema
sin modificar, debido a todas las cargas excepto qi en el punto ocupado por esta:
N
1 qj
Vi =
4pe 0
år (125)
j= 1 ij
j¹ i
Reemplazando la expresión entre paréntesis de la ecuación (124) por Vi, se tiene para la energía po-
tencial:
N
1
U= åq V
2 i= 1 i i
(126)
Esta expresión se puede extender para una distribución continua de carga eléctrica, de densidad r,
sustituyendo qi por rdV´ y el sumatorio por una integral. Haciendo esto, tenemos que:
1
U= ò VrdV '
2 V'
(127)
en esta expresión es importante no confundir el potencial eléctrico V con el volumen V´ que encierra a
la distribución continua de carga.
La ecuación de Poisson nos relaciona el potencial con la densidad de carga en cada punto del es-
pacio. Despejando la densidad de carga en la ecuación de Poisson:
r = – e 0 Ñ 2V (128)
La primera integral del segundo miembro la podemos transformar utilizando el teorema de la diver-
gencia en una integral extendida a la superficie S´ que limita el volumen V´:
e0
U=–
2
[ò S'
]
(VÑV ) dS ' – òV ' ( ÑV ) 2 dV ' (133)
Puesto que V´ es un volumen cualquiera que encierra a la distribución continua de carga podemos ele-
girlo de forma que S´ esté muy alejada de la distribución. V decrece al menos como 1/r y ÑV lo hace
como 1/r2. Puesto que la superficie crece como r2 la primera integral de la expresión anterior decrece
como 1/r y por tanto se puede hacer arbitrariamente pequeña tomando S´ lo suficientemente alejada.
En consecuencia, la ecuación (133) se reduce a:
e0
U=
2
ò V'
( ÑV ) 2 dV ' (134)
r r
Por último, si tenemos en cuenta que E = – ÑV , nos queda finalmente que:
e0
U=
2
ò
V'
E 2dV ' (135)
Esta ecuación indica que la energía asociada a una distribución continua de carga, es decir, la energía
necesaria para reunirla, partiendo de que se encuentra en un volumen en el infinito, se puede calcular
asociando a cada punto del campo una densidad de energía dada por:
dU e 0 2
= E (136)
dV ' 2
Esta expresión de la energía asociada a los puntos del campo es válida incluso para el caso de campos
variables. En la presencia de medios dieléctricos el factor e 0 2es diferente, pero la densidad de ener-
gía es proporcional al cuadrado del campo eléctrico.
BIBLIOGRAFÍA
20
Corriente eléctrica. Circuitos
de corriente continua.
Conservación de la energía:
ley de Ohm. Utilización
de polímetros
ÍNDICE SISTEMÁTICO
1. CORRIENTE ELÉCTRICA
1.1. Densidad de corriente
1.2. Ley de conservación de la carga: ecuación de continuidad
4. CIRCUITOS ELÉCTRICOS
4.1. Fuerza electromotriz
4.2. Las reglas de Kirchhoff
4.2.1. Análisis de circuitos
4.3. Circuitos equivalentes
4.3.1. Teorema de Thévenin
4.3.2. Teorema de Norton
5. POLÍMETROS
5.1. Amperímetros
5.2. Voltímetro
5.3. Ohmímetro
BIBLIOGRAFÍA
1. CORRIENTE ELÉCTRICA
La corriente eléctrica es el flujo de cargas en una determinada región del espacio. Aunque usual-
mente asociamos una corriente eléctrica al flujo de cargas en un conductor o en un determinado mate-
rial de un circuito, cualquier flujo de cargas determina una corriente eléctrica, como por ejemplo, el
haz de electrones en un tubo de televisión.
Se define la corriente eléctrica o intensidad de la corriente eléctrica I como la cantidad neta de car-
ga transportada a través de un área determinada por unidad de tiempo. Si suponemos que la carga que
atraviesa la superficie en un intervalo de tiempo Dt es DQ, la corriente promedio áIñ viene dada por:
DQ
I = (1)
Dt
Si la corriente cambia con el tiempo, definimos la corriente instantánea I tomando el límite cuando
Dt ® 0:
DQ dQ
I = lim = (2)
Dt® 0 Dt dt
Si la partícula puede moverse libremente adquirirá una aceleración, que según la segunda ley de
Newton será:
r
r F
a= (4)
m
siendo m la masa de cada partícula cargada. Por tanto, en ausencia de cualquier restricción, la velocidad
de la partícula aumentará indefinidamente con el tiempo (u = at) debido a que el campo eléctrico es
constante. Sin embargo, por regla general, tal y como pasa en los conductores sólidos, líquidos o gaseo-
sos, las partículas comisionan sucesivamente con otras partículas, perdiendo así parte de su energía ci-
nética que se transforma en energía térmica, a la vez que tienen lugar cambios aleatorios en la dirección
de su movimiento. Si el campo eléctrico es constante y el medio es homogéneo, el efecto neto de los
choques es limitar la velocidad de la partícula cargada a una velocidad promedio constante denominada
velocidad de arrastre o de deriva ud paralela al campo eléctrico.
dV
Z
E +
+
Z
v q
^
n
+
+ +
+ + Figura 2. Desplazamiento de
partículas cargadas en el
+ seno de un campo eléctrico.
Calculemos ahora el flujo de cargas a través de una superficie A. Puesto en un intervalo de tiempo dt
las partículas se desplazan una cantidad igual a uddt, esto significa que todas las partículas que se encuen-
tren en el interior del volumen dV de la figura 2 atravesarán dicha superficie en ese intervalo de tiempo. Si
llamamos q al ángulo formado por el vector normal a la superficie con la velocidad ud, el elemento de vo-
lumen será igual a dV = Auddt cosq. La carga total en ese volumen es dQ = nqdV = nqAuddt cosq; y por
consiguiente, la corriente eléctrica a través de la superficie A es:
dQ
I= = nqu d A cos q (5)
dt
r
Si tenemos en cuenta ahora que u d × An$ = u d A cos q, siendo n$ el vector unitario en la dirección per-
pendicular a la superficie, la expresión anterior la podemos escribir en forma vectorial como:
r
I = ( nqu d )×( An$ ) (6)
r
Se define la densidad de corriente J como:
r r r
J = nqu d = r q u d (7)
Si la corriente eléctrica es debida al flujo de varios tipos de portadores de carga, si denominamos por
ni su densidad, qi su carga y udi su velocidad de arrastre, la densidad de corriente vendrá dada por:
r N
r
J = å n i q i u di (10)
i= 1
En el caso en que tengamos sólo dos tipos de portadores de carga, la ecuación anterior se reduce a:
r r r
J = n1 q1 u d 1 + n2 q2 u d 2 (11)
Si estos portadores tienen cargas de signo opuesto, se moverán en el campo en direcciones opuestas
también, por lo que los dos términos de la ecuación anterior llevarán la misma dirección. En conse-
cuencia, vemos que la definición que hemos hecho de densidad de corriente está de acuerdo con el he-
cho experimental de que los efectos de una corriente de portadores positivos moviéndose en una de-
terminada dirección son los mismos que el de una corriente de portadores negativos con igual carga
moviéndose en dirección opuesta con la misma velocidad.
Es evidente que, en el caso en que se tenga una corriente estacionaria la corriente de entrada y la de sa-
lida deben ser iguales, por lo que la integral anterior ha de hacerse cero. Ahora bien, si la densidad de
corriente varía con el tiempo, puesto que en el interior del volumen no se puede crear carga, la varia-
ción entre la corriente de entrada y la de salida ha de ser igual a la disminución de la carga en el inte-
rior del volumen. En consecuencia, se tiene que:
r r ¶q
òA
J ×dA = –
¶t
(13)
Veamos cómo podemos escribir esta ecuación en una forma más compacta. Por un lado, si denomina-
mos r a la densidad de carga en el volumen, la variación de la carga la podemos expresar en función
de la densidad como:
¶q
–
¶t
=–
¶
¶t
(ò rdV ) = – ò ¶¶qt dV
V V
(14)
Llevando las expresiones (14) y (15) a (13), y agrupando términos, obtenemos que:
æ r r ¶r ö
ò çèÑ×J + ¶t ÷ødV = 0
V
(16)
r r ¶r
Ñ×J + = 0 (17)
¶t
Cualquier función vectorial cuya divergencia es igual a cero se dice que es solenoidal. Es por
esto por lo que decimos que la corriente estacionaria es solenoidal.
V
R= (19)
I
La resistencia eléctrica es una medida de la oposición que ejerce un trozo de material al flujo de
carga a través de él. En los materiales con mayor resistencia, una misma diferencia de potencial pro-
duce un flujo de cargas menor que en los materiales de menor resistencia. La unidad de resistencia en
el sistema internacional es el ohmio (W) que es igual a la resistencia de un material por la que circula
una corriente de un amperio (A) cuando la diferencia de potencial es un voltio (V):
V
1W = 1 (20)
A
El nombre de ohmio dado a la unidad de resistencia es en honor de George Simon Ohm (1787- 1854) que
fue el primero en estudiar sistemáticamente la relación entre la diferencia de potencial aplicada a un
conductor y la corriente que fluye por él. En 1826 publicó los resultados de sus investigaciones expe-
rimentales que establecían que para una gran variedad de materiales, entre los que se incluían la ma-
yoría de los metales, la resistencia era constante en un gran rango de diferencias de potencial. Esta
afirmación constituye la ley de Ohm, y que tradicionalmente se escribe como:
V = RI (21)
V
No-óhmico
Óhmico
Por tanto, la resistividad puede expresarse para una muestra de material de sección homogénea A y de
longitud L como:
A
r= R (25)
L
Material r (W · m) a (K–1)
La unidad de conductividad es el recíproco del ohmio por metro y se representa como (w · m)–1 o bien
también se escribe como mho · m–1, o como Ém–1.
Esta expresión nos relaciona el módulo de la densidad de corriente con el módulo del campo eléctri-
co. Si ahora hacemos que el volumen de forma cúbica tan pequeño como se quiera encontraremos una
relación puntual entre la densidad de corriente y el campo, que la podemos escribir en forma vectorial
como:
r r
J = sE (32)
Esta relación nos dice que la densidad de corriente es paralela al campo eléctrico lo que es cierto en el
caso de que tengamos un material isótropo y homogéneo como el que hemos considerado. En el caso
en que exista alguna dirección espacial privilegiada en el sólido, la conductividad escalar s habría
que sustituirla por un tensor.
Puesto
r que suponemos que un electrón surge de una colisión en una dirección aleatoria, el valor
medio de u 0 será cero. Por lo que resulta que:
r r
r eE eE
u =– t =– t (35)
m m
Ahora bien, el promedio de t es el tiempo de relajación o tiempo libre medio t. Por lo tanto se tiene
que:
r
r eE
u =– t (36)
m
ne 2 t
s= (38)
m
De la expresión (36) vemos que el valor medio del vector velocidad de los electrones es un vec-
tor paralelo al campo eléctrico. Esta velocidad es la velocidad de arrastre:
r
r r eE
ud = u = – t (39)
m
Los valores típicos de esta velocidad de arrastre son de 10–4. Si tenemos en cuenta que los valo-
res típicos de la velocidad u0 son del orden de 106, el módulo de la velocidad de un electrón es aproxi-
madamente igual a la velocidad de salida de la colisión áuñ áuoñ. En consecuencia, el tiempo de rela-
jación de los electrones será independiente del campo eléctrico aplicado al material. Puesto que en la
expresión de la conductividad encontrada según el modelo de Drude, dada por (38), todos los factores
son independientes del campo eléctrico aplicado resulta que el modelo satisface la ley de Ohm.
La conductividad también puede expresarse en función de otro parámetro que tiene gran interés,
que de nominamos camino libre medio l, y viene dado por:
l= u 0 t (41)
El camino libre medio es por tanto el espacio medio recorrido por un electrón entre dos colisiones
consecutivas. En función del camino libre medio, la conductividad se expresa como:
ne 2
s= l (42)
m u0
El modelo de Drude es un modelo bastante simple, por las hipótesis simplificadoras que comen-
tamos al principio. Por otro lado, las leyes que describen el comportamiento de un electrón en un me-
tal no son leyes clásicas como la segunda ley de Newton, sino que han de aplicarse las leyes de la me-
cánica cuántica.
Una cuarta banda indica el límite superior de la desviación estándar porcentual (denominado to-
lerancia) del proceso de fabricación. En la tabla 2 se dan estos códigos de colores.
Negro 0
Marrón 1
Rojo 2
Naranja 3
Amarillo 4
Verde 5
Azul 6
Violeta 7
Gris 8
Blanco 9
Oro 5%
Plata 10%
Ninguno 20%
R1 R2 R3 R4 RN
Figura 7. Asociación de N V1 V2 V3 VN
resistencias en serie.
V = åVi = I å R i = IR 0 (44)
i= 1 i= 1
R0 = å Ri (45)
i= 1
V
– Resistencias en paralelo. Supongamos una combinación de R1
N resistencias Ri en paralelo como se muestra en la figura 8. I1
Por cada una de ellas circulará una corriente Ii, que según la R2
ley de Ohm vendrá dada por: I2
R3
V I I
Ii = (46) I3
Ri R4
La corriente que entra por un extremo de la combinación de
resistencias ha de ser igual a la suma de las que circulan por
cada resistencia. Por consiguiente, se ha de cumplir que en ré- IN
gimen estacionario: RN
N
Sustituyendo en esta expresión el valor de la corriente Ii dado por (46) se tiene que:
N
1 V
I =V å = (48)
i= 1
Ri R0
Z L
E
DQ
DQ Ab
Aa Figura 9. Carga que entra y sale en
Vb
Va una porción de conductor en un
determinado intervalo de tiempo.
Esta energía potencial perdida es la que se transforma en energía cinética antes de que sea trans-
mitida al conductor en forma de energía térmica.
La energía perdida por unidad de tiempo, que es la potencia disipada en el conductor, vendrá
dada por:
DU DQ
P= – =V (52)
Dt Dt
Si tenemos en cuenta que la corriente que atraviesa el conductor es I = DQ/Dt, la potencia disipada,
que ha de ser igual a la potencia que ha de suministrarse para que se produzca el movimiento de car-
gas, es:
P = VI (53)
Este resultado se conoce como ley de Joule, y es un resultado general que es independiente del tipo de
material y de la naturaleza de los portadores de carga. La unidad de potencia en el SI es el vatio (W), por
tanto, según la expresión anterior:
J
1W = 1 = 1V×A
s
V2
P= (54)
R
O también:
P = I 2R (55)
Las expresiones (53), (54) y (55) nos proporcionan la potencia disipada en un conductor, y el uso de una
u otra depende del problema a tratar y de las variables que se conozcan. Las tres expresiones correspon-
den a la energía disipada en forma de calor debida a las colisiones de los portadores de carga en el inte-
rior del conductor, efecto que se conoce como calentamiento Joule, calentamiento óhmico o calenta-
miento I2R.
4. CIRCUITOS ELÉCTRICOS
Un circuito eléctrico es un conjunto de resistencias y condensadores (y otros elementos) unidos
mediante hilos conductores. En nuestro estudio nos limitaremos al caso en que la corriente circula
continuamente en una dirección; es decir, nos limitaremos al estudio de los circuitos de corriente con-
tinua (DC).
El flujo de corriente en los circuitos puede entenderse si aplicamos dos principios básicos: la
conservación de la carga y la conservación de la energía. En estos principios se fundamentan las dos
leyes enunciadas por Gustav Robert Kirchhoff (1824-1887) que constituyen la base para el análisis
de los circuitos de corriente continua. No obstante, estas leyes se pueden generalizar para estudiar
aquellos casos en que las condiciones varían de forma periódica (circuitos de corriente alterna, circui-
tos AC), o para estudiar los efectos transitorios en los circuitos.
En esta sección vamos a estudiar las leyes de Kirchhoff y las aplicaremos para estudiar algunos
circuitos elementales de corriente continua.
r r
e = òCE'' ×dl = òT
T+
E'' ×dl (57)
–
en donde
r T– y T+ corresponden a los terminales negativo y positivo de la batería. Obviamente, el cam-
r
po E'' que debe suministrar continuamente a las cargas la energía suficiente para vencer al campo E'
no es un campo conservativo y por tanto no puede deducirse a partir de una función energía potencial.
r
Esta expresión la podemos escribir en función del campo total E como:
T+ r r
V = e – òT E ×d l (59)
–
Esta expresión nos muestra que cuando se establece una corriente en el circuito la fem de la batería es
mayor que la diferencia de potencia entre sus terminales.
Veamos a continuación como podemos determinar el valor de la fuerza electromotriz de la bate-
ría. Si hacemos que la resistencia del conductor exterior sea muy grande o en el límite que sea infinita
(lo que es equivalente a desconectar el hilo conductor
r de uno de los terminales) la corriente por el cir-
cuito será cero. En este caso, el campo reléctrico E'' irá
r almacenando carga en los terminales de la ba-
tería hasta que el campo electrostático E' equilibre a E''. En estas condiciones, el campo total en el in-
terior de la batería será cero, por lo que de la expresión (59) se tendrá que:
V=e Si I = 0 (60)
Es decir que en circuito abierto la diferencia de potencial entre los terminales de la batería es igual a la
fuerza electromotriz, mientras que cuando circula corriente en el circuito, según (60), la diferencia de
potencial es menor que la fuerza electromotriz de la batería.
Podemos definir una resistencia interna de la batería, r, de manera que la potencia
r disipada por el
paso de una corriente I sea Pr = I2r. Como esta potencia procede del campo eléctrico E total en la bate-
ría, debe ser igual al trabajo realizado por éste en cada segundo:
T+ r r
Pr = I 2 r = I òT E ×d l (61)
–
T–
E ×d l = Ir (62)
V = e – Ir (63)
Pe = Ie (64)
– Regla de las mallas. La regla de las mallas establece que la suma de las diferencias de po-
tencial a lo largo de cualquier camino cerrado (denominado malla) de un circuito es cero.
Matemáticamente la podemos expresar como:
åV = 0 (67)
malla
Puesto que el potencial está relacionado directamente con la energía potencial eléctrica de
los portadores de carga, la regla de las mallas no es más que una forma de expresar el prin-
cipio de conservación de la energía.
– Regla de los nudos. Un nudo es un punto de un circuito donde confluyen más de dos con-
ductores. La regla de los nudos establece que la suma de las corrientes que entran en un
nudo es igual a la suma de las corrientes que salen de él. Si consideramos que las corrientes
que entran en un nudo son negativas y las que salen positivas, la regla de los nudos puede
escribirse como:
åI = 0 (68)
nudo
Puesto que la carga no se puede acumular en ningún punto del circuito, la regla de los nudos
no es más que una forma de expresar la ley de conservación de la carga eléctrica.
carga van desde el terminal negativo al positivo, la batería suministra potencia al circuito, y por tanto su
fuerza electromotriz ha de tomarse positiva. Si la corriente es en sentido tal que los portadores de carga
positivos, en el interior de la batería, van desde el terminal positivo al negativo, la batería está absor-
biendo energía del circuito y por tanto su fuerza electromotriz ha de considerarse negativa.
Existen tres métodos para realizar el análisis de un circuito mediante las reglas de Kirchhoff, que
conducen, obviamente, a los mismos resultados: análisis por ramas, por mallas y por nudos.
Para describir estos tres tipos de análisis consideremos el circuito de la figura 11, que contiene
cuatro nudos y seis ramas. Nuestro objetivo es determinar las corrientes que pasan por cada rama del
circuito, suponiendo conocidas las fuerzas electromotrices presentes en el mismo. Necesitaremos por
tanto seis ecuaciones independientes.
Rb 1 Rc
Ib Ic
Id
ed
I2 I3
Rd
Ib
Rf Id Re Ic
4
2 3
If If Ie Ie
Ia
Figura 11. Análisis de un I1 Ia
circuito mediante las reglas de
Kirchhoff. Ra ea
En el análisis por ramas se parte de las ecuaciones que nos proporciona la aplicación de la regla
de los nudos. Haciendo esto a los nudos marcados como 1, 2 y 3, se tiene que:
Nudo 1 I d +I c – I b = 0
Nudo 2 I b +I f – I a = 0 (69)
Nudo 3 I e +I a – I c = 0
Podríamos escribir una cuarta ecuación para el nudo 4 Id + Ie + If = 0, pero esta ecuación no es inde-
pendiente de las otras tres, ya que se puede obtener sumando aquellas. En general, si tenemos N nu-
dos, la regla de los nudos nos proporciona N-1 ecuaciones independientes.
Puesto que tenemos tres ecuaciones y seis incógnitas necesitamos obtener otras tres ecuaciones
independientes para resolver el problema. Estas ecuaciones las obtendremos aplicando la regla de las
mallas a las señaladas en la figura. Haciendo esto, se tiene que:
Malla 1 I f R f +I a Ra – I e Re = ea
Malla 2 I d Rd +I b Rb – I f R f = ed (70)
Malla 3 I d Rd +I e Re – I c Rc = ed
Al igual que antes, puede comprobarse que la ecuación correspondiente a cualquier otra malla posi-
ble se puede obtener como la suma de dos o tres de las ecuaciones anteriores. Estas tres ecuaciones
junto con las tres ecuaciones anteriores nos permiten obtener los valores de las corrientes por cada
una de las ramas del circuito.
Para obtener las tensiones en cualquier nudo, basta con fijar un nudo de referencia (normalmente
los conectados a tierra, potencial cero) y calcular las diferencias de potencial entre cada nudo y este
nudo de referencia. Así, como el nudo 4 está conectado a tierra V4 = 0, y los potenciales en los demás
nudos vienen dados por:
V1 = I d R d – e d
V2 = I f R f (71)
V3 = I e R e
En el análisis de mallas, en primer lugar, se reduce el número de ecuaciones necesarias para re-
solver la red a M = n – (N – 1) siendo n el número de incógnitas y N el número de nudos del circuito.
Para ello se le asigna una corriente Ii a cada una de las M mallas. En nuestro caso, se le asigna unas co-
rrientes I1, I2, e I3 a las mallas mostradas en la figura. A partir de estas corrientes se tiene que:
Ia = I1 Ib = I2 Ic = I3 (72)
Id = I2 – I3 Ie = I3 – I1 I f = I1 – I2 (73)
Puede verse que estas corrientes de malla hacen que se satisfagan las ecuaciones que se obtienen de la
regla de los nudos (69). Aplicando a cada una de las mallas la segunda regla se obtiene:
Malla 1 I 1 R a + ( I 1 – I 2 )R f – ( I 1 – I 3 )R e = e a
Malla 2 ( I 2 – I 1 )R f + I 2 R b + ( I 2 – I 3 )R d = e d (74)
Malla 3 ( I 3 – I 1 )R e + ( I 3 – I 2 )R d + I 3 R c = – e d
Tenemos tres ecuaciones con tres incógnitas que nos permiten obtener los valores de I1, I2, e I3; y a
partir de estos, mediante las expresiones (72) encontrar las corrientes en cada rama, y mediante las
expresiones (71) los valores de los potenciales en cada nudo.
La elección que se haga de las mallas es completamente arbitraria, con la condición que cada una
de las ramas debe estar contenida, al menos una vez, en una de las mallas.
El tercer método se denomina de los nudos. En este método de análisis se reduce el número de
ecuaciones a (N – 1) ecuaciones de nudos eliminado las ecuaciones de las mallas. Para ello se consi-
deran como incógnitas los potenciales en cada uno de los nudos V1, V2,..., VN-1. Si expresamos las co-
rrientes que salen de cada nudo en función de las diferencias de potencial en las ramas y de las con-
ductancias G, las ecuaciones de los nudos se escriben como:
Nudo 1 Gd (V1 + e d )+Gb (V1 – V2 )+Gc (V1 – V3 ) = 0 (75)
Nudo 2 G f V2 +Gb (V2 – V1 )+Ga (V2 – V3 – e a ) = 0 (76)
Nudo 3 GeV3 +Gc (V3 – V1 )+Ga (V3 – V2 + e a ) = 0 (77)
De esta manera, tenemos tres ecuaciones con tres incógnitas V1, V2 y V3 que podemos resolver. En el
planteamiento anterior hemos considerado que todas las corrientes salen de los nudos, algo que evi-
dentemente no puede ser real, por el principio de conservación de la carga. Esto significa que alguna
de las diferencias de potencial consideradas en las expresiones anteriores ha de ser negativa.
Una vez determinados los potenciales en los nudos, podemos encontrar las corrientes en cada
una de las ramas del circuito mediante las expresiones:
I a = Ga (V3 – V2 + e a ) I b = Gb (V2 – V1 ) (78)
I c = Gc (V1 – V3 ) I d = Gd (V1 + e d ) (79)
I e = GeV3 I f = G f V2 (80)
RTh
eTh
Figura 12. Circuito
equivalente de Thévenin.
Los equivalentes de Thévenin pueden calcularse mediante la teoría de circuitos, pero existe un
método más sencillo para su determinación. Puesto que el circuito equivalente de Thévenin ha de
comportarse igual que el circuito real en cualquier situación, lo ha de hacer:
1. Cuando los terminales externos están abiertos; y
2. Cuando no existan fuentes de fuerza electromotriz en el circuito.
Veamos cómo podemos aplicar las reglas anteriores con un ejemplo. Supongamos un circuito
como el mostrado en la figura 13, conectado a una resistencia de carga RL. Lo que nos proponemos es
encontrar el circuito equivalente de Thévenin, aplicando el procedimiento anterior.
R1
e R2 RL
Figura 13. Cálculo del
equivalente de Thévenin de un
circuito.
La diferencia de potencia en circuito abierto en los terminales de salida del circuito debe ser igual a
la diferencia de potencial en los terminales de salida del circuito equivalente. Ahora bien, en éste, pues-
to que en circuito abierto no pasa corriente por la resistencia, esta diferencia de tensión ha de ser igual a
la fem eTh. Por consiguiente, la fuerza electromotriz del circuito equivalente de Thévenin es igual a:
R2
eTh = e (81)
R1 +R2
Comprobemos ahora que la corriente que pasa por la resistencia de carga es la misma en ambos
casos. Para el circuito equivalente se tiene que:
eTh eR 2
I= = (83)
RTh + R L R L ( R 1 + R 2 )+ R 1 R 2
Aplicando las reglas de Kirchhoff al circuito original (fig. 14), se tiene que:
e = I 1 R 1 + ( I 1 – I 2 )R 2 (84)
0= ( I 2 – I 1 )R 2 + I 2 R L (85)
R1
RL
e I1 R2
I2
Figura 14. Aplicación de las reglas de
Kirchhoff para determinar el equivalente
de Thévenin de un circuito dado.
Puesto que la corriente que pasa por la resistencia de carga es I = I2 despejando de esta ecuación, obte-
nemos:
eR 2
I= (88)
R L ( R 1 + R 2 )+ R 1 R 2
Por otro lado, suprimiendo (haciendo cero) las fuentes de corriente, se tiene que:
RTh = R N (90)
Por tanto, existe una relación entre los circuitos equivalentes de Norton y de Thévenin. Las resisten-
cias son las mismas y el valor de la fem de Thévenin y de la fuente de corriente de Norton están rela-
cionadas por la expresión (89).
El procedimiento para encontrar el equivalente de Norton de un circuito cualquiera es el siguiente:
1. Calcular la corriente IN entre los terminales de salida cuando se encuentran cortocircuitados.
2. Calcular la resistencia equivalente RN entre los terminales cuando se igualan a cero todas las
fuentes de corriente y todas las fem del circuito.
Como vemos el procedimiento es similar al seguido para determinar los elementos del circuito
equivalente de Thévenin: en este caso, la corriente se calcula en cortocircuito, mientras que en aquél,
la diferencia de potencial se calcula en circuito abierto.
5. POLÍMETROS
Para medir las corrientes o diferencias de potencial en los elementos de un circuito, o los valores
de la resistencia de los materiales, se emplean una amplia variedad de aparatos de medida: amperíme-
tros, para la medida de corrientes, voltímetros para la medida de voltaje y ohmímetro para la medida
de la resistencia. Frecuentemente los tres aparatos se encuentran englobados en uno solo que denomi-
namos multímetro.
El componente principal de estos aparatos de medida es el galvanómetro que se representa en
circuitos con una letra G en el interior de un círculo. Un galvanómetro consiste en una bobina de hilo
suspendida en el campo de un imán. Cuando por la bobina pasa una corriente IG, ésta sufre una des-
viación angular proporcional a dicha corriente. Si se coloca una aguja indicadora, puede calibrarse el
aparato de manera que la posición de la aguja sobre una escala nos proporcione el valor de la corriente
que pasa por el galvanómetro.
Un galvanómetro se caracteriza por dos parámetro que son muy importantes para su uso como
amperímetro o voltímetro: su resistencia interna RG, cuyos valores oscilan entre 1 y 10 ohmios, y la
corriente máxima IG,max que produce la desviación de la aguja al fondo de la escala, cuyo valor típico
es de 1 mA. Veamos a continuación cómo podemos utilizar un galvanómetro para la construcción de
amperímetros, voltímetros y ohmímetros.
5.1. Amperímetros
En la figura 16 se muestra el esquema de utilización de un galvanómetro como amperímetro.
En la mayoría de los casos la corriente que se desea medir es mayor que la corriente máxima del
galvanómetro, por lo que es necesario que parte de la corriente se desvíe del galvanómetro a través
de una resistencia situada en paralelo con él, que se denomina shunt o resistencia shunt y que va in-
corporada al aparato de medida. Si denominamos IE a la máxima corriente que hace que la aguja se
desvíe hasta el fondo de la escala (la cual corresponde a la corriente IG,max por el galvanómetro), se
debe tener que:
I E = I s + I G ,max (91)
RG
G
IG
A Is
Rs
e I R e I R
Figura 16. Utilización de
un galvanómetro como
amperímetro.
Es decir, que la resistencia shunt debe ser mucho más pequeña que la resistencia del galvanómetro. Los
amperímetros típicos suelen llevar varias resistencias shunt con un conmutador que permite seleccio-
nar la escala del amperímetro. La resistencia equivalente del amperímetro, denominada resistencia de
entrada es:
RG R s
RA = (94)
RG + R s
R A R s (95)
Debido a esta pequeña resistencia de entrada, que suele ser menor que cualquier resistencia de carga
del circuito, el amperímetro no produce apenas distorsión en el circuito a medir, condición que es fun-
damental si deseamos tener una medida fiable y precisa de la corriente que circula por la resistencia
de carga.
5.2. Voltímetro
Puesto que la diferencia de potencial en los terminales del galvanómetro es proporcional a la co-
rriente IG que pasa por la bobina, también podemos utilizar un galvanómetro para determinar el valor de
la diferencia de potencial en los extremos de una resistencia, si se conecta en paralelo con ella.
RG
IG
e R V e R G
Rs
Para que la presencia del galvanómetro no perturbe la corriente que pasa por la resistencia de
carga, y por tanto la medida de la diferencia de potencial sea correcta, hemos de conectar una resisten-
cia de valor elevado en serie con el galvanómetro. En la figura 17 se muestra la forma de utilizar un
galvanómetro para medir la diferencia de potencial entre los terminales de la resistencia R. Si desea-
mos que una diferencia de potencial VE corresponda con una desviación de la aguja hasta el fondo de la
escala del voltímetro (IG,max), se ha de tener que:
VE = I G ,max ( RG + R s ) (96)
Esta condición nos da el valor mínimo que ha de tener la resistencia Rs conectada en serie con al gal-
vanómetro para que el fondo de la escala corresponda a una tensión VE.
Si Rs o R la expresión anterior se reduce a Req = R y por consiguiente la conexión del voltímetro no pro-
ducirá ningún efecto significativo en la diferencia de potencial entre los terminales de la resistencia R.
Por regla general, los voltímetros disponen de un conmutador que permite elegir la resistencia
que ha de conectarse en serie con el galvanómetro, y por tanto disponer de varias escalas para las me-
didas de voltaje.
5.3. Ohmímetro
Un galvanómetro conectado en serie con una batería de fem conocida puede utilizarse para la
medida de resistencias. El circuito se muestra en la figura 18. En este circuito hemos colocado una re-
sistencia Rs, que en principio vammos a considerar cero, cuyo significado veremos más adelane.
RG
G
R W eG
R
Rs Figura 18. Utilización de
un galvanómetro como
ohmímetro.
Por tanto, la escala del galvanómetro, aunque no sea lineal, puede calibrarse para que nos proporcio-
ne directamente el valor de R.
Para poder disponer de varias escalas se conecta en serie una resistencia variable Rs, De esta ma-
nera se tiene que:
eG
R= – RG – R s (103)
IG
Como la exactitud de la lectura depende de la constancia de la fem de la batería, este tipo de ohmíme-
tro no es de gran precisión, pero sirve para determinar de forma rápida, aunque sólo aproximada, una
resistencia desconocida.
BIBLIOGRAFÍA
21
Campo magnético. Carácter no
conservativo del campo
magnético. Generación de campos
magnéticos y efectos sobre cargas
en movimiento. Aplicación a
dispositivos tecnológicos
ÍNDICE SISTEMÁTICO
1. CAMPO MAGNÉTICO
1.1. Antecedentes históricos
1.2. Efecto de los campos magnéticos sobre cargas en movimiento
1.2.1. Fuerza magnética sobre una carga eléctrica
1.2.2. Fuerza sobre una corriente eléctrica
1.2.3. Fuerza sobre una espira de corriente
1.2.4. Fuerza sobre imanes
BIBLIOGRAFÍA
1. CAMPO MAGNÉTICO
1.1. Antecedentes históricos
Las primeras pruebas sobre observaciones de fenómenos magnéticos aparecen en los escritos de
Tales de Mileto (640-546 a. C.). En ellos se hace mención a la atracción por parte de una piedra natu-
ral, denominada imán, de pequeños trozos de hierro. Esta piedra imán o magnetita es un óxido de hie-
rro (Fe3O4) que se encontraba antiguamente en una región cercana a Magnesia, ciudad de la antigua
Grecia Jónica, de donde proviene su nombre y también el término magnetismo.
El uso de una aguja imantada como brújula parece tener sus orígenes en el siglo XI de nuestra
era, y se cree que fue empleada por primera vez por los chinos o por los árabes. No obstante, aunque
no se sabe con certeza, hay indicios de que, ya por el año 2637 antes de Cristo, los chinos conocían los
fenómenos magnéticos y el alineamiento de los imanes en la dirección norte-sur. En 1269, Petrus Pe-
regrinus de Maricourt describió de forma detallada la brújula y su empleo en navegación, y descubrió
que una aguja que se deja libremente sobre un imán natural de forma esférica se orienta a lo largo de
líneas que pasan por puntos extremos de la esfera. A estos puntos, donde parecen concentrarse las
fuerzas, los denominó polos del imán.
A pesar de que durante muchos siglos se conocieron las fuerzas ejercidas por los imanes natura-
les, la primera investigación científica sobre los fenómenos magnéticos se debe a William Gilbert,
quien en 1600 dio a conocer sus resultados en la obra De magnete. Gilbert estudió sistemáticamente
los fenómenos eléctricos y magnéticos, y comprobó que cualquier imán, independientemente de su
forma, posee dos polos magnéticos donde la fuerza que ejerce el imán tiene una intensidad máxima.
Por otra parte, descubrió que la Tierra se comportaba como un inmenso imán con sus polos magnéti-
cos situados cerca de los polos geográficos norte y sur. De esta manera, una aguja imantada tiende a
alinearse sobre la superficie de la Tierra en la dirección norte-sur. Por esta razón, Gilbert denominó
polo norte al que señalaba hacia el polo norte geográfico y polo sur al que señalaba en la dirección sur.
Gilbert había demostrado que los polos del mismo nombre se repelen y los polos diferentes se
atraen. No obstante, fueron John Michell, en 1750, y, posteriormente, Charles Agustin Coulomb, en
1785, quienes hicieron un estudio cuantitativo de la atracción y repulsión de los polos magnéticos
mediante una balanza de torsión. Michell demostró que las fuerzas dirigidas de centro a centro de los
polos magnéticos eran directamente proporcionales a la intensidad de los mismos e inversamente
proporcionales al cuadrado de la distancia que los separaba, resultados que fueron confirmados luego
por Coulomb.
La ley de la fuerza entre polos magnéticos es similar a la existente entre cargas eléctricas, pero
hay una diferencia fundamental entre ambos fenómenos. Mientras que hay cargas de un signo u otro
por separado, los polos magnéticos se presentan siempre por parejas. Si dividimos un imán, el resul-
tado que obtenemos son dos imanes más pequeños, cada uno de ellos con un polo positivo y un polo
negativo. Hasta ahora, los esfuerzos por encontrar aisladamente un polo magnético, el monopolo
magnético, han resultado infructuosos.
La íntima relación entre electricidad y magnetismo no se conoció hasta 1819, cuando el físico
danés Hans Christian Oersted (1777-1851) descubrió que una corriente eléctrica en un alambre
conductor provocaba la desviación de una aguja imantada: la electricidad podía producir magnetis-
mo. Hasta ese momento, la electricidad y el magnetismo se consideraban fenómenos independien-
tes. Un año después del descubrimiento de Oersted, el francés André Marie Ampère llevó a cabo
una serie de experimentos que demostraron que las corrientes eléctricas atraían limaduras de hierro
y que dos corrientes paralelas se atraían entre sí. También inventó el solenoide para producir cam-
pos magnéticos y formuló un modelo teórico del magnetismo que constituye la base de la teoría ac-
tual. Según este modelo, las fuentes fundamentales del magnetismo no son los polos magnéticos
sino las corrientes eléctricas, y el magnetismo de un imán permanente se debe a las corrientes elec-
trónicas a nivel atómico.
En el año 1831, el inglés Michel Faraday (1791-1867) y el norteamericano Joseph Henry (1797-
1878) encontraron, de forma independiente, que un campo magnético variable producía una corriente
eléctrica. Esta investigaciones experimentales fueron la base de la teoría de unificación de la electricidad y
el magnetismo, desarrollada por James Clerk Maxwell (1831-1879) en 1873. Nacía así el electromagne-
tismo. Esta nueva rama de la física se describe completamente mediante las denominadas ecuaciones de
Maxwell, las cuales, junto con las leyes de Newton, los principios de la termodinámica y la teoría de la re-
latividad restringida de Einstein, resumen toda la física clásica.
La teoría cuántica, desarrollada en el siglo XX, ha permitido elaborar teorías microscópicas que
explican las propiedades de los materiales magnéticos. El estudio del magnetismo en la materia sigue
siendo en la actualidad un campo de intensa investigación.
N S
Figura 1.
Líneas de campo magnético creado por
un imán y una corriente eléctrica que
circula por un conductor rectilíneo.
r r
Por consiguiente, la dirección de la fuerza es perpendicular al plano definido por los vectores u y B, y
su módulo viene dado por:
F = q uB sen q = qu^B (2)
r r
en donde q es el ángulo formado por los vectores u y B.
Esta ecuación define el campo magnético en función de la fuerza experimentada por una carga
móvil. En el SI, la unidad del campo magnético se denomina tesla (T), campo magnético tal que
una carga de un culombio que se mueve perpendicularmente a él a una velocidad de un metro por se-
gundo experimenta una fuerza de un newton.
N/ C
1T = 1 = 1N×A –1 m –1
m/ s
El tesla es una unidad de campo magnético bastante grande. Por ejemplo, el campo magnético terrestre,
aunque varía de un punto de la superficie terrestre a otro, es del orden de 5 ´ 10–5 T; los campos magné-
ticos próximos a grandes imanes pueden variar entre 0.1 T y 0.5 T; y los grandes electroimanes de los
laboratorios y la industria producen campos entre 1 T y 2 T. Por ello, normalmente se suele utilizar una
unidad más pequeña como unidad de campo magnético, el gauss (G):
–4
1 G = 10 T (3)
Esta unidad, el gauss, no es una unidad del sistema internacional y, en consecuencia, es necesario ha-
cer la conversión a teslas cuando utilizamos unidades en el sistema internacional.
Experimentalmente también se encuentra que una carga sometida a un campo magnético y un
campo eléctrico, simultáneamente, responde de forma independiente al campo eléctrico y al campo
magnético. De esta manera, lar fuerza que experimenta unarcarga q que se mueve con velocidad u en el
seno de un campo eléctrico E y de un campo magnético B viene dada por:
r r r r
[ (
F = q E + u´ B )] (4)
Z
F
dR
Figura 3. Elemento de un Z
hilo conductor en el seno de B
un campo magnético.
r
Esta expresión es conveniente escribirla en función de un vector desplazamiento d l de mó-
dulo igual a dl y dirección igual a la velocidad de arrastre de los portadores
r de carga y en función
r
de la corriente por el conductor. Si tenemos en cuenta que dlu d = u d d l, y que la corriente por el
conductor es I = nqAud, la expresión (5) la podemos escribir como:
r r r
dF = Id l´ B (6)
r
La fuerza neta sobre un elemento finito conductor se obtiene integrando dF sobre la longitud to-
tal del conductor. Si tenemos en cuenta que la corriente I es constante a lo largo de todo el conductor,
integrando (7) se obtiene que:
r r r
F = I ò d l´ B (7)
La integral anterior depende de la geometría del conductor y del campo magnético. Para un conductor
rectilíneo en el seno de un campo magnético uniforme, la integral puede hacerse de forma sencilla. En
este caso, la dirección del producto vectorial del integrando permanece constante. Si llamamos û a esa
dirección, la expresión (7) se puede escribir como:
r
F = IB sen q u$ ò0 dl
L
(8)
La fuerza sobre cada tramo de la espira la podemos calcular a partir de la expresión (8). Hacien-
do esto se tiene que:
F1 = IBa F2 = IBb sen a (11)
F3 = IBa F4 = IBb sen a (12)
r r
Las direcciones de cada una de las fuerzas son las mostradasr r en la figura. Las fuerzas F 1 y F 3 son igua-
les y opuestas, al igual que también lo son las fuerzas F 2 y F 4, por lo que la fuerza neta resultanter sobre r
la espira es cero. No obstante, hay una diferencia entre ambos conjuntos de fuerzas: las fuerzas F 2 y F 4
actúan a lo largor del mismo
r eje y por tanto no producen ningún momento sobre la espira; por el contra-
rio, las rfuerzas F 1 y F 3 no actúan sobre el mismo eje y sí producen un momento sobre la espira. El mo-
mento t de este par de fuerzas hace que la espira gire en el sentido de las agujas del reloj y es igual a:
r r r r r
t = r1 ´ F1 + r3 ´ F3 (13)
r r
donde r1 y r3 son los vectores perpendiculares al eje de giro de la espira con origen en el eje y extremo
en los tramos de la espira perpendiculares al campo magnético.
La orientación de la espira puede describirse adecuadamente mediante un vector unitario n$ per-
pendicular al plano de la espira, cuyo sentido estará dado por la regla de la mano derecha: se curvan
los dedos de la mano derecha en la dirección de la corriente en la espira, entonces el pulgar estirado
$ De esta manera, podemos
nos proporciona el sentido del vector unitario n. r asociar a la superficie de la
$ S = Sn.
espira S un vector en la dirección y sentido del vector unitario n, $ Si llamamos q al ángulo for-
mado por el vector unitario n$ con la dirección del campo magnético, como se muestra en la figura, el
módulo del momento de las fuerzas sobre la espira puede escribirse como:
t = r1 F1 sen q + r3 F3 sen q (14)
Teniendo en cuenta las expresiones de F1 y F3 dadas por (11) y (12), y que r1 = r3 = b/2, el momento
neto sobre la espira vendrá dado por:
b b
t=IaB sen q + IaB sen q = IabB sen q (15)
2 2
r r
Si tenemos en cuenta ahora que S = ab y que S ´ B = SB sen q, el resultado anterior lo podemos ex-
presar en forma vectorial como:
r r r
t = IS ´ B (16)
El resultado que hemos encontrado para una espira rectangular se puede generalizar a cualquier
espira plana, independientemente de cuál sea su forma geométrica. Para ello, basta considerar dicha
espira como la suma de un conjunto de espiras rectangulares por las que circula una corriente I igual a
la que circula por la espira, tal como se muestra en la figura 5. Las corrientes interiores se compensan
por parejas, quedando sólo la corriente neta I en el contorno exterior de la espira. Por tanto, la ecua-
ción (16) es válida para toda espira plana en un campo magnético uniforme, con independencia de la
forma geométrica que tenga.
En el caso en que tengamos una espira con N vueltas (una bobina), la corriente por la espira es NI
y, por tanto, el momento de las fuerzas ejercidas por el campo magnético se escribe como:
r r r
t = NIS ´ B (17)
siendo N, como hemos dicho anteriormente, el número de vueltas de la espira.
Se define el momento dipolar magnético m de una espira de superficie A, y por la que circula una
corriente I, como:
r r
m = NIS (18)
siendo N el número de vueltas. En el caso de una espira simple, N =1. En función del momento dipo-
lar magnético de la espira, el momento de las fuerzas magnéticas se escribe como:
r r r
t = m´B (19)
Por lo dicho anteriormente, vemos que sobre una espira de corriente en el seno de un campo mag-
nético uniforme actúa un par de fuerzas que tiende a alinear el momento dipolar magnético con el cam-
po magnético. La espira tiende a girar hacia una posición estable en la que su superficie sea perpendicu-
lar al campo magnético, y el momento de las fuerzas sea cero. En consecuencia, podemos utilizar una
espira por la que circula una corriente pequeña como el equivalente magnético de una “carga de prue-
ba” electrostática. Si en una región del espacio colocamos una espira y sobre ésta aparece un par de
fuerzas que tiende a hacerla girar hasta alcanzar una posición estable, podemos decir que en dicha re-
gión existe un campo magnético cuya dirección es perpendicular a la superficie de la espira cuando ésta
ha alcanzado el equilibrio.
L
N F
F
S q
Esta expresión nos permite determinar el momento magnético del imán midiendo experimentalmente
el momento resultante cuando se coloca el imán en la región de un campo magnético conocido. Poste-
riormente, a través de la expresión (21), se puede determinar la intensidad del polo magnético.
De la expresión anterior vemos que, al igual que el campo electrostático creado por una carga
puntual (fuente del campo electrostático), el campo magnético creado por un elemento infinitesimal
de corriente (fuente del campo magnético) es inversamente proporcional a la distancia al cuadrado al
punto donde se calcula el campo. Pero existe una diferencia importante entre la ley de Coulomb y la
ley de Biot-Savart:
r el campo eléctrico producido por una carga puntual es radial, mientras que la di-
rección de dB es perpendicular al elemento de corriente y al vector de posición que va desde dicho
elemento al punto donde calculamos el campo.
La ley de Biot-Savart dada por (23) nos proporciona la expresión del campo magnético creado
por un elemento de corriente infinitesimal. Pero a diferencia de lo que se tiene en electrostática, en
magnetismo no se tienen fuentes puntuales del campo magnético; es decir, no se tienen elementos de
corrientes infinitesimales en una corriente eléctrica estacionaria, sino que se tienen conductores fini-
tos. Para calcular el campo magnético creado por una distribución de corriente debemos integrar la
expresión (23) a lo largo de todo el conductor:
r
m 0 Id l´ r$
B= ò (25)
4p r 2
en donde la integral debe extenderse a todo el conductor.
Veamos a continuación algunos ejemplos sencillos de la aplicación de la ley de Biot-Savart.
Para calcular el campo magnético producido por el conductor, debemos utilizar la forma integral de la
ley de Biot-Savart dada por (25). Ahora bien, esta expresión contiene una integral de una magnitud vec-
torial, por lo que se ha de tener cuidado con la dirección al realizar la integración vectorial. En general,
este cálculo es bastante complicado y sólo puede hacerse en los casos en que el circuito de integración
tenga una forma
r geométrica sencilla. En el caso que nos ocupa, de un conductor rectilíneo, el producto
vectorial d l´ r$, en cualquier punto del conductor, es un vector de dirección constante perpendicular al
papel y dirigido hacia fuera. Por consiguiente, la suma de todas las contribuciones de la integral tendrán
la misma dirección y su módulo vendrá dado por:
m 0 ¥ I sen q
B = ò dB = ò dz (27) z
4 p –¥ r 2
en donde hemos supuesto que el conductor es de longitud infinita.
Para calcular esta integral vamos a utilizar como variable I
de integración el ángulo a definido en la figura 7: sen q = cos a. R
a y
Por otra parte se tiene que:
z
z 1
tan a = Þ dz = R da (28) Z
r
R cos 2 a q
x
Y además: dl
R R2
cos a = Þ r2 = (29) Figura 7. Aplicación de la ley de
r cos 2 a Biot-Savart a un hilo conductor.
La dirección del campo en un punto del espacio es perpendicular al plano que contiene al hilo
conductor y a dicho punto, y el sentido lo encontramos aplicando la regla de la mano derecha. Si suje-
tamos el hilo conductor con la mano derecha de manera que el pulgar apunte en el sentido de la co-
rriente, los demás dedos curvados nos dan el sentido del campo magnético. En la figura 8 se muestra
la dirección del campo magnético en distintos puntos del espacio.
I
B B
B B
Figura 8. Dirección del campo magnético
creado por una corriente que circula por un
hilo conductor infinito.
En el caso de un conductor rectilíneo de longitud L, la expresión del campo magnético a una dis-
tancia R del hilo y a una altura z del centro del conductor (figura 9) vendrá dada, según (31), por:
m0I a2 m I
B= ò cos a da = 4p0R [sen a 2 +sen a 1 ]
4pR – a 1
(33)
a2 L/2
R
a1 z
y
I
rZ
q –L/2 Figura 9. Aplicación de la ley de
x Biot-Savart a un hilo conductor
rectilíneo de longitud finita.
Esta expresión la podemos escribir en función de la longitud del hilo L y la distancia al punto R
sin más que tener en cuenta que:
1
L– z
sen a 2 = 2 (34)
1
( L – z )2 + R 2
2
1
L+ z
sen a 1 = 2 (35)
1
( L+ z ) 2 + R 2
2
Llevando este resultado a la expresión (33), obtenemos que:
é 1 1 ù
m0I ê
ê 2
L– z
2
L+ z ú
ú
B= + (36)
2pR ê 1 1 ú
ê ( L – z )2 + R 2 ( L+ z ) 2 + R 2 ú
ë 2 2 û
Es decir, que el campo magnético en un punto del espacio depende de la distancia R al conductor, de
la distancia al centro del conductor y de la longitud L del mismo.
En el caso de un conductor muy largo en que L >> R, se tiene que a1 ® p/2 y a2 ® p/2, por lo que
el campo es aproximadamente el mismo que el de un hilo infinito.
en donde se ha tenido en cuenta que r2 = z2 + R2. La integral extendida a todo el conductor es igual a la
longitud de la espira ò dl = 2pR, y, por consideraciones geométricas, se tiene que:
R R
cos q = = (39)
r z +R 2
2
r r 2 $
r m= IA = IpR k.
Este resultado lo podemos expresar en función del momento magnético de la espira
$
Puesto que el campo magnético sólo tiene componente en la dirección del eje z (B = Bzk), podemos es-
cribir:
r m0 r
m
B= (41)
2p ( z 2 + R 2 ) 3 2
En el centro de la espira se tiene que z = 0, y, por tanto, el campo magnético toma su valor máximo:
m0I m m
Bz = = 0 3 (42)
2R 2pR
campo magnético a lo largo de dicha trayectoria. La integral a lo largo de dicho camino la podemos
desdoblar en cuatro integrales a lo largo de cada uno de los tramos que la componen. De esta forma:
r r b r r c r r d r r a r r
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (45)
Z Z
Z
B Z
B dl
dl
q Z
B c
R2 Z
b dl
R
Figura 11. Cálculo de la I I q
R1
circulación del campo a
magnético a lo largo de dos
circuitos que encierran una d
corriente I.
r r
r rmagnético B y el desplazamiento d l son perpendiculares, por lo
En los tramos radiales el campo
que su producto escalar es cero: B · d l = 0. Por tanto, la contribución de los tramos radiales a la circu-
lación del campo magnético es nula. Para calcular la integral del campo magnético a lo largo de los
arcos de circunferencia, tendremos en r cuenta
r que el campo a una distancia R del conductor viene
dado por (43) y que en estos tramos B y d l son paralelos. En consecuencia, tendremos que:
r r r d r r m I m0I
ò B ×dl = ò B ×d l+ òc B ×d l= 0 ò ò
b q 2p
dq + dq =
a 2p 0 2p q
m0I (46)
= ( q + 2p – q ) = m 0 I
2p
Por tanto, tenemos el mismo resultado que obtuvimos en el caso de un camino de integración circular.
En el caso de una trayectoria con forma arbitraria, como la mostrada en la figura 12, siempre es posi-
ble descomponerla en un número determinado de tramos radiales y circulares. Esta aproximación
será tanto más fiel al camino original cuanto mayor sea el número de tramos, siendo igual a aquélla en
el límite de un número infinito de tramos infinitesimales. El procedimiento para calcular la circula-
ción del campo magnético será igual que el que hemos seguido en el caso de dos tramos circulares y
dos tramos radiales. La contribución de los tramos radiales a la circulación del campo magnético es
cero, y la suma de las contribuciones de los tramos circulares es igual al producto de la permeabilidad
magnética por la corriente I.
Z
P B1 Veamos a continuación lo que ocurre si el camino de integra-
Z ción no enlaza a la corriente I; es decir, si la corriente no pasa a través
Z dl1 de la superficie limitada por la línea de integración. Supongamos, en
B2 Z primer lugar, un camino formado por dos tramos radiales y otros dos
M dl2 circulares como el mostrado en la figura 13. Como hemos visto ante-
riormente, la integral del campo magnético a lo largo de los tramos
Q N radiales es cero, por lo que la circulación del campo magnético a lo
I R1 largo de la línea cerrada se reduce a la integral
r rdel campo a lo largo de
los tramos circulares. Si denominamos B1 y B2 al campo magnético
R2 en cada uno de estos tramos, se tiene que:
r P r r Mr r
Figura 13. Circulación del ò B ×dl = òN B 1 ×d l 1 + òQ B 2 ×d l 2 (47)
campo magnético a lo largo de
un camino que no enlaza r r r r
ninguna corriente. Ahora bien, B1 res paralelo al desplazamiento d l, por lorque B1 · d l1 =
r 1; pero B2 es antiparalelo al desplazamiento d l2, por lo que
=r B1dl
B2 · d l2 = –B2dl2. Si ahora tenemos en cuenta que el campo magnéti-
co a una distancia R del conductor viene dado por (43), y que dl1 = R1dq1 y dl2 = R2dq1, obtenemos que:
r r q m I q m I
ò B ×d l = ò0 2p0R R 1dq 1 – ò0 2p0R R 2dq 2 = 0 (48)
1 2
equivalente a la ley de Ampère, de la misma forma que la ley de Coulomb para el campo eléctrico es
equivalente a la ley de Gauss.
De la misma forma que la ley de Gauss permite encontrar fácilmente el campo eléctrico produci-
do por distribuciones simétricas de carga, la ley de Ampère es útil para encontrar el campo magnético
creado por corrientes estacionarias que poseen un alto grado de simetría. En los apartados siguientes
veremos algunos ejemplos de la aplicación de la ley de Ampère en casos sencillos.
Como hemos visto para el campo magnético, la ley de Ampère establece que la circulación del
campo magnético a lo largo de una línea cerrada es igual a la corriente enlazada por el camino de inte-
gración multiplicada por la permeabilidad del vacío. En consecuencia, el campo magnético no es
conservativo.
r
Una definición alternativa de campo conservativo C es que sea irrotacional, es decir, que:
r r
Ñ´C = 0 (52)
Posteriormente, veremos que la ley de Ampère en forma diferencial establece que el rotacional del
campo magnético es igual al producto de la permeabilidad del vacío por la densidad de corriente, lo
que indica que el campo magnético no es un campo irrotacional. Por tanto, a diferencia de lo que ocu-
rre con el campo eléctrico, el campo magnético es un campo no conservativo.
I
B B B
a
dl
Figura 15. Aplicación de la ley de B R
B
Ampère a un hilo rectilíneo:
a) para puntos exteriores al
conductor,
b) para puntos interiores. a) b)
Consideremos un hilo conductor de radio a por el que circula una corriente I. Podemos aplicar la
ley de Ampère para determinar el campo magnético en un punto alejado una distancia R, R > a del con-
ductor (figura 15a). El primer paso para aplicar esta ley es elegir un camino de integración para calcular
la circulación del campo magnético, y su elección ha de hacerse atendiendo a criterios de simetría, de
manera que el cálculo de la circulación del campo sea fácil de realizar. En el caso que nos ocupa, la si-
metría del problema sugiere que el campo magnético, en módulo, ha de ser igual en todos los puntos
que se encuentren a una misma distancia del conductor. Por tanto, tomaremos como camino para calcu-
lar la circulación del campo eléctrico un camino circular de radio R. Puesto que el campo magnético ha
de ser perpendicular al plano que contiene al conductor y al punto en rdonde r se calcula, el campo ha de
ser paralelo al desplazamiento a lo largo del camino de integración B · d l = Bdl. Entonces, la ley de
Ampère puede escribirse como:
r r
ò B ×d l = ò Bdl = B ò dl = B 2pR = m 0 I (53)
en donde hemos tenido en cuenta que la integral de dl a lo largo de todo el camino es la longitud de di-
cho camino 2pR y que, al ser R > a, el camino de integración enlaza toda la corriente que circula por
el conductor. De esta expresión se obtiene que:
m0I
B= (R > a) (54)
2pR
El resultado que hemos obtenido, evidentemente, es igual al que obtuvimos aplicando la ley de
Biot-Savart y dado por la expresión (32).
Consideremos ahora un punto en el interior del conductor a una distancia R del eje que pasa por
su centro R < a de su centro (figura 15b). Procediendo como antes y eligiendo como camino de inte-
gración una circunferencia de radio R, la aplicación de la ley de Ampère nos proporciona la relación:
r r
ò B ×d l = ò Bdl = B ò dl = B 2pR = m 0 I R (55)
en donde IR es la corriente enlazada por el camino de integración, que corresponderá a una parte de la
corriente I que circula por el conductor. Si esta corriente está distribuida uniformemente en la sección
del conductor, la densidad de corriente J será constante e igual a:
I
J= (56)
pa 2
La corriente IR vendrá dada entonces por:
I R2
I R = JpR 2 = pR 2 = I 2 (57)
a pa 2
a
Sustituyendo este resultado en la expresión (55) se tiene que:
m0I/2pa m 0 IR
B= (R < a) (58)
B 2pa 2
De esta ecuación se tiene que el campo magnético en el interior
del conductor es una función lineal de la distancia al eje del
mismo R. El campo es nulo en el eje del hilo y alcanza su valor
a 2a 3a 4a r máximo en la superficie del conductor B = m0I/2pa. En el exte-
rior del hilo conductor, el campo magnético decrece inversa-
Figura 16. Campo magnético mente con la distancia R al eje. Este comportamiento se refleja
creado por un hilo conductor en
función de su distancia al centro.
en la figura 16.
El campo magnético producido por un solenoide es básicamente el mismo que produciría un conjun-
to de espiras circulares situadas paralelamente y por las que circula la misma corriente. Podemos com-
prender el campo magnético creado por un solenoide si tenemos en cuenta que la forma del campo creado
por una espira circular en un plano perpendicular (figura 18a) es similar, en las cercanías del alambre, al
campo creado por una corriente rectilínea. Si unimos varias espiras para formar un solenoide (figura 18b),
en la vecindad de cada espira, el campo es similar al de una espira aislada. Entre dos espiras, el campo
magnético se cancela debido a la dirección opuesta del campo creado por las espiras vecinas. En la zona
interior del solenoide, en la zona cercana al eje, los campos magnéticos producidos por las espiras indivi-
duales se suman para producir un campo magnético casi uniforme. En el caso en que las espiras se colocan
muy cerca unas de otras (figura 19), el campo magnético es prácticamente uniforme en el interior del sole-
noide y en dirección paralela a la del eje del solenoide. En la re-
gión exterior, el campo magnético es muy pequeño comparado
con el campo en el interior, debido a que los campos creados por
la parte de arriba de las espiras tiende a cancelarse con el campo
creado por la parte de abajo de las espiras.
Z
Utilicemos ahora la ley de Ampère para determinar el cam-
d dl c
po magnético en el interior del solenoide. Para ello considere-
mos un solenoide muy largo (infinitamente largo en el caso
ideal) de longitud L y formado por N espiras por las que circula
una corriente I. Elijamos como camino para calcular la circula- Z a Z b
ción del campo magnético una trayectoria alejada del extremo B dl
del solenoide, con dos tramos paralelos al eje y otros dos per- xxxxxxxxxxxxxxxxx
pendiculares al mismo, como se muestra en la figura 20. La cir-
culación a lo largo de esta trayectoria puede escribirse como la
suma de las integrales de línea en cada uno de los tramos:
Figura 20. Aplicación de la ley de
r r b r r c r r d r r a r r
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (59) Ampère para determinar el campo
magnético producido por un
solenoide.
El campo magnético en el interior del solenoide es paralelo al eje del mismo y, por tanto, es perpendicular
al desplazamiento elemental en los tramos interiores bc y da. Por otra parte, el campo magnético es prácti-
camente nulo entre las espiras y en el exterior del solenoide. En consecuencia, la segunda, la tercera y la
cuarta integral de la expresión anterior son nulas. La circulación del campo magnético se reduce, pues, a:
r b r r
ò B ×dl = òa B ×d l = Bl (60)
siendo l la longitud
r del tramo ab; y en donde hemos tenido en cuenta que el campo es paralelo al des-
plazamiento d l en el interior del solenoide y es prácticamente uniforme. La aplicación de la ley de
Ampère conduce a:
Bl = m 0 N l I (61)
siendo I la corriente por cada espira y Nl el número de espiras que enlaza el circuito de integración. Si de-
nominamos n al número de espiras por unidad de longitud, n = Nl/l, de la expresión anterior se tiene que:
B = m0n I (62)
Esta expresión nos da el campo magnético en el interior del solenoide. Vemos que el campo magnéti-
co sólo depende del número de espiras por unidad de longitud n y de la corriente que circula por el so-
lenoide. Es decir, el campo no depende de la posición en el interior del solenoide y es, por tanto, un
campo uniforme. Lo que acabamos de decir es estrictamente cierto en el caso de un solenoide ideal
infinitamente largo; no obstante, es una buena aproximación del valor del campo magnético en el in-
terior de un solenoide real, de longitud finita, en puntos alejados de sus extremos.
Si comparamos las figuras 1 y 19, observamos que las líneas de campo magnético en el exterior
de un solenoide son casi iguales a las de un imán de barra. De hecho, un solenoide se comporta como
un imán con uno de sus extremos actuando de polo norte y el otro de polo sur.
Una aplicación práctica sencilla que puede llevarse a cabo en el laboratorio es la construcción de
un timbre. El esquema es el mostrado en la figura 21. Consta de un solenoide alimentado por una pila
y de una barra de hierro, sujeta a un resorte, que se coloca parcialmente en el interior del solenoide. Al
cerrar el interruptor, el solenoide actúa como un imán atrayendo a la barra de hierro, que golpea en la
campana. Cuando abrimos el interruptor, desaparece el campo magnético en el interior del solenoide,
y el resorte hace que la barra de hierro vuelva a su posición original.
I I
E Figura 21. Esquema de
un timbre.
Consideremos dos conductores rectilíneos por los que circulan unas corrientes I1 e I2 respectiva-
mente, como se muestra en la figura 22. Vamos a suponer que la distancia R entre los conductores es
lo suficientemente pequeña comparada r con su longitud, de manera que podamos considerar que los
conductores son infinitos. Llamemos B2 al campo magnético creado por la corriente I2 que circula por
un conductor. La fuerza que este campo magnético ejerce sobre un elemento de longitud l del con-
ductor por el que circula la corriente I1 viene dada por la ecuación (10), que podemos escribir como:
r r r
F = I 1 l´ B 2 (63)
I2
I1
l
F B2
Procediendo de forma análoga, podemos encontrar que la fuerza que ejerce el campo magnético
creado por I1 sobre un trozo l del conductor por el que pasa la corriente I2 también viene dada por la
expresión (66), y su dirección es opuesta a la de la fuerza que se ejerce sobre el conductor de corriente
I1. En consecuencia, la expresión (66) proporciona la fuerza de atracción que experimenta un trozo de
longitud l de cualquiera de los dos conductores debido al campo magnético creado por el otro con-
ductor. También puede demostrarse fácilmente que, si los sentidos de las corrientes son opuestos, en-
tonces, las fuerzas entre los conductores son repulsivas.
La expresión (66) se utiliza para definir el amperio como unidad de corriente en el SI. Si la co-
rriente que pasa por cada uno de los hilos conductores es un amperio (I1 = I2 = 1 A), y estos están sepa-
rados un metro (R = 1 m), la fuerza que experimenta un metro de hilo conductor (l = 1 m), es:
m
F = 0 N= 2×10–7 N (67)
2p
Se define el amperio como la corriente que al pasar por dos conductores rectos y paralelos muy lar-
gos, separados una distancia de un metro, produce sobre cada uno de ellos una fuerza por unidad de
longitud igual a 2 · 10–7 N/m.
Una vez definido el amperio, se define el culombio, unidad de carga en el SI, como la carga que
pasa por unidad de tiempo por un punto de un circuito en el que existe una corriente estacionaria de un
amperio:
1C=1A·1s (68)
El motivo de definir en primer lugar el amperio y a partir de él definir el culombio es una cues-
tión operacional. Podríamos definir el culombio a partir de la ley de Coulomb, que nos da la fuerza
entre dos cargas puntuales, después de definir e0. Sin embargo, es realmente muy difícil realizar este
tipo de experimentos con cargas puntuales. Por otra parte, es también muy difícil obtener una cierta
cantidad de carga determinada que se desee. Sin embargo, obtener una cierta cantidad de corriente a
través de un hilo conductor es fácil insertando una resistencia variable y ajustándola conveniente-
mente. Por consiguiente, es mucho más fácil realizar la medida de la fuerza entre dos conductores por
los que se hace circular una determinada cantidad de corriente que la medida entre cargas concretas; y
es por esta cuestión meramente operacional por lo que se define en primer lugar el amperio y a partir
de él el culombio.
En términos de las líneas de campo, el flujo a través de una superficie es proporcional al núme-
ro de líneas que la cruzan. Puesto que las líneas del campo magnético son líneas cerradas, para cual-
quier superficie cerrada, se tiene que toda línea de campo que atraviesa hacia adentro la superficie
vuelve a atravesarla hacia afuera. Es decir, que el flujo magnético a través de una superficie cerrada
es cero:
r r
F B = ò B ×dS = 0 (70)
un polo magnético aislado o monopolo magnético. Si este polo magnético existiese, las líneas del
campo magnético no se cerrarían sobre sí mismas.
N S
En un imán, estamos acostumbrados a dibujar las líneas de campo en el exterior del imán tal
como si salieran de un polo, el polo norte, y terminaran en otro, el polo sur. La realidad es que las lí-
neas de campo magnético son continuas en el interior del imán. Las líneas que salen del polo norte del
imán y entran por el polo sur retornan al polo norte por el interior del imán (figura 23). De esta manera
se satisface la ley de Gauss para el campo magnético, y el flujo a través de cualquier superficie cerra-
da es cero.
z Bx(x–dx/2,y,z)
Z
B(x,y,z)
dz
dy
dx
Bx(x+dx/2,y,z)
Figura 24. Aplicación de
la ley de Gauss a un x y
elemento de volumen.
Comenzaremos por calcular el flujo a través de las superficies normales a la dirección del eje x.
Si el campo en el centro del cubo es:
r
B ( x, y, z ) = B x ( x, y, z )i$ + B y ( x, y, z ) $j + B z ( x, y, z )k$ (71)
el flujo a través de las caras posterior y anterior en la dirección del eje x será, respectivamente:
æ dx ö æ dx ö
dF Bçx – , y, z ÷= – B xçx – , y, z ÷dydz =
è 2 ø è 2 ø
(72)
æ dx ¶B x ö
= –çB x ( x, y, z ) – ÷dydz
è 2 ¶x ø
æ dx ö æ dx ö
dF Bçx+ , y, z ÷=+B xçx+ , y, z ÷dydz =
è 2 ø è 2 ø
(73)
æ dx ¶ B x ö
=çB x ( x, y, z )+ ÷dydz
è 2 ¶x ø
Procediendo de forma análoga, se encuentra que los flujos a través de las caras perpendiculares a
los ejes y y z vienen dados por:
¶B y
dF By = dxdydz (75)
¶y
¶B z
dF Bz = dxdydz (76)
¶z
¶B x ¶B y ¶B z
+ + =0 (79)
¶x ¶y ¶z
r r
El valor de Ñ×B = 0 calculado para cualquier vector se denomina divergencia del r vector, en
nuestro caso divergencia del campo magnético, y también se escribe a veces como div B. Sustituyen-
do el resultado anterior en la ecuación (79), la ley de Gauss en forma diferencial puede escribirse
como:
r r
Ñ×B = 0 (82)
Z
La circulación del campo magnético a lo largo de dicha z B(x,y,z)
Bx(x,y–dy/2,z) a
trayectoria en el sentido indicado puede escribirse como la dx d
suma de cuatro términos, uno para cada uno de los lados: b
r r b r r c r r d r r a r r dy c
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (84)
Z
J Bx(x,y+dy/2,z)
a ë è 2 ø è 2 øû
(89)
¶B
= – x dxdy
¶y
r r a r r é æ dx ö æ dx öù
ò B ×d l+ òd B ×d l =+êB yçx+ , y, z ÷– B yçx – , y, z ÷údy =
c
b ë è 2 ø è 2 øû
(90)
¶B y
=+ dxdy
¶x
r r æ ¶B y ¶B x ö
ò B ×d l =çç ¶x –
¶y ÷
÷dxdy (91)
è ø
Por otra parte, la corriente elemental dI encerrada por el camino abcd puede escribirse en fun-
ción de la densidad de corriente como:
r r
dI = J · dS = Jzdxdy (92)
r
en donde hemos tenido en cuenta que dS es un vector asociado al elemento infinitesimal de superficie
dxdy y cuya dirección la obtenemos mediante la regla de la mano derecha: curvando los dedos en di-
rección de la circulación del campo, el pulgar extendido indica el sentido del vector unitario normal a
la superficie. Por otra parte, es evidente que sólo la componente Jz de la densidad de corriente contri-
buirá a una corriente a través de la superficie limitada por el contorno acbd, puesto que las componen-
tes Jx y Jy corresponderán a corrientes paralelas a dicha superficie. Sustituyendo los resultados
obtenidos en (91) y (92) en la expresión (83), se tiene que:
æ¶B y ¶B x ö
ç ÷
ç ¶x – ¶y ÷dxdy = m 0 J zdxdy (93)
è ø
Eliminando a ambos lados de la ecuación anterior el factor dxdy, obtenemos la ley de Ampère en for-
ma diferencial:
¶B y ¶B x
– = m0J z (94)
¶x ¶y
El resultado anterior lo hemos obtenido suponiendo que el camino de integración para calcular
la circulación del campo magnético se encontraba situado en el plano XY. Podemos encontrar resulta-
dos similares si consideramos que dicho camino se encuentra en los planos YZ y ZX. Mediante un pro-
ceso análogo al descrito anteriormente, encontraríamos que:
¶B z ¶B y
– = m0J x (95)
¶y ¶z
¶B x ¶B z
– = m0J y (96)
¶z ¶x
Las ecuaciones (95), (96) y (94) se pueden combinar en una sola ecuación vectorial. Vemos que
los segundos miembros de estas ecuaciones son las componentes del vector densidad de corriente
multiplicadas por la permeabilidad del vacío. Por otro lado, los primeros términos
r pueden considerar-
se como las componentes de un vector obtenido a partir del campo magnético B combinando sus deri-
vadas espaciales en la forma adecuada.
r r Este vector,
r por definición, se denomina rotacional del campo
magnético y se escribe como Ñ´B o bien rotB. Utilizando este vector rotacional, las ecuaciones ante-
riores se escriben como:
r r r
Ñ´ B = m 0 J (97)
Esta relación es la ley de Ampère en forma diferencial, y proporciona una relación local entre el
campo magnético en un punto del espacio y la densidad de corriente en dicho punto. Observemos que
esta ecuación relaciona el campo magnético con las corrientes de forma similar a como la ley de
Gauss para el campo eléctrico relaciona el campo eléctrico en un punto del espacio con la densidad de
carga (fuentes del campo eléctrico) en dicho punto. Por tanto, podemos decir, como ya se ha indicado
a lo largo de este tema, que las corrientes eléctricas constituyen las fuentes del campo magnético.
q Z
u
Z
u Z
F
q
Z
B
r r
Por otro lado, puesto que u|| y B son paralelos, de la ecuación (106) se tiene que:
r
du ||
=0 (111)
dt
La velocidad paralela al campo magnético no se verá afectada por él y, por tanto, permanecerá
constante.
De la composición de estos dos movimientos resulta que la trayectoria de la partícula será una
trayectoria helicoidal como la mostrada en la figura 27.
Z
u
q Z
B
Figura 27. Órbita de una
partícula cargada en el
seno de un campo
magnético, si la velocidad
y el campo no son
perpendiculares.
Z
B
u
P P'
Un fenómeno como el descrito anteriormente tiene lugar en el espacio exterior como consecuen-
cia del campo magnético terrestre. La Tierra tiene un campo magnético semejante al de un gran imán,
dirigido desde el polo sur geográfico al polo norte. Un gran número de partículas cargadas que pro-
vienen del Sol, y que forman lo que se denomina viento solar, alcanzan las inmediaciones de la Tie-
rra. Debido a las colisiones en la vecindad de la Tierra, reducen su velocidad y son atrapadas por el
campo magnético terrestre. Estas partículas describen trayectorias en forma de hélice o espiral alre-
dedor de las líneas del campo magnético terrestre. Estas líneas se hacen más densas en las zonas cer-
canas a los polos, lo que produce que las partículas vuelvan sobre su camino inicial. De esta manera,
una partícula cargada que se mueve en espiral desde el polo sur
Protones al polo norte experimenta una reflexión en las cercanías del
polo norte regresando de nuevo hacia el polo sur. Es decir, es
como si en las cercanías de los polos existiesen unos espejos
magnéticos. Las partículas cargadas describen un movimiento
oscilatorio entre ambos polos y se acumulan en unas determi-
nadas regiones del espacio que se denominan cinturones de
Van Allen (figura 29). Hay dos de estos cinturones: uno que
Electrones contiene protones y se encuentra situado a una altura media so-
Figura 29. Cinturones de bre la superficie terrestre de 3000 km, y otro que contiene elec-
Van Allen. trones, situado a una distancia media de la Tierra de 15000 km.
En consecuencia, cualquier partícula con una velocidad igual a la dada por la expresión (114) atrave-
sará la región de los campos eléctrico y magnético sin desviarse, independientemente de su masa y de
su carga. Las partículas con una velocidad inferior se desviarán en la dirección del campo eléctrico, y
las partículas con velocidades mayores se desviarán en la dirección de la fuerza magnética. Por esta
razón, a un dispositivo de campos eléctrico y magnético cruzados se le denomina selector de veloci-
dades: sólo aquellas partículas, cualquiera que sea su masa y carga, cuya velocidad sea igual a (113)
pasan por el selector sin que su velocidad experimente alguna modificación.
esta región, los iones describen una trayectoria circular, cuyo radio depende de su masa. Por tanto, los
iones de distinta masa e igual carga golpearán sobre una placa fotográfica, situada a tal efecto, en dis-
tintas posiciones. Según la expresión (102), la masa de las partículas vendrá dada por:
qBR
m= (115)
u
Puesto que las cantidades a la derecha de la igualdad anterior son todas medibles experimentalmente,
podemos determinar la masa de cada isótopo.
Por otra parte, si sustituimos la placa fotográfica por un electrómetro con una abertura capaz de
admitir el haz de iones de cada isótopo, podemos determinar la carga total debida a cada uno de ellos
y, por tanto, determinar las abundancias relativas de los isótopos en el elemento.
4.4. Ciclotrón
El ciclotrón es un acelerador de partículas inventado por Ernest O. Lawrence (1901-1958) de la
Universidad de Berkeley (California) en 1932. Las partículas o iones acelerados, de alta energía, pue-
den utilizarse como proyectiles para bombardear núcleos y producir reacciones nucleares de las que
obtener información sobre el núcleo atómico.
Un ciclotrón se compone fundamentalmente de dos cavidades semicilíndricas de cobre en las
que se har hecho el vacío y que se denominan des, debido a su forma (figura 32). Un campo magnético
intenso B perpendicular al plano de las des mantiene a las partículas cargadas en trayectorias circula-
res. Si se aplica una diferencia de potencial entre las des cada vez que las partículas pasan por el espa-
cio que hay entre ellas, irán adquiriendo velocidad en cada paso. Puesto que la frecuencia de ciclotrón
es constante wc = qB/m, conforme las partículas aumentan su velocidad, también aumentan su radio
de giro R = mu/qB. Al cabo de muchas revoluciones, las partículas adquieren suficiente energía y al-
canzan la parte más externa del ciclotrón.
B
Partículas aceleradas
Observemos que para que las partículas no pierdan energía, la diferencia de tensión aplicada al
espacio vacío entre las des ha de ser alterna. Cuando las partículas se mueven hacia la derecha, la di-
ferencia de potencial ha de ser tal que las partículas se aceleren, mientras que medio ciclo después,
cuando las partículas se mueven hacia la izquierda, la diferencia de tensión ha de ser de signo opuesto
para que las partículas no pierdan velocidad. Por tanto, la frecuencia de esta tensión de alterna ha de
ser exactamente igual a la frecuencia de ciclotrón. De esta manera, cada vez que las partículas pasan
por el espacio entre las des adquieren una energía cinética igual a:
DK = qV (116)
siendo V la diferencia de tensión entre las des y su valor típico, 105 V. Puesto que el radio es propor-
cional a la cantidad de movimiento de las partículas cargadas, la cantidad máxima de energía que
pueden adquirir las partículas está limitada por el radio r del ciclotrón:
1 ( qBr ) 2
K max = mu 2max = (117)
2 2m
en donde elrradio r está a su vez limitado por el tamaño del imán disponible para producir el campo
magnético B. El primer ciclotrón construido tenía un radio de 1,25 pulgadas y conseguía acelerar los
protones hasta alcanzar una energía de 80 keV.
Hasta ahora, hemos considerado que las partículas cargadas en el interior de un ciclotrón se com-
portan como partículas clásicas. Se puede demostrar que a velocidades relativistas, la frecuencia del ci-
clotrón viene dada por la misma expresión que en el campo de velocidades bajas wc = qB/m. Sin
embargo, la masa m de la partícula es ahora la masa relativista m = m0/ 1– u 2 / c 2 , siendo m0 la masa en
reposo y c la velocidad de la luz en el vacío. Una consecuencia de esta dependencia de la masa con la
velocidad de la partícula es que, a velocidades relativistas, la masa de la partícula incrementa con la ve-
locidad, con lo cual disminuye la frecuencia del ciclotrón. Por consiguiente, si la frecuencia de la ten-
sión aplicada a las des permanece constante, conforme aumenta la velocidad de las partículas cargadas,
se produce un desfase entre la fuente de tensión y el movimiento de las partículas. Esto hace que exista
un límite máximo de la energía que pueden alcanzar las partículas cargadas en un ciclotrón. Por ejem-
plo, para un protón con una tensión de 500 kV, la máxima energía que puede alcanzarse es de 22 MeV.
Para alcanzar energías mayores que este límite relativista, es necesario utilizar sistemas electró-
nicos sofisticados que reduzcan la frecuencia de la tensión aplicada a las des cuando las partículas al-
cancen velocidades muy altas. Un ciclotrón modificado a tal objeto se denomina sincrociclotrón. Con
un aparato de estas características, es posible alcanzar energías del orden de 1 GeV.
Para obtener energías mayores se ha desarrollado un nuevo tipo de acelerador denominado sin-
crotrón. En un sincrotrón, la forma de controlar el aumento de la masa relativista de las partículas con
la velocidad es aumentando gradualmente el campo magnético en el acelerador. De esta manera, se
consigue que las partículas describan trayectorias circulares de forma constante.
Este par hace girar la bobina un ángulo q hasta que este par es compensado por el momento de
torsión restaurador del muelle que es proporcional al ángulo q girado:
tr = kq (119)
en donde k es la constante elástica del resorte. Igualando las dos expresiones anteriores, obtenemos
que:
NSB
q= I (120)
k
Por consiguiente, el ángulo girado por la aguja del galvanómetro es directamente proporcional a la
corriente I que circula por él.
Para calibrar el galvanómetro, se toman una serie de medidas de q para valores de I conocidos y
los datos se ajustan a una recta. Esto nos permite encontrar el valor del ángulo girado por la aguja para
cualquier valor de la corriente, y, por tanto, podremos calibrar directamente la escala del aparato en
amperios o voltios, dependiendo del uso que se le vaya a dar al galvanómetro.
BIBLIOGRAFÍA
22
Campos eléctricos y magnéticos
dependientes del tiempo.
Leyes de Maxwell. Inducción
electromagnética. Inducción
mutua. Autoinducción
ÍNDICE SISTEMÁTICO
2. CAMPO ELECTROMAGNÉTICO
2.1. Corriente de desplazamiento de Maxwell
2.2. Ley de Ampère-Maxwell en forma diferencial
2.3. Ecuaciones de Maxwell
3. INDUCCIÓN MUTUA
4. AUTOINDUCCIÓN
BIBLIOGRAFÍA
Galvanómetro
Interruptor Hierro
El hecho de que una corriente eléctrica que circulaba por un hilo conductor produjese un campo
magnético hizo pensar a Faraday que un campo magnético estacionario podría producir una corriente
eléctrica. Con este objetivo, Faraday dispuso un montaje experimental como el mostrado en la figura 1.
Se hace circular una corriente por una bobina conectada a una batería. Esta corriente producía un
campo magnético que se veía incrementado por el núcleo de hierro. Faraday esperaba que, si la bate-
ría era de suficiente capacidad, se crearía un campo magnético intenso capaz de producir una corrien-
te eléctrica en una segunda bobina. Para detectar la corriente en esta bobina se conectaba un galvanó-
metro. Cuando la corriente por la primera bobina era estacionaria, Faraday no observó corriente indu-
cida alguna sobre la segunda bobina. Sin embargo, observó que la aguja del galvanómetro se
desviaba de forma apreciable cuando cerraba el interruptor del circuito. De la misma forma, la aguja
se desviaba en sentido contrario cuando se abría el interruptor. Por tanto, la corriente estacionaria en
la primera bobina no producía ninguna corriente inducida en la segunda. Esta corriente inducida sólo
se generaba al iniciarse la corriente en la primera bobina o al finalizar la corriente.
Con estos resultados, Faraday concluyó que si bien un campo magnético estático no produce
ninguna corriente eléctrica, sí la puede producir un campo magnético variable con el tiempo. A las
corrientes generadas de esta forma se les denomina corrientes inducidas, y a dicho fenómeno, induc-
ción electromagnética. Puesto que por el circuito circula una corriente eléctrica, esto implica la exis-
tencia de una fuerza electromotriz inducida e.
I I
u N
S u
S
Como vimos en el tema anterior, en términos de las líneas de campo, el flujo a través de una su-
perficie es proporcional al número de líneas que la cruzan. Puesto que las líneas del campo magnético
son líneas cerradas, para cualquier superficie cerrada se tiene que toda línea de campo que atraviesa
hacia adentro la superficie vuelve a atravesarla hacia afuera. Es decir, el flujo magnético a través de
una superficie cerrada es cero:
r r
F B = òSB ×dS = 0 (2)
dF B
e= – (3)
dt
El signo menos de la expresión anterior está relacionado con el sentido de la fem inducida en el cir-
cuito, y que comentaremos posteriormente (ley de Lenz).
Puesto que, en el SI, la unidad de fuerza electromotriz es el voltio (V), la ley de Faraday nos pro-
porciona una relación entre la unidad de flujo magnético, el weber (Wb) y el voltio:
1Wb
1V=
1s
Si el circuito es una bobina compuesta por N vueltas, cada vuelta se comporta como una espira y
podemos aplicar la ley de Faraday para calcular la fem inducida sobre cada una de ellas. Puesto que
las diferentes vueltas están conectadas en serie, la fem total inducida sobre la bobina será igual a la
suma de las fuerzas electromotrices inducidas sobre cada una de las vueltas. En consecuencia, tendre-
mos que la fem inducida sobre una bobina será:
dF B
e= – N (4)
dt
Veamos cómo se aplica la ley de Lenz al ejemplo de la figura 2. Al acercar el imán a la bobina, al
ser el campo magnético en la bobina más intenso, el flujo magnético aumenta. Esta variación del flujo
induce una fem en la bobina que produce una corriente eléctrica inducida, la cual genera a su vez su
propio campo magnético. Para oponerse al cambio de flujo magnético del imán la corriente inducida
debe tener el sentido mostrado en la figura. De esta manera, el campo magnético inducido tiende a
disminuir el flujo magnético que atraviesa la bobina. Si el imán se desplaza alejándose de la bobina,
el flujo magnético producido por el imán que atraviesa la espira disminuye, por lo que la corriente in-
ducida debe tener el sentido indicado. De esta manera, el campo magnético inducido tiende a aumen-
tar el flujo a través de la espira.
La ley de Lenz es una exigencia del principio de conservación de la energía. En efecto, suponga-
mos que esta ley no se cumpliera. Entonces, la corriente inducida produciría un campo magnético
cuyo flujo tendría la misma dirección que el cambio original. Este cambio daría lugar a un aumento
de la corriente inducida que a su vez produciría un aumento del flujo, y así sucesivamente. Por tanto,
si en el instante inicial el imán se encuentra a una gran distancia de la fuente y le suministramos un pe-
queño empuje, el momento magnético inducido en la espira atraería al imán, el cual aumentaría su ve-
locidad al mismo tiempo que aumentaría la corriente inducida en la espira. En consecuencia, tanto la
energía cinética del imán como el calor generado por efecto Joule en la espira irían aumentando sin la
presencia de una fuente de energía. lo que violaría el principio de conservación de la energía. Por tan-
to, la ley de Lenz, y no su contraria, es consistente con dicho principio de conservación.
Z
B
I
I u
l
x Figura 3. Una varilla conductora se mueve hacia la
derecha sobre un conductor ren U en el seno de un
campo magnético uniforme B que apunta hacia fuera
de la página.
en donde S es una función que depende del tiempo. Si llamamos l a la separación entre los brazos del
conductor en U, y x a la distancia de la varilla móvil al extremo del conductor en U, el área limitada
por el circuito en un instante de tiempo dado será:
S(t) = lx(t) (7)
FB = BS = BRx (8)
Según la ley de Faraday, la magnitud de la fuerza electromotriz inducida en el circuito vendrá dada
por:
dF B dx
| e|= = BR (9)
dt dt
Para determinar el signo de la corriente inducida utilizaremos la ley de Lenz. Puesto que el cam-
po magnético inducido se opone a la variación del flujo magnético, debe ser antiparalelo al campo
magnético externo. Es decir, el campo magnético inducido es perpendicular al papel y mirando hacia
adentro, y la corriente inducida ha de circular en el circuito en sentido horario, y por tanto, en la vari-
lla esta corriente se dirige hacia abajo, en la figura.
Si llamamos I a la corriente que circula por
r elr circuito,
r el campo magnético ejercerá una fuerza
sobre esta corriente, la cual vendrá dada por F = I l´ B. El módulo de dicha fuerza será F = IRB y su
sentido, aplicando la regla de la mano derecha, perpendicular a la varilla y hacia la izquierda, opo-
niéndose al movimiento de la varilla. Por consiguiente, esta fuerza tiende a frenar el movimiento de la
varilla hasta detenerla. Para mantener la varilla moviéndose con velocidad constante, y, por tanto,
mantener la corriente en el circuito, será necesario ejercer una fuerza externa dirigida hacia la derecha
y de módulo igual a IRB. La potencia suministrada por esta fuerza será:
r r
P = F ×u = Fu = IlBu =| e| I (11)
Es decir, la potencia suministrada por la fuerza externa será igual a la potencia suministrada por la
fem a las cargas. La fuente de energía eléctrica asociada a la fuerza electromotriz es el trabajo externo
realizado por la fuerza aplicada a la varilla para que mantenga su velocidad constante.
El ejemplo que acabamos de estudiar muestra de forma sencilla que la ley de Faraday constituye
la base para la transformación de energía mecánica en energía eléctrica, y pone de manifiesto la gran
importancia que el fenómeno de inducción electromagnética ha tenido en el desarrollo social.
1.4. Generadores
Como hemos comentado, la ley de Faraday constituye el principio para la conversión de energía
mecánica en energía eléctrica. Esta conversión es la que tiene lugar, por ejemplo, en los generadores
eléctricos o en los alternadores de los automóviles.
La mayor parte de la energía eléctrica utilizada por la sociedad se produce en los generadores o
dinamos de las centrales eléctricas y tiene lugar en la forma de corriente alterna. Si bien estos disposi-
Z
S
N
Z
q
B
S
Figura 4. Una espira que
gira con velocidad
angular w en el seno de
un campo magnético
uniforme genera una fem
sinusoidal.
Consideremos un generador básico de corriente alterna constituido por una espira conductora
que gira en el seno de un campo magnético uniforme, como se muestra en la figura 4. Vamos a supo-
ner que la espira es una espira rectangular plana que gira alrededor de un eje, contenido en el plano de
la espira, perpendicular al campo magnético. Los extremos de la espira están conectados a unos ani-
llos que giran con la espira, y el contacto eléctrico se realiza mediante unas escobillas conductoras
deslizantes en contacto con los anillos.
r Si llamamos q al ángulo que, en unr instante de tiempo determinado, forma el campo magnético
B con el vector superficie de la espira S, el flujo magnético que atraviesa la espira es:
r r r r
F B = òS B ×dS = B ×S = BS cos q (12)
Puesto que la espira se encuentra girando de forma continua, el ángulo q varía con el tiempo y, por lo
tanto, el flujo a través de la espira cambia con el tiempo. Por consiguiente, se induce una fuerza elec-
tromotriz, que vendrá dada por la ley de Faraday:
dF B d cos q
e= – = – BS (13)
dt dt
Si suponemos que la espira gira con una velocidad angular w constante, entonces, para cualquier ins-
tante de tiempo se tiene que:
q = a + wt (14)
siendo a el ángulo que forma la espira y el campo magnético en el instante inicial. Sustituyendo esto
en la expresión anterior, se tiene que:
e = BSw sen(wt + a) (15)
En el caso en que sea una bobina de N espiras la que gira en el seno del campo magnético, la ex-
presión anterior se transforma en:
Las ecuaciones (15) y (16) indican que la fem inducida en la espira oscila sinusoidalmente con
una frecuencia angular w igual a la velocidad angular con la que gira la espira en el campo magnético.
El valor máximo de la fuerza electromotriz, o valor de pico, es:
emáx = NBSw (17)
La expresión anterior la hemos deducido suponiendo un conductor (espira) en una región donde
existe una campo magnético variable. No obstante, como demuestra la experiencia, esta expresión es
válida incluso si no hay conductor en la región del campo magnético. Es decir, un campo magnético va-
riable induce en cualquier
r r punto del espacio un campo eléctrico. Si tenemos en cuenta que el flujo mag-
nético es FB = òS B ×dS , y puesto que una fem sólo tiene sentido en un conductor,
r podemos rescribir el
resultado anterior de forma más general en función de los campos eléctrico E y magnético B como:
r r d r r
ò E ×d l = – dt ò S
B ×dS (21)
expresión que constituye la forma integral de la ley de Faraday. En esta expresión, la integral de lí-
neas se extiende a cualquier camino cerrado, y el flujo magnético se calcula para cualquier superficie
apoyada en el camino de integración. El sentido de la integración de línea y el del vector superficie es-
tán relacionados mediante la regla de la mano derecha. Si cerramos los dedos de esta mano en lar di-
rección del camino de integración, el pulgar extendido indica el sentido del vector superficie dS .
Mediante una experiencia sencilla puede demostrarse la existencia de estas corrientes de Fou-
cault. Coloquemos una placa de aluminio entre los polos de un imán permanente, de manera que sólo
parte de la placa se encuentre dentro de la región del imán (figura 6). Si tiramos de la placa hacia la
derecha, el flujo de campo magnético tiende a disminuir, por lo que aparecen unas corrientes de Fou-
cault que tienden a que el flujo no disminuya. Consideremos la curva de la figura. Parte del área ence-
rrada por la curva está dentro del imán y parte fuera. Al estirar de la lámina el flujo a través de la curva
disminuye. Como la corriente en la parte interior de los imanes es hacia abajo, existirá una fuerza ha-
cia la izquierda. Esta fuerza se puede apreciar si el campo magnético del imán es un campo magnético
intenso.
Z
N v
Z
Figura 6. Si una lámina I v
I
metálica situada en un campo S
magnético se desplaza en la Z
F
dirección dada por u, aparece
una fuerza sobre la corriente b)
inducida que se opone al a)
movimiento.
Las corrientes de Foucault producen un calentamiento en el conductor por el efecto Joule, por lo
que son unas corrientes indeseables en la mayoría de los casos. Para reducir este efecto lo que hay que
hacer es eliminar los caminos de las corrientes de Foucault. Esto se puede conseguir haciendo ranuras
en el conductor o, también, insertando láminas de material aislante entre láminas de éste.
Una típica demostración de cátedra de las corrientes de Foucault es la mostrada en la figura 7. El
montaje consta de una lámina de metal sujeta mediante un hilo que se hace oscilar entre los polos de
un imán permanente. Si el campo magnético es intenso, las oscilaciones se amortiguan muy rápida-
mente, a causa de las fuerzas que el imán ejerce sobre el conductor debido a las corrientes de Foucault
inducidas. Si sustituimos la lámina de metal por una lámina ranurada, las corrientes de Foucault se re-
ducen considerablemente, y la lámina oscila sin apenas amortiguamiento.
N
Z
B
u2 Figura 7. Si dejamos oscilar una
u1
S placa metálica entre los polos de un
Z Z
F F electroimán, el movimiento es
F
frenado por las fuerzas magnéticas
que actúan sobre las corrientes de
Foucault inducidas en la placa
conductora.
z
Ex(x, y – dy/2, z) E(x, y, z)
a
dx d
b
dy c
Ex(x, y + dy/2, z)
x y
La circulación del campo eléctrico a lo largo de dicha trayectoria en el sentido indicado puede
escribirse como la suma de cuatro términos, uno para cada uno de los lados:
r r b r r c r r d r r a r r
ò E ×d l = òa E ×d l+ òb E ×d l+ òc E ×d l+ òd E ×d l (23)
r r r
$
r De forma análoga, para la integral a lo largo del tramo cd se tiene que d l= –dxi, por lo que E · d l =
= –E · i$dx = –Exdx. En consecuencia, la integral vendrá dada por:
r r æ dy ö
ò
d
E ×d l = – E xçx, y+ , z ÷dx (27)
c è 2 ø
a ë è 2 ø è 2 øû
(28)
¶E
= – x dxdy
¶y
b ë è 2 ø è 2 øû
(29)
¶E y
=+ dxdy
¶x
Calculemos ahora el flujo magnético a través de la superficie limitada por la espira. Puesto que
ésta se encuentra en el plano XY, aplicando la regla de la mano derecha, se tiene
r que el vector normal a
la superficie será el vector unitario k$ en la dirección del eje Z; es decir, dS = dSk.
$ Por tanto, el flujo
magnético a través de la espira vendrá dado por:
r r r
òSB ×dS = òSB ×k$dS = B z òSdS = B zdxdy (31)
Eliminando a ambos lados de la ecuación anterior el factor dxdy, obtenemos la ley de Faraday en for-
ma diferencial:
¶E y ¶E x ¶B
– =– z (33)
¶x ¶y ¶t
El resultado anterior lo hemos obtenido suponiendo que el camino de integración para calcular
la circulación del campo eléctrico se encontraba situado en el plano XY. Podemos encontrar resulta-
dos similares si consideramos que dicho camino se encuentra en los planos YZ y ZX. Mediante un pro-
ceso análogo al descrito anteriormente, encontraríamos que:
¶E z ¶E y ¶B
– =– x (34)
¶y ¶z ¶t
¶E x ¶E z ¶B y
– =– (35)
¶z ¶x ¶t
Las ecuaciones (34), (35) y (33) se pueden combinar en una sola ecuación vectorial. Vemos que
los segundos miembros de estas ecuaciones son las derivadas temporales de las componentes del
campo magnético, cambiadas de signo. Por otro lado, los primeros términos r pueden considerarse
como las componentes de un vector obtenido a partir del campo eléctrico E combinando sus deriva-
das espaciales en la forma adecuada.
r r Este vector,
r por definición, se denomina rotacional del campo
eléctrico y se escribe como Ñ´E o bien rotE. Utilizando este vector rotacional, las ecuaciones ante-
riores se escriben como:
r
r r ¶B
Ñ´ E =- (36)
¶t
Esta relación es la ley de Faraday o de Faraday-Henry en forma diferencial, y proporciona una rela-
ción local entre el campo eléctrico en un punto del espacio y la variación temporal del campo magné-
tico en dicho punto. Por tanto, pone de manifiesto, de forma clara, la interrelación entre las compo-
nentes eléctrica y magnética de un campo electromagnético.
2. CAMPO ELECTROMAGNÉTICO
Los dos descubrimientos más importantes en los que se basa la teoría de los campos electromag-
néticos variables con el tiempo fueron los realizados por Michael Faraday y James Clerk Maxwell. El
descubrimiento de Faraday, estudiado anteriormente, fue un descubrimiento experimental y puso de
manifiesto que la electricidad y el magnetismo están fundamentalmente unidos: un campo magnético
variable con el tiempo induce un campo eléctrico. El descubrimiento de Maxwell estuvo motivado
por la idea de simetría del universo y fue este convencimiento lo que le condujo a la conclusión teóri-
ca que el inverso de la ley de Faraday también era cierto: un campo eléctrico variable con el tiempo
induciría un campo magnético. En este sentido, la variación del flujo del campo eléctrico debería de-
sempeñar el mismo papel que las corrientes de conducción. Maxwell denominó corriente de despla-
zamiento a esta variación, con respecto al tiempo, del flujo del campo eléctrico y combinó esta co-
rriente con la de conducción en una corriente total, que demostró que era continua.
A continuación, vamos a estudiar el concepto de corriente de desplazamiento introducido por
Maxwell, y veremos cómo la introducción de esta corriente en la ley de Ampère permite generalizarla
y que esta ley sea también válida en el caso de corrientes discontinuas.
Ahora bien, esta ley sólo es válida para el caso de corrientes continuas que circulan por un con-
ductor. Existen otras distribuciones de corrientes que no satisfacen la ley de Ampère enunciada en la
forma anteriormente descrita. Por lo tanto, esta ley debe ser modificada de manera que tenga un ca-
rácter más general y sea válida en cualquier situación. Esta generalización fue realizada por Maxwell
y supuso un reforzamiento en la unión entre los fenómenos eléctricos y magnéticos. Para ello, Max-
well introdujo el concepto de corriente de desplazamiento, ligado a la variación del flujo del campo
eléctrico. Estudiemos a continuación el argumento de Maxwell.
Supongamos una situación, como la descrita en la figura 9, en la que se tiene una corriente dis-
continua. En ella se tiene un condensador de placas planas paralelas que se encuentra en proceso de
carga, por lo que se produce un flujo de carga hacia la placa positiva mientras que de la placa nega-
tiva fluye hacia afuera una cantidad de carga igual. Consideremos ahora un circuito de integración
C y dos superficies S1 y S2 que se apoyan en dicho contorno. A través de la superficie S1 circula una
corriente, la corriente de carga del condensador, y se satisface la ley de Ampère dada por (37): la
circulación del campo magnético a lo largo del circuito C es igual al producto de la permeabilidad
del vacío m0 por la corriente que atraviesa la superficie S1. Sin embargo, si consideramos la superfi-
cie S2, la circulación del campo magnético a lo largo del circuito C es distinta de cero e igual a la
calculada en el caso anterior, pues existe un campo magnético en la región alrededor del hilo con-
ductor; pero no hay ninguna corriente de conducción que atraviese la superficie S2, por lo que el se-
gundo miembro de la ecuación (37) es cero. Por consiguiente, si tomamos la superficie S2, la ley de
Ampère no se satisface.
S2
S1
Z
E
I
Figura 9. Corriente discontinua de q –q
carga de un condensador.
Maxwell observó que, si bien no pasa corriente a través de la superficie S2, el flujo del campo
eléctrico a través de ella cambia con el tiempo: conforme se almacena la carga en las placas del con-
densador, el campo eléctrico entre ellas varía, y también lo hace el flujo eléctrico en la región situada
entre ellas. Este hecho condujo a Maxwell a resolver la ausencia de corriente eléctrica a través de S2,
estableciendo que la variación del campo eléctrico entre las placas del condensador es equivalente a
una corriente eléctrica, que denominó corriente de desplazamiento, ID.
El campo eléctrico en un condensador de placas planas paralelas es uniforme entre las placas y
pequeño en el exterior de las mismas. La dirección del campo apunta desde la placa positiva a la nega-
tiva y su magnitud es:
1 q
E= (38)
e0 A
en donde q es la carga almacenada en las placas, A la superficie de cada placa y e0 la permitividad del
vacío. De esta ecuación se tiene que la carga almacenada en cualquier instante de tiempo es:
q = e0AE (39)
Ahora bien, la variación de la carga en las placas del condensador ha de ser igual a la corriente que cir-
cula hacia o desde el condensador; es decir, dq/dt = I. Por otro lado, como el campo eléctrico en el
condensador es uniforme entre las placas y pequeño en el exterior de las mismas, esto significa que el
flujo a través de cualquier superficie entre ellas es aproximadamente igual a FE = EA. Por consi-
guiente, se tiene que:
dE dF E
I = e0 A = e0 (41)
dt dt
Esta ecuación indica que cualquiera que sea la corriente que circula hacia el condensador es igual a la
variación del flujo entre las placas del condensador multiplicada por la permitividad del vacío. Por
tanto, si reemplazamos la corriente de conducción I en la ley de Ampère por la suma:
dF E
I +e 0
dt
entonces, la ley de Ampère se satisface para cualquier superficie que se apoye en el circuito de inte-
gración C. Para la superficie S1 sólo se tiene el término I de la suma anterior; mientras que para cual-
quier superficie situada entre las placas del condensador sólo se tiene el término del cambio del flujo
eléctrico e0dFE/dt. Maxwell lo denominó corriente de desplazamiento:
dF E
I D = e0 (42)
dt
es decir, al término correspondiente a las corrientes verdaderas enlazadas por el camino de integra-
ción hay que sumarle la corriente de desplazamiento enlazada por el mismo camino. Sustituyendo el
valor de la corriente de desplazamiento dado por (42) en la ecuación anterior se tiene que:
r r dF E
ò B ×d l = m 0 I + m0e0
dt
(44)
Esta ecuación, conocida también como ley de Ampère-Maxwell, pone de manifiesto que, además de
por una corriente de conducción I, un campo magnético puede ser generado por un campo eléctrico
variable con el tiempo.
Aunque la ecuación (44) se ha obtenido para un caso particular, su validez es general. El término
del campo magnético inducido por la variación con el tiempo de un campo eléctrico es, por regla ge-
neral, bastante pequeño, sobre todo en aquellos casos en que los campos varíen muy lentamente con
el tiempo. Sin embargo, que la variación de un campo eléctrico produzca un campo magnético es de
crucial importancia para las ondas electromagnéticas.
r r dF E
ò B ×d l = m dI + m
0 0 e0
dt
(45)
z
Bx(x, y – dy/2, z) B(x, y, z)
a
dx d
b
dy c
Z Bx(x, y + dy/2, z)
J
Figura 10. Aplicación de la
ley de Ampère a un circuito x
infinitesimal. y
Comenzaremos por calcular el primer miembro de esta ecuación. La circulación del campo
magnético a lo largo de la trayectoria especificada, y en el sentido indicado, puede escribirse como la
suma de cuatro términos, uno para cada uno de los lados:
r r b r r c r r d r r a r r
ò B ×d l = òa B ×d l+ òb B ×d l+ òc B ×d l+ òd B ×d l (46)
r r r r
Si tenemos en cuenta que en este tramo d l = dxî, entonces B ×d l = B ×i$dx = B x dx, y por lo tanto, la in-
tegral anterior queda como:
r r æ dy ö
ò
b
B ×d l = B xçx, y – , z ÷×dx (49)
a è 2 ø
r r r
rDe forma análoga, para la integral a lo largo del tramo cd se tiene que d l = –dxî, por lo que B · d l =
= – B ×i$dx = – B x dx. En consecuencia, la integral vendrá dada por:
r r æ dy ö
ò
d
B ×d l = – B xçx, y+ , z ÷×dx (50)
c è 2 ø
a ë è 2 ø è 2 øû
(51)
¶B
= – x dxdy
¶y
b ë è 2 ø è 2 øû
(52)
¶B y
=+ dxdy
¶x
r r æ ¶B y ¶B x ö
ò B ×d l =çç ¶x –
¶y ÷
÷dxdy (53)
è ø
Calculemos ahora los dos términos del segundo miembro de la ecuación (45). En cuanto al térmi-
no correspondiente a la corriente de conducción, se tiene que la corriente elemental dI encerrada por el
camino abcd puede escribirse en función de la densidad de corriente como:
r r
dI = J ×dS = J zdxdy (54)
r
en donde hemos tenido en cuenta que dS es un vector asociado al elemento infinitesimal de superficie
dxdy y cuya dirección la obtenemos mediante la regla de la mano derecha: curvando los dedos en di-
rección de la circulación del campo, el pulgar extendido indica el sentido del vector unitario normal a
la superficie. Por otra parte, es evidente que sólo la componente Jz de la densidad de corriente contri-
buirá a una corriente a través de la superficie limitada por el contorno abcd, puesto que las componen-
tes Jx y Jy corresponderán a corrientes paralelas a dicha superficie.
Calculemos ahora el flujo eléctrico a través de la superficie limitada por la espira. Puesto que
ésta se encuentra en el plano XY, aplicando la regla de la mano derecha, se tiene que el vector normal a
r
$ Por tanto,
la superficie de la espira será el vector unitario k$ en la dirección del eje Z; es decir, dS = dSk.
el flujo eléctrico a través de la espira vendrá dado por:
r r r
òSE ×dS = òSE ×k$dS = E z òSdS = E zdxdy (55)
en donde hemos tenido en cuenta que el área encerrada por el camino de integración es dS = dxdy.
Sustituyendo las ecuaciones (53), (54) y (55) en la expresión (45), se tiene que:
æ¶B y ¶B x ö ¶E z
ç ÷
ç ¶x – ¶y ÷dxdy = m 0 J zdxdy+ m 0 e 0 ¶t dxdy (56)
è ø
Eliminando a ambos lados de la ecuación anterior el factor dxdy, obtenemos la ley de Ampère-Maxwell
en forma diferencial:
¶B y ¶B x ¶E
– = m0J z + m0e0 z (57)
¶x ¶y ¶t
El resultado anterior lo hemos obtenido suponiendo que el camino de integración para calcular
la circulación del campo magnético se encontraba situado en el plano XY. Podemos encontrar resulta-
dos similares si consideramos que dicho camino se encuentra en los planos YZ y ZX. Mediante un pro-
ceso análogo al descrito anteriormente, encontraríamos que:
¶B z ¶B y ¶E
– = m0J x + m0e0 x (58)
¶y ¶z ¶t
¶B x ¶B z ¶E y
– = m0J y + m0e0 (59)
¶z ¶x ¶t
Las ecuaciones (58), (59) y (57) se pueden combinar en una sola ecuación vectorial. Vemos que
los segundos miembros de estas ecuaciones son las componentes del vector densidad de corriente mul-
tiplicadas por la permeabilidad del vacío y las derivadas temporales de las componentes del campo
eléctrico multiplicadas por la permeabilidad y permitividad del vacío. Por otro lado, los primeros térmi-r
nos pueden considerarse como las componentes de un vector obtenido a partir del campo magnético B
combinando sus derivadas espaciales en la formaradecuada.
r Este rvector, por definición se denomina ro-
tacional del campo magnético y se escribe como Ñ´B o bien rotB. Utilizando este vector rotacional, las
ecuaciones anteriores se escriben como:
r
r r ær ¶E ö
ç
Ñ´ B = m 0çJ + e 0 ÷ (60)
¶ ÷
è t ø
Esta ecuación es la ley de Ampère-Maxwell en forma diferencial, y proporciona una relación lo-
cal entre el campo magnético en un punto del espacio y la densidad de corriente y la variación tempo-
ral del campo eléctrico en dicho punto. Observemos que esta ecuación relaciona el campo magnético
con sus fuentes de forma similar a como la ley de Gauss para el campo eléctrico relaciona el campo
eléctrico en un punto del espacio con la densidad de carga (fuentes del campo eléctrico) en dicho pun-
to. Por tanto, vemos que, además de las corrientes eléctricas, los campos eléctricos variables con el
tiempo son también fuentes del campo magnético. Por tanto, esta ley pone de manifiesto de forma
clara la interrelación entre las componentes eléctrica y magnética de un campo electromagnético.
– Ley de Ampère-Maxwell:
r r d r r
ò B ×d l = m 0 I + m0e0
dt
ò E ×dS (63)
– Ley de Faraday-Henry:
r r d r r
ò E ×d l = – dt ò B ×dS (64)
La ley de Gauss para el campo eléctrico es equivalente para campos estáticos a la ley de Cou-
lomb. Establece una relación entre el flujo del campo eléctrico a través de una superficie cerrada con
la carga eléctrica encerrada en el interior de dicha superficie. Esta ley indica que las líneas de campo
eléctrico divergen de las cargas eléctricas positivas y convergen en las cargas eléctricas negativas.
La ley de Gauss para el campo magnético establece que el flujo del campo magnético a través de
una superficie cerrada es cero. Esta ley indica que las líneas de campo magnético son líneas cerradas;
es decir, no divergen ni convergen en ningún punto del espacio. En consecuencia, establece la inexis-
tencia de los polos magnéticos aislados, denominados monopolos magnéticos.
La ley de Ampère-Maxwell establece que la circulación del campo magnético a lo largo de un ca-
mino cerrado es proporcional a la suma de dos términos: el primero de ellos es la corriente que atraviesa
la superficie limitada por el camino de integración, el segundo término es la rapidez con la que varía con
el tiempo el flujo del campo eléctrico a través de dicha superficie. Esta ley indica que las corrientes eléc-
tricas no son las únicas fuentes del campo magnético, también lo son los campos eléctricos variables
con el tiempo. Es decir, un campo eléctrico que varía con el tiempo produce un campo magnético.
La ley de Faraday-Henry establece que la circulación del campo eléctrico a lo largo de un cami-
no cerrado es proporcional a la rapidez con la que varía con el tiempo el flujo del campo magnético a
través de dicha superficie. Esta ley indica que un campo magnético que varía con el tiempo produce
un campo eléctrico.
Las ecuaciones de Maxwell muestran una cierta simetría entre el campo eléctrico y el campo
magnético. Pero esta simetría no es completa debido a que los monopolos magnéticos no existen, al
menos nor se han detectado experimentalmente. Observemos que la ley de Faraday no contiene un tér-
mino m0J (o m0I en su forma integral) como consecuencia de que no hay cargas magnéticas puntuales
que puedan dar lugar a corrientes magnéticas. Sin embargo, en el vacío, donde no hay cargas eléctri-
cas, la simetría de las ecuaciones de Maxwell es total.
Las ecuaciones de Maxwell constituyen un conjunto completo y consistente de ecuaciones que
sintetizan el electromagnetismo. Todo el electromagnetismo se encuentra incluido en estas cuatro
ecuaciones, por lo que son uno de los grandes logros de la física y de la inteligencia humana.
Por otra parte, estas ecuaciones predicen la existencia de ondas electromagnéticas, que Maxwell
identificó con la luz. Por lo que las ecuaciones de Maxwell no sólo significaron la unificación de la
electricidad y el magnetismo, sino que unifican el electromagnetismo y la óptica.
Las ecuaciones de Maxwell se satisfacen también en el límite de velocidades altas, es decir, en el
dominio de la relatividad, algo que no ocurre con las leyes de la mecánica clásica. Sin embargo, tiene
sus limitaciones: las interacciones electromagnéticas entre partículas elementales se deben tratar de
acuerdo con las leyes de la mecánica cuántica. Esta teoría recibe el nombre de electrodinámica cuántica.
3. INDUCCIÓN MUTUA
Hemos visto que un campo magnético variable con el tiempo induce una fem en un circuito, y
también que una corriente por un circuito produce un campo magnético. Como consecuencia de am-
bos resultados, es de esperar que una corriente variable por un circuito induzca una corriente y una
fem en un segundo circuito situado en las proximidades del primero. Por su parte, esta corriente en el
segundo circuito producirá un campo magnético que inducirá una corriente en el primero. Este fenó-
meno se denomina inducción mutua entre circuitos.
Consideremos dos bobinas conductoras situadas cerca una de la otra, tal como se muestra en la
figura 11. Supongamos que por la bobina 1 circula una corriente variable I1. Esta corriente producirá
un campo magnético variable y, por consiguiente, un flujo variable a través de la bobina 2, por lo que
sobre ésta se inducirá una fuerza electromotriz e21. Denominamos F21 al flujo sobre cada una de las
espiras de la bobina 2 debido al campo magnético creado por la bobina 1. Si N2 es el número de espi-
ras de la bobina 2, el flujo total a través de ella es N2F21, cantidad que se denomina número de enlaces
de flujo. Si en las proximidades de las bobinas no existen materiales magnéticos, el campo magnético
B1 es proporcional a la corriente I1 que lo crea (según la ley de Biot-Savart). Por tanto, el flujo F21 y
N2F21 serán proporcionales a I1. Esta relación lineal entre N2F21 y I1 puede expresarse definiendo
una constante M21 denominada inductancia mutua:
N2F21 = M21I1 (69)
La fem e21 inducida en la bobina 2 por la corriente variable en la bobina 1, según la ley de induc-
ción de Faraday, es:
dF
e21 = – N 2 21 (70)
dt
Sustituyendo en esta ecuación la expresión del flujo magnético F21 dada por (69), se tiene que:
dI
e21 = – M 21 1 (71)
dt
Esta expresión relaciona la fem inducida en bobina 2 con la corriente que circula por la bobina 1,
y establece que la fem inducida es proporcional a la rapidez con la que varía la corriente I1 en la bobi-
na 1. La constante de proporcionalidad M21 depende de la forma de la bobina, su tamaño, el número
de espiras, la separación entre las bobinas y su orientación relativa. Así, por ejemplo, cuanto más cer-
ca se encuentren las bobinas, mayor será el flujo que atraviesa su superficie y por tanto mayor será el
valor de la inductancia mutua M21.
Consideremos ahora el caso inverso: si circula una corriente variable I2 por la bobina 2, se indu-
cirá una fem e12 sobre la bobina 1. Esta fem vendrá dada por:
dI 2
e12 = – M 12 (72)
dt
en donde M12 es la inducción mutua de la bobina 2 con respecto a la bobina 1.
Los coeficientes de inductancia mutua M12 y M21 sólo pueden calcularse en algunos casos simples,
por lo que, en general, se determinan experimentalmente. Estos cálculos muestran que para una disposi-
ción cualquiera dada de las bobinas se tiene que M12 = M21. Por consiguiente, podemos eliminar los sub-
índices en los coeficientes de inductancia mutua y representar ambos por M. De esta manera, podemos
escribir la fem inducida en cada una de las bobinas debida a los cambios de corriente en la otra como:
dI
e12 = – M 2 (73)
dt
dI 1
e21 = – M (74)
dt
En el SI, la unidad de inductancia mutua es el henry o henrio (H), llamado así en honor del esta-
dounidense Joseph Henry:
Wb T×m 2
1H= 1 =1
A A
El henrio es una unidad de inductancia bastante grande, por lo que normalmente se suele utilizar sub-
múltiplos de esta unidad: el milihenrio (mH) o microhenrio (mH).
La inductancia mutua tiene muchas aplicaciones prácticas, por ejemplo, en transformadores, en
marcapasos cardíacos, etc. Sin embargo, en algunas ocasiones pueden ser un problema. Aunque por
regla general la inductancia mutua es casi siempre pequeña, a menos que las bobinas sean muy gran-
des o tengan núcleos de hierro, en aquellas ocasiones en que las señales son pequeñas pueden surgir
problemas. Su efecto se puede minimizar utilizando cables blindados, en los que un conductor cilín-
drico conectado a tierra rodea a otro conductor.
4. AUTOINDUCCIÓN
El fenómeno de inducción estudiado en el apartado anterior también puede aplicarse al caso de una
sola bobina por la que circula una corriente I variable con el tiempo. Esta corriente genera un campo
magnético variable y el cambio del flujo magnético a través de su superficie induce una fem y una co-
rriente que se opone al cambio de flujo (ley de Lenz). A este fenómeno se le denomina autoinducción.
Si el número de espiras de la bobina es N y el flujo del campo magnético a través de cada espira es
F, el flujo total a través de la bobina será igual a NFB. Según la ley de Biot-Savart, el campo magnético
creado por la corriente I que circula en la bobina es proporcional a dicha corriente; por lo que el flujo a
través de la bobina también será proporcional a I. Esta proporcionalidad entre el flujo y la corriente la
podemos expresar mediante el coeficiente de autoinducción L o autoinductancia, en la forma:
NFB = LI (75)
Sustituyendo en esta ecuación la expresión del flujo magnético FB dada por (75), se tiene que:
e = – L dI (77)
dt
Esta expresión relaciona la fem inducida en bobina con la corriente que circula por ella, y establece
que la fem inducida es proporcional a la rapidez con la que varía la corriente I en la bobina. El signo
menos determina el sentido de la fem inducida, de acuerdo con la ley de Lenz. Así, un aumento de la
corriente en la bobina da lugar a un aumento del flujo a través de ella y, por tanto, da lugar a una fem
cuyo sentido se opone al aumento de la corriente.
La autoinductancia L sólo se puede calcular en algunos casos simples, por lo que, en general, su
valor se determina experimentalmente. En el caso de un solenoide alargado de longitud l, sección trans-
versal S y con un número de vueltas por unidad de longitud n, el campo magnético B en el interior del
mismo viene dado por B = m0 nI. Cada vuelta la podemos considerar como una espira plana de superfi-
cie S, por lo que el flujo a través de ella es FB = m0 nIS. Si el solenoide tiene una longitud l, el número de
vueltas o espiras es N = nl. Por tanto, aplicando la expresión (75) se tiene que nlm0 nIS = LI. Despejan-
do L de esta expresión se tiene finalmente que la autoinducción del solenoide vendrá dada por:
L = m0n lS
2
(78)
Vemos pues, que la autoinducción del solenoide depende de su longitud y superficie, y del número de
vueltas por unidad de longitud n. Es interesante hacer notar que la expresión que acabamos de obtener
es una expresión aproximada y que sólo es exacta en el caso de un solenoide ideal infinitamente largo.
BIBLIOGRAFÍA
23
Generación de corrientes
alternas. Generadores y
motores. Transformadores y
transporte de la corriente
eléctrica. Influencia de la
electricidad en el cambio de
las condiciones de vida
ÍNDICE SISTEMÁTICO
2. GENERADORES Y MOTORES
2.1. Generadores eléctricos
2.2. Motores de corriente alterna
BIBLIOGRAFÍA
S
N q
B
S
Figura 1. Una espira que
gira con velocidad
angular w en el seno de
un campo magnético
e uniforme genera una fem
sinusoidal.
Consideremos un generador básico de corriente alterna constituido por una espira conductora
que gira en el seno de un campo magnético uniforme, como se muestra en la figura 1. Vamos a supo-
ner que la espira es una espira rectangular plana que gira alrededor de un eje, contenido en el plano de
la espira, perpendicular al campo magnético. Los extremos de la espira están conectados a unos ani-
llos que giran con la espira, y el contacto eléctrico se realiza mediante unas escobillas conductoras
deslizantes en contacto con los anillos.
r Si llamamos q al ángulo que, en unr instante de tiempo determinado, forma el campo magnético
B con el vector superficie de la espira S, el flujo magnético que atraviesa la espira es:
r r r r
F B = òS B ×dS = B ×S = BS cos q (1)
Puesto que la espira se encuentra girando de forma continua, el ángulo q varía con el tiempo y,
por lo tanto, el flujo a través de la espira cambia con el tiempo. Por consiguiente, se induce una fuerza
electromotriz, que vendrá dada por la ley de Faraday:
dF B d cos q
e= – = – BS (2)
dt dt
Si suponemos que la espira gira con una velocidad angular w constante, entonces, para cualquier
instante de tiempo se tiene que:
q = a + wt (3)
siendo a el ángulo que forma la espira y el campo magnético en el instante inicial. Sustituyendo esto
en la expresión anterior, se tiene que:
e = BSw sen(wt + a) (4)
En el caso en que sea una bobina de N espiras la que gira en el seno del campo magnético, la ex-
presión anterior se transforma en:
e = NBSw sen(wt + a) (5)
Las ecuaciones (4) y (5) indican que la fem inducida en la espira oscila sinusoidalmente con una
frecuencia angular w igual a la velocidad angular con la que gira la espira en el campo magnético. El
valor máximo de la fuerza electromotriz, o valor de pico, es:
F
N
2 1
B e FB
3 S
4 q8
B 7 S 1 2 3 4 5 6 7 8
5 6
w wt
e
e 2ef = ò
T
sen 2 wt dt (13)
T 0
Para calcular la integral tendremos en cuenta que el coseno del ángulo doble viene dado por:
cos 2a = cos a – sen a
2 2
(15)
Y por otra parte se tiene que:
sen a + cos a = 1
2 2
(16)
Teniendo en cuenta ahora que la derivada de la función seno es la función coseno, la inte-
gral anterior la podemos escribir como:
e máx
2
ì 1 2p ü
e 2ef = íò da – ò d(sen 2a )ý
2p
(19)
2Tw î 0 2 0 þ
Realizando las integrales se tiene que:
e 2máx ì 1 ü e2 e2
e 2ef = í[ a] 20p – [sen 2a] 20p ý= máx 2p = máx (20)
2Tw î 2 þ 2Tw 2
en donde hemos tenido en cuenta que T = 2p/w. Sustituyendo este resultado en la expresión
(12) se obtiene que el valor eficaz viene dado por:
e máx
e ef = (21)
2
De forma análoga, se tiene que la corriente o intensidad eficaz es:
I máx
I ef = (22)
2
Tal como dijimos anteriormente, estos valores eficaces corresponden a los valores de una
corriente continua que produciría el mismo efecto calorífico que la corriente alterna. Vea-
mos que esto es así. Para ello calculemos el valor medio de la potencia suministrada por la
fuente, que es igual al valor medio de la potencia disipada en forma de calor. Esta potencia
media viene dada por:
1 T 1 T
P = ò P dt = ò0 Ie dt (23)
T 0 T
Sustituyendo en esta expresión el valor de la corriente y de la fem por su valor instantáneo,
se tiene que:
1 1 1 T
ò Ie dt = T ò I máx e máx sen 2 wt dt = I máx e máx ò sen 2 wt dt
T T
P = (24)
T 0 0 T 0
Utilizando el resultado encontrado anteriormente para el valor medio de la función seno al
cuadrado, se tiene que:
1 I e máx
P = I máx e máx = máx = I ef e ef (25)
2 2 2
Por consiguiente, la potencia suministrada es igual a la suministrada por una fuente de co-
rriente continua de diferencia de potencial igual a la fem eficaz y que proporcione una co-
rriente igual a la corriente eficaz.
2. GENERADORES Y MOTORES
Las máquinas eléctricas se suelen clasificar en tres categorías:
1. Generadores: transforman en energía eléctrica una energía de otro tipo, generalmente mecánica.
2. Motores o receptores: realizan la operación inversa, transforman la energía eléctrica en energía
mecánica.
3. Transformadores: conservan la forma de la energía, pero ponen la energía eléctrica en condi-
ciones más favorables para su transporte y utilización.
En esta sección vamos a estudiar las características generales de los generadores y motores.
a) b)
Salvo en el caso de generadores pequeños siempre se adopta el segundo tipo de estructura, por
las siguientes razones:
1. La estructura giratoria puede ser maciza y en consecuencia presenta una mayor resistencia me-
cánica a las vibraciones.
2. En las estructuras en las que giran las bobinas, estas se unen al circuito exterior mediante escobi-
llas que deslizan sobre unos anillos conductores unidos a las bobinas. Cuando la fuerza electro-
motriz y la corriente son elevadas, se producen chispas en estas conexiones, lo que hace que
estos contactos se deterioren rápidamente. Por el contrario, en las estructuras donde las bobinas
sobre las que se inducen las corrientes están fijas, se evita este problema al no necesitar los ani-
llos y escobillas en el circuito de salida. En su lugar, se usan anillos y escobillas para suministrar
la corriente a los electroimanes giratorios, pero estas corrientes son pequeñas, por lo que no se
evita el problema.
3. Es peligroso que los circuitos donde se generan altas tensiones giren a gran velocidad, pues las
vibraciones sobre los conductores y aislante producen desgastes que pueden dar lugar a cortocir-
cuitos destructivos.
Por todo lo visto anteriormente, la estructura básica de un generador de corriente alterna o alter-
nador es la mostrada en la figura 3b, aunque en el caso de generadores pequeños se utiliza también
una estructura como la mostrada en 3a.
El campo magnético se crea mediante unas bobinas denominadas inductoras por las que circula
una corriente que se denomina inductora o de excitación. Las bobinas se encuentran montadas sobre
una armadura maciza de acero dulce denominada culata. Toda esta parte giratoria recibe el nombre de
rotor. El alternador tiene dos polos prominentes o salientes, por lo que a este tipo de máquinas se le
denomina de polos salientes.
La parte fija se denomina estator y lleva la armadura del inducido, la cual está compuesta por
una corona hecha de láminas sobre la que se sitúan las bobinas sobre las que se induce la fem y que
denominamos arrollamiento del inducido. Todo ello se encuentra rodeado por el armazón.
Si el rotor tiene sólo dos polos, el período de la fem inducida en la bobina corresponde a una
vuelta del rotor. Si denominamos por f a la frecuencia de la fem y por N al número de revoluciones por
minuto del rotor, se tiene entonces que:
N
f= (26)
60
en donde f viene dado en revoluciones por segundo. Ahora bien, la frecuencia de la fem viene im-
puesta por el tipo de red utilizada, que en el caso europeo es de 50 Hz (60 Hz en Estados Unidos), por
lo que de la expresión anterior podemos obtener la velocidad angular a la que debe girar el rotor, que
es igual a 3000 rpm (revoluciones por minuto).
El esquema básico discutido anteriormente se puede modificar para que el alternador sea más
efectivo, aumentar la fem de salida, y para que el giro del rotor pueda realizarse a velocidades más ba-
jas. Esto se consigue aumentando el número de polos del rotor.
Un concepto útil en el estudio de las máquinas de corriente alterna es el de ángulo eléctrico. Se
define el ángulo eléctrico como el que ha de recorrer el rotor para inducir una onda o período com-
pleto de la fem. En la máquina bipolar está claro que el rotor ha de girar 360º para producir un ciclo
completo. Supongamos ahora un rotor con cuatro polos como el mostrado en la figura (figura 4). En
este caso, el rotor ha de girar 180º geométricos para producir la onda completa de la fem. En general,
si se tienen p pares de polos, el ángulo eléctrico qe se define como:
qe = pq (27)
siendo q el ángulo geométrico.
Si colocamos ahora sobre el estator dos bobinas a y b conectadas entre sí como se indica en la fi-
gura (figura 4), observamos que los ciclos de las fem inducidas en ambas comienzan al mismo tiem-
po, pues cuando comienza a pasar uno de los polos por una de las bobinas, el otro polo del mismo
signo comienza a pasar por la otra bobina. Es decir, que las fem inducidas en ambas bobinas están en
fase. Vemos que en este caso el ángulo de separación de las bobinas es q = 180º, y el ángulo eléctrico
entre ambas es qe = pq = 2 ´ 180 = 360º; en donde hemos hecho p = 2 que es igual al número de pares
de polos e igual al numero de bobinas sobre el estator. Es decir, que cuando el ángulo eléctrico entre
dos bobinas es de 360º, las fuerzas electromotrices entre ambas están desfasadas 360º, o lo que es lo
mismo, están en fase; y el desfase entre dos bobinas sobre el estator es igual al ángulo eléctrico entre
ellas. Posteriormente haremos uso de este hecho.
a
N
S N S N
S S
Figura 4. Generador N
de corriente alterna
de cuatro polos. b a b
Ahora bien, tal como hemos dicho antes, la frecuencia de la fem viene impuesta por el tipo de red uti-
lizada, que en el caso europeo es de 50 Hz (60 Hz en Estados Unidos); y por otra parte, la velocidad
del rotor N viene impuesta por el motor que ha de mover al rotor. Por consiguiente es necesario utili-
zar un número de pares de polos p que satisfaga las dos condiciones anteriores. Así por ejemplo, fi-
jando una frecuencia de la fem f = 50 Hz, para una velocidad N = 3000 rpm (revoluciones por minuto)
se deberá disponer de dos polos en el rotor; para N = 1500 rpm, de cuatro polos; y para N = 1000 rpm
de seis polos. En este tipo de alternador la frecuencia de la fem inducida está sincronizada con la velo-
cidad angular a la que ha de girar el rotor, por lo que se denominan máquinas sincrónicas o síncronas.
Veamos a continuación la fem inducida en un alternador. Para ello consideremos el alternador
de la figura 4. Supondremos que las bobinas a y b tienen un total de n conductores activos (partes con-
ductoras en las ranuras) en las que aparece una fem; y también supondremos que el flujo en el en-
trehierro es sinusoidal. Si tenemos en cuenta la relación (5), la fem eficaz inducida en el conjunto de
las n/2 espiras de las bobinas a y b vendrá dada por:
e máx 1 n
e ef = = wF máx = 2,22 n f F máx (30)
2 22
en donde Fmáx es el valor máximo del flujo sinusoidal. Sustituyendo en esta expresión el valor de f dado
por (29):
Esta expresión nos da la fem teórica del alternador, ya que hemos supuesto que todas las fem de cada
una de las espiras de las bobinas están en fase, y por otro lado que el flujo magnético y por tanto la fem
son sinusoidales.
Para aumentar la potencia del alternador, según la expresión anterior, deberemos aumentar el
número de conductores activos n. Ahora bien, a la hora de construir un alternador se debe perseguir
dos objetivos: que la curva de la fem sea lo más próximo a una función sinusoidal, y que el cobre del
inducido se utilice de la mejor manera posible. El aumento del número de espiras de las bobinas a y b
produciría un aumento de la fem inducida y cumpliría el segundo de los requisitos anteriores: el cobre
estaría bien utilizado en el sentido de que todas la fem inducidas en cada una de las espiras estarían en
fase. Pero por otra parte, un arrollamiento de ese tipo (de una ranura en el estator, por polo) produce
una fem que dista mucho de ser sinusoidal, al no serlo el flujo que atraviesa las bobinas.
a´
a N S N S N
S S
Figura 5. Generador de
b corriente alterna de cuatro
N a a´ b b´ polos con bobinas en serie
para mejorar la forma de la
b´ señal de alterna.
Una solución para mejorar la forma de la fem inducida es conectar en serie bobinas como las a y
a´, y las b y b´ como se indica en la figura 5. A este tipo de arrollamiento se le denomina repartido y
utiliza varias ranuras en el estator por polo. El efecto de este tipo de arrollamiento es que las fem indu-
cidas en cada uno de los n/2 conductores activos sobre el inducido no estén en fase. Por una parte, este
desfase entre las bobinas es lo que permite obtener que la forma de la fem se aproxime a una función
sinusoidal; pero, por otro lado, el desfase hace que la fem inducida no sea su suma algebraica. La fem
eficaz del alternador será inferior a la fem teórica y se obtiene multiplicando ésta por un factor K1 < 1
denominado factor de arrollamiento. Cuanto mayor sea el número de ranuras utilizada por polo más
se acercará la fem a una forma sinusoidal. No obstante, a pesar de esto, y de otro tipo de artificios uti-
lizados en la construcción de los polos, la fem no es rigurosamente sinusoidal.
Se define el factor de forma como el cociente entre el valor eficaz y su valor medio:
e ef
K2 = (32)
e med
que para el caso de una señal sinusoidal es 1,11.
En definitiva, la fem real de un alternador viene dada por:
e ef = Kp N nF máx (34)
60
en donde K = 2,22K1K2 es el coeficiente de Kapp, que depende de la construcción del alternador y
cuyo valor varía entre 1,9 y 2,6.
Se puede hacer un mejor aprovechamiento del estator colocando bobinas adicionales y obtener
un alternador trifásico. Es decir, obtener tres fem desfasadas 120º entre ellas. Para ello, es necesario
colocar las bobinas distribuidas de manera que el ángulo eléctrico entre ellas sea de 120º. En un alter-
nador de dos polos esto equivaldría a situar las bobinas separadas 120º geométricos. Si utilizamos un
rotor de cuatro polos (p = 2), según la expresión (27), la separación geométrica entre ellas ha de ser de
q = qe/p = 120/2 = 60º. En la figura 6 se muestra el esquema de un alternador trifásico y las fem de sali-
das del mismo.
U I
U V W
N
W S V
Figura 6. Generador de
corriente alterna trifásica.
F3
F3 S
N I F2
N 0 S
r3
S r1 a
b
F4 a B
F1 F1
r r r r
La fuerza que el campo magnético B ejerce sobre una corriente I viene dada por F = IL´ B, por
lo que sobre cada tramo de la espira actuará una fuerza:
F1 = I Ba F2 = I Bb sen a (35)
F3 = I Ba F4 = I Bb sen a (36)
r r
cuyas direcciones son las mostradas en la figura. Las fuerzas F1 y F3 son iguales y opuestas, al igual
r r
que también lo son las fuerzas F2 y F4 , por lo que la fuerza neta resultante sobre la espira es cero. No
r r
obstante, hay una diferencia entre ambos conjuntos de fuerzas: las fuerzas F2 y F4 actúan a lo largo
del mismo eje y por tanto no producen ningún momento sobre la espira; por el contrario, las fuerzas
r r r
F1 y F3 no actúan sobre el mismo eje y sí producen un momento sobre la espira. El momento t de este
par de fuerzas hace que la espira gire en el sentido de las agujas del reloj y es igual a:
r r r r r
t = r1 ´ F1 + r3 ´ F3 (37)
r r
donde r1 y r3 son los vectores perpendiculares al eje de giro de la espira con origen el eje y extremo en
los tramos de la espira perpendiculares al campo magnético.
La orientación de la espira puede describirse adecuadamente mediante un vector unitario n$ per-
pendicular al plano de la espira, cuyo sentido estará dado por la regla de la mano derecha: se curvan
los dedos de la mano derecha en la dirección de la corriente en la espira, entonces el pulgar estirado
$ De esta manera podemos
nos proporciona el sentido del vector unitario n. r asociar a la superficie de la
$ S = S n.
espira S un vector en la dirección y sentido del vector unitario n, $ Si llamamos q al ángulo for-
mado por el vector unitario n$ con la dirección del campo magnético, como se muestra en la figura, el
módulo del momento de las fuerzas sobre la espira puede escribirse como:
t = r1 F1 sen q + r3 F3 sen q (38)
Teniendo en cuenta las expresiones de F1 y F3 dadas por (35) y (36), y que r1 = r3 = b/2, el momento
neto sobre la espira vendrá dado por:
b b
t = IaB sen q + IaB sen q = IabB sen q (39)
2 2
r r
Si tenemos en cuenta ahora que S = ab y que S ´ B = SB sen q, el resultado anterior lo podemos expre-
sar en forma vectorial como:
r r r
t = IS ´ B (40)
En el caso en que tengamos una espira con N vueltas (una bobina), la corriente por la espira es NI
y por tanto, el momento de las fuerzas ejercidas por el campo magnético se escribe como:
r r r
t = NIS ´ B (41)
siendo N, como hemos dicho anteriormente, el número de vueltas de la espira.
Si la corriente que se hace pasar por la espira es una corriente continua, el sentido de las fuerzas
es siempre el mismo y el resultado es que sobre la espira de corriente actúa un par de fuerzas que tien-
de a alinear el momento dipolar magnético con el campo magnético. La espira tiende a girar hacia una
posición estable en la que su superficie es perpendicular al campo magnético y el momento de las
fuerzas es cero. Ahora bien, esta posición de equilibrio no se alcanza instantáneamente sino que la es-
pira oscilará alrededor de esta posición de equilibrio. Si hacemos que el sentido de la corriente se in-
vierta cuando la espira pasa por la posición de equilibrio se invertirá el sentido de la fuerza sobre cada
tramo de la espira, esto hace que el momento de las fuerzas sobre la espira mantenga la misma direc-
ción, y en consecuencia esta tenderá a girar en el sentido de las agujas del reloj (figura 8).
F3
F1
N S N r3 S
r3 Figura 8. Al alimentar la espira con
r1 r1 F3 corriente alterna el sentido de la
fuerza sobre cada conductor cambia
B B en cada semiciclo. El sentido del
F1 momento es el mismo durante todo el
ciclo, por lo que la espira girará en el
sentido mostrado.
F a = kI a e iq a (42)
F b = kI b e iq b (43)
F c = kI c e iq c (44)
Ia = I cos wt (45)
I I a Ib Ic
Ib = I cos (wt – 120) (46)
Teniendo en cuenta que según la fórmula de Euler e iq = cos q + i sen q, se tiene que:
Fa = kI cos wt (51)
1 3
Fb = – kI cos ( wt – 120) – i kI cos ( wt – 120) (52)
2 2
1 3
Fc = – kI cos ( wt +120)+ i kI cos ( wt +120) (53)
2 2
3 éæ 1 3 ö æ 1 3 öù
+i kIêç
ç – cos wt – sen wt ÷
÷–ç
ç – cos wt + sen wt ÷
÷ú= (56)
2 ëè 2 2 ø è 2 2 øû
3 3 3 3
= kI cos wt – i kI sen wt = kI (cos wt – i sen wt ) = kIe – iwt
2 2 2 2
Por tanto, el flujo total tiene una magnitud constante y forma un ángulo con la horizontal q = –wt. Es
decir, el flujo gira en el interior del estator a una frecuencia de w radianes por segundo cuando se le
aplican las corrientes Ia, Ib e Ic a las bobinas a – a´, b – b´ y c – c´.
b´ c´
1 1´
c b
a´
Los motores de corriente alterna, más comúnmente utilizados, son los denominados motores de
inducción. En este tipo de motores, el rotor está compuesto por un conjunto de barras conductoras de co-
bre, latón o aluminio dispuestas sobre la periferia del rotor (figura 11) y unidas sobre cada cara de la arma-
dura mediante un anillo del mismo metal y de sección bastante grande. Este tipo de estructura se denomi-
na en jaula de ardilla. El funcionamiento es el siguiente. Consideremos una sección transversal como la
mostrada en la figura, y centrémosnos en el circuito formado por los conductores 1 y 1´. Al conectar la co-
rriente sobre las bobinas del motor se crea un flujo rotatorio. Debido al cambio de flujo, se induce una fem
en dicho circuito, que da lugar a una corriente inducida (de aquí el nombre de motor de inducción). En
consecuencia, sobre cada conductor actuará una fuerza que dará lugar a un momento de fuerzas que hará
girar el rotor. Los otros circuitos formados por los demás conductores experimentan el mismo efecto, y
por tanto contribuyen al momento total del motor. Si este momento es suficiente para vencer la carga, el
motor comenzará a girar a su velocidad estacionaria n. Esta velocidad de operación no puede ser igual a
la velocidad de sincronismo (velocidad a la que gira el campo magnético y el flujo), ya que si esto fue-
se así, no habría cambio de flujo en los circuitos del rotor y en consecuencia no se inducirían corrien-
tes y por tanto no actuarían fuerzas sobre los conductores. Por consiguiente, la velocidad de opera-
ción de un motor de inducción es inferior a la velocidad de sincronismo ns.
Se define el deslizamiento del rotor como:
ns – n
s= (57)
ns
Es decir, la frecuencia del rotor es igual al deslizamiento por la frecuencia de la señal de alimenta-
ción, denominada frecuencia en línea.
Se puede demostrar que el par del motor viene dado por:
C = kFIrcosj (61)
en donde k es una constante que depende de la construcción del motor, F es el flujo, e Ircosj la inten-
sidad activa en el inducido (j es el desfase entre la fem inducida en cada bobina y la corriente que cir-
cula por ella).
Veamos cómo es más eficiente transportar energía eléctrica de alta tensión que de baja tensión.
Supongamos que se transporta una potencia P por una línea de transmisión a cierta tensión V. Esto
significa que por la línea circula una corriente I de manera que:
P=VI (62)
Por otra parte, si la resistencia de la línea es R se producirá una pérdida de energía por efecto Jou-
le dada por:
2
Pr = I R (63)
Si aumentamos la tensión en un factor n, V ´ = nV manteniendo la potencia transmitida constante, la
corriente se verá reducida por ese mismo factor I´= I/n, por lo que para una resistencia de la línea dada
R la potencia disipada por efecto Joule disminuye en un factor n2. Es decir, que la transmisión de
energía eléctrica a alta tensión es más eficiente que su transporte a baja tensión.
Esto también podemos verlo de la siguiente manera. Supongamos que queremos transmitir una
potencia dada P hasta una distancia concreta utilizando un cable de cierto material conductor; y su-
pongamos que podemos tener unas determinadas pérdidas por efecto Joule Pr. Como hemos visto,
multiplicar la tensión por un factor n significa dividir la corriente transportada por ese mismo factor.
Por tanto, si mantenemos fijas las pérdidas por efecto Joule tendremos que la resistencia de la línea
vendría dada por:
I2
Pr = I 2 R = 2
R ' Þ R '= n 2 R (64)
n
Es decir, que al aumentar la tensión, si mantenemos las pérdidas constantes, podemos aumentar la re-
sistencia de la línea. Puesto que la distancia entre la estación generadora y el punto de consumo es fija
(y por tanto la longitud de la línea) y el material conductor también viene fijado a priori, aumentar la
resistencia de la línea significa que podemos utilizar unos cables más finos. En efecto, la resistencia
de un material viene dada por R = rL/S, siendo r la resistividad, L la longitud y S la sección del con-
ductor. Por tanto, se tendrá que:
L L S
R '= n 2 R Þ r = n 2 r Þ S '= 2 (65)
S' S n
Es decir, que multiplicar la tensión por un factor n significa que podemos reducir la sección de los ca-
bles de la línea de transmisión por un factor n2, con el consiguiente ahorro que eso conlleva.
Por consiguiente, es más práctico y ventajoso el transporte de la energía eléctrica en alta tensión.
Puesto que, por otra parte, es más fácil producir y utilizar la energía eléctrica en baja tensión, es nece-
sario un dispositivo que, con pocas pérdidas, sea capaz de:
1. Transformar, a la salida de las centrales generadoras, la energía de baja tensión y gran intensidad
en energía de alta tensión y baja intensidad,
2. Transformar, en el lugar de consumo, la energía eléctrica de alta tensión y baja intensidad en
energía de baja tensión y gran intensidad.
Por otra parte, el flujo magnético variable induce una fem en el secundario dada por:
dF B
es = – N s (68)
dt
De las expresiones anteriores obtenemos que la tensión de salida del transformador que es igual
a la fem inducida en el secundario estará relacionada con la tensión de entrada del transformador por:
Ns
es = – e (69)
Np
Si Ns > Np, la tensión de salida del transformador en el secundario será mayor que la tensión de en-
trada aplicada al primario y el transformador recibe el nombre de transformador elevador. Si Ns < Np, la
tensión de salida del transformador en el secundario será menor que la tensión de entrada aplicada al
primario y al transformador se le denomina transformador reductor.
Estudiemos a continuación lo que ocurre cuando conectamos una resistencia R, denominada de
carga, al secundario. En este caso, por el circuito del secundario circulará una corriente Is que estará
en fase con la fem es. Esta corriente hace que se produzca un flujo adicional F´ a través de cada vuelta
del secundario que se opone al flujo original creado por la corriente inicial I0 y que es proporcional a
IsNs. Sin embargo, según la expresión (67) el flujo debe permanecer constante, puesto que sólo de-
pende de la fem del generador y no se ve afectada por el secundario. Para que esto sea posible debe
circular una corriente adicional I1 por el primario, que producirá un flujo proporcional a I1Np. Como
este flujo ha de ser igual a –F´ se tendrá que:
I1Np = –IsNs (70)
Estas corrientes están desfasadas 180º. Como IS está en fase con es y a su vez es está desfasada 180º con
respecto a e (69), entonces I1 estará en fase con la fem aplicada al primario e. La potencia suministrada
por el generador será eefI1, ya que la corriente I0 está desfasada 90º con la fem de entrada. Por otro lado,
la potencia suministrada a la carga es es,efIs,ef, por lo que si no existen pérdidas, se tendrá que:
eefI1 = es,efIs,ef (71)
Por regla general, se tiene que la corriente I0 es mucho más pequeña que la corriente I1, por lo que la
corriente que circula por el primario Ip es aproximadamente igual a la corriente I1:
Ip = I1 + I0 I1 (72)
Siempre que esto sea así, entonces la expresión (70) nos proporciona una relación entre la corriente
que circula por el primario y la que circula por el secundario.
o eliminar lo más rápidamente posible con el fin de evitar la destrucción de los terminales del interrup-
tor, que de otra manera acabarían por fundirse. Los interruptores más comúnmente utilizados son:
1. Interruptores de aire con apagachispas magnético.
2. Interruptores de aceite.
3. Interruptores de presión de aire.
Los interruptores de aire con apagachispas magnético son útiles para tensiones de continua de
hasta 3 kV o de alterna hasta 34,5 kV. Este tipo de interruptores se basa en el hecho de que una co-
rriente eléctrica situada en el seno de un campo magnético experimenta una fuerza magnética. En
consecuencia, si colocamos los terminales del interruptor en el seno de un campo magnético intenso,
sobre el arco eléctrico que aparece entre ellos al separarse se ejercerá una fuerza magnética que tende-
rá a romper dicho arco. En la práctica, el campo magnético se crea conectando una bobina en serie
con los terminales del interruptor, de manera que la corriente que la atraviese sea la misma una vez in-
terrumpida. Así, se obtiene un campo magnético intenso al interrumpir las corrientes elevadas que se
producen cuando tiene lugar un cortocircuito. A la bobina se le denomina bobina apagachispas.
Los interruptores de aceite tienen sus contactos sumergi-
Hilo de la Hilo de la dos en aceite que contribuye a extinguir el arco que se forma al
línea línea separar los contactos. Estos interruptores consisten en un depó-
(entrada) (salida)
Vástago sito de hierro revestido de aislante y lleno de aceite. La cubierta
del depósito lleva dos orificios por fase en los que se ajustan los
Aisladores
aisladores de paso, uno para la entrada y otro para la salida, de
cada conductor. Otro orificio provisto de una válvula permite la
expulsión de los gases producidos al formarse el arco. Los con-
ductores hacen contacto en el interior del depósito mediante un
vástago móvil (figura 13). Cuando la tensión es elevada se dis-
Aceite pone de un depósito para cada una de las fases. El interruptor se
mantiene cerrado contra la acción de un muelle, el cual queda li-
berado mediante un circuito de disparo adecuado. Este tipo de
Figura 13. Interruptor de aceite. interruptores es útil para tensiones de hasta 14,5 kV.
Por último, los interruptores de presión de aire se valen de
una violenta presión de aire comprimido para extinguir el arco. En la figura 14 se muestra el esquema
de funcionamiento de este tipo de interruptor. Al abrirse el interruptor se produce una potente co-
rriente de aire en la cámara de extinción. El contacto móvil en forma de tubo se desplaza hacia la iz-
quierda venciendo la oposición de un resorte y el arco es empujado a través del contacto hueco. El
intervalo de tiempo en que se aplica la presión es sólo de una fracción de segundo, y transcurrido este
tiempo el resorte cierra de nuevo los contactos. Durante ese tiempo en que los contactos están abier-
tos, un mecanismo de presión coordinado abre el interruptor exterior S de manera que al cerrarse de
nuevo el interruptor no se restablece el circuito.
Aislador
Contacto móvil
I
Arco Contacto fijo
S
I
Aire a presión
A nivel de usuario también se utilizan diversos tipos de interruptores. Por una parte, en los domi-
cilios, fábricas, etc., se utilizan pequeños interruptores de circuitos diferenciales. Por otra parte, los
electrodomésticos llevan incorporados unos interruptores, denominados fusibles, que consisten en
un hilo de una aleación con un punto de fusión bajo. Si la corriente aumenta por encima de un valor
predeterminado el fusible se funde, abriendo de esta manera el circuito.
y Tesla, 1885) para producir un campo magnético giratorio. Los transformadores permitían modificar
las tensiones producidas y elevarlas a altas tensiones. Por otra parte, los sistemas polifásicos abrieron el
camino de la construcción de motores de corriente alterna. Estos descubrimientos fueron de gran im-
portancia en una época en la que se debatía sobre la conveniencia de utilizar la corriente continua o la
corriente alterna. Las mejores condiciones para el transporte de la corriente alterna a altas tensiones hi-
cieron que la balanza se inclinara en favor del uso de ésta en detrimento de la corriente continua. Así en
los primeros años de la década de 1890 se construyó el primer generador práctico de corriente alterna en
la central de Lauffen (Alemania). Este fue el comienzo de un proceso de construcción de centrales eléc-
tricas y una mayor extensión del uso de la energía eléctrica.
Las modificaciones que la utilización del motor eléctrico introdujo en los procesos industriales
de producción fueron extraordinarias. Los complicados sistemas derivados de la utilización de la má-
quina de vapor fueron sustituidos por instalaciones más simples y seguras en las que cada máquina
podía accionarse con un motor individual, lo que se tradujo en un cambio en las formas de trabajo y en
un aumento de la productividad. Pero el desarrollo de la electricidad no sólo motivó cambios en el sis-
tema productivo, también cambió el estilo de vida de la sociedad, aparecieron nuevas formas de
transporte como el tranvía eléctrico, las ciudades adquirieron un nuevo diseño, surgieron otras for-
mas de comunicación, etc. Todo este conjunto de cambios sociales, industriales y económicos fueron
tan profundos que al período comprendido entre el último tercio del siglo XIX y el final de la segunda
guerra mundial se le ha denominado segunda revolución industrial.
Durante estos años se avanzó en el perfeccionamiento de los motores eléctricos, consiguiendo
mejores rendimientos y haciéndolos cada vez más baratos. Hoy en día los motores eléctricos han sus-
tituido a otros tipos de motores tanto en la industria como en el comercio, en los transportes y en las
tareas del hogar. Su versatilidad permite utilizarlos como aceleradores, frenos y otras múltiples apli-
caciones. Por otra parte, en la actualidad se cuenta con una gran variedad de motores en cuanto a ta-
maño y a potencia de salida que puede ser desde una fracción de vatio a cientos de caballos de vapor.
La reducción de su tamaño permitió incorporarlos a pequeños aparatos para uso en el hogar. Esto dio
lugar a la aparición de los electrodomésticos, cuya fabricación a gran escala tan drásticamente ha
transformado las formas de vida durante este siglo.
Una de las transformaciones de más importantes consecuencias de la electricidad se produjo en
el mundo de las comunicaciones. Precisamente, una de las primeras aplicaciones prácticas de la elec-
tricidad fue el telégrafo, inventado por Samuel F.B. Morse en 1837. En los años siguientes la mayoría
de las ciudades del mundo se encontraban unidas por cables telegráficos transoceánicos. Al telégrafo
eléctrico le siguió el invento del teléfono por Alexander Graham Bell en 1876, sistema de comunica-
ción oral que rápidamente fue implantándose en las ciudades americanas primero, y luego en las eu-
ropeas. En 1895 el italiano Guglielmo Marconi realizó las primeras transmisiones de telegrafía sin
hilos y en 1902 Valdemar Poulsen y Reginald Aubrey Fessenden inventaron el radioteléfono.
Hoy en día, la energía eléctrica, por sus características de gran versatilidad, limpieza, y fácil
transporte, desempeña un papel fundamental en las sociedades desarrolladas. De hecho, el consumo
de energía eléctrica es un parámetro que se utiliza frecuentemente para determinar el progreso econó-
mico de los diferentes países. Por ello, la disponibilidad de energía eléctrica es una cuestión primor-
dial para los gobiernos de los distintos países, que analizan las perspectivas de consumo a corto y
medio plazo y planifican la producción. En esta planificación cada vez tienen más importancia las de-
nominadas energías renovables o poco contaminantes, fomentando el uso de fuentes alternativas
como la eólica, la solar o la biomasa. Pero no basta sólo con un aumento de la producción de energía,
la limitación de algunos recursos naturales hace necesario que cada vez más se desarrollen actuacio-
nes que fomenten el ahorro y el uso más eficiente de la energía.
BIBLIOGRAFÍA
24
Elementos de importancia
en los circuitos eléctricos:
resistencias, bobinas y
condensadores. Su papel
en los circuitos de corriente
continua y alterna. Energía
almacenada o transformada
ÍNDICE SISTEMÁTICO
BIBLIOGRAFÍA
1.1. Resistencia
Al aplicarle una diferencia de potencial V entre los extremos de un trozo de material conductor,
como puede ser un alambre metálico, se produce una corriente eléctrica I. La cantidad de corriente
que circula por el conductor, para una diferencia de potencial dada, depende de las propiedades del
material y de su geometría.
Se define la resistencia eléctrica, R, de un material como la relación entre la diferencia de poten-
cial aplicado y la corriente que circula por él:
V
R= (1)
I
La resistencia eléctrica es una medida de la oposición que ejerce un trozo de material al flujo de
carga a través de él. En los materiales con mayor resistencia, una misma diferencia de potencial pro-
duce un flujo de cargas menor que en los materiales de menor resistencia. La unidad de resistencia en
el sistema internacional es el ohmio (W) que es igual a la resistencia de un material por la que circula
una corriente de un amperio (A) cuando la diferencia de potencial es un voltio (V):
V
1W = 1 (2)
A
El nombre de ohmio se ha dado a la unidad de resistencia en honor de George Simon Ohm
(1787-1854), que fue el primero en estudiar sistemáticamente la relación entre la diferencia de poten-
cial aplicada a un conductor y la corriente que fluye por él. En 1826 publicó los resultados de sus in-
vestigaciones experimentales que establecían que para una gran variedad de materiales, entre los que
se incluían la mayoría de los metales, la resistencia era constante en un gran rango de diferencias de
potencial. Esta afirmación constituye la ley de Ohm, y que tradicionalmente se escribe como:
V = RI (3)
en donde R es independiente de la diferencia de potencial V.
La ley de Ohm no corresponde a un hecho fundamental de la naturaleza, sino que corresponde a
una expresión empírica que describe adecuadamente el comportamiento de muchos materiales en un
determinado rango de diferencias de potencial. Por consiguiente, el término ley probablemente no
sea demasiado correcto, en el sentido de que su rango de validez es, en muchos casos, muy limitado.
Los materiales cuya resistencia es constante en un amplio rango de diferencias de potencial se
denominan óhmicos, y los que no obedecen la ley de Ohm se denominan no-óhmicos.
a)
Figura 1. (a) Símbolo utilizado en los
circuitos eléctricos para representar a las
resistencias. (b) Códigos de colores de una
resistencia: las dos primeras bandas indican
los dos primeros dígitos de un número entero,
la tercera banda la potencia de diez por la
que hay que multiplicar ese número entero, y
la cuarta la tolerancia. b)
V1 V2 V3 VN Figura 2. Conexión de
resistencias en serie.
V = åVi = I å R i = IR 0 (12)
i= 1 i= 1
R0 = å Ri (13)
i= 1
IN
RN Figura 3. Conexión de
resistencias en paralelo.
I = åIi (15)
i= 1
Sustituyendo en esta expresión el valor de la corriente Ii dado por (24.14) se tiene que:
N
1 V
I =V å = (16)
i= 1
Ri R0
Por tanto, la resistencia equivalente R0 = V/I será igual a:
N
1 1
=å (17)
R 0 i= 1 R i
1.2. Condensadores
Un condensador es un dispositivo, ampliamente utilizado en los circuitos eléctricos y electróni-
cos, que sirve para almacenar carga y energía eléctrica.
Un condensador está formado por dos conductores situa-
dos a una distancia corta entre ellos y aislados entre sí. Uno de
los más típicos es el condensador de placas paralelas, constitui- +Q
do por dos placas metálicas paralelas separadas una corta dis- + -
tancia. En la práctica, el condensador se construye con dos lá- -Q
minas metálicas delgadas separadas por una hoja de papel u
otro aislador y se enrollan en forma cilíndrica para ahorrar es-
pacio. Si conectamos las placas de un condensador a una bate-
ría (figura 4) se produce una transferencia de carga desde una Figura 4. Condensador de placas
de las placas a la otra. Esta transferencia de carga entre las dos paralelas conectado a una batería.
placas se mantiene hasta que se alcanza el equilibrio cuando la
diferencia de potencial entre las placas del condensador se
hace igual a la diferencia de potencial entre los terminales de la batería. En el equilibrio, la placa co-
nectada al terminal positivo de la batería habrá adquirido una carga positiva Q y la otra placa, conec-
tada al terminal negativo de la batería, una cantidad igual de carga negativa –Q.
Para un condensador determinado, se encuentra que la cantidad de carga Q que adquiere cada
una de sus placas es proporcional a la diferencia de potencial V aplicada a las placas Q = CV. La cons-
tante de proporcionalidad C se denomina capacidad del condensador, y depende de las características
geométricas del mismo.
Q
C= (18)
V
La capacidad de un condensador es una medida de las posibilidades que tiene el condensador
para almacenar carga. Cuanto mayor es la capacidad del condensador, mayor es la carga que puede
almacenar en sus placas. En el SI, la unidad de la capacidad de un condensador es el culombio por
voltio y se denomina faradio (F) en honor a Michael Faraday:
C
1F = 1
V
El faradio es una unidad de capacidad bastante grande, por lo que normalmente se utilizan los sub-
múltiplos de esta unidad como el picofaradio (1pF = 10–12 F) o el microfaradio (1 mF = 10–6 F).
La expresión (18) puede escribirse de otra manera en función de la corriente. Sabemos que la co-
rriente instantánea es igual a la variación de la carga por unidad de tiempo I = dq/dt; por tanto, la carga
almacenada en un instante de tiempo t en que la diferencia de potencial entre las placas es V, podrá es-
cribirse como:
Q = ò I dt (19)
Sustituyendo esta expresión en (18), obtenemos una expresión que nos relaciona la diferencia de po-
tencial entre las placas del condensador con la corriente de carga del mismo:
1
V=
C
ò I dt (20)
+Q –Q
Sustituyendo en esta expresión la densidad superficial de carga s por su valor, tenemos que:
Q
E= (22)
e0S
La diferencia de potencial entre las placas del condensador vendrá dada por:
+ r r
V = V+ – V– = – ò– E ×d l (23)
en donde la integral se extiende desde la placa negativa a la placa positiva. Si hacemos coinci-
dir la dirección que va desde la placa positiva a la negativa con el eje x y denominamos x+ a la
posición de la placa positiva y x– a la posición de la placa negativa, tendremos que:
x r r
òx – E ×d l = òx – Edx = E ( x– – x+ )= Ed
x
(24)
+ +
Sustituyendo en esta expresión el valor del campo eléctrico dado por (22) se obtiene que la
diferencia de potencial entre las placas del condensador es:
Qd
V= (26)
e0S
Llevando esta expresión a la definición de la capacidad dada por (18), obtenemos que la ca-
pacidad de un condensador de placas paralelas viene dada por:
Q e0S
C= = (27)
V d
en donde l = Q/L es la densidad lineal de carga. Por otra parte, el campo eléctrico creado
por la carga –Q del conductor exterior, en los puntos del interior de la corteza cilíndrica, es
cero. Por tanto, la diferencia de potencial entre los conductores vendrá dada por:
+ r r – r r
V = V+ – V– = – ò– E ×d l = ò+ E ×d l (29)
Puesto que el campo eléctrico es radial y dirigido desde el conductor interior al conductor
exterior, tendremos que:
– r r
ò+ E ×d l = òR b Edr
R
(30)
a
Sustituyendo en esta expresión el valor del campo eléctrico dado por (28), tendremos que la
diferencia de potencial entre las placas del condensador es:
Q R dr Q R
òR ab Edr = 2pe L òR ab r = 2pe L ln R b
R
(31)
0 0 a
Por lo tanto, la diferencia de potencial entre los conductores del condensador será:
+ r r – r r Q R
V = V+ – V– = – ò– E ×d l = ò+ Ed l = ln b (32)
2pe 0 L R a
Llevando esta expresión a la definición de la capacidad dada por (18), obtenemos que la ca-
pacidad de un condensador cilíndrico viene dada por:
Q 2pe 0 L
C= = (33)
V ln( R b / R a )
+Q1 +Q2
Figura 7. Conexión de V C1 C2
condensadores en -Q1 -Q2
paralelo.
C = C 1 +C 2 +C 3 +...= åC i (42)
i= 1
ya que, por definición, la diferencia de potencial es la energía potencial por unidad de carga.
Ahora bien, si hasta ese instante la carga transferida es q, la diferencia de potencial entre las lacas
del condensador será V= q/C. Por tanto, la variación de energía potencial al transferir una carga
adicional dq será:
q
dU E = dq (44)
C
La variación total de energía potencial del sistema será la suma de todas estas variaciones elementales
cuando q crece desde cero a su valor final Q. Es decir, la variación total de la energía potencial vendrá
dada por:
q 1 Q2
U E = ò0
Q
dq = (45)
C 2 C
Si tenemos en cuenta que C = Q/V, la expresión anterior la podemos escribir como:
1 Q2 1 1
UE = = QV = CV 2 (46)
2 C 2 2
En lo que hemos visto anteriormente, hemos asociado la energía del condensador con la energía
potencial de sus cargas. Ahora bien, la energía no es una sustancia determinada que tenga una locali-
zación concreta, por lo que podemos adoptar un punto de vista alternativo y asociar la energía del
condensador al campo electrostático creado entre sus placas en el proceso de carga. Es decir, pode-
mos pensar que el trabajo realizado para cargar el condensador es el trabajo necesario para crear el
campo eléctrico y que, por tanto, dicha energía reside en el campo creado entre sus placas.
Como ejemplo, calculemos la energía almacenada entre las placas de un condensador de placas
paralelas, en función del campo eléctrico. Tal como hemos visto anteriormente (27), la capacidad de
un condensador de placas paralelas viene dada por C = e0S/d. Por otra parte, la diferencia de potencial
entre las placas y el campo eléctrico entre ellas están relacionados por V = Ed. Sustituyendo estos va-
lores en la expresión de la energía dada por (46), se tiene que:
1 1 e0S 2 2 1
U E = CV 2 = E d = e 0 E 2 Sd (47)
2 2 d 2
La cantidad Sd es el volumen situado entre las placas del condensador, el cual corresponde con el vo-
lumen ocupado por el campo eléctrico, si despreciamos los efectos de borde. Por tanto, dividiendo
ambos miembros de la ecuación anterior por Sd, obtendremos una expresión para la energía por uni-
dad de volumen o densidad de energía uE:
1
uE = e 0 E 2 (48)
2
Esta expresión indica que la energía eléctrica almacenada por unidad de volumen es proporcional al
cuadrado del campo eléctrico. Aunque la ecuación (48) se ha obtenido para un caso concreto (con-
densador de placas paralelas), sugiere que podemos asociar la energía eléctrica de cualquier distribu-
ción de cargas al campo eléctrico creado por dicha distribución. Por tanto, aunque no lo
demostraremos, podemos afirmar que la expresión (48) es válida en general, y en consecuencia:
La energía eléctrica almacenada por unidad de volumen en cualquier punto del espacio
es proporcional al cuadrado del campo eléctrico.
1.3. Bobinas
Una bobina es un elemento pasivo que se caracteriza por su oposición al cambio de la co-
rriente que circula por ella. En los diagramas de circuitos se representan por un hilo arrollado en
forma espiral.
El comportamiento de una bobina se basa en el fenómeno de inducción estudiado en el tema 22.
Para analizarlo, supongamos una bobina por la que circula una corriente I variable con el tiempo. Esta
corriente genera un campo magnético variable y el cambio del flujo magnético a través de su superfi-
cie induce una fem y una corriente que se opone al cambio de flujo (ley de Lenz). A este fenómeno se
le denomina autoinducción.
Si el número de espiras de la bobina es N y el flujo del campo magnético a través de cada espira
es F, el flujo total a través de la bobina será igual a NFB. Según la ley de Biot-Savart, el campo
magnético creado por la corriente I que circula en la bobina es proporcional a dicha corriente, por lo
que el flujo a través de la bobina también será proporcional a I. Esta proporcionalidad entre el flujo
y la corriente la podemos expresar mediante el coeficiente de autoinducción L o autoinductancia,
en la forma:
N FB = LI (49)
dF B
e= – N (50)
dt
Sustituyendo en esta ecuación la expresión del flujo magnético FB dada por (49), se tiene que:
e = – L dI (51)
dt
Esta expresión relaciona la fem inducida en bobina con la corriente que circula por ella, y esta-
blece que la fem inducida es proporcional a la rapidez con la que varía la corriente I en la bobina. El
signo menos determina el sentido de la fem inducida, de acuerdo con la ley de Lenz. Así, un aumento
de la corriente en la bobina da lugar a un aumento del flujo a través de ella y, por tanto, da lugar a una
fem cuyo sentido se opone al aumento de la corriente.
La autoinductancia L sólo se puede calcular en algunos casos simples, por lo que, en general,
su valor se determina experimentalmente. En el caso de un solenoide alargado de longitud l, sec-
ción transversal S y con un número de vueltas por unidad de longitud n, el campo magnético B en el
interior del mismo viene dado por B = m0nI. Cada vuelta la podemos considera como una espira pla-
na de superficie S, por lo que el flujo a través de ella es FB = m0nIS. Si el solenoide tiene una longi-
tud l, el número de vueltas o espiras es N = nl. Por tanto, aplicando la expresión (49) se tiene que
nlm0nIS = LI. Despejando L de esta expresión, se tiene finalmente que la autoinducción del solenoi-
de vendrá dada por:
L = m0n lS
2
(52)
Vemos, pues, que la autoinducción del solenoide depende de su longitud y superficie, y del número
de vueltas por unidad de longitud n. Es interesante hacer notar que la expresión que acabamos de
obtener es una expresión aproximada y que sólo es exacta en el caso de un solenoide ideal infinita-
mente largo.
1
U B = LI 2 (56)
2
Vemos que la energía almacenada en una bobina por la que circula una corriente I, U = LI2/2, es
análoga a la energía almacenada en un condensador cargado, U = CV2/2. Al igual que la energía al-
macenada en un condensador puede interpretarse como energía almacenada en el campo eléctrico,
podemos interpretar que la energía almacenada en una bobina se encuentra almacenada en el campo
magnético. Para ello, consideremos que la bobina se comporta como un solenoide alargado. En este
caso, la autoinducción viene dada por L = m0n2Sl; en donde n es el número de vueltas por unidad de
longitud, S el área de una vuelta, y l la longitud del solenoide. Por otro lado, para un solenoide ideal,
el campo magnético en el interior del solenoide es B = m0nI, y cero en los puntos exteriores. Sustitu-
yendo estos valores en la expresión de la energía almacenada en la bobina, se tiene que:
1 2 1 æ B ö2 1 B 2
U B = LI = m 0 n Slç
2
ç
÷=
÷ Sl (57)
2 2 è m0nø 2 m0
Si ahora tenemos en cuenta que la cantidad Sl es el volumen del espacio interior del solenoide que
coincide con la región donde existe el campo magnético, y dividimos ambos miembros de la expre-
sión anterior por Sl, tendremos la energía por unidad de volumen o densidad de energía del campo
magnético, uB:
1 B2
uB = (58)
2 m0
Esta expresión, que hemos encontrado para un caso particular, es aplicable a cualquier campo magné-
tico en general.
2.1.1. Circuitos RC
Un circuito RC, como su nombre indica, es un circuito en el que intervienen una resistencia R y
un condensador C. En este circuito, debido a la presencia del condensador, la corriente no es estacio-
naria, sino que varía con el tiempo. Vamos a analizar dos situaciones típicas: el proceso de carga de
un condensador cuando se conecta mediante una resistencia a los
terminales de una batería; y el proceso de descarga de un conden- R
sador, previamente cargado, cuando conectamos sus terminales
a una resistencia.
e C
– Proceso de carga de un condensador: consideremos
un circuito como el mostrado en la figura 9, en donde
se dispone de un condensador de capacidad C conecta-
do en serie con una resistencia R y un interruptor S a
una batería de fem e. Inicialmente, el condensador se
Figura 9. Carga de un
condensador.
encuentra descargado y el interruptor S, abierto. Al ce-
rrar el interruptor, la batería comienza a transferir carga entre las placas del condensador,
de manera que se establece una corriente eléctrica I. Esta corriente eléctrica es:
dQ
I= (59)
dt
en donde Q(t) es igual a la carga instantánea en cada una de las placas del condensador.
Aplicando la primera regla de Kirchhoff, la fem de la batería ha de ser igual a la suma de
caídas de potencial en la resistencia y en el condensador:
Q
e = VR +VC = IR + (60)
C
De las expresiones (59) y (60) se tiene que:
dQ Q
e= R+ (61)
dt C
En el instante inicial t = 0, la carga del condensador es cero y la corriente inicial vale I0 = e/R.
La carga aumenta hasta que la diferencia de potencia entre las placas es igual a la fem de
la batería y la corriente se anula. En este caso, la carga máxima vendrá dada según (60)
por QM = Ce.
Para resolver la ecuación (61), multipliquemos ambos miembros por C. Agrupando térmi-
nos y separando ambas variables, resulta:
dQ dt
= (62)
Ce – Q RC
Integrando, obtenemos que:
t
– ln(Ce – Q ) = +K (63)
RC
en donde K es una constante de integración. El valor de K se obtiene de la condición de que,
en el instante inicial t = 0, el condensador está descargado, Q = 0. Por lo tanto:
–ln Ce = K (64)
Sustituyendo este resultado en (63) resulta:
t
– ln(Ce – Q )+ ln Ce = (65)
RC
Esta expresión la podemos escribir como:
Ce – Q t
ln =– (66)
Ce RC
O lo que es lo mismo:
Ce – Q
= e – t / RC (67)
Ce
Despejando, se tiene finalmente que la carga almacenada en el condensador en cualquier
instante de tiempo viene dada por:
Q = Ce (1 – e
–t/RC
) (68)
dQ e – t / RC
I= = e (70)
dt R
en donde e/R es la corriente que circula por el circuito en el instante inicial.
Q I
Ce
I0
En la figura 10 se muestra la carga en las placas del condensador y la corriente que circula
por el circuito en función del tiempo. Podemos observar que el condensador sólo se carga
completamente para un tiempo infinito. En la figura se ha marcado el instante de tiempo
en que t = RC para el cual la carga del condensador es Q = 0,63 Ce. La rapidez con la que
se carga el condensador depende de este parámetro, el cual tiene unidades de tiempo y se
denomina constante de tiempo RC del circuito y se representa por t (t = RC). Si t es gran-
de, el condensador se carga lentamente, mientras que si t es pequeño lo hace rápidamen-
te. Por otra parte, la constante de tiempo es igual al tiempo en que se cargaría el condensa-
dor si lo hiciera a una corriente constante igual a la corriente inicial I0. En efecto, si esto
fuera así, el tiempo que se necesitaría para alcanzar una carga Ce en las placas del con-
densador sería tc = Ce/I0. Si tenemos en cuenta que I0 = e/R, resulta que el condensador
adquiriría la carga máxima en un tiempo igual a tc = RC = t.
– Descarga de un condensador: supongamos ahora un condensador C, cargado previamen-
te, que se conecta a una resistencia R en serie, mediante un interruptor S (figura 11). Inicial-
mente, el interruptor se encuentra abierto para evitar que la carga del condensador fluya por
la resistencia. Si denominamos Q0 a la carga del con-
densador en el instante inicial, la diferencia de potencial
entre sus placas vendrá dada por V0 = Q0/C. Al cerrar el
interruptor tendrá lugar un flujo de carga a través de la
resistencia R debido a la diferencia de potencial entre +Q
c R
sus terminales. En el instante inicial, la diferencia de po-
tencial en la resistencia es V0 y, por consiguiente, la co- -Q
rriente inicial será I0 = V0/R = Q0/RC. Si denominamos
Q(t) a la carga de las placas del condensador en un ins-
tante de tiempo t, esta corriente será:
Figura 11. Descarga de un
dQ
I=– (71) condensador.
dt
V0 – t / RC
I= e = I 0e – t / RC (80)
R
2.1.2. Circuito RL
Como hemos visto anteriormente, una autoinducción se comporta de manera que impide los
cambios de corriente instantáneos que circulan por ella. Para analizar con más detalle este comporta-
miento, consideremos un circuito formado por un inductor (una bobina) de inductancia L y una resis-
tencia R conectados en serie con una batería de fem e y un interruptor S (figura 13). Un circuito así se
denomina circuito RL. Cuando el interruptor está abierto no circula corriente por el circuito. Al cerrar
el interruptor la corriente comienza a crecer y se induce una fuerza contraelectromotriz en los termi-
nales de la bobina que se opone a la variación de corriente, cuya magnitud es LdI/dt. En la figura se
muestra el sentido de esta fuerza inducida cuando la variación de la corriente es positiva dI/dt > 0.
+
e L L dI
dt
Figura 13. Bobina -
conectada a una batería.
e = IR + L dI (81)
dt
Dividiendo ambos miembros de la ecuación por L y separando variables resulta:
dI R
= dt (82)
e/ R – I L
Integrando, obtenemos que:
R
– ln( e / R – I ) = t +K (83)
L
en donde K es una constante de integración. El valor de K se obtiene de la condición de que en el ins-
tante inicial t = 0, la corriente es cero, I = 0. Por lo tanto:
ln
e/ R – I = – R t (86)
e/ R L
O lo que es lo mismo:
e / R – I = e – Rt / L (87)
e/ R
Despejando, se tiene finalmente que la corriente que pasa por la bobina en cualquier instante de tiem-
po, viene dada por:
I=
e (1– e – Rt / L ) (88)
R
En la figura 14 se muestra la corriente que circula por el circuito en función del tiempo. Podemos
observar que la corriente aumenta con el tiempo y se acerca asintóticamente al valor límite e/R, que
corresponde al valor que se obtendría si no hubiese inductancia. En la figura se ha marcado el instante
de tiempo t= L/R para el cual la corriente toma el valor I = ( e/R) (1 – e–1) = 0,63 e/R. A ese valor se le
denomina constante de tiempo inductiva y se designa por tL. Para tiempos mucho menores que tL, la
corriente no cambia de forma significativa en el circuito.
I
e/R
Integrando:
R
ln I = – t +K (91)
L
siendo K una constante de integración que depende de las condiciones iniciales del problema. En nues-
tro caso, en el instante inicial t = 0 la corriente es I0, por lo que de la expresión anterior obtenemos que:
K = ln I0 (92)
Sustituyendo este resultado en la ecuación (91), tendremos que:
–Rt/L
I = I0 e (93)
I0
dI Q
L + =0 (94) Figura 17. Circuito oscilante LC.
dt C
1
w0 = (97)
LC
en donde Imáx = w0 Q0. De las expresiones (98) y (99) vemos que la corriente se encuentra desfasada
90º respecto de la carga: la corriente es máxima cuando la carga es cero, y es cero cuando la carga es
máxima.
Pasemos ahora a estudiar el aspecto energético de las oscilaciones en este circuito LC. La ener-
gía almacenada en el condensador viene dada por:
1 1 Q2
U E = QVC = (100)
2 2 C
Sustituyendo en esta expresión el resultado encontrado en (98), se tiene que:
Q02
UE = cos 2 w 0 t (101)
2C
Sumando las ecuaciones (101) y (103) encontramos que la energía total almacenada en el circui-
to en cualquier instante de tiempo t es:
Q02 Q2
U = U E +U B = (cos 2 w 0 t +sen 2 w 0 t ) = 0 (104)
2C 2C
Por tanto, la energía total en el circuito es constante, y la energía se conserva. De las ecuaciones (101)
y (103) vemos que en los instantes de tiempo t = 0, t = T, t = 2T,... (en donde T = 2p/w0) la energía al-
macenada en el condensador es igual a la energía total almacenada en el circuito, y la energía almace-
nada en la bobina es cero. En los instantes de tiempo t = T/2, t = 3T/2, t = 5T/2,... la energía
almacenada en el condensador es cero, y toda la energía del circuito se encuentra almacenada en la
bobina. En definitiva, la energía permanece constante, pero se transforma continuamente de energía
eléctrica en energía magnética, y viceversa.
1 R2
wa = – 2 (111)
LC 4L
en donde emáx es el valor máximo que puede alcanzar la fem y es una constante que depende de la
elección del origen de tiempos. Por regla general, y por razones de sencillez en las expresiones, toma-
remos a = 0, con lo que la fem proporcionada por el generador la expresaremos como:
e = emáx senwt (113)
e máx
I= sen wt (115)
R
Se definen los valores eficaces o valores cuadráticos medios de una magnitud, por ejemplo la co-
rriente, como:
I ef = ( I 2 ) m (121)
En el caso de una magnitud sinusoidal, I = Imáx sen wt, el valor eficaz es:
1 2
I ef = [ I máx
2
sen 2 wt] m = I (122)
2 máx
Es decir, el valor eficaz de una magnitud sinusoidal es igual al valor máximo dividido por 2.
Pm = I ef2 R (124)
Vemos que la corriente eficaz es igual a la corriente continua que produciría el mismo efecto que la
corriente de alterna dada por (117).
La potencia media suministrada por el generador de alterna será:
1
Pm = ( eI ) m = e máx I máx (sen 2 wt ) m = e I (125)
2 máx máx
Pm = e ef I ef (126)
De la expresión (116), dividiendo ambos miembros por 2 se tiene que la corriente eficaz y la fem
eficaz están relacionadas de la misma forma que lo están la corriente máxima y la fem máxima:
e ef
I ef = (127)
R
Si observamos las expresiones (124), (126) y (127) vemos que estas expresiones tienen la misma
forma que las correspondientes a un circuito de corriente continua. Es decir, que para un circuito de
corriente alterna el cálculo de la potencia disipada, la potencia suministrada por el generador y la co-
rriente que circula por la resistencia puede hacerse empleando las ecuaciones de corriente continua y
sustituyendo los valores de la corriente continua y las fem por los valores eficaces.
en donde Q es la carga en las placas del condensador en cada instante de tiempo. Por tanto, la carga en
las placas está en fase con la tensión aplicada al condensador:
Es decir, que la corriente en un condensador no está en fase con la tensión aplicada a sus extremos: la
tensión en los terminales del condensador está retrasada 90º respecto de la corriente, como se puede
ver en la figura 22; o lo que es lo mismo, la corriente adelanta a la tensión en los extremos del conden-
sador en 90º. Esto, es, la corriente alcanza su valor máximo un cuarto de ciclo antes de que lo alcance
la tensión. Este hecho tiene una explicación sencilla: la variación máxima de dQ/dt debe tener lugar
cuando la carga Q en el condensador es cero, lo que significa que la diferencia de potencial entre las
placas es cero. Conforme aumenta la carga en las placas, la corriente disminuye hasta que la carga es
máxima y la corriente es cero. A partir de este momento, la carga fluye en sentido contrario y la co-
rriente se hace negativa.
I e
Por analogía con un circuito resistivo en donde la corriente máxima y la diferencia de tensión
máxima están relacionadas por Imáx = emáx/R, se define la reactancia capacitiva XC como:
e máx
I máx = (134)
XC
Y dividiendo por 2:
e ef
I ef = (135)
XC
1
XC = (136)
wC
Las unidades de la reactancia capacitiva son las mismas que las de una resistencia y, por tanto, en el
SI es el ohmio (W).
La reactancia capacitiva limita la corriente por el circuito y es inversamente proporcional a la
frecuencia w. Para una condensador de una capacidad dada, a mayor frecuencia, menor reactancia ca-
pacitiva tiene y mayor es la corriente que circula por el circuito. Por el contrario, a menor frecuencia,
se tiene una mayor reactancia y, en consecuencia, circula una corriente menor. Esto tiene sentido ya
que a mayor frecuencia, menos tiempo tiene el condensador de almacenar carga y, por tanto, acepta
con más facilidad carga nueva. A menor frecuencia, el condensador se encuentra más cargado en
cada ciclo y ofrece mayor resistencia a la acumulación de nueva carga. Por otro lado, la reactancia ca-
pacitiva también varía inversamente con la capacidad del condensador, por lo que a una frecuencia
dada, un condensador de menor capacidad presenta una mayor reactancia y, por tanto, limita el paso
de la corriente en mayor medida que un condensador de más capacidad.
En cuanto a la potencia suministrada por la fuente, de la expresión de la corriente dada por (132)
tendremos que:
P = eI = emáx Imáx sen wt cos wt (137)
La potencia media vendrá dada por:
Pm = emáx Imáx (sen wt cos wt)m (138)
Ahora bien, el valor medio del producto de la función seno y de la función coseno es cero. Por consi-
guiente, la potencia media suministrada en un ciclo por la fuente es cero:
Pm = 0 (139)
Es decir, que en un condensador no se disipa potencia. Sólo se produce una transferencia de energía
entre la fuente y el condensador.
e
muestra con un signo más y menos el sentido de la caída de po- dt
tencial en los terminales de la bobina para un valor de la varia- -
ción de la corriente dI/dt positivo. Si llamamos VL a la caída de
tensión en la bobina, ésta viene dada por:
Figura 23. Bobina en corriente
dI alterna.
VL = V+ – V– = L (140)
dt
Aplicando la regla de las mallas al circuito, obtenemos:
e = VL (141)
en donde K es una constante de integración. Esta constante representa una componente de corriente
continua en la corriente total. Puesto que el generador proporciona una corriente que oscila simétrica-
mente al valor cero, no puede existir esta componente y, en consecuencia, la constante K es cero. Por
tanto, la corriente queda como:
e máx
I=– cos wt (145)
wL
El valor máximo de la corriente se obtiene cuando cos wt = –1, y es igual a:
e máx
I máx = (146)
wL
Con lo que la corriente por el circuito puede escribirse como:
I = –Imáx cos wt (147)
Si ahora tenemos en cuenta que –cos wt = sen(wt – p/2), la corriente queda como:
La corriente en una bobina no está en fase con la tensión aplicada a sus extremos: la tensión y la co-
rriente están desfasadas 90º; más concretamente, la tensión en los terminales del inductor está adelanta-
da 90º respecto de la corriente, como se puede ver en la figura 24; o lo que es lo mismo, la corriente está
retrasada 90º con respecto a la tensión en los extremos de la bobina. Por tanto, la corriente alcanza su
valor máximo un cuarto de ciclo después de que lo alcance la tensión. Este hecho tiene una explicación
sencilla: cuando la corriente es cero, pero está creciendo su variación temporal, tiene su valor máximo,
de forma que la fem inducida en la bobina alcanza su valor máximo. Transcurrido un cuarto de ciclo, la
corriente alcanza su valor máximo, y en este instante dI/dt = 0, de manera que la fem inducida es cero.
e I
Al igual que en el caso de los condensadores en que se define la reactancia capacitiva, se define
la reactancia inductiva XL como:
e máx
I máx = (149)
XL
Y dividiendo por 2:
e ef
I ef = (150)
XL
XL = wL (151)
Las unidades de la reactancia inductiva son las mismas que las de una resistencia y que las de la reac-
tancia capacitiva, y, por tanto, en el SI, es el ohmio (W).
La reactancia inductiva limita la corriente por el circuito inductivo de la misma forma que la re-
sistencia lo limita en los circuitos resistivos y la reactancia capacitiva lo hace en los circuitos capaciti-
vos. Puesto que la reactancia inductiva es directamente proporcional a la frecuencia w, una inducción
dada presentará mayor reactancia cuanto mayor sea la frecuencia de la corriente. Por consiguiente,
una inducción se opondrá fuertemente al paso de una corriente de frecuencia alta, mientras que impe-
dirá poco el paso de corrientes de frecuencias bajas.
En lo que se refiere a la potencia suministrada por la fuente, de la expresión de la corriente por el
circuito dada por (145), tendremos que:
P = eI = –emáx Imáx sen wt cos wt (152)
La potencia media vendrá dada por:
Pm = –emáx Imáx (sen wt coswt)m (153)
Ahora bien, el valor medio del producto de la función seno y de la función coseno es cero. Por consi-
guiente, la potencia media suministrada en un ciclo por la fuente es cero:
Pm = 0 (154)
Es decir, que en una bobina no se disipa potencia. Sólo se produce una transferencia de energía entre
la fuente y la inductancia.
La solución de la ecuación diferencial (156) es de la forma (en donde, como hemos dicho, se desprecia
el término transitorio):
I(t) = Imáx sen(wt – f) (159)
en donde f depende de los valores de los elementos del circuito y de la frecuencia de la señal proporcio-
nada por la fuente de corriente alterna. Para ver esto, sustituyamos la solución dada por (159) en (156).
Haciendo esto, se tiene que:
1
Imáx [–w L sen(wt – f) + wR cos(wt – f) + sen(wt – f)] = wemáx cos wt
2
(160)
C
Los términos sen(wt – f) y cos(wt – f) los podemos desarrollar utilizando las expresiones trigono-
métricas:
sen(wt – f) = sen wt cos f – cos wt sen f (161)
(163)
+ cos wt [Imáx(w LC – 1) sen f + ImáxwRCcos f – wCemáx] = 0
2
Esta ecuación se satisfará si los términos que aparecen entre corchetes son iguales a cero. Por tanto,
tendremos que:
(1 – w LC) cos f + wRCsen f = 0
2
(164)
X L – XC
sen f = 1– cos 2 f = (171)
R + ( X L – X C )2
2
e máx
I máx = (174)
Z
æ 1 ö
2
Z = R 2 + ( X L – X C ) 2 = R 2 +çwL – ÷ (175)
è wC ø
e ef
I ef = (176)
Z
Resonancia: una característica importante de los circuitos RCL conectado a una fuente de co-
rriente alterna es el fenómeno de la resonancia. Este fenómeno es común a todos aquellos sistemas
que tienden a oscilar a una frecuencia determinada, denominada frecuencia natural del sistema.
Cuando estos sistemas se acoplan a una fuente de energía de frecuencia cercana a su frecuencia natu-
ral, la amplitud de la oscilación aumenta considerablemente.
Estudiemos a continuación lo que le ocurre a la corriente que circula por un circuito RCL cuan-
do variamos la frecuencia de la fuente de alterna manteniendo los demás parámetros del circuito
constantes. De la expresión (174) observamos que la corriente máxima está limitada por la impe-
dancia del circuito. Ahora bien, esta impedancia depende de la frecuencia a través de la reactancia
inductiva y capacitiva. Por consiguiente, la corriente máxima depende de la frecuencia de la fuente
de alterna. A frecuencias bajas, la reactancia capacitiva XC = 1/wC es mucho mayor que la reactan-
cia inductiva XL = wL, de manera que la impedancia es grande y, por tanto, la corriente máxima es pe-
queña. Por otra parte, de la expresión (167) se tiene que el ángulo de fase f es negativo, por lo que la
corriente adelanta a la tensión de la fuente. Al aumentar la frecuencia, la reactancia capacitiva dismi-
nuye y la reactancia inductiva aumenta. Cuando ambas son iguales, la impedancia tiene el valor míni-
mo e igual a R y, por consiguiente, la corriente Imáx alcanza su valor máximo. Cuando esto ocurre, el
ángulo de fase es cero y, por tanto, la corriente está en fase con la tensión de la fuente de alterna. Si se-
guimos aumentando la frecuencia de la fuente de alterna, la reactancia inductiva se hace mayor que la
reactancia capacitiva, la impedancia aumenta y la corriente Imáx disminuye. El ángulo de fase f se
hace positivo, y la corriente atrasa respecto a la tensión de la fuente de alterna.
El valor de la frecuencia w0, para el que las reactancias son iguales, vendrá dado por:
1
X L = X C Þ w 0 L= (177)
w 0C
1
w0 = (178)
LC
Esta frecuencia recibe el nombre de frecuencia de resonancia del circuito. Cuando la frecuencia de la
fuente de energía externa, la fuente de alterna, es igual a la frecuencia de resonancia, la impedancia es
mínima y la corriente Imáx alcanza su máximo valor. Decimos entonces que, a esta frecuencia, el cir-
cuito se encuentra en resonancia.
Tal como hemos visto en los apartados anteriores, el único elemento del circuito que disipa ener-
gía es la resistencia. Por tanto, la potencia media suministrada a un circuito RCL es igual a la potencia
media suministrada a la resistencia. La potencia instantánea suministrada es:
Pm = I máx
2
R[sen 2 ( wt – f )] m (180)
Ahora bien, el valor promedio de la función seno cuadrado es igual a 1/2, por lo que resulta:
1 2
Pm = I máx R (181)
2
Como la corriente máxima y el valor máximo de la tensión aplicada están relacionados por (174), pode-
mos escribir para la potencia:
1 R
Pm = I máx e máx (182)
2 Z
1
Pm = I máx e máx cos f (183)
2
Pm = I ef e ef cos f (184)
en donde cos f se denomina factor de potencia del circuito RCL. En resonancia, el ángulo de fase es
cero (f = 0) y el factor de potencia es igual a la unidad.
La potencia media suministrada la podemos expresar en función de la tensión de la fuente y de
los parámetros del circuito. Para ello, sustituyamos en (182) el valor de la corriente máxima Imáx por
el dado en (174). Haciendo esto, tendremos que:
R
Pm = e ef2 (185)
Z2
Z 2 = R 2 + ( X L – X C ) 2 = R 2 +çwL – ÷=
è wC ø
(186)
L2 æ 2 1 ö
2
L2
= R2+ ç w – ÷ = R 2 + 2 ( w 2 – w 20 ) 2
w è
2
LC ø w
en donde se ha tenido en cuenta que la frecuencia de resonancia w0 viene dada por (178). Llevando
esta expresión a la expresión de la potencia media (185), se tiene que:
e ef2 Rw 2
Pm = (187)
L2 ( w 2 – w 20 )+ w 2 R 2
Para calcular w1 debemos considerar que w1 < w0. Por lo que de la expresión (192) tendremos que:
L
R= – ( w 21 – w 20 ) (193)
w1
Resolviendo esta ecuación se tiene que:
– R ± R 2 + 4L2 w 20
w1 = (194)
2L
Puesto que la frecuencia ha de ser un número positivo, tendremos que:
– R + R 2 + 4L2 w 20
w1 = (195)
2L
Por otra parte, como w2 > w0, de la expresión (192) tendremos que:
L
R= ( w 22 – w 20 ) (196)
w2
Resolviendo esta ecuación se tiene que:
R ± R 2 + 4L2 w 20
w2 = (197)
2L
Puesto que la frecuencia ha de ser un número positivo, tendremos que:
R + R 2 + 4L2 w 20
w2 = (198)
2L
Finalmente, sustituyendo los resultados encontrados en (195) y (198) en (191), la anchura de la resonancia
vendrá dada por:
R
BW = w 2 – w 1 = (199)
L
Los circuitos resonantes son de gran utilidad en los receptores de radio o de televisión, en donde se
utilizan para sintonizar una determinada emisora. Mediante un condensador variable se cambia la fre-
cuencia de resonancia del circuito. Cuando esta frecuencia es igual a una de las frecuencias emitidas por
las distintas emisoras y recibidas en la antena, aparece en ésta una corriente grande. Si el factor de cali-
dad del circuito es lo suficientemente grande, las corrientes debidas a las frecuencias de otras emisoras
que no están en resonancia serán muy pequeñas comparadas con la corriente de la emisora sintonizada.
Por otra parte, hemos visto que, según (45) y (56), la energía almacenada en un condensador y en una
bobina vienen dadas por:
1 Q2
UE = (202)
2 C
1
U B = LI 2 (203)
2
Por tanto, tendremos que la energía almacenada en el condensador y en la bobina varían con el tiempo
de la forma:
dU E Q dQ Q
= = I (204)
dt C dt C
dU B dI
= LI (205)
dt dt
Si comparamos estas ecuaciones con la expresión de la potencia instantánea suministrada por la
fuente, podemos concluir que:
2
– El término I R corresponde a la energía disipada en la resistencia en forma de calor.
Q
– El término I C corresponde a la variación de la energía eléctrica almacenada en el conden-
sador.
dI
– El término LI dt corresponde a la variación de la energía magnética almacenada en la bobina.
BIBLIOGRAFÍA
25
Ondas electromagnéticas.
Origen y propiedades. Energía
y cantidad de movimiento en
las ondas electromagnéticas.
Espectros electromagnéticos.
Aplicaciones. Medidas de
protección cuando ha lugar
ÍNDICE SISTEMÁTICO
1. ONDAS ELECTROMAGNÉTICAS
1.1. Ecuaciones de Maxwell
1.2. Origen y propiedades
1.2.1. Ondas electromagnéticas planas
1.2.2. Transversalidad de las ondas electromagnéticas
1.2.3. Polarización de las ondas electromagnéticas
BIBLIOGRAFÍA
1. ONDAS ELECTROMAGNÉTICAS
En su artículo de 1864 titulado “Teoría dinámica del campo electromagnético”, Maxwell pre-
sentó las célebres ecuaciones, que hoy denominamos ecuaciones de Maxwell, que unificaban los
campos eléctricos y magnéticos. Estas ecuaciones constituyen la base teórica del electromagnetismo
clásico y relacionan los campos eléctricos y magnéticos con sus fuentes: las cargas eléctricas, las co-
rrientes y los campos variables. Pero la importancia de estas ecuaciones no está solamente en el hecho
de que sean la síntesis del electromagnetismo, sino también en un aspecto de crucial importancia: las
ecuaciones de Maxwell predicen la existencia de ondas electromagnéticas.
A partir de las ecuaciones del electromagnetismo, Maxwell demostró que podían combinarse r
para
r dar lugar a una ecuación de onda que debían satisfacer los campos eléctricos y magnéticos, E y
B. Por otro lado, Maxwell demostró que la velocidad de propagación de estas ondas en el vacío debía
ser c = (m0e0)–1/2. En su artículo, Maxwell escribía:
A continuación se aplican las ecuaciones generales al caso de una perturbación
magnética que se propaga a través de un medio no conductor y se demuestra que las
únicas perturbaciones que pueden propagarse así son aquellas que son transversales
a la dirección de propagación y cuya velocidad es la encontrada a partir de experi-
mentos como los de Weber, que expresan el número de unidades electrostáticas de
electricidad contenidas en una unidad electromagnética.
Estas suposiciones fueron posteriormente confirmadas por Heinrich Hertz (1857-1894) quien produ-
jo por primera vez ondas electromagnéticas en un laboratorio.
corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-
titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad e, una permeabilidad m, y una conductividad s estas ecuaciones son:
r r
D = eE (5)
r 1 r
H= B (6)
m
r r
J = sE (7)
Haciendo uso de estas
r ecuaciones
r constitutivas, las ecuaciones de Maxwell pueden escribirse en
función de los campos E y B como:
r r r
Ñ×E = (8)
e
r r
Ñ×B = 0 (9)
r
r r r ¶E
Ñ´ B = msE + me (10)
¶t
r
r r ¶B
Ñ´ E = – (11)
¶t
Sustituyendo la expresión (15) en (14) y teniendo en cuenta que, según (9), la divergencia del campo
magnético es cero, obtenemos que:
r r
r ¶B ¶2B
Ñ B – ms
2
– me 2 = 0 (17)
¶t ¶t
Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (11) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç ¶t ÷ (18)
è ø
Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (19)
¶t
Sustituyendo en esta expresión la ecuación (10) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (20)
¶t ¶t
Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (21)
Sustituyendo la expresión (21) en (20), y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (8), obtenemos finalmente que:
r r
r2r ¶E ¶ 2 E ræ r ö
Ñ E – ms – me 2 = Ñç ÷ (22)
¶t ¶t èeø
En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (23)
¶t ¶t
Las ecuaciones (17) y (23) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (17) y (23) se simplifican y quedan en la forma:
r
r ¶2B
Ñ B – me 2 = 0
2
(24)
¶t
r
r ¶2E
Ñ E – me 2 = 0
2
(25)
¶t
Las dos ecuaciones vectoriales (24) y (25) proporcionan seis ecuaciones de onda, una para cada com-
ponente del campo eléctrico (Ex, Ey, Ez) y del campo magnético (Bx, By, y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r2r ¶2B
Ñ B – m0e0 2 = 0 (28)
¶t
r
r2r ¶2E
Ñ E – m0e0 2 = 0 (29)
¶t
Por ello, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío como
una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:
1
c= (30)
m0e0
El valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315 000 km/s. Esta
coincidencia llevó a Maxwell a escribir:
Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para
concluir que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay)
es una perturbación electromagnética en forma de ondas que se propagan a través del
campo electromagnético de acuerdo con las leyes electromagnéticas.
En consecuencia:
r r
¶E ¶E
= =0 (34)
¶x ¶y
r r
¶B ¶B
= =0 (35)
¶x ¶y
En este caso, las ecuaciones de onda de los campos eléctrico y magnético se reducen a:
r r
¶2E ¶2E
– me 2 = 0 (36)
¶z 2 ¶t
r r
¶2B ¶2B
– me 2 = 0 (37)
¶z 2 ¶t
Cada componente de los campos debe satisfacer una ecuación de onda similar a las anteriores. Si
convenimos que los campos físicos eléctrico y magnético se obtienen tomando la parte real de magni-
tudes complejas, podemos escribir la solución de estas ecuaciones como:
r r
E = E 0 e i ( kz– wt) (38)
r r i ( kz– wt)
B = B0 e (39)
Por otro lado, de la ecuación (11) del rotacional del campo eléctrico se obtiene que:
¶E y ¶B x
= (43)
¶z ¶t
¶E x ¶B y
= (44)
¶z ¶t
¶B z
0= (45)
¶t
¶B x ¶E y
= me (47)
¶z ¶t
¶E z
0= (48)
¶t
Las ecuaciones (41) y (48), por un lado, y las ecuaciones (42) y (45), por otro, muestran que las compo-
nentes Ez y Bz son constantes en el tiempo y en el espacio. Por tanto, si suponemos que los campos eléc-
trico y magnético son nulos antes de la llegada de la onda (es decir, en ausencia de campos estáticos), si-
guen siendo nulos en todo instante de tiempo. Por consiguiente, podemos escribir que:
Ez = 0 Bz = 0 (49)
r r
Estos resultados indican que las ondas electromagnéticas son transversales: los vectores E y B son
perpendiculares a la dirección de propagación. Por consiguiente, los vectores campo eléctrico y mag-
nético sólo tendrán componentes perpendiculares a la dirección de propagación, es decir:
r
E = E x i$ + E y $j (50)
r
B = B x i$ + B y $j (51)
¶2E y ¶2E y
– me =0 (53)
¶z 2 ¶t 2
Con el convenio de utilizar magnitudes complejas para representar los campos físicos, las solu-
ciones de estas ecuaciones las podemos escribir como:
i(kz–wt)
Ex = E0xe (56)
i(kz–wt)
Ey = E0ye (57)
Y para el campo magnético:
i(kz–wt)
Bx = B0xe (58)
i(kz–wt)
By = B0ye (59)
Las magnitudes E0x, E0y, B0x y B0y son, en general, complejas con el objeto de incorporar el desfase entre
las distintas componentes.
Por otra parte, las componentes del campo eléctrico y el campo magnético están relacionadas me-
diante las ecuaciones de Maxwell. Así, por ejemplo, de la ecuación (43) y de las ecuaciones (57) y (58),
obtenemos que:
1
Bx = – E (60)
u y
Análogamente, de la ecuación (44) y de las ecuaciones (56) y (59), resulta que:
1
By = E (61)
u x
Por tanto, las soluciones generales de una onda plana que se propaga en la dirección del eje z la pode-
mos escribir como:
r
E = E x i$ + E y $j = ( E 0x i$ + E 0 y $j )e i ( kz– wt) (62)
r 1
B = B x i$ + B y $j = (– E 0 y i$ + E 0x $j ) e i ( kz– wt) (63)
u
r r
Calculando el producto escalar de los vectores E y B se tiene que:
r r
E·B=0 (64)
Es decir, que el campo eléctrico y el campo magnético son perpendiculares entre sí, y perpendiculares
a la dirección de propagación de la onda electromagnética.
r r
Por otro lado, del producto vectorial de E y B, se tiene que:
r r 1 1 E2
E ´ B = ( E x B y – E y B x )k$ = ( 2 E x2 + 2 E 2y )k$ = 2 k$ (65)
u u u
r r
$ forman un triedro a de-
Es decir, los vectores E, B y la dirección de propagación, en nuestro caso k,
rechas.
Por tanto, los campos eléctrico y magnético en una onda electromagnética plana son perpendi-
culares a la dirección de propagación y forman con ésta un triedro a derechas.
Por tanto, el campo eléctrico está orientado siempre en una misma dirección que forma un
ángulo a con el eje x dado por:
E0 y
a= arctan (71)
E 0x
Es decir, que el campo eléctrico oscila siempre en un plano que contiene la dirección de
propagación k$ y que forma un ángulo a con el eje x. A este plano se le denomina plano de
polarización, y decimos que la onda está polarizada linealmente.
En las expresiones (58) y (59) encontramos que el campo magnético vendrá dado por:
r 1
B = (– E 0 y i$ + E 0x $j )cos( kz – wt ) (72)
u
Por tanto, el campo magnético oscila en fase con el campo eléctrico en una dirección
r r fija en el
espacio, resultado que ya sabíamos, puesto que anteriormente se demostró que E, B y la direc-
ción de propagación forman un triedro a derechas. En la figura 1 se muestra la orientación relati-
va de los campos eléctricos y magnéticos en un instante dado en distintos puntos del espacio.
Z
E
Z
B
Figura 1. Onda
electromagnética polarizada
linealmente.
Por tanto, el campo eléctrico cambia en módulo y en dirección con el tiempo y con la posición.
Esto lo podemos ver si encontramos la curva que describe el extremo del vector campo eléc-
trico. De la expresión (73) obtenemos que:
Ex
= cos( kz – wt ) (76)
E 0x
Esta ecuación corresponde a una elipse cuyos semiejes son E0x y E0y. Por consiguiente, al
avanzar la onda, el campo eléctrico describe una elipse en un plano perpendicular a la di-
rección de propagación. Decimos que la onda está polarizada elípticamente.
En el caso concreto en que las amplitudes E0x y E0y son iguales, E0x = E0y = E0, la relación en-
tre las componentes del campo eléctrico se convierte en:
E x2 + E y2 = E 02 (79)
Expresión que corresponde a una circunferencia de radio E0. En este caso, el extremo del
vector campo eléctrico describe una circunferencia y decimos que la onda electromagnéti-
ca está polarizada circularmente. En la figura 2 se muestra el valor del campo eléctrico en el
instante t = 0 para distintos valores de la variable z.
y
x
Z
E Z
E Z
Z
E
B
Z Z
B Z E
B Z
B z Figura 2. Onda electromagnética
polarizada circularmente.
Se tiene, por tanto, que la velocidad con la que gira el campo eléctrico es igual a la frecuen-
cia angular w de la onda electromagnética.
disminuye como consecuencia del flujo de energía a través de la superficie. En segundo lugar, la
energía disminuye por la pérdida en forma de calor de Joule por el movimiento de las cargas libres.
En el caso de un medio en el que no existen cargas libres, la ecuación anterior se reduce a:
¶U 1 r r r
= – òA ( E ´ B ) dA (94)
¶t m
r 1 r r r r
S = ( E ´ B ) = c 2 e( E ´ B ) (95)
m
El vector de Poynting es, por tanto, la densidad de flujo de energía electromagnética por unidad de su-
perficie y por unidad de tiempo. De la expresión anterior, y del estudio realizado en los apartados an-
teriores, se deduce que para medios isótropos, lardirección
r de propagación de la onda electromagnéti-
ca, que es perpendicular al plano definido por E y B, coincide con la dirección de propagación de la
energía dada por el vector de Poynting.
Si consideramos que la dirección de propagación es el eje z, y teniendo en cuenta que la relación
entre las magnitudes del campo eléctrico y magnético es B = E/c, el vector de Poynting lo podemos
escribir como:
r
S = ceE 2 k$ (96)
Si ahora tenemos en cuenta que la densidad de energía transmitida por la onda viene dada por (84), la
expresión anterior la podemos escribir como:
r
S = Sk$ (97)
en donde la magnitud del vector de Poynting viene dada por:
S = cu (98)
Para encontrar el resultado anterior, hemos tenido en cuenta que en una onda electromagnética u =
= 2uE = 2uB.
En el caso de una onda plana polarizada linealmente que se propaga en la dirección del eje z, los
campos eléctricos y magnéticos vienen dados por las expresiones (70) y (72), por lo que su producto
vectorial viene dado por:
r r
E ´ B = ( E x B y – E y B x )k$ =
1 1
= ( E 02x + E 02y )cos 2 ( kz – wt )k$ = E 02 cos 2 ( kz – wt )k$ = (100)
c c
Sustituyendo esta expresión en la expresión de la intensidad, y teniendo en cuenta que el valor medio
de la función coseno al cuadrado es ácos2 (kz – wt)ñ = 1/2, obtenemos que:
1 1
I = ceE 02 = cB 2 (101)
2 2m 0
En el caso de las ondas esféricas, la amplitud decrece con la distancia a la fuente en la forma 1/r,
por lo tanto, la intensidad de la onda decrece como 1/r2. Esto puede obtenerse a partir de la conserva-
ción de la energía. Supongamos un fuente de ondas electromagnéticas situada en un punto del espacio
y que emite una energía por unidad de tiempo (potencia) P0. La energía que atraviesa una superficie
esférica de radio r1 por unidad de tiempo será igual a:
4pr12 I1 = P1 (102)
4pr22 I2 = P2 (103)
Por el principio de conservación, la energía que atraviesa por unidad de tiempo ambas superficies ha
de ser la misma e igual a la energía emitida por la fuente por unidad de tiempo. Por tanto, se debe
cumplir que:
En general, la intensidad de la onda electromagnética a una distancia r de la fuente vendrá dada por
P0
I ( r )= (107)
4pr 2
y
x
Z
E Z
FB
Z
B
Sobre cada electrón del material, el campo eléctrico ejerce una fuerza:
r r
FE = q e E (108)
Esta fuerza impulsa a la carga en la dirección del campo eléctrico con una velocidad ue. A su vez, el
campo magnético ejerce una fuerza sobre el electrón:
r r r
FB = q e ( u e ´ B ) (109)
r r r
Aunque la fuerza FE cambia de sentido conforme lo hace el campo eléctrico E, la fuerza FB impulsa
r r
siempre a la partícula en la dirección de propagación de la onda, ya que u e y B cambian de sentido si-
multáneamente. Esta fuerza se transmitirá al material, que tenderá a desplazarse en la dirección de
propagación de la onda. La fuerza total que actúa sobre el electrón será:
r r r r r r
F = FE + FB = q e [ E + ( u e ´ B )] (110)
r
El promedio de la fuerza debida al campo eléctrico es cero áFE ñ, pues es una fuerza que oscila
con el campo eléctrico, mientras que el promedio de la fuerza magnética es distinto de cero, pues
siempre está dirigida en la dirección de propagación. Por tanto, el promedio de la fuerza total que ac-
túa sobre el electrón será:
r r
F = FB = q e u e B k$ (111)
r r
Puesto que los módulos de E y B están relacionados por B = E/c, la expresión anterior la podemos es-
cribir como:
r q
F = q e u e B k$ = e u e E k$ (112)
c
El electrón adquiere un momento en la dirección del eje z que debe ser transmitido por la onda
electromagnética. La variación del momento del electrón vendrá dada por la segunda ley de Newton:
r dpr
F= (113)
dt
Y en promedio:
r r
dp q
= F = e u e E k$ (114)
dt c
Esta expresión indica que si el electrón extrae una cierta cantidad de energía e de la onda electromag-
nética en un intervalo de tiempo determinado, adquirirá un momento igual a:
e
p= (118)
c
Por el principio conservación de la cantidad de movimiento, este momento deberá ser transportado
por la onda electromagnética.
Puesto que la onda electromagnética transporta una densidad de energía u, la densidad de mo-
mento transportada por la onda electromagnética será:
u
rp = (119)
c
Si tenemos en cuenta ahora la expresión (98), la expresión anterior la podemos escribir en función del
módulo del vector de Poynting como:
S
rp = (120)
c2
Por tanto, una onda electromagnética transporta una densidad de momento lineal que viene dada por
la expresión anterior.
I
pr = Absorción total (122)
c
En el caso de que la radiación electromagnética sea reflejada totalmente por el objeto material,
podemos encontrar el valor de la presión de radiación haciendo un estudio similar al realizado para
determinar la presión ejercida por una pelota que incide sobre una pared. Por conservación de la can-
tidad de movimiento, el momento transferido a la pared es igual al cambio de cantidad de movimiento
experimentado por la pelota. Si la pelota queda incrustada en la pared (colisión completamente ine-
lástica), tendremos que la cantidad de movimiento final de la pelota es cero, y, por tanto, la variación
de su cantidad de movimiento, y el momento transmitido a la pared será igual a la cantidad de movi-
miento inicial de la bola. Por el contrario, si la pelota sale rebotada con la misma velocidad con la que
incidió sobre la pared (colisión elástica), la variación de la cantidad de movimiento, y el momento
transferido a la pared, es el doble de la cantidad de movimiento inicial.
De forma análoga, podemos aplicar el principio de conservación de la cantidad de movimiento
para determinar la presión ejercida por una onda electromagnética sobre una superficie. Si p es el mo-
mento transferido cuando la absorción es completa, cuando la reflexión es total, la cantidad de movi-
miento transferida a la superfice será el doble, y, por tanto, la presión ejercida por la radiación también
lo será. Por consiguiente, podemos escribir que:
2I
pr = Reflexión total (123)
c
Las expresiones (122) y (123) son válidas para los casos extremos de absorción y reflexión total
de la onda electromagnética. En un objeto real, parte de la onda es reflejada y parte es absorbida, por
lo que la presión de radiación tendrá un valor comprendido entre I/c y 2I/c, que dependerá de la frac-
ción de la onda reflejada y absorbida.
La presión de radiación es pequeña y, por tanto, difícil de detectar. Para hacernos una idea de la
magnitud de la presión de radiación, consideremos que la densidad de flujo promedio de la energía
electromagnética del Sol que incide normalmente sobre una superficie situada en el exterior de la at-
mósfera terrestre es aproximadamente de 1400 W/m2. Suponiendo que la absorción es completa, de
la ecuación (122) se tiene que la presión de radiación resultante sería 4,7 ´ 10–6 N/m2, la cual es des-
preciable frente a la presión atmosférica, que es igual a 105 N/m2.
La determinación experimental de la presión de radiación producida por la luz fue realizada por
primera vez por Pyotr Nikolaievich Lebedev (1866-1912) y, de forma independiente, por Edward
Laemington Nichols (1854-1937) y Gordon Ferrie Hull (1870-1956). Para ello, utilizaron una balan-
za de torsión con un espejo sobre el que hacían incidir una luz. Midiendo la intensidad de la luz inci-
dente comprobaron la validez de la expresión (123). Estas medidas se realizaron entre los años 1901 y
1903, treinta años después de que la presión de radiación fuera predicha por Maxwell.
Como vemos, algunas de estas señales quedan dentro de otra región, denominada microon-
das, muy utilizada en determinados sistemas de comunicación.
– Microondas: la región de las microondas es la zona del espectro electromagnético que
comprende las ondas de frecuencia entre 10 y los 3 ´ 10 Hz. Sus longitudes de onda es-
9 11
–3
tán comprendidas entre los 0,3 m y 10 m. Estas ondas se generan con tubos de electrones
especiales como el klistrón o el magnetrón, que incorporan resonadores para controlar la
frecuencia, y dispositivos electrónicos de estado sólido especiales.
El campo de aplicación de las microondas es muy amplio; se utilizan en radio y televisión,
en radares, en comunicaciones vía satélite y en la investigación de las propiedades de la
materia, entre otras cosas.
Una aplicación relativamente reciente y muy extendida en los últimos años es la utilización
de las microondas para cocinar alimentos. El funcionamiento de un horno de microondas se
basa en la excitación provocada por las microondas en las moléculas de agua de los alimen-
tos. Ésta hace que las moléculas vibren y se eleve la temperatura de los alimentos.
Infrarrojo: la región del infrarrojo se extiende aproximadamente desde los 3 ´ 10 Hz
11
–
hasta alrededor de 4 ´ 10 Hz. El infrarrojo (abreviadamente IR) se suele dividir, a su vez,
14
en cuatro regiones:
Ø Infrarrojo cercano, que comprende la radiación próxima a la región del visible y cu-
yas longitudes de onda van desde los 780 nm hasta los 3000 nm.
Ø Infrarrojo intermedio, que comprende ondas electromagnéticas de longitudes de
onda entre 3000 y 6000 nm.
Ø Infrarrojo lejano, cuyas longitudes de onda van desde los 6000 a los 15000 nm.
Ø Infrarrojo extremo, que comprende la radiación de longitud de onda entre los 15000 nm
y 1 mm.
Las ondas comprendidas en esta región del espectro son producidas por osciladores de mi-
croondas (en el extremo de mayores longitudes de onda), por cuerpos incandescentes o
bien por moléculas.
Este tipo de ondas electromagnéticas tiene muchas aplicaciones en campos tan diversos
como la industria, la medicina y la astronomía. La propiedad de la radiación infrarroja de
atravesar la atmósfera, incluso brumosa, la hace muy útil para tomar fotografías, especial-
mente aéreas, de objetos lejanos, ocultos en situaciones en que la luz visible resulta disper-
sada. Esta técnica de fotografía infrarroja aérea se usa, por ejemplo, para observar las
cosechas y evaluar el daño producido por plagas o enfermedades en grandes zonas agríco-
las. En el campo de la minería, esta técnica se utiliza para detectar depósitos de minerales, y
en la industria se emplea para determinar la calidad de los productos.
Sus usos industriales son muy variados. Así, por ejemplo, se utiliza para el secado de barni-
ces y pinturas, maderas, cuero, y otros materiales; para la desecación de pastas alimenti-
cias; la deshidratación de frutas, verduras, etc.
En el campo de la medicina, el uso de técnicas infrarrojas permite observar patologías que
no pueden verse a simple vista ni en una radiografía. Por otro lado, los rayos infrarrojos se
utilizan para mejorar los trastornos circulatorios cutáneos, para favorecer la cicatrización y
para aliviar los dolores reumáticos.
Por último, podemos destacar la importancia que la radiación infrarroja ha tenido en la astrono-
mía, dando lugar a un campo denominado astronomía infrarroja, que consiste en el estudio de la
radiación infrarroja emitida por los cuerpos celestes. Así, por ejemplo, la observación de los ra-
yos infrarrojos emitidos por los planetas del Sistema Solar ha permitido conocer su composi-
rresponden a longitudes de onda entre los 780 nm y los 390 nm (ver tabla 2).
Las fuentes de estas ondas electromagnéticas son los átomos y moléculas y son el resultado de
los ajustes internos en el movimiento de sus componentes, fundamentalmente de los electrones.
onda comprendidas entre 3,8 ´ 10 m y los 6 ´ 10 m). Se producen por átomos y molé-
–7 –10
esta finalidad, tales como el Hubble (1990) y el Explorador Ultravioleta Extremo (1992),
que puede explorar gran parte de la región ultravioleta desde 91 hasta 10 nm (llamada ultra-
violeta extremo), que es una zona difícil de detectar debido a la continua absorción de foto-
nes causada por la ionización de los átomos de hidrógeno y helio interestelares.
– Rayos X: los rayos X constituyen la zona del espectro electromagnético que abarca la ra-
diación comprendida entre los 3 ´10 Hz y los 5 ´ 10 Hz (l entre 10 m y 6 ´ 10 m).
17 19 –9 –12
Los rayos X fueron descubiertos de forma accidental en 1895 por Wilhelm Conrad Röntgen
(1845-1923), cuando estudiaba los rayos catódicos en un tubo de descarga gaseosa de alto
voltaje. A pesar de que el tubo estaba dentro de una caja de cartón negro, Röntgen observó
que una pantalla de platinocianuro de bario, que casualmente estaba cerca, emitía luz fluo-
rescente siempre que funcionaba el tubo. Esto le llevó a realizar otros experimentos adicio-
nales, a partir de los cuales concluyó que la fluorescencia se debía a una radiación invisible
más penetrante que la radiación ultravioleta, que denominó rayos X por su naturaleza des-
conocida. Más tarde, a esta radiación electromagnética se le denominó también rayos
Röntgen, en honor a su descubridor.
Estos rayos son emitidos por los átomos o moléculas cuando los electrones más internos
sufren transiciones. También pueden ser generados cuando se frena una partícula cargada
de alta energía, lo que hace que emita radiación. Esta radiación se denomina radiación de
frenado o bremsstrahlung. Esta es la manera en la que se producen los rayos X en los tubos
comerciales: un haz de electrones es acelerado por un potencial de miles de voltios, y este
haz se hace incidir sobre un blanco metálico.
Los campos de aplicación de los rayos X son fundamentalmente la investigación científica,
la industria y la medicina. En el campo de la investigación, en concreto en la cristalografía,
los métodos de difracción de rayos X han permitido la identificación de sustancias cristali-
nas y la determinación de su estructura, contribuyendo de forma decisiva en el avance de
esta rama científica. Los métodos de difracción de rayos X también han sido utilizados para
identificar sustancias químicas y determinar el tamaño de partículas ultramicroscópicas, y
en otras muchas aplicaciones en el campo de la investigación en física, química, mineralo-
gía, metalurgia y biología.
Además de su utilización como herramienta científica de investigación, los rayos X tam-
bién tienen múltiples aplicaciones en la industria. Por ejemplo, son tremendamente útiles
para examinar objetos, como piezas metálicas, sin destruirlos, lo que permite mejorar la
calidad de los productos, ya que las unidades defectuosas puedan eliminarse en el lugar
de producción. Son también utilizados, entre otras cosas, para identificar piedras precio-
sas falsas, detectar mercancías de contrabando en las aduanas o para localizar en los aero-
puertos objetos peligrosos en los equipajes. En el mundo del arte también son de gran
utilidad los rayos X de baja energía para determinar la autenticidad de obras de arte y para
restaurar cuadros.
La gran capacidad de penetración de los rayos X en los tejidos hizo que, desde muy poco
después de su descubrimiento, las fotografías de rayos X o radiografías fueran ampliamen-
te utilizadas en medicina como herramienta de diagnóstico de enfermedades o para detectar
patologías en órganos y tejidos.
En muchas ocasiones, para la obtención de una radiografía es necesario llenar algunas cavi-
dades con algún material de contraste, de manera que el órgano que se desea inspeccionar
aparezca con mayor claridad. Así, por ejemplo, el sulfato de bario, que es muy opaco a los
rayos X, se utiliza para la radiografía del aparato digestivo. Estas sustancias pueden tener
efectos secundarios graves, por lo que sólo deben ser empleados de forma muy cautelosa.
Por otra parte, en los últimos años, el uso rutinario de los rayos X se ha desaconsejado debi-
do a lo cuestionable que resulta su utilidad.
Un invento relativamente reciente que se emplea sin compuestos de contraste y que propor-
ciona imágenes claras de cualquier parte de la anatomía, incluidos los tejidos blandos, es el
escáner o aparato de tomografía axial computerizada. Este aparato, inventado en 1972 por
el ingeniero electrónico británico Godfrey Hounsfield, permite obtener la imagen de un
corte de espesor determinado del cuerpo con una claridad aproximadamente 100 veces ma-
yor y con la misma dosis de radiación que un aparato de rayos X convencional.
– Rayos gamma: esta región del espectro abarca la radiaciones electromagnéticas de más alta
energía. Sus frecuencias están comprendidas entre los 3 ´ 10 Hz y más de 3 ´ 10 Hz.
18 2
Estos rayos son emitidos por partículas que sufren transiciones en los núcleos atómicos y son
producidos por muchas sustancias radiactivas. También se encuentran en gran cantidad en
los reactores nucleares. Su energía es del orden de las involucradas en los procesos nucleares,
por lo que su absorción puede dar lugar a cambios nucleares. Aunque la mayoría de las sus-
tancias no absorben este tipo de radiación fácilmente, su absorción por organismos vivos pro-
duce graves efectos.
Los efectos de las radiaciones sobre las células pueden ser debidos a alteraciones bioquímicas
que provocan la inhibición de funciones, a la formación de sustancias tóxicas resultantes de la altera-
ción de sustancias normales por los radicales libres, a la difusión de sustancias como enzimas libera-
das por destrucción de organelas, etc. Estas manifestaciones pueden presentarse de forma inmediata
o tardía y ser reversibles o irreversibles.
Se denomina dosis absorbida a la energía absorbida por unidad de masa de material, en nuestro
caso de tejido. En el Sistema Internacional, la unidad de dosis absorbida se denomina gray (Gy) y
equivale a la absorción de 1 julio de energía por kilogramo de material. En general, la gravedad de la
lesión depende de varios factores, como son el tipo de radiación, la sensibilidad del tejido a la radia-
ción y la dosis absorbida. Además, también depende de la intensidad de la dosis, definida como la do-
sis absorbida por unidad de tiempo y que se mide en grays por segundo (Gy/s). Es decir, que la grave-
dad de las lesiones dependen de la velocidad de absorción de la radiación. Así, los efectos biológicos
de una misma dosis de radiación varían de forma considerable según el tiempo de exposición. Una
irradiación rápida provoca la muerte de las células y sus efectos pueden hacerse visibles en horas,
días o semanas. Una exposición prolongada, aún a dosis elevadas, es tolerada mejor por el organismo
y es más fácil de reparar. Aunque, si la cantidad de radiación absorbida es suficiente para causar tras-
tornos graves, la recuperación será lenta e incluso imposible.
La exposición de todo el cuerpo a dosis altas de radiación ionizante produce lesiones caracterís-
ticas muy graves que desembocan en la muerte. Así, dosis superiores a 40 Gy producen un deterioro
severo en el sistema vascular humano, que desemboca en edema cerebral, trastornos neurológicos y
coma profundo que provocan la muerte en un plazo de 48 horas siguientes a la irradiación. Con dosis
entre 10 y 40 Gy de radiación, los trastornos vasculares son menos serios, pero se produce la pérdida
de fluidos y electrolitos que pasan a los espacios intercelulares y al tracto gastrointestinal. El indivi-
duo muere en los diez días siguientes a consecuencia del desequilibrio osmótico, del deterioro de la
médula ósea y de la infección terminal. Si la cantidad absorbida oscila entre 1,5 y 10 Gy, se destruye
la médula ósea, provocando infección y hemorragia. La persona puede morir cuatro o cinco semanas
después de la exposición.
Por otro lado, las exposiciones a las radiaciones ionizantes en dosis relativamente altas (más de
1 Gy) provocan en los seres vivos daños a medio y largo plazo. El efecto retardado más importante es
el aumento de la incidencia de casos de cáncer y leucemia.
Por todo lo visto anteriormente, es obvio que las radiaciones ionizantes constituyen un riesgo
para la salud de los seres vivos y, por consiguiente, es necesario adoptar las medidas de protección
adecuadas en aquellas instalaciones que dispongan de fuentes generadoras de este tipo de radiación.
Entre ellas se encuentran los reactores nucleares para producción de energía, instalaciones médicas
de radioterapia o radiodiagnóstico y centros de investigación. La principal medida de seguridad con-
siste en el blindaje adecuado de las fuentes generadoras y edificios circundantes, de manera que la ex-
posición en el medio ambiente quede por debajo de los límites admisibles.
Además, en aquellos centros en que se trabaje con material radiactivo, se deben adoptar una serie
de medidas adicionales con el objeto de no sobrepasar los niveles máximos admisibles. Un criterio que
se ha de seguir en las zonas de trabajo con material radiactivo es que las superficies sean lisas y fáciles
de limpiar, evitando la existencia de rendijas y rincones. Otras medidas importantes son: renovar el aire
convenientemente, evitar que las ropas de trabajo salgan del laboratorio y no comer ni fumar en los la-
boratorios. Por otro lado, una de las condiciones que deben cumplir todos los centros en los que se ma-
nejen materiales radiactivos es poder detectar cualquier contaminación o sobreexposición a que pudiera
estar sometido el personal. Esta exposición se puede medir mediante las denominadas películas exposi-
toras, que consisten en pequeños trozos de película fotográfica que, convenientemente protegidas de la
luz, se llevan sujetos a la ropa, de manera que están expuestos a la radiación ionizante que le pudiera lle-
gar. La dosis recibida se determina periódicamente observando el estado de la película.
Una última medida que es necesario adoptar es la eliminación o el almacenamiento adecuado de
los residuos radiactivos generados. Por regla general, estos residuos son enterrados en cámaras espe-
cialmente diseñadas a este efecto. No obstante, es un problema de gran trascendencia que puede afec-
tar a las generaciones futuras y que debe ser abordado con todo rigor, seriedad y sin demagogia por
parte de los gobiernos y de la sociedad en su conjunto.
Ante la preocupación por los efectos biológicos de la radiación electromagnética mostrada tanto
por los ciudadanos como por parte de muchos gobiernos, la Organización Mundial de la Salud puso
en marcha a finales de los años noventa un proyecto internacional para evaluar estos efectos sanita-
rios y ambientales que denominó Proyecto Internacional CEM. Con este proyecto, se pretende impul-
sar la investigación y obtener resultados que permitan establecer con rigor el riesgo que supone la ex-
posición a los campos electromagnéticos de radiofrecuencias. A partir de esto se podrán establecer
los criterios de protección adecuados contra estos campos electromagnéticos.
Según este proyecto, por campos de radiofrecuencias se entienden los campos electromagnéticos
con frecuencias comprendidas entre los 300 Hz y los 300 Ghz (3 ´ 1011 Hz); por tanto, comprenden
aquellas ondas electromagnéticas desde las radiofrecuencias hasta las microondas. Los efectos de estos
campos en sistemas biológicos dependen de la frecuencia y la intensidad:
– Campos de frecuencia superior a 10 Ghz: los campos de frecuencias superiores a 10 Ghz
son absorbidos por la superficie de la piel y, por consiguiente, es muy poca la energía que
llega a los tejidos interiores del organismo.
Para medir la dosis en este rango de frecuencias se utiliza como cantidad básica la intensidad
2
de la onda medida en vatios por metro cuadrado (W/m ) o, para campos débiles, en milivatios
2 2
por metro cuadrado (mW/m ) o en en microvatios por metro cuadrado (mW/m ).
Para que estos campos produzcan efectos perjudiciales, como cataratas oculares o quema-
2
duras en la piel, se requieren potencias superiores a 1000 W/m , potencias que están muy
lejos de las encontradas en el ambiente en la vida cotidiana. Sólo en las inmediaciones de
los radares más potentes podemos encontrar estas densidades de energía, pero estas zonas
están restringidas y su acceso está prohibido.
– Campos de frecuencias comprendidas entre 1 Mhz y 10 Ghz: los campos de radiofre-
cuencias entre 1 MHz y 10 Ghz penetran en los tejidos expuestos y producen calentamiento
debido a la absorción de energía. La profundidad de penetración depende de la frecuencia,
siendo mayor a frecuencias bajas.
La absorción de la energía por los tejidos se mide como coeficiente de absorción específica
en una masa de tejido determinada, y es la cantidad básica utilizada para determinar la dosis
de radiación. Su unidad en el SI es el vatio por kilogramo W/kg.
Para que se produzcan efectos perjudiciales para la salud en las personas expuestas a cam-
pos de estas frecuencias se necesitan valores del coeficiente de absorción por encima de los
4 W/kg. Estos niveles distan mucho de los encontrados en la vida cotidiana y sólo se en-
cuentran a decenas de metros de las más potentes antenas de frecuencia modulada situadas,
por regla general, en el extremo de torres muy altas e inaccesibles.
En este rango se encuentran los sistemas actuales de telefonía móvil, que funcionan a fre-
cuencias comprendidas entre los 800 MHz y los 1.8 Ghz.
Muchos han sido los estudios que se han realizado sobre los efectos que la exposición a
campos de intensidades bajas tiene sobre la salud. Se ha señalado que estos campos alteran
la actividad del cerebro, que modifican la tasa de proliferación de las células, que alteran la
actividad enzimática o afectan al ADN de las células. En realidad, todos estos efectos no
están comprobados y su incidencia sobre la salud humana tampoco se conoce, por lo que no
se tiene ninguna base sólida para restringir la exposición a este tipo de campos.
Por otra parte, también se ha asociado el crecimiento de casos de cáncer con la exposición a
este tipo de campos electromagnéticos. En la actualidad, los datos disponibles indican que
es poco probable que exista esta relación causa-efecto y que la exposición a campos de ra-
diofrecuencia origine o favorezca el desarrollo de ciertos tipos de cáncer.
Es necesario destacar que la mayoría de estos estudios se han realizado en condiciones de ex-
posiciones de corta duración a campos de elevada intensidad, situación que no se da normal-
mente en la vida cotidiana. Por otra parte, la aparición de los teléfonos móviles han puesto de
manifiesto la necesidad de realizar estudios de exposición localizada a este tipo de campos.
Para la protección contra estos campos, la medida más sencilla consiste en limitar el acceso
a las zonas donde se exceda de los límites fijados, colocando vallas o barreras.
– Campos de frecuencias inferiores a 1 MHz: este tipo de campos no producen calenta-
miento apreciable, sino que más bien inducen cargas y corrientes que pueden estimular cé-
lulas de tejidos, como los nervios o músculos. Por tanto, su efecto se mide en función de la
2
densidad de corriente, en amperios por metro cuadrado A/m .
Puesto que las corrientes eléctricas están presentes en el organismo como parte normal de al-
gunos procesos, la inducción de corrientes por encima de estos niveles base en el organismo
pueden dar lugar a efectos perjudiciales. De hecho, las corrientes básicas de algunos procesos
2 2
vitales son del orden de 10 mA/m , por lo que se estima que corrientes superiores a 10 mA/m
pueden dar lugar a un funcionamiento anormal del organismo y a convulsiones musculares.
La principal fuente natural de los campos de radiofrecuencia es el sol, y la intensidad de
2
los rayos solares en esta frecuencia está por debajo de los 0,01 mW/m . Las fuentes artifi-
ciales de este tipo de radiación son los distintos aparatos y sistemas que nos encontramos
en nuestro entorno inmediato, en el hogar o en el lugar de trabajo. Las principales fuentes
de nuestro entorno cercano lo constituyen los receptores de radio y televisión y de equi-
pos de comunicación. Un estudio americano fija en unos 50 mW/m el nivel de intensidad
2
registrado en las grandes ciudades. En el hogar, las fuentes de radiofrecuencia son muy
variadas y entre ellas se encuentran las televisiones, los hornos de microondas y los telé-
fonos móviles. Por regla general, el nivel de radiofrecuencias de los electrodomésticos es
sólo del orden de unas decenas de mW/m . En cuanto al campo de la industria, en algunos
2
Tampoco existen pruebas convincentes que indiquen que la exposición a estos campos produzca
daños moleculares y alteraciones en el ADN, por lo que resulta altamente improbable que puedan de-
sencadenar procesos cancerígenos. No obstante, se realizan estudios que sirven para determinar si la
exposición puede influir en la estimulación del cáncer. Recientes estudios con animales indican que
no existe influencia alguna.
En 1996, un estudio realizado por la Academia Nacional de Ciencias de los Estados Unidos in-
dicaba que la circunstancia de habitar cerca de una línea eléctrica pudiera estar asociada a un alto
riesgo de leucemia infantil, aunque no de otros tipos de cáncer. Sin embargo, estos mismos estudios
no revelaron ninguna conexión entre el cáncer y la exposición de los adultos en sus domicilios.
Estos estudios se incrementaron en los años posteriores y, en 1998, el National Institute of Environ-
mental Health Sciences (NIEHS) de los Estados Unidos, sobre la base del análisis de los resultados
de estos trabajos y siguiendo los criterios de Centro Internacional de Investigaciones sobre el Cán-
cer (CIIC), concluyó que los campos electromagnéticos de frecuencia extremadamente baja debían
considerarse como un posible carcinógeno humano.
Esta denominación es una de las que utiliza el CIIC para clasificar la evidencia científica de una
posible carcinogenicidad y que, en orden inverso de importancia, es: no clasificable, probablemente
no carcinógeno para las personas, posible carcinógeno humano, probablemente carcinógeno para las
personas y carcinógeno para las personas. La clasificación de posible carcinógeno humano corres-
ponde a aquellos agentes cuya carcinogenicidad está escasamente probada en las personas e insufi-
cientemente probada en experimentos con animales. Es decir, que esta clasificación valora la solidez
de las pruebas científicas y no el grado de carcinogenicidad o riego de cáncer vinculado al agente. Por
consiguiente, la denominación dada a los campos de frecuencia extremadamente baja significa que
hay muy pocas evidencias experimentales de que la exposición a estos campos pueda ser causa de
cáncer. Por tanto, es necesario realizar más investigaciones que permitan esclarecer con rigor y fiabi-
lidad esta cuestión tan importante.
Debido a la falta de pruebas concluyentes, en principio, no es necesario adoptar medidas de pro-
tección para el público en general. Sin embargo, para el personal que trabaje en instalaciones con
campos eléctricos elevados, será necesario utilizar aislantes que apantallen los efectos del campo. En
cuanto a los campos magnéticos, no existe medida alguna que pueda utilizarse para protegerse de
ellos, por lo que, en zonas de campos intensos el único método de protección posible es la limitación
del acceso a la zona.
BIBLIOGRAFÍA
26
Óptica geométrica. Principio
de Fermat. Formación de
imágenes en espejos y lentes.
Análisis y construcción de los
instrumentos ópticos. El ojo y
los defectos de la visión
ÍNDICE SISTEMÁTICO
1. ÓPTICA GEOMÉTRICA
1.1. Principio de Fermat
1.2. Leyes de la óptica geométrica
1.2.1. Propagación rectilínea de la luz
1.2.2. Conservación del plano de incidencia
1.2.3. Ley de la refracción de Snell
1.2.4. Ley de la reflexión
1.3. Sistemas ópticos
1.3.1. Objeto e imagen
1.3.2. Condición de stigmatismo
1.3.3. Sistemas ópticos ideales
BIBLIOGRAFÍA
1. ÓPTICA GEOMÉTRICA
La luz es la porción del espectro electromagnético que es visible por el ojo humano y cubre una
banda estrecha de frecuencia comprendida entre 3.84 ´ 1014 Hz y 7.69 ´ 1014 Hz, en donde las dife-
rentes frecuencias corresponden a los distintos colores que podemos apreciar.
La ciencia que estudia las propiedades y la naturaleza de la luz recibe el nombre de óptica. Es
frecuente dividir la óptica en dos categorías: la óptica geométrica, que se ocupa solamente de las
cuestiones relacionadas con la propagación de la luz y estudia las propiedades de los instrumentos óp-
ticos y de las lentes y espejos con que se construyen, y la óptica física, que trata de la naturaleza de la
propia luz y de su interacción con la materia.
La propagación de la luz, como la de cualquier onda electromagnética, viene descrita por las
ecuaciones de Maxwell,
r cuya solución
r nos permite conocer en cualquier punto del espacio las com-
ponentes eléctrica E y magnética B del campo electromagnético. A partir de estas componentes pode-
mos conocer todas las magnitudes de interés de la onda luminosa como la amplitud, la fase y la polari-
zación. No obstante, la resolución de las ecuaciones de Maxwell, además de ser complicada, propor-
ciona una información que no es necesaria. A menudo, esta información puede obtenerse por un
método geométrico sencillo que denominamos óptica geométrica. Este método fue desarrollado mu-
cho antes de que la luz se describiese como una onda electromagnética, y sus resultados se han de-
mostrado que son válidos en aquellas situaciones en que las dimensiones de los objetos considerados
son mucho mayores que la longitud de onda.
La óptica geométrica puede desarrollarse tomando como base los conceptos de rayo de luz, para
caracterizar a la onda de luz, y de índice de refracción, para caracterizar a los medios materiales; y de
un único postulado físico: el principio de Fermat.
– Rayo de luz. El concepto básico de la óptica geométrica es el de rayo de luz. Un rayo de luz
es una línea en el espacio que corresponde a la dirección del flujo de la energía radiante.
Consideremos un punto emisor de luz O situa-
do ante una pantalla opaca con un orificio (Fi- Rayo de luz
gura 1). El punto O y el orificio determinan un
cono de luz que recibe el nombre de haz. Si dis- Haz
minuimos el tamaño de orificio podemos obte- O
ner haces estrechos que denominamos pinceles.
En el límite en el que el diámetro del orificio
tiende a cero obtendríamos una situación ideali-
zada que consistiría en un haz infinitamente pe-
queño, que constituye un rayo de luz. Por tanto,
el concepto de rayo es más un instrumento ma- Rayo
temático que una entidad física. No obstante, en
la práctica pueden obtenerse haces de luz muy
estrechos como por ejemplo un haz de láser. Figura 1. Haz y rayo de luz.
Por otra parte, cuando las dimensiones de un
orificio son muy pequeñas, del orden de la longitud de onda, el fenómeno de difracción ad-
quiere importancia y modifica las leyes de la óptica geométrica. En lo que sigue considera-
remos situaciones en las que las dimensiones de los objetos son siempre mucho mayores
que la longitud de onda, por lo que ignoraremos el fenómeno de difracción.
– Índice de refracción. Tal como vimos en el tema dedicado a las ondas electromagnéticas, la
velocidad de propagación depende del medio material en que tiene lugar y viene dada por:
1
u= (1)
em
Teniendo en cuenta los valores de las velocidades dados por (1) y (2), el índice de refrac-
ción puede expresarse en función de las permitividades eléctricas y las permeabilidades
magnéticas como:
c em
n= = (4)
u e0 m0
Si tenemos en cuenta ahora que para la inmensa mayoría de las sustancias mr » 1, resulta que:
c
n= = er (6)
u
Si la trayectoria seguida por la luz atraviesa diferentes medios de índices de refracción ni, recorriendo
en cada uno de ellos una longitud si, el camino óptico vendrá dado por:
(L) = n1s1 + n2s2 + n3s3 + ... = å nisi (8)
Si el medio es heterogéneo y el índice de refracción cambia de un punto del espacio a otro, podremos
escribir para el camino óptico entre dos puntos A y B:
( L ) = òA nds
B
(9)
Es decir, que el camino óptico es igual al producto de la velocidad de la luz por el tiempo que tarda en
recorrer la trayectoria.
De acuerdo con las expresiones (10) y (9) el tiempo empleado por la luz viene dado por:
1 1 B
t = ( L ) = òA nds (11)
c c
El principio de Fermat establece que el tiempo es estacionario con respecto a posibles variaciones en
la trayectoria. Matemáticamente esto significa que:
1 1
dt = d( L ) = dòA nds = 0
B
(12)
c c
$ son los vectores unitarios en las direcciones que van desde A a P y desde P a B.
en donde u$ y u'
Si se desplaza el punto P hasta el punto Q sobre la superficie, la variación del camino óptico ven-
drá dada por:
r r r r
d( L ) = nu$ ×d( rP – rA )+ ndu$ ×( rP – rA )+
r r r r (16)
+n'u' $ ×d( rB – rP )+ n'du'
$ ×( rB – rP )
Ahora bien, puesto que los puntos A y B son fijos, tendremos que:
r r r
d( rP – rA ) = drP
r r r
d( rB – rP ) = – drP
Pero por el principio de Fermat, la variación del camino óptico es cero, por consiguiente:
r r
( nu$ – n'u'
$ )×drP = 0 Þ ( nu$ – n'u'
$ )^drP (19)
r
Puesto que drP está situado en el plano de separación de los dos medios, el vector nu$ – n'u'
$ deberá ser
normal a dicha superficie. Si llamamos u$ N al vector unitario normal a la superficie en el punto P, ten-
dremos que:
nu$ – n'u'
$ = Ku$ N (20)
Este resultado nos dice que el rayo incidente, el rayo refractado y la normal se encuentran en el mismo
plano.
nu$ N ´ u$ – n´u$ N ´ u´
$ =0 (21)
Y si llamamos q al ángulo que forma el rayo incidente con la dirección de la normal y q´al que forma
el rayo refractado con la normal, se obtiene que:
nu$ – nu'
$ = Ku$ N (23)
Si llamamos q al ángulo que forma el rayo incidente con la dirección de la normal y q’ al que for-
ma el rayo reflejado con la normal, se obtiene que:
O Se Ss O Se Ss O Se Ss O’2
O’
O’1 = O2
O’
(a) (b) (c)
Figura 4. Objeto e imagen en un sistema óptico: a) objeto real e imagen real, b) objeto real e imagen
virtual, y c) objeto real e imagen real, para el segundo sistema el objeto es virtual.
y y S
n n’
n n’
r r r’ O’
r’
s s’
O V O’ z O V z
d
Figura 5. a) Óvalo de Descartes, d
b) Caso en que la imagen se
encuentra en el infinito. a) b)
n z 2 + y 2 + n' ( d – z ) 2 + y 2 = K (27)
en donde d = s + s´. Esta ecuación conduce a otra de cuarto orden cuya solución es un óvalo, denomi-
nado de Descartes en honor de René Descartes, quien al comienzo del siglo XVII estudió su significa-
do en óptica.
En el caso particular de que uno de los puntos se encuentre en el infinito, como se muestra en la
figura 5b, bastará calcular el camino óptico hasta una superficie plana S perpendicular al eje. En este
caso, la ecuación anterior se reduce a:
n z 2 + y 2 + n' ( d – z ) = K (28)
2.1. Espejos
El espejo es el instrumento óptico más antiguo utilizado por el hombre. Algunas muestras en-
contradas datan de la edad de bronce, alrededor de 4000 años antes de Cristo. En la Biblia ya se men-
cionan espejos hechos de latón, y los antiguos egipcios, griegos y romanos empleaban habitualmente
espejos de bronce. Ya en la edad media se empezaron a sustituir los espejos metálicos por espejos de
vidrio metalizados en su parte posterior, que fueron fabricados en serie a escala comercial en el barrio
de Murano, en Venecia, alrededor del año 1300. Los primeros espejos de vidrio se fabricaban con una
lámina de este mismo material que se recubría con una amalgama de mercurio y estaño prensados. El
primero en intentar cubrir el reverso del vidrio con una solución de plata fue el químico alemán Justus
von Liebig, en 1836, y desde entonces se han desarrollado diferentes métodos que se basan en la re-
ducción química a plata metálica de una sal de plata.
Aplicando ahora la ley de los senos a los triángulos CPO´ y OPC se tiene que:
sen ( p – g ) sen q
= (31)
r a'
sen b sen q
= (32)
r a
De la ecuación (31), sustituyendo g por su valor dado por (29) se tiene que:
r
= sen a cot q +cos a (33)
a'
Y de la ecuación (32), sustituyendo b por su valor dado por (30) se tiene que:
r
= sen a cot q – cos a (34)
a
Aplicando ahora la ley de los senos a los triángulos O’PC y OPC se tiene que:
sen ( p – g ) sen q
= (39)
r'' a''
sen b sen ( p – q )
= (40)
r'' a
De la ecuación (39), sustituyendo g por su valor dado por (37) se tiene que:
r''
= sen a cot q +cos a (41)
a''
Y de la ecuación (40), sustituyendo b por su valor dado por (38) se tiene que:
r''
= –sen a cot q +cos a (42)
a
O´
O O´
O
O´ O
O´ O
1 1 2
+ = (46)
s s' r
Ahora bien, por el convenio de signos adoptado anteriormente, s´ = –s´´< 0 y r = –r´´< 0, luego, susti-
tuyendo estos valores en la ecuación anterior, volvemos a obtener la ecuación (46).
C F V V C
F
Si el punto objeto se encuentra sobre el eje a una distancia infinita del espejo, los rayos incidentes son
paralelos al eje del espejo, y el punto imagen se encuentra situado a una distancia del vértice dada por:
r
s' = = f (49)
2
en donde f se denomina distancia focal del espejo. La distancia focal será positiva para un espejo cón-
cavo (r > 0) y negativa para un espejo convexo (r < 0) (figura 13). El punto imagen F de los rayos pro-
cedentes del infinito se denomina foco o punto focal del espejo. La ecuación del espejo la podemos
escribir en función de la distancia focal como:
1 1 1
+ = (50)
s s' f
De esta ecuación observamos que si el punto objeto se encuentra situado en el foco, el punto imagen
se encuentra en el infinito, y, por tanto, los rayos que salen del espejo son paralelos entre sí.
y y´
F y C
a a´
y´ V
C V F
a
a´
s s
s´
s´
a) b)
Hasta ahora hemos considerado objetos puntuales situados en el eje del espejo. La imagen de
un objeto extenso, con puntos fuera del eje, puede obtenerse mediante un método gráfico de trazado
de rayos o diagrama de rayos. Consideremos un objeto, como el representado en la figura 14, situa-
do a una distancia s del vértice de un espejo esférico. La imagen del punto de la base se encontrará
a una distancia s´ del vértice del espejo, dada por la ecuación (46). La posición del extremo supe-
rior del objeto la podemos encontrar representando dos de los cuatro rayos denominados rayos
principales:
1. El rayo paralelo, que sale paralelo al eje del espejo y que se refleja pasando por la focal F.
2. El rayo focal, que pasa por el foco y se refleja paralelamente al eje.
3. El rayo radial, que pasa por el centro de curvatura y se refleja volviendo sobre sí mismo.
4. El rayo central, que incide sobre el vértice del espejo y se refleja formando un ángulo igual por el
otro lado del eje óptico del espejo.
El cociente entre el tamaño de la imagen y el del objeto se define como la amplificación lateral o
aumento:
y'
m= (51)
y
Antes de encontrar una expresión para la amplificación vamos a añadir un punto más a nuestro
convenio de signos:
– Las distancias transversales al eje óptico se considerarán positivas cuando se miden por en-
cima del eje, y negativas cuando se miden por debajo del eje.
Si ahora tenemos en cuenta la ecuación de los espejos, de la que se deduce que (1/s´ – 1/r) = (1/r – 1/s),
finalmente obtenemos para la amplificación lateral:
+ y' s'
m= =– (53)
y s
Se puede comprobar que, para un espejo esférico convexo, con el convenio de signos adoptado, se
obtiene la misma ecuación que para la amplificación lateral.
En la tabla 1 se da un resumen de las imágenes formadas en los espejos esféricos en distintas po-
siciones del objeto y el carácter de dicha imagen.
2.2. Lentes
Desde hace mucho tiempo, el hombre ha utilizado superficies refractoras para la producción de
imágenes. Ya los antiguos caldeos de Mesopotamia utilizaban lentes de aumento, y en los escritos grie-
gos y romanos se hace mención a los espejos incendiarios, que eran esferas de vidrio llenas de agua uti-
lizadas para encender fuego. No obstante, en la antigüedad clásica no se conocían las auténticas lentes
de vidrio, que posiblemente se fabricaron por primera vez en Europa a finales del siglo XIII, hecho que
dio lugar a la aparición de las gafas.
En un principio, la mayoría de las lentes estaban hechas de variedades especiales de vidrio de
alta calidad, conocidas como vidrios ópticos, libres de tensiones internas, burbujas y otras imperfec-
ciones. En la actualidad, el gran desarrollo de los plásticos y de los procesos especiales para su mane-
jo ha supuesto un mayor uso de estos materiales en la fabricación de lentes. Por otra parte, estas lentes
de plástico son más baratas que las de vidrio y a su vez son más ligeras y menos frágiles.
En este apartado vamos a estudiar las características fundamentales de las lentes y su utilización
para formar imágenes. Comenzaremos por estudiar las imágenes formadas por refracción en una su-
perficie esférica.
Teniendo en cuenta que la ley de Snell establece que n sen q = n´ sen q´, de las expresiones anteriores
se tiene que:
na n'a'
= (56)
l l'
En la aproximación paraxial, podemos considerar que l » s y l´ » s´. Si ahora tenemos en cuenta que
a = r + s y a´ = s´ – r, la expresión anterior se transforma en:
n n' n' – n
+ = (57)
s s' r
en donde hemos considerado que todas las distancias s, s´ y r son positivas.
n n´
P
q
l´
l q´
O b V a C g O´
s s´
Figura 15. Refracción en
a a´ una superficie esférica
convexa.
Consideremos ahora el caso de refracción en una superficie esférica cóncava a los rayos inciden-
tes, como se muestra en la figura 16. Aplicando la ley de los senos a los triángulos DOPC y DO’PC
obtenemos que:
sen q sen ( p – a ) a sen q
= Þ = (58)
a l l sen a
y
sen q ' sen ( p – a ) a' sen q '
= Þ = (59)
a' l' l' sen a
De nuevo, como en el caso de la superficie convexa, de la ley de Snell (n sen q = n´ sen q´) y de las ex-
presiones anteriores se tiene que:
na n'a'
= (60)
l l'
En la aproximación paraxial, podemos considerar que l » s y l´ » s´. Si ahora tenemos en cuenta que
a = s – r y a´ = s´ – r, la expresión anterior se transforma en:
n n' n' – n
+ = (61)
s – s' –r
q´
P
l q
l´ a V
O O´ a´ C
a
s
s´ Figura 16. Refracción en una
superficie esférica cóncava.
Vemos que esta ecuación es similar a la encontrada para una superficie convexa, y se puede es-
cribir igual si consideramos que la distancia s´ es negativa y si el radio también lo consideramos nega-
tivo. La diferencia entre ambos casos es que la imagen formada por la superficie convexa es real (ra-
yos convergentes en O´), mientras que la imagen producida por la superficie cóncava es virtual (los
rayos no convergen realmente en O´).
1. Supondremos siempre que la luz incide por la izquierda.
2. La distancia objeto s será positiva si el objeto es real y los rayos incidentes divergen, y la consi-
deraremos negativa si el objeto es virtual y los rayos incidentes convergen.
3. Consideraremos que la distancia s´ desde el vértice es positiva si la imagen es real y los rayos
convergen hacia el punto imagen, pero la consideraremos negativa si la imagen es virtual y los
rayos divergen desde el punto imagen.
4. El radio será positivo si la superficie produce una imagen real de un objeto real, y la considerare-
mos negativa si produce una imagen virtual de un objeto real.
n n´ n n´
O´
O O´ O
n n´ n n´
O´ O O´ O
La ecuación (57) proporciona la posición de la imagen de un punto O situado sobre el eje. Esta
ecuación no presenta aberración esférica debido a la aproximación paraxial, pero ahora nos encontra-
mos con otro efecto denominado aberración cromática. Esta es debida a que el índice de refracción
cambia con la frecuencia, y, por consiguiente, los distintos colores procedentes de un mismo punto
objeto se enfocarán en puntos de imágenes distintos.
Una superficie refractora posee dos puntos focales. El primer punto F corresponde al punto del
eje cuya imagen se encuentra en el infinito. De la ecuación (57) encontramos que la distancia focal f
de este punto vendrá dada por:
n n' n' – n
+ = (62)
f ¥ r
Y por consiguiente:
nr
f= (63)
n' – n
Y por consiguiente:
n'r
f' = (65)
n' – n
De las expresiones de las distancias focales f y f ´ dadas por (63) y (65), resulta que la expresión (57) la
podemos escribir como:
n n' n n'
+ = = (66)
s s' f f'
La imagen de un objeto extenso, situado en una determinada posición sobre el eje, puede especi-
ficarse gráficamente con la ayuda de los tres rayos principales:
En las figuras 18 y 19 se muestran dos ejemplos de construcción de imágenes utilizando los ra-
yos principales. La amplificación lateral puede calcularse de la semejanza de los triángulos DOQC y
DO´Q´C, y de la ecuación (57):
– y' a' s' – r ns'
= = = (67)
y a s+ r n's
F´ Q´ O´
V V
Q F C F´ C F
O´
Figura 18. Construcción de imágenes refractadas Figura 19. Construcción de imágenes refractadas
en una superficie esférica convexa. en una superficie esférica cóncava.
O´1 O V1 V2 O´
s
s´
s´1
s2
Figura 20.
Lente sencilla. t
A continuación vamos a estudiar y a deducir una ecuación que resulta útil en el caso de lentes
delgadas. Para ello consideremos una lente sencilla como la mostrada en la figura 20. Denominemos
n´´ = n´/n al índice de refracción del material de la lente respecto al índice del medio que la rodea, y
sean r1 y r2 los radios de curvatura de cada una de las superficies esféricas de la lente, de espesor t. La
posición s´1 de la imagen formada por la primera superficie de un punto O situado en el eje a una dis-
tancia s del vértice, vendrá dada, según (57), por:
1 n'' n'' – 1
+ = (69)
s s' 1 r1
La imagen no llega a formarse debido a que la luz se refracta de nuevo en la segunda superficie.
La posición del objeto s2 para la segunda superficie, es decir, la distancia hasta el vértice V2, vendrá
dada por:
s2 = t – s' 1 (70)
en donde t es el espesor de la lente y en donde hemos tenido en cuenta que, al ser una imagen virtual,
s' 1 < 0.
De nuevo, la expresión (57) nos permite calcular la posición de la imagen formada por la segun-
da superficie. Teniendo en cuenta que la luz pasa del medio de índice n’ al medio de índice n, tendre-
mos que:
n'' 1 1– n''
+ = (71)
s2 s' r2
En el caso de lentes delgadas, el espesor es despreciable frente a las distancias a las que se for-
man las imágenes, de manera que s2 = – s' 1 . Con esta aproximación, sumando las ecuaciones (69) y
(71), resulta que:
1 1 æ 1 1ö
+ = ( n'' – 1)ç
ç – ÷
÷ (72)
s s' è r1 r2 ø
Se define el primer punto focal F de la lente como aquel punto del eje cuya imagen se encuentra
en el infinito, y el segundo punto focal F’ como la posición sobre el eje de la imagen de un punto en el
infinito. Por tanto, de la expresión (72) se tiene que:
1 æ 1 1ö
= ( n'' – 1)ç
ç – ÷
÷ (73)
f è r1 r2 ø
en donde f es la distancia focal de la lente. Esta ecuación se denomina ecuación del constructor de len-
tes. Se define la potencia D de la lente como:
1
D= (74)
f
De ambas ecuaciones, y teniendo en cuenta que s1 = s, s' 2 = s' y que y 2 = y' 1 y s2 = – s' 1 , obtene-
mos que la amplificación lateral de la lente viene dada por:
La determinación de la posición de una imagen formada por una lente puede hacerse mediante
métodos gráficos. Para ello se definen tres planos perpendiculares al eje óptico: dos planos focales,
que pasan cada uno de ellos por un punto focal, y un plano denominado plano principal, que pasa por
un punto denominado punto principal cuya característica es que los rayos no se desvían de su trayec-
toria. La posición de la imagen la determinamos trazando los tres rayos principales:
– El rayo paralelo, que se dibuja paralelo al eje y pasa por el segundo punto focal F’ de la lente.
– El rayo focal, que pasa por el primer punto focal y sale paralelo al eje óptico.
– El rayo central que pasa por el punto principal H y no se desvía.
y F´ y´ F´
y´ y
F F
y y´
y
F´ y´ F F´ F
Decimos que una lente es convergente si aumenta la convergencia de los rayos incidentes. Esto
es así si el segundo punto focal F´ es una imagen real del objeto en el infinito, y por tanto se encuentra
en el lado opuesto al del rayo incidente. En este caso, la distancia focal f es positiva, por lo que a las
lentes convergentes se les denomina también lentes positivas. Por el contrario, si la imagen de un
punto objeto en el infinito es virtual, entonces los rayos que emergen de la lente son divergentes, por
lo que a este tipo de lentes se les denomina lentes divergentes. Puesto que, en este caso, la distancia
focal es negativa, a este tipo de lentes se les denomina también negativas.
Si el índice de refracción n´ del material de la lente es mayor que el índice de refracción n del medio
en que se encuentra la lente, una lente convergente será más gruesa por el centro que por los extremos;
mientras que si ocurre lo contrario n´ < n se cumple lo inverso. La nomenclatura de las lentes se basa en la
forma de las superficies esféricas con respecto a la luz incidente sobre ellas. De esta manera, las lentes se
F ’1 F ’2
F1 F2
f1 f2
d
s2
s1 s’1
Consideremos dos lentes delgadas positivas separadas una distancia d que supondremos más pe-
queña que cualquiera de las distancias focales de las lentes (figura 23). La determinación de la posi-
ción de la imagen se puede hacer de manera gráfica como sigue. En primer lugar se determina la ima-
gen formada por la primera lente, sin tener en cuenta la presencia de la segunda. Para ello, basta trazar
el rayo paralelo que se refracta y pasa por el punto focal F´1 de la primera lente, y el rayo focal, que
pasa por el punto focal F1 y se refracta paralelo al eje óptico. También se puede dibujar el rayo que
pasa por el centro de la primera lente sin desviarse. En segundo lugar, se construye hacia atrás el rayo
que pase por el extremo de la imagen y que pasa por el centro de la segunda lente, y por tanto no es
desviado por ésta. A continuación se traza para la segunda lente el rayo paralelo que ha de pasar por el
punto focal F´2 de la segunda lente. La intersección de estos dos últimos rayos determina la posición
de la imagen formada por el sistema compuesto por las dos lentes.
Consideremos ahora el esquema mostrado en la figura 24, en el que se muestran dos lentes del-
gadas separadas una distancia d que se ha aumentado. Al igual que antes, en primer lugar determina-
mos la imagen que produce la primera lente trazando el rayo paralelo y el rayo focal. De nuevo traza-
mos hacia atrás el rayo que pasa por el centro de la segunda lente sin desviarse. Prolongando el rayo
focal de la primera lente, su intersección con el rayo anterior determina la posición de la imagen pro-
ducida por el sistema compuesto.
F ’2
F1 F ’1 F2
s2
La posición de la imagen y su tamaño las podemos calcular de forma analítica como sigue. Para
la primera lente, se tiene que:
1 1 1
= – (79)
s' 1 f 1 s1
Esta distancia será positiva si el objeto se encuentra situado detrás de la distancia focal s1 > f 1, y si ésta
es positiva.
Para la segunda lente se tiene que:
1 1 1
= – (81)
s' 2 f 2 s2
Por otra parte, el objeto de la segunda lente es la imagen producida por la primera, por consiguiente se
tiene que:
s2 = d – s' 1 (83)
El valor de esta distancia es positivo si el objeto para la segunda lente es real, y es negativa si el objeto
es virtual, como se vio en el análisis gráfico realizado más arriba. Llevando las expresiones (80) y
(82) a (83) obtenemos finalmente que:
f 2 s1 f 1
f2 d –
s1 – f 1
s' 2 = (84)
s f
d – f2 – 1 1
s1 – f 1
en donde hemos tenido en cuenta que y' 1 = y 2 . Teniendo en cuenta la expresión de la amplificación
lateral de una lente delgada, dada por (78), resulta que:
s' 2 s' 1
m= (86)
s2 s1
Sustituyendo en esta expresión las ecuaciones (80) y (83), finalmente se obtiene que:
f 1 s' 2
m= (87)
d ( s1 – f 1 ) – s1 f 1
En un sistema óptico, a la distancia entre la última superficie y el segundo punto focal del sis-
tema se le denomina distancia focal posterior o d.f.p. De la misma forma, a la distancia entre la pri-
mera superficie y el primer punto focal del sistema se le denomina distancia focal frontal o d.f.f. Si
en la expresión (82) hacemos que s' 2 ® ¥ resulta que s2 ® f2. Por tanto, de la expresión (83) se tiene
que s' 1 ® d – f2. Llevando este último resultado a la expresión (79) obtenemos que:
f1 (d – f2 )
d. f. f.= (88)
d – ( f1 + f2 )
Análogamente, haciendo s1 ® ¥ en (84), y puesto que, en este caso, s' 2 º d.f.p., se obtiene que:
f2 (d – f1 )
d. f. p.= (89)
d – ( f1 + f2 )
Es decir, que la lente resultante tiene una focal efectiva dada por:
1 1 1
= + (91)
f f1 f2
Puesto que la distinción de los detalles de un objeto depende del tamaño de la imagen formada
en la retina, y por tanto del ángulo subtendido por el objeto en el ojo, para hacer esta imagen mayor lo
que hacemos es acercar el objeto al ojo. Sin embargo, la capacidad de acomodación del ojo establece
un límite a ese acercamiento. A partir de una distancia mínima, el ojo no puede enfocar cómodamente
la imagen en la retina. A esta distancia se le denomina punto próximo o cercano. Una persona con
ojos normales puede ver objetos enfocados nítidamente en la retina cuya distancia varíe desde el infi-
nito hasta unos 15 cm del ojo. El valor del punto próximo varía mucho de una persona a otra y con la
edad. Así, por ejemplo, un niño puede ver con claridad a una distancia tan corta como 7 cm. Al au-
mentar la edad del individuo, las lentes se van endureciendo poco a poco y la visión cercana disminu-
ye hasta unos límites de unos 15 cm a los 30 años y 40 cm a los 50 años. A edades más avanzadas, la
mayoría de los seres humanos sólo son capaces de acomodar sus ojos a distancias por encima de 1 o 2
m, por lo que necesita utilizar gafas para acomodaciones inferiores a estas distancia. Como valor me-
dio normalizado del punto próximo se suele tomar 25 cm.
– Hipermetropía.
– Astigmatismo.
3.1.1. Miopía
La miopía es la condición en la que los rayos paralelos tienen su Objeto en el infinito
foco delante de la retina. Esto se debe a que el ojo es excesivamente con-
vergente debido a varias causas como, por ejemplo, un alargamiento del
ojo o un aumento de la curvatura de la córnea. En cualquier caso, las
imágenes de los puntos lejanos se forman enfrente de la retina, el punto
lejano está más cerca del infinito y los objetos que se encuentran a ma-
yor distancia se ven borrosos (figura 26). Es por esta razón por lo que a la
Objeto cercano
miopía también se le denomina vista corta.
La corrección de la miopía se realiza colocando una lente divergen-
te, de manera que el sistema formado por la lente y la lente del ojo tenga
su segundo punto focal en la retina. Puesto que el ojo puede ver clara-
mente las imágenes de los objetos que se encuentran más cercanos que el
punto lejano, la lente divergente debe formar imágenes relativamente Figura 26. Corrección
cercanas de los objetos distantes. del ojo miope.
Supongamos, por ejemplo, que un ojo miope tiene un punto lejano de 2 m. La lente deberá traer
los objetos distantes más cerca de 2 m. Si la lente forma una imagen virtual de un objeto en el infinito
a 2 m, el ojo podrá ver el objeto claramente sin acomodación. Utilizando la aproximación para lentes
delgadas, se tiene que:
1 1 1 1 1
= + = + (93)
f s s' ¥ –2
Por lo que la distancia focal de la lente ha de ser f = –2 m o, lo que es lo mismo D = –1/2 dioptría.
Observemos que en este cálculo no hemos tenido en cuenta la distancia de separación entre la lente y
el ojo.
3.1.2. Hipermetropía
La hipermetropía es una alteración que hace que el segundo Objeto en el infinito
punto focal del ojo se encuentre situado detrás de la retina. Esto se
debe a que el ojo es menos convergente de lo que debiera, por lo
que el resultado es que puede ver con claridad objetos lejanos que
requieren poca convergencia, pero no así los objetos cercanos (fi-
gura 27). Para su corrección es necesario colocar una lente positiva, Punto cercano
de manera que forme una imagen virtual distante que el ojo pueda
ver claramente.
Supongamos, por ejemplo, un ojo hipermétrope que tiene un
punto cercano de 1,25 m. Para que un objeto situado a 25 cm tenga
su imagen a 125 cm, la distancia focal de la lente deberá ser: 25 cm
1 1 1 1 1
= + = + (94)
f s s' 0 ,25 –1,25
Objeto distante
Con lo que se obtiene que f = 0,31 m, o, lo que es lo mismo,
D = 3,2 dioptrías.
3.1.3. Astigmatismo
Objeto cercano
El defecto más común del ojo es el astigmatismo; se puede de-
finir como una consecuencia de la deformación de la córnea o de la
alteración de la curvatura de la lente ocular, con una curvatura ma-
yor a lo largo de un meridiano que del otro. El resultado es una vi-
sión distorsionada debido a la imposibilidad de que converjan los
rayos luminosos en un solo punto de la retina. Figura 27. Corrección del ojo
hipermétrope.
La corrección del astigmatismo se hace por medio de una lente
cilíndrica, como se muestra en la figura 28. En (a) y en (b) se mues-
tra una vista superior y lateral, respectivamente, de un ojo astigmático. La curvatura de la córnea en
un plano horizontal como el mostrado en (a) tiene el valor adecuado para que los rayos formen una
imagen sobre la retina. Sin embargo, en el plano vertical, como el (b), la curvatura no es suficiente
para formar una imagen nítida en la retina. Si colocamos una lente cilíndrica con el eje horizontal,
como se muestra en (c) y en (d), los rayos situados en un plano horizontal no se ven afectados, mien-
Los microscopios y lupas son instrumentos de distancia focal corta, por regla general, diseñados
para formar imágenes a cierta distancia finita de objetos pequeños y próximos. Por el contrario, los te-
lescopios son sistemas de distancia focal muy grande que se diseñan para aumentar el ángulo que un
objeto muy distante parece subtender desde el ojo de un observador, y capaces de detectar radiación
muy débil procedente de las estrellas lejanas. Dentro de esta misma categoría podemos incluir los an-
teojos y los prismáticos. En una zona intermedia, en lo que se refiere a la distancia focal, se encuen-
tran dispositivos como la cámara fotográfica, que utiliza lentes con distancias focales cuyos valores
se encuentran entre los utilizados en microscopios y telescopios.
d0 Figura 29.
Punto próximo o cercano.
Podemos utilizar una lente positiva para aumentar el poder refractor del ojo, de manera que el
objeto pueda acercarse más estando todavía enfocado en la retina. Una lente usada con este fin recibe
el nombre de lente de aumento, lupa o microscopio simple.
y´
y q´
s
f
s´ d
d´
Una medida adecuada del tamaño de la imagen sobre la retina es el ángulo q subtendido por el ob-
jeto en el ojo. Una lente de aumento nos permite situar el objeto a una distancia más cerca del ojo, de
manera que subtienda un mayor ángulo, como se indica en la figura 30. El objeto se coloca en el punto
focal o dentro de él, y la lente produce una imagen virtual que deberá encontrarse más allá del punto
próximo del ojo, para que éste pueda enfocarlo. En este caso, el ángulo que subtiende el objeto es q´.
Se define la amplificación angular o poder amplificador M de la lente como el cociente entre el án-
gulo subtendido con la lente y el que el ojo subtiende sin ayuda de la lente a una distancia d0 = 25 cm:
q'
M= (95)
q
La amplificación angular recibe también otros nombres, como, por ejemplo, aumento angular o po-
tencia de aumento.
Si llamamos y a la altura del objeto y suponemos que y es pequeña, entonces los ángulos q y q´
son pequeños, y los podemos aproximar por sus tangentes:
y y'
q» q' = (96)
d0 d'
Vamos a determinar el aumento en función de la distancia focal de la lente. Puesto que la imagen es
virtual, de la figura se tiene que –s´ = d´ – d. La distancia del objeto a la lente vendrá dada por:
1 1 1 1 1
= – = + (98)
s f s' f d' – d
Para que la visión sea cómoda, el objeto se sitúa justo a la distancia focal de la lente, de manera que la
imagen se forma en el infinito –s´ = d´ = ¥. En este caso, la amplificación de la lente viene dada por:
d
M= 0 (102)
f
d0
M = 1+ (103)
f
Vemos que ambos valores son ligeramente diferentes, pero esta diferencia es siempre pequeña,
ya que tanto la distancia focal f como la distancia del ojo a la lente d son también pequeñas compara-
das con d0.
Para obtener un valor grande de la amplificación se debe utilizar una lente con una distancia fo-
cal muy pequeña. Pero es difícil de obtener este tipo de lentes con distancias focales pequeñas y que
estén suficientemente libres de aberraciones esféricas para obtener una imagen nítida. Debido a estas
aberraciones, los microscopios de lente simple son muy limitados en su amplificación, que puede ser
de 2,5. Esta amplificación se suele especificar con un número seguido del signo de multiplicación,
por ejemplo 2,5´. La utilización de más de una lente formando dobletes o tripletes permiten obtener
lupas, relativamente caras, con amplificaciones altas entre 10 y 20.
s s’
x f1 x’
y F1 F’1 F2 F’2
y’
q’
y’oc
f2 d
Figura 31.
Microscopio compuesto.
d’
En la aproximación paraxial:
y – y' oc
q= q' = (105)
d0 d'
Teniendo en cuenta que y´ = yoc, de la ecuación de la amplificación lateral de una lente (78) y de la ex-
presión (106), se tiene que:
y' y' oc d 0
M=– = – mob M oc (107)
y y oc d'
Si el objeto se coloca de tal manera que la imagen se forme en el primer punto focal del ocular, y llamamos
L a la distancia entre las focales del objetivo y del ocular, la expresión anterior se transforma en:
y' L
=– (109)
y f1
Si, como estamos considerando, la imagen del objetivo (que es el objeto del ocular) está situada en el
foco del ocular, los rayos saldrán paralelos de éste; es decir, la imagen que forma el ocular se encuen-
tra en el infinito. Entonces, según vimos en el apartado anterior (102), la amplificación del ocular
vendrá dada por:
d0
M oc = (110)
f2
siendo f2 la distancia focal del ocular. Llevando las expresiones (109) y (110) a (107), obtenemos para
la amplificación del microscopio:
Ld 0
M= (111)
f1 f2
en donde, recordamos, L es la distancia entre el segundo punto focal del objetivo y el primer punto fo-
cal del ocular, d0 es la distancia del punto próximo, y f1 y f2 son las distancias focales del objetivo y del
ocular, respectivamente.
Los fabricantes han fijado el valor de L en 16 cm. Por otro lado, el valor promedio del punto pró-
ximo es d0 = 25 cm. Con estos valores, la amplificación del microscopio viene dada por:
400cm 2
M= (112)
f1 f2
En la práctica, el objetivo de un microscopio de alta calidad suele estar formado por hasta diez lentes
diseñadas para que el sistema corrija las aberraciones cromática, esférica y otras. La distancia focal
de un instrumento de gran potencia puede ser de sólo 2 mm, y la amplificación del objetivo tiene valo-
res típicos entre 50 y 100. El poder amplificador del ocular suele tener un valor comprendido entre 5 y
10. No obstante, los efectos de difracción establecen un valor superior límite para el poder de amplifi-
cación del microscopio compuesto de alrededor de 2000. Al igual que para el caso de las lupas o mi-
croscopios simples, se suele especificar la amplificación de un microscopio compuesto por un núme-
ro seguido por el signo de multiplicación. Así, por ejemplo, se dice que un microscopio tiene una am-
plificación de 500´, lo que significa que M = 500.
4.3. Telescopios
Un telescopio es un instrumento óptico que se utiliza para observar objetos muy lejanos que sub-
tienden un ángulo muy pequeño en el ojo. Los telescopios se pueden clasificar en tres categorías:
– Telescopios refractores o anteojos.
– Telescopios reflectores.
– Binoculares prismáticos.
Los primeros telescopios construidos fueron los anteojos, que se componían de un objetivo de gran
distancia focal y un ocular con una distancia focal mucho más corta, montados en un tubo largo. Aunque
el invento del telescopio parece ser anterior, la primera prueba de su descubrimiento es la solicitud de pa-
tente presentada en 1608 por Hans Lippershey en Holanda. De forma independiente, según parece, Gali-
leo Galilei ya tenía construido un telescopio con dos lentes y un tubo de órgano, en 1609. Poco tiempo
después se construyeron telescopios mejorados que permitieron un gran avance de la astronomía.
q q´
y´
f1 + f 2
f1
Figura 32.
Telescopio de Galileo.
Puesto que el objeto que se observa está muy lejos, no podemos considerarlo en el punto próximo,
por lo que el poder amplificador de un telescopio se define como el cociente entre el ángulo q´ subtendi-
do por la imagen que procede del ocular, y el ángulo q subtendido por el objeto lejano (s1 >> f1):
q'
M= (113)
q
La imagen real del objeto lejano se forma en el plano focal del objetivo, por lo que s' 1 = f 1 , por
lo que en la aproximación paraxial:
y'
q= – (114)
f1
En un telescopio de Galileo, el segundo punto focal del objetivo coincide con el primer punto fo-
cal del ocular, pues en una lente divergente o negativa f2 < 0. Por tanto, la luz que procede del ocular
será paralela y formará un ángulo q’ dado por:
– y'
q' = (115)
– f2
Sustituyendo (114) y (115) en (113), el poder amplificador del telescopio de Galileo vendrá dado por:
f1
M=– >0 (116)
f2
Como el valor de la distancia focal f1 es positivo y el valor de la distancia focal f2 es negativo, el po-
der amplificador del telescopio de Galileo es positivo M > 0, y, por consiguiente, la imagen se verá
derecha.
Una ventaja de este tipo de telescopios es que su longitud ha de ser sólo f1 – |f2|, con lo que en la
práctica resultan ser instrumentos compactos. Por ello, este tipo de diseño es el utilizado en los anteo-
jos de teatro.
Telescopio de Kepler o astronómico. En 1611, el astrónomo Johannes Kepler (de ahí el nom-
bre dado a este instrumento) propuso la utilización de un telescopio con un ocular convergente.
Objetivo Ocular
q q´
y´
Figura 33.
f1 f2 Telescopio de Kepler o
astronómico.
En este tipo de telescopio, la imagen se forma en el primer plano focal del ocular, por lo que
constituye un objeto real para éste (figura 33), y los rayos que emergen de cualquier punto del plano
focal salen del ocular en trayectorias paralelas. En la aproximación paraxial, tendremos que:
– y'
q= (117)
f1
y
– y'
q' = – (118)
f2
en donde el signo menos lo hemos introducido para establecer la diferencia entre el ángulo que gira en
sentido antihorario hacia el eje y el ángulo q’ que gira en sentido horario hacia el eje. Sustituyendo estos
valores en la expresión (113), obtenemos para el poder amplificador del telescopio astronómico:
f1
M=– <0 (119)
f2
Como los valores de las distancias focales f1 y f2 son positivos, el poder amplificador del telescopio
astronómico es negativo M < 0, y por consiguiente la imagen se verá invertida.
Telescopio terrestre. Si el telescopio de Kepler quiere utilizarse para hacer observaciones te-
rrestres, es un inconveniente que la imagen esté invertida. Para evitar esto se coloca una lente inverso-
ra intermedia de distancia focal f0 entre el objetivo y el ocular, tal como se muestra en la figura 34. La
lente inversora no modifica el poder amplificador del telescopio, sólo invierte su signo. Por consi-
guiente, para el telescopio terrestre, el poder amplificador viene dado por:
f1
M= >0 (120)
f2
Aparte del cambio de signo, la lente inversora hace que la longitud del telescopio tenga que au-
mentar en una cantidad igual a 4f0.
Objetivo Lente inversora Ocular
q
y q´
f1 2f0 2f0 f2
Aunque fue el jesuita italiano, Niccolò Zucchi, el primero en utilizar un ocular para ver la ima-
gen producida por un espejo cóncavo, fue el matemático escocés James Gregory (1638-1785) quien
describió por primera vez un telescopio con un espejo reflector en 1661. No obstante, fue Isaac New-
ton quien, en 1668, construyó con éxito el primer telescopio reflector.
En este tipo de telescopio la luz es reflejada por un espejo cóncavo y luego los rayos se llevan a
un punto de visión conveniente denominado foco primario. Sólo en aquellos telescopios de gran ta-
maño es factible colocar la cabina del observador en el foco primario. De lo contrario, se utilizan di-
versos arreglos para dirigir los rayos a una región situada al lado del instrumento o debajo de él, con el
objeto de no interceptar gran parte de los rayos incidentes.
Para salvar esta dificultad, Gregory utilizó en su diseño un segundo espejo cóncavo, que refleja-
ba los rayos al ocular (figura 35a). En el montaje de Newton se utiliza un espejo plano para sacar la
luz en un ángulo recto con el eje del telescopio (figura 35b). Una modificación de este telescopio se
debe a Henry Draper, uno de los primeros astrónomos estadounidenses que construyó un telescopio
reflector, en el que utilizó con éxito un prisma de reflexión total en lugar de un espejo plano. Otro di-
seño, debido al astrónomo francés Giovanni D. Cassegrain, sustituía el espejo cóncavo del foco pri-
mario por un espejo convexo (figura 35c).
a)
b)
4.3.3. Binoculares
Los binoculares prismáticos son una modalidad de telescopio terrestre en donde se sustituye la
lente inversora por un par de prismas de reflexión (figura 37). De esta manera se consigue el mismo
efecto pero en menos espacio.
Binoculares
Figura 37.
Binoculares.
Si consideramos el objetivo de cualquier telescopio como un objeto que es observado por el ocu-
lar, su imagen se forma detrás del ocular (figura 38). Esta imagen circular se denomina pupila de sali-
da, y toda la luz que entra por el objetivo y llega al ocular debe pasar por la pupila de salida. Por el
principio de reversibilidad, si invertimos el camino de la luz, el objetivo es la imagen de la pupila de
salida. Por esta razón al objetivo se le denomina pupila de entrada.
D
D´
f1 f2
Podemos determinar la relación existente entre el diámetro D del objetivo (pupila de entrada) y
el diámetro D´ de la pupila de salida con el poder amplificador del telescopio. Para ello, tengamos en
cuenta que el objetivo se encuentra a una distancia del ocular s = f1 + f2, por lo que su imagen se en-
contrará a una distancia del ocular dada por:
1 1 1 f1
= – = (121)
s' f2 s f2 ( f1 + f2 )
D a
Puesto que la distancia entre la película y la lente es aproximadamente igual a la distancia focal al ser
siempre f << s, vemos que el número es igual a la cotangente del ángulo que subtiende la lente.
El número f de la lente nos da la máxima apertura:
f
D= (125)
número f
Así, por ejemplo, una lente descrita como f /2,8, con una distancia focal f = 50 mm, tiene una máxima
apertura D = 17,9 mm. Las lentes grandes son muy caras por lo costoso que resulta su fabricación y la
corrección de las aberraciones.
Para una lente dada, reduciendo el diámetro de apertura se reduce la luz que incide sobre la pelí-
cula. En las cámaras suelen marcarse las posiciones de apertura f /22, f /16, f /11, f /8, f /5,6, f /4, f /2,8,
f /2, f /1,4, f /1 y así, hasta el número más bajo, que corresponde al diámetro más grande que puede
utilizarse de la lente. Observemos que cada posición relativa corresponde a un diámetro que es 2 ve-
ces más grande que el anterior. Puesto que la cantidad de luz es proporcional al área de la lente, signi-
fica que entre una posición y la siguiente la cantidad de luz que entra es doble.
s1 s´2
s´1
d s2
D´
D
d1 d2 d´1 d´2
s0 L
Llevando (128) a (126) y sustituyendo el valor de 1/f dado por (127), obtenemos que:
1 1 d' 1 d1
– = = (129)
L – d' 1 L L( L – d' 1 ) s0 ( s0 + d 1 )
Fijado un valor de D’ = 0,05 mm, denominado círculo de confusión, el valor de d1 dado por (132) nos
da el límite exterior de la profundidad de campo.
Haciendo un estudio análogo al que hemos realizado anteriormente, se tiene que el límite inte-
rior de la profundidad de campo viene dado por:
s02 D
d2 = (133)
L+ s0 D
= ç ÷= ç– ÷< 0 (135)
dD dD èdD ø ( L2 – s02 D2 ) 2 è D 2 ø
Por consiguiente, la profundidad de campo aumenta cuando disminuye la apertura del diafragma de
la cámara D.
El campo de visión angular de la cámara es el ángulo sustentado en la lente por la imagen que se
quiere fotografiar. Para una cámara con una distancia focal de 50 mm, el campo de visión es alrede-
dor de 45º. Para aumentar el campo de visión se utilizan objetivos de menor distancia focal, por ejem-
plo de 24 mm, denominados gran angular. Cuando el objeto se encuentra muy alejado del objetivo, la
distancia a la que se forma la imagen es aproximadamente igual a la distancia focal. Puesto que el au-
mento de la lente es m = –s´/s, resulta que un gran angular produce una imagen más pequeña en la pe-
lícula que la que produce un objetivo normal. Por el contrario, un teleobjetivo tiene una gran distancia
focal, para que la imagen del objeto sea muy grande en la película y parezca más cercano. Por ejem-
plo, un teleobjetivo con una distancia focal de 200 mm produce una imagen 4 veces mayor que la que
produce un objetivo normal de 50 mm.
BIBLIOGRAFÍA
27
Óptica física. Propiedades de
las ondas luminosas.
Observación en el laboratorio.
Teoría física del color.
Espectrofotometría
ÍNDICE SISTEMÁTICO
1. NATURALEZA DE LA LUZ
2. ÓPTICA FÍSICA
2.1. Comportamiento ondulatorio de la luz
2.1.1. Ondas electromagnéticas
2.1.2. Ondas electromagnéticas planas
2.1.3. Transversalidad de las ondas electromagnéticas
5. ESPECTROFOTOMETRÍA
BIBLIOGRAFÍA
1. NATURALEZA DE LA LUZ
La naturaleza de la luz ha sido una de las cuestiones que más ha preocupado e intrigado al hom-
bre. Las primeras teorías consideraban la luz como algo emitido por el ojo, aunque posteriormente se
aceptó que debía ser algo que procedía de los objetos que se veían y que entraban en el ojo producien-
do la sensación de visión.
La naturaleza de la luz probablemente haya sido una de las cuestiones más interesantes de la his-
toria de la ciencia. Isaac Newton, uno de los pocos y grandes genios de la física, defendía una teoría
corpuscular de la luz. Según esta teoría la luz estaba formada por corpúsculos diminutos que viajaban
en línea recta, a gran velocidad, desde los cuerpos visibles hasta el ojo. A partir de esta teoría Newton
pudo explicar las leyes de la reflexión y de la refracción. No obstante, su demostración se basaba en
hipótesis que luego se demostraron falsas: que la luz se propaga en el agua y en el vidrio a mayor ve-
locidad que en el aire.
Entre los defensores de una teoría ondulatoria para la luz se encontraban, entre otros, Christian
Huygens y Robert Hook. Huygens consideraba que la luz se comportaba como un movimiento ondu-
latorio similar al del sonido, pero a diferencia de éste que se propagaba en la materia ordinaria, la luz
se propagaba en un medio que lo impregnaba todo y que recibió el nombre de éter. A partir de su teo-
ría, Huygens encontró las leyes de la reflexión y la refracción, suponiendo una menor velocidad de
propagación de la luz en el agua y en el vidrio que en el vacío.
El rechazo de Newton a la teoría ondulatoria se basaba fundamentalmente en que en su época no
existían pruebas experimentales de la difracción de la luz. Sin embargo, había observado que la luz de
un foco pequeño producía una sombra con bordes nítidos, lo que corroboraba la propagación rectilí-
nea de la luz. Debido a su gran autoridad científica, la teoría corpuscular de Newton perduró durante
más de un siglo.
En 1801 Thomas Young, con su experimento de la doble rendija, aportó la prueba experimental
decisiva a favor de la teoría ondulatoria de la luz. Este experimento mostraba algunos fenómenos que
sólo podían explicarse en términos de interferencias constructivas y destructivas propios de las on-
das. Posteriormente, Augustin Fresnel realizó un gran número de experimentos sobre interferencias y
difracción de la luz y desarrolló la teoría ondulatoria con una base matemática.
No obstante, la evidencia teórica de la existencia de ondas electromagnéticas se debió a James
Clerk Maxwell, quien en 1864 en su artículo titulado “Teoría dinámica del campo electromagnético”
presentó las célebres ecuaciones, que hoy denominamos ecuaciones de Maxwell, que unificaban los
campos eléctricos y magnéticos y predecían la existencia de ondas electromagnéticas. A partir de es-
tas ecuaciones del electromagnetismo, Maxwell demostró que podían combinarse r rpara dar lugar a
una ecuación de onda que debían satisfacer los campos eléctricos y magnéticos, E y B, al mismo tiem-
po que demostró que la velocidad de propagación de estas ondas en el vacío debía ser c = (m0e0)–1/2.
En la segunda mitad del siglo XIX Kirchhoff y otros científicos aplicaron la teoría electromag-
nética de Maxwell para explicar con éxito los fenómenos de interferencia y difracción de la luz.
La teoría ondulatoria es útil para explicar la propagación de la luz pero no puede explicar otras
propiedades de la luz, sobre todo su interacción con la materia. Algunos fenómenos como el efecto
fotoeléctrico no pueden entenderse mediante una teoría ondulatoria que lleva consigo una transferen-
cia continua de energía. Sólo un modelo de partículas para la luz puede explicar estos fenómenos.
Desde el punto de vista de la electrodinámica cuántica, la interacción de la luz y cualquier onda elec-
tromagnética con la materia se describe mediante una partículas sin masa denominadas fotones. La
energía de un fotón está relacionada con la frecuencia de la onda electromagnética y la energía trans-
portada por un gran número de fotones es en promedio igual a la transportada por una onda electro-
magnética. Esta naturaleza dual de la luz no se comprendió bien hasta la década de los años veinte
cuando se demostró que otras partículas como los electrones daban lugar a fenómenos de interferen-
cia y difracción. Este hecho constituye uno de los pilares de la física moderna y de la mecánica cuánti-
ca: la luz, al igual que los demás objetos materiales, muestran propiedades de partículas y de onda. La
manifestación de estas propiedades dependen del tipo de experimento y medida que se realice.
Erwin C. Schrödinger (1887-1961), uno de los fundadores de la teoría cuántica escribía en
Science theory and Man:
En el nuevo arreglo de ideas la distinción entre partículas y ondas ha desapareci-
do, porque se descubrió que todas las partículas tienen también propiedades ondula-
torias, y viceversa. Ninguno de los dos conceptos se debe desechar, ellos deben
amalgamarse. Qué aspecto sobresalga depende no sólo del objeto físico sino del ins-
trumento experimental usado para examinarlo.
2. ÓPTICA FÍSICA
En el tema 26 hemos basado el estudio de la luz en el concepto de rayo de luz como trayectoria
de la energía radiante, y nos hemos limitado a estudiar las trayectorias seguidas por estos rayos de luz.
Esta restricción conduce a la óptica geométrica, la cual nos permite obtener relaciones cuantitativas
de algunas propiedades de la luz. Sin embargo, existen una serie de fenómenos tales como la polariza-
ción, interferencia y la difracción que sólo pueden explicarse si se admite que la energía luminosa se
propaga como una onda. Este tratamiento de los fenómenos ópticos es lo que se denomina óptica física,
o también óptica ondulatoria.
– Ley de Ampère-Maxwell
r
r r r ¶D
Ñ´ H = J + (3)
¶t
– Ley de Faraday-Henry
r
r r ¶B
Ñ´ E = – (4)
¶t
r
Las ecuaciones anteriores
r se completan conrotras dos que relacionan el vector desplazamiento D
con el campo eléctrico
r E, y el campo magnético B (denominado también inducción magnética) con el
campo magnético H. Además de estas dos ecuaciones, hay una tercera que relaciona la densidad de
corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-
titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad e, una permeabilidad m, y una conductividad s, estas ecuaciones son:
r r
D = eE (5)
r 1 r
H= B (6)
m
r r
J = sE (7)
Haciendo uso der estas
r ecuaciones constitutivas, las ecuaciones de Maxwell pueden escribirse en función
de los campos E y B como:
r r r
Ñ×E = (8)
e
r r
Ñ×B = 0 (9)
r
r r r ¶E
Ñ´ B = msE + me (10)
¶t
r
r r ¶B
Ñ´ E = – (11)
¶t
Sustituyendo en esta expresión la ecuación (11) del rotacional del campo eléctrico, se tiene que:
r r
r r r ¶B ¶2B
Ñ´ ( Ñ´ B ) = – ms – me 2 (14)
¶t ¶t
El primer miembro de la ecuación anterior se puede simplificar haciendo uso de la relación vectorial:
r r r r r r r
Ñ´Ñ´ B = Ñ ( Ñ×B ) – Ñ 2 B (15)
Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (11) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç
÷ (18)
è ¶t ø
Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (19)
¶t
Sustituyendo en esta expresión la ecuación (10) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (20)
¶t ¶t
Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (21)
Sustituyendo la expresión (21) en (20) y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (8) obtenemos finalmente que:
r r
r ¶E ¶ 2 E ræ r ö
Ñ E – ms
2
– me 2 = Ñç ÷ (22)
¶t ¶t èeø
En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (23)
¶t ¶t
Las ecuaciones (17) y (23) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (17) y (23) se simplifican y quedan en la forma:
r
r ¶2B
Ñ 2 B – me 2 = 0 (24)
¶t
r
r ¶2E
Ñ E – me 2 = 0
2
(25)
¶t
1 ¶2F
Ñ 2F – =0 (26)
u 2 ¶t 2
vemos que las componentes del campo electromagnético satisfacen una ecuación diferencial de onda.
Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio como una
onda, siendo su velocidad de propagación u:
1
u= (27)
me
Las dos ecuaciones vectoriales (24) y (25) proporcionan seis ecuaciones de onda una para cada
componente del campo eléctrico (Ex, Ey, y Ez) y del campo magnético (Bx, By, y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r ¶2B
Ñ B – m0e0 2 = 0
2
(28)
¶t
r
r ¶2E
Ñ E – m0e0 2 = 0
2
(29)
¶t
Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío como
una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:
1
c= (30)
m0e0
Haciendo uso de los valores encontrados en su época para la permitividad de vacío y la permeabili-
dad, Maxwell encontró que la velocidad de propagación de las ondas electromagnéticas en el vacío
era:
1
c= » 3´108 m / s (31)
m0e0
Este valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315000 km/s, y esta
coincidencia llevó a Maxwell a escribir:
Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para
concluir que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay)
es una perturbación electromagnética en forma de ondas que se propagan a través del
campo electromagnético de acuerdo con las leyes electromagnéticas.
Cada componente de los campos debe satisfacer una ecuación de onda similar a las anteriores. Si con-
venimos que los campos físicos eléctrico y magnético se obtienen tomando la parte real de magnitu-
des complejas, podemos escribir la solución de estas ecuaciones como:
r r
E = E 0 e i ( kz– wt) (38)
r r
B = B 0 e i ( kz– wt) (39)
en donde k está relacionado con la frecuencia w de la onda y la velocidad de propagación u por:
w = ku (40)
Más tarde, analizaremos detalladamente las soluciones de onda plana dadas (38) y (39).
¶E x ¶B y
=– (44)
¶z ¶t
¶B z
0= (45)
¶t
Y de la ecuación (10) del rotacional del campo magnético:
¶B y ¶E x
= – me (46)
¶z ¶t
¶B x ¶E y
= me (47)
¶z ¶t
¶E z
0= (48)
¶t
Las ecuaciones (41) y (48), por un lado, y las ecuaciones (42) y (45) por otro, muestran que las
componentes Ez y Bz son constantes en el tiempo y en el espacio. Por tanto, si suponemos que los
campos eléctrico y magnético son nulos antes de la llegada de la onda (es decir en ausencia de campos
estáticos), siguen siendo nulos en todo instante de tiempo. Por consiguiente, podemos escribir que:
Ez = 0 Bz = 0 (49)
r r
Estos resultados indican que las ondas electromagnéticas son transversales: los vectores E y B son
perpendiculares a la dirección de propagación. Por consiguiente, los vectores campo eléctrico y mag-
nético sólo tendrán componentes perpendiculares a la dirección de propagación; es decir:
r
E = E x i$ + E y $j (50)
r
B = B x i$ + B y $j (51)
¶2E y ¶2E y
– me =0 (53)
¶z 2 ¶t 2
Con el convenio de utilizar magnitudes complejas para representar los campos físicos, las solu-
ciones de estas ecuaciones las podemos escribir como:
E x = E 0x e i ( kz– wt) (56)
E y = E 0 y e i ( kz– wt) (57)
Las magnitudes E0x, E0y, B0x y B0y son en general complejas con el objeto de incorporar el desfase en-
tre las distintas componentes.
Por otra parte, las componentes del campo eléctrico y el campo magnético están relacionadas
mediante las ecuaciones de Maxwell. Así, por ejemplo, de la ecuación (43) y de las ecuaciones (57) y
(58), obtenemos que:
1
KE y = – wB x Þ B x = – E y (60)
u
Análogamente, de las ecuaciones (44) y de las ecuaciones (56) y (59), resulta que:
1
B y = Ex (61)
u
Por tanto, las soluciones generales de una onda plana que se propaga en la dirección del eje z la pode-
mos escribir como:
r
E = E x i$ + E y $j = ( E 0x i$ + E 0 y $j )e i ( kz– wt) (62)
r 1
B = B x i$ + B y $j = (– E 0 y i$ + E 0x $j ) e i ( kz– wt) (63)
u
r r
Calculando el producto escalar de los vectores E y B se tiene que:
r r
E ×B = 0 (64)
Es decir, que el campo eléctrico y el campo magnético son perpendiculares entre sí, y perpendiculares
a la dirección de propagación de la onda electromagnética.
r r
Por otro lado, del producto vectorial de E y B, se tiene que:
r r 1 1 E2
E ´ B = ( E x B y – E y B x )k$ = ( 2 E x2 + 2 E y2 )k$ = 2 k$ (65)
u u u
r r
Es decir, los vectores E, B y la dirección de propagación, en nuestro caso k$ forman un triedro a derechas.
Por tanto, los campos eléctrico y magnético en una onda electromagnética plana son perpendi-
culares a la dirección de propagación y forman con ésta un triedro a derechas.
3.1. Polarización
Supongamos que el desfase entre ellas es q. Es decir, podemos considerar que E0x es un número real y
reescribir la cantidad compleja E0y como E0ye–iq. De esta manera, sustituyendo esto en las expresiones
anteriores, y (57) y tomando la parte, se tiene que:
E x = E 0x cos( kz – wt ) (66)
E y = E 0 y cos( kz – wt + q ) (67)
r
Por tanto, en general, el campo eléctrico E de componentes Ex y Ey variará con el tiempo su mó-
dulo y su orientación en el espacio. Veamos esto, en algunos casos.
– Polarización lineal: supongamos que el desfase entre las dos componentes del campo
eléctrico es cero. En este caso, haciendo q = 0 en la ecuación (67), tendremos que:
E x = E 0x cos( kz – wt ) (68)
E y = E 0 y cos( kz – wt ) (69)
Y por consiguiente:
r
E = ( E 0x i$ + E 0 y $j )cos( kz – wt ) (70)
Por tanto, el campo eléctrico está orientado siempre en una misma dirección que forma un
ángulo a con el eje x dado por:
E0 y
a= arctan (71)
E 0x
Es decir, que el campo eléctrico oscila siempre en un plano que contiene a la dirección de
propagación k$ y que forma un ángulo a con el eje x. A este plano se le denomina plano de
polarización, y decimos que la onda está polarizada linealmente.
De las expresiones (58) y (59) encontramos que el campo magnético vendrá dado por:
r 1
B = (– E 0 y i$ + E 0x $j )cos( kz – wt ) (72)
c
en donde hemos denominado c a la velocidad de proporción.
Por tanto, el campo magnético oscila en fase con el campo eléctrico en una direcciónr fija
r en
el espacio. Resultado que ya sabíamos, puesto que anteriormente se demostró que E, B y la
dirección de propagación forman un triedro a derechas. En la figura 1 se muestra la orienta-
ción relativa de los campos eléctricos y magnéticos en un instante dado en distintos puntos
del espacio.
Figura 1. Onda
electromagnética
polarizada linealmente.
– Polarización circular y elíptica: supongamos ahora que el desfase de las dos componen-
tes del campo eléctrico es de –p/2. En este caso, tendremos que:
E x = E 0x cos( kz – wt ) (73)
E y = E 0 y cos( kz – wt – p / 2) = E 0 y sen ( kz – wt ) (74)
El campo eléctrico vendrá dado por:
r
E = E 0x cos( kz – wt )i$ + E 0 y sen ( kz – wt ) $j (75)
Por tanto, el campo eléctrico cambia en módulo y en dirección con el tiempo, y con la posición.
Esto lo podemos ver si encontramos la curva que describe el extremo del vector campo eléc-
trico. De la expresión (73) obtenemos que:
Ex
= cos( kz – wt ) (76)
E 0x
Por otro lado, de (74):
Ey
= sen ( kz – wt ) (77)
E0 y
Esta ecuación corresponde a una elipse cuyos semiejes son E0x y E0y. Por consiguiente, al
avanzar la onda, el campo eléctrico describe una elipse en un plano perpendicular a la di-
rección de propagación. Decimos que la onda está polarizada elípticamente.
En el caso concreto en que las amplitudes E0x y E0y son iguales, E0x = E0y = E0, la relación en-
tre las componentes del campo eléctrico se convierte en:
E x2 + E y2 = E 02 (79)
Expresión que corresponde a una circunferencia de radio E0. En este caso, el extremo del
vector campo eléctrico describe una circunferencia y decimos que la onda electromagnéti-
ca está polarizada circularmente. En la figura 2 se muestra el valor del campo eléctrico en el
instante t = 0 para distintos valores de la variable z.
y
x
E
E
E
B
B E
Figura 2. Onda B B
z
electromagnética
polarizada circularmente.
Por regla general, la luz que procede tanto de fuentes naturales como artificiales no es ni luz
completamente polarizada ni luz no polarizada. Es decir, que el campo eléctrico no varía de forma re-
gular pero tampoco lo hace de forma completamente irregular. Se dice entonces que la luz está par-
cialmente polarizada. En este caso podemos suponer que la luz es una superposición de luz
polarizada y de luz natural (no polarizada). El grado de polarización de la luz se define como:
Ix – I y
G= (82)
I x +I y
en donde x e y son las direcciones en las que la intensidad es máxima y mínima respectivamente.
Cuando la luz es natural, G = 0 pues la intensidad es la misma en cualquier dirección, de manera
que si representamos la luz con dos campos eléctricos ortogonales, como dijimos anteriormente, Ix = Iy.
En el caso de luz polarizada linealmente, si adoptamos como dirección x la dirección del plano de pola-
rización se tiene que G = 1.
Detector
Polarizador
E
Luz no
polarizada
Eje de
transmisión
Plano de proyección
del campo E
Supongamos ahora que realizamos la misma experiencia pero introducimos un segundo polari-
zador, que llamaremos analizador para distinguirlo del primero, cuyo eje de transmisión es vertical
(figura 4). En este caso, si la amplitud del campo eléctrico que deja pasar el polarizador es E0, la am-
plitud del campo eléctrico que pasa a través del analizador es E0 cos q. Es decir, el analizador sólo
deja pasar la componente paralela al eje de transmisión. La intensidad de la onda medida por el detec-
tor vendrá dada por:
ce o 2
I= E cos 2 q (83)
2 0
Esta intensidad será máxima, e igual a la intensidad de la luz que deja pasar el polarizador, si el eje del
analizador coincide con el eje del polarizador. Si denominamos I0 a esta intensidad:
ce o 2
I0 = E (84)
2 0
Por lo tanto, la intensidad medida por el detector en presencia del analizador será:
I = I0 cos q
2
(85)
Este resultado se conoce como ley de Malus puesto que fue enunciado por primera vez por Etienne
Malus (1775-1812).
Detector
E
Polarizador q
Luz no E
polarizada
Analizador
Figura 4. Polarizador Eje de
lineal y analizador que transmisión Plano de proyección
permiten comprobar la del campo E
ley de Malus.
Existen cuatro procesos mediante los cuales puede obtenerse luz polarizada a partir de luz no po-
larizada. Estos cuatro procesos son:
Luz no
polarizada
Luz linealmente
polarizada
Componente horizontal
completamente absorbida
Componente vertical
Figura 5. Dicroísmo. parcialmente absorbida
La más conocida de estas sustancias es la turmalina (borosilicato de aluminio). Para esta sus-
tancia, existe una dirección privilegiada en el cristal denominada eje principal o eje óptico
que está determinada por la estructura cristalina. La componente del campo eléctrico de una
onda incidente que es perpendicular al eje óptico es fuertemente absorbida por la sustancia. De
manera que cuanto más grueso sea el cristal más completa será la absorción y por tanto menos
será la componente transmitida en esa dirección. Por consiguiente esta sustancia puede utilizar-
se como un polarizador cuyo eje de transmisión coincide con el eje óptico del cristal.
Sin embargo, la utilización de la turmalina como polarizador es limitada por dos razones.
En primer lugar porque los cristales de turmalina son pequeños; y en segundo lugar porque
la absorción depende de la frecuencia, por lo que la muestra se ve coloreada. Así por ejem-
plo, un cristal de turmalina puede verse de color verde (depende de la orientación) cuando
se mira perpendicular al eje óptico y negro cuando se mira en la dirección del eje óptico,
pues en este caso todos los campos eléctricos son perpendiculares a él. De aquí el nombre
dado a estos cristales, pues dicroico significa dos colores.
Hay otras sustancias que presentan el mismo comportamiento que la turmalina, como por
ejemplo la herapatita (sulfato de yodoquinina), pero que tiene el inconveniente de que sus
cristales son muy quebradizos y por tanto son difíciles de usar.
En 1928 Edwin Herbert Land inventó el primer polarizador de hoja, que consistía en mu-
chos cristales de herapatita paralelos entre sí y situados entre dos hojas de vidrio o celu-
loide. A este polarizador se le conoce como hoja polaroide J. Diez años más tarde, este
mismo investigador inventó la hoja polaroide H, que básicamente consiste en una hoja de
alcohol de polivinilo calentada y estirada, y posteriormente sumergida en una solución de
yodo. De esta manera se consiguen largas moléculas orientadas paralelamente que se
comportan como alambres por los que pueden circular los electrones del yodo. La com-
ponente de un campo eléctrico paralela a la orientación de estas moléculas realizan un
trabajo sobre los electrones del yodo y es fuertemente absorbida por el material. Por tan-
to, la hoja se comporta como un polarizador cuyo eje de transmisión es perpendicular a la
orientación de las moléculas en el cristal.
– Reflexión y transmisión Otra manera de conseguir luz polarizada es mediante reflexión.
Consideremos una haz de luz no polarizada que incide sobre una superficie reflectante
(figura 6). En los casos extremos en los que el ángulo de incidencia es cero (incidencia
normal) o 90º (incidencia rasante) la luz reflejada no está polarizada. Para ángulos de in-
cidencia comprendidos entre esos valores extremos, el haz refractado siempre está par-
cialmente polarizado, mientras que el haz reflejado también lo está, salvo para un ángulo,
denominado ángulo de polarización qp, para el que el haz reflejado está completamente
polarizado.
Luz incidente
Haz reflejado
no polarizada
0P polarizado
0P
n
n´
p/2
Haz reflactado
parcialmente Figura 6. Polarización
polarizado por reflexión.
Sir David Brewster (1781-1868) descubrió en 1812 que cuando el ángulo de incidencia es
igual al ángulo de polarización, el haz reflejado y el haz refractado forman entre sí un ángu-
lo de 90º. Este resultado lo podemos escribir, teniendo en cuenta que qi = qp como:
p
q p +q r = (86)
2
Teniendo en cuenta la ley de la refracción de Snell, si denominamos n1 al índice de refrac-
ción del medio incidente y n2 al índice de refracción del medio que contiene el haz refracta-
do, podemos escribir:
æp ö
n 1 sen q p = n 2 senç – q p ÷ (87)
è2 ø
Utilizando la igualdad trigonométrica sen(p/2 – qp) = cosqp, la expresión anterior puede es-
cribirse como:
n
tan q p = 2 (88)
n1
Esta expresión se conoce como ley de Brewster, y es normal denominar al ángulo de polari-
zación como ángulo de Brewster.
Si el haz de luz incidente contiene el campo eléctrico en el plano de incidencia, si incide en
una superficie con el ángulo de Brewster no habrá haz reflejado.
En cuanto a la luz transmitida, siempre está parcialmente polarizada, aun cuando el ángulo
de incidencia sea el ángulo de Brewster. Esto es así debido a que sólo se refleja una parte
pequeña de la luz incidente.
Este fenómeno de la polarización por reflexión puede utilizarse en la construcción de gafas
de sol con material polarizador para evitar los deslumbramientos. Si la luz se refleja en una
superficie horizontal como puede ser un lago, el suelo, o nieve, el plano de incidencia será
perpendicular y el vector del campo eléctrico reflejado será predominantemente horizontal.
Por consiguiente si las gafas se construyen con un material cuyo eje de transmisión es per-
pendicular absorberán gran parte de la luz reflejada evitando así los deslumbramientos.
Esto puede observarse fácilmente si se dispone de unas gafas de este tipo sin más que girar-
las. Observaremos que la luz transmitida aumenta de forma apreciable si las giramos 90º.
– Dispersión o scattering: la luz también se polariza cuando es dispersada por los átomos
del medio en el que se propaga. Para entender este fenómeno supongamos una luz no pola-
rizada que incide sobre unas moléculas dispersoras situadas en las cercanías del origen (fi-
gura 7). Puesto que el campo eléctrico incidente se propaga en la dirección del eje z, no
tendrá componente en esa dirección y por consiguiente la luz que incida sobre un observa-
dor perpendicular a la dirección de propagación, por ejemplo el eje x sólo tendrá compo-
nente a lo largo del eje y. Por tanto se tendrá luz linealmente polarizada. Lo mismo se
observará desde un punto situado en el eje y. La luz que se propaga en esa dirección será luz
polarizada linealmente y su plano de polarización será el plano xy.
y x
Luz incidente
no polarizada
Luz transmitida
no polarizada
(fundamentalmente roja)
Un ejemplo de dispersión lo observamos al mirar al cielo. La luz que nos llega es la luz dis-
persada por las moléculas de la atmósfera. Si ésta no existiera, el cielo se vería negro y po-
drían verse las estrellas durante el día. La magnitud de esta dispersión depende en gran
medida de la frecuencia o de la longitud de onda de la luz incidente, de manera que la dis-
persión es mayor para las longitudes de onda más cortas. Así, la zona roja del espectro (lon-
gitudes de onda alta) no se desviarán prácticamente o lo hacen en mucha menor medida que
la luz azul y violeta (longitud de onda corta). Esta luz fuertemente dispersada proviene de
muchas direcciones mientras que la luz roja proviene sólo de la dirección de propagación,
por lo que observamos un cielo azul y brillante. En las puestas de sol, este se encuentra en
una posición muy baja, de manera que la luz que incide sobre un observador es práctica-
mente la luz que no es dispersada por la atmósfera, por lo que las puestas de sol son de color
rojo anaranjado que corresponde a las mayores longitudes de onda.
– Birrefringencia: en muchos materiales cristalinos la velocidad de propagación de las on-
das electromagnéticas es la misma en todas las direcciones, son los denominados materia-
les isótropos. Sin embargo, en otros materiales la velocidad de propagación depende de la
dirección en que tenga lugar. A este tipo de materiales se les denomina anisótropos.
Esos materiales anisótropos, entre los que se encuentran la calcita y el cuarzo, presentan la
propiedad de doble refracción o birrefringencia, que consiste en que en su interior hay dos
haces o rayos refractados, el haz ordinario (rayo O) y el haz extraordinario (rayo E). Ade-
más estos rayos están polarizados de forma que sus planos de polarización son perpendicu-
lares entre sí (figura 8). Para estos haces, si se miden los ángulos de incidencia y de refrac-
ción se observa que la ley de Snell se satisface sólo para el haz ordinario, pero no para el haz
extraordinario. Sin embargo, existe una dirección en el cristal, denominada eje óptico, tal
que si el plano de incidencia es perpendicular a dicho eje entonces la ley de Snell se cumple
para ambos rayos. En este caso, los rayos se propagan en la misma dirección pero con velo-
cidades diferentes. Por consiguiente, el número de longitudes de onda de cada uno de los
haces contenidos en el cristal es diferente, al serlo su longitud de onda l = u/f. Los rayos or-
dinario y extraordinario emergen del cristal desfasados cierta cantidad que depende del es-
pesor del cristal y de la longitud de onda de la luz incidente. Si el desfase a la salida es de
90º se dice que el cristal es una lámina de cuarto de onda, mientras que si es de 180º se de-
nomina lámina de media onda. En general a este tipo de cristales utilizados con esta finali-
dad se les denomina retardadores.
Figura 8. Polarización
por birrefringencia.
3.2. Interferencia
El fenómeno de interferencias ya ha sido estudiado en el tema 18 para ondas escalares. En este apar-
tado vamos a estudiarlo de nuevo teniendo en cuenta que las ondas luminosas son ondas vectoriales.
Tal como se vio en el tema dedicado a las ondas en general, la interferencia es el fenómeno de
superposición de dos ondas de la misma frecuencia, pero de fase y amplitud diferentes, en un punto
cualquiera del espacio. Como veremos esto da lugar a que la intensidad resultante sea diferente de la
suma de las intensidades de las ondas incidentes.
Los resultados que encontraremos a continuación son muy generales e independientes del tipo
de ondas utilizadas. No obstante, con el objeto de simplificar nuestro análisis vamos a considerar dos
fuentes puntuales S1 y S2, con una separación mayor que la longitud de onda que emiten ondas mono-
cromáticas de la misma frecuencia las cuales se propagan en un medio homogéneo. Los campos eléc-
tricos de las ondas esféricas producidas por las fuentes los podemos escribir como:
r r
E 1 = E 01 sen(wt – kr1 – f1) (89)
r r
E 2 = E 02 sen(wt – kr2 – f2) (90)
en donde r1 y r2 son las distancias a las fuentes. Las amplitudes de las ondas serán distintas aún cuan-
do ambas fuentes sean idénticas, puesto que al tratarse de ondas esféricas, decrecerán con la distancia
en la forma 1/r1 y 1/r2.
De acuerdo con el principio de superposición, en un punto cualquiera del espacio, el campo eléc-
trico resultante de la composición de las dos ondas vendrá dado por:
r r r r r
E = E 1 + E 2 = E 01 sen ( wt – kr1 – f 1 )+ E 02 sen ( wt – kr2 – f 2 ) (91)
Puesto que el campo eléctrico varía muy rápidamente es imposible detectar el valor del campo
eléctrico en un instante dado, por lo que el estudio de la interferencia y de otros fenómenos ondulato-
rios se hace en función de la intensidad. La intensidad de una onda electromagnética viene dada por
(ver tema 25):
I = eu áE ñ
2
(92)
siendo e la permitividad del medio y u la velocidad de propagación de la onda en dicho medio. Tenien-
do en cuenta que el campo eléctrico resultante es la suma de los campos eléctricos, la intensidad será:
r r r r r r r r
I = eu ( E 1 + E 2 )×( E 1 + E 2 ) = eu ( E 12 + E 22 + 2E 1 E 2 ) = I 1 + I 2 +I 12 (93)
en donde:
r
I 1 = eu E 12 (94)
r
I 2 = eu E 22 (95)
r r
I 12 = 2eu E 1 ×E 2 (96)
Si tenemos en cuenta la propiedad trigonométrica sen(a – b) = sena cosb – cosa senb, y la aplicamos
a la expresión anterior, agrupando términos tenemos que:
r r r r
E 1 ×E 2 = E 01 ×E 02 [sen wt cos( kr1 + f 1 ) – cos wt sen ( kr1 + f 1 )]´
(98)
´ [sen wt cos(kr2 + f2) – cos wt sen(kr2 + f2)]
Si tenemos en cuenta que los valores medios de las funciones trigonométricas son:
1
sen 2 wt = cos 2 wt = (99)
2
sen wt cos wt = 0 (100)
En lo que sigue vamos a considerar que los campos eléctricos de las dos ondas son paralelos, con lo
que el tratamiento es exactamente el mismo que el que realizamos para el caso de ondas escalares.
Considerando que los campos son paralelos, la intensidad de la onda se escribe como:
I 12 = euE 01 E 02 cos d (105)
Expresión que podemos escribir de forma más conveniente si tenemos en cuenta que:
r 1 r2
I 1 = eu E 12 = euE 01 (106)
2
r 1 r2
I 2 = eu E 22 = euE 02 (107)
2
Con estos resultados, el término de interferencia puede escribirse como:
I 12 = 2 I 1 I 2 cos d (108)
La intensidad resultante puede ser mayor, menor o igual a I1 + I2 dependiendo del valor del término de
interferencia, o lo que es lo mismo del valor de d.
En aquellos puntos del espacio en los que se satisfaga que cos d = 1 se tendrá un máximo en la
intensidad:
I máx = I 1 + I 2 + 2 I 1 I 2 (110)
las intensidades de las dos ondas por separado. Para aquellos puntos del espacio en los que se satisfa-
ce que 0 > cos d < –1 la intensidad resultante es menor que I1 + I2 y decimos que la interferencia es
destructiva. Por último, cuando cos d = –1, se tiene el valor mínimo de la intensidad:
I mín = I 1 + I 2 – 2 I 1 I 2 (112)
lo que ocurrirá cuando:
d = ±p, ±3p, … (113)
La intensidad es mínima cuando las ondas están desfasadas 180º. En este caso se dice que la interfe-
rencia es destructiva total.
Las condiciones anteriores de máximos y mínimos de interferencia se pueden escribir de otra
manera si tenemos en cuenta la relación (103):
2p f – f2
d = 2np Þ ( r – r )+ ( f 1 – f 2 ) = 2np Þ r1 – r2 = nl + 1 l (114)
l 1 2 2p
Y de la misma manera se obtiene que:
2p
d = ( 2n+1)p Þ ( r – r )+ ( f 1 – f 2 ) = ( 2n+1)p Þ
l 1 2 (115)
l f – f2
Þ r1 – r2 = ( 2n+1) + 1 l
2 2p
Si las ondas emitidas por los focos S1 y S2 están en fase, las expresiones de las condiciones de
máximos y mínimos de intensidad se simplifican:
ìnl interferencia máxima
ï
r1 – r2 = í l (116)
ï( 2n+1) interferencia mínima
î 2
Ahora bien, r1 – r2 = Cte define un hiperboloide de revolución en cuyos focos se encuentran las fuen-
tes S1 y S2 (figura 9). Los hiperboloides de amplitud máxima corresponden a r1 – r2 = nl y los de míni-
ma amplitud a r1 – r2 = (2n + 1) l/2.
Figura 9. Hiperboloides de S S´
interferencia constructiva total
(máxima) y destructiva total (mínima).
Un caso particular e interesante de lo que hemos estudiado anteriormente se tiene cuando la inten-
sidad de las ondas emitidas por los dos focos son iguales. Si en la ecuación (109) hacemos I1 = I2 = I0, la
intensidad resultante será:
d
I = 2I 0 (1+cos d ) = 4I 0 cos 2 (117)
2
de donde se obtiene que, en este caso particular, la intensidad mínima es Imín = 0 y la intensidad máxi-
ma Imáx = 4I0
s1
D
d q
R r1
æ d ö2
r22 =çx – ÷ + D 2 (121)
è 2ø
De la expresión anterior y de (116) se tiene que la condición para que exista un máximo de amplitud
en el punto P, es:
l
sen q = n (n = 0,1, 2, ...) (125)
d
Análogamente, de (116) y (124) se tiene que la condición para que exista un mínimo de amplitud
en el punto P, es:
l
sen q = ( 2n+1) (n = 0,1 2, ...) (128)
2d
-3 -2 -1 0 1 2 3
(d/l) send q
s1 r2 – r1
d r3 – r1
s2
s3 r 4– r 1
s4
s5 q
å (e id
) n– 1 =
e id – 1
= id / 2 id / 2
e [e – e – id / 2 ]
=
n= 1 (138)
sen ( Nd / 2)
= e i ( N – 1) d / 2
sen ( d / 2)
Si llamamos R a la distancia entre el centro de la línea que une las fuentes y el punto P:
N –1
R = r1 + d sen q (140)
2
En función de esta distancia R podemos expresar el campo como:
sen ( Nd / 2)
E = E 0 e i ( kR – wt) (141)
sen ( d / 2)
Si ahora tenemos en cuenta que la intensidad de cada una de las fuentes individuales viene dada por:
ue 2
I0 = E (144)
2 0
Si hacemos N = 2 se comprueba inmediatamente que esta ecuación se reduce a la dada por (118) en el
caso de dos fuentes puntuales.
La ecuación anterior la podemos expresar en función del ángulo q si sustituimos en ella la expre-
sión de d dada por (136). Haciendo esto, se tiene que:
2
ésen ( Npd sen q / l ) ù
I = I 0ê ú (146)
ë sen ( pd sen q / l ) û
3.3. Difracción
Se denomina difracción a la distorsión sufrida por las ondas en su propagación cuando se en-
cuentra un obstáculo de dimensiones comparables a la longitud de onda. Este obstáculo puede ser un
diafragma que sólo deja pasar una pequeña porción del frente de onda, o un objeto que impide el paso
de una porción del frente de onda.
A continuación vamos a analizar la difracción producida por ciertas aberturas y obstáculos de
geometría simple. Pero antes de realizar el estudio, conviene distinguir entre dos situaciones especia-
les. Si suponemos que los frentes de onda incidentes son planos y, además, el patrón de difracción se
observa a una distancia muy alejada del obstáculo, hablamos de difracción de Fraunhofer. Por el con-
trario, si los frentes de onda no son planos, o bien se observa el patrón de difracción a una distancia
pequeña del obstáculo, o ambas cosas a la vez, hablamos de difracción de Fresnel. Discutiremos sola-
mente el caso de la difracción de Fraunhofer.
El estudio del fenómeno de difracción lo vamos a realizar tomando como punto de partida el teo-
rema de Huygens-Fresnel y la fórmula integral para la difracción de Fresnel-Kirchhoff.
Para demostrar este principio o teorema calcularemos la amplitud de la onda en un punto P exte-
rior a una superficie S, a partir de la amplitud de las ondas sobre la superficie S. Esto nos permitirá
precisar lo que se entiende por “fuentes convenientemente situadas sobre la superficie”, según esta-
blece el principio anterior. Veremos que la amplitud Yp puede considerarse como la superposición de
ondas esféricas emitidas por fuentes elementales repartidas sobre la superficie S.
æ¶A ¶F ¶A ¶F ¶A ¶F ö
2ç
ç + + ÷
÷+ AÑ F = 0
2
(150)
è ¶x ¶x ¶y ¶y ¶z ¶z ø
ecuaciones que se obtienen sin más que sustituir la solución general (148) en la ecuación de onda (147).
Consideremos ahora la función auxiliar u, que es una solución particular de la ecuación de onda:
1 1
u = e i ( wt – kr) = e iwt e – ikr (151)
r r
siendo r la distancia de cualquier punto al punto P.
Tanto la función Y como u y sus derivadas primera y segunda son continuas en el volumen V li-
mitado interiormente por las superficies S y S´ y exteriormente por una superficie S¥, que supondre-
mos infinitamente alejada.
Si estas condiciones de continuidad se cumplen también en las superficies límite, podemos apli-
car el teorema de Green:
æ ¶u ¶Y ö
ò ( YÑ
V
2
u – uÑ 2 Y ) dV = – òS+ S '+ S çY – u
¥è ¶n
÷dS
¶n ø
(152)
en donde n$ es un vector unitario normal a la superficie y dirigido hacia el interior del volumen V.
De las ecuaciones (147), (148) y (151) se tiene que:
ÑY+kY=0
2 2
(153)
Ñu+ku=0
2 2
(154)
Por lo que resulta que:
YÑ u – uÑ Y = 0
2 2
(155)
La integral (152) se escribirá entonces como:
æ ¶u ¶Y ö æ ¶u ¶Y ö æ ¶u ¶Y ö
– òS 'çY – u ÷dS = òçY – u ÷dS + ò çY – u ÷dS (156)
è ¶n ¶n ø è ¶n
S ¶n ø S¥è ¶n ¶n ø
Ahora bien, la segunda integral del segundo miembro tiende a cero cuando la superficie se aleja hasta
el infinito, por lo que la relación (156) se reduce a:
æ ¶u ¶Y ö æ ¶u ¶Y ö
– òS 'çY – u ÷dS = òçY – u ÷dS (157)
è ¶n ¶n ø Sè ¶n ¶n ø
Calculemos ahora la integral del primer miembro de (157). Teniendo en cuenta la expresiónde u dada
por (151), la derivada de u en la dirección normal a la superficie (en S´ la dirección normal es la direc-
ción de r) vendrá dada por:
¶u ¶u 1 æ 1ö
= = – iku – u = –çik + ÷u (158)
¶n ¶r r è rø
Como la superficie S´ es una superficie esférica con centro en el punto P, u y ¶u/¶n son constantes. Si
tomamos ahora los valores medios de Y y ¶Y/¶n, tendremos que:
æ ¶u ¶Y ö æ 1ö ¶Y
– òS 'çY – u ÷dS = 4pr02ç
ç ik + ÷ ÷u Y + 4pr0 u 0
2
=
è ¶n ¶n ø è r0 ø 0 ¶n (159)
é ¶Y ù i ( wt – kr0 )
= 4pêir0 kY + Y + r0 úe
ë ¶n û
Esta relación es la expresión matemática del teorema de Huygens-Fresnel, y muestra que la intensidad
de la onda en el punto P se puede considerar como la superposición de dos tipos de ondas secundarias
esféricas emitidas por cada uno de los puntos de la superficie S: ondas isótropas de amplitud YI:
1 ¶Y
YI = dS (164)
4pr ¶n
y ondas anisótropas de amplitud YA:
1 1
YA = Y k 2 + 2 cos q r dS (165)
4pr r
en donde la directividad de estas fuentes de ondas viene expresada por cos qr. En estos términos, el
teorema de Huygens-Fresnel puede escribirse como:
YP = – òSYI e – ikr dS – òSYA e – ikr dS (166)
La derivada con respecto a la normal a la superficie la podemos escribir como (figura 14):
¶YS ¶YS ¶r ¶YS æ 1ö Y0 i ( wt – kr)
= = cos( n, r ) = –ç
çik + ÷÷cos q r e (168)
¶n ¶r ¶n ¶r è r ø r
(n, r)
(n, r)
n
®
r P
®
r
Figura 14. Esquema para la
determinación de la fórmula de la
difracción de Fresnel-Kirchhoff. P0
Sustituyendo esta expresión en (163) y teniendo en cuenta que r >> l y r >> l, por lo que pode-
mos despreciar los términos 1/r y 1/r frente a k, se tiene que:
i Y0 iwt e – ik ( r+ r)
YP = – e òS [cos( n, r ) – cos( n, r )] dS (169)
2l rr
en donde:
cos(n,r) = cos qr (170)
cos(n, r) = cos qr (171)
La expresión (169) es la fórmula integral de Fresnel-Kirchhoff.
Si la superficie S es una superficie o frente de onda, el teo-
rema de Huygens-Fresnel permite prever lo que ocurrirá con
Frente de ondas
esta superficie al cabo de un tiempo Dt. Si consideramos las en un instante posterior
ondas esféricas secundarias de radio uDt emitidas por las fuen-
tes secundarias situadas sobre el frente de onda, la envolvente Frente de ondas
de estas ondas es, necesariamente, el nuevo frente de ondas. secundario
Por tanto, el teorema de Huygens-Fresnel nos proporciona un
método cualitativo para determinar la propagación de los fren-
tes de onda (figura 15).
El teorema de Huygens-Fresnel es de gran utilidad para Frente de ondas
estudiar los fenómenos de difracción por una pantalla o dia- primario
fragma, así como para el estudio de la emisión de ondas por
fuentes extensas.
Figura 15. Evolución de un frente
Un caso particular muy importante, por su utilidad, es de ondas a partir de las ondas
aquél en el que la distancia de la fuente al punto P es muy gran- secundarias emitidas por él en un
de comparada con la longitud de la onda l de la onda emitida instante de tiempo dado.
por la fuente. En estas condiciones, vamos a tomar como superficie S una superficie de onda suficien-
temente alejada de la fuente con relación a las dimensiones de ésta. Esta superficie es prácticamente
esférica y el caso es análogo al de una fuente puntual situada en el punto O, siendo S una superficie de
onda (figura 16).
q r
r0
P
En este caso, cos(n, r) = 1. Por otro lado, si llamamos q = p – (n, r) y r0 al radio de la superficie
esférica S, la integral de Fresnel-Kirchhoff se reduce a:
i Y0 i ( wt – kr0 ) e – ikr
YP =
2lr 0
e òS r
(1+cos q ) dS (172)
Este resultado es igual que el que obtendríamos si tuviésemos una fuente de ondas secundarias
en cada elemento de superficie dS emitiendo hacia el punto P ondas esféricas de la forma:
i e – ikr
dYP =+ (1+cos q )Y0 dS (173)
2lr0 r
i Y0 iwt e – ik ( r+ r)
YP = – e òS [cos( n, r ) – cos( n, r )] dS (174)
2l rr
Para ello, supongamos una pantalla con una abertura como la mostrada en la figura 17.
r Q
P0 r
P
r´ r´
Conforme nos trasladamos sobre la superficie el factor e–ik(r+r) oscila muy rápidamente. Por otro
lado, si las distancias de los puntos P0 y P a la pantalla son muy grandes comparadas con las dimen-
siones de la apertura, el término cos(n, r) – cos(n, r) variará muy poco sobre la abertura. Además, su-
pondremos que si Q es cualquier punto de la pantalla, los ángulos que las líneas P0Q y QP forman con
la línea que une P0 con P son pequeños. Podemos reemplazar este término por 2cos d, siendo d el án-
gulo que forma la línea P0P con la normal a la pantalla. Por último, supondremos que para cualquier
punto de la pantalla, se tiene que r = r´ y r = r´, siendo r´ y r´ las distancias de P0 y P al origen de la
pantalla. Con estas suposiciones, la integral anterior se escribe como:
i Y0 e iwt cos d
YP = –
lr' r'
òe S
– ik ( r+ r)
dS (175)
Tomemos un sistema de referencia cartesiano con origen en la pantalla, tal como se muestra en la fi-
gura. Si (x0, y0, z0) y (x, y, z) son las coordenadas de P0 y P y (x, h) las del punto Q, se tiene que:
r 2 = ( x 0 – x ) 2 + ( y 0 – h ) 2 + z 02 (176)
r 2 = (x – x )2 + ( y – h )2 + z 2 (177)
r' 2 = x 02 + y 02 + z 02 (178)
r' 2 = x 2 + y 2 + z 2 (179)
Puesto que asumimos que las dimensiones de la abertura son pequeñas podemos escribir las ecuacio-
nes anteriores como un desarrollo en series en x/r´, h/r´, x/r´ y h/r´. Se tiene que:
x0 x + y0 h x 2 + h 2 ( x0 x + y0 h ) 2
r = r'– + – –... (182)
r' 2r' 2r' 3
xx + yh x 2 + h 2 ( xx + yh ) 2
r = r'– + – –... (183)
r' 2r' 2r' 3
Sustituyendo estas expresiones en la ecuación integral, se tiene que:
donde:
x 0 x + y 0 h xx + yh x 2 + h 2 x 2 + h 2
f (x, h )= – – + + –
r' r' 2r' 2r'
(185)
( x0 x + y0 h ) 2
( xx + yh ) 2
– – –...
2r' 3
2r' 3
Si llamamos:
x0 y0
l0 = – m0 = – (186)
r' r'
y
x y
l= m= (187)
r' r'
1éæ 1 1 ö ( l0 x + m0 h ) 2 ( lx + mh ) 2 ù
f ( x , h ) = ( l0 – l )x + ( m0 – m )h+ êç
ç + ÷ ÷( x + h ) –
2 2
– +...ú (188)
2ëè r' r' ø r' r' û
1 æ 1 1ö 2 ( l0 x + m0 h ) 2 ( lx + mh ) 2
kç
ç + ÷ ÷( x + h ) –
2
– << 2p (189)
2 è r' r' ø r' r'
Si tenemos en cuenta que (l0x + m0h)2 £ ( l02 + m02 ) (x2 + h2) y recordamos que l02 , m02 , l2, y m2 son me-
nores o iguales que la unidad, la desigualdad anterior se satisface si:
( x 2 + h 2 ) máx ( x 2 + h 2 ) máx
|r’| >> y |r´| >> (190)
l l
o bien si:
1 1 | r' | l
+ =0 y l02 , m02 , l 2 , m2 << (191)
r' r' ( x + h 2 ) máx
2
Estas condiciones dan una estimación de las distancias a las que puede utilizarse la simplificación de
Fraunhofer.
Para la difracción de Fraunhofer, si hacemos:
p = l – l0 q = m – m0 (192)
r r
P0 P
r´=R
r´
z
a b
y
Según el estudio realizado en el apartado anterior, el campo en un punto P vendrá dado por:
y y
q = m – m0 = + 0 (196)
r' r'
siendo b = kpb/2.
æsen a ö2æsen b ö
2
I = I0ç ÷ ç
ç ÷
÷ (202)
è a øè b ø
q y
0 1
4,493 0,04718
7,725 0,01694
10,90 0,00834
14,07 0,00503
æ sen q ö2
Tabla 1. Los cinco primeros máximos de la función y =ç ÷.
è q ø
En la figura 20 se representa esta intensidad en función del ángulo a y los resultados de un expe-
rimento de difracción con luz.
(d/l)sen q
-3 -2 -1 0 1 2 3
Figura 20. Patrón de difracción
producido por una rendija larga
y estrecha.
P0 r r P
r´ j
h
q r´=R w
F z
Si suponemos que el punto fuente se encuentra en el eje, tal como vimos anteriormente se tiene que:
x
p = l – l0 = (207)
R
y
q = m – m0 = (208)
R
Por otra parte, vamos a escribir las coordenadas del punto P como:
0
e ( ikhw / R) cos( j –F) hdhdj (212)
Ahora bien, sabemos que la función de Bessel Jn(x) viene dada por:
i–n
ò
2p
J n (x )= e ix cos a e ina da (213)
2p 0
Por tanto:
1 2p ix cos a
J 0 (x )= ò e da
2p 0
(214)
Utilizando las funciones de Bessel, la ecuación del campo se puede escribir como:
Por otra parte, se tiene la relación de recurrencia para las funciones de Bessel:
d n+ 1
[ x J n+ 1 ( x )] = x n+ 1 J n ( x ) (216)
dx
ò
x
0
x' J 0 ( x' )dx' = xJ 1 ( x ) (217)
0 1 M
3,833 0 m
5,136 0,0175 M
7,016 0 m
8,147 0,0042 m
10,174 0 m
11,620 0,0016 M
æ 2 J (x ) ö2
Tabla 2. Primeros máximos y mínimos de la función de Bessel y =ç 1 ÷ .
è x ø
En función del ángulo q (ver la figura), puesto que sen q = w/R, la intensidad se escribe como:
2
é 2J ( ka sen q ) ù
I = I 0ê 1 ú (220)
ë ka sen q û
I
I0
ka sen q
El máximo central corresponde a una zona circular de gran intensidad que se conoce con el nom-
bre de disco de Airy, en honor de George Biddell Airy (1801-1892) que fue quien dedujo por primera
vez la ecuación (220). Este disco central está rodeado por un anillo oscuro que corresponde al primer
mínimo de la función de Bessel [2J1(kasenq)/(kasenq)]2. En la tabla 2 se muestran los valores de los
máximos y mínimos de esta función.
La mayor parte de la energía se encuentra contenida en un cono de ángulo q, tal que:
1 l l
sen q = 3,83 = 3,83 = 1,22 (221)
ka 2pa d
4.1. Iluminantes
De la experiencia cotidiana sabemos que una tela vista en el interior de una tienda no presenta el
mismo color cuando se la ve a la luz del sol. Es decir, que el color de un objeto depende de la composi-
ción espectral de la luz con la que se ilumina. Por tanto, antes de definir un color, será necesario espe-
cificar la composición o tipo de luz con la que se van a iluminar los objetos. Con este objeto, se ha
definido internacionalmente unos iluminantes patrones denominados A, B, C, D y E.
Estos iluminantes son:
– Iluminante A: la luz de una lámpara incandescente con filamento de wolframio a una tem-
peratura de color de 2856 K. Por temperatura de color se entiende aquella en la que una
fuente tiene la misma composición espectral que la de un cuerpo negro a esa misma tempe-
ratura.
Los demás iluminantes patrones se obtienen utilizando el iluminante A junto con determi-
nados filtros para modificar su temperatura de color.
será uno determinado) por ejemplo e igualar la mezcla a una combinación de los dos restante prima-
rios. Denominando con primas a las cantidades de cada una de las luces, podremos escribir que:
l´ + c´ = m´ + n´ (227)
O lo que es lo mismo:
c´ = –l´ + m´ + n´ (228)
De esta manera hemos introducido una cantidad negativa de un color primario. Evidentemente esto no
significa que restemos una cantidad de luz roja a la suma de una azul y otra verde, lo que es imposible,
sino que la igualdad se satisface añadiendo la cantidad de rojo a la luz del primer miembro. Así es como
deben entenderse en todo caso los signos negativos que aparezcan en una ecuación tricromática.
Por consiguiente, para especificar un color son necesarios y suficientes tres números. Al igual
que un punto en el espacio está especificado por tres números que dependen del sistema de coordena-
das utilizado, en la teoría tricromática un color está especificado por tres números. Estos numeros
pueden ser la cantidad de luz de los colores primarios, pero también podemos especificar un color
dando su luminancia, su longitud de onda predominante y su saturación o pureza espectral.
En muchos casos prácticos lo que nos interesa no son las cantidades absolutas de los colores pri-
marios, sino sus proporciones relativas, es decir, lo que nos interesa es la cromaticidad y no la lumi-
nancia. Dividiendo la ecuación tricromática por la suma l + m + n se tiene que:
r+u+a=1 (229)
en donde:
l m n
r= u= a= (230)
l+ m+ n l+ m+ n l+ m+ n
se denominan coeficientes tricromáticos del color C, y a la ecuación (229) ecuación unitaria del color.
Señalar que la división por una constante en los dos miembros de la ecuación tricromática signi-
fica solamente una reducción del flujo de luz, por lo que la cromaticidad de la mezcla no se altera.
V
1
0,8
C1
0,6
0,4
0,2 C2
0 R
Figura 23. Representación
A 0 0,2 0,4 0,6 0,8 1 de cromaticidades.
Supongamos ahora que se mezclan dos colores que vienen dados por las ecuaciones unitarias:
1 C 1 = r 1R + u 1V + a 1A (231)
1 C2 = r2R + u2V + a2A (232)
El color de la mezcla vendrá dado por la suma de los dos colores, por consiguiente, sumando las ecua-
ciones anteriores, se tiene que:
2 C = (r1 + r2)R + (u1 + u2)V + (a1 + a2)A (233)
Por tanto, la ecuación unitaria del nuevo color se obtendrá dividiendo por dos la ecuación anterior:
r1 + r2 u +u2 a + a2
1C = R+ 1 V+ 1 A (234)
2 2 2
Vemos que las coordenadas del nuevo color corresponden al punto medio del segmento de línea que
une los colores C1 y C2. De esta forma, en el ejemplo anterior la mezcla tendría como coordenadas
(0,4, 0,4).
Si la mezcla de los colores se hace en distintas cantidades, por ejemplo si mezclamos p cantidad
del color C1 y q del C2 el color resultante tendrá como coordenadas:
pr1 + qr2 pu 1 + qu 2
r= u= (235)
p+ q p+ q
El color resultante se encuentra en la línea que une los dos colores como se muestra en la figura 24. De esta
figura se obtiene que:
V
CC 1 p
= (236)
CC 2 q
u1 C1
C
La mezcla de dos colores siempre da en el diagrama otro co-
lor alineado con ellos. Este resultado se aplica también a la mezcla u 2
de tres o más colores, por lo que podemos concluir que la mezcla C2
aditiva de los tres colores primarios son colores que están repre-
sentados por puntos situados en el interior del triángulo definido 0 R
r1 r2
A
por los colores primarios.
De lo que acabamos de ver, puesto que un color es la mezcla Figura 24. Representación de
de dos colores alineados con él y en cantidades inversas a su dis- la mezcla de dos colores.
tancia de separación con respecto al color de la mezcla, resulta que
un color puede formarse de infinitas maneras.
Un color espectral puro no puede obtenerse por la adición de V
los colores primarios. Pero tal como vimos, este color puro puede
mezclarse con un primario de manera que la mezcla puede expre-
sarse como una combinación de los dos restantes primarios. Esto
significa que la ecuación unitaria de un color espectral puro siempre
tendrá una componente primaria negativa y por tanto su representa-
ción caerá fuera del triángulo de primarios. La curva definida por C
todos los colores puros del espectro se denomina lugar del espectro.
Esta curva pasa, evidentemente, por los vértices del triángulo, pues
allí es donde se encuentran los primarios puros (figura 25). R
A
De la figura y de la discusión anterior sobre mezcla de colores
se deduce que todos los colores representados en el interior del área Figura 25. Lugar del espectro.
limitada por la curva y el eje AR pueden obtenerse por mezcla aditiva de dos colores espectrales puros o
de la mezcla de un color espectral puro y uno púrpura (del eje AR), como ocurre con el color C. Los pun-
tos que se encuentran en el plano y que no pertenecen a esta superficie no son colores reales.
Por otra parte, podemos observar que una elección adecuada de los tres colores primarios permi-
te obtener una gran cantidad de colores reales. Así, con la elección del rojo, el verde y el azul, se pue-
den obtener por mezcla aditiva todos los colores del triángulo, es decir, sólo aquellos de la zona
sombreada no pueden obtenerse mediante una mezcla aditiva.
Una elección de los colores C1, C2 y C3 sólo nos permitiría obtener por mezcla aditiva los colores
incluidos en el triángulo con vértice en dichos colores (figura 26).
C2
C1
C3
Figura 26. Una selección adecuada
de los primarios permite obtener a
partir de ellos la mayoría de los
A R
colores naturales.
Las componentes tricromáticas R, G y B del sistema se eligieron de manera que el iluminante pa-
trón E ocupara el centro de gravedad del triángulo de primarios. Es decir, de manera que la ecuación
unitaria correspondiente a este color fuese:
Es decir, que tomando la misma cantidad de cada uno de los primarios se obtuviese luz blanca. Para
que esto sea así, las unidades de flujo de cada color deben ser, para las luces roja, verde y azul, las si-
guientes:
LR = 1 (238)
LG = 4,5907 (239)
LB = 0,0601 (240)
Con estas unidades, los valores de los flujos F de cada una de las luces vienen dados por:
FR
R= (241)
LR
FG
G= (242)
LG
FB
B= (243)
LB
0,4
r ( l)
b ( l)
g ( l)
0,2
Como acabamos de ver, en el sistema RGB algunos coeficientes tricromáticos y valores triestí-
mulo son negativos. Esta circunstancia era una fuente de errores en los cálculos colorimétricos. Con
el fin de evitar este inconveniente la CIE (Comisión Internacional de Iluminación) adoptó un nuevo
sistema denominado sistema internacional de especificación XYZ o sistema CIE. Según este sistema
se eligen tres primarios X, Y, Z de manera que el triángulo definido por estos contenga al lugar del es-
pectro y a todos los colores reales. Para ello, se eligen de manera que las líneas XY e YZ sean tangentes
al lugar del espectro del diagrama RGB. Sin embargo, esta elección lleva a que los estímulos XYZ co-
rrespondan a estímulos irreales. No obstante, esto no es ningún inconveniente, ya que no se trata de
utilizarlos como estímulos físicos para la producción de colores, sino como un sistema útil y eficaz
para la especificación de los colores.
La transformación entre dos sistemas de especificación puede hacerse mediante la expresión de un
conjunto de primarios en función de los otros. Estas relaciones entre el sistema XYZ y RGB son:
X Y Z
x= y= z= (249)
X +Y + Z X +Y + Z X +Y + Z
y
0,8 520
550
505 570
0,6
500
495
0,4 590
700
490
0,2
400
x
0,0 0,2 0,4 0,6 0,8
Utilizando estas coordenadas cromáticas el nuevo diagrama cromático queda como se muestra
en la figura 29. Los colores reales corresponden al área encerrada por la figura.
Los valores triestímulo espectrales en el sistema XYZ se muestran en la figura 30, y como vemos
son siempre positivos.
z ( l)
2
y ( l) x ( l)
1
x ( l)
X = ò x l Pl d l (250)
Y = ò y l Pl d l (251)
Z = ò z l Pl d l (252)
Puesto que las funciones de los valores triestímulos espectrales representados en la figura 30 no
son funciones analíticas, estas integrales habrán de hacerse numéricamente. Una vez determinados
los valores de X, Y y Z, mediante las expresiones (249) se determinan los valores de los coeficientes
tricromáticos o coordenadas tricromáticas.
grado de aproximación de este color al del espectro que corresponde a su longitud de onda dominan-
te. Por tanto, la pureza del C1 vendrá dada por:
y EC 1
0,8 520 Cl p= (253)
EC l
550
505 570
0,6
Otros colores, como por ejemplo el C2 no puede
500 C1 obtenerse como mezcla de blanco E y un color puro.
495
Sin embargo, sí puede obtenerse como resultado de la
590
0,4
E mezcla de blanco E y un color púrpura P. En este
700 caso se define la pureza como:
490 C2
P
0,2 EC 2
p= (254)
EP
400 x
0,0
0,0 0,2 0,4 0,6 0,8 Los colores alineados con el blanco E son los
únicos que mezclados en proporciones adecuadas
Figura 31. Determinación de la pureza de un pueden dar blanco. A esos colores se les denomina
color. colores complementarios.
5. ESPECTROFOTOMETRÍA
Los objetos los vemos debido a la luz que reflejan. Por consiguiente, y de acuerdo con la defini-
ción de color dada por el Comité de Colorimetría, no es rigurosamente correcto atribuir un color a un
objeto, sino a la luz reflejada por él. El color de esta luz reflejada depende de la luz incidente y del
proceso concreto en que se modifique el color en el proceso de reflexión, ya que los objetos no refle-
jan de manera uniforme todas las componentes del espectro. La fracción de luz que refleja un objeto
se denomina factor de reflexión o factor de reflectancia Rl y es una función de la longitud de onda.
Decimos por tanto que la reflexión en los objetos es una reflexión selectiva.
Los diferentes métodos para determinar el factor de reflexión de un objeto en cada una de las lon-
gitudes de onda del espectro constituyen una rama de la ciencia que se denomina espectrofotometría.
Fuente
Dectector
Monocromador
Muestra Muestra
Ordenador Figura 32. Esquema de un
estándar espectrofotómetro.
La muestra patrón de referencia suele ser una muestra blanca como óxido de magnesio o sulfato
de bario, a los que se les asigna un factor de reflexión igual a uno para todas las longitudes de onda del
espectro visible. Para obtener la curva del factor de reflexión espectral Rl por comparación con la de
referencia se suele dividir el espectro en 40 intervalos de longitudes de onda.
Una vez que se ha determinado el factor de reflexión espectral Rl, si denominamos Pldl el flujo
radiante incidente, el flujo radiante reflejado será RlPldl, y por consiguiente, los valores de los estí-
mulos X, Y y Z serán:
X = ò x l R l Pl d l (255)
Y = ò y l R l Pl d l (256)
Z = ò z l R l Pl d l (257)
A partir de ellos, mediante las expresiones (249) se determinan las coordenadas tricromáticas de la luz
reflejada por el objeto.
BIBLIOGRAFÍA
28
Desarrollo histórico de la
unificación de la electricidad,
el magnetismo y la óptica
ÍNDICE SISTEMÁTICO
2. ANTECEDENTES HISTÓRICOS
2.1. Desde la antigua Grecia hasta la Edad Media
2.1.1. Grecia Antigua
2.1.2. Período helenístico
2.1.3. La Edad Media
2.2. Avances de la electricidad, el magnetismo y la óptica desde la Edad Media
hasta el siglo XVIII
2.2.1. La electricidad y el magnetismo
2.2.2. Desarrollo de la óptica
BIBLIOGRAFÍA
permitió interpretar a ésta como una onda electromagnética de frecuencias determinadas. Ahora bien,
una predicción de este tipo debía ser comprobada experimentalmente, algo que sucedió posterior-
mente con el descubrimiento de las ondas por Hertz y lo que supuso la aceptación de una de las más
grandes teorías de la historia de la física clásica.
2. ANTECEDENTES HISTÓRICOS
En esta sección vamos a exponer los descubrimientos y avances realizados en electricidad, mag-
netismo y óptica, así como las explicaciones teóricas desarrolladas en estos campos, desde la antigüe-
dad hasta el comienzo del siglo XIX en el que se produjo la primera unificación de la electricidad y el
magnetismo, y cuando quedó demostrada de forma definitiva la naturaleza ondulatoria de la luz.
zado en óptica geométrica por Roberto Grosseteste (1175-1253) de la Escuela de Oxford y su discípu-
lo el franciscano Roger Bacon (1214-1294). Merece especial mención el trabajo experimental, proba-
blemente el mejor de su época, realizado por el alemán Dietrich de Friburgo (c. 1250-c. 1311). Este
fraile dominico estudió metódicamente la reflexión y refracción de la luz en gotas esféricas, lo que le
permitió desarrollar las teorías correctas sobre la formación del arco iris primario y secundario. Otros
trabajos relevantes fueron los de Pierre de Maricourt (Petrus Peregrinus) quien en 1269 escribió su
Epístola de magnete en la que describe brillantes experimentos realizados con imanes, enseña a deter-
minar los polos del imán y enuncia la ley de atracciones y repulsiones entre ellos.
problema construyó imanes esféricos, sus “terrellas” (Tierras pequeñas) y estudió el comportamiento
de pequeñas agujas imantadas que ponía en posiciones distintas a diferentes distancia y dirección, con
respecto a las esferas. De esta manera, pudo observar que en un punto existía una atracción máxima de
un extremo de la aguja y que en el punto opuesto la atracción era máxima sobre el otro extremo. Tam-
bién observó que en los distintos puntos de la esfera la aguja se orientaba en la dirección de un círculo
máximo que enlazaba los dos puntos de máxima atracción. Esto era lo que ocurría precisamente con las
agujas de las brújulas en los distintos puntos de la Tierra, por lo que Gilbert concluyó que la Tierra pue-
de ser considerada como un gran imán. Por lo demás, los intentos de explicar el movimiento de los pla-
netas mediante las fuerzas magnéticas fracasaron por completo.
También puede considerarse que la teoría moderna de la electricidad tuvo sus comienzos con los
trabajos realizados por Gilbert. Aunque su libro De Magnete estaba dedicado fundamentalmente al es-
tudio de los fenómenos magnéticos, el capítulo dedicado a los fenómenos eléctricos puede considerarse
como el primer tratado importante sobre la electricidad. Gilbert introdujo el término eléctrico para de-
nominar la fuerza entre objetos cargados mediante fricción Para estudiar estos fenómenos eléctricos,
ideó el primer instrumento eléctrico denominado electroscopio, que consiste en un recipiente en cuyo
interior se encuentran dos hojas metálicas (normalmente de oro) que pueden moverse. Por medio de un
conductor se conecta estas hojas a una bola metálica colocada sobre la parte exterior del dispositivo y
aislada de éste. Cuando se acerca un objeto cargado a la esfera las hojas metálicas se separan. Gilbert
observó que había muchas sustancias, aparte del ámbar, que cuando se frotaban con un paño producían
el mismo efecto en el electroscopio. No obstante, un tipo de sustancia, como los metales, se resistía a
este proceso de electrificación. Cien años más tarde se comprobó que este tipo de sustancia son lo que
llamamos sustancias conductoras, en las que la carga eléctrica puede fluir libremente. Por esto, al frotar
una sustancia conductora la electricidad se escapa a través de la mano. También observó una de las
principales diferencias entre las fuerzas eléctricas y magnéticas: mientras que la fuerza entre objetos
magnéticos tiende a alinear los objetos uno respecto al otro y afectan ligeramente a los objetos, la fuerza
entre objetos electrificados es una fuerza de atracción o repulsión y afecta enormemente a la materia.
Gilbert consideró que la electrificación de los cuerpos, por frotación, se debía a la disminución de un
fluido, lo que producía una atmósfera o efluvio a su alrededor. Observemos la semejanza entre la des-
cripción de Gilbert y las ideas modernas sobre la electrificación de los cuerpos sin más que sustituir el
líquido por la carga eléctrica, y los efluvios o atmósfera por el campo eléctrico.
Los progresos realizados en el campo de la electricidad y el magnetismo tuvieron un ritmo lento
durante todo el siglo XVIII. Esto se debió fundamentalmente a dos motivos: la complejidad de los ex-
perimentos y la falta de instrumentos adecuados, además de la tendencia de los físicos de la época a
recurrir a explicaciones mecánicas mediante el uso de fluidos y torbellinos.
Aunque la primera máquina para generar electricidad fue construida en 1663 por el físico e inge-
niero alemán Otto von Guericke, parece que tanto esta máquina electrostática como los experimentos
de Guericke pasaron desapercibidos a sus sucesores. Esto podría explicar también el largo espacio de
tiempo entre los trabajos de Guericke y los primeros trabajos del siglo XVIII. De cualquier forma, el
estudio de la electricidad fue desarrollándose y adquiriendo más popularidad conforme se construye-
ron mejores fuentes de carga eléctrica.
Entre los primeros investigadores en el campo de la electricidad encontramos a Stephen Gray
(c. 1670-1736). Este químico británico demostró experimentalmente que la electricidad podía trans-
portarse de un lugar a otro mediante hilos metálicos o hilos mojados. No obstante, esta propiedad de
transporte de la electricidad se reducía a un tipo de sustancia y Gray estableció así la diferencia entre
sustancias conductoras y aislantes, atendiendo a su capacidad de transmitir la electricidad.
Charles François de Cisternay du Fay (1698-1739) demostró que incluso las sustancias conduc-
toras podían electrificarse por frotamiento o fricción siempre que se colocasen en un soporte aislante.
Por otra parte, en 1733, Du Fay descubrió que la electrificación producida en los cuerpos por frotación
era de dos tipos. Esta conclusión fue el resultado de una experiencia sencilla. En primer lugar electrificó
una lámina de oro de un electroscopio tocándola con una varilla de vidrio frotada con seda. Acercando
después la varilla a la lámina se veía que ambas se repelían. Pero Du Fay observó que si se acercaba a la
lámina de oro una varilla de ámbar frotada con lana, en contra de lo esperado, estas se atraían. De forma
análoga, una lámina de oro tocada en primer lugar por una varilla de ámbar, era repelida por esta varilla
y atraída por una varilla de vidrio frotada con seda. Du Fay denominó al tipo de electricidad de la varilla
como vítrea y al de la resina como resinosa. A partir de este hecho, desarrolló una teoría según la cual
todos los cuerpos tienen cantidades iguales de dos fluidos sin peso: la electricidad vítrea y la resinosa.
Estos fluidos eran tales que se autorrepelen pero se atraen mutuamente entre ellos, de manera que sus
efectos se neutralizan en los cuerpos normales. Sin embargo, la fricción separa los dos fluidos en una
cuerpo y lo deja desequilibrado, de manera que puede atraer o repeler a otros cuerpos.
Uno de los descubrimientos más importantes del siglo XVIII en el campo de la electricidad fue el
de la botella de Leyden, un dispositivo para almacenar electricidad estática, que fue inventado, al pare-
cer de forma accidental, por el físico holandés Pieter van Musschenbroek (1692-1761). (De forma in-
dependiente a este profesor de la universidad de Leyden, de aquí el nombre del dispositivo, también fue
descubierto por el alemán Ewald Georg von Kleist.) El primer prototipo de la botella de Leyden consis-
tía en un recipiente de cristal lleno parcialmente de agua. El recipiente estaba tapado por un corcho atra-
vesado por una varilla de metal que se sumergía parcialmente en el agua. El otro extremo de la varilla se
conectaba a un dispositivo para producir electricidad estática, y de esta manera se almacenaba gran can-
tidad de carga en la botella. Esto quedaba demostrado porque al acercar la mano a la varilla se experi-
mentaba un violento shock. La botella de Leyden fue el primer condensador construido y su descubri-
miento fue de gran importancia para el desarrollo de los experimentos eléctricos.
Otro científico que contribuyó de forma significativa al desarrollo de la electricidad fue el ame-
ricano Benjamin Franklin (1706-1790) que destacó por sus importantes contribuciones a la ciencia
experimental. En 1747 Franklin inició sus experimentos sobre la electricidad. Defendió la hipótesis
de que las tormentas son un fenómeno eléctrico y en 1752 demostró que los rayos eran un ejemplo de
conducción eléctrica con su famoso experimento en el que hizo volar una cometa en medio de una
tormenta. Por medio de hilo bramante húmedo unido a una llave transportó carga eléctrica de una
nube, a través de los rayos, a una botella de Leyden, utilizando luego la carga acumulada en sus expe-
rimentos. Por otra parte, Franklin enunció la ley que conocemos ahora como ley de conservación de
la carga que establece que la carga eléctrica total de un sistema islado, entendiendo como tal la suma
algebraica de la carga positiva y negativa presente en un instante dado, no varía nunca. En lo que se
refiere a los aspectos teóricos de la electricidad, estuvo en desacuerdo con la teoría de los dos fluidos
de Du Fay, e, independientemente de William Watson, propuso que la electricidad consistía en dos
estados de un solo fluido: la electricidad vítrea es el exceso de una cierta cantidad normal de un solo
fluido, mientras que la electricidad resinosa era una deficiencia de este fluido. Por esta razón, Benja-
min Franklin propuso denominar positiva a la electricidad vítrea y negativa a la electricidad resinosa.
La teoría de un solo fluido dominó el estudio de la electricidad durante los siguientes cien años y era
esencialmente correcto, si tenemos en cuenta que la corriente eléctrica es el resultado del flujo de
electrones. Por otra parte, si tenemos en cuenta que la partículas fundamentales tienen carga positiva
y negativa, la visión de Du Fay, en este sentido, era correcta.
Entre los primeros trabajos realizados en el campo del magnetismo durante el siglo XVIII mere-
ce destacar el de John Michell (1724-1793). En 1750 publicó su Tratado de los imanes artificiales,
considerado el primer avance importante del magnetismo en dicho siglo. Afirmó que los polos del
imán atraen o repelen de la misma forma a distancias iguales en cualquier dirección y que las atrac-
ciones y repulsiones disminuían con el cuadrado de la distancia. Construyó una balanza para demos-
trar estas afirmaciones, pero al igual que le ocurrió a Priestley con su ley para la electricidad, sus ex-
perimentos no fueron lo suficientemente precisos para poder concluir la verdad de la dependencia
con la distancia de la interacción magnética.
En 1767 Joseph Priestley (1733-1804) escribió su History and Present State of Electricity en el
que resumía todo el conocimiento sobre electricidad hasta su tiempo. Priestley repitió uno de los ex-
perimentos de Franklin en el que se colocaban pequeños corchos en el interior de un recipiente metá-
lico electrificado. La ausencia de atracción o repulsión en los corchos ponía en evidencia la ausencia
de carga en el interior del recipiente. Esto le recordó que según la ley de Newton no hay gravitación
en el interior de una esfera hueca, y de aquí dedujo que la ley de la fuerza entre cargas eléctricas debe-
ría ser semejante a la ley para la fuerza gravitatoria: la fuerza debería ser inversamente proporcional a
la distancia al cuadrado de los objetos. Priestley escribe:
¿No puede inferirse de este experimento que la atracción de la electricidad está
sometida a las mismas leyes de la gravitación y que sigue, por consiguiente, los cua-
drados de las distancias, puesto que puede demostrarse que si la Tierra fuera una esfe-
ra hueca un cuerpo que estuviera en su interior no sería atraído hacia un lado más que
hacia otro?
Aunque su frase la pone entre interrogantes, Priestley fue, sin duda, el primero en deducir la de-
pendencia con la distancia de la fuerza eléctrica. Esta ley fue confirmada experimentalmente por Henry
Cavendish (1731-1810) en 1771, pero sus resultados no fueron publicados hasta 1789. Durante ese
tiempo muchos físicos dedicaron su esfuerzos a estudiar de forma cuantitativa las fuerzas electromag-
néticas. Uno de ellos fue Charles Agustin de Coulomb que desarrolló su ley como consecuencia de sus
intentos de investigar la validez de la ley descriptiva formulada por Joseph Priestley. Para ello constru-
yó una balanza de torsión muy sensible que le permitía medir fuerzas muy pequeñas. En 1785 publicó
varias memorias en las que describe la construcción y uso de una balanza eléctrica y en las que enunció
su ley para la fuerza eléctrica que establecía que la fuerza entre dos cargas eléctricas era proporcional al
producto de las cargas e inversamente proporcional al cuadrado de la distancia que las separa. Coulomb
procedió entonces a elaborar una teoría matemática de la fuerza eléctrica y su trabajo contribuyó a esta-
blecer las bases para que la electricidad fuese una ciencia matemática. La labor de Coulomb fue conti-
nuada por un grupo de matemáticos de gran relevancia como Siméon-Denis Poisson (1781-1840),
George Green (1793-1841) y Carl Friedrich Gauss (1777-1855), los cuales desarrollaron la teoría
del potencial y la aplicaron a la electricidad y el magnetismo.
dos de la época y sus ideas dominaron el pensamiento del siglo XVIII hasta la aparición de la obra de
Newton. Una consecuencia de los principios filosóficos de Descartes fue su teoría de la luz. A partir
de la idea de que la materia es esencialmente extensión, y recíprocamente toda extensión es materia,
Descartes concibe el universo como una yuxtaposición de materias más o menos sutiles. Esta concep-
ción le sirve de base para elaborar su teoría sobre la luz que expone en su libro La Dioptrique (1637),
en el que podemos leer:
...[la luz] no es otra cosa que un cierto movimiento o una acción concebida en
una materia muy sutil, la cual llena los poros de todos los otros cuerpos...
A partir de este modelo Descartes dedujo la ley de la refracción descubierta empíricamente por
Snell. Sin embargo, para su deducción, Descartes tuvo que acudir a la hipótesis de que la luz viajaba
más rápida en los medios más densos, como el agua, que en el aire, lo que fue ampliamente criticado
por ser antinatural. Uno de los detractores de la teoría de Descartes fue Pierre Fermat (1601-1665) el
cual, a partir de su principio extremal o del mínimo tiempo, consiguió demostrar la ley de la refrac-
ción admitiendo que la luz se propaga en los medios densos más lentamente que en el aire. Este resul-
tado se oponía a la teoría corpuscular de la luz mientras que se mostraba de acuerdo con las teorías
que consideraban la luz como una acción transmitida por un medio etéreo, tal como lo proponían Gri-
maldi, Hooke y Huygens.
Uno de los primeros en sugerir que la luz era un movimiento ondulatorio fue el jesuita Frances-
co Maria Grimaldi (1618-1665). La idea de Grimaldi se basaba en las observaciones del fenómeno
de difracción de la luz al incidir sobre objetos. Descubrió que los tamaños de las sombras eran dife-
rentes a los que les corresponderían si la luz viajase en línea recta. Esto le llevó a suponer que la luz, al
igual que las olas de agua que rodean los obstáculos con facilidad, era un fluido susceptible de un mo-
vimiento ondulatorio. Por la misma época, Robert Hooke (1635-1703) estudió los patrones de inter-
ferencia producidos por películas delgadas. De sus observaciones dedujo que estos patrones se de-
bían a la interacción de la luz de la parte anterior y posterior de la película y propuso la idea de que la
luz era un movimiento vibratorio del medio. Estas ideas fueron desarrolladas posteriormente por el
astrónomo, matemático y físico holandés Christiaan Huygens (1629-1695), una de los científicos
que por sus numerosos y originales descubrimientos tuvo un amplio reconocimiento entre los hom-
bres de ciencia del siglo XVII. Huygens realizó importantes descubrimientos en el campo de la astro-
nomía gracias a las mejoras introducidas por él mismo en la construcción del telescopio y sobre todo
debido a un método nuevo para el pulido de las lentes que le permitía obtener unas imágenes mucho
más nítidas. Pero si su aportación a la óptica instrumental fue importante, también lo fue su tratamien-
to mecánico de la luz. En su Traité de la Lumière (Tratado de la luz), completado en años anteriores,
pero publicado en 1690, podemos leer:
La luz consiste en un movimiento de la materia que se encuentra entre nosotros y
el cuerpo luminoso.
Si bien, la idea de que la luz era un movimiento ondulatorio ya había sido mantenida por Grimal-
di y Hooke tal como hemos comentado, Huygens hizo una de las más importantes contribuciones a la
óptica ondulatoria: el principio que lleva su nombre y que establece que todo punto de un frente de
ondas inicial se comporta como una nueva fuente de ondas secundarias que se propagan en todas di-
recciones. De esta manera puede encontrarse un nuevo frente de onda que envuelve las ondas secun-
darias, y, como la luz avanza perpendicularmente a ese frente, el principio de Huygens permite dedu-
cir los cambios de dirección de la luz. A partir del principio de Huygens se obtiene de forma elegante
las leyes de la reflexión y la refracción. Sin embargo, aunque Huygens fue el primero en descubrir el
fenómeno de polarización por la interposición sucesiva de cristales de espato, no pudo explicar el fe-
nómeno ya que su creencia era que la luz, como el sonido, se trataba de una vibración longitudinal. La
obra de Huygens es sin duda alguna la contribución más importante realizada en el campo de la física
entre Galileo y Newton. Sus resultados fueron importantes y duraderos y su trabajo muestra más que
ningún otro realizado con anterioridad la importancia del planteamiento numérico de los fenómenos
físicos frente al meramente descriptivo.
El acercamiento de Isaac Newton (1642-1727) al estudio de la óptica estuvo motivado por su
empeño en solucionar el problema de la distorsión y coloreado de las imágenes producidas en los te-
lescopios de refracción. Para ello construyó en 1668 un telescopio de reflexión en el que la luz se cen-
traba mediante un espejo cóncavo. Además de estos trabajos sobre óptica instrumental, Newton hizo
otras aportaciones importantes al desarrollo de la óptica. Sus principales contribuciones fueron su es-
tudio sobre los colores y la prueba fundamental de que la luz blanca es una mezcla de diferentes colo-
res. En su libro Óptica o Tratado de las reflexiones, refracciones, inflexiones y colores de la luz de-
clara que:
Mi deseo no es explicar las propiedades de la luz mediante hipótesis, sino exponer-
las directamente para probarlas después por medio del tratamiento y las experiencias.
Al principio de su tratado describe un primer experimento sencillo para demostrar que la luz de
diferentes colores tiene diferente refrangibilidad. El experimento consistía en observar un trozo de
cartón, pintado mitad rojo y mitad azul, con un prisma. Newton escribe que:
Observé que si el ángulo de refracción del prisma se gira hacia arriba, de manera
que el papel parece que se eleva por virtud de la refracción, su mitad azul se elevará
por refracción más que su mitad roja. Pero si se hace girar el ángulo de refracción del
prisma, de modo que el papel parece descender por la refracción, su mitad azul des-
cenderá más que su mitad roja.
De esta experiencia Newton dedujo que la luz azul sufre una refracción mayor que la luz roja y como
consecuencia una lente debería enfocar la luz azul a una distancia diferente de la luz roja. Esto lo
comprobó en otro experimento en el que utilizó un papel pintado de azul y rojo, en el que había situa-
do varios hilos negros, para poder juzgar la claridad, y una lente. Comprobó que la imagen clara de las
dos mitades se obtenían a distancias diferentes.
En otro experimento, Newton estudió lo que ocurría a un rayo de luz del Sol, obtenido con un pe-
queño orificio hecho en una superficie, al atravesar un prisma. Observó una banda de colores: rojo,
anaranjado, amarillo, verde, azul y violeta, además de toda la gama de matices intermedios. A partir
de esta experiencia Newton dedujo que la luz blanca está compuesta por rayos de diferentes colores
“puros” con distinta refrangibilidad. En esta conclusión es en la que Newton basa su teoría corpuscu-
lar de la luz, si los colores son cualidades de la luz, ésta no puede ser una cualidad, sino una sustancia,
a la que atribuye una estructura corpuscular:
Estamos seguros de que la luz es una sustancia, pero es más difícil determinar
con exactitud qué es esa sustancia.
Otro de los descubrimientos de Newton fue el de los denominados anillos de Newton, que sur-
gen alrededor del punto de contacto entre una lente convexa y una lámina de cristal. Para explicar este
fenómeno, típicamente ondulatorio, mediante su teoría corpuscular, Newton tuvo que introducir una
compleja teoría en que suponía que los corpúsculos de la luz tienen “accesos” de fácil transmisión y
“accesos” de fácil reflexión que se suceden de forma periódica, siendo la longitud de acceso constan-
te para un color determinado. Esta longitud de “acceso” corresponde a lo que ahora denominamos
longitud de onda.
La dificultad que encontró para poder explicar la propagación rectilínea de la luz mediante una
teoría ondulatoria hizo que Newton se opusiera hasta su muerte a este tipo de teoría. Lo que hizo
que durante toda su vida mantuviera una dura pugna con Robert Hooke y Christiaan Huygens, de-
fensores de la teoría ondulatoria de la luz. Para él, la luz era una corriente de partículas que se preci-
pitan a gran velocidad a través del espacio y aunque las ventajas de una teoría ondulatoria eran evi-
dentes, su autoridad intelectual hizo que esta teoría no fuera aceptada hasta muchos años después
de su muerte. La aceptación de la teoría ondulatoria de la luz tuvo su origen en 1800 cuando Young
explicó el fenómeno de los anillos de Newton, caprichos del destino, mediante una teoría ondulato-
ria de la luz.
El siglo XVIII no fue un siglo fructífero en el campo de la óptica, al menos en lo que se refiere
a avances teóricos. La mayoría de científicos adoptaron la teoría corpuscular de Newton y lo más
destacable fue la construcción de objetivos acromáticos. De acuerdo con la idea newtoniana pare-
cía imposible refractar la luz sin dispersarla, por lo que parecía una pérdida de tiempo intentar una
combinación de lentes que refractara la luz dejándola cromática. Sin embargo, Euler realizó unos
cálculos que establecían la posibilidad de conseguir el acromatismo combinando adecuadamente
un juego de lentes. Esta previsión fue luego confirmada por Samuel Klingestierna (1698-1765) en
1755 utilizando un prisma de vidrio y otro de ángulo variable lleno de agua. Posteriormente, John
Dollond (1706-1761) consiguió un objetivo acromático combinando una lente cóncava de vidrio de
flint y una lente cóncava de vidrio de crown.
De la expresión anterior vemos que, al igual que el campo electrostático creado por una carga
puntual (fuente del campo electrostático), el campo magnético creado por un elemento infinitesimal
de corriente (fuente del campo magnético) es inversamente proporcional a la distancia al cuadrado al
punto donde se calcula el campo. Pero existe una diferencia importante entre la ley de Coulomb y la
ley de Biot-Savart:
r el campo eléctrico producido por una carga puntual es radial, mientras que la di-
rección de dB es perpendicular al elemento de corriente y al vector de posición que va desde dicho
elemento al punto donde calculamos el campo.
La ley de Biot-Savart dada por (1) nos proporciona la expresión del campo magnético creado
por un elemento de corriente infinitesimal. Pero a diferencia de lo que se tiene en electrostática, en
magnetismo no se tienen fuentes puntuales del campo magnético; es decir, no se tienen elementos de
corrientes infinitesimales en una corriente eléctrica estacionaria, sino que se tienen conductores fini-
tos. Para calcular el campo magnético creado por una distribución de corriente debemos integrar la
expresión (1) a lo largo de todo el conductor:
r
r m 0 Id l´ r$
B= ò (3)
4p r 2
en donde la integral debe extenderse a todo el conductor.
ciencia que trata de las acciones mutuas entre corrientes y mostró que estas acciones obedecen a las
siguientes leyes:
1. El efecto de una corriente se invierte cuando se invierte el sentido de la corriente.
2. El efecto de una corriente que fluye sobre un circuito torcido con pequeñas sinuosidades es el
mismo que se tendría si el circuito fuera allanado.
3. La fuerza que un circuito cerrado ejerce sobre un elemento de otro circuito forma un ángulo rec-
to con este último.
4. La fuerza entre dos elementos de circuitos permanece inalterada cuando todas las dimensiones
lineales se incrementan proporcionalmente mientras que la intensidad de la corriente permanece
constante.
De estas leyes, Ampère dedujo que la fuerza entre dos elementos de corrientes:
ii' dsds' 3
f= (cos e – cos q cos q ' ) (4)
r2 2
es proporcional al producto de las intensidades (i e i´) y de las longitudes de los elementos (ds y ds´), e
inversamente proporcional al cuadrado de su distancia (r). Además, la fuerza depende de los ángulos
(q y q´) que la recta de unión de ambos elementos forma con la dirección de los mismos y del ángulo
(e) que dichas direcciones forman entre sí.
Ampère desarrolló la teoría de la equivalencia de los imanes con circuitos portadores de corrien-
te y dio la primera interpretación del magnetismo de la materia. Su memoria causó un gran impacto y
medio siglo después Maxwell, que la calificó como “uno de los logros más brillantes de la ciencia”,
escribió sobre ella:
Es perfecta en la forma e irrebatible en precisión; y se resume en un fórmula de la
que se pueden deducir todos los fenómenos y que perdurará siempre como la fórmula
cardinal de la electrodinámica.
cuando se abría el interruptor. Por tanto, la corriente estacionaria en la primera bobina no producía nin-
guna corriente inducida en la segunda. Esta corriente inducida sólo se generaba al iniciarse la corriente
en la primera bobina o al finalizar la corriente en esta bobina. Por consiguiente, a diferencia de la polari-
zación eléctrica, la inducción de una corriente eléctrica era un proceso dinámico.
Galvanómetro
Interruptor Hierro
Meses más tarde Faraday realizó otro experimento que ponía de manifiesto la relación entre la
electricidad y el magnetismo. Dispuso un montaje experimental, como el mostrado en la figura 2, que
constaba de varias bobinas una dentro de otras y que mantenían unidos sus extremos los cuales, a su
vez, se conectaban a un galvanómetro. Faraday observó que al introducir en el interior de las bobinas
una varilla magnética la aguja del galvanómetro se movía y que al sacar la varilla, la aguja se movía
en sentido contrario. También observó que cuando la varilla se encontraba en el interior de las bobi-
nas la aguja del galvanómetro volvía a su posición original. Faraday encontró de nuevo que la induc-
ción de una corriente eléctrica era un proceso dinámico: la corriente sólo existía cuando se introducía
o se sacaba el imán del interior de las bobinas.
I I
v N
v
S
Para explicar los resultados de sus experimentos, Faraday introdujo la idea de las líneas de fuer-
za. Para Faraday, la idea de que las fuerzas actuaran a distancia carecía de sentido físico, de manera
que, para explicar las fuerzas que actúan entre las cargas eléctricas y entre los imanes, imaginó que el
éter que llenaba todo el espacio se componía de líneas o tubos de fuerza que conectaban las cargas
opuestas o los polos magnéticos opuestos. Aunque la idea de las líneas de fuerza es anterior a Fara-
day, la diferencia es que para éste las líneas adquieren una significado físico real. Cada línea de fuerza
correspondía a una unidad de magnetismo o de carga eléctrica y un cierto número de líneas compo-
nían un tubo de fuerza. La sección del tubo aumentaba o disminuía a lo largo de su longitud conforme
las líneas de fuerza divergían de sus orígenes, las cargas o los polos magnéticos. Faraday suponía que
los tubos se contraían longitudinalmente y se expandían lateralmente. De esta manera los tubos que
unían polos magnéticos opuestos o cargas eléctricas opuestas tendían a unir dichos polos o cargas,
mientras que las cargas iguales y los polos iguales se repelían debido a que los tubos que salían de
ellos no podían unirse y se empujaban entre ellos debido a su expansión lateral. Con estas ideas Fara-
day explicaba algunos fenómenos como el de la inducción de una corriente eléctrica, que tenía lugar
cuando un conductor se mueve respecto de un imán y atraviesa los tubos magnéticos.
Las ideas de Faraday, aunque cualitativas y en cierta medida ingenuas, abrieron el camino para susti-
tuir el concepto de acción a distancia por algo que se encontraría distribuido por todo el espacio y a lo que
podía atribuirse un determinado valor en cada punto. Este algo es lo que denominamos campo de fuerzas
o campo, ya sea gravitatorio, eléctrico o magnético, y la interacción entre objetos que se encuentran sepa-
rados es el resultado de la interacción de cada uno de ellos con el campo creado por el otro.
Por otra parte, Faraday contribuyó de forma importante a la creación de la electroquímica y formuló
las leyes de la electrólisis. Además, descubrió la rotación del plano de polarización de la luz en el seno de
un campo magnético y estudió los materiales dieléctricos; y descubrió el comportamiento particular de al-
gunas sustancias, a las que denominó diamagnéticas, en el seno de campos magnéticos intensos.
tró que dos rayos de luz polarizada en diferentes planos no producían interferencia alguna, de lo que
dedujo que el movimiento ondulatorio de la luz no era longitudinal (como el del sonido), como se ha-
bía considerado hasta entonces, sino transversal. Además, Fresnel calculó los patrones de difracción
producidos por varios objetos y aberturas y explicó satisfactoriamente la propagación rectilínea de la
luz en medios isótropos y homogéneos, eliminando así la objeción principal de Newton a una teoría
ondulatoria. Arago fue también un firme defensor de la teoría ondulatoria frente a los partidarios de la
teoría corpuscular como Laplace, Biot y Poisson. Ideó una experiencia para demostrar que la luz via-
jaba a menor velocidad en un medio denso como el agua que lo hacía en el aire, tal y como predecía la
teoría ondulatorio y en contra de la teoría corpuscular que mantenía que se soportaba en la hipótesis
contraria. Pero al parecer, Arago no dispuso de los recursos para realizar estas medidas. En 1849
Armand-Hippolyte-Louis Fizeau (1819-1896) realizó la primera medida de la velocidad de la luz
en el aire, que estimó en 315300 km/h; y en 1850 Jean Bernard Leon Foucault (1819-1868) demos-
tró que la velocidad de la luz en agua es menor que en el aire, con lo que asestó un duro golpe a los de-
fensores de la teoría corpuscular.
La aceptación de la teoría ondulatoria de la luz llevaba consigo la aceptación de un medio
material que soportara dichas ondas y que llenara todo el espacio: el éter. Ahora bien, las vibra-
ciones longitudinales como el sonido podían propagarse en un gas, pero las vibraciones transver-
sales sólo podían tener lugar en sustancias sólidas. Pero era difícil imaginar un éter lo suficiente-
mente sólido y rígido para que permitiera las ondas transversales y a su vez que posibilitase el
movimiento de los cuerpos celestes en sus órbitas inmersas en el éter. Por otra parte, esta hipóte-
sis del éter sugería que la velocidad de la luz que midiera un observador en movimiento respecto
al éter debería verse afectada por este movimiento. Estas suposiciones llevaron a Albert Abraham
Michelson y a Edward Williams Morley a realizar un experimento en el que esperaban encontrar
una variación de la velocidad de la luz debido a la variación del movimiento de la Tierra respecto al
éter. Sin embargo lo que encontraron fue que la velocidad de la luz era la misma en todas las expe-
riencias realizadas. Este experimento demostraba la constancia de la velocidad de la luz en todas
las direcciones independientemente del estado de movimiento del receptor y ponía en tela de juicio
la hipótesis del éter. No obstante, para salvar la teoría del éter, en 1892 George Francis Fitzgerald
(1851-1901) e independientemente Hendrik Antoon Lorentz (1853-1928) en 1895, propusieron
la idea de que las longitudes se contraían en la dirección paralela al movimiento. Esta hipótesis de
contracción de las longitudes de Fitzgerald-Lorentz explicaba los resultados del experimento de
Michelson-Morley pero resultaba a todas luces una hipótesis puntual y demasiado artificial. La res-
puesta a esta incongruencia se obtendría a principios del siglo XX con la aparición de la Teoría de
la Relatividad de Einstein.
– Ley de Ampère-Maxwell
r
r r r ¶D
Ñ´ H = J + (7)
¶t
– Ley de Faraday-Henry
r
r r ¶B
Ñ´ E = – (8)
¶t
r
Las ecuaciones anteriores
r se completan conrotras dos que relacionan el vector desplazamiento D
con el campo eléctrico
r E, y el campo magnético B (denominado también inducción magnética) con el
campo magnético H. Además de estas dos ecuaciones, hay una tercera que relaciona la densidad de
corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-
titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad e, una permeabilidad m, y una conductividad s estas ecuaciones son:
r r
D = eE (9)
r 1 r
H= B (10)
m
r r
J = sE (11)
en donde V se refiere al volumen encerrado por la superficie. Además, la carga encerrada por la super-
ficie la podemos escribir como:
Q = òV rdV (18)
superficie cerrada se tiene que toda línea de campo que atraviesa hacia adentro la superficie, vuelve a
atravesarla hacia afuera. Es decir, que el flujo magnético a través de una superficie cerrada es cero:
r r
F B = ò B ×dS = 0 (20)
Para que la integral extendida a todo el volumen sea cero, el integrando debe ser idénticamente nulo,
por lo que se obtiene inmediatamente la ley de Gauss para el campo magnético en su forma diferen-
cial dada por (13).
La ley de Gauss para el campo eléctrico expresa una importante relación entre el flujo del cam-
po reléctrico
r a través de una superficie cerrada, y la carga eléctrica encerrada en dicha superficie
ò E ×dS = Q e 0 , por tanto, el flujo del campo eléctrico es distinto de cero si hay carga encerrada por
la superficie. Esta ley nos indica que la carga eléctrica es la fuente del campo electrostático. Las lí-
neas del campo eléctrico tienen su origen en una carga eléctrica positiva y terminan en una carga
eléctrica negativa.
Por el contrario, el flujo del campo magnético a través de cualquier superficie cerrada es cero. Es
decir, que no existe el equivalente magnético de la carga eléctrica, que correspondería a un polo mag-
nético aislado o monopolo magnético. Si este polo magnético existiese, las líneas del campo magnéti-
co no se cerrarían sobre sí mismas.
Ahora bien, esta ley sólo es válida para el caso de corrientes continuas que circulan por un conductor.
Existen otras distribuciones de corrientes que no satisfacen la ley de Ampère enunciada en la forma
anteriormente descrita. Por lo tanto, esta ley debe ser modificada de manera que tenga un carácter
más general y sea válida en cualquier situación. Esta generalización fue realizada por Maxwell y su-
puso un reforzamiento en la unión entre los fenómenos eléctricos y magnéticos. Para ello, Maxwell
introdujo el concepto de corriente de desplazamiento, ligado a la variación del flujo del campo eléc-
trico. Estudiemos a continuación el argumento de Maxwell.
entonces, la ley de Ampère se satisface para cualquier superficie que se apoye en el circuito de inte-
gración C. Para la superficie S1 sólo se tiene el término I de la suma anterior; mientras que para cual-
quier superficie situada entre las placas del condensador sólo se tiene el término del cambio del flujo
eléctrico e0dFE /dt. Maxwell denominó a este término corriente de desplazamiento:
dF E
I D = e0 (28)
dt
En el caso de otro medio distinto al vacío se debe sustituir la permitividad del vacío e0 por la del me-
dio e.
En consecuencia, la ley de Ampère, modificada por Maxwell, queda establecida como:
r r
ò B ×d l = m 0 ( I + I D ) (29)
es decir, al término correspondiente a las corrientes verdaderas enlazadas por el camino de integra-
ción hay que sumarle la corriente de desplazamiento enlazada por el mismo camino. Evidentemente,
para un medio diferente del vacío hay que sustituir la permeabilidad del vacío m0 por la del medio en
cuestión m. Sustituyendo el valor de la corriente de desplazamiento dado por (28) en la ecuación ante-
rior se tiene, en general, que:
r r dF E
ò B ×d l = mI + me dt
(30)
Esta ecuación, conocida también como ley de Ampère-Maxwell, pone de manifiesto que, además de
por una corriente de conducción I, un campo magnético puede ser generado por un campo eléctrico
variable con el tiempo.
Aunque la ecuación (30) se ha obtenido para un caso particular, su validez es general. El término
del campo magnético inducido por la variación con el tiempo de un campo eléctrico es, por regla ge-
neral, bastante pequeño, sobre todo en aquellos casos en que los campos varíen muy lentamente con
el tiempo. Sin embargo, que la variación de un campo eléctrico produzca un campo magnético es de
crucial importancia para las ondas electromagnéticas.
Para obtener la ecuación diferencial correspondiente a la ley de Ampère-Maxwell basta con uti-
lizar el teorema de Stokes sobre la circulación de un campo vectorial a lo largo de una línea cerrada.
Según este teorema:
r r r r r
ò B ×d l = òS( Ñ´ B )dS (31)
Utilizando las expresiones anteriores, se obtiene de forma inmediata la ecuación de Maxwell corres-
pondiente a la ley de Ampère-Maxwell en forma diferencial dada por (14).
en donde S es una superficie apoyada en el circuito de integración C. Si ahora tenemos en cuenta que:
r
dF B d r r ¶B r
– = – òSB ×dS = – òS ×dS (37)
dt dt ¶t
de esta ecuación y de la anterior, se obtiene inmediatamente la ecuación de Maxwell correspondiente
a la forma diferencial de la lay de Faraday-Henry dada por (15).
Las ecuaciones de Maxwell no sólo permitieron que el concepto de campo se utilizara de forma
generalizada sino que además permitieron unificar los campos eléctricos y magnéticos. En cuanto a
su forma matemática, las ecuaciones de Maxwell muestran una cierta simetría entre el campo eléctri-
co y el campo magnético. Simetría que no es completa debido a que los monopolos magnéticos no
existen, al menos norse han detectado experimentalmente. Observemos que la ley de Faraday no con-
tiene un término m 0 J (o m0I en su forma integral) como consecuencia de que no hay cargas magnéti-
cas puntuales que puedan dar lugar a corrientes magnéticas. Sin embargo, en el vacío, donde no hay
cargas eléctricas, la simetría de las ecuaciones de Maxwell es total.
Con su teoría Maxwell mostró que todos los fenómenos eléctricos y magnéticos podían descri-
birse con sólo cuatro ecuaciones diferenciales que constituyen la base teórica del electromagnetismo
clásico y relacionan los campos eléctricos y magnéticos con sus fuentes: las cargas eléctricas, las co-
rrientes y los campos variables. Su papel en este campo es tan fundamental como lo son las leyes de
Newton en la mecánica clásica: todos los problemas del electromagnetismo clásico pueden resolver-
se mediante las ecuaciones de Maxwell, de la misma manera que todos los problemas de la mecánica
clásica pueden resolverse mediante las leyes de Newton. Dicho de otra forma, las ecuaciones de Max-
well constituyen un conjunto completo y consistente de ecuaciones que sintetizan el electromagnetis-
mo. Todo el electromagnetismo se encuentra incluido en estas cuatro ecuaciones, por lo que son uno
de los grandes logros de la física y de la inteligencia humana.
Pero si la unificación de la electricidad y el magnetismo fue un enorme logro intelectual, todavía
más importantes fueron otras consecuencias de la teoría electromagnética de Maxwell. Una de ellas
fue la predicción de la existencia de ondas electromagnéticas. Como debe ocurrir con una nueva teo-
ría, la teoría de Maxwell no sólo explicaba los fenómenos eléctricos y magnéticos observados de una
forma impecable y con una belleza matemática inusual, sino que además predecía la existencia de
nuevos fenómenos como eran las ondas electromagnéticas. La confirmación experimental de estas
ondas electromagnéticas supuso la aceptación de la teoría de Maxwell: una de las grandes teorías en
la historia de la física. Otra de las consecuencias de la teoría de Maxwell, unida a la anterior, fue la
unificación de dos de los grandes campos de la física: el electromagnetismo y la óptica.
Sustituyendo la expresión (41) en (40) y teniendo en cuenta que, según (13), la divergencia del campo
magnético es cero, obtenemos que:
r r
r ¶B ¶2B
Ñ B – ms
2
– me 2 = 0 (43)
¶t ¶t
Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (15) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç
÷ (44)
è ¶t ø
Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (45)
¶t
Sustituyendo en esta expresión la ecuación (14) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (46)
¶t ¶t
Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (47)
Sustituyendo la expresión (47) en (46) y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (12) obtenemos finalmente que:
r r
r ¶E ¶ 2 E ræ r ö
Ñ E – ms
2
– me 2 = Ñç ÷ (48)
¶t ¶t èeø
En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (49)
¶t ¶t
Las ecuaciones (43) y (49) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (43) y (49) se simplifican y quedan en la forma:
r
r ¶2B
Ñ B – me 2 = 0
2
(50)
¶t
r
r ¶2E
Ñ E – me 2 = 0
2
(51)
¶t
Si comparamos estas expresiones con la ecuación de onda tridimensional dada por:
1 ¶2F
Ñ 2F – =0 (52)
u 2 ¶t 2
vemos que las componentes del campo electromagnético satisfacen una ecuación diferencial de onda.
Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio como una onda,
siendo su velocidad de propagación u:
1
u= (53)
me
Las dos ecuaciones vectoriales (50) y (51) proporcionan seis ecuaciones de onda una para cada
componente del campo eléctrico (Ex, Ey y Ez) y del campo magnético (Bx, By y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r ¶2B
Ñ B – m0e0 2 = 0
2
(54)
¶t
r
r ¶2E
Ñ E – m0e0 2 = 0
2
(55)
¶t
Así pues, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío
como una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:
1
c= (56)
m0e0
El valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315000 km/s.
Esta coincidencia y el hecho de que tanto las ondas electromagnéticas como la luz fueran ondas trans-
versales, llevó a Maxwell a escribir:
Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para
concluir que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay)
es una perturbación electromagnética en forma de ondas que se propagan a través del
campo electromagnético de acuerdo con las leyes electromagnéticas.
comprobó que la chispa en el alambre se podía producir incluso eliminado el contacto con el circuito
de la bobina de inducción. Interpretó el fenómeno suponiendo que el circuito secundario era de tales
dimensiones que el período de las oscilaciones en él eran casi iguales al de las oscilaciones primarias
en el circuito primario. Las alteraciones que pasaban de un circuito a otro se veían intensificadas por
el fenómeno de la resonancia. El descubrimiento de que las chispas podían ser producidas en el alam-
bre secundario siempre que tuviese las dimensiones adecuadas para la resonancia fue de enorme im-
portancia pues le proporcionaba un método para detectar efectos eléctricos a una distancia de la fuen-
te. Hertz había descubierto que para observar la propagación de una onda electromagnética en el es-
pacio libre lo único que necesitaba era un detector adecuado.
En 1888 Hertz realizó una serie de experimentos que le permitió determinar la velocidad de pro-
pagación de las ondas electromagnéticas en el aire y a lo largo de un hilo. Construyó un oscilador que
consistía en dos placas metálicas situadas en el mismo plano y que llevan unidas, cada una de ellas,
una varilla de hierro acabada en una bolita de forma que las bolitas pueden acercarse a voluntad. El
detector o resonador lo construye, como hemos indicado anteriormente, con un anillo de alambre
conductor con una pequeña abertura entre sus extremos. Hertz unió un hilo largo a una de las placas y
procedió a inducir mediante acoplamiento eléctrico una onda electromagnética en él. Las ondas se re-
flejaban en el extremo del hilo produciendo ondas estacionarias. Con ayuda del detector observó los
nodos y los vientres de las ondas estacionarias y determinó la longitud de onda y, calculando la fre-
cuencia de las oscilaciones podía calcular la velocidad de propagación de la onda en el hilo. Poste-
riormente, observó las interferencias entre las ondas propagadas por el hilo y las propagadas por el
aire y determinó la relación entre las dos velocidades de propagación, con lo que pudo determinar la
velocidad de propagación de las ondas electromagnéticas en aire, que era del mismo orden que la ve-
locidad de la luz. Por último, Hertz mostró que las ondas electromagnéticas se reflejaban en un muro
metálico y producían en el espacio ondas estacionarias. Además comprobó que podían ser enfocadas
con espejos cóncavos y que podían ser polarizadas mediante rejillas metálicas. Es decir, que las ondas
electromagnéticas mostraban los mismos efectos que las ondas de sonido y que la luz.
El trabajo de Hertz fue de enorme trascendencia puesto que logró confirmar experimentalmente
las previsiones de la teoría de Maxwell. Quedaba así establecido sin la menor duda que tanto el calor
como la luz eran radiaciones electromagnéticas.
BIBLIOGRAFÍA
29
Limitaciones de la física clásica.
Mecánica relativista. Postulados
de la relatividad especial.
Algunas implicaciones
de la física clásica
ÍNDICE SISTEMÁTICO
3. CINEMÁTICA RELATIVISTA
3.1. Transformaciones de Lorentz
3.2. Consecuencias de las transformaciones de Lorentz
3.2.1. Contracción de las longitudes
3.2.2. Dilatación del tiempo
3.2.3. Relatividad de la simultaneidad
3.2.4. Composición de velocidades
3.3. Intervalos en el espacio de Minkowski y principio de causalidad
3.4. Tiempo propio
3.5. Cuadrivector velocidad
4. DINÁMICA RELATIVISTA
4.1. Momento relativista y fuerza de Minkowski
4.2. Energía relativista
4.3. Aceleración relativista
4.4. Equivalencia entre la masa y la energía
BIBLIOGRAFÍA
Z
v
O Z
R x
z O’ x’
Figura 1. Sistemas de referencia en
movimiento relativo de traslación uniforme. z’
Veamos cómo estas transformaciones son compatibles con la idea de espacio absoluto. Para
ello, estudiemos el proceso de medición de una varilla por un observador para el que la varilla se mue-
ve con velocidad u. Consideremos dos observadores en dos sistemas de referencia: un sistema S´ fijo
en la varilla, y otro con respecto del cual la varilla se mueve con velocidad u. El observador en S´ me-
dirá la varilla determinando la posición de cada uno de sus extremos:
l= x B – x A (6)
Si tenemos en cuenta que las coordenadas de los dos sistemas están relacionadas por las transforma-
ciones de Galileo (1), se obtiene que:
l = l' (7)
Es decir, los intervalos espaciales y temporales medidos por ambos sistemas son idénticos, y, por tan-
to, serán iguales para todos los sistemas de referencia inerciales. En este sentido, el espacio y el tiem-
po son absolutos.
Veamos a continuación algunas consecuencias de las
y
transformaciones de Galileo. Supongamos que observamos
y´
el movimiento de una partícula desde los dos sistemas de re-
ferencia comentados anteriormente (figura 2). Imaginemos
u que en un instante de tiempo la posición de la rpartícula en el
sistema S viene dadarpor el vector de posición r, y en el siste-
r r´ ma S´ porr el rvector r'. Es evidente que la relación entre los
vectores r y r' es:
O r r r
R r '= r – R (8)
z O´ x x´ r
en donde R es la posición del origen de S´ con respecto al sis-
z´
tema S. Si derivamos las ecuaciones con respecto del tiem-
Figura 2. Movimiento de una
po, obtenemos las transformaciones de las velocidades (o
partícula visto desde dos sistemas de ley de composición de las velocidades) entre dos sistemas de
referencia en movimiento relativo de referencia inerciales que se encuentran en movimiento rela-
traslación uniforme. tivo de traslación uniforme, uno con respecto al otro, con ve-
locidad u.
r r r
u '= u – u (9)
r r
en donde u'es la velocidad r de la partícula con respecto al sistema S´, u la velocidad de la partícula con
respecto al sistema S, y u la velocidad relativa entre los dos sistemas. La ecuación anterior la podemos
desdoblar para cada una de las componentes cartesianas de la velocidad y tendremos que las transfor-
maciones de las componentes de la velocidad son:
u' x = u x – u (10)
u' y = u y (11)
u' z = u z (12)
a' x = a x (13)
a' y = a y (14)
a' z = a z (15)
Es decir, que las aceleraciones son las mismas para los dos sistemas de referencia inerciales. Si
ahora tenemos en cuenta que, según la física clásica, la masa de una partícula o sistema es indepen-
diente del movimiento del sistema de referencia, tendremos que:
r r
ma = ma ' (16)
Es decir, el producto de la masa por la aceleración es el mismo en todos los sistemas de referencia
inerciales. O, dicho de otra manera, las leyes del movimiento de Newton, y por consiguiente todas las
leyes determinadas a partir de éstas, son invariantes frente a una transformación de Galileo.
Como acabamos de ver, la leyes de la mecánica son exactamente iguales en todos los sistemas
de referencia inerciales, y, en consecuencia, todos los sistemas de referencia inerciales son equiva-
lentes en lo que se refiere a la mecánica. Por tanto, no hay ningún sistema privilegiado que se en-
cuentre en reposo absoluto, y sólo se puede hablar de velocidad relativa de un sistema con respecto
a otro y no de velocidad absoluta de un sistema. A este hecho se le suele denominar principio de la
relatividad newtoniano.
Una consecuencia del principio de relatividad newtoniano es que ningún experimento mecáni-
co, realizado completamente dentro de un sistema de referencia inercial, puede permitir a un observa-
dor determinar el estado de movimiento del sistema con respecto a cualquier otro sistema de referen-
cia inercial. Si las demás leyes de la física, aparte de las mecánicas, fuesen invariantes frente a una
transformación de Galileo, el principio de relatividad newtoniano sería válido para toda la física y
ningún experimento en física (no sólo mecánico) realizado en un sistema de referencia permitiría de-
terminar la velocidad de éste con respecto a otro. En consecuencia, no habría ningún sistema de refe-
rencia privilegiado o absoluto.
Este hecho que acabamos de comentar, que el principio de relatividad se aplique a la mecánica y
no al electromagnetismo, implica la necesidad de escoger entre las siguientes posibilidades:
1. Existe un principio de relatividad para la mecánica pero no para el electromagnetismo. Es decir,
para la electrodinámica hay un sistema de referencia privilegiado (el éter) que podría encontrar-
se experimentalmente. En este caso, las transformaciones de Galileo serían válidas.
2. Existe un principio de relatividad tanto para la mecánica como para el electromagnetismo, pero
las ecuaciones de Maxwell no son correctas. En este caso, las transformaciones de Galileo se-
guirán siendo válidas.
3. Existe un principio de relatividad tanto para la mecánica como para el electromagnetismo, pero
las leyes de Newton no son correctas. En este caso, las transformaciones de Galileo no serían vá-
lidas, puesto que son incompatibles con las ecuaciones de Maxwell.
El tiempo que tarda la luz en recorrer el trayecto P-M2-P es: Figura 3. Esquema del
experimento de
2l2 Michelson-Morley.
t2 = (18)
æ u ö2
c 1–ç ÷
ècø
Por tanto, la rotación de los brazos del interferómetro da lugar a un cambio en las diferencias de tiem-
po dado por:
é ù
ê ú
2 ê 1 1 ú
Dt '– Dt = ( l1 + l2 ) ê – ú (21)
c æ ö
ê1 – ç u ÷
2
æ u ö2 ú
1 – ç ÷
ê
ë ècø ècø ú
û
Por consiguiente, la rotación de los brazos del interferómetro debe producir un corrimiento del patrón
de interferencia. Si la diferencia de camino óptico entre los haces cambia en una longitud de onda, ha-
brá un corrimiento de una franja en el patrón de interferencia. Si DN es el número de franjas que se
desplaza y l es la longitud de onda, se tiene que:
c( Dt '– Dt )
DN = (23)
l
en donde c (Dt´ – Dt) es la diferencia de camino óptico. Sustituyendo en esta expresión el valor en-
contrado en (22), se tiene que:
l1 + l2 æ u ö2
DN = ç ÷ (24)
l ècø
Con los valores del interferómetro utilizado por Michelson y Morley se obtenía que DN 0.4. Un corri-
miento de 4/10 franjas debería haber sido observado. Sin embargo, el experimento mostraba que no se
producía modificación alguna en el patrón de interferencias. El mismo experimento se realizó a diferentes
horas del día y de la noche y durante todas las estaciones del año (a medida que la Tierra se desplaza alre-
dedor del Sol), y el resultado era que no se obtenía corrimiento alguno en los patrones de interferencia.
Los resultados experimentales obtenidos por Michelson y Morley podían explicarse de varias
maneras:
1. La velocidad de la Tierra con respecto al éter es cero, lo que implicaría que la Tierra y los objetos
arrastran consigo al éter en su movimiento.
2. La velocidad de la luz es constante en todos los sistemas de referencia inerciales y, por consi-
guiente, no existe ningún sistema de referencia privilegiado; es decir, el éter no existe.
A continuación expondremos los intentos realizados para explicar los resultados del experimen-
to de Michelson y Morley mediante hipótesis compatibles con la existencia del éter.
Rehaciendo los cálculos del apartado anterior, se tiene que la diferencia de tiempos entre los dos ha-
ces de luz que salen del espejo semiplateado y que inciden en el instrumento óptico es:
2 1
Dt = ( l20 – l10 ) (28)
c æ u ö2
1–ç ÷
ècø
Análogamente, cuando se gira el interferómetro 90º, se tiene que, en la dirección paralela al movi-
miento:
l2 = l20 1– b 2 (29)
En este caso, la diferencia de tiempos con que los haces de luz llegan al instrumento óptico viene dada
por:
2 1
Dt '= ( l20 – l10 ) (31)
c æuö 2
1–ç ÷
ècø
uR
Figura 4. Posición de la uO
uO
Tierra en su movimiento uR
orbital en dos instantes
diferentes. a) b)
En este caso, si denominamos uo a la velocidad orbital de la Tierra alrededor del Sol, y uR a la ve-
locidad de rotación de la tierra sobre sí misma, se tendrá que la velocidad del interferómetro será:
u= uo +uR (33)
1–ç ÷
ècø
Supongamos ahora que realizamos el experimento 12 horas después en el que la velocidad del inter-
ferómetro con respecto al éter, como se muestra en la figura 4b, vendrá dada por:
u'= u o – u R (35)
1–ç ÷
ècø
– Aberración estelar. Este fenómeno fue descubierto por James Bradley en 1725. Bradley
observó que las estrellas parecían moverse en círculos cuyo diámetro angular era aproxi-
madamente de 41 segundos de arco. Para explicar este fenómeno consideremos la figura 5,
en la que se muestra la órbita de la Tierra alrededor del Sol, y una estrella cuya altura verda-
dera con respecto al plano de la órbita (la eclíptica) viene dada por el ángulo q0.
Estrella
u2
Eclíptica
3
q0
u3
2
Estrella
q0
u2
Figura 6. Posición de una u3 u1
estrella respecto al plano u4
orbital de la Tierra.
Supongamos que la distancia a la estrella es mucho mayor que el diámetro de la órbita te-
rrestre alrededor del Sol. En este caso, podemos considerar el esquema de la figura 6. Si la
Tierra se encuentra en reposo con respecto al éter (hipótesis de arrastre del éter), para ob-
servar una estrella habría que apuntar un telescopio según la altitud verdadera q0, de manera
que los rayos de luz procedente de una estrella pasaran por el eje del instrumento y forma-
sen una imagen en el centro del campo visual (figura 7a).
Posición Posición Posición
verdadera verdadera aparente
a
Figura 7. Dirección de un
q0
telescopio para observar u
una estrella: a) Tierra en
reposo respecto al éter.
b) Movimiento de la Tierra
con respecto al éter. a) b)
Ahora bien, si la tierra se mueve con respecto al éter con velocidad u, el telescopio debería
estar inclinado un ángulo q diferente para que el rayo de luz que entre por el objetivo reco-
rra la longitud del telescopio sin incidir en sus lados (figura 7b). La diferencia entre q y q0 es
la aberración estelar a. El fenómeno es el mismo que podemos observar cuando llueve y
observamos las trayectorias de las gotas de lluvia sobre las ventanillas de un vehículo. Si la
lluvia cae de forma vertical a velocidad w y el vehículo está en reposo, la trayectoria sobre
la ventanilla es, evidentemente, una línea vertical, pero si el vehículo se mueve con veloci-
dad u la trayectoria de las gotas de lluvia son líneas inclinadas respecto a la vertical un án-
gulo igual a arctan (u/w).
Para calcular la magnitud de la aberración estelar consideremos la figura 8. Consideremos
que la Tierra se mueve hacia la estrella con velocidad u con respecto al éter y que la veloci-
dad de la luz con respecto al éter es c. La inclinación q del te-
lescopio ha de ser tal que en el tiempo en el que el ocular se
desplace desde la posición P a la P´ la luz viaje en el interior
del telescopio desde la entrada al ocular. De la geometría del
problema tenemos que:
a
h
tan q = (39)
ut + x
ct h Ahora bien:
q q0
P ut P' x h = ct sen q 0 (40)
De los cálculos anteriores se tiene que: en los puntos 2 y 4 de la órbita mostrada en la figura 5
(movimiento de la Tierra perpendicular a la dirección de la estrella), la inclinación del telesco-
pio es máxima e igual a u/c; y en los puntos 1 y 3 de la órbita la inclinación vertical del telesco-
pio es igual a u sen q0/c. Por consiguiente, la estrella aparenta describir una elipse de semieje
mayor u/c y semieje menor u sen q0/c, como se muestra en la figura 10.
Estrella
d c
a b
q0
u2
Figura 10. Movimiento aparente u3 u
de una estrella observada u4
desde la Tierra.
Si la estrella se encontrara justo encima de nuestras cabezas, describiría una circunferencia
de radio u/c. Teniendo en cuenta que la velocidad de la Tierra en su órbita es de 30 km/s y la
velocidad de la luz en el vacío es 3 ´ 105 km/s, el radio angular, a, de la órbita aparente de
la estrella resulta ser de 20,5 segundos de arco, o lo que es lo mismo, un diámetro angular
de aproximadamente 41 segundo de arco. Resultado que concuerda perfectamente con las
observaciones realizadas por James Bradley.
Es importante resaltar que la aberración estelar se produce como consecuencia del movi-
miento de la Tierra alrededor del Sol; o dicho de otra manera, la aberración estelar es una
consecuencia del cambio de dirección de la velocidad de la Tierra. Si la Tierra se moviese
en línea recta, no habría aberración estelar. Por otra parte, la explicación que hemos dado
del fenómeno de la aberración estelar se ha basado en la suposición de que la Tierra se mue-
ve respecto al éter con velocidad u, correspondiente a la velocidad de la Tierra en su órbita
alrededor del Sol; es decir, cuando no hay arrastre del éter. Por consiguiente, la hipótesis
del arrastre del éter por los cuerpos en movimiento no es correcta y en consecuencia no se
puede explicar el experimento del Michelson y Morley mediante esta hipótesis.
– Medida de Fizeau del coeficiente de arrastre. Otro experimento que contradice la hipó-
tesis del arrastre del éter es el realizado por Fizeau para determinar el coeficiente de arrastre
de la luz por un medio en movimiento. Para medir este efecto, predicho por Jean Augustin
Fresnel en 1817, Armand-Hippolyte-Louis Fizeau (1819-1896) realizó un experimento
que se esquematiza en la figura 11. Un haz de luz procedente de una fuente incide sobre un
espejo semiplateado, M, que divide el haz en dos. Uno de los haces hace el camino
M1-M2-M3-M, y el otro hace el camino M3-M2-M1-M. Los dos haces se unen de nuevo en el
espejo M y llegan a un dispositivo fotográfico F en el que se observan franjas de interferen-
cias debidas a la diferencia de caminos ópticos recorridos por cada haz. El agua fluye por
los tubos con velocidad u en las direcciones especificadas en la figura.
M3 M2
u
Fuente u
de luz
M M1
Figura 11. Esquema del
experimento de Fizeau. F
Dt = t 2 – t 1 = 2lç 2 ÷ (50)
c c2
ç 2 – f 2u2 ÷
èn ø
La diferencia de camino óptico es cDt, que expresada como múltiplo de la longitud de
onda, l, de la luz incidente es:
cDt 4n 2 l f u
d= = (51)
l cl
Con los valores experimentales utilizados por Fizeau: l = 1,5 m, n = 1,33, l = 5,3 ´ 10–7 m,
u = 7 m/s, y d = 0,23 franjas; se obtenía un valor de f 0,49, muy cercano al previsto por
Fresnel, según la ecuación (47), que da un valor de f 0,44.
Este experimento fue realizado con mayor precisión por Michelson y Morley y por otros fí-
sicos experimentales confirmando el coeficiente de arrastre de Fresnel.
Si el éter fuese arrastrado por los cuerpos en movimiento, según la hipótesis de arrastre del
éter, la velocidad de la luz en el sistema laboratorio, teniendo en cuenta las transformacio-
nes de Galileo, serían: (c/n) + u y (c/n) – u en cada uno de los tubos. Con estas velocidades,
la diferencia de tiempo de los dos haces sería:
æ ö
ç ÷
÷ 4n lu
2
1 1
Dt = 2lç – (52)
çc c ÷ c2
ç –u +u ÷
èn n ø
Lo que daría una diferencia de camino óptico:
4n 2 lu
d= (53)
cl
que con los valores experimentales da un valor de d = 0,46 franjas. Este valor no concorda-
ba con las medidas realizadas en el patrón de interferencia, por lo que la idea del arrastre del
éter no es correcta.
de nuestro conocimiento de las distancias astronómicas, se puede deducir que la velocidad orbital de
estas estrellas puede ser bastante grande. Supongamos que la velocidad de la luz depende de la velo-
cidad de la fuente. Puesto que en las diferentes posiciones en su órbita cada estrella tiene una veloci-
dad diferente respecto de un observador en la Tierra, la velocidad de la luz emitida hacia la Tierra será
también diferente en cada una de esas posiciones. Aunque la variación de la velocidad fuese pequeña,
la gran distancia desde las estrellas a la Tierra daría lugar a una diferencia significativa en el tiempo
que tarda la luz en llegar a un observador terrestre. En consecuencia, la luz procedente de una estrella
en una posición determinada podría ser vista antes que la luz emitida en una posición anterior. Esto
daría lugar a la observación de efectos extraños y de excentricidades orbitales inusualmente altas. Sin
embargo, ninguno de estos efectos ha sido observado. Estos resultados concuerdan con la hipótesis
de que la velocidad de la luz es independiente de la velocidad de la fuente que la emite.
La independencia de la velocidad de la luz con respecto a la fuente fue puesta de manifiesto, ade-
más de por las observaciones astronómicas comentadas anteriormente, por un experimento realizado
en el CERN en el año 1964. El experimento consistía en medir la velocidad de la radiación emitida
por el decaimiento de los mesones p0 o piones neutros. El pión es una partícula subatómica inestable
con un período de vida medio aproximadamente de 8 ´ 10–17 s. El decaimiento de esta partícula da
lugar a un par de fotones (g):
p 0 ® gg (54)
Estos fotones que no están en la región del visible se denominan rayos gamma.
En el acelerador de partículas del CERN, se obtenía un haz de protones con velocidades muy al-
tas. Cuando estos protones colisionaban con un blanco se producía piones de alta velocidad que cons-
tituían una fuente de luz en movimiento. La velocidad de los piones se podía determinar y era aproxi-
madamente 0,99975c y por tanto muy cercana a la velocidad de la luz. A pesar de esta velocidad la
distancia recorrida por el pión antes de su desintegración es extremadamente pequeña. Así, se podía
determinar la distancia recorrida por los fotones desde el blanco hasta un detector y midiendo el tiem-
po se podía determinar la velocidad que resultó ser (2,9977 ± 0,0004) ´ 108 m s–1. Dentro del mar-
gen de error, esta velocidad es la misma que la de la luz emitida por una fuente en reposo. Por consi-
guiente, si uno supone que:
cmovimiento = creposo + kufuente (55)
–4
donde k es una constante, el experimento establece que k < 10 .
Por otra parte, R. Tomaschek repitió el experimento de Michelson y Morley utilizando la luz de
una estrella, y D. C. Miller utilizando la luz del Sol. La dependencia de la velocidad de la luz con la
fuente emisora debería haber producido cambios significativos en el patrón de interferencia, cambios
que no fueron observados. Por tanto, era de esperar que la velocidad de la luz fuese independiente del
estado de movimiento de la fuente.
Todas las observaciones y resultados experimentales, comentados anteriormente, contradecían cla-
ramente la hipótesis de partida de las teorías de emisión. Teorías cuyo objetivo era la sustitución de la teo-
ría electromagnética de Maxwell por otra, con la intención de preservar la mecánica. Sin embargo, la con-
clusión es la contraria: la teoría electromagnética es correcta y la velocidad de la luz es igual en todos los
sistemas de referencia inerciales independientemente del estado de movimiento de la fuente y del obser-
vador. Por consiguiente, de las posibilidades comentadas al principio del tema sólo nos queda la tercera:
Existe un principio de relatividad tanto para la mecánica como para el electro-
magnetismo, pero las leyes de Newton no son correctas.
En este caso, las transformaciones de Galileo no serían válidas, puesto que son incompatibles
con las ecuaciones de Maxwell, y deben ser reemplazadas por otras que sean compatibles con el elec-
tromagnetismo y con la nueva mecánica.
...para todos los sistemas de coordenadas en los que se cumplen las leyes de la
mecánica, las ecuaciones de la electrodinámica y la óptica también se cumplen...
Además, escribía:
1. Principio de relatividad: las leyes de la física son las mismas en todos los sistemas de referen-
cia inerciales.
Puesto que las leyes de Newton son invariantes frente a las transformaciones de Galileo, no lo
serán frente a las nuevas transformaciones, por lo que habrá que modificarlas de manera que se reduz-
can a las antiguas cuando se trate de velocidades pequeñas (mucho más pequeñas que la de la luz) ya
que en este rango las leyes de Newton son aproximadamente correctas.
3. CINEMÁTICA RELATIVISTA
En este apartado vamos a estudiar las transformaciones de las coordenadas espacio-temporales
entre sistemas de referencia inerciales, denominadas transformaciones de Lorentz, y estudiaremos al-
gunas consecuencias importantes de dichas transformaciones.
å (x j
) 2 = ct 2 (56)
j= 1
å ( x' j
) 2 = ct ' 2 (57)
j= 1
å (x m
)2 = 0 (60)
m= 0
å ( x' m
)2 = 0 (61)
m= 0
å ( x' m ) 2 = k å ( x m ) 2 (62)
m= 0 m= 0
En principio podríamos suponer que k es una función de xj , t y u. Ahora bien, como el espacio y el
tiempo asociados a cada sistema de referencia son homogéneos, la relación entre å ( x' m ) 2 y
3
m= 0
å
3
( x m ) 2 no puede variar de punto a punto del espacio ni en instantes diferentes, por lo que k ha de
m= 0
ser una función de u. Por otra parte, la isotropía del espacio impide toda dependencia de k con la di-
rección, por tanto, k sólo puede ser función del módulo de la velocidad:
3 3
å ( x¢ m
) 2 = k ( u )å ( x m ) 2 (63)
m= 0 m= 0
å (x m
) 2 = k (– u )å ( x¢ m ) 2 (64)
m= 0 m= 0
å ( x m )2 = k ( u )å ( x¢ m )2 (65)
m= 0 m= 0
Ahora bien, k(u) no puede ser una función discontinua de u. Es decir, si u varía cierta cantidad por
unidad de tiempo, k no puede pasar de valer +1 a –1. Por otra parte, en el límite u ® 0 los sistemas S y
S´ se hacen coincidentes por lo que k(u = 0) = 1. En consecuencia, se tiene que:
3 3
å ( x m )2 = å ( x¢ m )2 (67)
m= 0 m= 0
Esta relación es análoga a la que describen los giros ortogonales que conservan las distancias en espa-
cios tridimensionales, por lo que las transformaciones que buscamos corresponden a un giro en un es-
pacio cuadridimensional. Es decir, las transformaciones serán ortogonales en el espacio de Minkows-
ki y podemos escribir:
3
x¢ m = å L mn x n (68)
n=0
æL00 L01 0 0ö
ç ÷
çL 1 L11 0 0÷
L =ç 0 ÷ (69)
ç 0 0 1 0÷
ç ÷
è 0 0 0 1ø
LLt = I (70)
Ahora bien, puesto que el origen del sistema S´ (x´1 = 0) se mueve con velocidad u, visto desde S se
tendrá que x1 = ut, por lo que de la relación (75):
æ L10 ö
0= L10 x 0 + L11 x 1 ® 0= L11ç ÷
ç 1 ict + ut ÷ (76)
L
è 1 ø
Por lo que:
L10 u
= i = ib (77)
L11 c
Para decidir el signo que hemos de tomar se ha de tener en cuenta que si u ® 0 (b ® 0) se tiene que
x´1 = x1 por lo que L11 ® 1. Por tanto:
1
L11 = (79)
1– b 2
y de (77):
ib
L10 = (80)
1– b 2
L10
L01 = – L00 = – ibL00 (81)
L 1
1
Además, si u ® 0 entonces, de (82), L00 ®±1. Pero como en el origen común x1 = x´1 = 0 se tiene que t´
= t, se deduce que:
1
L00 = (85)
1– b 2
en donde:
u
b= (88)
c
y
1 1
g= = (89)
1– b 2
æ u ö2
1–ç ÷
ècø
De la matriz de giro obtenemos inmediatamente las transformaciones de Lorentz del espacio-tiempo entre
dos sistemas de referencia inerciales S y S´:
x' 2 = x 2 (92)
x' 3 = x 3 (93)
x 1 – ut
x' 1 = g(x 1 – ut) = (95)
1– b 2
x' 2 = x 2 (96)
x' 3 = x 3 (97)
x 2 = x' 2 (100)
x 3 = x' 3 (101)
l= x 1 ( 2) – x 1 (1) (102)
1 1
en donde x (2) es la posición de un extremo de la varilla y x (1) la posición del otro extremo.
Veamos cómo determina la longitud un observador situado en un sistema de referencia S´ que se
mueve con velocidad u con respecto a S. Un observador en S´ determinará la longitud l' de la varilla
localizando la posición de sus extremos en un instante de tiempo t´:
x 1 ( 2) – ut ( 2)
x' 1 ( 2 ) = (104)
1– b 2
x 1 (1) – ut (1)
x' 1 (1) = (105)
1– b 2
Por lo que:
[ x 1 ( 2) – x 1 (1)] – u[ t ( 2) – t (1)]
x' 1 ( 2) – x' 1 (1) = (106)
1– b 2
Los instante de tiempo t(2) y t(1) son instantes de tiempos medidos en el sistema S y no corresponden
a los tiempos en los que se hicieron las medidas en S´. Ahora bien, las transformaciones de Lorentz
nos proporcionan las siguientes relaciones:
u 1
t ( 2) – x ( 2)
t ' ( 2) = c2 (107)
1– b 2
u 1
t (1) – x (1)
t ' (1) = c2 (108)
1– b 2
Por lo que:
u 1
[ t ( 2) – t (1)] – [ x ( 2) – x 1 (1)]
t ' ( 2) – t ' (1) = c2 (109)
1– b 2
Como las medidas de la longitud de la varilla en el sistema S´ se hacen estableciendo las posiciones de
sus extremos en un instante de tiempo, se tendrá que t´(2) = t´(1). Llevando esto a la expresión ante-
rior, se tiene que:
u 1
t ( 2) – t (1) = [ x ( 2) – x 1 (1)] (110)
c2
l'= l 1– b 2 (112)
Este resultado se conoce como contracción de las longitudes y establece que un observador en S´ verá
que la longitud de una varilla que se mueve respecto a él con velocidad u (la varilla está en reposo en S
y la velocidad relativa de los dos sistemas es u) se acorta en un factor 1– b 2 . Este resultado es la
base de la hipótesis de contracción de las longitudes de Lorentz-Fitzgerald.
u 1
t (1) – x (1)
t ' (1) = c2 (116)
1– b 2
Por lo que:
u 1
[ t ( 2) – t (1)] – [ x ( 2) – x 1 (1)]
t ' ( 2) – t ' (1) = c2 (117)
1– b 2
Por tanto:
Dt
Dt '= (119)
1– b 2
Este resultado se conoce como dilatación del tiempo y se interpreta de la siguiente manera. En el
sistema S el reloj está en reposo, mientras que desde el punto de vista de S´ el reloj se está moviendo a
velocidad u. El tiempo medido en el sistema en el que el reloj está en reposo se denomina tiempo pro-
pio y es el más corto. Para un observador en S´ es como si el reloj del sistema en movimiento fuese
más despacio, es decir, como si el tiempo se dilatara.
Hoy en día existen abundantes evidencias que apoyan el efecto de la dilatación del tiempo. La
primera observación directa de la dilatación del tiempo fue realizada por H. E. Ives y G. R. Stilwell en
el año 1938 al confirmar la existencia de un efecto Doppler transversal, el cual es un efecto puramente
relativista. Otro ejemplo de dilatación del tiempo lo podemos encontrar en los muones producidos
por los rayos cósmicos. Los rayos cósmicos son partículas de muy alta energía, fundamentalmente
protones, que provienen del espacio exterior. En la atmósfera reaccionan con los núcleos de las molé-
culas de gas atmosférico dando lugar a un tipo de partículas subatómicas denominadas muones. Po-
demos suponer que los muones se generan a una altitud de 10000 m con una velocidad de 0,99c. Estas
partículas inestables tienen en el laboratorio un período de vida medio de 2,2 ms. En este tiempo, las
partículas viajarían una distancia aproximada de 650 m antes de desintegrarse, de manera que muy
pocas alcanzarían la superficie terrestre. Sin embargo, una gran cantidad de muones alcanzan el nivel
del mar. Si consideramos el factor de dilatación del tiempo el espacio recorrido por los muones sería
de x = ut = ugt = 4800 m, lo que explicaría el número de los que alcanzan el nivel del mar. Un efecto
similar ocurre en los aceleradores de partículas de alta energía. La colisión de partículas como proto-
nes y electrones sobre un blanco producen partículas subatómicas inestables. En un experimento rea-
lizado en 1977, J. Bailey midió la vida media de muones que estaban circulando a velocidades de
0,99942c y encontró que era 29,3 veces más grande que la vida media de los muones en reposo, factor
que concuerda bien con el factor g a esas velocidades. Otro experimento realizado en 1972 por J. C.
Hafele y R. E. Keating consistió en hacer viajar en un avión relojes atómicos muy precisos y compa-
rar el tiempo de vuelo con el medido por relojes similares situados en tierra. El resultado fue que los
relojes en movimiento corrían más despacio que los relojes en reposo. Si bien la mayor parte del efec-
to observado era consecuencia de un efecto de la relatividad general debido a la diferencia en el po-
tencial gravitatorio de los relojes, el resultado total sólo podía explicarse como una del efecto de la re-
latividad general y de la relatividad especial de dilatación del tiempo.
en el mismo instante de tiempo t´(1) = t´(2). Notemos cómo ve estos sucesos un observador situado en
S. De las transformaciones de Lorentz se tiene que:
u
t ' ( 2)+ 2 x' 1 ( 2)
t ( 2) = c (120)
1– b 2
u 1
t ' (1)+ x' (1)
t (1) = c2 (121)
1– b 2
Por lo que:
u 1
[ t ' ( 2) – t ' (1)] – [ x' ( 2) – x' 1 (1)]
t ( 2) – t (1) = c2 (122)
1– b 2
Ahora bien, como los sucesos son simultáneos en S´ y t´(2) – t´(1) = 0, se tiene que:
– u x' 1 ( 2) – x' 1 (1)
t ( 2) – t (1) = (123)
c2 1– b 2
En consecuencia, los sucesos no son simultáneos en el sistema S. Sólo en el caso en que los sucesos se pro-
duzcan en el mismo lugar en S´ serán simultáneos en todos los sistemas de referencia inerciales.
u' 2 1 – b 2
u2 = (134)
uu' 1
1+ 2
c
u' 3 1 – b 2
u3 = (135)
uu' 1
1+
c2
De las relaciones anteriores, vemos que la velocidad de la luz constituye un límite universal en
las velocidades de las señales. Así por ejemplo, si u´1 = c, de la expresión de la ley de composición de
velocidades dada por (133), se tiene que u1 = c. Ahora bien, que una señal no pueda viajar a velocida-
des mayores que la de la luz en el vacío c no significa que no puedan presentarse en la naturaleza velo-
cidades superiores a este límite. Por ejemplo, la velocidad de fase de una onda electromagnética que
se propaga en un medio cuyo índice de refracción sea inferior a la unidad es mayor que c. No obstan-
te, la velocidad de fase no corresponde a la velocidad de la señal en el medio, la cual es inferior a c.
Dicho de otra manera, el transporte de energía o de información siempre se produce a una velocidad
inferior a la de la luz en el vacío.
Si dos sucesos están infinitamente cerca uno del otro, el intervalo ds entre ellos es:
ds 2 = c 2dt 2 – (dx 1 ) 2 – (dx 2 ) 2 – (dx 3 ) 2 (137)
Introduzcamos la notación:
t 12 = t ( 2) – t (1) (138)
Entonces, el intervalo entre dos sucesos puede escribirse de forma abreviada como:
2
s12 = c 2 t 12
2
– l 212 (140)
Ahora bien, como s es un invariante (se deja la demostración al lector), se tiene que:
c 2 t 12
2
– l 212 = c 2 t ' 212 – l' 212 (142)
Lo que nos preguntamos es lo siguiente ¿existe algún sistema S´ en el que los sucesos ocurran en el
mismo lugar? Si esto es así, entonces l' 12 = 0, y en consecuencia:
2
s12 = c 2 t 12
2
– l 212 = c 2 t ' 212 > 0 (143)
2
Luego la respuesta a la pregunta anterior es que sí, siempre que s12 > 0; es decir, si el intervalo entre
los dos sucesos es un número real. Un intervalo que es real se dice que es un intervalo temporal. Por
consiguiente, si el intervalo entre dos sucesos es temporal entonces existe un sistema de referencia en
el que los sucesos ocurren en el mismo lugar.
¿Existe un sistema de referencia en el que los sucesos ocurran en el mismo instante de tiempo?
Si esto fuera así, entonces t´12 = 0 y en consecuencia:
2
s12 = c 2 t 12
2
– l 212 = – l' 212 < 0 (144)
Luego existirá un sistema de referencia en el que los sucesos sean simultáneos si el intervalo entre los
sucesos es un número imaginario. A los intervalos imaginarios se les denomina intervalos espaciales.
Evidentemente, el carácter temporal o espacial de un intervalo es independiente del sistema de refe-
rencia inercial.
Consideremos ahora un suceso en el origen de coordenadas espacio-temporales O, y considere-
mos la relación de otros sucesos con este. Para visualizarlo de forma sencilla vamos a considerar una
sola coordenada espacial x y el tiempo t. El movimiento de una partícula que pasa por x en t = 0 se repre-
senta por una línea recta inclinada un ángulo respecto del eje temporal. Si la velocidad de la partícula es
u, la pendiente de la recta será igual a la velocidad u. Ahora bien, como la velocidad máxima es c, hay
un ángulo máximo que esta línea puede formar con el eje temporal. Toda línea que representa el movi-
miento de una partícula debe caer dentro de la región AOC o DOB de la figura 12. Consideremos suce-
sos dentro de la región AOC. Para todos los sucesos de esta región se tiene que, como x2 = u2t2 < c2t2,
2
s12 = c 2 t 12
2
– x2 > 0 (145)
Consideremos ahora la región DOA y COB. En esta re- Figura 12. Cono de luz.
gión se satisface que c2t2 – x2 < 0, por lo que los intervalos en-
tre el suceso O y cualquier suceso son espaciales y los sucesos
ocurren en diferentes sitios del espacio en cualquier sistema
de referencia, por lo que se llama región de separación absoluta. Sin embargo, en esta región los con-
ceptos de simultaneidad, de antes y después, son relativos. Para cualquier suceso en esta región exis-
ten sistemas de referencia en los que el suceso ocurre después del suceso O, antes que O, o simultá-
neamente a O.
Notemos que si utilizamos las tres coordenadas espaciales, en vez de una, las líneas de la fi-
gura anterior se convierten en un cono en el espacio de cuatro dimensiones. A este cono se le de-
nomina cono de luz, en donde las regiones de pasado y futuro absoluto son los puntos interiores a
este cono.
Dos sucesos pueden estar relacionados causalmente uno a otro si el intervalo entre ellos es tem-
poral. Puesto que ninguna señal puede propagarse a mayor velocidad que la de la luz, para estos suce-
sos el concepto de antes y después tiene un significado absoluto lo cual es necesario para que el con-
cepto de causa efecto tenga sentido.
Ahora bien:
en donde u es la velocidad de la partícula (y del reloj ligado a ella). Por consiguiente, llevando (148) a
(147), se tiene que:
u2
dt = dt 1– (149)
c2
Al tiempo marcado por el reloj en reposo se le denomina tiempo propio.
A¢ m = å L mn A n (150)
n=0
n m = dx (152)
dt
Teniendo en cuenta la expresión del tiempo propio (149), estas componentes se escribirán como:
ic
n0 = (153)
1– b 2
1 dx i ui
ni = = (154)
1– b 2 dt 1– b 2
u
en donde b = (siendo u la velocidad de la partícula) y ui son las componentes espaciales de la ve-
c
locidad ordinaria. De la definición de v, se tiene que:
3
(v )2 = å (v m )2 = – c 2 (155)
v= 0
4. DINÁMICA RELATIVISTA
En este apartado vamos a ver cómo se modifican las leyes de la mecánica clásica y encontrare-
mos las expresiones relativistas del momento, la energía cinética y la energía total de una partícula.
m0 u i
Pi = (158)
1– b 2
Observemos que las componentes del 4-vector impulso las podemos escribir como:
m0
P i = mu i m= (159)
1– b 2
expresiones que son idénticas a las de la mecánica clásica pero en donde m no es un invariante, sino
que depende de la velocidad de la partícula y por tanto varía de un sistema de referencia a otro.
Puesto que las leyes de Newton son invariantes frente a las transformaciones de Galileo y no lo
son frente a las de Lorentz, será necesario generalizar dichas leyes. Definimos el 4-vector fuerza o
fuerza de Minkowski como el vector cuyas componentes vienen dadas por:
m
dP m d( m0 v )
Fm = = (160)
dt dt
Por consiguiente, se tendrá que para i = 1, 3, las componentes del 4-vector fuerza son:
d( m0 v i ) æ ö
d ç m0 u
i
1 ÷
Fi = = ç ÷ (161)
dt 1 – b 2 dt è 1 – b 2 ø
en donde hemos tenido en cuenta la expresión dada por (158). Por otra parte, la fuerza ordinaria viene
dada por:
æ i ö
dp i dç m u ÷
Fi = = ç 0 (162)
dt dt è 1 – b 2 ÷
ø
por lo que la relación entre la fuerza de Minkowski y la fuerza ordinaria viene dada por:
æ i ö
1 d ç m0 u ÷ Fi
Fi = ç ÷= (163)
1 – b 2 dt è 1 – b 2 ø 1– b 2
å (v m
)2 = – c 2 (165)
v= 0
(166)
dt ç
è v= 0
÷
ø v= 0
dt
åv m
dt
= 0® åvmFm = 0 (167)
v= 0 v= 0
Es decir, los 4-vectores v y F son ortogonales. Por tanto, de esta condición de ortogonalidad y de la
relación entre la fuerza de Minkowski y la fuerza ordinaria (163), se obtiene que:
ui F i
3
ic
F0 + å =0 (168)
i= 1 1 – b
2
1– b 2
r r dæ 2 ö
ç mc ÷
F ×u = ç 0 (171)
dt è 1– b 2 ÷
ø
r r
El trabajo realizado sobre la partícula por unidad de tiempo es F ×u y es igual a la variación de la
energía cinética T por unidad de tiempo. Por tanto:
æ 2 ö
dT d ç m0 c ÷
= ç ÷ (172)
dt dt è 1– b 2 ø
m0 c 2
T= +C (173)
1– b 2
Para encontrar el valor de la constante C hemos de tener en cuenta que T = 0 cuando u = 0, por lo que:
0= m0 c 2 +C ® C = – m0 c 2 (174)
Llevando el valor de esta constante a la expresión de la energía cinética, obtenemos finalmente que:
m0 c 2
T= – m0 c 2 = mc 2 – m0 c 2 (175)
1– b 2
E = T + m0 c 2 (176)
2
en donde m0c es la energía en reposo. De la expresión de la energía cinética se tiene que:
E = mc 2 (177)
que nos proporciona la energía total de la partícula.
Teniendo en cuenta esta expresión, la componente P0 de 4-vector impulso se puede escribir como:
im0 c E
P0 = =i (178)
1– b 2 c
æ E rö
P =çi , p÷ (179)
è c ø
r
en donde p son las componentes espaciales del momento.
Si aplicamos la matriz de cambio de Lorentz a las componentes del 4-vector momento lineal, se
tiene que la relación entre las componentes en un sistema S y otro S´ que se muevan con velocidad re-
lativa u uno respecto del otro, vienen dadas por:
E – up 1
E '= (180)
1– b 2
u
p1 – E
p' 1 = c2 (181)
1– b 2
p' 2 = p 2 (182)
p' = p
3 3
(183)
en donde b = u/c.
Puesto que como vimos anteriormente (v)2 = –c2, se tendrá que:
(P ) 2 = ( m0 ) 2 ( v ) 2 = –( m0 ) 2 c 2 (184)
que indica que el módulo al cuadrado del 4-vector impulso es un invariante.
Por otra parte, de (179), se tiene que:
E2
(P ) 2 = – 2
+ ( p 1 )2 + ( p 2 )2 + ( p 3 )2 (185)
c
Teniendo en cuenta la expresión de la energía dada por (177), la ecuación anterior queda como:
r r r
m0 du u dE
F= + 2 (190)
1– b 2 dt c dt
r r
Podemos observar que, en general, a no es paralela a F. No obstante hay dos casos en lo que am-
bos vectores son paralelos:
r r r r r r r
1. Si F es paralela a u, como F ×u es un escalar, se tendrá que los vectores a, F y u son paralelos. En
este caso, se demuestra que:
m0
F= a (193)
æ u 2 ö3 2
ç
ç1– 2 ÷ ÷
è c ø
r r r r
2. Si F es perpendicular a u, entonces F ×u = 0, por lo que:
m0
F= a (194)
1– b 2
u= u´ u = u´
u´B = u´ u´ A = u´ u´C = 0
Figura 13. Colisión de dos
partículas en el sistema de B A C
referencia S´: (a) antes de la
colisión, (b) después de la
colisión. (a) (b)
En otro sistema de referencia S que se desplaza hacia la izquierda con velocidad u = u´ con res-
pecto a S´, la colisión se observa como se indica en la figura 14. Puesto que en el sistema S´ la partícu-
la resultante se encuentra en reposo, en el sistema S, que ve moverse a S´ con velocidad u = u´ hacia la
derecha, la partícula resultante de la colisión se moverá hacia la derecha con velocidad u´.
S S
uB uA = 0 uC = u´
B A C
(a) (b)
Ahora, apliquemos en el sistema S el principio de conservación del momento lineal. Para ello,
denominemos uB a la velocidad de la partícula B y mB a su masa relativista. Además, tengamos en
cuenta que la partícula A se encuentra en reposo antes de la colisión. Como la velocidad de la partícu-
la resultante de la colisión es u´, si denominamos M a su masa relativista, el principio de conservación
del momento lineal se escribe como:
mB u B + 0= Mu' (195)
Si llevamos la expresión (196) y los resultados (197) y (199) a la ecuación (195) de la conservación
del momento lineal, obtenemos que:
æ u' 2 ö
m0ç
ç1+ 2 ÷÷
è c ø 2u' M 0 u'
= (200)
u' 2 u' 2 u' 2
1– 2 1+ 2 1– 2
c c c
De esta expresión, se obtiene que la masa en reposo de la partícula resultante de la colisión viene dada
por:
2m0
M0 = (201)
u' 2
1– 2
c
Luego, la masa en reposo del resultado de la colisión no es igual a la suma de las masas en reposo de
las dos partículas que colisionan. El aumento de la masa en reposo es:
æ ö
ç ÷
ç 1 ÷
M 0 – 2m0 = 2m0ç – 1÷ (202)
ç u' 2 ÷
ç 1– 2 ÷
è c ø
Calculemos ahora la energía cinética en el sistema S´. Antes de la colisión, las partículas tienen
energías cinéticas iguales, y el producto de la colisión permanece en reposo. Luego la variación de
energía cinética, antes y después de la colisión, es:
æ ö
ç ÷
ç 1 ÷
TA +TB = 2T = 2m0 c 2ç – 1÷ (203)
ç ÷
2
u'
ç 1– 2 ÷
è c ø
La energía cinética desaparece en la colisión y en su lugar aparecen otras formas de energía interna,
como la calorífica. Vemos que esa energía interna da lugar a un aumento de la masa en reposo de la
BIBLIOGRAFÍA
30
Teoría cuántica. Problemas
precursores. Límites de la física
clásica para resolverlos.
Fenómenos que corroboran la
teoría cuántica
ÍNDICE SISTEMÁTICO
2. MECÁNICA CUÁNTICA
2.1. Principios fundamentales de la mecánica cuántica
2.1.1. Hipótesis de De Broglie
2.1.1.1. Confirmación experimental de la hipótesis de De Broglie
2.1.1.2. La dualidad onda-partícula
2.1.2. Principio de incertidumbre de Heinsenberg
2.1.2.1. Ondas de materia y principio de incertidumbre
2.1.3. Principio de complementariedad
2.2. Teoría de Schrödinger de la mecánica cuántica
2.3. Base conceptual de la mecánica cuántica
2.3.1. Probabilidad de la posición
2.3.2. Valores promedio o esperados de una medida
BIBLIOGRAFÍA
Al igual que emiten radiación, los cuerpos pueden absorber la radiación térmica emitida por los otros
cuerpos de su alrededor. Este intercambio de energía provoca el calentamiento o enfriamiento del cuerpo.
Cuando el ritmo de emisión de energía radiante es igual al de absorción, se alcanza el equilibrio térmico.
A bajas temperaturas, la radiación térmica es prácticamente despreciable, mientras que es impor-
tante a altas temperaturas. El espectro de la radiación emitida por los cuerpos es prácticamente indepen-
diente de su naturaleza y depende fuertemente de la temperatura. El rango de longitudes de onda de la
radiación térmica se sitúa entre los 0.1 mm y los 100 mm. De este modo, se extiende desde el ultravioleta
hasta el infrarrojo e incluye, por tanto, la porción visible del espectro. Así, a temperaturas suficiente-
mente altas, los cuerpos emiten radiación en la región del visible y se hacen luminosos por sí mismos,
mientras que, a temperaturas bajas, son visibles por la luz que reflejan y no por la emitida.
– Flujo de energía: dada una fuente que emite energía radiante, se define el flujo energético F
como la energía irradiada en todo el espacio que le rodea, o sea, en un ángulo sólido de 4p. Se
expresa en W.
– Flujo monocromático: se define el flujo monocromático Fl como el flujo de las radia-
ciones emitidas entre l y l + dl. Sus unidades serán, por tanto, W m o W mm .
–1 –1
dF= ò0 E l dSdl = dS ò0 E l dl
¥ ¥
(4)
Y por consiguiente:
dF
= ò0 E l d l
¥
E= (5)
dS
Por otro lado, un reflector perfecto es aquél para el que r = 1, por lo que para este tipo de cuerpos se
tiene que:
a=t=0 (9)
ò aGd
¥
l l l
a= 0
(13)
ò Gd
¥
0 l l
ò rGd
¥
l l l
r= 0
(14)
ò Gd
¥
0 l l
ò tGd
¥
l l l
t= 0
(15)
ò Gd
¥
0 l l
El T3
T3 > T2 > T1
T2
T1
l l +dl l
Experimentalmente, se obtiene que, para un cuerpo negro la, emitancia espectral es una función
continua que depende de la temperatura, tal y como se muestra en la figura 2. Vemos que el máximo
se desplaza hacia longitudes de onda más cortas al aumentar la temperatura. Este comportamiento del
máximo con la longitud de onda viene dado por la ley de desplazamiento de Wien, que establece que
los máximos corresponden a una longitud de onda dada por:
C
l max = (16)
T
en donde C = 2.898 ´ 10–3 m K es una constante.
Por otra parte, se obtiene que la emitancia total de un cuerpo negro es directamente proporcional
a la cuarta potencia de la temperatura. Este resultado, que se conoce como ley de Stefan-Boltzmann,
puede escribirse como:
E 0 (T ) = ò0 E 0 ( l , T )dl = sT 4
¥
(17)
estudiando el espectro de la radiación de una cavidad. El espectro de la radiación emitida por el agujero
vendrá especificado por la emitancia espectral E0(l,T); no obstante, por razones de tipo práctico, es más
fácil especificar el espectro de la radiación en la cavidad en función de la densidad de energía u(v,T) de-
finida como la energía contenida en la cavidad por unidad de volumen a una temperatura T y en un in-
tervalo de frecuencias entre v y v + dv. La relación entre ambas magnitudes puede demostrarse que es:
c
E 0 ( v , T ) dv = u ( v , T ) dv (18)
4
en donde c es la velocidad de propagación de la radiación electromagnética.
A continuación, vamos a exponer los resultados que proporciona la física clásica sobre el espec-
tro de radiación del cuerpo negro.
Para determinar en número de ondas estacionarias en la cavidad, vamos a considerar, para sim-
plificar los cálculos, que se trata de una cavidad cúbica de lado L. Las ondas estacionarias han de ser
de la forma:
r r
E(x,y,z) = E 0 sen(kxx) sen(kyy) sen(kzz) (20)
en donde hemos de tener en cuenta que son posibles dos orientaciones mutuamente perpendiculares
para la orientación del campo eléctrico.
La condición de que el campo eléctrico sea cero en las paredes de la cavidad se satisface si los
valores de kx, ky y kz son de la forma:
p
k x = nx (21)
L
p
ky = ny (22)
L
p
k z = nz (23)
L
donde nx, ny y nz son números enteros: nx, ny, nz = 1,2,3...
Y teniendo en cuenta que k = 2pv/c, las frecuencias permitidas son aquellas que satisfacen la relación:
2Lv
n x2 + n 2y + n z2 = (25)
c
nz
Para determinar el número de frecuencias permitidas en un
r = 2Lv/c intervalo de frecuencias dado, se construye una gráfica tridi-
mensional, siendo los ejes los enteros nx, ny y nz (figura 3). De
esta manera, cada frecuencia permitida corresponde a un pun-
to de la red cúbica, y el número de frecuencias permitidas en-
ny tre 0 y v corresponderá al número de puntos en el octante de
radio r = 2Lv/c. Puesto que por construcción hay un punto de
la red por unidad de volumen, el número de puntos es aproxi-
nx madamente igual al volumen del octante. Pero no exactamen-
te igual, debido a que los números nx, ny y nz son enteros,
Figura 3. Sistema de coordenadas mientras que el volumen es una función continua de la varia-
para determinar el número de ble v. Sin embargo, conforme el valor de v es mayor, más se
frecuencias permitidas en una acerca el número de estados estacionarios N(v) entre 0 y v al
cavidad cúbica. valor dado por:
1 4 æ 2Lv ö
3
4pL3 3
N ( v )= pç ÷= v (26)
83 è c ø 3c 3
4pL3 2
dN ( v )= v dv (27)
c3
Por último, hemos de tener en cuenta que, por cada onda estacionaria, son posibles dos orientaciones
mutuamente perpendiculares del campo eléctrico correspondientes a los dos estados de polarización
posibles de la radiación electromagnética, por lo que el número de estados estacionarios en un inter-
valo de frecuencias lo podemos escribir como:
8pL3 2
g ( v )dv = v dv (28)
c3
e – E / kBT
P (E )= (30)
kBT
en donde P(E)dE es la probabilidad de encontrar un ente de un sistema con energía comprendida en-
tre E y E + dE cuando el número de estados de energía para el ente en ese intervalo es independiente
de E. En función de esta distribución, puede obtenerse la energía promedio de los entes del sistema:
ò EP ( E )dE
¥
E = 0
(31)
ò P ( E )dE
¥
La integral en el denominador es la probabilidad de encontrar al ente con cualquier energía y, por tan-
to, es igual a la unidad. Evaluando la integral de numerador se tiene que:
8pv 2 k B T
u( v, T )dv = dv (33)
c3
que es la fórmula de Rayleigh-Jeans para la radiación del cuerpo negro.
En la figura 4 se comparan las predicciones de la teoría de Rayleigh-Jeans con los resultados ex-
perimentales. La falta de acuerdo es clara: en el límite para frecuencias bajas, el espectro que predice
la teoría clásica se acerca a los datos experimentales. Sin embargo, conforme aumenta la frecuencia,
la teoría clásica predice una densidad de energía infinita en completa contradicción con los resultados
experimentales que indican que la densidad de energía, como no puede ser de otra manera, permane-
ce siempre finita y tiende a cero a frecuencias muy elevadas. Esta terrible discrepancia entre la pre-
dicción de la teoría clásica (predicción irreal a todas luces) y los experimentos es conocida en física
como catástrofe ultravioleta y el término refleja de forma contundente el gran fallo de la teoría clásica
en la explicación de la radiación del cuerpo negro.
u(v,T) (10-17 J/m3 Hz)
8
Teoría de
6 Rayleigh-Jeans
4
Figura 4. Predicción de Resultados
Rayleigh-Jeans comparada con los 2 experimentales
valores experimentales para la
densidad de energía en una cavidad 0
radiante. La discrepancia a 0 1 2 3
frecuencias altas se denomina 14
catástrofe ultravioleta. v (10 Hz)
Por consiguiente, cualquier entidad que satisfaga la hipótesis de Planck presenta un espectro discreto
de energía frente al espectro continuo de la física clásica. Decimos que la energía del sistema está
cuantizada, correspondiendo cada energía a un estado cuántico posible con número cuántico n.
Veamos, a continuación, cuál sería la densidad de energía de una cavidad radiante si suponemos
que cada onda estacionaria, cuya amplitud describe un movimiento armónico simple de frecuencia v,
satisface el postulado de Planck. Para ello, debemos calcular la energía media de cada onda estacionaria
tomando como base esta nueva hipótesis. Puesto que ahora la energía sólo puede tomar valores discre-
tos, la expresión del valor medio de la energía dada por (31) deberá escribirse como:
å
¥
EP ( E )
n= 0
E = (36)
å
¥
P (E )
n= 0
Sustituyendo el valor de la probabilidad P(E) dado por (30) y el valor de la energía según la hipótesis
de Planck, se tiene que:
å nhve
¥
– anhv
n= 0
E = (37)
åe
¥
– anhv
n= 0
siendo a = 1/kBT y donde hemos supuesto que la distribución de Boltzmann sigue siendo válida. Esta
expresión la podemos escribir de forma más simple como:
¥
d
E =– ln å e – anhv (38)
da n= 0
åe – anhv
= 1+ e – ahv + e –2ahv + e –3anhv +... (39)
n= 0
åe – anhv
= 1+ x+ x 2 + x 3+... (40)
n= 0
åe – anhv
= (1– e – ahv ) –1 (42)
n= 0
Sustituyendo este resultado en la ecuación (19) de la densidad de energía y teniendo en cuenta la ex-
presión (28), obtenemos que la densidad de energía de la cavidad radiante viene dada por:
8pv 2 hv
u( v, T )dv = 3 hv / kBT
dv (45)
c e –1
que es la fórmula de Planck para la radiación del cuerpo negro. Esta expresión se ajusta a los datos ex-
perimentales adecuadamente, tal como se muestra en la figura 5.
2.00
1.75 T = 1595 K
u(l,T ) (kJ/m3 m)
1.50
1.25
1.00
0.75
0.50
0.25
0.00
0 1 2 3 4 5 6
l (mm)
Figura 5. Predicción de Planck de la densidad de energía de una cavidad
radiante comparada con los resultados experimentales (círculos).
Para la emitancia espectral, teniendo en cuenta que la relación entre esta magnitud y la densidad
de energía de la cavidad radiante viene dada por (18), se tiene:
2phc 2 l–5
E 0l = (47)
e hc / kB lT – 1
La longitud de onda para la cual la emitancia alcanza su valor máximo la podemos encontrar impo-
niendo la condición de máximo en la expresión de la ley de Planck:
dE 0l d 2phc 2 l–5
= =0 (48)
dl dl e hc / kB lT – 1
en donde C = 2.898 ´ 10–3 m K es una constante. Esta expresión constituye la ley de desplazamiento
de Wien. Si sustituimos este valor en la expresión de la ley de Planck, encontramos que el valor máxi-
mo de la emitancia espectral viene dado por:
0 –5 5 –3
[E (l,T)]máx = 1.287 ´ 10 T Wm (50)
La cantidad de energía radiante por unidad de área que emite un cuerpo negro a la temperatura T
viene dada por la integral de la distribución de Planck extendida a todas las longitudes de onda:
E 0 (T ) = ò0 E 0 ( l , T )dl
¥
(51)
El valor de esta integral es p4/15, por lo que podemos escribir que la emitancia total es de la forma:
0 4
E (T) = sT (53)
que corresponde a la ley de Stefan-Boltzmann, siendo s:
2pk B4 p 4
s= (54)
h 3 c 2 15
De la discusión anterior, vemos que la ley de Planck permite obtener las leyes empíricas de
Wien y de Stefan-Boltzmann. Puesto que las medidas experimentales permiten obtener los valores de
la constante de Stefan-Boltzmann y de la ley de desplazamiento de Wien, podemos comparar estos
valores con los deducidos a partir de la ley de Planck de la radiación del cuerpo negro (49) y (54). Los
valores teóricos y los experimentales son compatibles si kB es la constante de Boltzmann y si la cons-
tante de Planck es igual a h = 6.625 ´ 10–34 J · s.
Ventana de Luz
cuarzo
e
C A
i G
Los resultados más importantes que se obtienen del experimento son los siguientes: si la tensión
V es positiva y suficientemente elevada, todos los electrones emitidos por el cátodo llegan al ánodo y,
por tanto, se alcanza una corriente de saturación; si se disminuye el valor de V, la corriente disminuye
y, cuando se invierte (valores de V negativos), se observa que la corriente no se hace cero inmediata-
mente, lo que indica que los electrones son emitidos con cierta energía cinética. Conforme este poten-
cial de retardo se va haciendo mayor, menor es el número de electrones que tienen energía suficiente
para llegar al ánodo y, por consiguiente, la corriente fotoeléctrica disminuye. Para un valor suficien-
temente grande y negativo de esta diferencia de potencial, la corriente se hace cero. Al valor absoluto
V0 de esta diferencia de potencial se le denomina potencial de frenado, y es una medida de la energía
cinética máxima con la que son emitidos los electrones por el cátodo:
Kmáx = e V0 (55)
i i V = cte V0
v = cte
2I
vc vc v
Figura 7. Resultados
V0 V I experimentales del efecto
a) b) c) fotoeléctrico.
buida por todo el espacio por el que se extiende en un momento determinado. Por otro lado, la in-
tensidad de una onda electromagnética es proporcional al cuadrado de la amplitud del campo
1
eléctrico I = e 0 cE 02 , siendo e0 la permitividad del vacío, c, la velocidad de la luz y E 0 , la ampli-
2
tud del campo eléctrico.
La emisión de electrones debida a la absorción de la radiación incidente debe ser consecuencia
de la interacción del campo eléctrico de la onda de luz incidente con los electrones del cátodo. Consi-
deremos un electrón que se encuentra ligado con cierta energía de enlace W al metal. El campo eléc-
trico de la onda electromagnética incidente ejercerá una fuerza F sobre el electrón F = eE. De esta
manera, cuanto mayor sea el campo eléctrico, mayor será la fuerza ejercida sobre el electrón y mayor
la energía cinética que éste puede adquirir. Puesto que la amplitud del campo eléctrico es proporcio-
nal a la raíz cuadrada de la intensidad, resultará que, conforme sea mayor la intensidad de la onda,
mayor será la energía cinética que pueden adquirir los electrones. Esto explicaría el hecho menciona-
do anteriormente, que fijada una frecuencia y una tensión V, la corriente fotoeléctrica aumenta con la
intensidad de la onda incidente. Sin embargo, no puede explicar el hecho de que el potencial de frena-
do, que es proporcional a la energía cinética máxima de los electrones, sea independiente de la inten-
sidad de la onda de la radiación incidente.
Otro hecho experimental que la teoría clásica no puede explicar es la dependencia del potencial
de frenado V0, o, lo que es lo mismo, de Kmáx, con la frecuencia v. Desde el punto de vista clásico, la
energía transportada por la onda electromagnética depende de su amplitud (o intensidad), pero no de
su frecuencia, por lo que la energía que puede ser absorbida por el electrón sería independiente de la
frecuencia y, por consiguiente, también lo sería la energía cinética que éste pudiera adquirir. Por tan-
to, la teoría clásica no puede dar una respuesta al hecho experimental observado. Igual que tampoco
puede explicar el que haya una frecuencia de corte vc, propia de cada material, por debajo de la cual
no se observa el efecto fotoeléctrico.
Una última limitación de la teoría clásica en la explicación del efecto fotoeléctrico, y que
jugó un papel crucial en el rechazo a las ideas clásicas de la radiación electromagnética, es su im-
posibilidad de explicar el hecho de que la emisión fotoeléctrica sea prácticamente instantánea.
Según la teoría ondulatoria clásica de la luz, es necesario un tiempo bastante grande para que un
electrón absorba la energía suficiente para abandonar una superficie metálica. Para analizar esto,
realicemos el siguiente cálculo. Supongamos una fuente que emite energía en forma de luz ultra-
violeta con una potencia de P = 1 W y supongamos que se encuentra a una distancia R =1 m del
cátodo. Por otro lado, vamos a suponer, de forma bastante generosa, que toda la radiación que in-
cide sobre un átomo es absorbida por un solo electrón, el que se encuentra menos ligado al átomo.
Vamos a suponer que el radio del átomo es del orden de r = 10–10 m. Por tanto, la sección expuesta
a la onda incidente será A = pr2 = p10–20 m2. Puesto que la energía de una onda electromagnética
se encuentra uniformemente distribuida sobre todo el frente de onda, suponiendo un frente de
onda esférico, la intensidad de la onda, es decir, la energía por unidad de tiempo y de superficie
en la placa metálica, será I = P/S = P/(4pR2) = 1/4p W/m2. Por tanto, la cantidad de energía absor-
bida por segundo por un electrón en el cátodo es Pa = IA = 2,5 ´ 10–21 W. Por otro lado, se sabe
que la energía mínima de enlace de un electrón con un átomo es del orden de unos pocos eV. Si to-
mamos como valor para esta energía Eb = 1 eV = 1.6 ´ 10–19 J, entonces el tiempo necesario para
absorber dicha energía será:
E b 1.6´10–19
t= = = 0.64´102 s = 64 s 1 minuto (57)
Pa 2.5´10–21
Es decir, que debería observarse la corriente fotoeléctrica un minuto después de que la luz ultraviole-
ta incidiera sobre el cátodo. Sin embargo, experimentalmente no se observa ningún retraso (al menos
superior a 10–9 s).
Veamos, a continuación, cómo podemos explicar con la teoría de Einstein los resultados experi-
mentales del efecto fotoeléctrico presentados al comienzo de esta sección.
Al aumentar la intensidad de la radiación, se aumenta la densidad de fotones del haz, por lo que
será mayor el número de fotones que colisionan con el cátodo cada segundo. Esto significa que habrá
un mayor número de colisiones fotón-electrón y, en consecuencia, se producirá un aumento de los
electrones emitidos por el cátodo, con el consiguiente aumento de la corriente fotoeléctrica. De esta
manera, podemos entender el resultado experimental representado en la figura 7b, en el que se mues-
tra que la corriente es proporcional a la intensidad de la radiación incidente.
Por otro lado, aumentar la intensidad significa aumentar el número de fotones del haz, pero no la
energía de cada uno de ellos. Así, la máxima energía cinética Kmáx que puede adquirir un electrón, y
por, tanto el potencial de frenado V0, deberá ser independiente de la intensidad I (como se muestra en
la figura 7a) y ser sólo función de la energía del fotón incidente, es decir, de la frecuencia de la radia-
ción incidente. Esto es lo que indican las expresiones (60) y (61). Además, en la ecuación (61) pode-
mos observar que el potencial de frenado aumenta linealmente con la frecuencia v, tal como se
observa experimentalmente y se muestra en la figura 7c, y que la pendiente de la recta es la misma
para todos los metales. De esta misma ecuación, se ve que, si la energía del fotón es menor que la fun-
ción trabajo del metal, el cátodo no emite electrones. Es decir, no se produce el efecto fotoeléctrico si
hv < f. Es decir, que existe una frecuencia de corte vc dada por:
f
vc = (62)
h
por debajo de la cual no tiene lugar el efecto fotoeléctrico.
Esta predicción del aumento lineal de la energía cinética máxima de los electrones con la fre-
cuencia de la radiación incidente fue chequeada por Millikan en 1916, en una serie de experimentos
que corroboraron la teoría de Einstein. Además, esto permitió encontrar el valor de la constante de
Planck, el cual se ajustaba con un error menor del 0,5% con el obtenido por el método de ajustar la
teoría de Planck al espectro experimental del cuerpo negro. Esta perfecta concordancia del valor de la
constante de Planck supuso un gran éxito de las teorías cuánticas.
Por último, según la teoría de Einstein, la emisión electrónica debería ser instantánea, pues, en el
proceso no tiene lugar una absorción gradual de energía por parte del electrón hasta que alcanza la
energía suficiente para abandonar el metal. Este proceso es una colisión fotón-electrón, por lo que, si
algún fotón de energía mayor que la función trabajo alcanza la superficie del cátodo, el fotón será ab-
sorbido inmediatamente por un átomo y se producirá la emisión inmediata de un electrón.
Un aspecto interesante que merece la pena resaltar es que, en el proceso fotoeléctrico, los foto-
nes son absorbidos, lo que exige que los electrones estén ligados a átomos o a un sólido, ya que un
electrón libre no podría absorber un fotón y conservar en el proceso tanto su energía relativista como
su momento. Por consiguiente, el electrón deberá estar ligado de manera que las fuerzas de ligadura
transmitan el momento al átomo o al sólido. Puesto que la masa de un átomo o de un sólido es mucho
mayor que la del electrón, aquéllos pueden absorber una gran cantidad de momento sin que se pro-
duzca una variación apreciable en la energía.
máximos bien definidos: uno con longitud de onda l, igual a la longitud de la radiación incidente y
otro máximo con longitud de onda l´, mayor que la longitud de onda incidente, cuyo valor dependía
del ángulo q y alcanzaba su máximo valor para un ángulo q = 180º. Este fenómeno se denomina efec-
to Compton y se muestra en la figura 9.
Colimador
Fuente de
rayos X
Detector
Blanco
q
I I
00 450
I l I l
900 1350
l l
u2
m0 = m 1– =0 (63)
c2
Por otro lado, la energía en reposo del fotón también ha de ser cero:
2
E0 = m0c = 0 (64)
Es decir, el fotón es una partícula relativista masa en reposo cero y energía en reposo cero. Por tanto,
el fotón no puede existir en reposo y sólo existe cuando se mueve a la velocidad de la luz c. El mo-
mento del fotón puede calcularse a partir de la relación general entre la energía relativista, el momen-
to y la energía en reposo:
E 2 = E 02 + p 2 c 2 (65)
Si tenemos en cuenta ahora la relación (66) entre la energía del fotón y el momento, la expresión ante-
rior se puede escribir como:
c(p – p´) = K (74)
Para encontrar una relación entre la energía cinética del electrón y el momento del electrón, utilizare-
mos la ecuación (65):
( K + m0 c 2 ) 2 = p e2 c 2 + m02 c 4 (75)
en donde el primer miembro corresponde a la energía total relativista del electrón, que es la suma de
la energía cinética y la energía en reposo. Desarrollando el cuadrado y despejando, nos queda que:
K2
+ 2Km0 = p e2 (76)
c2
Sustituyendo ahora en esta expresión los resultados encontrados en (71) y (74), obtenemos que:
( p – p' ) 2 + 2m0 c( p – p' ) = p 2 + p' 2 – 2 pp' cos q (77)
que se reduce a:
m0 c( p – p' ) = pp' (1– cos q ) (78)
o lo que es lo mismo:
1 1 1
– = (1– cos q ) (79)
p' p m0 c
Si multiplicamos ambos miembros por h, y teniendo en cuenta de nuevo lo ecuación (66), se tiene fi-
nalmente que:
h
l' – l = (1– cos q ) (80)
m0 c
A la cantidad:
h
lC = (81)
m0 c
se le denomina longitud de onda de Compton del electrón, pues la partícula dispersora de la radiación
es el electrón.
La ecuación (80) se denominada ecuación de Compton y predice que el aumento de la longitud
de onda de la radiación electromagnética dispersada Dl = l´ – l, denominada corrimiento Compton,
depende exclusivamente del ángulo de dispersión q y de la constante universal denominada longitud
de onda de Compton, y no de la longitud de onda incidente. El valor de este corrimiento Compton va
desde cero, para q = 0, hasta el valor máximo, para q = 180º:
2h
Dl max = = 0.049 Å (82)
m0 c
Este resultado explica el valor de la longitud de onda correspondiente al pico observado por Compton
en el experimento.
Por último, queda explicar el pico de intensidad de la radiación dispersada que corresponde a una
longitud de onda igual a la de la radiación incidente. En el estudio realizado anteriormente, hemos con-
siderado que el fotón colisiona con un electrón libre. Esta suposición es válida incluso si el electrón está
ligado, pero la energía cinética que adquiere es mucho mayor que su energía de enlace. Pero si el elec-
trón está fuertemente ligado a un átomo del blanco, o si la energía del fotón incidente es muy pequeña,
existe una posibilidad de que el electrón no sea expulsado del átomo y, en este caso, podemos suponer
que la colisión tiene lugar entre el fotón y el átomo completo. Entonces, el único cambio que hay que
hacer en el estudio anterior es sustituir en la ecuación de Compton la masa m0 en reposo del electrón por
la masa de todo el átomo M0. Puesto que la masa de los átomos es mucho mayor que la masa del elec-
trón, por lo general del orden de 104, esto implica que el corrimiento Compton, debido a la dispersión
por los electrones fuertemente enlazados, es despreciable y la longitud de onda del pico de intensidad
corresponde a la longitud de onda de la radiación incidente. Por ejemplo, si el blanco es grafito, se tiene
que M0 24000 m0, por lo que de la expresión (82), sustituyendo m0 por M0, se tiene que:
2h 2h 0.049
Dl max = = = 2 ´ 10–6 Å (83)
M 0 c 24000m0 c 24000
Este corrimiento de la longitud de onda del fotón incidente es prácticamente inapreciable, por lo
que el fotón dispersado tiene la misma longitud de onda que el incidente. A este fenómeno de disper-
sión en el que no se modifica la longitud de onda de la radiación incidente se le denomina dispersión
de Thomson.
En resumen, cuando sobre el blanco inciden rayos X, se tiene que:
– Algunos de los fotones son dispersados por electrones libres o débilmente ligados a los áto-
mos del blanco, que, a su vez, son liberados por la colisión. Estos fotones modifican su lon-
gitud de onda y su valor viene dado por la ecuación de Compton.
– Otros fotones son dispersados por electrones fuertemente ligados a los átomos del blanco, los
cuales permanecen ligados durante la colisión. Estos fotones no cambian su longitud de onda.
Es importante señalar que, cuando la radiación incidente corresponde a la zona del espectro del
visible, las microondas o las ondas de radio, la longitud de onda es mucho más grande que el corri-
miento Compton. Por lo tanto, la longitud de onda de la radiación dispersada es la misma que la de la
radiación incidente dentro de los límites de la precisión experimental. Es decir, cuando la longitud de
onda es grande, los resultados de la teoría clásica y la teoría cuántica coinciden. Sin embargo, confor-
me la longitud de onda se hace más pequeña, el efecto Compton se hace patente, siendo cada vez más
importante. Así, en la región de los rayos g, la dispersión de Compton es la dispersión dominate. En
este caso, la física clásica no puede explicar los resultados experimentales.
En el estudio del espectro de la radiación del cuerpo negro, hemos visto que la física clásica no
explica los resultados experimentales en la región de las longitudes de onda corta, discrepancia que,
como dijimos, recibe el nombre de catástrofe ultravioleta, poniendo así de manifiesto el gran fallo de
las ideas de la física clásica para explicar este fenómeno. También hemos visto en el estudio del efec-
to Compton que la física clásica vuelve a fallar en la explicación de la aparición del segundo pico de
intensidad, efecto que es apreciable en la zona del espectro de longitudes de onda muy corta. Esto
puede comprenderse por el valor tan pequeño del valor de la constante de Planck. Para longitudes de
onda larga, la frecuencia es pequeña y también lo es la cantidad hv, que determina la separación entre
los niveles de energía y el valor de los cuantos de energía. Por consiguiente, no se comete ningún
error apreciable si se considera, como lo hace la física clásica, que la energía es continua. Sin embar-
go, si la longitud de onda es pequeña, la frecuencia es grande y el valor de la constate de Planck no es
lo suficientemente pequeño como para que hv también lo sea. En este caso, el valor de hv es aprecia-
ble y los efectos cuánticos son importantes.
Esta expresión se conoce como fórmula de Rydberg, y en ella n´ y n son números enteros y RH se de-
nomina constante de Rydberg y tiene el valor:
–1
RH = 109677.5810 cm (85)
La segunda dificultad con la que se encontraba el modelo de Rutherford era su falta de explica-
ción sobre la aparente inestabilidad de los átomos: si un electrón se movía alrededor del núcleo en ór-
bitas circulares o elípticas se encuentra acelerado, por lo que, según la teoría clásica, debería radiar
energía. Esta pérdida continua de energía conduciría al colapso del átomo, con los electrones sobre el
núcleo, como el modelo de Thomson.
En 1913, Niels Bohr propuso una serie de postulados que rompían drásticasmente con la teoría
clásica y permitían explicar la estructura del espectro de emisión atómico. Por otro lado, estos postu-
lados sorteaban la cuestión de la estabilidad atómica. A continuación vamos a estudiar en más detalle
este modelo atómico propuesto por Bohr.
El primer postulado de Bohr introduce la idea de cuantización utilizada por primera vez por
Planck. Pero a diferencia de éste, que introduce la idea de que los valores de la energía total de un os-
cilador armónico toma valores discretos, es decir, la cuantización de la energía, Bohr introduce la
idea de cuantización del momento angular orbital de un electrón que se mueve bajo la acción de una
fuerza culombiana.
El segundo postulado introducido por Bohr es necesario para evitar el problema de la inestabili-
dad atómica que predice la teoría electromagnética clásica. Este postulado se basa en el hecho experi-
mental de que los átomos son estables aunque la teoría clásica no pueda explicar dicha estabilidad.
Más concretamente, Bohr postula que la radiación de energía por parte de las partículas aceleradas es
válida a escala macroscópica pero no es aplicable al mundo microscópico.
Por último, el tercer postulado se basa en el concepto de fotón introducido por Einstein junto con
la conservación de la energía. Si la luz está compuesta de fotones de energía hv, la emisión por parte
del átomo de un fotón debe suponer una pérdida de energía igual a la energía del fotón emitido. Es de-
cir, Ei – Ef = hv.
Como vemos, los postulados de Bohr son una mezcla de las ideas de la física clásica con las nue-
vas ideas de cuantización surgidas a principio del siglo XX. Por un lado, el electrón se mueve en una
órbita circular y obedece a la mecánica clásica, pero, por otro, la órbita permitida debe satisfacer la
condición de cuantización del momento angular orbital. Por otro lado, el electrón obedece a una ley
del electromagnetismo clásico como es la ley de Coulomb, pero por el contrario no cumple el resulta-
do clásico de radiación de energía por parte de una carga acelerada. En definitiva, estos postulados es-
tablecen que las leyes de la física clásica, que son válidas para los sistemas a escala macroscópica,
dejan de ser completamente válidas en el mundo de los sistemas microscópicos.
Por otro lado, el electrón describe una trayectoria circular de radio r alrededor del núcleo, por lo que
la aceleración centrípeta vendrá dada por:
u2
a= (89)
r
Por tanto, la aplicación de la segunda ley de Newton al movimiento de electrones nos da:
1 Ze 2 u2
= m = mwr (90)
4pe 0 r 2 r
Por otro lado, según el primer postulado de Bohr, el impulso angular del electrón está cuantizado y
sólo están permitidas aquellas órbitas en las que se satisfaga la condición dada por (86). De esta ex-
presión se tiene que:
nh
un = (91)
mr
Sustituyendo esta expresión en la ecuación (90), y despejando r, obtenemos para el radio de la órbita:
n2h2
rn = 4pe 0 n = 1, 2, 3... (92)
mZe 2
Llevando este resultado a la expresión (91), obtenemos para la velocidad del electrón alrededor del
núcleo:
1 Ze 2
un = n = 1, 2, 3... (93)
4pe 0 nh
Podemos utilizar la expresión (92) para predecir el radio del átomo de hidrógeno. Haciendo Z = 1 y
n = 1 en esta expresión obtenemos que el radio más pequeño del átomo de hidrógeno viene dado por:
h2
r1 = 4pe 0 (94)
me 2
Este valor mínimo del radio del átomo de hidrógeno se denomina radio de Bohr y se designa por a0.
Sustituyendo en la expresión anterior los valores de la carga de electrón e = 1.6 ´ 10–19 C, de su masa
m = 9.1 ´ 10–31 kg, de la permitividad del vacío e0 = 8.85 ´ 10–12 C2 N–1 m–2, y el valor de la constan-
te de Planck h = 6.626 ´ 10–34 J · s, obtenemos para el radio de Bohr:
h2
a 0 = 4pe 0 = 0.529´10–10 m = 0.529 Å (95)
me 2
Puesto que el hidrógeno tiene su energía mínima cuando el electrón se encuentra en un estado n = 1,
el radio de Bohr representa el radio del átomo de hidrógeno en su estado fundamental. Este resulta-
do concuerda con el tamaño del átomo de hidrógeno determinado experimentalmente.
Podemos escribir los radios de las órbitas permitidas en función del radio de Bohr si sustituimos
la ecuación (95) en (92):
2
rn = n a0 (96)
Por otra parte, la velocidad del electrón en su órbita alrededor del núcleo puede ser evaluada uti-
lizando la expresión (93). Así, en su órbita más pequeña (n = 1), se tiene que esta velocidad es:
6 –1
u = 2.2 ´ 10 m · s (98)
Como vemos, esta velocidad, que es la máxima que puede tener un electrón en el átomo de hidrógeno,
es mucho más pequeña que la velocidad de la luz, por lo que está justificado que en el modelo atómico
de Bohr utilicemos las ecuaciones de la mecánica clásica en vez de las de la mecánica relativista.
Calculemos ahora la energía total de un electrón en un átomo de hidrógeno. Esta energía será la
suma de la energía cinética y de la energía potencial:
En = Kn + Un (99)
La energía cinética, haciendo uso de las ecuaciones de la mecánica clásica y de la expresión (90), vie-
ne dada por:
1 1 Ze 2
K n = mu n2 = (100)
2 8pe 0 r
Tomando el origen de energía potencial en el infinito, la energía potencial del electrón vendrá dada
por:
r r r 1 Ze 2 1 Ze 2
U n = – ò¥ F ×dr = ò¥
r
dr = – (101)
4pe 0 r 2 4pe 0 r
Por tanto, sustituyendo las expresiones (100) y (101) en (99) la energía total del electrón vendrá dada
por:
1 Ze 2
En = – (102)
8pe 0 r
mZ 2 e 4 1
En = – n = 1, 2, 3... (103)
( 4pe 0 ) 2h n 2
2 2
La expresión (103) indica que el modelo de Bohr restringe los valores que puede tener la energía del
átomo; es decir, que la energía del átomo está cuantizada y, por tanto, su espectro energético es discreto.
La energía más baja del átomo se obtiene para el valor más pequeño del número cuántico n = 1, y con-
forme aumenta éste la energía tiende a cero.
Puesto que un sistema físico tiende a situarse en el estado de energía más bajo posible, el cual co-
rresponde a la configuración más estable del sistema, al estado que corresponde a la mínima energía
del átomo se le denomina estado fundamental, y se obtiene cuando n = 1. En el caso del átomo de hi-
drógeno Z = 1, esta energía del estado fundamental corresponde a:
–18
E1 = –2.17 ´ 10 J = –13.59 eV (104)
Los estados con valores de n ¹ 1 se denominan estados excitados. En la figura 11 se muestra, esque-
máticamente, el espectro discreto para el átomo de hidrógeno y los valores de la energía correspon-
diente a sus niveles más bajos.
n=¥ 0 eV
n=4 –0.85 eV
n=3 –0.51 eV
n=2 –3.39 eV
Para ionizar el átomo de hidrógeno, es decir, para separar un electrón del núcleo (r = ¥) es necesa-
rio suministrarle una energía igual a 13.59 eV, valor que concuerda con los obtenidos experimental-
mente. Una vez que el átomo se encuentra ionizado puede captar un electrón en una órbita permitida
cercana al núcleo. Este proceso puede realizarse en un solo paso, es decir, que el electrón pase al estado
fundamental, o bien mediante pasos intermedios en los que el electrón cae a uno o más estados excita-
dos. En cada una de estas transiciones electrónicas el átomo pierde una cierta cantidad de energía que es
radiada en forma de radiación electromagnética mediante la emisión de un fotón. La energía y la fre-
cuencia del fotón emitido dependerá de la energía perdida por el átomo, y, por tanto, dependerá de la
energía del estado inicial y del estado final después de la transición. Puesto que los valores de estas
energías no son continuos, se obtiene que el espectro de la radiación emitida por el átomo debe ser un
espectro discreto tal y como se obtiene en los experimentos.
En un típico experimento espectroscópico se produce una descarga en el seno de un gas, lo que
produce la ionización de sus átomos. Puesto que el número de átomos ionizados es muy elevado, tam-
bién lo será el número de transiciones electrónicas. En consecuencia, es lógico que en este tipo de expe-
rimentos se observen todas las longitudes de onda correspondientes a todas las transiciones electrónicas
posibles. A continuación vamos a calcular dichas longitudes de onda.
Supongamos que un electrón experimenta una transición desde un estado cuántico inicial carac-
terizado por ni hasta un estado cuántico final nf. Según el tercer postulado de Bohr la frecuencia del
fotón emitido viene dada por:
Ei – E f
v= (105)
h
Teniendo en cuenta la expresión de la energía dada por (103), esta frecuencia es igual a:
æ 1 ö2 mZ 2 e 4 æ
ç1 – 1÷
ö
v =ç
ç
÷
÷ 3 ç 2 2 ÷
(106)
è 4pe 0 ø 4ph è n f n i ø
Puesto que l = c/v, la expresión anterior la podemos poner en función del recíproco de la longitud de
onda como:
1 æ 1 ö mZ 2 e 4 æ ö
2
ç
=ç ÷ ç1 – 1÷
÷ (107)
l è 4pe 0 ø 4ph 3 c ç 2 2 ÷
è n f ni ø
en donde:
æ 1 ö2 me 4
R¥ =ç
ç
÷
÷ (109)
è 4pe 0 ø 4ph c
3
Vemos que la predicción del modelo de Bohr sobre las longitudes de onda de la radiación emitida
por el átomo de hidrógeno (108) es similar a la expresión obtenida experimentalmente dada por la fór-
mula de Rydberg (84). Ambas expresiones serán iguales si el valor de R¥ y la constante de Rydberg RH
coinciden y si también lo hacen los números enteros que aparecen en ambas expresiones. Aunque en su
época no se conocían con exactitud los valores de algunas de las constantes que intervienen en la expre-
sión de R¥, Bohr hizo una estimación del valor de esta constante encontrando que coincidía razonable-
mente bien con el valor de la constante de Rydberg. Con los valores aceptados hoy en día para las
constantes e, m, c y h se obtiene que:
R¥ 109740 cm
–1
(110)
En cuanto a lo que se refiere a la coincidencia de los valores de los enteros que aparecen en las
expresiones (108) y (84), si consideramos las transiciones electrónicas cuyo estado final es el estado
fundamental nf = 1, el estado inicial puede ser cualquier estado excitado; es decir, ni = 2, 3, 4... Estos
valores corresponden a los valores de los enteros que aparecen en la fórmula de Rydberg para la serie
de Lyman. Si el estado final de las transiciones electrónicas es el primer estado excitado nf = 2, el esta-
do inicial puede ser un estado excitado de mayor energía; es decir, ni = 3, 4, 5... Por tanto, estas transi-
ciones corresponden a los valores obtenidos en la serie de Balmer. Las demás series experimentales
pueden explicarse de forma análoga considerando las transiciones electrónicas cuyos estados finales
son el segundo estado excitado (nf = 3, serie de Paschen), el tercer estado excitado (nf = 4, serie de
Paschen) y el cuarto estado excitado (nf = 5, serie de Pfund). En la figura 12 se muestran, de forma es-
quemática, las transiciones electrónicas que dan lugar a dichas series.
n=¥
n=4
n=3
Paschen Bracket
n=2
Balmer
La teoría atómica de Bohr supuso un gran éxito no sólo por la explicación de las observaciones
experimentales del espectro atómico del hidrógeno conocido hasta el momento, series de Balmer y
Paschen, sino también porque predijo las series de Lyman, Brackett y Pfund no observadas hasta ese
momento y posteriormente descubiertas. Además, la teoría de Bohr resultó exitosa en la explicación
de los átomos de un solo electrón y con un número Z = 2, como el helio ionizado. Experimentalmente
se encontró que el espectro del He+ es similar al espectro del átomo de hidrógeno pero con los valores
de 1/l multiplicados por un factor aproximadamente igual a cuatro. Resultado que, según la expre-
sión (108), es precisamente el predicho por la teoría de Bohr.
La teoría de Bohr también explica el espectro de absorción de los átomos con un electrón. Tal
como hemos visto, la energía de electrón está cuantizada y sólo puede tomar algunos valores determi-
nados dados por (99). Por tanto, electrón sólo puede absorber cantidades discretas de la radiación in-
cidente. Esta radiación puede suponerse compuesta por un haz de fotones de energía E = hv, de los
cuales el electrón sólo absorberá aquellos cuya energía corresponda a una diferencia de energía entre
dos niveles. Puesto que, por regla general, el átomo se encuentra en su estado fundamental (ni = 1),
sólo se observarán líneas en el espectro de absorción correspondientes a la serie de Lyman. A tempe-
raturas muy elevadas, las colisiones atómicas pueden dar lugar a que algunos átomos se encuentren
en el primer estado excitado (ni = 2), por lo que podrán absorber fotones cuya longitud de onda co-
rresponde a las líneas espectrales de la serie de Balmer.
Los valores de la constante de Rydberg RH (85), determinada experimentalmente, y de la cons-
tante teórica R¥ (110) no coinciden exactamente, sino que presentan una diferencia de 60 cm–1 apro-
ximadamente. Esta discrepancia es debida a que en el estudio que hemos realizado anteriormente
hemos supuesto que la masa del núcleo atómico era infinitamente más grande que la masa del elec-
trón, de manera que el núcleo permanece fijo en el espacio. De la mecánica sabemos que un sistema
de dos cuerpos de masa m y M a una distancia r uno del otro, se mueven alrededor del centro de masa
del sistema. Si el centro de masa está en reposo, la energía total del sistema es igual a la de una partí-
cula ficticia que orbita alrededor del centro de masa a la distancia r y que tiene una masa, denominada
masa reducida m, dada por:
mM
m= (111)
m+ M
Por consiguiente, en los cálculos anteriores debemos sustituir la masa del electrón por la masa re-
ducida del sistema núcleo-electrón. Haciendo esto, obtenemos que las longitudes de onda de la
radiación emitida en las transiciones electrónicas, deducida de la teoría de Bohr, vienen dadas
por:
æ1 1ö
= R M Z 2ç – 2÷
1
ç ÷ (112)
l 2
èn f n f ø
en donde:
M
RM = R (113)
m+ M ¥
RM 109680 cm
–1
(114)
Comparando este valor con el obtenido experimentalmente para la constante de Rydberg dado por
(85) vemos que la diferencia es de menos de 3 partes de 100000.
2. MECÁNICA CUÁNTICA
La introducción de los postulados de cuantización permitieron explicar hechos experimen-
tales como la radiación del cuerpo negro, el efecto fotoeléctrico o el átomo de hidrógeno. Todas
estas teorías constituyen lo que hoy llamamos vieja teoría cuántica. No obstante, y a pesar de sus
éxitos innegables, esta teoría presenta ciertas deficiencias en cuanto a su ámbito de aplicabilidad
(sistemas no periódicos o átomos multielectrónicos) y también ciertas limitaciones en lo que se
refiere a la explicación de algunos aspectos parciales de las observaciones (intensidad de las lí-
neas espectrales, etc.). Por otro lado, esta teoría no constituye en sí una teoría unificada o general,
sino que aplica ad hoc ciertas hipótesis que son válidas para la explicación de algunos fenóme-
nos. De esta manera, podemos encontrar ciertas incongruencias, como el asignar a una partícula
una trayectoria bien definida, cuando, por ejemplo, el principio de incertidumbre no permite es-
tas suposiciones. Todas estas cuestiones hacen de la teoría cuántica antigua una teoría intelec-
tualmente insatisfactoria.
Durante el primer tercio del siglo XX, surgieron nuevas ideas que constituyeron la base concep-
tual de una nueva teoría física: la mecánica cuántica. Aunque tremendamente controvertida en cuanto
a sus fundamentos filosóficos, esta teoría se ha revelado como una herramienta tremendamente pode-
rosa para el estudio y la predicción de fenómenos microscópicos. Así, por ejemplo, ha permitido
comprender en detalle las propiedades de los átomos, los cuales, a su vez, son la base de la química y
de la física del estado sólido.
En este apartado, vamos a estudiar los principios fundamentales de la mecánica cuántica,
como son el postulado de De Broglie y el principio de incertidumbre de Heisenberg, y estudiare-
mos las bases de la teoría cuántica moderna en la formulación de la mecánica ondulatoria de
Schrödinger.
Sin duda alguna, la hipótesis de De Broglie era una de las ideas más originales introducidas en el cam-
po de la física. No obstante, fue considerada como una idea al margen de la realidad física por la falta
de evidencia experimental. Pocos años después, se produjo la confirmación experimental de la idea
de de Broglie, lo que supuso que éste fuese galardonando con el premio Nobel de Física.
pelota de tenis que se desplaza a una velocidad de 30 m/s y de masa 100 g. Según el postulado de de
Broglie, la longitud de onda de la onda de materia asociada será:
h 6.626´10–34 J×s
l= = = 2.2´10–34 m = 2.2´10–24 Å (117)
p 0.1kg ´ 30 m / s
Por tanto, las dimensiones del dispositivo experimental debe ser 24 órdenes de magnitud menor
que el diámetro de un átomo. Por lo que es completamente imposible detectar un comportamiento
ondulatorio en el movimiento de una pelota de tenis. Las separaciones entre objetos más pequeños
que podemos encontrar en la naturaleza y que pueden utilizarse para realizar experimentos de di-
fracción son las distancias de separación entre átomos en las redes de los sólidos cristalinos, las
cuales son del orden de unos pocos angstroms. En consecuencia, si queremos tener éxito con este
tipo de experimentos para detectar la naturaleza ondulatoria de las partículas materiales, debemos
utilizar partículas cuya longitud de onda de De Broglie sea de ese mismo orden. De acuerdo con la
expresión (115), esto será así si el momento de la partícula es pequeño, condición que se puede sa-
tisfacer si la masa de la partícula es pequeña como es el caso de los electrones. Esta idea fue presen-
tada por Elasser en 1926, quien propuso que la naturaleza ondulatoria de la materia podía
comprobarse experimentalmente de la misma forma que se había probado la naturaleza de los rayos
X. Para ello, bastaría hacer incidir un haz de electrones con la energía apropiada sobre un sólido
cristalino. En este caso, los átomos del cristal se comportarían como una red de difracción tridi-
mensional y deberían dispersar los electrones en ciertas direcciones características, de igual forma
que ocurría con los rayos X. Esta idea fue llevada a la práctica por Davisson y Germer, en Estados
Unidos, y por G. P. Thomson, en Escocia.
En 1927, C. J. Davisson y L. H. Germer llevaron a cabo su experimento con una disposición ex-
perimental como la mostrada de forma esquemática en la figura 13. Los electrones producidos por un
filamento caliente eran acelerados por un potencial variable V y salían por un pequeño orificio del
ánodo con energía cinética eV. El haz se hace incidir sobre un cristal de níquel y se mide su intensi-
dad, dispersado éste a diferentes ángulos f respecto del haz incidente y para diferentes valores de V.
Filamento
e q f
V q
Ánodo
f Detector
Cristal
Si el haz se comportase como un conjunto de partículas, se esperaría que la intensidad del haz
dispersado mostrase una suave dependencia monótona con V y con f, debido a las colisiones elásti-
cas de los electrones con los átomos del cristal. Los planos del cristal se comportarían como paredes,
de manera que los electrones saldrían con un ángulo de reflexión aproximadamente igual al de inci-
dencia. En consecuencia, para cualquier ángulo de incidencia, se tendría que el número de partículas
que emergen en un ángulo igual al de incidencia sería el mismo y, además, sería independiente de la
velocidad de los electrones y, por tanto, del potencial de aceleración V. Por el contrario, si los electro-
nes se comportan como una onda, entonces se esperaría un patrón de difracción como el observado
para los rayos X. En este caso, se debería satisfacer la condición de difracción de Bragg:
nl = 2d sen q (118)
La distancia entre los planos atómicos podía calcularse mediante experimentos de difracción de rayos
X y resultaba ser d = 0,91 Å. Por otra parte, de los experimentos con rayos X de longitud de onda l =
1,65 Å se obtenía que el ángulo q = 65º. Por tanto, de la figura, se tiene que el ángulo f = 50º. Davisson
y Germer dispusieron el equipo experimental con el detector situado a ese mismo ángulo y midieron la
intensidad del haz dispersado para distintos valores de V. Encontraron que cuando V= 54 V, se tenía un
máximo en la intensidad (figura 14). A partir de este resultado, calcularon la longitud de onda de los
electrones según la hipótesis de De Broglie. El resultado es el siguiente.
I
f = 50º
Por tanto, teniendo en cuenta que K = eV, el momento de los electrones vendrá dado por:
p = 2meV (120)
Sustituyendo esta relación en la expresión (115), se tiene que la longitud de onda de De Broglie de los
electrones es:
h h
l= = (121)
p 2meV
Sustituyendo los valores numéricos de las constantes que aparecen en la expresión y el valor experi-
mental encontrado para el potencial de aceleración de los electrones V = 54 V, se tiene que:
l = 1,67 Å (122)
El acuerdo entre la longitud de onda predicha por De Broglie para los electrones de esta energía
y el valor de la longitud de onda para los rayos X difractados resultó ser excelente. Por consiguiente,
este experimento confirmaba la hipótesis de de Broglie que las partículas tienen propiedades ondula-
torias, siendo la relación entre la longitud de onda y el momento de la partícula la dada por (115).
Después del experimento de Davisson y Germer, otros muchos físicos encontraron evidencias
experimentales del comportamiento ondulatorio de la materia. Así, Estermann, Stern y Frisch reali-
zaron experimentos sobre la difracción por cristales de litio de haces de átomos de hidrógeno y helio;
y Fermi, Marshall y Zinn realizaron experimentos similares con neutrones lentos. Hoy en día, la exis-
tencia de las ondas de materia descansa en bases experimentales sólidas, siendo, además, la difrac-
ción de electrones y neutrones una de las técnicas más comúnmente utilizadas en el estudio de la
estructura cristalina de los sólidos.
Como vemos, hablamos de densidad promedio de fotones. Esto es debido a que los procesos de
emisión de los fotones son de naturaleza aleatoria, pues una fuente emite fotones al azar en todas di-
recciones. Como consecuencia de esta aleatoriedad, no podemos decir con exactitud si dentro de un
determinado volumen pequeño encontraremos o no un fotón. Sin embargo, si podemos hablar de la
probabilidad de encontrar un fotón dentro de un volumen dado, densidad de probabilidad, la cual
será proporcional a la densidad promedio de fotones N. Si ahora tenemos en cuenta que, según
(125), N µ áE2ñ, podemos concluir que la probabilidad de encontrar un fotón dentro de un volumen
dado del haz es proporcional al promedio del cuadrado de la amplitud de la onda asociada al haz.
Por tanto, dentro del modelo corpuscular de la radiación electromagnética, modelo de fotones, la
onda no es un campo electromagnético, sino que es representada por una función matemática que
mide la densidad de probabilidad de los fotones. Esta es la interpretación de Einstein de áE2ñ como
medida probabilística de la densidad de fotones.
En 1926, Max Born (1882-1970), en analogía a la interpretación de Einstein de la radiación, pro-
puso una extensión de la interpretación probabilística a las ondas de materia propuestas por Louis de
Broglie para las partículas materiales. De acuerdo con esta interpretación, aceptada hoy por la mayo-
ría de los físicos, lo que “ondula” no es algo físico como las partículas de una cuerda o las moléculas
de agua en una ola: la onda de materia es representada por una función matemática y(r,t), denomina-
da función de onda, cuya interpretación es la siguiente: si en un instante de tiempo t realizamos una
medida para determinar la posición de la partícula asociada a la función de onda y(r,t), la probabili-
dad P(r,t)dV de que la partícula se encuentre dentro de un pequeño volumen dV alrededor de un punto
con vector posición r (respecto de cierto sistema de coordenadas) es igual a |y(r,t)|2dV. Es decir:
2
P(r,t)dV = |y(r,t)| dV (126)
Puesto que la probabilidad de encontrar a la partícula en algún sitio en el espacio ha de ser la unidad,
la función de onda debería estar normalizada. Es decir:
ò
¥ 2
–¥
y( r, t ) dV = 1 (127)
El problema en mecánica cuántica se reduce a encontrar la función de onda de una partícula o sistema
de partícula, a partir de la cual pueden encontrarse todas las propiedades físicas interesantes del mis-
mo.
Es de señalar que esta interpretación probabilística de la función de onda no fue, parece evidente,
bien acogida por parte de la comunidad científica de principios del siglo XX. Entre los críticos a esta
nueva interpretación se encontraban el propio Louis de Broglie y Albert Einstein, quien sentenció que
“Dios no juega a los dados con el Universo”. La razón de estas posiciones científicas e ideológicas es
que la interpretación de Born suponía un ataque demoledor a uno de los principios fundamentales de la
física clásica: el concepto de determinismo. No obstante, en 1927, Heisenberg y Bohr demostraron que
era precisamente el concepto de probabilidad lo que resultaba crucial en la unión de las dos descripcio-
nes, corpuscular y ondulatoria, del comportamiento de la materia y de la radiación.
De forma análoga a la expresión (128), se tienen otras dos condiciones iguales para las otras dos
componentes de la posición y el momento:
Dp y Dy ³ h (129)
Dp z Dz ³ h (130)
– La limitación que impone el principio no tienen nada que ver con los adelantos y mejora en
la instrumentación científica. El principio establece que, aún contando con instrumentos
ideales, los resultados de las medidas vienen limitados por la ecuación (128).
– El principio no establece que no se pueda determinar con completa exactitud la posición o
el momento de la partícula. Puesto que en (128) aparece un producto de incertidumbres, el
principio dice que cuanto más precisa sea la medida de px, mayor será la incertidumbre en x,
y viceversa. Así, si, por ejemplo, diseñamos un experimento de manera que se determina
con exactitud la velocidad de la partícula (Dpx = 0), se ignoraría por completo la posición
(Dx = ¥).
Una segunda parte del principio de incertidumbre de Heisenberg hace referencia a la incerti-
dumbre en la medida de la energía DE del sistema y del intervalo de tiempo Dt característico de cam-
bio del sistema:
DE Dt ³ h (131)
Lo que nos preguntamos es si esta función de onda puede ser asociada a una partícula material. Si
la partícula tiene un momento y una energía bien definida, entonces la expresión (132) satisface adecua-
damente los requisitos impuestos por la hipótesis de De Broglie. Sin embargo, observamos que, debido
a que la amplitud de la onda es constante en todo los puntos del espacio, la probabilidad de encontrar a
la partícula es la misma en cualquier región del espacio. Es decir, la partícula está completamente deslo-
calizada Dx = ¥. Este resultado es lógico, pues, para una partícula con un momento bien definido, se
tiene que Dpx = 0 y, de acuerdo con el principio de incertidumbre de Heisenberg, la incertidumbre en la
posición debería ser infinita. Por tanto, la expresión (132) puede describir a una partícula con el mo-
mento y la energía bien definida, pero que, por el contrario, está completamente deslocalizada.
Utilizando las relaciones de la hipótesis de De Broglie, podemos expresar la velocidad de propa-
gación de la onda sinusoidal en función del momento y de la energía de la partícula como:
h E E
w= = (133)
p h p
Si se supone que la partícula se mueve con velocidad u no relativista, la expresión anterior puede es-
cribirse como:
1 2
mu
E 2 u
w= = = (134)
p mu 2
Es decir, que la onda de materia no se propaga a la misma velocidad con la que se mueve la partícula a
la que representa. Este resultado, en apariencia inconsistente, no supone ningún problema en este
caso en el que la amplitud de la onda es la misma en todo el espacio. Más tarde, veremos cómo se in-
terpreta adecuadamente este resultado.
Para describir una partícula localizada parcialmente en el espacio, la función de onda debe tener
una amplitud diferente de cero sólo en una pequeña región del espacio en donde hay posibilidad de
y ( x, t ) = ò0 A ( k ) sen ( kx – w( k ) t ) dk
¥
(135)
en donde w es en general una función de k. La función A(k) deter- Figura 15. Una partícula
mina la contribución de cada onda sinusoidal al paquete de ondas y localizada se puede
determina la forma del mismo. En la figura 16 se muestra la forma representar mediante un
del paquete en función de x y en un instante de tiempo dado, para paquete de ondas.
diferentes distribuciones de la función A(k).
A(k) y
k x
A(k) y
k x
A(k) y
k x
Figura 16. Diferentes paquetes de
ondas obtenidaos a partir de distintas
distribuciones A(k).
Como puede observarse, conforme el rango de los valores de k aumenta, más estrecho se hace el
paquete de ondas. De la misma forma, se podría representar la función de onda en un punto del espa-
cio en función del tiempo. Un resultado general que se obtiene para los paquetes de onda, que se co-
noce con el nombre de teorema del ancho de banda, es que la anchura espacial Dx y el intervalo Dk
vienen dados por:
Dk Dx ³ 1 (136)
Ahora bien, si el paquete representa una onda de materia, debe cumplirse que:
h h
l= Þ Dp = Dk = hD k (137)
p 2p
y
ug u
Como vemos, el factor de modulación es a su vez una onda que se propaga a la velocidad:
Dw
ug = (144)
Dk
denominada velocidad de grupo.
Si en vez de superponer dos ondas armónicas tuviésemos un paquete de onda compuesto de mu-
chas ondas cuyas longitudes de onda y frecuencias difiriesen muy poco unas de otras, la expresión de
la velocidad de propagación del paquete vendría dada por:
dw
ug = (145)
dk
Si tenemos en cuenta que la frecuencia está relacionada con la velocidad y el número de ondas por w = ku,
la expresión anterior se transforma en:
du du
u g = u+ k = u– l (146)
dk dl
Utilizando las relaciones de de Broglie y la expresión (145), podemos encontrar la relación entre la
velocidad de la onda de materia, velocidad de grupo, y la velocidad de la partícula. De las relaciones
de de Broglie se tiene que:
2p h dp
l= = Þ dk = (147)
k p h
y por otro lado:
w E dE
v= = Þ dw = (148)
2p h h
Si ahora tenemos en cuenta que E = mu2/2 = p2/2m y que p = mu, resulta finalmente que:
dw d E p
ug = = = =u (150)
dk dp m
El paquete de ondas se propaga a la misma velocidad que lo hace la partícula. Es decir, la onda de ma-
teria se mueve con la partícula.
Con la llegada del siglo XX y el descubrimiento de nuevos fenómenos, como el efecto fotoeléc-
trico y el efecto Compton, se hizo necesario utilizar un modelo corpuscular de la radiación electro-
magnética al mismo tiempo que una serie de fenómenos ponían de manifiesto el carácter ondulatorio
de algunas partículas “clásicas”, como el electrón. Desgraciadamente, ninguno de los dos modelos, el
ondulatorio o el corpuscular, describen completamente el comportamiento de la radiación electro-
magnética y de las partículas microscópicas. Debido a las limitaciones de ambos modelos, Niels Bohr
sumarizó este carácter dual de la materia en su principio de complementariedad que establece que:
El modelo corpuscular y el ondulatorio son complementarios.
Cuando se trata de medir la distribución espacial de la radiación o de las partículas materiales, se
ponen de manifiesto sus propiedades ondulatorias, mientras que si se trata de medir su interacción en-
tre ellas o con la materia, se ponen de manifiesto sus propiedades corpusculares.
Puesto que las predicciones de ambos modelos son incompatibles, ninguna medida puede reve-
lar simultáneamente el aspecto ondulatorio y corpuscular de la materia. Si en un experimento se dise-
ña para mostrar el carácter ondulatorio, se suprime el carácter corpuscular, y viceversa. Es decir, en
cualquier situación, las partículas materiales se comportan como partícula o como onda, pero no
como ambas cosas a la vez. Sin embargo, un entendimiento global de su comportamiento requiere
ambos modelos, que, como hemos visto, están ligados por la hipótesis de De Broglie.
Si aplicamos dos veces esta ecuación y tenemos en cuenta que la energía cinética es E = p2/2m, uno
puede intuir que la ecuación de onda para una partícula libre de energía E podría ser:
p2 h2 2
Ey = y= – Ñ y (155)
2m 2m
Si la partícula está sometida a un potencial, como, por ejemplo, un electrón en un átomo de hidróge-
no, tendrá una energía potencial V(r), además de la energía cinética. La ecuación anterior se puede
generalizar para el caso de una partícula con energía E y energía potencial V(r), añadiendo el término
de energía potencial a la energía cinética en la expresión (155). Haciendo esto, se tiene que:
h2 2
Ey = – Ñ y+V ( r )y (156)
2m
é h2 2 r ù ¶y
ê– Ñ +V ( r )úy = ih (157)
ë 2m û ¶t
x º x = ò–¥ xP ( x, t ) dx
¥
(159)
x = ò–¥ y * ( x, t )xy ( x, t ) dx
¥
(160)
El valor esperado de cualquier función de la variable x se encuentra evaluando una integral análoga a
la anterior. Así, el valor esperado de una función f(x) viene dado por:
f ( x ) = ò–¥ y * ( x, t ) f ( x )y ( x, t ) dx
¥
(161)
Esta expresión sigue siendo válida para cualquier función que dependa explícitamente del tiempo,
como puede ser la energía potencial V(x,t):
V ( x, t ) = ò–¥ y * ( x, t )V ( x, t )y ( x, t ) dx
¥
(162)
Las expresiones (160) y (162) nos dan los valores esperados de dos variables dinámicas del pro-
blema. Lo que nos interesa ahora es saber cómo podemos determinar el valor esperado de otras canti-
dades dinámicas igualmente importantes para caracterizar el estado del sistema, como son el
momento p y la energía E. En principio, el valor esperado de estas cantidades vienen dados por expre-
siones análogas a la anterior. Por ejemplo, el valor esperado del momento viene dado por:
p = ò–¥ y * ( x, t ) py ( x, t ) dx
¥
(163)
Ahora bien, para evaluar la integral es necesario expresar el integrando como una función de x. En
mecánica clásica, no hay problema alguno en escribir el momento en función de las variables x y t,
puesto que no hay limitación alguna en la precisión con la que se puede conocer el momento para
cualquier valor de la posición x de la partícula. Sin embargo, en mecánica cuántica el principio de in-
certidumbre de Heisenberg establece que no es posible conocer con precisión simultáneamente el va-
lor de la posición y su componente correspondiente del momento. Por tanto, la tarea no es trivial en
principio, y habrá que encontrar la forma de poder hacerlo.
A partir de la función de onda de la partícula libre, podemos encontrar alguna idea útil para el
objetivo propuesto. Expresemos la función de onda de una partícula libre en la forma:
y(x,t) = cos(kx – wt) + i sen(kx – wt) (164)
en donde hemos tenido en cuenta la relación de De Broglie entre la longitud de onda y el momento l =
= 2p/k = h/p. Esta expresión puede escribirse como:
¶
py ( x, t ) = – ih y ( x, t ) (166)
¶t
Esta última ecuación expresa una relación entre la cantidad dinámica p y el operador diferencial
¶
– ih .
¶x
De forma análoga, podemos encontrar una relación similar entre la cantidad E y el operador di-
¶
ferencial ih si derivamos respecto al tiempo la función de onda de la partícula libre. Haciendo esto
¶t
se obtiene que:
¶y E
= w sen ( kx – wt ) – iw cos( kx – wt ) = – iw[cos( kx – wt )+ i sen (kx – wt )] = – i y ( x, t ) (167)
¶t h
en donde hemos tenido en cuenta la relación de De Broglie entre la longitud de onda y el momento v =
= w/2p = E/h. Esta expresión puede escribirse como:
¶
Ey ( x, t ) = ih y ( x, t ) (168)
¶t
Puede demostrarse fácilmente que estas relaciones entre las cantidades dinámicas y los operadores
diferenciales son válidas en cualquier caso y no sólo para el caso de la partícula libre. Consideremos,
por ejemplo, la energía total de una partícula cuya energía potencial es V(x,t):
p2
E= +V ( x, t ) (169)
2m
1æ ¶ö
2
¶
ih = ç– ih ÷ +V ( x, t ) (170)
¶t 2mè ¶x ø
¶ h2 ¶2
ih =– +V ( x, t ) (171)
¶t 2m ¶x 2
La expresión anterior es una ecuación de operadores matemáticos y tiene significado cuando se apli-
ca a cualquier función, en nuestro caso a una función de onda. Haciendo esto se tiene que:
¶y ( x, t ) h 2 ¶ 2 y ( x, t )
ih =– +V ( x, t )y ( x, t ) (172)
¶t 2m ¶x 2
Como hemos visto, postular estas asociaciones es absolutamente equivalente a postular la ecuación
de Schrödinger.
Volvamos ahora al cálculo del valor esperado del momento. Sustituyendo en la expresión (163)
el valor de p por su operador diferencial equivalente dado por (173) se tiene que:
æ ¶ö
p = ò–¥ y * ( x, t )ç– ih ÷y ( x, t )dx
¥
(175)
è ¶x ø
Por tanto, el valor esperado del momento puede calcularse como:
¶y ( x, t )
p = – ihò–¥ y * ( x, t )
¥
dx (176)
¶x
El valor esperado de la energía, teniendo en cuenta la relación (174), se puede calcular mediante
la integral dada por:
æ ¶ö
E = ò–¥ y * ( x, t )Ey ( x, t ) dx =ò–¥ y * ( x, t )çih ÷y ( x, t ) dx
¥ ¥
(177)
è ¶t ø
Con lo visto anteriormente podemos discutir el marco conceptual y las reglas computacionales
de la mecánica cuántica. En física clásica se tienen ciertos parámetros mecánicos, como la posición
x(t), el momento p(t), la energía, etc. En mecánica cuántica, a estos parámetros clásicos se les asigna
unos valores esperados, los cuales pueden ser obtenidos de acuerdo con las siguientes reglas:
– A un parámetro clásico se le asigna un operador, que no es más que una serie de reglas de
multiplicación o diferenciación que actúan sobre las funciones de onda.
– A la posición de la partícula se le asocia el operador posición x que no es más que multipli-
car la función de onda y(x,t) por x.
– Al momento se le asigna el operador diferencial – ih(¶ / ¶x ).
Los demás operadores se obtienen sin más que sustituir en la expresión clásica la posición por el
operador posición y el momento por el operador momento. Así, el valor esperado de cierto parámetro
clásico f(x,p,t) viene dado por:
æ ¶ ö
f ( x, p, t) = ò–¥ y * ( x, t ) f$çx,– ih , t ÷y ( x, t ) dx
¥
(180)
è ¶x ø
Por tanto, la función de onda y(x,t) contiene más información que la mera densidad de probabi-
lidad. Como hemos visto, mediante dicha función podemos calcular el valor esperado de la posición,
del momento, de la energía, y de cualquier otra magnitud f(x,p,t). Es decir, la función de onda contie-
ne toda la información necesaria para describir un sistema. Por tanto, el objetivo de la mecánica cuán-
tica consistirá en resolver la ecuación de Schrödinger para los sistemas microscópicos y así obtener
las funciones de onda posibles asociadas, las cuales nos proporcionarán la información necesaria para
su descripción.
BIBLIOGRAFÍA
31
Controversia sobre la
naturaleza de la luz. Dualidad
onda-corpúsculo. Experiencias
que la ponen de manifiesto.
Interacción radiación-materia.
Relaciones de incertidumbre
ÍNDICE SISTEMÁTICO
3. INTERACCIÓN RADIACIÓN-MATERIA
3.1. Efecto fotoeléctrico
3.1.1. Resultados experimentales
3.1.2. La teoría clásica del efecto fotoeléctrico
3.1.3. Teoría de Einstein
3.2. Efecto Compton
3.2.1. Predicción de la teoría clásica
3.2.2. Predicción mediante la teoría corpuscular de la radiación
BIBLIOGRAFÍA
A partir de este modelo Descartes dedujo la ley de la refracción descubierta empíricamente por
Snell. Sin embargo, para su deducción, Descartes tuvo que acudir a la hipótesis de que la luz viajaba
más rápida en los medios más densos, como el agua, que en el aire, lo que fue ampliamente criticado
por ser antinatural. Uno de los detractores de la teoría de Descartes fue Pierre Fermat (1601-1665) el
cual, a partir de su principio extremal o del mínimo tiempo, consiguió demostrar la ley de la refrac-
ción admitiendo que la luz se propaga en los medios densos más lentamente que en el aire. Este resul-
tado se oponía a la teoría corpuscular de la luz mientras que se mostraba de acuerdo con las teorías
que consideraban la luz como una acción transmitida por un medio etéreo, tal como lo proponían Gri-
maldi, Hooke y Huygens.
los colores y la prueba fundamental de que la luz blanca es una mezcla de diferentes colores. En su li-
bro Óptica o Tratado de las reflexiones, refracciones, inflexiones y colores de la luz declara que:
Mi deseo no es explicar las propiedades de la luz mediante hipótesis, sino exponerlas di-
rectamente para probarlas después por medio del tratamiento y las experiencias.
Al principio de su tratado describe un primer experimento sencillo para demostrar que la luz de
diferentes colores tiene diferente refrangibilidad. El experimento consistía en observar un trozo de
cartón, pintado mitad rojo y mitad azul, con un prisma. Newton escribe que:
Observé que si el ángulo de refracción del prisma se gira hacia arriba, de manera que el
papel parece que se eleva por virtud de la refracción, su mitad azul se elevará por refracción
más que su mitad roja. Pero si se hace girar el ángulo de refracción del prisma, de modo que
el papel parece descender por la refracción, su mitad azul descenderá más que su mitad roja.
De esta experiencia Newton dedujo que la luz azul sufre una refracción mayor que la luz roja y
como consecuencia una lente debería enfocar la luz azul a una distancia diferente de la luz roja. Esto
lo comprobó en otro experimento en el que utilizó un papel pintado de azul y rojo, en el que había si-
tuado varios hilos negros para poder juzgar la claridad, y una lente. Comprobó que la imagen clara de
las dos mitades se obtenía a distancias diferentes.
En otro experimento, Newton estudió lo que ocurría a un rayo de luz del sol, obtenido con un pe-
queño orificio hecho en una superficie, al atravesar un prisma. Observó una banda de colores: rojo,
anaranjado, amarillo, verde, azul y violeta, además de toda la gama de matices intermedios. A partir
de esta experiencia Newton dedujo que la luz blanca está compuesta por rayos de diferentes colores
“puros” con distinta refrangibilidad. En esta conclusión es en la que Newton basa su teoría corpuscu-
lar de la luz, si los colores son cualidades de la luz, ésta no puede ser una cualidad, sino una sustancia,
a la que atribuye una estructura corpuscular:
Estamos seguros de que la luz es una sustancia, pero es más difícil determinar con exac-
titud qué es esa sustancia.
Otro de los descubrimientos de Newton fue el de los denominados anillos de Newton, que surgen al-
rededor del punto de contacto entre una lente convexa y una lámina de cristal. Para explicar este fenóme-
no, típicamente ondulatorio, mediante su teoría corpuscular, Newton tuvo que introducir una compleja
teoría en que suponía que los corpúsculos de la luz tienen “accesos” de fácil transmisión y “accesos” de
fácil reflexión que se suceden de forma periódica, siendo la longitud de acceso constante para un color de-
terminado. Esta longitud de “acceso” corresponde a lo que ahora denominamos longitud de onda.
La dificultad que encontró para poder explicar la propagación rectilínea de la luz mediante una
teoría ondulatoria hizo que Newton se opusiera hasta su muerte a este tipo de teoría, lo que hizo que
durante toda su vida mantuviera una dura pugna con Robert Hooke y Christiaan Huygens, defensores
de la teoría ondulatoria de la luz. Para él, la luz era una corriente de partículas que se precipitan a gran
velocidad a través del espacio, y aunque las ventajas de una teoría ondulatoria eran evidentes, su autori-
dad intelectual hizo que esta teoría no fuera aceptada hasta muchos años después de su muerte, hecho
que ocurrió en 1800, cuando Young explicó el fenómeno de los anillos de Newton, caprichos del desti-
no, mediante una teoría ondulatoria de la luz.
vimiento ondulatorio. Por la misma época, Robert Hooke (1635-1703) estudió los patrones de inter-
ferencia producidos por películas delgadas. De sus observaciones dedujo que estos patrones se de-
bían a la interacción de la luz de la parte anterior y posterior de la película y propuso la idea de que la
luz era un movimiento vibratorio del medio. Estas ideas fueron desarrolladas posteriormente por el
astrónomo, matemático y físico holandés Christiaan Huygens (1629-1695), uno de los científicos
que por sus numerosos y originales descubrimientos tuvo un amplio reconocimiento entre los hom-
bres de ciencia del siglo XVII. Huygens realizó importantes descubrimientos en el campo de la astro-
nomía gracias a las mejoras introducidas por él mismo en la construcción del telescopio y, sobre todo,
debido a un método nuevo para el pulido de las lentes que le permitía obtener unas imágenes mucho
más nítidas. Pero si su aportación a la óptica instrumental fue importante, también lo fue su tratamien-
to mecánico de la luz. En su Traité de la Lumière (Tratado de la luz), completado en años anteriores,
pero publicado en 1690, podemos leer:
La luz consiste en un movimiento de la materia que se encuentra entre nosotros y el cuer-
po luminoso.
Si bien la idea de que la luz era un movimiento ondulatorio ya había sido mantenida por Grimal-
di y Hooke tal como hemos comentado, Huygens hizo una de las más importantes contribuciones a la
óptica ondulatoria: el principio que lleva su nombre y que establece que todo punto de un frente de
ondas inicial se comporta como una nueva fuente de ondas secundarias que se propagan en todas di-
recciones. De esta manera puede encontrarse un nuevo frente de onda que envuelve las ondas secun-
darias, y como la luz avanza perpendicularmente a ese frente, el principio de Huygens permite dedu-
cir los cambios de dirección de la luz. A partir del principio de Huygens se obtiene de forma elegante
las leyes de la reflexión y la refracción. Sin embargo, aunque Huygens fue el primero en descubrir el
fenómeno de polarización por la interposición sucesiva de cristales de espato, no pudo explicar el fe-
nómeno ya que su creencia era que la luz, como el sonido, se trataba de una vibración longitudinal. La
obra de Huygens es sin duda alguna la contribución más importante realizada en el campo de la física
entre Galileo y Newton. Sus resultados fueron importantes y duraderos y su trabajo muestra más que
ningún otro realizado con anterioridad la importancia del planteamiento numérico de los fenómenos
físicos frente al meramente descriptivo.
comporta de forma similar a como lo hacen las olas en un estanque. En los puntos en que las ondas
llegan en fase, el movimiento de las ondas se suma y se produce un aumento de la iluminación,
mientras que en los puntos en que las ondas llegan fuera de fase se produce un descenso de la ilumi-
nación. A este efecto lo denominó ley general de la interferencia y en palabras del propio Young se
produce de la siguiente manera:
Cuando dos partes de la misma luz alcanza el ojo por dos caminos diferentes de direc-
ciones muy próximas, la intensidad es máxima si la diferencia de los caminos recorridos es un
múltiplo de una cierta cantidad, y mínima en el estado intermedio.
Además, con su nueva teoría, Young también explicó los colores observados en las películas delga-
das y relacionó el color con la longitud de onda. Sin embargo, la teoría ondulatoria de la luz no fue
bien recibida por los científicos debido a que se oponía a la teoría corpuscular de Newton, una autori-
dad intelectual. Es más, la obra de Young se condenó y se ignoró, y uno de sus críticos y adversarios
censuró a la Royal Society que publicara esos “mezquinos e insubstanciales documentos”.
en donde r1 y r2 son las distancias a las fuentes. Las amplitudes de las ondas serán distintas aun cuan-
do ambas fuentes sean idénticas, puesto que al tratarse de ondas esféricas, decrecerán con la distancia
en la forma 1/r1 y 1/r2.
Supondremos que la magnitud que se propaga es una magnitud escalar. Si fuese una magnitud
vectorial tendríamos que suponer que ambas tienen la misma dirección, de manera que la suma de
ambas pueda tratarse como una magnitud escalar. En un punto cualquiera del espacio, la composición
de las dos ondas vendrá dada por:
Si tenemos en cuenta la propiedad trigonométrica sen(a – b) = sen a cos b – cos a sen b, y la aplicamos
a la expresión anterior, agrupando términos tenemos que:
Y = ( Y01cos kr1 + Y02 cos kr2 ) sen wt – ( Y01sen kr1 + Y02sen kr2 ) cos wt (4)
Si ahora hacemos:
d= k ( r2 – r1 ) (9)
y
Y01sen kr1 + Y02sen kr2
tan a= (10)
Y01cos kr1 + Y02cos kr2
De la expresión (8) vemos que la amplitud de la onda resultante está comprendida entre un valor
máximo Y01 + Y02 que corresponde a cos d = 1, y un valor mínimo Y01 – Y02, que corresponde a
cos d = –1:
Y01 + Y02 < Y0 < Y01 – Y02 (11)
Si Y0 = Y01 + Y02 las dos ondas se refuerzan, y decimos que hay interferencia constructiva, mientras que
si Y0 = Y01 – Y02 las ondas se atenúan y decimos que hay interferencia destructiva. Es decir:
ì2np interferencia constructiva
ï
d= í (12)
ï
î( 2n+1)p interferencia destructiva
Las condiciones anteriores de interferencia constructiva y destructiva se pueden escribir de otra ma-
nera si tenemos en cuenta la relación (9):
2p
d = 2np Þ ( r – r ) = 2np Þ r2 – r1 = nl (13)
l 2 1
Ahora bien, r2 – r1 = Cte define un hiperboloide de revolución en cuyos focos se encuentran las fuen-
tes S1 y S2 (figura 1). Los hiperboloides de amplitud máxima corresponden a r2 – r1 = nl y los de míni-
ma amplitud a r2 – r1 = (2n + 1) l/2. Un aspecto fundamental del fenómeno de interferencia es que
S2
D
d
R r2
Figura 2. Esquema para S1 X
encontrar la franjas de
interferencia producidas por r1
dos fuentes puntuales. P
æk ö æ k ö
Y = 2Y0 cosç ( r2 – r1 )÷ sençwt – ( r1 + r2 )÷ (16)
è2 ø è 2 ø
æ d ö2
r12 =çx – ÷ + D 2 (17)
è 2ø
æ d ö2
r22 =çx+ ÷ + D 2 (18)
è 2ø
2xd
r22 – r12 = 2xd Þ r2 – r1 = (19)
r1 + r2
r1 + r2 2R (20)
Y por lo tanto:
xd
r2 – r1 = = d sen q (21)
R
De la expresión anterior y de (15) se tiene que la condición para que exista un máximo de amplitud en
el punto P, es:
l
sen q = n ( n = 0,1,2... ) (22)
d
x l lD
sen q = n Þ x= n (23)
D d d
Es decir, que los puntos de máxima amplitud son equidistantes, siendo la distancia entre dos máximos
consecutivos:
lD
Dx = (24)
d
Análogamente, de (15) y (21) se tiene que la condición para que exista un mínimo de amplitud
en el punto P, es:
l
sen q = ( 2n+1) ( n = 0,1,2... ) (25)
2d
x l lD
sen q = ( 2n+1) Þ x = ( 2n+1) (26)
D 2d 2d
Es decir, que los puntos de mínima amplitud son equidistantes, siendo la distancia entre dos mínimos
consecutivos:
lD
Dx = (27)
d
La intensidad es proporcional a la amplitud al cuadrado, por lo que de (16) y (21) se tiene que:
ék ù æ pd sen q ö
I = I 0 cos 2ê ( r2 – r1 )ú= I 0 cos 2ç ÷ (28)
ë2 û è l ø
-3 -2 -1 0 1 2 3
(d/l) send q
– Ley de Ampère-Maxwell
r
r r r ¶D
Ñ´ H = J + (31)
¶t
– Ley de Faraday-Henry
r
r r ¶B
Ñ´ E = – (32)
¶t
r
Las ecuaciones anteriores
r se completan conrotras dos que relacionan el vector desplazamiento D
r E, y el campo magnético B (denominado también inducción magnética) con el
con el campo eléctrico
campo magnético H. Además de estas dos ecuaciones, hay una tercera que relaciona la densidad de
corriente con el campo eléctrico, la ley de Ohm. Estas tres ecuaciones se denominan ecuaciones cons-
titutivas del medio donde aparecen los parámetros que caracterizan los medios materiales: la permiti-
vidad o constante dieléctrica, la permeabilidad magnética y la conductividad eléctrica. Para un medio
isótropo, homogéneo y lineal (ni ferroeléctrico ni ferromagnético) caracterizado por una permitivi-
dad 0, una permeabilidad m, y una conductividad s estas ecuaciones son:
r r
D = eE (33)
r 1 r
H= B (34)
m
r r
J = sE (35)
Sustituyendo en esta expresión la ecuación (39) del rotacional del campo eléctrico, se tiene que:
r r
r r r ¶B ¶2B
Ñ´ ( Ñ´ B ) = – ms – me 2 (42)
¶t ¶t
El primer miembro de la ecuación anterior se puede simplificar haciendo uso de la relación vectorial:
r r r r r r r
Ñ´Ñ´ B = Ñ ( Ñ×B ) – Ñ 2 B (43)
Sustituyendo la expresión (43) en (42) y teniendo en cuenta que, según (37), la divergencia del campo
magnético es cero, obtenemos que:
r r
r ¶B ¶2B
Ñ B – ms
2
– me 2 = 0 (45)
¶t ¶t
Para el campo eléctrico podemos encontrar una ecuación similar a la anterior. Aplicando el ope-
rador rotacional a la ecuación (39) obtenemos que:
r
r r r r æ ¶B ö
Ñ´ ( Ñ´ E ) = – Ñ´ç ÷
ç
÷ (46)
è ¶t ø
Intercambiando en el segundo miembro el orden de las derivadas temporales y espaciales del campo
magnético, la ecuación anterior la podemos escribir como:
r r r ¶ r r
Ñ´ ( Ñ´ E ) = – Ñ´ B (47)
¶t
Sustituyendo en esta expresión la ecuación (38) del rotacional del campo magnético, se tiene que:
r r
r r r ¶E ¶2E
Ñ´ ( Ñ´ E ) = – ms – me 2 (48)
¶t ¶t
Al igual que antes, el primer miembro de la ecuación anterior se puede simplificar haciendo uso de la
relación vectorial:
r r r r r r r
Ñ´Ñ´ E = Ñ ( Ñ×E ) – Ñ 2 E (49)
Sustituyendo la expresión (49) en (48) y teniendo en cuenta que la divergencia del campo eléctrico
viene dada por (36) obtenemos finalmente que:
r r
r ¶E ¶ 2 E ræ r ö
Ñ E – ms
2
– me 2 = Ñç ÷ (50)
¶t ¶t èeø
En una zona del espacio libre de carga, r = 0, la ecuación anterior se transforma en:
r r
r ¶E ¶2E
Ñ E – ms
2
– me 2 = 0 (51)
¶t ¶t
Las ecuaciones (45) y (51) relacionan las derivadas espaciales de las componentes magnética y
eléctrica del campo electromagnético con las derivadas primera y segunda respecto al tiempo. Estas
ecuaciones se denominan ecuaciones del telegrafista o ecuaciones de telegrafía. En el caso de un me-
dio no conductor s = 0, las ecuaciones (45) y (51) se simplifican y quedan en la forma:
r
r ¶2B
Ñ B – me 2 = 0
2
(52)
¶t
r
r ¶2E
Ñ E – me 2 = 0
2
(53)
¶t
1
u= (55)
me
Las dos ecuaciones vectoriales (52) y (53) proporcionan seis ecuaciones de onda una para cada com-
ponente del campo eléctrico (Ex, Ey, y Ez) y del campo magnético (Bx, By, y Bz).
En el vacío, las ecuaciones anteriores se transforman en:
r
r ¶2B
Ñ B – m0e0 2 = 0
2
(56)
¶t
r
r ¶2E
Ñ E – m0e0 2 = 0
2
(57)
¶t
Por tanto, tanto el campo magnético como el campo eléctrico se propagan en el espacio vacío como
una onda. Su velocidad de propagación se designa normalmente como c, y viene dada por:
1
c= (58)
m0e0
Haciendo uso de los valores encontrados en su época para la permitividad de vacío y la permeabi-
lidad, Maxwell encontró que la velocidad de propagación de las ondas electromagnéticas en el
vacío era:
1
c= » 3´108 m s (59)
m0e0
Este valor teórico deducido para la velocidad de propagación de las ondas electromagnéticas estaba de
acuerdo con el valor experimental encontrado por Fizeau para la velocidad de la luz, 315000 km/s, y esta
coincidencia llevó a Maxwell a escribir:
Esta velocidad es tan cercana a la de la luz que parece haber fuertes razones para concluir
que la propia luz (incluyendo el calor radiante y otras radiaciones si las hay) es una perturba-
ción electromagnética en forma de ondas que se propagan a través del campo electromagnético
de acuerdo con las leyes electromagnéticas.
3. INTERACCIÓN RADIACIÓN-MATERIA
A finales del siglo XIX la naturaleza ondulatoria de la luz parecía definitivamente establecida.
Pero a principios del siglo XX tuvieron lugar algunos descubrimientos sobre la interacción de la ra-
diación electromagnética con la materia que no podían ser explicados mediante una teoría ondulato-
ria de la luz: el efecto fotoeléctrico y el efecto Compton.
Ventana de
cuarzo Luz
e
C A
G
i
Figura 4. Esquema del montaje
experimental utilizado para el estudio
V del efecto fotoeléctrico.
Los resultados más importantes que se obtienen del experimento son los siguientes: si la tensión
V es positiva y suficientemente elevada, todos los electrones emitidos por el cátodo llegan al ánodo y
por tanto se alcanza una corriente de saturación. Si se disminuye el valor de V la corriente disminuye
y cuando se invierte (valores de V negativos) se observa que la corriente no se hace cero inmediata-
mente, lo que indica que los electrones son emitidos con cierta energía cinética. Conforme este poten-
cial de retardo se va haciendo mayor, menor es el número de electrones que tienen energía suficiente
para llegar al ánodo y por consiguiente la corriente fotoeléctrica disminuye. Para un valor suficiente-
mente grande y negativo de esta diferencia de potencial, la corriente se hace cero. Al valor absoluto
V0 de esta diferencia de potencial se le denomina potencial de frenado, y es una medida de la energía
cinética máxima con la que son emitidos los electrones por el cátodo:
K máx = eV0 (60)
Por otro lado, se observa que el potencial de frenado es una función lineal de la frecuencia n. Es
decir, que:
V 0 = an (61)
en donde el valor de a es igual a 4,1 ´ 10 J · s/C. Esta dependencia lineal y el valor de la pendiente
–15
a es la misma para diferentes materiales utilizados como cátodo. Además, se observa que para fre-
cuencias menores que un determinado valor nc el potencial de frenado V0 es cero (fig. 5c). Por tanto, si
no es necesario aplicar ningún voltaje entre el cátodo y el ánodo para frenar a los electrones más ener-
géticos es por que no se emiten electrones. Como se indica en la figura, esta frecuencia de corte de-
pende del material utilizado para el cátodo.
Un último hecho experimental que resulta de gran importancia es que cuando las condiciones
para la fotoemisión son favorables, ésta es casi instantánea. Se observa que la corriente fotoeléctrica
se produce dentro de los 10–9 segundos desde el comienzo de la iluminación. Esta emisión instantá-
nea de electrones se produce hasta cuando se ilumina el cátodo con radiación de intensidades tan ba-
jas como 10–10 W/m2.
gamos una fuente que emite energía en forma de luz ultravioleta con una potencia de P = 1 W y suponga-
mos que se encuentra a una distancia R = 1 m del cátodo. Por otro lado vamos a suponer, de forma bastante
generosa, que toda la radiación que incide sobre un átomo es absorbida por un solo electrón, el que se en-
cuentra menos ligado al átomo. Vamos a suponer que el radio del átomo es del orden de r = 10–10 m. Por
tanto la sección expuesta a la onda incidente será A = pr2 = p10–20 m2. Puesto que la energía de una onda
electromagnética se encuentra uniformemente distribuida sobre todo el frente de onda, suponiendo un
frente de onda esférico la intensidad de la onda, es decir, la energía por unidad de tiempo y de superficie en
la placa metálica será I = P/S = P/(4pR2) = 1/4p W/m2. Por tanto, la cantidad de energía absorbida por se-
gundo por un electrón en el cátodo es Pa = IA = 2,5 ´ 10–21 W. Por otro lado se sabe que la energía mínima
de enlace de un electrón con un átomo es del orden de unos pocos eV. Si tomamos como valor para esta
energía Eb = 1 eV = 1,6 ´ 10–19 J, entonces el tiempo necesario para absorber dicha energía será:
E b 1,6´10–19
t= = = 0,64´102 s = 64 s 1 minuto (62)
Pa 2,5´10–21
Es decir, que debería observarse la corriente fotoeléctrica un minuto después de que la luz ultraviole-
ta incidiera sobre el cátodo. Sin embargo, experimentalmente no se observa ningún retraso (al menos
superior a 10–9 s).
Según la teoría de Einstein, un haz de radiación electromagnética transporta energía como lo hace un
haz de partículas y no como una onda en donde la energía está uniformemente distribuida sobre el frente
de onda. Con esta hipótesis, la intensidad del haz es una medida de la densidad de fotones del haz. Por eso,
al aumentar la intensidad sin modificar la frecuencia no se modifica la energía de cada fotón sino que lo
que se modifica es la densidad de fotones del haz y por consiguiente la densidad de energía del haz.
Einstein supuso que el efecto fotoeléctrico se trata de una colisión entre partículas en la que un
fotón de energía hn choca con un electrón en el metal y le transfiere toda su energía. Por consiguiente,
del principio de conservación de la energía se tiene que:
hn = K +W (64)
en donde W es la energía necesaria para arrancar al electrón del metal y K es la energía cinética con la
que es emitido el electrón. La energía W incluye la energía para vencer las fuerzas atractivas de los
átomos de la superficie así como las pérdidas de energía cinética producidas en las colisiones internas
del electrón. Es evidente que algunos electrones estarán más fuertemente ligados al átomo y otros
perderán energía en el trayecto debido a las colisiones. En el caso de que el electrón sea el que más dé-
bilmente se encuentra ligado al átomo y suponiendo que no se producen pérdidas de energía por coli-
siones, los electrones emergerán del cátodo con la máxima energía cinética:
K máx = hn – f (65)
en donde f es un parámetro característico de cada metal que se denomina función trabajo y corres-
ponde a la mínima energía necesaria para liberar un electrón de la superficie del metal.
La máxima energía cinética con la que son emitidos los electrones puede determinarse experimen-
talmente midiendo el potencial de frenado V0. Sustituyendo el valor de la energía cinética máxima en
función del potencial de frenado, dado por (60), en la expresión anterior obtenemos que:
h f
V0 = n– (66)
e e
Veamos a continuación cómo podemos explicar con la teoría de Einstein los resultados experi-
mentales del efecto fotoeléctrico presentados al comienzo de esta sección.
Al aumentar la intensidad de la radiación se aumenta la densidad de fotones del haz, por lo que
será mayor el número de fotones que colisionan con el cátodo cada segundo. Esto significa que habrá
un mayor número de colisiones fotón-electrón y en consecuencia se producirá un aumento de los
electrones emitidos por el cátodo con el consiguiente aumento de la corriente fotoeléctrica. De esta
manera podemos entender el resultado experimental representado en la figura 5b, en el que se mues-
tra que la corriente es proporcional a la intensidad de la radiación incidente.
Por otro lado, aumentar la intensidad significa aumentar el número de fotones del haz pero no la
energía de cada uno de ellos. Así, la máxima energía cinética Kmáx que puede adquirir un electrón, y
por tanto el potencial de frenado V0, deberá ser independiente de la intensidad I (como se muestra en
la figura 5a) y ser sólo función de la energía del fotón incidente, es decir, de la frecuencia de la radia-
ción incidente. Esto es lo que indican las expresiones (65) y (66). Además, en la ecuación (66) pode-
mos observar que el potencial de frenado aumenta linealmente con la frecuencia n, tal como se obser-
va experimentalmente y se muestra en la figura 5c, y que la pendiente de la recta es la misma para to-
dos los metales. De esta misma ecuación se ve que si la energía del fotón es menor que la función
trabajo del metal el cátodo no emite electrones. Es decir, no se produce el efecto fotoeléctrico si hn <
f. Es decir, que existe una frecuencia de corte nc dada por:
f
nc = (67)
h
por debajo de la cual no tiene lugar el efecto fotoeléctrico.
Esta predicción del aumento lineal de la energía cinética máxima de los electrones con la fre-
cuencia de la radiación incidente fue chequeada por Millikan en 1916 en una serie de experimentos
que corroboraron la teoría de Einstein. Además, esto permitió encontrar el valor de la constante de
Planck, el cual se ajustaba con un error menor del 0,5% con el obtenido por el método de ajustar la
teoría de Planck al espectro experimental del cuerpo negro. Esta perfecta concordancia del valor de la
constante de Planck supuso un gran éxito de las teorías cuánticas.
Por último, según la teoría de Einstein, la emisión electrónica debería ser instantánea ya que en
el proceso no tiene lugar una absorción gradual de energía por parte del electrón hasta que alcanza la
energía suficiente para abandonar el metal. Este proceso es una colisión fotón-electrón, por lo que si
algún fotón de energía mayor que la función trabajo alcanza la superficie del cátodo, éste será absor-
bido inmediatamente por un átomo y se producirá la emisión inmediata de un electrón.
Un aspecto interesante que merece la pena resaltar es que en el proceso fotoeléctrico los fotones
son absorbidos, lo que exige que los electrones estén ligados a átomos o a un sólido, ya que un elec-
trón libre no podría absorber un fotón y conservar en el proceso tanto su energía relativista como su
momento. Por consiguiente, el electrón deberá estar ligado de manera que las fuerzas de ligadura
transmitan el momento al átomo o al sólido. Puesto que la masa de un átomo o de un sólido son mu-
cho mayores que la del electrón, aquellos pueden absorber una gran cantidad de momento sin que se
produzca una variación apreciable en la energía.
Colimador
Fuente de
rayos X
Detector
Blanco
q
Un haz de rayos X de una longitud de onda l bien definida se hace incidir sobre un blanco de gra-
fito. Compton estudió la radiación dispersada para determinar las longitudes de onda presentes en
ella, para diferentes ángulos q entre la radiación incidente y la dispersada. Mientras que la radiación
incidente tenía una longitud de onda l = 0,709 Å, observó que la radiación dispersada presentaba dos
máximos bien definidos: uno con longitud de onda l igual a la longitud de la radiación incidente y
otro máximo con longitud de onda l´, mayor que la longitud de onda incidente, cuyo valor dependía
del ángulo q y alcanzaba su máximo valor para un ángulo q = 180º. Este fenómeno se denomina efec-
to Compton y se muestra en la figura 7.
I I
00 450
I l I l
900 135
0
Figura 7. Intensidad de los rayos
X dispersados en el experimento
de Compton, en función de la
longitud de onda y para diversos
l l ángulos q.
u2
m0 = m 1– =0 (68)
c2
Por otro lado, la energía en reposo del fotón también ha de ser cero:
E 0 = m0 c 2 = 0 (69)
Es decir, el fotón es una partícula relativista masa en reposo cero y energía en reposo cero. Por tanto,
el fotón no puede existir en reposo y sólo existe cuando se mueve a la velocidad de la luz c. El mo-
mento del fotón puede calcularse a partir de la relación general entre la energía relativista, el momen-
to y la energía en reposo:
E 2 = E 02 + p 2 c 2 (70)
Analicemos a continuación la colisión de un fotón con un electrón del blanco que considerare-
mos estacionario. En la figura 8 se muestra un fotón de energía relativista total E y momento p que in-
cide sobre un electrón de masa en reposo m0 y energía en reposo m0c2. Después de la colisión el fotón
resulta dispersado y se mueve en una dirección que forma un ángulo q con la dirección incidente,
siendo su energía E´ y su momento p´. Por su parte el electrón se moverá en una dirección f con una
energía cinética K y un momento pe.
y y
l´
hv´
hv
q
e x f x
l
e
Si tenemos en cuenta ahora la relación (71) entre la energía del fotón y el momento, la expresión ante-
rior se puede escribir como:
c(p – p´) = K (79)
Para encontrar una relación entre la energía cinética del electrón y el momento del electrón utilizare-
mos la ecuación (70):
( K + m0 c 2 ) 2 = p e2 c 2 + m02 c 4 (80)
en donde el primer miembro corresponde a la energía total relativista del electrón que es la suma de la
energía cinética y la energía en reposo. Desarrollando el cuadrado y despejando nos queda que:
K2
+ 2Km0 = p e2 (81)
c2
Sustituyendo ahora en esta expresión los resultados encontrados en (76) y (79) obtenemos que:
( p – p' ) 2 + 2m0 c( p – p' ) = p 2 + p' 2 –2 pp'cos q (82)
que se reduce a:
m0 c( p – p' ) = pp' (1– cos q ) (83)
o lo que es lo mismo:
1 1 1
– = (1– cos q ) (84)
p' p m0 c
Si multiplicamos ambos miembros por h y teniendo en cuenta de nueva lo ecuación (71) se tiene fi-
nalmente que:
h
l '– l = (1– cos q ) (85)
m0 c
A la cantidad:
h
lC = (86)
m0 c
se le denomina longitud de onda de Compton del electrón, pues la partícula dispersora de la radiación
es el electrón.
La ecuación (85) se denominada ecuación de Compton y predice que el aumento de la longitud
de onda de la radiación electromagnética dispersada Dl = l´ – l, denominado corrimiento Compton,
depende exclusivamente del ángulo de dispersión q y de la constante universal denominada longitud
de onda de Compton, y no de la longitud de onda incidente. El valor de este corrimiento Compton va
desde cero, para q = 0 hasta el valor máximo para q = 180º:
2h
Dl máx = = 0,049 Å (87)
m0 c
Este resultado explica el valor de la longitud de onda correspondiente al pico observado por Compton
en el experimento.
Por último, queda explicar el pico de intensidad de la radiación dispersada que corresponde a
una longitud de onda igual a la de la radiación incidente. En el estudio realizado anteriormente hemos
considerado que el fotón colisiona con un electrón libre. Esta suposición es válida incluso si el elec-
trón está ligado pero la energía cinética que adquiere es mucho mayor que su energía de enlace. Pero
si el electrón está fuertemente ligado a un átomo del blanco, o si la energía del fotón incidente es muy
pequeña, existe una posibilidad de que el electrón no sea expulsado del átomo y en este caso podemos
suponer que la colisión tiene lugar entre el fotón y el átomo completo. Entonces el único cambio que
hay que hacer en el estudio anterior es sustituir en la ecuación de Compton la masa m0 en reposo del
electrón por la masa de todo el átomo M0. Puesto que la masa de los átomos es mucho mayor que la
masa del electrón, por lo general del orden de 104, esto implica que el corrimiento Compton debido a la
dispersión por los electrones fuertemente enlazados es despreciable y la longitud de onda del pico de in-
tensidad corresponde a la longitud de onda de la radiación incidente. Por ejemplo, si el blanco es grafito
se tiene que M0 24000 m0, por lo que de la expresión (87) se tiene que, sustituyendo m0 por M0 que:
2h 2h 0,049 –6
Dl máx = = = 2 ´ 10 Å (88)
M 0 c 24000m0 c 24000
Este corrimiento de la longitud de onda del fotón incidente es prácticamente inapreciable, por lo
que el fotón dispersado tiene la misma longitud de onda que el incidente. A este fenómeno de disper-
sión en el que no se modifica la longitud de onda de la radiación incidente se le denomina dispersión
de Thomson.
En resumen, cuando sobre el blanco inciden rayos X se tiene que:
– Algunos de los fotones son dispersados por electrones libres o débilmente ligados a los áto-
mos del blanco, que a su vez son liberados por la colisión. Estos fotones modifican su lon-
gitud de onda y su valor viene dado por la ecuación de Compton.
– Otros fotones son dispersados por electrones fuertemente ligados a los átomos del blanco los
cuales permanecen ligados durante la colisión. Estos fotones no cambian su longitud de onda.
Es importante señalar que cuando la radiación incidente corresponde a la zona del espectro del
visible, las microondas o las ondas de radio, la longitud de onda es mucho más grande que el corri-
miento Compton. Por lo tanto la longitud de onda de la radiación dispersada es la misma que la de la
radiación incidente dentro de los límites de la precisión experimental. Es decir, cuando la longitud de
onda es grande, los resultados de la teoría clásica y la teoría cuántica coinciden. Sin embargo, confor-
me la longitud de onda se hace más pequeña el efecto Compton se hace patente siendo cada vez más
importante. Así, en la región de los rayos g la dispersión de Compton es la dispersión dominante. En
este caso, la física clásica no puede explicar los resultados experimentales.
y de partícula de la luz. Por otra parte, la explicación del efecto fotoeléctrico sólo puede hacerse en
base a considerar la luz incidente como una corriente de partículas denominadas fotones.
El doble aspecto de la naturaleza de la luz también se encuentra en la teoría desarrollada por Paul
Dirac para la interacción de la radiación electromagnética con partículas cargadas. No obstante, la teo-
ría de Dirac proporciona buenos resultados en algunos casos, mientras que en otros da lugar a resultados
inadecuados y sin sentido. Estos problemas fueron solucionados a mediados de los años cuarenta con
los trabajos de Sin-Itiro Tamonaga, Julian Schwinger y Richard Feynman que dieron lugar a la elec-
trodinámica cuántica. En esta teoría, el fotón es la partícula que actúa como comunicadora de la fuer-
za entre partículas cargadas. Sobre la base de esta dualidad on-
da-partícula, podemos considerar que la fuerza electromagnética
que experimenta una partícula es debido al campo electromagnéti-
co creado por la otra, o bien, a un intercambio de fotones entre am- e
-
-
bas. Este es el punto de vista de la electrodinámica cuántica, y el e g
diagrama que describe la fuerza electromagnética como conse-
cuencia del intercambio de fotones entre las partículas cargadas se
-
denomina diagrama de Feynman. e
-
e
En la figura 9 se muestra el diagrama correspondiente al
caso más sencillo en el que una de las partículas emite un fotón y
retrocede, y la segunda partícula absorbe el fotón. En una inte-
racción así, se transfiere energía y momento de una partícula a la
otra siendo el fotón el que transporta esa energía y momento.
Puesto que el fotón emitido por una de las partículas es absorbi- Figura 9. Diagrama de
do muy poco tiempo después por la otra partícula, no se observa. Feynman que muestra cómo
Por esta razón se le denomina fotón virtual, en contraposición a actúa un fotón como portador
los fotones libres que sí pueden detectarse con los instrumentos de la fuerza electromagnética
de medida adecuados. entre dos electrones.
h
l= (89)
p
E
n= (90)
h
Sin duda alguna, la hipótesis de De Broglie era una de las ideas más originales introducidas en el cam-
po de la física. No obstante, fue considerada como una idea al margen de la realidad física por la falta
de evidencia experimental. Pocos años después se produjo la confirmación experimental de la idea de
De Broglie, lo que supuso que éste fuese galardonando con el premio Nobel de Física.
Por tanto, las dimensiones del dispositivo experimental debe ser 24 órdenes de magnitud más peque-
ño que el diámetro de un átomo. Por lo que es completamente imposible detectar un comportamiento
ondulatorio en el movimiento de una pelota de tenis. Las separaciones entre objetos más pequeñas
que podemos encontrar en la naturaleza y que pueden utilizarse para realizar experimentos de difrac-
ción son las distancias de separación entre átomos en las redes de los sólidos cristalinos, las cuales
son del orden de unos pocos ángstroms. Por tanto, si queremos tener éxito con este tipo de experimen-
tos para detectar la naturaleza ondulatoria de las partículas materiales debemos utilizar partículas
cuya longitud de onda de De Broglie sea de ese mismo orden. De acuerdo con la expresión (89) esto
será así si el momento de la partícula es pequeño, condición que se puede satisfacer si la masa de la
partícula es pequeña como es el caso de los electrones. Esta idea fue presentada por Elasser en 1926,
quien propuso que la naturaleza ondulatoria de la materia podía comprobarse experimentalmente de
la misma forma que se había probado la naturaleza de los rayos X. Para ello bastaría hacer incidir un
haz de electrones con la energía apropiada sobre un sólido cristalino. En este caso, los átomos del cristal
se comportarían como una red de difracción tridimensional y deberían dispersar a los electrones en cier-
tas direcciones características, de igual forma a como ocurría con los rayos X. Esta idea fue llevada a la
práctica por Davisson y Germer en Estados Unidos y por G. P. Thomson en Escocia.
En 1927 C. J. Davisson y L. H. Germer llevaron a cabo su experimento con una disposición ex-
perimental como la mostrada de forma esquemática en la figura 10. Los electrones producidos por un
filamento caliente eran acelerados por un potencial variable V y salen por un pequeño orificio del
ánodo con energía cinética eV. El haz se hace incidir sobre un cristal de níquel y se mide la intensidad
del haz dispersado a diferentes ángulos f respecto del haz incidente y para diferentes valores de V.
Filamento
e q f
V q
Ánodo
f Detector
Figura 10. Esquema del
montaje utilizado por
Cristal
Davisson y Germer en su
experimento.
Si el haz se comportase como un conjunto de partículas se esperaría que la intensidad del haz
dispersado mostrase una suave dependencia monótona con V y con f debido a las colisiones elásticas
de los electrones con los átomos del cristal. Los planos del cristal se comportarían como paredes, de
manera que los electrones saldrían con un ángulo de reflexión aproximadamente igual al de inciden-
cia. En consecuencia, para cualquier ángulo de incidencia se tendría que el número de partículas que
emergen en un ángulo igual al de incidencia sería el mismo y además sería independiente de la veloci-
dad de los electrones y por tanto del potencial de aceleración V. Por el contrario, si los electrones se
comportan como una onda entonces se esperaría un patrón de difracción como el observado para los
rayos X. En este caso se debería satisfacer la condición de difracción de Bragg:
nl = 2d sen q (92)
I
f = 50º
La distancia entre los planos atómicos podía calcularse mediante experimentos de difracción de
rayos X y resultaba ser d = 0,91 Å. Por otra parte, de los experimentos con rayos X de longitud de
onda l = 1,65 Å se obtenía que el ángulo q = 65º. Por tanto, de la figura, se tiene que el ángulo f = 50º.
Davisson y Germer dispusieron el equipo experimental con el detector situado a ese mismo ángulo y
midieron la intensidad del haz dispersado para distintos valores de V. Encontraron que cuando V = 54
V se tenía un máximo en la intensidad (figura 11). A partir de este resultado calcularon la longitud de
onda de los electrones según la hipótesis de De Broglie. El resultado es el siguiente. La energía cinéti-
ca de los electrones incidente es:
1 p2
K = mu 2 = (93)
2 2m
Por tanto, teniendo en cuenta que K = eV, el momento de los electrones vendrá dado por:
p = 2meV (94)
Sustituyendo esta relación en la expresión (89) se tiene que la longitud de onda de De Broglie de los
electrones es:
h h
l= = (95)
p 2meV
Sustituyendo los valores numéricos de las constantes que aparecen en la expresión y el valor experi-
mental encontrado para el potencial de aceleración de los electrones V = 54 V, se tiene que:
l = 1,67 Å (96)
El acuerdo entre la longitud de onda predicha por De Broglie para los electrones de esta energía
y el valor de la longitud de onda para los rayos X difractados resultó ser excelente. Por consiguiente,
este experimento confirmaba la hipótesis de De Broglie de que las partículas tienen propiedades on-
dulatorias, siendo la relación entre la longitud de onda y el momento de la partícula la dada por (89).
Después del experimento de Davisson y Germer otros muchos físicos encontraron evidencias
experimentales del comportamiento ondulatorio de la materia. Así, Estermann, Stern y Frisch reali-
zaron experimentos sobre la difracción por cristales de litio de haces de átomos de hidrógeno y helio;
y Fermi, Marshall y Zinn realizaron experimentos similares con neutrones lentos. Hoy en día, la exis-
tencia de las ondas de materia descansa en bases experimentales sólidas, siendo además la difracción
de electrones y neutrones una de las técnicas más comúnmente utilizadas en el estudio de la estructura
cristalina de los sólidos.
La dualidad onda-partícula y la función de onda. La aceptación del postulado de De Broglie
de las ondas de materia conlleva algunas cuestiones controvertidas como el significado de la función
de onda de la partícula y la conexión entre el modelo corpuscular y el modelo ondulatorio. Estas cues-
tiones quedan más claras si hacemos una interpretación probabilística de la función de onda. Para en-
tender esta interpretación de la función de onda comenzaremos por considerar el caso de la radiación
electromagnética y la interpretación de Einstein de la función de onda del campo electromagnético.
Desde el punto de vista clásico, la radiación electromagnética consiste en un campo eléctrico y
magnético que se propaga como una onda. Sin embargo, hemos estudiado que esta interpretación es in-
suficiente para explicar algunos aspectos de su interacción con la materia (efecto fotoeléctrico y efecto
Compton), que sólo son explicables adoptando un modelo de partícula. Por tanto, surge la cuestión de
cuál es la conexión entre el modelo ondulatorio y el corpuscular. La respuesta es que el lazo de unión
entre ambos modelos es la intensidad de la onda I. En el tema 27 vimos que la intensidad de una onda
electromagnética es el promedio del vector de Poynting, y puede escribirse como:
1
I = e0 E 2 (97)
2
en donde E es el campo eléctrico de la onda electromagnética (no confundir con la energía). Por otro
lado, desde el punto de vista del modelo corpuscular la intensidad puede escribirse como:
I = cNhn (98)
en donde c es la velocidad de propagación de los fotones, hn la energía de cada fotón y N es la densi-
dad promedio de fotones. Comparando ambas expresiones se tiene que:
N µ E2 (99)
Como vemos, hablamos de densidad promedio de fotones. Esto es debido a que los procesos de
emisión de los fotones son de naturaleza aleatoria, pues una fuente emite fotones al azar en todas di-
recciones. Como consecuencia de esta aleatoriedad no podemos decir con exactitud si dentro de un
determinado volumen pequeño encontraremos o no un fotón. Sin embargo, sí podemos hablar de la
probabilidad de encontrar un fotón dentro de un volumen dado, densidad de probabilidad, la cual
será proporcional a la densidad promedio de fotones N. Si ahora tenemos en cuenta que según (99)
N µ E 2 podemos concluir que la probabilidad de encontrar un fotón dentro de un volumen dado
del haz es proporcional al promedio del cuadrado de la amplitud de la onda asociada al haz. Por tan-
to, dentro del modelo corpuscular de la radiación electromagnética, modelo de fotones, la onda no
es un campo electromagnético, sino que es representada por una función matemática que mide la
densidad de probabilidad de los fotones. Esta es la interpretación de Einstein de áE2ñ como medida
probabilística de la densidad de fotones.
En 1926, Max Born (1882-1970), en analogía a la interpretación de Einstein de la radiación, pro-
puso una extensión de la interpretación probabilística a las ondas de materia propuestas por Louis de
Broglie para las partículas materiales. De acuerdo con esta interpretación, aceptada hoy por la mayo-
ría de los físicos, lo que “ondula” no es algo físico como las partículas de una cuerda o las moléculas
de agua en una ola: la onda de materia es representada por una función matemática y (r, t), denomina-
da función de onda, cuya interpretación es la siguiente: si en un instante de tiempo t realizamos una
medida para determinar la posición de la partícula asociada a la función de onda y (r, t), la probabili-
dad P(r, t)dV de que larpartícula se encuentre dentro de un pequeño volumen dV alrededor de un pun-
to con vector posición r (respecto de cierto sistema de coordenadas) es igual a |y (r, t)|2 dV. Es decir:
2
P(r, t)dV = |y (r, t)| dV (100)
Puesto que la probabilidad de encontrar a la partícula en algún sitio en el espacio ha de ser la unidad,
la función de onda debería estar normalizada. Es decir:
ò
¥
–¥
| y ( r, t )|2 dV = 1 (101)
El problema en mecánica cuántica se reduce a encontrar la función de onda de una partícula o sistema
de partícula, a partir de la cual pueden encontrarse todas las propiedades físicas interesantes del mismo.
Es de señalar que esta interpretación probabilística de la función de onda no fue, parece eviden-
te, bien acogida por parte de la comunidad científica de principios del siglo XX. Entre los críticos a
esta nueva interpretación se encontraban el propio Louis de Broglie y Albert Einstein quien sentenció
que “Dios no juega a los dados con el Universo”. La razón de estas posiciones científicas e ideológi-
cas es que la interpretación de Born suponía un ataque demoledor a uno de los principios fundamenta-
les de la física clásica: el concepto de determinismo. No obstante, en 1927 Heisenberg y Bohr demos-
traron que era precisamente el concepto de probabilidad lo que resultaba crucial en la unión de las dos
descripciones, corpuscular y ondulatoria, del comportamiento de la materia y de la radiación.
De forma análoga a la expresión (102) se tienen otras dos condiciones iguales para las otras dos
componentes de la posición y el momento:
Dp y Dy ³ h (103)
Dp z Dz ³ h (104)
– La limitación que impone el principio no tiene nada que ver con los adelantos y mejora en
la instrumentación científica. El principio establece que aun contando con instrumentos
ideales los resultados de las medidas vienen limitados por la ecuación (102).
– El principio no establece que no se pueda determinar con completa exactitud la posición o el
momento de la partícula. Puesto que en (102) aparece un producto de incertidumbres, el princi-
pio dice que cuanto más precisa sea la medida de px mayor será la incertidumbre en x y vicever-
sa. Así, si por ejemplo diseñamos un experimento de manera que se determina con exactitud la
velocidad de la partícula (Dpx = 0), se ignoraría por completo la posición (Dx = ¥).
Una segunda parte del principio de incertidumbre de Heisenberg hace referencia a la incerti-
dumbre en la medida de la energía DE del sistema y del intervalo de tiempo Dt característico de cam-
bio del sistema:
DE Dt ³ h (105)
Lo que nos preguntamos es si esta función de onda puede ser asociada a una partícula material. Si
la partícula tiene un momento y una energía bien definida, entonces la expresión (106) satisface adecua-
damente los requisitos impuestos por la hipótesis de De Broglie. Sin embargo, observamos que debido
a que la amplitud de la onda es constante en todos los puntos del espacio, la probabilidad de encontrar a
la partícula es la misma en cualquier región del espacio. Es decir, la partícula está completamente deslo-
calizada Dx = ¥. Este resultado es lógico, pues para una partícula con un momento bien definido se tie-
ne que Dpx = 0 y de acuerdo con el principio de incertidumbre de Heisenberg la incertidumbre en la po-
sición debería ser infinita. Por tanto, la expresión (106) puede describir a una partícula con el momento
y la energía bien definida, pero que por el contrario está completamente deslocalizada.
Utilizando las relaciones de la hipótesis de De Broglie, podemos expresar la velocidad de propa-
gación de la onda sinusoidal en función del momento y de la energía de la partícula como:
h E E
w= = (107)
p h p
Si se supone que la partícula se mueve con velocidad u no relativista la expresión anterior puede es-
cribirse como:
E 12 mu u
2
w= = = (108)
p mu 2
niendo un número infinito de ondas sinusoidales como la dada por (106) en la que cada una de ellas
difiere de la anterior en una cantidad infinitesimal en su longitud de onda y en su frecuencia. Esto se
puede escribir como:
y ( x, t ) = ò0 A ( k ) sen ( kx – w( k )t ) dk
¥
(109)
en donde w es en general una función de k. La función A(k) determina la contribución de cada onda sinu-
soidal al paquete de ondas y determina la forma del mismo. En la figura 13 se muestra la forma del paque-
te en función de x y en un instante de tiempo dado, para diferentes distribuciones de la función A(k).
A(k) y
k x
A(k) y
k x
A(k) y
k x
Figura 13. Diferentes paquetes de
ondas obtenidos a partir de
distintas distribuciones A(k).
Como puede observarse, conforme el rango de los valores de k aumenta más estrecho se hace el
paquete de ondas. De la misma forma se podría representar la función de onda en un punto del espacio
en función del tiempo. Un resultado general que se obtiene para los paquetes de onda, que se conoce
con el nombre de teorema del ancho de banda, es que la anchura espacial Dx y el intervalo Dk viene
dada por:
Dk Dx³1 (110)
Ahora bien, si el paquete representa una onda de materia debe cumplirse que:
h h
l= Þ Dp = Dk = hD k (111)
p 2p
del paquete debe ser igual a la velocidad de la partícula material. Para comprobar que esto es así va-
mos a estudiar, sin pérdida de generalidad, el caso sencillo de un paquete de ondas formado por dos
ondas sinusoidales.
Consideremos la superposición de dos ondas que difieren ligeramente en su longitud de onda y
en su frecuencia expresadas en la forma:
y 1 = A sen ( kx – wt ) (113)
y 2 = A sen[( k + Dk ) x – ( w+ Dw )t ] (114)
siendo Dk << k y Dw << w. La onda resultante de la superposición de ambas viene dada por:
y = y 1 + y 2 = Asen ( kx – wt ) A sen[ ( k + Dk ) x – ( w+ Dw )t ] (115)
x
Figura 14. Onda resultante de la
superposición de dos ondas de
frecuencia similares.
Como vemos, el factor de modulación es a su vez una onda que se propaga a la velocidad:
Dw
ug = (119)
Dk
denominada velocidad de grupo.
Si en vez de superponer dos ondas armónicas tuviésemos un paquete de onda compuesto de mu-
chas ondas cuyas longitudes de onda y frecuencias difiriesen muy poco unas de otras, la expresión de
la velocidad de propagación del paquete vendría dada por:
dw
ug = (120)
dk
Si tenemos en cuenta que la frecuencia está relacionada con la velocidad y el número de ondas por
w = ku, la expresión anterior se transforma en:
du du
u g = u+ k = u– l (121)
dk dl
Utilizando las relaciones de De Broglie y la expresión (120) podemos encontrar la relación entre la
velocidad de la onda de materia, velocidad de grupo, y la velocidad de la partícula. De las relaciones
de De Broglie se tiene que:
2p h dp
l= = Þ dk = (122)
k p h
Si ahora tenemos en cuenta que E = mu2/2 = p2/2m y que p = mu, resulta finalmente que:
dw d E p
ug = = = =u (125)
dk dp m
El paquete de ondas se propaga a la misma velocidad que lo hace la partícula. Es decir, la onda de ma-
teria se mueve con la partícula.
BIBLIOGRAFÍA
ÍNDICE SISTEMÁTICO
BIBLIOGRAFÍA
HETEROGÉNEAS
MEZCLAS DISPERSIONES
COLOIDALES
SISTEMAS HOMOGÉNEAS
MATERIALES (DISOLUCIONES)
COMPUESTOS
SUSTANCIAS
PURAS
ELEMENTOS
Si nos consta que algún sistema tiene dos o más componentes químicos y resulta evidente su he-
terogeneidad, estamos ante una mezcla heterogénea. El granito, cuyo análisis revela que incorpora,
como mínimo, tres minerales distintos: cuarzo, ortosa y mica, sería un ejemplo de mezcla heterogé-
nea. En cambio, los cristales de hielo en contacto con el agua líquida, es un material heterogéneo pero
no es una mezcla, puesto que no hay en presencia más que una sola sustancia pura: el agua.
Por el contrario, si un sistema, del que nos consta, por evidencias experimentales propias o aje-
nas, que tiene varios componentes químicos, presenta un aspecto uniforme en toda su extensión, de-
cimos que es una mezcla homogénea. Un ejemplo de mezcla homogénea es el aire, donde hay nitró-
geno, oxígeno y otras sustancias. Las mezclas homogéneas se llaman también –sin enredarnos en bi-
zantinismos– disoluciones.
las sustancias son compuestos o combinaciones de estos elementos; su número alcanza a varios mi-
llones y crece cada vez más rápidamente, bien porque se encuentran en la naturaleza, especialmente
en los seres vivos, o porque se sintetizan en los cada vez más numerosos laboratorios de química ex-
tendidos por todo el mundo.
Desde cierto punto de vista, se podría hacer la paradójica afirmación de que los elementos no
son sustancias puras sino mezclas. Porque, en general, los átomos de un elemento no son todos igua-
les, ya que existen los llamados átomos isótopos, que, teniendo el mismo número de protones, difie-
ren en el número de neutrones. No obstante, los químicos no consideran de ordinario esto como una
objeción a su concepto de elemento porque:
a) Las propiedades químicas de los isótopos son prácticamente idénticas;
b) Los isótopos de cada elemento están mezclados de modo que la proporción de cada uno se man-
tiene constante, no importa cuál sea la fuente de la que se ha extraído elemento, de donde resulta
que el peso atómico –que es la media ponderada de los pesos de los isótopos– es el mismo en
cualquier parte de la Tierra y los cálculos estequiométricos pueden hacerse como si se tratara de
una especie atómica única.
Temperatura
f
d Ebullición
T.E e
Líquido
y Gas
gas
b Fusión
T.F c
Sólido
y Líquido
Sólido líquido
a Tiempo de
Curva de calentamiento calentamiento
Se llama punto de fusión de una sustancia pura a la temperatura que funde cuando la presión am-
biental es de 1 atm. En ocasiones, la determinación experimental del punto de fusión de una sustancia
desconocida se utiliza para identificarla, como una técnica más del análisis químico.
Volviendo a nuestro experimento, si al llegar al punto c , donde todo el hielo se ha fundido, se-
guimos calentando, la temperatura del agua empieza a subir, aunque a menor velocidad que lo hacía
en el hielo porque el calor específico del agua es mayor. Así llegaremos hasta los 100 ºC, donde la
temperatura se estabilizará de nuevo porque ha empezado la ebullición, que se prolonga a lo largo del
tramo d-e. La muestra absorbe ahora calor para separar entre sí las moléculas y alcanzar el estado ga-
seoso. El calor correspondiente, por unidad de masa, se llama calor latente de vaporización, y en el
caso del agua vale 539 cal/g, cuando se mide a 100 ºC. También la temperatura o punto de ebullición
es un parámetro característico de cada sustancia; para el agua es, obviamente, 100 ºC, a la presión at-
mosférica ordinaria.
En cuanto toda el agua se ha convertido en vapor, si se sigue calentando, la temperatura aumenta
de nuevo (tramo e-f).
Todos los pasos mencionados son reversibles, de forma que enfriando un vapor éste experi-
menta la licuación o condensación a la misma temperatura del punto de ebullición, sólo que ahora
se desprende calor, el mismo que se absorbió en la ebullición, y otro tanto ocurre con la solidifica-
ción de un líquido.
Bajo ciertas condiciones de presión y temperatura, los cuerpos sólidos pueden pasar directa-
mente al estado gaseoso, transformación denominada sublimación. El proceso opuesto, el paso di-
recto de gas a sólido también se llama sublimación o bien condensación. Ejemplos de sustancias
que subliman fácilmente a la presión atmosférica y a temperaturas moderadas son el CO2 , el yodo y
el naftaleno.
Se puede observar que en un cambio químico los átomos no se alteran, el número de átomos de
cada elemento permanece constante, pero se unen entre sí de un modo diferente y dan lugar a nuevas
estructuras que, lógicamente, tienen propiedades nuevas.
Por otra parte, la energía liberada en los procesos químicos es muy superior a la correspondiente
a los cambios físicos. Podemos escoger como término de comparación el agua como objeto de un
cambio físico y de un cambio químico. El paso de gas a líquido de un gramo de agua vapor a 100 ºC
desprende (recuérdese lo dicho en la ebullición del agua) 539 calorías; en cambio, cuando se forma
un gramo de agua por reacción entre el oxígeno y el hidrógeno –en el soplete oxhídrico, por ejemplo–
se desprenden 3811 calorías.
Las disoluciones pueden ser muy variadas, según de qué soluto y de qué disolvente se trate.
Puede darse una gama muy amplia de casos en los que se va desde la transformación principalmen-
te física hasta la predominantemente química. Puede ser razonable llamarlas, pues, transformacio-
nes fisicoquímicas.
Podemos hacernos una idea calculando, en términos comparables a los ejemplos energéticos
que hemos dado para cambios físicos y químicos, la energía liberada en una transformación nuclear
“suave”, la desintegración b del carbono-14:
14
6 C ® 14
7 N + 0
-1 e + 0,156MeV
Convertimos los MeV en calorías, pasamos del átomo al mol, y de éste al gramo de carbono-14,
para llegar al resultado de que en la transmutación de un gramo de carbono-14 a nitrógeno-14 se libe-
ran casi ¡258 millones de calorías! (compárese con las 539 cal/g de la ebullición del agua, o con las
3811 cal/g de la síntesis química del agua).
4.1. Generalidades
La separación de componentes de mezclas es, sin duda, la tarea práctica más importante de la
química. Mediante operaciones de separación se obtienen unos productos, se purifican otros y se in-
vestiga la presencia de muchos otros en los más variados escenarios de los intereses humanos.
Las técnicas de separación son extraordinariamente variadas y abarcan tecnologías tan dispares
como la separación de los isótopos de un elemento, la purificación de proteínas o la obtención de una
fracción de los componentes del petróleo.
Los métodos de separación están determinados, entre otros muchos factores, por la escala del
proceso. A grandes rasgos, unos métodos son válidos para la escala industrial mientras otros son más
convenientes para la escala de laboratorio.
Aquí vamos a examinar un catálogo muy resumido de técnicas de naturaleza física, que son las
más comprensivas y generales. Porque también existen técnicas químicas de separación, pero su
campo de aplicación resulta muy especializado en relación con el componente a separar, por lo que su
descripción hay que buscarla en las monografías científicas y tecnológicas que tratan de las sustan-
cias que sean de interés en cada caso.
4.4. Destilación
Cada líquido tiene un punto ebullición característico a una presión determinada. Este hecho fun-
damenta el método de separación por destilación de una mezcla líquida, siempre que los componen-
tes de la mezcla tengan puntos de ebullición diferentes. Para ello, se calienta la mezcla, se recoge el
vapor producido y se condensa a líquido por enfriamiento. En la figura 2 se representan dos aparatos
de destilación: uno para destilación sencilla y otro para destilación fraccionada.
En la forma más simple de destilación o destilación sencilla, se puede recoger las primeras can-
tidades de vapor, que contiene el componente más volátil en alto grado de pureza, mientras las últi-
mas contienen el menos volátil también muy puro. Pero el método resulta muy poco eficiente porque
entre esos dos extremos hay una gran cantidad de vapor que es todavía una mezcla de ambos.
termómetro
Termómetro
Refrigerante
al refrigerante
Matraz de
destilación
Salida de agua
matraz
Entrada de agua de destilación
Destilado
(a) (b)
Por eso, cuando los puntos de ebullición de los componentes son parecidos es necesario recurrir
a una modificación de la técnica que se llama destilación fraccionada. Consiste en colocar una co-
lumna de fraccionamiento entre el matraz de destilación y el condensador. En los montajes de labora-
torio, suele ser un tubo largo de vidrio relleno de algún material inerte que presente mucha superficie
al contacto con los vapores. A lo largo de la columna, los vapores del componente menos volátil con-
densan y resbalan por gravedad hacia el matraz mientras los del más volátil ascienden hasta que salen
hacia el condensador.
La destilación fraccionada permite, con un tubo de longitud suficiente y una manipulación co-
rrecta de la temperatura, separar mezclas de líquidos de puntos de ebullición próximos. Una aplica-
ción de extraordinaria importancia industrial y económica es la que utilizan las refinerías de
petróleos, donde el petróleo crudo es sometido a una destilación fraccionada en grandes torres que
hacen las veces de los tubos antes mencionados, y se descompone en una serie de fracciones, que no
son sustancias puras sino mezclas de hidrocarburos, que el mercado demanda como productos espe-
cíficos de gran consumo: gasolina, gasóleo, queroseno, aceites lubricantes, etc.
Dependiendo del tipo de sustancia que se trata de separar, existen otras técnicas especializa-
das de destilación como la destilación a vacío y la destilación en corriente de vapor. La primera
se realiza por extracción del aire del aparato de destilación para conseguir la vaporización a una
temperatura inferior y evitar así la descomposición de sustancias sensibles a la temperatura. La
segunda se aplica a la separación de compuestos inmiscibles en agua, y consiste en pasar una co-
rriente de vapor de agua a través de la mezcla. Pero no podemos desorbitar aquí la explicación de-
tallada de estos procesos.
4.7. Cromatografía
4.7.1. Introducción
En 1906 el químico biológico ruso Tswett publicó un experimento que es considerado como el
punto de partida de las técnicas de separación cromatográficas. Montó una columna larga de vidrio,
rellena de sulfato de calcio pulverizado, que tenía una llave en la salida inferior, puso en su parte su-
perior una mezcla de pigmentos vegetales y a continuación agregó éter de petróleo. Observó entonces
que aparecían varias bandas horizontales de diferentes colores, correspondientes a los diferentes pig-
mentos de la mezcla, que se habían separado a lo largo de la columna. Esta separación está condicio-
nada por la diferente afinidad de adsorción de los pigmentos sobre el yeso, de modo que los que se
adsorben más débilmente son arrastrados por el disolvente y se depositan en último lugar.
El término “cromatografía” se construyó a partir del griego y significa literalmente “escritura
coloreada”. Las distintas técnicas cromatográficas han contribuido enormemente a resolver numero-
sos problemas de separación de sustancias en propósitos de preparación, purificación y análisis, espe-
cialmente en muestras de origen biológico, aunque también en muchos otros campos como, por
ejemplo, la separación de los productos de la fisión nuclear cuando aún no se disponía de las resinas
intercambiadoras de iones.
En esencia, las técnicas cromatográficas se basan en la separación de especies químicas provo-
cada por el flujo de un líquido (o un gas, en la cromatografía gaseosa) a través de una fase estaciona-
ria, sólida o líquida, debidamente anclada en un soporte instrumental, cuando existen afinidades
diferenciadas de dichas especies con respecto tanto a la fase fluyente cuanto a la estacionaria.
Comentaremos de forma sumaria algunas de las técnicas cromatográficas más representativas.
mezcla
componentes
separados
relleno
Por su parte, el adsorbente tenderá a captar por adsorción ambos cuerpos, aunque con distinta
intensidad, lo que determinará que uno de ellos quede retenido con preferencia en el primer tramo
de la columna, mientras el otro se fije en ella más adelante, cuando ha desaparecido la competencia
del primero.
Como el disolvente sigue entrando por el extremo superior de la columna, se produce el fenóme-
no denominado elución, es decir, la desorción o desprendimiento de los solutos de la superficie del
adsorbente. Manejando la llave de salida de la columna, podemos separar las distintas fracciones que
van saliendo; primero, la que contiene el soluto más débilmente retenido, luego, la del otro. Una pos-
terior evaporación del disolvente permitirá obtener las dos sustancias por separado.
Corcho con
hendidura
Tira de
papel
Mancha de
la muestra
Disolvente
Un perfeccionamiento de esta técnica, que permite resolver mezclas difíciles, consiste en la llama-
da cromatografía bidimensional. En este caso, después de obtenido el cromatograma normal, se deja
que se seque y se gira 90 º, para aplicarle una segunda pasada, pero ahora con un disolvente distinto. Así
se consigue una separación de componentes, que no pudieron ser resueltos en el primer cromatograma,
y que sí se separan en este segundo paso, en dirección perpendicular al primero (Figura 4).
mezcla inicial
(a) (b)
Algunos de los gases portadores empleados son el helio, el nitrógeno o el hidrógeno. Los vapo-
res de la muestra son arrastrados a través de la columna y tienden a disolverse parcialmente en la fase
líquida aceitosa, pero dadas las diferentes solubilidades, se forman “bandas” en los distintos tramos
de la columna. Estas fracciones van pasando luego por el detector el cual envía su información a un
registro que permite identificar los distintos componentes de la mezcla.
Una de las clasificaciones más antiguas de los elementos es la de metales y no metales. En nues-
tro planeta, salvo algunos pocos (cobre, plata, oro, mercurio y platino), los metales se encuentran
combinados en minerales en forma de óxidos, hidróxidos, haluros, carbonatos, etc.
En esos minerales, los metales se encuentran en estado químico oxidado. Para obtenerlos en su
estado metálico, es necesario proceder a su reducción. El conjunto de operaciones necesarias para ob-
tener un metal se conoce con el nombre de metalurgia.
El cambio químico esencial de toda metalurgia es, por lo dicho:
Men+ + n e- ® Me
Cuanto más reductor, o dicho de otro modo, más electropositivo, sea un metal más difícil resulta
efectuar esa reacción, porque en ella el ion metálico actúa como oxidante. Los metales alcalinos, los
alcalinotérreos y el aluminio, son tan electropositivos que su reducción no la pueden efectuar, de
modo ordinario, otras sustancias y hay que recurrir a la reducción catódica, es decir, sus metalurgias
se llevan a cabo por electrólisis.
Sin duda, la metalurgia más importante es la del hierro, hasta el punto de que recibe un nombre
particular, siderurgia. De ella tratamos, con la brevedad que exige el contexto, a continuación.
Por otro lado, entre los no metales más importantes, algunos como el oxígeno, el nitrógeno, el
azufre o el carbono, se encuentran en la naturaleza libres en grandes cantidades, por lo que su extrac-
ción a partir de sus compuestos no es una tarea prioritaria. Otros por el contrario, sólo se encuentran
combinados, por lo que es preciso su extracción química.
Escogeremos la producción de cloro, importante materia prima de la industria química, como un
ejemplo significativo de la obtención de un elemento no metálico a partir de su compuesto más abun-
dante, la sal común.
Este gas sube por el interior de la torre para encontrarse con carbono sin quemar que lo reduce a
monóxido:
CO2 + C ® 2CO
Las altas temperaturas generadas por la combustión del carbón descomponen el mineral de hie-
rro (óxido hidratado o carbonato) para dejar sólo óxido férrico, el cual es reducido por el CO en una
sucesión de reacciones de reducción cuyo resultado final es:
Fe2O3 + 3CO ® 2Fe + 3CO2
La caliza agregada al principio tiene como objetivo reaccionar con la arena (SiO2), que impurifi-
ca el mineral, y convertirla en silicatos (escoria), los cuales, por tener un punto de fusión relativa-
mente bajo forman un líquido que sobrenada la fundición, hierro líquido, a la temperatura de unos
2000 ºC. Así puede ser separado el metal fundido fácilmente. La caliza, en esta operación, recibe el
nombre técnico de fundente.
El hierro líquido sale del horno conteniendo entre un 3 y un 4% de carbono, junto con otras im-
purezas, por lo que tiene que ser después refinado. Si el refinado deja al hierro con un porcentaje de
carbono entre 0,5 y 1,5%, tenemos el producto llamado acero, al que se incorporan otros diversos
componentes, según el uso al que se le destine. La variedad comercial más pura de hierro es el llama-
do hierro dulce, que presenta una pureza del 99,8 %.
Kw = [H3O+][OH-]), que, junto con el ion Na+, forma una disolución de NaOH, concentrada poste-
riormente por evaporación, al tiempo que el NaCl sobrante cristaliza y se separa de la disolución.
+ ánodos de grafito
salmuera Cl2
Cátodo H2
de acero Cl2 Cl2
perforado + +
H2
diafragma
de
asbesto agua
pura
Salmuera Salmuera
cátodo de
mercurio
disolución formación
de Movimiento de NaOH
NaOH de balanceo
Método de Nelson Método de Castner-Kellner
Aunque no tenemos espacio para tratar aquí de la nomenclatura tradicional, no es ocioso recor-
dar que tiene una gran importancia, ya que está muy extendida en la literatura científica y en las co-
municaciones prácticas y comerciales. Un buen profesor de química no puede despreciar este hecho.
Número Carga
másico iónica
6.2. Elementos y compuestos binarios
Los elementos químicos se representan por símbolos,
mientras que los compuestos se significan por fórmulas. Los
símbolos de los elementos constan de una o dos letras, la pri-
mera es mayúscula y la segunda, si la hay, minúscula.
Los isótopos de un elemento se representan añadiendo al
símbolo de dicho elemento un superíndice izquierdo que indi-
ca su número másico. Por ejemplo, el carbono-12 y el carbo-
no-14 quedan significados como 12C y 14C. Los isótopos no
tienen nombres propios sino que toman el del elemento, como
acabamos de ver. Sin embargo, en el caso de los isótopos del
hidrógeno las masas atómicas relativas son tan dispares (los
Número Multiplicidad
pesos atómicos están en la proporción 1:2:3) que se estimó atómico atómica
conveniente asignarles nombres propios: protio, para el hi-
drógeno ordinario o ligero (1H); deuterio, para el hidrógeno Los cuatro índices del símbolo de un
pesado (2H); y tritio, para el superpesado (3H). elemento.
Las distintas moléculas formadas por átomos de un
mismo elemento se nombran con prefijos griegos. Así: el hidrógeno atómico, H, se nombra como mo-
nohidrógeno; el oxígeno ordinario, O2, dioxígeno; el ozono, O3, trioxígeno; el fósforo blanco, P4, te-
trafósforo; etc.
Las fórmulas de los compuestos binarios se escriben poniendo en primer lugar el elemento más
electropositivo (o, dicho de otro modo, el menos electronegativo) y después el más electronegativo.
Ejemplos: NaCl, KBr, CaO.
Los nombres de estos compuestos empiezan con el relativo al componente más electronegativo, pre-
cedido, cuando sea necesario, de un prefijo numérico indicativo del número de átomos, y terminado en
–uro (salvo en el caso del oxígeno, que se nombra óxido); siguen con la preposición de, y terminan con el
nombre del elemento más electropositivo tal cual, precedido por el prefijo numérico cuando sea necesario.
Ejemplos: cloruro de sodio, óxido de calcio, disulfuro de carbono, pentaóxido de dinitrógeno.
La IUPAC admite también el llamado sistema de Stock, que consiste en indicar el número de
oxidación o la valencia estequiométrica del elemento más electropositivo con cifras romanas y entre
paréntesis. Ej.: MnO2, óxido de manganeso (IV); FeCl3, cloruro de hierro(III). Se prefiere no utilizar
este sistema cuando el compuesto está formado exclusivamente por elementos no metálicos.
Se admiten los nombres usuales no sistemáticos de algunos compuestos binarios de hidrógeno
notables: SiH4, silano; PH3, fosfina; AsH3, arsina; SbH3, estibina; etc. Por supuesto, se admiten los
nombres agua y amoniaco.
misma palabra pero sin prefijo y luego el metal indicando, cuando es necesario, su número de oxida-
ción por el sistema de Stock.
6.3.2. Oxiácidos
Estas moléculas tienen un átomo central y, además, oxígeno e hidrógeno, y se pueden nombrar
de dos formas:
La IUPAC admite los nombres tradicionales de los oxiácidos más corrientes: carbónico, nítrico,
nitroso, sulfúrico, sulfuroso, hipocloroso, etc.
Ejemplo Nombres
KNO2 Dioxonitrato (III) de potasio
Pt(CO3)2 Carbonato de platino (IV)
Cu2 P2 O7 Heptaoxodifosfato (V) de cobre (II)
Ejemplo Nombre
Ejemplo Nombre
BIBLIOGRAFÍA
33
Teoría atómica de Dalton.
Principio de conservación
de la masa. Leyes ponderales
y volumétricas. Hipótesis
de Avogadro. Estequiometría
ÍNDICE SISTEMÁTICO
2. LEYES PONDERALES
2.1. Ley de las proporciones recíprocas
2.2. Ley de las proporciones definidas
2.3. Ley de las proporciones múltiples
4. LEYES VOLUMÉTRICAS
5. HIPÓTESIS DE AVOGADRO
6. ESTEQUIOMETRÍA
6.1. Peso atómico, peso molecular y peso fórmula
6.2. Concepto de mol
6.3. Composición porcentual y fórmulas de compuestos
6.4. Deducción de fórmulas a partir de la composición
6.5. Ecuaciones químicas
6.5.1. Significado de una ecuación química ajustada
6.5.2. Balance de las ecuaciones químicas
6.5.3. Reactivo limitante
6.5.4. Cálculos a partir de las ecuaciones químicas
6.5.5. Reacciones químicas y disoluciones
6.5.6. Estequiometría de disoluciones
BIBLIOGRAFÍA
O lo que es equivalente:
La masa no puede ser creada ni destruida durante un cambio químico.
Esta afirmación es fundamental en química y las medidas de las masas es el proceso fundamen-
tal que subyace en gran parte del trabajo en química.
El principio de conservación de la masa ya había sido utilizado por algunos químicos como hi-
pótesis de trabajo. No obstante, por regla general, se le atribuye a Lavoisier por su comprobación ex-
perimental y por su generalización.
El éxito obtenido por Lavoisier animó a los químicos a investigar y explorar otras áreas bajo la
óptica del método científico. Los éxitos del nuevo método aplicado a la química no tardaron en mani-
festarse y la química experimentó un enorme progreso en sus diferentes áreas.
2. LEYES PONDERALES
El impulso dado por Lavoisier a la química condujo a la elaboración de varias leyes empíricas.
De esas leyes es de lo que vamos a tratar en este apartado.
Es decir, si una cierta cantidad de sustancia A se combina con una determinada cantidad de una sustan-
cia B y esta se combina con un cantidad de la sustancia C, entonces las sustancias A y C deberían combi-
narse con esas mismas cantidades con que lo hacían con B o un múltiplo o submúltiplo de ésta.
La ley de las proporciones recíprocas establece un peso relativo para cada elemento igual al peso
que se une con un peso determinado de un elemento que se toma como referencia. En principio, se
tomó como elemento de referencia el oxígeno, por su facilidad para combinarse con otros muchos
elementos, y como peso de referencia 100 partes en peso de oxígeno. El peso de combinación de cada
elemento era entonces el peso que se combinaba con esas 100 partes de oxígeno. Posteriormente, se
adoptó como peso de referencia 8 partes de oxígeno, con lo que el peso de combinación del hidrógeno
era aproximadamente la unidad.
Después de este descubrimiento, los químicos confeccionaron diversas tablas en las que fijaban
las cantidades relativas de los elementos cuando se combinaban entre sí.
Lo que en su día se denominó peso de combinación es lo que hoy se conoce como peso equiva-
lente de un elemento y se define como el peso de un elemento (o compuesto) que se combina o reem-
plaza a 8 partes de oxígeno o a 1,008 partes de hidrógeno.
Esta segunda ley empírica zanjaba la polémica establecida entre Proust y C. Berthollet, defensor
de la idea de que la composición de una sustancia era variable. Según la ley, por ejemplo, los tres
componentes que sólo contienen hierro y oxígeno tienen composiciones químicas y propiedades di-
ferentes, pero para cada uno de ellos las propiedades y la composición son las mismas independiente-
mente de que las muestras procedan de lugares diferentes o de que se haya obtenido por procesos di-
ferentes. Dicho de otra manera, las relaciones entre las masas de cualquier compuesto es una caracte-
rística de él y no puede ser alterada sin producir cambios en otras propiedades características del
compuesto. Durante los primeros años del siglo XIX otros químicos comprobaron la ley de Proust, la
cual se convirtió en la piedra angular de la química.
Estas leyes permitieron a los químicos caracterizar nuevos compuestos y elementos, pero por
otra parte creaba ciertos problemas conceptuales sobre la composición de la materia. Si la materia era
un continuo, las leyes eran bastante difíciles de entender; pero si la materia estuviera formada de áto-
mos, las leyes serían una consecuencia natural de este hecho. En consecuencia estas leyes desperta-
ron un renovado interés por la teoría atómica de la materia.
Lo que esta ley dice es que si por ejemplo consideramos el carbón y el oxígeno: en el dióxido de
carbono la razón entre las masas del carbón y del oxígeno es 4/3, en el caso del monóxido de carbono
la razón es 8/3. Es decir, que las cantidades de un mismo elemento que se combinan con una determi-
nada cantidad de fija de otro para formar compuestos diferentes están relacionadas mediante números
enteros sencillos.
La determinación de las razones entre las masas en los compuestos debía hacerse por descompo-
sición, pero a finales del siglo XVIII y comienzos del XIX, a menudo, esto no podía hacerse de forma
cuantitativa, por lo que la mayoría de ocasiones la razón entre las masas había de encontrarse median-
te la síntesis de compuestos a partir de sus elementos.
mica de Dalton tiraba por tierra la antigua creencia de la transmutación de los elementos químicos: si
los metales estaban formados por un solo tipo de átomos, indivisibles e inalterables, no podía esperar-
se que un átomo de plomo se transformara en un átomo de oro.
El trabajo de Dalton titulado A New System of Chemical Philosophy fue publicado con detalle en
1808 y sus ideas básicas son las siguientes:
– La materia se compone de partículas muy pequeñas denominadas átomos.
– Los átomos de un elemento son idénticos en todas sus propiedades.
– Los diferentes elementos están hechos de átomos diferentes.
– Los átomos de dos o más elementos se combinan para dar lugar a las moléculas.
– Los átomos son indivisibles y conservan sus características en las reacciones químicas.
– En las reacciones químicas los átomos se combinan en proporciones numéricas simples.
Estas ideas fueron pronto verificadas por William Hyde Wollaston (1766-1828) y el trabajo de
Dalton adquirió la credibilidad necesaria y fue ampliamente aceptado.
La teoría atómica permitió a Dalton determinar los pesos atómicos de diferentes elementos y
construir la primera tabla periódica. Sin embargo, los cálculos de Dalton se basaban en una hipótesis
errónea. Aceptaba como regla general que las moléculas se formaban por pares de átomos, un átomo
de un elemento con un átomo del otro elemento, y sólo cuando era absolutamente necesario cambiaba
esta regla. Esto le llevó a determinar de forma equivocada los pesos atómicos de algunos elementos.
Por ejemplo, cuando el hidrógeno se quema en un exceso de oxígeno para producir agua, se pueden
determinar las cantidades de ambos gases que se combinan. Se obtiene que el agua está formada por
el 11,19% de hidrógeno y el 88,81% de oxígeno. Dalton asumió que el hidrógeno debería tener masa
atómica unidad por ser el elemento más ligero conocido. Por consiguiente la masa de oxígeno es en-
tonces: 88,81/11,19 = x/1, donde x es la masa atómica del oxígeno y cuyo valor es de 7,937, el cual
fue redondeado a 8. Esta suposición de Dalton pronto se demostró estar equivocada.
Las ideas de Dalton se aproximan mucho a la realidad y casi describen correctamente el compor-
tamiento químico. Pero también contienen errores apreciables. Por ejemplo, hay diversas formas de-
nominadas isótopos y no son las partículas elementales más pequeñas. A pesar de sus errores la teoría
atómica de Dalton fue la primera en volver a considerar las primitivas teorías de los griegos, e intro-
dujo una serie de conceptos que fueron determinantes para el desarrollo de la química del siglo XIX.
Sin embargo, la teoría atómica de Dalton no explicaba por qué los átomos se combinaban en determi-
nadas proporciones y no en otras. Muchos científicos de la época no aceptaron la existencia de estas
partículas elementales constitutivas de la materia lo que dio lugar a grandes debates entre los defenso-
res y detractores de la teoría atómica.
4. LEYES VOLUMÉTRICAS
En ese tiempo el francés Joseph-Louis Gay-Lussac (1778-1850) realizó muchos experimentos
volumétricos en la combinación de gases. En 1808 encontró que para formar agua se combinaban dos
volúmenes de hidrógeno con un volumen de oxígeno. De hecho, Gay-Lussac descubrió que cuando
dos gases se combinan, los volúmenes de los gases que se unen mantienen una relación numérica
simple entre sí, así como con los volúmenes de los productos, siempre que estos sean gases. Gay Lus-
sac formuló así la ley de los volúmenes de combinación que puede ser enunciada como sigue:
En cualquier reacción química los volúmenes de todas las sustancias gaseosas que in-
tervienen están en una relación de números enteros sencillos.
La experiencia de Gay-Lussac parecía mostrar que la molécula del agua no podía estar formada
por un átomo de hidrógeno y otro de oxígeno, sino que debería estar formada por dos átomos de hi-
drógeno y uno de oxígeno, por lo que el peso atómico del oxígeno debería ser 16 y no 8 como suponía
Dalton. Por otra parte, en las experiencias de Gay-Lussac ponía de manifiesto algunas inconsisten-
cias con la teoría de Dalton. Por ejemplo, se encontró que un volumen de cloro se combinaba con un
volumen de hidrógeno para formar dos volúmenes de ácido clorhídrico.
5. HIPÓTESIS DE AVOGADRO
La teoría de Dalton no podía explicar los resultados experimentales obtenidos por Gay-Lussac.
Fue el físico italiano Amadeo Avogadro (1776-1856) el que para explicar los resultados experimen-
tales postuló que los átomos de la teoría de Dalton eran en realidad combinaciones de ellos (molécu-
las) y que el volumen que ocupan el mismo número de partículas de diferentes gases es idéntico. Esta
idea se conoce con el nombre de hipótesis de Avogadro y puede enunciarse como sigue:
En las mismas condiciones de temperatura y presión el número de partículas que existe
en un mismo volumen es igual para todos los gases.
La hipótesis de Avogadro podría haber sido útil para determinar los pesos atómicos de los ele-
mentos, pero fue rechazada e ignorada hasta que fue de nuevo introducida casi cincuenta años des-
pués por el italiano Stanislao Cannizzaro.
La determinación de los pesos atómicos de los elementos se convirtió en una tarea prioritaria para
los químicos del siglo XIX. El peso atómico permitía identificar los elementos y establecer compara-
ciones entre ellos así como proporcionaba un método para traducir en fórmulas los análisis experimen-
tales. Otro de los descubrimientos que resultó de gran importancia para la determinación de los pesos
atómicos de los elementos fue el realizado por Pierre Louis Dulong (1785-1839) y Alexis Thérès Pe-
tit (1791-1820). Dulong y Petit enunciaron la ley que lleva su nombre que establece que el producto del
calor específico por el peso atómico de un elemento es constante. Por consiguiente, la determinación de
los calores específicos permitía encontrar el peso atómico de los elementos. Por otra parte, el químico
alemán Eilhardt Mitscherlich (1794-1863) propuso en 1819 la ley de isomorfismos que establecía que
los compuestos similares tienen la misma estructura cristalina. Conociendo el peso atómico de los áto-
mos que componen un cuerpo se puede determinar los pesos atómicos de los átomos de un material iso-
morfo. De esta manera, Mitscherlich demostró el isomorfismo entre los sulfatos y los selenatos y deter-
minó el peso atómico del selenio a partir del peso atómico conocido del azufre.
Los químicos contaban con un conjunto de leyes empíricas que les permitía determinar los dife-
rentes pesos atómicos de los elementos químicos. En 1828, el sueco Jöns Jacob Berzelius (1779-1848)
utilizando la ley de las proporciones múltiples y las leyes de Gay-Lussac y de isomorfismo dio a co-
nocer una tabla de pesos atómicos muy parecida a la que podemos conocer hoy. Sin embargo, el peso
de algunos elementos como la plata y los metales alcalinos era erróneo. Uno de los motivos de la falta
de precisión en estos elementos fue el rechazo de Berzelius a la ley de Dulong y Petit. En la década de
1860 el belga Jean Servais Stas (1813-1891) determinó con gran precisión los pesos atómicos de los
diferentes elementos y su trabajo fue de gran importancia para la ordenación posterior de los elemen-
tos en la tabla periódica.
6. ESTEQUIOMETRÍA
El término estequiometría es un término utilizado en química que deriva de las palabras griegas
stoicheion (elemento) y metron (medida). Por consiguiente, con estequiometría nos referimos al área
de la química que trata del estudio cuantitativo de la composición de los compuestos (por ejemplo la
determinación de las proporciones de los átomos en una molécula) y de las proporciones en que se
combinan las sustancias que intervienen en una reacción química.
Por otra parte, la IUPAC define el peso atómico o la masa atómica relativa (Ar) como:
La razón entre la masa media de un átomo y la unidad de masa atómica unificada.
La masa atómica relativa de un elemento es una cantidad adimensional y cuando decimos que un
elemento tiene masa atómica X indicamos que su átomo es X veces más pesado que la doceava parte
del átomo de carbono-12 en su estado fundamental.
Los átomos no se muestran aislados sino que las interacciones entre ellos hace que se combinen
para formar estructuras poliatómicas denominadas moléculas o cristales iónicos. Según la teoría de
Dalton, la masa de una molécula es la suma de las masas de los átomos que la componen. Así, para la
molécula de agua H2O, la masa molecular será dos veces la masa atómica del hidrógeno más la masa
atómica del oxígeno 2 ´ 1 + 16 = 18.
Se define la masa molecular relativa o peso molecular (Mr) como:
La razón entre la masa de una molécula y la unidad de masa atómica unificada.
Muchas sustancias no se presentan en moléculas aisladas sino que lo hacen formando redes cris-
talinas. Estas redes cristalinas pueden disociarse fácilmente en iones y disolverse en agua, como el
NaCl, o permanecer como cristales insolubles como el SiO2. Para estas sustancias se utiliza el peso
fórmula definido como:
La suma de los pesos atómicos de todos los átomos en una unidad formular del com-
puesto.
Por ejemplo, la sal común tiene la fórmula empírica NaCl y el peso fórmula es la suma de los pesos
atómicos del sodio y del cloro, 22,99 + 35,45 = 58,44.
Cuando se usa el mol se debe especificar las entidades elementales que lo componen que pueden
ser átomos, moléculas, iones, electrones, otras partículas o grupos especificados de tales partículas.
Por razones históricas, al número de entidades que contiene un mol se le denomina número de
Avogadro y se le designa por NA. Aunque se trata de un número muy grande se puede medir con gran
precisión y su valor aceptado es:
partículas
N A = 6,02214199´1023 (1)
mol
Consideremos por ejemplo un elemento como el carbono de peso atómico 12. En 12 gramos de
carbono-12 hay un número de Avogadro de partículas, por lo tanto, 12 g de carbono-12 equivale a un
mol. Supongamos ahora otro elemento como el hidrógeno de peso atómico 1. Como el átomo de hi-
drógeno es 12 veces menos pesado que el carbono-12, en 1 g de hidrógeno habrá el mismo número de
átomos que en 12 g de carbono-12. Por consiguiente, en 1 g de hidrógeno habrá un número de Avoga-
dro de átomos de hidrógeno y corresponderá a un mol de hidrógeno. Supongamos ahora una sustan-
cia como el agua, cuyo peso molecular es 18. En este caso la molécula de agua pesará 18/12 = 1,5 ve-
ces más que el átomo de carbono-12. Por tanto, en 12 ´ 1,5 = 18 gramos de agua habrá un número de
Avogadro de moléculas de agua y corresponderá a un mol de agua. Por consiguiente, la masa de un
mol de sustancia, expresado en gramos, coincide con su peso atómico o molecular. Así, un mol de so-
dio es 22,99 g de sodio y contiene un número de Avogadro de átomos. Por consiguiente, la masa mo-
lar de una sustancia es su peso atómico expresado en gramos o su peso molecular expresado en gra-
mos. Por ejemplo, se dice que la masa molar del agua es 18 g/mol.
En física y en química se utilizan tanto propiedades intensivas o extensivas de las sustancias, espe-
cificadas por ciertas magnitudes: magnitudes intensivas y magnitudes extensivas. Las propiedades
(magnitudes) intensivas son aquellas que no dependen de la cantidad de sustancia como, por ejemplo, la
temperatura o la presión. Las propiedades (magnitudes) extensivas son aquellas que dependen de la
cantidad de sustancia, como la masa o el volumen. En algunas ocasiones es muy útil dar una propiedad
extensiva de forma que no sea proporcional a la cantidad de materia del sistema; es decir, convertir una
propiedad extensiva en una intensiva. Esto se puede hacer sin más que dividir la magnitud extensiva por
la cantidad de sustancia o por otra magnitud extensiva como la masa o el volumen. Por ejemplo, la den-
sidad definida como la relación entre la masa y el volumen es una propiedad intensiva de la materia. En
ocasiones, se obtiene una magnitud intensiva dividiendo una magnitud extensiva por la masa. La mag-
nitud intensiva que resulta se nombra añadiéndole al nombre de la magnitud extensiva el término espe-
cífico. Así por ejemplo, la capacidad calorífica de un cuerpo es la cantidad de calor necesaria para au-
mentar su temperatura, mientras que la capacidad calorífica específica o calor específico es la cantidad
de calor para cambiar la temperatura de 1 gramo o de un kilogramo de sustancia.
En química, por regla general, se prefiere transformar una magnitud extensiva en una intensiva
dividiendo por la cantidad de sustancia y no por su masa o por su volumen. Las magnitudes intensivas
así obtenidas se nombran añadiendo al nombre de la magnitud extensiva el término molar. Así, habla-
mos de masa molar, volumen molar o capacidad calorífica molar.
1´ 32,06
% de S = 100= 20,09% de S
1´ 63,546+1´ 32,06+ 4´16
4´16
% de O= 100= 40,10% de O
1´ 63,546+1´ 32,06+ 4´16
Si no se conoce el peso molecular o el peso fórmula del compuesto, podemos encontrar la rela-
ción entre los átomos de cada elemento que forman el compuesto dividiendo el tanto por ciento de
cada elemento por su masa atómica. Posteriormente, se reduce a números enteros dividiendo por el
menor de ellos y multiplicando si es necesario por un número entero. Por ejemplo, supongamos que
un óxido de hierro tiene una composición centesimal de 69,9% de hierro y 30,1% de oxígeno. Para
encontrar el número de átomos de hierro y de oxígeno procedemos como se ha indicado y obtenemos:
69,9
– Para el hierro = 1,252
55,847
30,1
– Para el oxígeno = 1,881
15,9994
Esta ecuación indica que la combustión del butano produce dióxido de carbono y agua. La informa-
ción que se obtiene de una ecuación de este tipo es sólo cualitativa.
Puesto que una reacción química consiste simplemente en una recombinación de los átomos sin
que se cree o destruya ninguno, la ecuación química debe satisfacer la ley de conservación de la masa.
Por lo tanto, debe aparecer el mismo número de átomos de cada sustancia a ambos lados de la ecua-
ción. Una ecuación escrita de esta manera se dice que está ajustada, equilibrada o balanceada. En el
ejemplo anterior, la ecuación química estaría ajustada si escribimos:
2C4H10 + 13O2 ® 8CO2 + 10H2O
Esta ecuación no sólo proporciona información cualitativa (el butano en su combustión produce
dióxido de carbono y agua) sino que también nos da información cuantitativa, pues nos dice que 2 mo-
léculas de butano reaccionan con 13 moléculas de oxígeno para dar lugar a 8 moléculas de dióxido de
carbono y 10 de agua.
Aunque no es necesario, puede complementarse la información de una ecuación química especifi-
cando el estado o fase en que se encuentran los reactivos y los productos en las condiciones en que se pro-
duce la reacción. En este caso, la práctica habitual es poner abreviadamente la fase entre paréntesis des-
pués de la fórmula del reactivo o del producto. La notación estándar es: (g) para especificar el estado ga-
seoso, (s) para el estado sólido, (c) sólido cristalino, (l) para el estado líquido y (aq) en disolución acuosa.
En las ecuaciones químicas también se puede indicar las condiciones en las que tienen lugar.
Así, por ejemplo, si los reactivos son calentados para que se produzca la reacción se indica colocando
el símbolo D sobre la flecha de la reacción. En otras ocasiones, cuando se utiliza un catalizador, se es-
cribe el símbolo del catalizador sobre la flecha.
Otra condición que debe satisfacer una ecuación química es la ley de conservación de la carga.
Por consiguiente, en una reacción química en la que intervienen iones la carga neta debe ser igual a
ambos lados de la ecuación. Por ejemplo, una ecuación ajustada sería:
Zn (s) + 2Ag ® Zn + 2Ag
+ +
Ajustar la ecuación significa encontrar los coeficientes que hagan que el número de átomos de
cada elemento sea igual a ambos lados de la ecuación.
Para comenzar el ajuste, elijamos un elemento que sólo se encuentre en una sola sustancia a
ambos lados de la ecuación. Elijamos por ejemplo el carbono. Puesto que hay 3 átomos de carbo-
no en el primer miembro deberá haber tres átomos en el segundo, por tanto asignemos un coefi-
ciente 3 a CO2:
C3H8 + O2 ® 3 CO2 + H2O
Ajustemos a continuación los átomos de hidrógeno. Como en el primer miembro de la ecuación hay 8
átomos y en el segundo 2, habrá que asignar un coeficiente 4 a H2O:
C3H8 + O2 ® 3 CO2 + 4 H2O
Por último, ajustemos los átomos de oxígeno. Puesto que en el lado izquierdo de la ecuación química
hay 2 y en el derecho 10, deberemos asignar un coeficiente 5 a O2. De esta manera, la ecuación queda
definitivamente ajustada o equilibrada:
C3H8 + 5O2 ® 3CO2 + 4H2O
Como medida de precaución, antes de finalizar, es interesante comprobar que la ley de la conser-
vación de la masa se satisface para todos los elementos que aparecen en la reacción.
– Relaciones masa-masa. Conocida la masa de una de las sustancias se puede hallar la masa
de la otra. Ejemplo: supongamos la reacción:
2ZnS + 3O2 ® 2ZnO + 2SO2
Determinemos la cantidad de SO2 que se obtiene y la cantidad de oxígeno que se ha de tener
si disponemos de 10 g de sulfuro de cinc.
Como vemos, por cada 2 moles de sulfuro (peso molecular 97,37) se obtienen 2 moles de
SO2 (peso molecular 64). Por consiguiente, la cantidad de SO2 será:
2 10
64 = 6,57g
2 97,37
Para calcular la cantidad de oxígeno hemos de tener en cuenta que por cada 2 moles de sul-
furo se necesitan tres de oxígeno, por tanto, a la cantidad de oxígeno que se ha de tener será:
3 10
32= 4,93g
2 97,37
– Relación masa-volumen. Si una de las sustancias que intervienen es un gas podemos cal-
cular su volumen si consideramos que el gas satisface la ecuación de los gases perfectos.
Ejemplo: supongamos la reacción:
Zn + 2HCl ® ZnCl2 + H2
Deseamos calcular el volumen de hidrógeno resultante, si la temperatura es de 21 ºC y la
presión es de 748 mmHg, a partir de 50 g de cinc si se dispone de suficiente ácido.
Como vemos, por cada mol de cinc (peso atómico 65,37) se obtiene un mol de hidrógeno
(peso molecular 2 y volumen normal 22,4 L). Por tanto, en condiciones normales el volu-
men de hidrógeno que se obtiene es:
2 50
22,4 = 34,266 L
1 65,37
Para determinar el volumen en las condiciones dadas, utilizaremos la ley de los gases perfec-
tos pV/T = cte. Por tanto, se tendrá que el volumen en las condiciones de la reacción será:
294,16 760´ 22,4
= 24,509 L
748 273,16
– Relación volumen-volumen. Supongamos ahora una reacción en la que intervienen dos
gases, como la mostrada a continuación que corresponde a la combustión del metano:
CH4 + 2O2 ® CO2 + 2H2O
Deseamos calcular el volumen de aire (21% oxígeno y 79% nitrógeno) necesario para la
combustión completa de 1 L de metano en condiciones normales.
Como puede apreciarse en la reacción química, por cada mol de metano se necesitan dos
moles de oxígeno. Si tenemos en cuenta que en condiciones normales el volumen de un mol
es 22,4 L, el volumen de oxígeno necesario será:
2
´1= 2 L
1
Ahora bien, como en 100 partes de aire sólo hay 21 partes de oxígeno, el volumen de aire
será:
100
´ 2= 9,524 L
21
– Rendimiento de una reacción química. Una cuestión importante en una reacción química
es su rendimiento. El rendimiento indica la efectividad de un proceso dado en la obtención de
un producto. El rendimiento máximo de una reacción se denomina rendimiento teórico y es la
cantidad máxima de producto que se puede obtener por una reacción a partir de cantidades
dadas de reactivos. Es decir, es la cantidad de producto que se obtiene suponiendo que la
reacción se completa. En la práctica, sin embargo, el rendimiento real puede ser muy diferen-
te del teórico; es decir, no se obtiene tanto producto como era de esperar teóricamente. Las ra-
zones de que ocurra esto pueden ser muy variadas. En primer lugar, muchas reacciones no se
completan y de detienen antes de que los reactivos se conviertan completamente en producto.
En segundo lugar, pueden producirse otras reacciones, denominadas secundarias, que dan lu-
gar a productos no deseados. Finalmente, suele ocurrir que el proceso de separación del pro-
ducto final de la mezcla sea bastante difícil, con lo que se produce una pérdida de producto.
Se denomina porcentaje de rendimiento de una reacción al cociente entre el rendimiento
real (obtenido experimentalmente) y el rendimiento teórico (calculado), expresado en tanto
por ciento. Es decir, el porcentaje de rendimiento viene dado por:
rendimiento real
Porcentaje de rendimiento = ´100%
rendimiento teórico
Deseamos calcular el volumen de una disolución de NaOH 0,505 M necesaria para reaccionar
con 40,0 mL de una disolución de H2SO4 0,505 M, según la reacción:
H2SO4 + 2NaOH ® Na2SO4 + 2H2O
De la ecuación química se observa que 1 mol de H2SO4 reacciona con 2 moles de NaOH. Del volu-
men y la molaridad de la disolución de H2SO4 podemos calcular el número de moles:
n (H2SO4) = V ´ M = 0,04 ´ 0,505 moles de H2SO4 = 0,0202 moles de H2SO4
Puesto que se necesitan 2 moles de NaOH por cada mol de H2SO4, el número de moles necesarios
para la reacción será:
n (NaOH) = 2 ´ 0,0202 moles de NaOH = 0,0404 moles de NaOH
La ecuación química nos dice que la relación entre los moles de HCl y NaOH es 1 a 1. Calculemos el
número de moles de hidróxido sódico. De la definición de molaridad, se tiene que:
n (NaOH) = V (NaOH) ´ M (NaOH) = 0,05 ´ 0,2 moles de NaOH = 0,01 moles de NaOH
Puesto que la relación entre los moles de las dos sustancias es de 1 a 1, se necesitarán 0,01 mol de
HCl, y como el volumen de la disolución es de 40,0 mL, la concentración molar de la disolución de
ácido clorhídrico será:
n(HCl) 0,01 mol mol
M (HCl) = = = 0,25
V (HCl) 0,04 L L
BIBLIOGRAFÍA
34
Modelos atómicos. Evolución
histórica y justificaciones de
cada modificación
ÍNDICE SISTEMÁTICO
BIBLIOGRAFÍA
Aunque la teoría atómica de Dalton era errónea en algunos aspectos, fue la primera en volver a
considerar las primitivas teorías de los griegos, e introdujo una serie de conceptos que fueron deter-
minantes para el desarrollo de la química del siglo XIX. Sin embargo, la teoría atómica de Dalton no
explicaba por qué los átomos se combinaban en determinadas proporciones y no en otras. Muchos
científicos de la época no aceptaron la existencia de estas partículas elementales constitutivas de la
materia, lo que dio lugar a grandes debates entre los defensores y detractores de la teoría atómica.
En su estado de mínima energía, los electrones deberían estar fijos en sus posiciones de equilibrio.
Thomson estudió la estabilidad de los electrones en la esfera y obtuvo estas configuraciones para el caso
en que el número de electrones fuese menor o igual que 6 (figura 2). Para valores mayores no pudo re-
solver el problema, y propuso un modelo alternativo en el que los electrones se encuentran distribuidos
en anillos centrados en el átomo. No obstante, descubrió que estas distribuciones eran inestables para un
número de electrones mayor que 4, a no ser que estos anillos girasen alrededor del centro. Este movi-
miento de los electrones daría lugar a la emisión de radiación electromagnética, y, por tanto, a una pér-
dida constante de energía que haría que los electrones perdiesen velocidad. Al cabo de cierto tiempo, los
electrones alcanzarían una velocidad límite por debajo de la cual el átomo sería inestable. De esta mane-
ra, Thomson explicaba el decaimiento radiactivo de los átomos. Para un número grande de electrones,
los electrones debían configurarse en varios anillos concéntricos girando alrededor del centro. Thom-
son intentó relacionar los elementos conocidos hasta la época con los que se obtenían con su modelo y
así explicar las propiedades periódicas de los elementos, pero no tuvo éxito en su intento.
Por otro lado, el modelo de Thomson podía explicar de forma cualitativa la emisión de radiación
por parte de los átomos excitados. Sin embargo existía un desacuerdo total con los espectros de emi-
sión obtenidos experimentalmente.
(Q ) ( )
12 12
2
= N q2 (1)
= e –( 90) 10
2 –3500
= (5)
N N
Por consiguiente, los resultados experimentales no estaban de acuerdo con los predichos teóricamen-
te. Además, se observó que esta discrepancia se mantenía para ángulos mayores de unos cuantos gra-
dos: el número de las partículas dispersadas era mucho mayor que los predichos teóricamente. Los
científicos contemplaron con sorpresa estos resultados, en los que se obtenían ángulos de dispersión
cercanos a los 180º. El propio Rutherford hizo el siguiente comentario:
Fue el más increíble evento que me ha ocurrido en mi vida. Era tan increíble
como si al disparar una bala de 15 pulgadas sobre un papel higiénico, ésta rebotara y
le golpeara a uno mismo.
El hecho de que la probabilidad de que la partícula a fuese dispersada en ángulos cercanos a 180º
fuese pequeña pero no nula, no podía ser explicado mediante el modelo atómico de Thomson. Rutherford
realizó nuevos experimentos variando el espesor de las láminas bombardeadas y encontró que esta proba-
bilidad era proporcional al número N de átomos atravesados por las partículas a. Este resultado sólo era
explicable si existiese una probabilidad distinta de cero de que una partícula a fuese dispersada un ángulo
grande por un solo átomo, lo que era incompatible con el modelo de Thomson.
Esto llevó a Rutherford a proponer un modelo atómico distinto basado en una estructura planeta-
ria. El modelo de Rutherford suponía que toda la carga positiva y, en consecuencia, casi toda la masa
del átomo, se encuentra concentrada en un volumen pequeño alrededor del centro del átomo de radio
del orden de 10–14 m. Surgió así el concepto de núcleo atómico. Los electrones orbitaban alrededor de
este núcleo, como los planetas alrededor del Sol, debido a la atracción que sobre ellos ejercían las car-
gas positivas situadas en el núcleo. El radio de estas órbitas era del mismo orden de magnitud que el
tamaño del átomo, o sea, de 10–10 m.
Utilizando este modelo y la mecánica newtoniana, Rutherford encontró la explicación de la dis-
persión experimentada por las partículas a. Además, pudo estimar el tamaño máximo del núcleo ató-
mico haciendo un cálculo de la distancia de máximo acercamiento al átomo de las partículas dispersa-
das. Esta distancia corresponderá a aquella en la que se iguala la energía cinética de la partícula y su
energía potencial. Si llamamos V a la velocidad de la partícula, M a su masa y ze a su carga eléctrica, y
por otro lado consideramos que la carga del núcleo atómico es Ze, la condición de igualdad entre la
energía cinética y la energía potencial eléctrica es:
1 1 zZe 2
MV 2 = (6)
2 4pe 0 D
Los cálculos realizados por Rutherford para el núcleo atómico basados en esta distancia mínima esta-
blecieron que el tamaño del núcleo se encontraba entre 10–14 y 10–15 metros.
Aunque el modelo de Rutherford fue capaz de explicar de forma satisfactoria los resultados ex-
perimentales obtenidos en la dispersión de partícula a, presentaba ciertas limitaciones que hicieron
dudar de su validez. Estas limitaciones están relacionadas con la estabilidad del átomo. La idea de que
los electrones se encuentran en movimiento circular alrededor del átomo, significa que éstos se en-
cuentran en un movimiento acelerado, y, como cualquier carga acelerada, radiaría energía en forma
de radiación electromagnética. Ésta llevaría consigo una pérdida de energía cinética del electrón, que
se vería así frenado de forma continua y terminaría por caer hacia el núcleo. Por otro lado, esto daría
lugar a un espectro continuo de la radiación emitida, lo cual iría en contra de los espectros discretos de
emisión de los átomos que se obtienen experimentalmente. Por consiguiente, de acuerdo con la física
clásica, el átomo de Rutherford sería inestable.
a los que se les aplica una diferencia de tensión muy elevada, con objeto de producir una descarga
eléctrica. Como consecuencia de la descarga el gas emite radiación electromagnética que, tras pasar
por un colimador, se hace incidir sobre un prisma o una red de difracción. El patrón de difracción se
proyecta sobre una pantalla o sobre una placa fotográfica.
Red de
Colimador difracción Pantalla
Gas
V
q
4861.3
4340.5
4101.7
3970.1
3645.6
permitiera calcular las longitudes de onda de las líneas del espectro. En 1885 Balmer encontró que es-
tas longitudes de onda podían determinarse mediante una relación de la forma:
n2
l=G 2 (9)
n –4
en donde G es una constante empírica y n es un entero n = 3, 4, 5, ... La fórmula de Balmer daba con
gran exactitud los valores de las longitudes de onda de las líneas espectrales que se conocían en la
época. Un conocimiento más profundo del espectro del átomo de hidrógeno se obtuvo de las observa-
ciones astronómicas. En el espectro de las estrellas se han visto un gran número de líneas espectrales
para el átomo de hidrógeno. El hecho de que muchas de las líneas se descubriesen a partir de observa-
ciones astronómicas, puede entenderse fácilmente por la dificultad de obtener en el laboratorio hidró-
geno atómico puro, pues en la descarga de gases, además de obtener hidrógeno atómico, se tiene tam-
bién hidrógeno molecular cuyo espectro se solapa con el del hidrógeno atómico.
En la actualidad, además de la serie de Balmer, se conocen otras series de líneas espectrales del
hidrógeno, las cuales pueden determinarse con gran exactitud mediante la fórmula de Rydberg:
1 æ 1 1ö
= R Hç 2 – 2 ÷ (10)
l è n' n ø
en donde RH se denomina constante de Rydberg y tiene el valor:
–1
RH = 109677.5810 cm (11)
En la tabla 1 se muestran los valores de las longitudes de onda de las primeras líneas espectrales
de cada serie. Si observamos estos valores vemos que satisfacen el principio de combinación de Ritz,
que fue encontrado empíricamente, y que establece que:
La diferencia de las frecuencias de dos líneas en una serie del espectro es igual a
la frecuencia de una línea de otra serie del mismo espectro atómico.
Así, por ejemplo, la diferencia de la frecuencia correspondiente a las dos primeras líneas de la
serie de Lyman es igual a la frecuencia correspondiente a la primera línea de la serie de Balmer.
De los valores de la tabla observamos que la serie de Lyman corresponde a longitudes de onda
en la región del ultravioleta, la serie de Balmer a la zona del visible y las series de Paschen, Brackett y
Pfund a la región del infrarrojo.
Para los elementos alcalinos se tiene una expresión del mismo tipo para determinar la longitud
de onda de las líneas del espectro:
1 æ 1 1 ö
= Rç
ç – ÷
÷ (12)
l è (m – a )
2
(n – b )2 ø
en donde R es la constante de Rydberg para el elemento en cuestión, a y b son constantes para la serie
correspondiente y m es un entero que depende de la serie y n un entero variable.
Red de
Colimador difracción Pantalla
Fuente
q
Gas
Relacionado con el espectro de emisión que acabamos de exponer, está el espectro de absorción
de los átomos. Éste puede obtenerse con un montaje experimental como el mostrado en la figura 5.
Una fuente de radiación con un espectro continuo se hace incidir sobre un recipiente que contiene un
gas monoatómico. La radiación transmitida se hace incidir sobre un prisma o rejilla de difracción y se
proyecta sobre una película fotográfica. El resultado que se observa en la película es que toda está ve-
lada, salvo en aquellas posiciones que corresponden a los máximos de difracción de las componentes
de la radiación que han sido suprimidas del espectro continuo y que deben haber sido absorbidas por
el gas. Experimentalmente se observa que las líneas del espectro de absorción coinciden con alguna
de las líneas del espectro de emisión. Sin embargo no existe reciprocidad, es decir, no toda línea del
espectro de emisión coincide con alguna de las líneas del espectro de absorción. En el caso del átomo
de hidrógeno, normalmente sólo se observan las líneas correspondientes a la serie de Lyman; y sólo a
elevadas temperaturas se observan líneas espectrales correspondientes a la serie de Balmer.
taban de la visión clásica, y que supusieron un paso importantísimo hacia la mecánica cuántica.
Estos postulados eran los siguientes:
1. De la infinidad de órbitas con radios diferentes que permite la mecánica clásica, el electrón sólo
puede moverse en aquellas en las que el momento angular L es un múltiplo entero de la constante
de Planck dividida por 2p. Es decir:
L = mur = nh n = 1, 2, 3, … (13)
en donde h = h/2p.
2. Contrariamente a las predicciones de la teoría electromagnética clásica, un electrón se mueve en
una órbita permitida sin radiar energía electromagnética. De esta manera su energía total perma-
nece constante.
3. La emisión de energía electromagnética se produce cuando un electrón que se encuentra en una
órbita de energía Ei cambia su movimiento hasta moverse en una órbita de menor energía Ef. La
frecuencia v de la radiación emitida es igual a la diferencia de energías de las órbitas (Ei - Ef) di-
vidida por la constante de Planck h:
Ei – E f
v= (14)
h
El primer postulado de Bohr introduce la idea de cuantización utilizada por primera vez por
Planck. Pero, a diferencia de éste, que introduce la idea de que los valores de la energía total de un os-
cilador armónico toma valores discretos, es decir, la cuantización de la energía, Bohr presupone la
idea de cuantización del momento angular orbital de un electrón que se mueve bajo la acción de una
fuerza culombiana.
El segundo postulado introducido por Bohr es necesario para evitar el problema de la inestabili-
dad atómica que predice la teoría electromagnética clásica. Este postulado se basa en el hecho experi-
mental de que los átomos son estables, aunque la teoría clásica no pueda explicar dicha estabilidad.
Más concretamente, Bohr postula que la radiación de energía por parte de las partículas aceleradas es
válida a escala macroscópica pero no es aplicable al mundo microscópico.
Por último, el tercer postulado se basa en el concepto de fotón introducido por Einstein junto con
la conservación de la energía. Si la luz está compuesta de fotones de energía hv, la emisión por parte
del átomo de un fotón debe suponer una pérdida de energía igual a la energía del fotón emitido. Es de-
cir, Ei - Ef = hv.
Como vemos, los postulados de Bohr son una mezcla de las ideas de la física clásica con las nue-
vas ideas de cuantización surgidas a principio del siglo XX. Por un lado, el electrón se mueve en una
órbita circular y obedece a la mecánica clásica, pero por otro la órbita permitida debe satisfacer la
condición de cuantización del momento angular orbital. En otro sentido, el electrón obedece a una ley
del electromagnetismo clásico como es la ley de Coulomb, pero, por el contrario, no cumple el resul-
tado clásico de radiación de energía por parte de una carga acelerada. En definitiva, estos postulados
establecen que las leyes de la física clásica que son válidas para los sistemas a escala macroscópica
dejan de serlo completamente en el mundo de los sistemas microscópicos.
Consideremos un átomo compuesto de un núcleo de carga +Ze y masa M y un solo electrón de car-
ga -e y de masa m. Este modelo puede representar, por ejemplo, a un átomo de hidrógeno (H, Z = 1), a
un átomo de helio ionizado (He+ Z = 2), o un átomo de litio doblemente ionizado (Li++ Z = 3). Según el
modelo de Bohr, los electrones se mueven con velocidad u en órbitas circulares de radio r alrededor del
núcleo. Suponiendo válida la ley de Coulomb, el núcleo atómico ejerce una fuerza de atracción sobre el
electrón de módulo igual a:
1 Ze 2
F= (15)
4pe 0 r 2
Por otro lado, el electrón describe una trayectoria circular de radio r alrededor del núcleo, por lo que
la aceleración centrípeta vendrá dada por:
u2
a= (16)
r
Por tanto, la aplicación de la segunda ley de Newton al movimiento de electrones nos da:
1 Ze 2 u2
= m = mwr (17)
4pe 0 r 2
r
Por otro lado, según el primer postulado de Bohr, el impulso angular del electrón está cuantizado y
sólo están permitidas aquellas órbitas en las que se satisfaga la condición dada por (13). De esta ex-
presión se tiene que:
nh
un = (18)
mr
Sustituyendo esta expresión en la ecuación (17), y despejando r, obtenemos para el radio de la órbita:
n2h2
rn = 4pe 0 n = 1, 2, 3, … (19)
mZe 2
Llevando este resultado a la expresión (18), obtenemos para la velocidad del electrón alrededor del
núcleo:
1 Ze 2
un = n = 1, 2, 3, … (20)
4pe 0 nh
Podemos utilizar la expresión (19) para predecir el radio del átomo de hidrógeno. Haciendo Z = 1 y
n = 1 en esta expresión, obtenemos que el radio más pequeño del átomo de hidrógeno viene dado por:
h2
r1 = 4pe 0 (21)
me 2
Este valor mínimo del radio del átomo de hidrógeno se denomina radio de Bohr y se designa por
a0. Sustituyendo en la expresión anterior los valores de la carga de electrón e = 1,6 ´ 10–19 C, de su
masa m = 9,1 ´ 10–31 kg, de la permitividad del vacío e0 = 8,85 ´ 10–12 C2 N–1 m–2, y el valor de la
constante de Planck h = 6,626 ´ 10–34 J · s, obtenemos para el radio de Bohr:
h2
a 0 = 4pe 0 = 0,529´10–10 m = 0,529 Å (22)
me 2
Puesto que el hidrógeno tiene su energía mínima cuando el electrón se encuentra en el estado n = 1, el
radio de Bohr representa el radio del átomo de hidrógeno en su estado fundamental. Este resultado
concuerda con el tamaño del átomo de hidrógeno determinado experimentalmente.
Podemos escribir los radios de las órbitas permitidas en función del radio de Bohr si sustituimos
la ecuación (22) en (19):
2
r n = n a0 (23)
Por otra parte, la velocidad del electrón en su órbita alrededor del núcleo puede ser evaluada uti-
lizando la expresión (20). Así, en su órbita más pequeña (n = 1), se tiene que esta velocidad es:
6 –1
u = 2,2 ´ 10 m · s (25)
Como vemos, esta velocidad, que es la máxima que puede tener un electrón en el átomo de hidró-
geno, es mucho más pequeña que la velocidad de la luz, por lo que está justificado que en el mo-
delo atómico de Bohr utilicemos las ecuaciones de la mecánica clásica en vez de las de la mecáni-
ca relativista.
Calculemos ahora la energía total de un electrón en un átomo de hidrógeno. Esta energía será la
suma de la energía cinética y de la energía potencial:
En = Kn + Un (26)
La energía cinética, haciendo uso de las ecuaciones de la mecánica clásica y de la expresión (17), vie-
ne dada por:
1 1 Ze 2
K n = mu n2 = (27)
2 8pe 0 r
Tomando el origen de energía potencial en el infinito, la energía potencial del electrón vendrá dada
por:
r r r 1 Ze 2 1 Ze 2
U n = – ò¥ F ×dr = ò¥
r
dr = – (28)
4pe 0 r 2 4pe 0 r
Por tanto, sustituyendo las expresiones (27) y (28) en (26), la energía total del electrón vendrá dada
por:
1 Ze 2
En = – (29)
8pe 0 r
La expresión (30) indica que el modelo de Bohr restringe los valores que puede tener la energía del
átomo; es decir, que la energía del átomo está cuantizada y por tanto su espectro energético es discre-
to. La energía más baja del átomo se obtiene para el valor más pequeño del número cuántico n = 1, y
conforme aumenta éste la energía tiende a cero.
Puesto que un sistema físico tiende a situarse en el estado de energía más bajo posible, el cual co-
rresponde a la configuración más estable del sistema, al estado que corresponde a la mínima energía
del átomo se le denomina estado fundamental, y se obtiene cuando n = 1. En el caso del átomo de hi-
drógeno Z = 1, esta energía del estado fundamental corresponde a:
–18
E1 = –2,17 ´ 10 J = –13,59 eV (31)
Los estados con valores de n ¹ 1 se denominan estados excitados. En la figura 6 se muestra esquemá-
ticamente el espectro discreto para el átomo de hidrógeno y los valores de la energía correspondiente
a sus niveles más bajos.
n=¥ 0 eV
n=4 –0,85 eV
n=3 –1,51 eV
Figura 6. Algunos de los niveles discretos
n=2 –3,39 eV
de energía para el átomo de hidrógeno,
de acuerdo con el modelo de Bohr. Entre
el nivel n = 4 y n = ¥ existe un conjunto
infinito de niveles muy cerca uno de otro. n=1 –13,59 eV
Para ionizar el átomo de hidrógeno, es decir, para separar un electrón del núcleo (r = ¥) es necesa-
rio suministrarle una energía igual a 13,59 eV, valor que concuerda con los obtenidos experimental-
mente. Una vez que el átomo se encuentra ionizado puede captar un electrón en una órbita permitida
cercana al núcleo. Este proceso puede realizarse en un solo paso, es decir, que el electrón pase al estado
fundamental, o bien mediante pasos intermedios en los que el electrón cae a uno o más estados excita-
dos antes de alcanzar el estado fundamental. En cada una de estas transiciones electrónicas, el átomo
pierde una cierta cantidad de energía que es radiada en forma de radiación electromagnética mediante la
emisión de un fotón. La energía y la frecuencia del fotón emitido dependerán de la energía perdida por
el átomo y, por tanto, de la energía del estado inicial y del estado final después de la transición. Puesto
que los valores de estas energías no son continuos, se obtiene que el espectro de la radiación emitida por
el átomo debe ser un espectro discreto, tal y como se obtiene en los experimentos.
En un típico experimento espectroscópico se produce una descarga en el seno de un gas, lo que
produce la ionización de sus átomos. Puesto que el número de átomos ionizados es muy elevado, tam-
bién lo será el número de transiciones electrónicas. En consecuencia, es lógico que en este tipo de ex-
perimentos se observen todas las longitudes de onda correspondientes a todas las transiciones elec-
trónicas posibles. A continuación vamos a calcular dichas longitudes de onda.
Supongamos que un electrón experimenta una transición desde un estado cuántico inicial carac-
terizado por ni hasta un estado cuántico final nf. Según el tercer postulado de Bohr, la frecuencia del
fotón emitido viene dada por:
Ei – E f
v= (32)
h
Teniendo en cuenta la expresión de la energía dada por (30), esta frecuencia es igual a:
æ 1 ö2 mZ 2 e 4 æ
ç1 – 1÷
ö
v =ç
ç
÷
÷ (33)
è 4pe 0 ø 4ph ç
3 2 2 ÷
è n f ni ø
Puesto que l = c/v, la expresión anterior la podemos poner en función del recíproco de la longitud de
onda como:
2 4æ ö
1 æ 1 ö
2
=ç ÷ mZ e ç 1 – 1 ÷
ç ÷ (34)
l è 4pe 0 ø 4ph 3 c ç 2 2 ÷
è n f ni ø
en donde:
æ 1 ö2 me 4
R¥ =ç
ç
÷
÷ (36)
è 4pe 0 ø 4ph c
3
Vemos que la predicción del modelo de Bohr sobre las longitudes de onda de la radiación emitida
por el átomo de hidrógeno (35) es similar a la expresión obtenida experimentalmente dada por la fórmu-
la de Rydberg (10). Ambas expresiones serán iguales si el valor de R¥ y la constante de Rydberg RH
coinciden, y si también lo hacen los números enteros que aparecen en ambas expresiones. Aunque en su
época no se conocían con exactitud los valores de algunas de las constantes que intervienen en la expre-
sión de R¥, Bohr hizo una estimación del valor de esta constante, encontrando que coincidía razonable-
mente bien con el valor de la constante de Rydberg. Con los valores aceptados hoy en día para las cons-
tantes e, m, c y h se obtiene que:
R¥ 109740 cm
–1
(37)
En cuanto a lo que se refiere a la coincidencia de los valores de los enteros que aparecen en las
expresiones (35) y (10), si consideramos las transiciones electrónicas cuyo estado final es el estado
fundamental nf = 1, el estado inicial puede ser cualquier estado excitado; es decir, ni = 2, 3, 4, ... Estos
valores corresponden a los valores de los enteros que aparecen en la fórmula de Rydberg para la serie
de Lyman. Si el estado final de las transiciones electrónicas es el primer estado excitado nf = 2, el esta-
do inicial puede ser un estado excitado de mayor energía; es decir, ni = 3, 4, 5, ... Por tanto, estas tran-
siciones corresponden a los valores obtenidos en la serie de Balmer. Las demás series experimentales
pueden explicarse de forma análoga considerando las transiciones electrónicas cuyos estados finales
son el segundo estado excitado (nf = 3, serie de Paschen), el tercer estado excitado (nf = 4, serie de
Paschen) y el cuarto estado excitado (nf = 5, serie de Pfund). En la figura 7 se muestran de forma es-
quemática las transiciones electrónicas que dan lugar a dichas series.
La teoría atómica de Bohr supuso un gran éxito no sólo por la explicación de las observaciones
experimentales del espectro atómico del hidrógeno conocido hasta el momento, series de Balmer y
Paschen, sino también porque predijo las series de Lyman, Brackett y Pfund no observadas hasta ese
momento y posteriormente descubiertas. Además, la teoría de Bohr resultó exitosa en la explicación
de los átomos de un solo electrón y con un número Z = 2, como el helio ionizado. Experimentalmente
se encontró que el espectro del He+ es similar al espectro del átomo de hidrógeno pero con los valores
de 1/l multiplicados por un factor aproximadamente igual a cuatro. Resultado que, según la expre-
sión (35), es precisamente el predicho por la teoría de Bohr.
n=¥
n=4
n=3 Bracket
Paschen
n=2
Balmer
La teoría de Bohr también explica el espectro de absorción de los átomos con un electrón. Tal
como hemos visto, la energía de electrón está cuantizada y sólo puede tomar algunos valores determi-
nados dados por (26). Por tanto, el electrón sólo puede absorber cantidades discretas de la radiación
incidente. Esta radiación puede suponerse compuesta por un haz de fotones de energía E = hv, de los
cuales el electrón sólo absorberá aquellos cuya energía corresponda a una diferencia de energía entre
dos niveles. Puesto que por regla general el átomo se encuentra en su estado fundamental (ni = 1), sólo
se observarán líneas en el espectro de absorción correspondientes a la serie de Lyman. A temperatu-
ras muy elevadas, las colisiones atómicas pueden dar lugar a que algunos átomos se encuentren en el
primer estado excitado (ni = 2), por lo que podrán absorber fotones cuya longitud de onda correspon-
de a las líneas espectrales de la serie de Balmer.
Los valores de la constante de Rydberg RH (11), determinada experimentalmente, y de la cons-
tante teórica R¥ (37) no coinciden exactamente, sino que presentan una diferencia de 60 cm–1 aproxi-
madamente. Esta discrepancia es debida a que, en el estudio que hemos realizado anteriormente, he-
mos supuesto que la masa del núcleo atómico era infinitamente más grande que la masa del electrón,
de manera que el núcleo permanece fijo en el espacio. De la mecánica sabemos que un sistema de dos
cuerpos de masa m y M a una distancia r uno del otro, se mueven alrededor del centro de masa del sis-
tema. Si el centro de masa está en reposo, la energía total del sistema es igual a la de una partícula fic-
ticia que orbita alrededor del centro de masa a la distancia r y que tiene una masa, denominada masa
reducida m, dada por:
mM
m= (38)
m+ M
Por consiguiente, en los cálculos anteriores debemos sustituir la masa del electrón por la masa
reducida del sistema núcleo-electrón. Haciendo esto, obtenemos que las longitudes de onda de la ra-
diación emitida en las transiciones electrónicas, deducida de la teoría de Bohr viene dada por:
æ1 1ö
= RM Z 2 ç ÷
1
–
çn2 n2 ÷ (39)
l è f i ø
en donde:
M
RM = R (40)
m+ M ¥
siendo m y M las masas del electrón y del núcleo, respectivamente.
RM 109680 cm
–1
(41)
Comparando este valor con el obtenido experimentalmente para la constante de Rydberg dado por
(11) vemos que la diferencia es de menos de 3 partes por 100000.
C P
Franck y Hertz realizaron el primer experimento utilizando vapor de mercurio. Los resultados son
los mostrados en la figura 9. Conforme se aumenta la diferencia de tensión VG se observa que la corriente I
también aumenta. Cuando la tensión de aceleración alcanza un valor de 4,9 V, la corriente experimenta un
descenso brusco. A partir de este valor vuelve a incrementarse
I hasta que se llega un valor de la tensión de aproximadamente 9,8
V, en el que vuelven a repetirse las oscilaciones.
Estas oscilaciones en los valores de la corriente I medida en
el experimento de Franck y Hertz, pueden entenderse si tenemos
en cuenta que pueden producirse dos tipos de colisiones entre
los electrones emitidos por el cátodo y los átomos del vapor de
mercurio: colisiones elásticas y colisiones inelásticas. En el caso
4,9 9,8 VG de colisiones elásticas la energía cinética del átomo de mercurio
y del electrón es la misma antes y después del choque; pero
Figura 9. Resultados del como los átomos de mercurio son mucho más pesados que los
experimento de Franck y Hertz. electrones, resulta que la energía cinética de los electrones prác-
ticamente no cambia en la colisión. Por tanto, los electrones serán desviados por los átomos de mercurio,
pero como su energía cinética no cambia, podrán alcanzar la placa y contribuir a la corriente total en el cir-
cuito. En el caso de que las colisiones sean inelásticas, la energía cinética de los electrones se transforma
en energía interna de los átomos de mercurio; es decir, los átomos absorben parte de la energía cinética de
los electrones y pasan del estado fundamental a un estado excitado. Cuando se produce este tipo de coli-
siones, los electrones pueden perder la energía suficiente como para que no puedan vencer el potencial de
frenado y no puedan llegar a la placa, sino que caigan en la rejilla. Si el espectro atómico del mercurio fue-
se continuo, la transferencia de energía de los electrones a los átomos sería continua, y por consiguiente la
caída de corriente se produciría para cualquier valor de VG. Sin embargo, el hecho experimental de que la
caída se produzca a un valor de VG = 4,9 V, significa que el primer estado excitado del átomo de mercurio,
la cantidad mínima de energía que puede absorber un átomo de mercurio, debe tener una energía de 4,9
eV por encima del estado fundamental. Si se aumenta la tensión VG por encima de 4,9 V, la corriente em-
pieza de nuevo a aumentar. Esto es de esperar, ya que, aunque los electrones colisionen inelásticamente
con los átomos de mercurio, después de la colisión tienen energía suficiente para vencer al potencial de
frenado. Cuando VG alcanza valores igual a 2 ´ 4,9; 3 ´ 4,9; 4 ´ 4,9, etc., se producen de nuevo caídas en
la corriente medida, debido a que los electrones pueden colisionar inelásticamente con los átomos de mer-
curio 2, 3, 4 o más veces, perdiendo una energía de 4,9 eV en cada una de esas colisiones.
Esta interpretación de la existencia de niveles discretos de energía en los átomos de mercurio fue
corroborada por las mediciones espectroscópicas realizadas por Franck y Hertz. Encontraron que si la
energía de los electrones incidentes era menor que 4,9 eV, después del bombardeo, el vapor de mer-
curio no emitía radiación electromagnética. Sin embargo, descubrieron que cuando la energía de los
electrones incidentes es mayor de 4,9 eV, el vapor de mercurio excitado emitía una radiación con una
marcada línea espectral de longitud de onda l = 2537 Å, la cual corresponde a una diferencia de ener-
gía entre niveles de 4,9 eV. Por tanto, el experimento de Franck y Hertz proporcionó la evidencia ex-
perimental de la cuantización de la energía en los átomos.
ò Ldq = np (43)
Puesto que el momento angular es una constante, realizando la integral se tiene que:
ò Ldq = Lò
2p
0
dq = 2pL = 2pmur = nh (44)
ò Ldq = n q h (46)
ò p dr = n h
r r (47)
La primera condición conduce a la misma relación que se obtiene suponiendo que las órbitas son cir-
culares:
L= nq h nq = 1, 2, 3, 4, … (48)
La segunda condición nos proporciona una relación entre el valor del momento angular y los semiejes
de la elipse a y b:
L( a / b – 1) = n r h nr = 0, 1, 2, 3, 4, … (49)
Con estas dos ecuaciones, junto con una ecuación de estabilidad mecánica de las órbitas, similar
a la dada por (17) utilizada en la teoría de órbitas circulares, Sommerfeld encontró los valores de los
semiejes de la elipse, así como el de la energía total del electrón en la órbita elíptica:
4pe 0 n 2 h 2
a= (50)
mZe 2
nq
b= a (51)
n
æ 1 ö2 mZ 2 e 4
E = –ç
ç
÷
÷ (52)
è 4pe 0 ø 2n h
2 2
La ecuación (51) establece que la relación entre los semiejes de las órbitas circulares es igual a la
relación que existe entre los valores de los números cuánticos. Ahora bien, según (54) para un valor de n
se tienen n valores distintos de nq, por lo que para cada n se tienen n órbitas posibles para el electrón: una
órbita circular (cuando nq = n) y n – 1 órbitas elípticas (figura 10). Por otro lado, puesto que según (52)
el valor de la energía sólo depende del número cuántico principal, esto significa que todas las órbitas
posibles para un valor de n dado tienen la misma energía, y se dice que las órbitas están degeneradas.
nq = 3 nq = 2 nq = 1
nq = 2 nq = 1
nq = 1
Hasta ahora, todavía no hemos explicado el desdoblamiento de las líneas de los espectros atómi-
cos, sólo que para una energía dada existen varias órbitas posibles. Sommerfeld eliminó esta degene-
ración utilizando el efecto del cambio de la masa relativista del electrón. Cualitativamente, el razona-
miento es el siguiente: de acuerdo con la ley de las áreas, y al igual que sucede en el movimiento pla-
netario, cuando los planetas se acercan al Sol, los electrones se aceleran y aumentan su velocidad
cuando se acercan al núcleo. Este aumento de la velocidad, según la teoría de la relatividad, hace que
los electrones aumenten su masa relativista, lo que produce a su vez una disminución de su energía.
Es decir, ésta se hace más negativa. Así, conforme el semieje menor de la elipse es más pequeño, más
importante se hacen estas correcciones relativistas.
El efecto del cambio de la masa relativista se traduce en una rotación del perihelio de la órbita,
tal como se muestra en la figura 11. Sommerfeld encontró que para un electrón que se mueve en una
órbita caracterizada por los números cuánticos n y nq la energía viene dada por:
1 mZ 2 e 4 é a 2 Z 2 æ öù
ç 1 – 3 ÷ú
E= – ê1+ ç ÷ (55)
(4pe 0 ) 2 2n h ë
2 2
n è n q 4n øû
n=4
Figura 11. Rotación del nq = 3
n=3 nq = 2
perihelio como consecuencia nq = 1
de los efectos relativistas. n=2 nq = 2
nq = 1
Figura 12. Estructura fina de
algunos niveles del átomo de
hidrógeno. Las líneas continuas
indican las transiciones posibles n=1 nq = 1
entre niveles.
En la figura 12 se muestra un diagrama de niveles para el átomo de hidrógeno. Las flechas indi-
can las posibles transiciones electrónicas entre los diferentes niveles: la flechas sólidas representan
las líneas que se observan en el espectro, mientras que las flechas a trazos representan las líneas que
no se observan experimentalmente. Los valores del inverso de las longitudes de onda calculadas a
partir de la expresión (55) están de acuerdo con los experimentales. Si observamos la figura detenida-
mente se tiene que las transiciones que se producen satisfacen la condición:
nqi – nqf = ±1 (57)
Esta condición recibe el nombre de regla de selección.
Esta regla de selección, al igual que otras, no tiene una explicación clara, pero pueden justificar-
se con la ayuda de un postulado introducido por Bohr en 1923 conocido como principio de correspon-
dencia que puede enunciarse como sigue:
1. Las predicciones de la teoría cuántica deben corresponder a las predicciones de la física clásica
en el límite en el que los números cuánticos que especifican el sistema se hacen muy grandes.
2. Una regla de selección es cierta para todos los valores de los números cuánticos. Por lo tanto,
toda regla de selección que se aplique en el límite clásico debe aplicarse en el límite cuántico.
Por último, el modelo de Bohr-Sommerfeld es teóricamente insatisfactorio: por una parte deja
de lado la teoría clásica para afirmar que sólo son posibles un número reducido de órbitas permitidas,
mientras que, por otro lado, utiliza la física clásica para determinar dichas órbitas. Como decía Bragg,
“es como si los lunes, miércoles y viernes se usara la teoría clásica, y los martes, jueves y sábados las
leyes de la física cuántica”. Las soluciones a estas dificultades que presentaba la teoría de Bohr y
Sommerfeld no se obtuvieron hasta el desarrollo de la moderna mecánica cuántica.
Multiplicando la ecuación por (–2m/h2)(r2 sen2 q/RQF) y reordenando términos se tiene que:
1 d 2 F 2m 2 sen 2 q d æ 2 dR ö
= r sen 2
q [V – E ] – çr ÷–
F df 2 h2 R drè dr ø
(67)
sen q d æ dQ ö
– çsen q ÷
Q dq è dq ø
Puesto que el primer miembro de esta ecuación no depende de r ni de q, y el segundo miembro no de-
pende de f su valor común ha de ser independiente de esas variables. En consecuencia, deberá ser
igual a una constante que por conveniencia escribimos como –ml2. Por tanto, la ecuación anterior da
lugar a dos ecuaciones diferenciales:
d 2F
+ ml2 F = 0 (68)
df 2
1 d æ 2 dR ö 1 dæ dQ ö
– çr ÷– çsen q ÷–
R drè dr ø Qsen q dq è dq ø
(69)
2m ml2
– 2 r 2 [E – V ]= –
h sen 2 q
Reordenando los términos de esta ecuación, se tiene que:
1 d æ 2 dR ö 2m 2 ml2 1 dæ dQ ö
çr ÷+ 2 r [ E – V ] =+ – çsen q ÷ (70)
R drè dr ø h sen q Q sen q dq è
2
dq ø
De nuevo, observamos que el primer miembro de la ecuación depende de una sola variable, en este caso r,
mientras que el segundo miembro depende de otra variable, q. Por consiguiente, para que esta igualdad
tenga lugar, ambos miembros deben ser iguales a una constante, que por conveniencia se escribe como l(l
+ 1). Por tanto, la ecuación anterior se desdobla en dos ecuaciones diferenciales dadas por:
1 dæ dQ ö ml Q
2
y
1 d æ 2 dR ö 2m R
çr ÷+ 2 [ E – V ] = l( l+1) 2 (72)
r drè dr ø h
2
r
Vemos que el problema se ha reducido a resolver tres ecuaciones diferenciales ordinarias (72), (71) y
(68), para las variables R, Q y F, respectivamente.
Comenzaremos por estudiar las soluciones de la ecuación correspondiente a F. La solución de
esta ecuación es de la forma:
1
F ml = e iml f (73)
2p
Puesto que la función F debe ser monovaluada, ha de tener un solo valor para cada ángulo f, y se de-
berá cumplir que:
e iml f = e iml ( f+ 2p) (74)
De esta condición se obtiene que:
1= e iml 2p = cos( 2pml )+ i sen ( 2pml ) (75)
Las soluciones aceptables, que permanecen finitas, de la ecuación (71) son aquellas en las que el
número l toma valores:
l =| ml | , | ml |+1, | ml |+ 2... (77)
y se pueden escribir como:
Q lml = sen | ml | q Fl | ml | (cos q ) (78)
en donde las funciones Fl | ml | son polinomios en cos q, y su forma depende del número cuántico l y del
módulo del número cuántico ml.
Por último las soluciones de la ecuación (72) sólo son aceptables si la energía total toma valores
dados por:
mZ 2 e 4
En = – (79)
( 4pe 0 ) 2 2h 2 n 2
Por otra parte, las funciones Gnl(Zr/a0) son polinomios en Zr/a0 y cuya forma depende de los valores
de los números cuánticos n y l.
Como vemos, la teoría cuántica de Schrödinger del átomo predice que la energía sólo puede to-
mar valores discretos dados por la ecuación (79), expresión que coincide con la de la energía que pre-
dice el modelo de Bohr.
También hemos visto que las soluciones de la función de onda se pueden escribir como:
y nlml = R nl Q ml F ml (83)
Mientras que los valores de la energía sólo dependen del número cuántico n las funciones de onda de-
penden de los tres números cuánticos n, l y ml. Según lo visto anteriormente, estos números cuánticos
deben satisfacer ciertas condiciones que podemos escribir:
n = 1, 2, 3, … (84)
l = 0, 1, 2, 3, ... n – 1 (85)
ml = –l, –l + 1 ... –1, 0, +1 ..., l – 1, l (86)
Puesto que la energía total depende del número n, a este número cuántico se le suele denominar nú-
mero cuántico principal. Por razones que discutiremos después, al número cuántico l se le denomina
número cuántico orbital o azimutal y al número cuántico ml número cuántico magnético.
Las condiciones que acabamos de escribir para los números cuánticos hacen evidente que, dado
un número cuántico n, existen varios valores posibles de los números cuánticos l y ml. Dicho de otra
manera, en general habrán varias funciones de onda posibles para un mismo valor de la energía. Deci-
mos entonces que las funciones de onda están degeneradas. Tenemos, por tanto, una situación de de-
generación de los niveles energéticos del átomo semejante a la obtenida en la teoría atómica de Som-
merfeld. Así, si n = 3, los valores posibles de l son l = 0, 1, 2, y para cada uno de estos valores de l ten-
dremos que el número cuántico ml toma los valores m0 = 0, m1 = –1, 0, 1 y m2 = –2, –1, 0, 1, 2:
tendremos, por tanto, 9 funciones de onda degeneradas para el mismo valor de la energía E3. En gene-
ral, si el número cuántico principal es n = p se tienen p2 funciones de onda degeneradas.
Por razones históricas que aludían a la apariencia de los espectros ópticos, se asocian letras con
el número cuántico orbital l. Así, los estados para los cuales l = 0 se denominan estados s, aquellos para
los que l = 1 se denominan estados p, aquellos con l = 2 estados d y los estados con l = 3 estados f. Estas
iniciales provienen de sharpe, principal, diffuse, y fundamental. Para l > 4, las letras utilizadas para de-
signar los estados electrónicos siguen el orden alfabético. De esta manera, cuando nos referimos a un
estado 1p estamos diciendo que n = 1 y l = 1. En la figura 14 se muestran las letras asociadas a algunos
valores de l.
s p d f
l 0 1 2 3
4s 4p 4d 4f
4
3s 3p 3d
3
E
2s 2p
2
1 1s
n
Figura 14.
Nomenclatura utilizada
para denominar los
estados electrónicos.
Se define la densidad de la probabilidad radial P(r) como aquella función tal que P(r)dr nos da la
probabilidad de encontrar al electrón a una cierta distancia del núcleo comprendida entre r y r + dr.
Puesto que y nlml y*nlml r 2sen q dr dq df es la probabilidad de encontrar al electrón en un volumen
r 2sen q dr dq df , integrando esta cantidad sobre los valores de las variables angulares q y f ten-
dremos la probabilidad de que el electrón se encuentre entre r y r + dr. Por tanto:
P ( r )dr = ò0 ò
p 2p
0
y nlml y*nlml r 2sen q dr dq df =
(88)
= r 2 R nl R *nl drò0 ò
p 2p
0
Q lml Q*lml F ml F*ml sen q dq df
La integral angular ha de ser igual a la unidad puesto que la función de onda está normalizada. Por
tanto:
P ( r )dr = r 2 R nl R nl* dr (89)
En la figura 15 se muestra el valor de esta densidad de probabilidad para algunos valores de los
números cuánticos.
P(r) P(r)
n=3 l=0
n=1 l=0
5 10 15 20 25 5 10 15 20 25
n=2 l=0 n=3 l=1
5 10 15 20 25 5 10 15 20 25
n=2 l=1 n=3 l=2
Figura 15. Densidad de
probabilidad radial para
5 10 15 20 25 5 10 15 20 25
algunos valores de los
r/(a0/Z) r/(a0/Z)
números cuánticos n y l.
r = ò0 rP ( r ) dr
¥
(90)
Vemos que este valor más probable depende fundamentalmente del valor del número cuántico
principal n. Si comparamos este valor con los radios predichos por la teoría de Bohr dados por la
expresión (19):
n 2 a0
rBohr = (92)
Z
vemos que la mecánica cuántica predice que el valor más probable para encontrar al electrón es apro-
ximadamente igual al de las órbitas circulares de la teoría de Bohr.
Veamos por último la dependencia angular de la densidad de probabilidad. De la ecuación (73)
se tiene que:
1
F ml F*ml = (93)
2p
Por consiguiente, la densidad de probabilidad es independiente de la variable angular f y será si-
métrica alrededor del eje z. Por tanto, la densidad de probabilidad queda reducida al producto de Rnl
R *nl = P(r)/r2 por un factor Q lml Q*lml que dependerá del ángulo q. Esta dependencia angular se puede
representar de forma adecuada mediante diagramas polares como el mostrado en la figura 16. El
origen se corresponde con el núcleo atómico y el ángulo q se mide a partir del eje z. La distancia de
un punto al origen es precisamente igual al factor Q lml Q*lml . En la figura 17 se muestra la forma del
factor angular para distintos valores del número cuántico ml.
Z l=3 l=3 l=3
ml = 1, -1 ml = 2, -2 ml = 3, -3
q
Qlm Q*lm
l=3
ml = 0
Figura 16. Diagrama
polar para el factor Figura 17. Diagramas polares para el factor
direccional de la densidad direccional de la densidad de probabilidad para
de probabilidad. distintos valores del número atómico ml.
Por otra parte se tiene que la componente z del momento angular viene dada por:
Lz = ml h (95)
siendo A el área encerrada por la espira. Si consideramos un electrón que se mueve a lo largo de una
órbita con un período T, la corriente vendrá dada por i = –e/T, por lo que la expresión anterior puede
escribirse como:
r
r A
ml = –e (97)
T
Por otro lado, el momento angular viene dado por:
r r r
r r dr
L = r ´ p = mr ´ (98)
dt
r r r
Ahora bien, el área barrida por el radio vector en un tiempo dt viene dada por dA = ( r ´dr ) / 2, por lo
que el momento angular se puede expresar como:
r
r dA
L = 2m (99)
dt
Si el momento angular es constante, entonces se tiene que:
r r
A L
= (100)
T 2m
Sustituyendo eso en (97) se tiene que:
r e r
ml = – L (101)
2m
Como el momento angular está cuantizado y sus valores vienen dados por (94), la magnitud del
momento dipolar magnético orbital es:
eh
ml = l( l+1) (102)
2m
Observamos que para aquellos estados electrónicos en los que l = 0, es decir, para orbitales o estados s
el momento dipolar magnético es cero.
La componente z del momento dipolar vendrá dada por:
e eh
m lz = – Lz = – m (103)
2m 2m l
m lz = – m B ml (106)
De la física clásica sabemos que al aplicar un campo magnético B a un dipolo magnético se pro-
duce un torque sobre el dipolo que viene dado por:
r r r
t = m´B (107)
z r
B Y también sabemos que si se le aplica un torque perpendicular al momento angular L
de un sistema, este comienza a precesionar. Puesto que el torque es perpendicular al
momento dipolar, y, como acabamos
r de ver, éste es antiparalelo al momento angular,
q ml será también perpendicular a L , por lo que el campo magnético hace que el momento
dipolar precesione alrededor del eje z tal como se muestra en la figura 19.
L q
Figura 19. El momento angular orbital L y el momento
dipolar magnético orbital ml son antiparalelos y precesionan
alrededor del eje z que es paralelo al campo magnético externo B.
La energía potencial de un dipolo magnético en el seno de un campo magnético cambia la energía to-
tal en la cantidad:
r r
E B = – m l ×B (108)
Teniendo en cuenta que el campo magnético lleva la dirección del eje z, la expresión anterior la pode-
mos escribir como:
EB = –mlB cos q = –mlzB = mBmlB (109)
Esta expresión nos proporciona la variación de energía del sistema como consecuencia de la interac-
ción del momento dipolar magnético orbital con el campo magnético.
Puesto que ml puede tomar 2l + 1 valores diferentes correspondientes a los números enteros
comprendidos entre –l y +l, esto significa que la aplicación de un campo magnético a un orbital pro-
ducirá un desdoblamiento del estado en 2l + 1 niveles de energía diferente (de momento suponemos
que sólo hay un momento dipolar magnético, que es el orbital). En la figura 20 se muestra el desdo-
blamiento que se produce al aplicar un campo magnético a un orbital d. Vemos que el nivel energéti-
co original se desdobla en 5 niveles energéticos diferentes.
E Ed + 2mBB
Ed + mBB
Ed Ed
B=0
Figura 20. Desdoblamiento del nivel Ed – mBB
energético en presencia de un campo
magnético externo, suponiendo que sólo Ed – 2mBB
hay momento dipolar magnético orbital.
Una consecuencia de lo que acabamos de exponer es que las frecuencias de los fotones emitidos
en las transiciones entre estados atómicos pueden cambiarse por la aplicación de un campo magnéti-
co. La mecánica cuántica nos permite calcular la probabilidad de que se produzcan transiciones entre
diferentes niveles energéticos dentro del átomo, y muestra que hay dos tipos de transiciones: unas,
cuya probabilidad es muy pequeña y se denominan transiciones prohibidas y otras, transiciones pro-
bables, denominadas transiciones permitidas. Estas transiciones permitidas ocurren cuando se satis-
facen ciertas reglas de selección, que son:
Dl = ±1 y (110)
Dml = 0 o Dml = ±1 (111)
Es decir, que las transiciones sólo se producen si el número cuántico orbital aumenta o disminuye
en una unidad y si el número cuántico magnético permanece constante o aumenta o disminuye en
una unidad.
Por tanto, las reglas de selección establecen que, independientemente del número de subniveles
energéticos, las transiciones desde un nivel con número cuántico n a otro sólo producen tres líneas
distintas. Este efecto se denomina efecto Zeeman normal, en honor a Pieter Zeeman (1865-1943),
que lo descubrió en 1894. En la figura 21 se muestra un ejemplo del desdoblamiento de niveles y de
las transiciones permitidas según las reglas de selección.
ml
B>0
+2 Ed + 2mBB
B=0 +1 Ed + mBB
0 Ed
d Ed –1 Ed – mBB
–2 Ed – 2mBB
DE0
Este efecto Zeeman normal se observa en los espectros de algunos elementos como el helio, el
calcio y unos pocos más. Sin embargo, en otros elementos, como el hidrógeno, se observan más de
tres líneas. Por ejemplo, en las transiciones entre n = 2 y n = 1 del hidrógeno, se observan hasta siete
líneas. Este efecto se denomina efecto Zeeman anómalo. Por consiguiente, las observaciones experi-
mentales muestran que la idea de la cuantización espacial es correcta y la teoría de Schrödinger puede
explicar satisfactoriamente el efecto Zeeman normal, pero no así el anómalo por lo que, de momento,
es una teoría incompleta.
Colimador Pantalla
Átomos
de plata Imanes
Bz
Aunque los átomos son neutros, tienen un momento dipolar y, por consiguiente, al pasar por la
región del campo magnético, sufrirían una desviación que dependería de la fuerza experimentada por
los átomos en la dirección z. Clásicamente habría que esperar que la distribución de los átomos en la
pantalla fuese uniforme, debido a que el momento angular, y por tanto el momento dipolar, podrían
tomar cualquier valor entre uno máximo y otro mínimo. Por otro lado, si la teoría cuántica de
Schrödinger fuese cierta, la fuerza Fz, según (114) sólo podría tomar ciertos valores discretos: uno
por cada valor del número cuántico ml. Esto se traduciría en que los electrones golpearían la pantalla
sólo en ciertas regiones alejadas unas ciertas cantidades del eje z = 0. Sin embargo, en el experimento,
Stern y Gerlach obtuvieron que los átomos de plata golpeaban sólo en dos regiones de la pantalla a la
misma distancia del eje de la misma, una por encima y la otra por debajo de dicho eje. El resultado
mostraba que la fuerza Fz sólo tomaba dos valores iguales pero de signo contrario, y, por tanto, el mo-
mento angular Lz tendría sólo dos valores posibles, iguales y de signo contrario. Phipss y Taylor repi-
tieron posteriormente el experimento con átomos de hidrógeno, y los resultados fueron idénticos a los
encontrados en el experimento de Stern y Gerlach.
Estos resultados experimentales demuestran, por un lado, la existencia de la cuantización espa-
cial, pero están en desacuerdo con la teoría de Schrödinger. En realidad, estos resultados indican to-
davía algo más. En el experimento de Phipps y Taylor los átomos utilizados son de hidrógeno, y a la
temperatura de unos cientos de grados todos los átomos se encuentran en el estado fundamental s ca-
racterizado por unos números cuánticos n = 1 y l = 0, ml = 0. Por tanto, los átomos deberían producir
una sola línea en la pantalla en z = 0. Sin embargo, se obtienen dos trazos experimentales. Esto hace
evidente que debe existir otro momento dipolar magnético distinto del orbital.
Con el objeto de explicar algunos resultados experimentales, entre ellos la estructura fina del
átomo de hidrógeno, los primeros en postular un momento angular intrínseco del electrón fueron G.
E. Uhlenbeck y S. A. Goudsmit, los cuales propusieron que:
El electrón tiene un momento angular intrínseco llamado spin S. Al igual que el
momento angular L tiene asociado un momento dipolar magnético, también lo tiene el
spin. Es decir, el electrón tiene un momento dipolar de spin:
e
ms = – S (115)
m
Por analogía con el momento angular orbital, postularon que la magnitud de S y de su componente Sz
estaban cuantizadas en la forma:
S = s( s+1)h (116)
S z = ms h (117)
De forma análoga a como ml varía desde –l a +l en pasos de una unidad, el número cuántico ms varía
desde –s a +s en pasos de unidad. Por consiguiente, los valores posibles de ms son ms = ±1/2. Con
esto, podemos expresar la componente Sz como:
1
S z = ms h =± h (119)
2
Para la componente z:
e e
m sz = – S z = –2 m h= mmB (121)
m 2m s
Cuando aplicamos un campo magnético externo, se ejercerá un torque sobre el momento dipolar
magnético de spin del electrón que producirá la precesión de S y ms alrededor del eje z (la dirección
del campo magnético). La energía cambiará en una cantidad dada por:
DE s = – m sz B =±m B B (122)
Esto dará lugar a un desdoblamiento de los niveles energéticos del
E Es + mBB
átomo. Así, por ejemplo, para un estado s con l = 0, el momento angular
orbital es cero y también lo será el momento dipolar magnético orbital;
pero hay un momento angular de spin y, por tanto, un momento dipolar
Es magnético de spin distinto de cero. En ausencia de campo magnético el
B=0 estado s estará doblemente degenerado con el estado de spin +1/2 y el es-
tado de spin –1/2 con la misma energía. En presencia de un campo mag-
nético este nivel se desdobla en otros dos con diferentes energías, como
Es – mBB se muestra en la figura 23.
Hemos visto que el desdoblamiento de los niveles energéticos im-
Figura 23. Un estado plica la interacción del momento dipolar magnético con un campo mag-
s de un electrón se nético. Sin embargo, se observa que este desdoblamiento tiene lugar in-
desdobla al aplicarle
un campo magnético.
cluso en ausencia de campo magnético externo. Esto indica que debe
existir un campo magnético interno. Este campo magnético puede enten-
derse si consideramos que en el sistema de referencia del electrón, el nú-
cleo se encuentra girando alrededor de él. Puesto que toda partícula cargada en movimiento genera
un campo magnético, el núcleo producirá, desde el punto de vista del electrón, un campo magnéti-
co, que sería el responsable del desdoblamiento de los niveles energéticos. Esta interacción se de-
nomina interacción spin-órbita y se produce para todos los estados excepto para el estado s, en el
que el electrón no tiene un momento angular neto. La interacción spin-órbita es la causa del desdo-
blamiento de las líneas espectrales, del desdoblamiento de las bandas de energías en sólidos y otros
muchos fenómenos.
en donde j es el número cuántico del momento angular total. Para un valor dado de l, j puede tomar
uno de los dos valores l + s o l – s. Es decir, que los valores de j vienen dados por:
1
j = l± (125)
2
Para un electrón, cuando l = 0 el único valor posible es j = 1/2, por lo que resulta que j = -1/2 daría un
valor imaginario de J.
La componente z del momento angular total es:
J z = mj h (126)
en donde mj es el número cuántico magnético total y puede tomar valores entre –j y +j a intervalos de
la unidad. z
En los apartados precedentes hemos visto que el momento dipolar orbital ml S
y de spin ms son antiparalelos a sus momentos angulares respectivos L y S. Sin J
embargo, el momento dipolar magnético total mj no es en general antiparalelo al
momento angular total J. Esto es debido a que el momento angular de spin es el L
doble de efectivo que el momento angular orbital para producir un momento di-
polar magnético (figura 24). El resultado es que mj y J forman ángulos diferentes ml
con el eje z. mj
ms
Figura 24. El momento dipolar magnético total mj
no es antiparalelo al momento angular total J.
La interacción del momento dipolar magnético total con un campo magnético externo produce
un desdoblamiento de los niveles de energía. Estos desdoblamientos, junto con unas reglas de selec-
ción, determinan el denominado efecto Zeeman anómalo. Un efecto que, en contra de lo que indica su
nombre, es más común que el efecto Zeeman normal, pero mucho más complejo de explicar, por lo
que lo obviaremos aquí. Decir al respecto, que cuenta la leyenda que Wolfgang Pauli, una vez que le
preguntaron por qué parecía tan deprimido, contestó: ¿Cómo puede uno evitar la depresión si piensa
en el efecto Zeeman anómalo?
BIBLIOGRAFÍA
ÍNDICE SISTEMÁTICO
1. EL NÚCLEO ATÓMICO
1.1. Propiedades del núcleo atómico
1.1.1. Radio nuclear
1.1.2. Masa nuclear y abundancia de los núclidos
1.1.3. Energía de enlace
1.1.4. Momento nuclear y paridad
1.1.5. Momento nuclear magnético
1.1.6. Momento cuadrupolar eléctrico
2. FUERZAS NUCLEARES
2.1. El modelo de fuerza de intercambio
3. MODELOS NUCLEARES
3.1. Modelo de gota líquida
3.2. Números mágicos
3.3. Modelo de capas
3.4. Modelo colectivo
4. RADIACTIVIDAD
4.1. Descubrimiento de la radiactividad
4.2. Cinemática de los procesos radiactivos
4.3. Radiactividad natural
4.3.1. Desintegración a
4.3.2. Desintegración b
4.3.3. Desintegración g
4.3.4. Series radiactivas
4.4. Radiactividad artificial
6. MEDIDAS DE SEGURIDAD
BIBLIOGRAFÍA
1. EL NÚCLEO ATÓMICO
El concepto de núcleo atómico fue introducido por Rutherford en 1911 como parte de su modelo
atómico que intentaba explicar la dispersión de partículas a al atravesar láminas metálicas delgadas.
Desde entonces, el estudio experimental y teórico de los núcleos atómicos dio lugar a una nueva rama
de la física, la física nuclear, dedicada al estudio de la materia en su nivel fundamental y que ha de-
sempeñado un papel muy importante en el desarrollo de la física del siglo XX.
El núcleo atómico está constituido por protones y neutrones, denominados genéricamente nu-
cleones. Un protón es una partícula de carga eléctrica +e y un neutrón es una partícula eléctricamente
neutra, y ambas con una masa aproximadamente igual a 2000 veces la masa del electrón.
Una núcleo está caracterizado por el número de protones Z, que se denomina número atómico, y
por el número total de nucleones A denominado número másico. El número de neutrones N es por tan-
to N = A – Z. Al igual que cada tipo o especie de átomo se denomina elemento, cada tipo o especie de
núcleo se denomina núclido o nucleido. Un núclido se representa generalmente de la forma AZ X N ,
donde X es el símbolo químico del elemento. Ahora bien, puesto que dar el número atómico y el sím-
bolo químico es redundante y como el número de neutrones N se obtiene inmediatamente a partir de A
y Z se suelen especificar los núclidos en la forma abreviada A X. En algunas ocasiones podemos ver
representados los núclidos con Z y N y otras veces no. Por regla general se suelen escribir si estamos
interesados en hacer una balance de estos números en procesos de decaimiento o en reacciones nu-
cleares, en caso contrario suelen omitirse por redundantes.
Cuando analizamos muestras de muchos elementos nos encontramos que hay núclidos con el
mismo número atómico Z y diferente número másico A; es decir un núclido con Z protones puede te-
ner diferentes números de neutrones. A estos núclidos con el mismo número de protones y diferente
numero de neutrones se les denomina isótopos. Por ejemplo, los núclidos 12 Cy 14 Cson isótopos del
carbono. Por otra parte, los núclidos con
el mismo número de neutrones N se de- 180
nominan isótonos, por ejemplo los núcli-
dos 2 H y el 3 He; y los núclidos con el
160
mismo número másico A se denominan
isóbaros, por ejemplo 3 H y el 3 He.
Hasta ahora se han identificado 108 140
De la figura, vemos que aunque los núcleos con valores de Z > 92 se encuentran en la naturaleza
estos núcleos son inestables. El núcleo estable más pesado corresponde al 209
83 Bi. También se observa
que los núclidos de menor masa tienden a tener el mismo número de protones que de neutrones, mien-
tras que los de mayor masa tienden a tener mayor número de neutrones que de protones, debido a que
existe una fuerza repulsiva de Coulomb entre los protones y no entre los neutrones. Además, este ex-
ceso de neutrones respecto al número de protones es mayor conforme aumenta la masa del núclido.
La región donde se encuentran los núcleos estables se denomina línea de estabilidad. Esta curva tiene
la forma N = Z para los núclidos con un número Z pequeño y N = 1.6Z para Z grandes.
–8
rresponde a energías por encima de los 100 MeV. Haciendo inci- 10
dir un haz de electrones de energía comprendida entre los 100
–9
MeV y 1 GeV obtendremos un patrón de difracción como el mos- 10
trado en la figura 2. Podemos observar que la intensidad presenta –10
un mínimo para determinado ángulo. Vemos que el patrón de di- 10
30º 50º 70º 90º
fracción es similar a la difracción producida por un disco opaco q
iluminado, sin embargo la intensidad no llega a ser cero debido a
que el núcleo no tiene un contorno bien definido. Utilizando la Figura 2. Medida de los
expresión de la posición de los mínimos en el patrón de difrac- electrones dispersados por el
ción producido por un disco circular sen q = 1.22 l/D podemos 6
C en función del ángulo de
estimar el radio del núcleo. Ahora bien, esta estimación será un dispersión.
En la figura 3 se muestra la densidad de carga para distintos núcleos. Se puede concluir que:
– La densidad de carga es constante en el interior y decae rápidamente a cero en la superficie
nuclear.
– El radio a para el cual la densidad se hace la mitad aumenta conforme aumenta el número
de nucleones del núcleo.
– El espesor de la superficie nuclear está dado aproximadamente por 2b.
– El valor de la densidad de carga en el interior r(0) disminuye conforme aumenta el número
de nucleones A.
0.10
0.08
0.06
r(r)
0.04
Co
0.02 C Bi
0.00
0 2 4 6 8 10
r (fm)
Como radio nuclear se suele tomar el radio de la distribución uniforme equivalente y puede ex-
presarse como:
R = R 0 A 1/ 3 (4)
Bv
– + Película
Ev fotográfica
Selector de
velocidad
Los átomos que tienen esa velocidad entran en una región del espacio en donde existe un campo
magnético uniforme que hace que los iones describan una trayectoria circular de radio r e incidan en
una placa fotográfica. Aplicando la segunda ley de Newton al movimiento del ion se tiene que:
u2
quB = m (6)
r
Y teniendo en cuenta el valor de la velocidad con la que inciden en la región del campo magnético, se
tiene que:
qrB 2
m= (7)
E
Experimentalmente se determina el radio de la trayectoria mediante el cual se calcula la masa del ion.
Para determinar con una precisión de una parte en 106 la masa de los diferentes iones deberíamos
conocer las cantidades que aparecen en el segundo miembro de la ecuación (7) con esa precisión, lo
cual parece que sea poco probable. En la práctica lo que se hace es calibrar el espectrógrafo para me-
dir una determinada masa y determinar las demás masas mediante medidas relativas. Para ello se
12 12
toma como unidad de masa atómica (u) la doceava parte de la masa del átomo C (un núcleo de C
con seis electrones), que es equivalente a:
1 u = 1.6605402 ´ 10
–27
kg (8)
Por ejemplo, para medir la masa del hidrógeno, se calibra el aparato para medir una masa de 128 y se
mide la diferencia D entre la masa molecular del C9H20 y el C10H8. Despreciando la energía de enlace
molecular, podemos escribir que:
D = m(C10H8) – m(C9H20) = 12m( H) – m( C)
1 12
(9)
La diferencia de masa D que se mide es D = 0.09390032 ± 0.00000012, por lo que la masa del hidró-
geno que se obtiene es:
m( H) = 1.00782503 ±0.00000001 u
1
(11)
El aparato se puede calibrar para medir otra masa determinada y midiendo la diferencia de ma-
sas de dos moléculas, o de una molécula y un ión, determinar la masa de la molécula o del ión. La ra-
zón de elegir el carbono como masa patrón es que en la práctica hay una gran variedad de
hidrocarburos accesibles que se pueden utilizar para determinar por comparación la masa de los ele-
mentos químicos. Así, por ejemplo, para medir la masa del nitrógeno se puede calibrar el espectróme-
tro para medir una masa 28 y determinar la diferencia de masa entre el C2H4 y el N2.
El espectrómetro de masa también permite conocer la proporción o abundancia relativa de los
diferentes isótopos en una muestra. Para ello se sustituye la placa fotográfica del espectrógrafo por
una ranura de manera que se pueda medir la corriente producida por los iones incidentes, cuya masa
se selecciona variando los campos eléctrico y magnético aplicados. Con este tipo de medidas se esta-
blece, por ejemplo, que la abundancia de los isótopos del O son:
16
8 O = 99.759% (12)
17
8 O = 0.037% (13)
18
8 O = 0.204% (14)
Otra técnica utilizada para la determinación precisa de la masa nuclear es la medida de la energía
de las partículas en reacciones nucleares. Por ejemplo, consideremos una reacción en la que un pro-
yectil a incide sobre un blanco A siendo el resultado de la reacción b y B:
a+A®b+B (15)
Midiendo la energía cinética de las partículas de la reacción se puede determinar la diferencia de ma-
sas de la reacción. El valor Q de la reacción se define como la diferencia de las energías cinéticas de
los productos de la reacción y de la partícula incidente:
Q = K b + KB – Ka (17)
Sustituyendo esta expresión en la ecuación del balance energético de la reacción dada por (16) se tie-
ne que:
2
Q = (m(a) + m(A) – m(b) – m(B))c (18)
Es decir, que el valor Q de la reacción nos proporciona información sobre las masas en reposo de las
entidades implicadas en la reacción nuclear.
Consideremos por ejemplo la reacción:
H+ N® N+ H
1 14 12 3
(19)
Mediante la espectrometría de masas podemos conocer las masas m (1H) = 1.007825 u, m (14N) =
= 14.003074 u y m(3H) = 3.016049 u. El valor Q de la reacción se determina y es igual a Q = –22.1355 ±
± 0.0010 MeV, por lo que podemos determinar que:
Q
= 12.018613 ± 0.000001 u
12 1 14 3
m( N) = m( H) + m( N) – m( H) – (20)
c2
La limitación en la precisión de la masa calculada viene dada por la precisión de la medida de Q. El
método de la reacción nuclear se aplica para calcular la masa de los núclidos inestables cuya vida me-
dia es tan pequeña que no es posible utilizar la técnica de espectrometría de masas. Este es el caso del
12
N cuya vida media es del orden de 0.01 s, que es demasiado pequeña como para que su masa se pue-
da medir directamente mediante un espectrógrafo de masas.
mN c = mA c – Zme c + å B i
2 2 2
(21)
I= 1
en donde Bi es la energía de enlace del electrón i. Ahora bien, las energías de enlace de los electro-
nes son del orden de 10 a 100 keV en los átomos pesados, mientras que las energías de masa es del
orden de A ´ 1000 MeV, por lo que con una precisión de una parte en 106 podemos despreciar el úl-
timo término de la expresión (21). Por otra parte, en física nuclear se suele trabajar con diferencias
de energía de masa, por lo que las energías de enlace electrónico tienden a cancelarse en dichas di-
ferencias.
La energía de enlace B de un núcleo es la diferencia entre la energía de masa del núcleo y la ener-
gía de masa de sus constituyentes. Así, para un núcleo con número másico A y número atómico Z, la
energía de enlace es:
A 2
B = {Zmp + Nmn – [m( X) – Zme]}c (22)
Si agrupamos los Z protones con los Z electrones en Z átomos neutros de hidrógeno, la expresión an-
terior la podemos escribir como:
1 A 2
B = [Zm( H) + Nmn – m( X)] c (23)
Otras energías relacionadas con la energía de enlace y que son de interés y se encuentran común-
mente tabuladas son las energías de separación de los neutrones y los protones. La energía de separa-
ción del neutrón Sn de un núcleo AZ X N es la cantidad de energía que hay que suministrar para eliminar
un neutrón del núcleo. Por tanto será la diferencia de la energía de enlace entre AZ X N y A–1
Z X N– 1 :
2
Sn = B( AZ X N ) – B( A–1Z X N – 1 ) = [m( A–1Z X N – 1 ) – m( AZ X N ) + mn] c (24)
De forma análoga, se define la energía de separación del protón Sp como la energía para eliminar un
protón:
1 2
Sp = B( AZ X N ) – B( A–1 A–1 A
Z–1 X N ) = [m( Z–1 X N ) – m( Z X N ) + m( H)] c (25)
Las energías de separación del protón y el neutrón son análogas a las energías de ionización en física
atómica y nos dan una idea de la energía de enlace de los nucleones más externos del núcleo. Estas
energías ponen de manifiesto que la estructura del núcleo es una estructura de capas semejante a la es-
tructura atómica.
El estudio de la energía de enlace de los núcleos nos permite conocer algunas de sus propiedades.
Una magnitud de interés es la energía de enlace por nucleón B/A. En la figura 5 se muestra la variación
de esta energía en función de A. De ella podemos observar que la energía de enlace promedio es aproxi-
madamente constante salvo para los núcleos más ligeros y es del orden de 8 MeV por nucleón. En se-
gundo lugar vemos que la curva alcanza un máximo cerca de A = 60 en donde los nucleones se
encuentra ligados al núcleo con la máxima energía. Esto sugiere que podemos liberar energía de dos
formas: por debajo de A = 60, uniendo dos núcleos ligeros para obtener un núcleo más pesado; y por en-
cima de A = 60, dividiendo un núcleo pesado en otros más ligeros. El primer método es conocido como
fusión nuclear y el segundo como fisión nuclear. Ambos se verán con más detalle en el Tema 37.
10
6
B/A
Figura 5. Energía de 0
enlace por nucleón para 0 50 100 150 200 250
los distintos núcleos. A
En muchas aplicaciones el núcleo se comporta como si fuera una sola entidad con un momento
angular intrínseco I. Bajo la acción de un campo magnético se observa el efecto Zeeman nuclear que
consiste en que el estado I se desdobla en los 2I + 1 subestados correspondientes a los posibles valores
de m = –I, –I + 1, … I – 1, I.
La consideración de los posibles valores de la componente z del momento angular impone una
importante restricción a los valores permitidos de I. El hecho de que el momento angular total j de
cada nucleón tome valores semienteros 1/2, 3/2, 5/2, ... hace que los valores de la componente z sean
±h / 2,±3h / 2,±5h / 2, ... Si tenemos un núcleo en el que el número de nucleones es par, tendremos un
número par de componentes semienteras del momento angular y por tanto la componente total toma-
rá un valor entero. En consecuencia I tomará un valor entero. Por el contrario, si el número de nucleo-
nes es impar, la componente z del momento angular tendrá un valor semientero y también lo tendrá I.
Experimentalmente se encuentra que los núcleos par-par (aquellos cuyo número de protones y
neutrones es par) tienen un valor de I = 0, lo que indica que los nucleones idénticos tienden a acoplar sus
momentos angulares en direcciones opuestas. Esto se denomina efecto apareamiento. Los núcleos
par-impar (con un número de protones o neutrones impar) tienen un valor de I semientero, siendo razo-
nable suponer que el spin nuclear coincide con el momento angular del nucleón no apareado, resultado
que funciona en muchos casos. Los núcleos impar-impar tienen dos nucleones no apareados, un protón
y un neutrón, y es más difícil predecir el valor de su momento angular. Aunque como era de esperar éste
toma un valor entero debido a que existe un número par de nucleones. Una teoría adecuada sobre la
fuerza nuclear debe poder predecir satisfactoriamente los valores experimentales de I.
Junto con el spin nuclear se utiliza la paridad para especificar el estado nuclear. La paridad puede
ser par (+) o impar (–). Si conociésemos la función de onda asociada a cada nucleón, podríamos deter-
minar la paridad nuclear multiplicando la paridad de cada uno de los nucleones A: p = p 1 p 2 p 3 ... p A .
Así encontraríamos que p es par o impar. Sin embargo, puesto que en general no podemos asignar
una función de onda de paridad conocida a cada nucleón, un procedimiento como el indicado arriba
es inviable. Lo que se hace es considerar la paridad como una propiedad promedio de todo el núcleo,
la cual puede ser medida mediante técnicas de decaimiento y de reacciones nucleares. La paridad se
representa con un superíndice en el valor del momento angular Ip. Por ejemplo, se escribe 0+, 2–, ...
No existe alguna relación teórica entre la paridad y el valor del spin nuclear, por lo que para cada va-
lor de I es posible los dos valores de la paridad p = + o p = –.
Evidentemente, los neutrones no tienen carga y por tanto no tienen momento dipolar orbital.
La componente z del momento dipolar magnético vendrá dada por:
e eh
mz = Lz = m = m N ml (30)
2mp 2mp l
r
Si la partícula tiene un spin S tiene además un momento dipolar magnético de spin:
r e r
ms = gs S (32)
2m
en donde gs es una constante que depende de la partícula y se denomina razón giromagnética de spin.
Para el protón se tiene que gs = 5.5857. El signo positivo indica que el momento dipolar magnético de
spin es paralelo al momento dipolar magnético orbital.
Se ha observado que el neutrón, aun no teniendo carga eléctrica tiene un momento dipolar magnético
de spin con una razón giromagnética igual a gs = –3.8261. El signo menos indica que el momento dipolar
magnético de spin es antiparalelo al momento dipolar magnético orbital, como corresponde a una carga
negativa. Este hecho es una evidencia de que los nucleones no son partículas fundamentales como el elec-
trón, sino que deben tener una estructura interna compleja y deben estar formados por partículas cargadas
en movimiento, cuyas corrientes resultantes producen los momentos magnéticos de spin observados.
En el caso nuclear sólo los protones contribuyen al cuadrupolo eléctrico. Teniendo en cuenta que la
carga de los protones es e, el momento cuadrupolar nuclear se define como:
eQ = å e( 3z i2 – ri2 ) = eå ( 3z i2 – ri2 ) (36)
i i
Puesto que el momento cuadrupolar depende de la elección del eje z, se elige éste tan paralelo como
sea posible al spin nuclear I. En el SI el momento cuadrupolar se expresa en m2. Algunas veces se uti-
liza una unidad denominada barn (b) definida como 1 b = 10–28 m2. Si los protones estuvieran distri-
buidos con simetría esférica entonces Q = 0. Si Q es positivo el núcleo debe tener la forma de un
elipsoide alargado mientras que si es negativo debe tener la forma de un elipsoide achatado. Se puede
demostrar teóricamente que aquellos núcleos cuyo spin nuclear es cero (I = 0) o I = 1/2 tienen un mo-
mento cuadrupolar nulo (Q = 0), lo que ha sido confirmado experimentalmente. Algunos núcleos
muestran un momento cuadrupolar muy alto lo que indica grandes deformaciones. Una teoría nuclear
correcta deberá predecir y explicar los valores observados del momento cuadrupolar eléctrico.
2. FUERZAS NUCLEARES
De los experimentos a baja y alta energía se obtienen conclusiones sobre las propiedades de las
fuerzas de interacción entre los nucleones. Estas propiedades son las siguientes:
– La fuerza nuclear es de corto alcance. Esto significa que la fuerza nuclear sólo es aprecia-
ble cuando las distancias entre los nucleones interactuantes es del orden de 10–15 m o menos y
es despreciable a distancias mayores. Esta característica se puede determinar mediante expe-
rimentos de dispersión. Supongamos, por ejemplo, que se hace incidir protones sobre nú-
cleos atómicos. Cuando el protón se encuentra cerca del núcleo está sujeto a la repulsión
eléctrica y a la fuerza nuclear. Si esta fuerza fuese de alcance similar a la fuerza eléctrica, am-
bas fuerzas actuarían sobre el protón independientemente de la distancia a la que pase del nú-
cleo y en consecuencia la distribución angular de la dispersión de los protones por núcleos
sería diferente a la obtenida debida a la repulsión coulombiana. Por el contrario, si la fuerza
nuclear es de corto alcance los protones que pasen a a una distancia del núcleo superior al al-
cance de la fuerza estarían sometidos exclusivamente a una interacción coulombiana y sólo
los protones de energía suficiente para vencer ésta pasarían cerca del núcleo y experimenta-
rían la acción de la fuerza nuclear sufriendo una dispersión diferente. Esto es lo que se obser-
va en los experimentos, por lo que se concluye que la fuerza nuclear es de corto alcance.
– La fuerza nuclear es casi independiente de la carga eléctrica. Esto significa que la fuer-
za nuclear entre dos protones, dos neutrones y un protón y un neutrón son idénticas. Esta
propiedad puede comprobarse experimentalmente en los procesos de dispersión pro-
tón-protón, neutrón-neutrón y protón-neutrón. Después de realizar las correcciones para la
fuerza de Coulomb en la interacción protón-protón se obtiene que la parte correspondiente
a la interacción nuclear es esencialmente la misma.
– La fuerza nuclear depende de la orientación de los spines de los nucleones interac-
tuantes. Este hecho ha sido confirmado experimentalmente mediante experimentos de dis-
persión y mediante el análisis de niveles de la energía nuclear. Se obtiene que la energía de
un sistema de dos nucleones es diferente si tienen sus spines paralelos o antiparalelos. De
hecho, en el sistema protón-neutrón existe un estado ligado, el deuterón, en el que los dos
nucleones tienen sus spines paralelos S = 1 y sin embargo no existe un estado ligado si los
spines son antiparalelos S = 0.
– La fuerza nuclear no es completamente central. Este aspecto de la fuerza nuclear surge
del hecho de que aun en el núcleo más simple (el deuterón) el momento angular orbital de
los dos nucleones respecto a su centro de masa no es constante, contrariamente a lo que
ocurre en el caso de un potencial central. Como consecuencia de esto, para explicar algunas
propiedades del estado fundamental del deuterón, como son su momento dipolar magnéti-
co y su momento cuadrupolar eléctrico, se debe utilizar una combinación lineal de funcio-
nes de onda s (l = 0) y d (l = 1). Esta mezcla de funciones de onda debe ser producida por un
potencial no central denominado potencial tensor. La forma de esta fuerza tensorial es si-
milar a la interacción entre dipolos.
– La fuerza nuclear es repulsiva a corta distancia. La fuerza nuclear se hace repulsiva a
distancias mucho más pequeñas a su alcance. Esta suposición es necesaria para explicar la
separación media constante de los nucleones y algunas características observadas en la dis-
persión neutrón-neutrón.
¿Es posible que un nucleón emita una partícula de energía mxc2 y permanezca siendo un nucleón sin
violar el principio de conservación de la energía? La respuesta es que no es posible, a menos que la
emisión y la absorción tengan lugar en un período de tiempo Dt tan corto que la violación de la con-
servación de la energía pueda ser ignorada. Puesto que el límite de nuestra capacidad para medir la
energía (y por tanto para determinar si se viola el principio de conservación) viene establecido por el
principio de incertidumbre, si Dt < h/(mxc2) podremos ignorar que la conservación de la energía ha
sido violada por una cantidad DE = mxc2. El máximo alcance de la fuerza es determinado por la dis-
tancia máxima que puede viajar la partícula x en el tiempo Dt. Si la partícula se mueve a velocidad c,
el alcance máximo R vendrá dado por:
hc
R = cDt = (39)
mx c 2
Para las fuerzas nucleares cuyo alcance es del orden de 1 fm, la partícula de intercambio debe tener
una energía del orden de 200 MeV. Tales partículas que sólo existen durante un intervalo de tiempo
tan pequeño y que permiten violar el principio de conservación de la energía (y del momento) se de-
nominan partículas virtuales. Podemos observar la fuerza que resulta del intercambio de estas partí-
culas, pero no podemos observar las partículas durante el intercambio.
La partícula de intercambio que lleva la fuerza nuclear se denomina mesón. Su nombre proviene
del griego meso que significa medio, ya que la masa predicha para esta partícula era una masa interme-
dia entre la masa del electrón y la del protón. El mesón más ligero denominado mesón p o pión es el res-
ponsable de la parte principal del potencial de interacción nucleón-nucleón a distancias entre 1 fm a
1.5 fm. Para que pueda satisfacer la necesidades de carga de los diferentes tipos de interacciones entre
nucleones deben existir tres tipos de piones con cargas –1, 0 y 1. Los piones tienen spin 0 y energías de
reposo de 139.6 MeV (p±) y 135.0 MeV (p0). A distancias más cortas (del orden de 0.5 fm a 1 fm) el
responsable del enlace nuclear es el intercambio de dos piones; y a distancias todavía más cortas (meno-
res de 0.25 fm) el intercambio de un mesón w (de energía en reposo 783 MeV) puede contribuir a la
fuerza repulsiva, mientras que el intercambio de un mesón r (masa en reposo 769 MeV) puede propor-
cionar la parte de la interacción spin-órbita.
De lo dicho anteriormente se tiene que la interacción neutrón protón puede realizarse por el in-
tercambio de un pión sin carga o un pión con carga:
n1 ® n 1 + p p + p2 ® p 2
0 0
(40)
n1 ® p1 + p p + p2 ® n 2
– –
(41)
er/ R
V (r )= – g 2 (42)
r
3. MODELOS NUCLEARES
Uno de los objetivos de la física nuclear es explicar las propiedades de los núcleos en base a modelos
matemáticos de su estructura y de su movimiento interno. Desafortunadamente son muchas las dificulta-
des que surgen y hacen imposible tener un modelo detallado sobre la estructura del núcleo atómico. Una
primera dificultad la encontramos en el hecho de que el potencial de interacción entre nucleones es mate-
máticamente complejo. Incluso adoptando un modelo de potencial simplificado podemos plantear un
conjunto de ecuaciones diferenciales acopladas que describan la interacción entre los A nucleones, pero
estas ecuaciones no pueden resolverse analíticamente sino que deben ser abordadas numéricamente. Por
otra parte, hay evidencia de que la interacción entre nucleones no es una interacción entre dos cuerpos sino
que es del tipo de interacciones de tres cuerpos, lo que introduce una mayor complejidad al problema.
Todo esto hace que la estrategia que se adopta para encontrar un modelo nuclear es partir de una
teoría simplificada pero tratable matemáticamente. Si esta teoría permite explicar satisfactoriamente
algunas propiedades de los núcleos se intenta mejorar añadiendo términos adicionales. Procediendo
de esta manera se intenta construir un modelo nuclear, una idea simplificada de la estructura nuclear
pero que contenga la esencia de la física nuclear. Estos modelos deben explicar las propiedades de los
núcleos previamente determinadas experimentalmente, pero además deben predecir propiedades que
puedan ser medidas en futuros experimentos.
Los tres modelos nucleares propuestos más importantes son el modelo de gota líquida, el mode-
lo de capas y el modelo colectivo. En lo que sigue vamos a comentar brevemente las características de
cada uno de estos modelos.
Ambas propiedades se pueden comparar con otras análogas relacionadas con las gotas macros-
cópicas de un líquido incompresible:
– Sus densidades de masa interior son iguales.
– Sus calores de vaporización son proporcionales a sus masas.
Observemos que el calor de vaporización es la energía necesaria para dispersar la gota en sus molécu-
las constituyentes y su análogo en el modelo nuclear es la energía de enlace del núcleo.
Siguiendo esta analogía podemos escribir una fórmula semiempírica para la masa del núcleo
m(AX) incluyendo términos que introduciríamos para establecer la energía de una gota de líquido.
Haciendo esto tendríamos:
1. Un término de orden cero que es justo la suma de las masas en reposo de los constituyentes del
átomo:
Zm(1H) + Nmn = Zm(1H) + (A – Z)mn (43)
2. Un término proporcional al volumen del núcleo (o lo que es lo mismo proporcional a A), que tie-
ne en cuenta el hecho de que la energía de enlace es proporcional a A, es decir que la energía de
enlace por nucleón es casi constante:
–aVA (44)
en donde aV es una constante positiva, ya que la energía de enlace reduce la masa del núcleo.
4. Un término que incluya la repulsión entre los protones del núcleo, que tiende a aumentar la masa
del núcleo. Si suponemos que los protones están distribuidos uniformemente en una esfera de ra-
dio RA = r0A1/3, la energía para reunir dicha carga es:
3 Z 2e2 Z2
= 0.72 1/ 3 MeV (46)
5 4pe 0 r0 A 1/ 3
A
5. Un término que tiene un mínimo para Z = N y que por tanto tiene en cuenta la tendencia de los
núcleos a tener el mismo número de protones que de neutrones. Este término se escribe como:
( Z – A / 2) 2
+a A (47)
A
en donde aA es positiva.
6. Varios términos que describen la tendencia de los núcleos con un número par de protones y/o
neutrones a estar más profundamente ligados que aquellos núcleos con un número impar de pro-
tones y/o neutrones. Esta tendencia es debida a que el spin de dos nucleones en cada capa es anti-
paralelo. Estos términos tienen la forma empírica:
aP
Z y N par D=– (48)
A
Z par y N impar D=0 (49)
Z impar y N par D=0 (50)
aP
Z y N impar D=+ (51)
A
Z2 ( Z – A / 2) 2
m(AX) = Zm(1H) + (A – Z)mn – aV A + aS A2/3 + aC + a A +D (52)
A 1/ 3 A
Los parámetros se determinan empíricamente ajustando la relación anterior para muchas masas
nucleares diferentes. Un conjunto de estos parámetros que proporciona buenos resultados es el que se
da en la tabla 1.
aV 1.7 ´ 10–2
aS 1.8 ´ 10–2
aC 7.5 ´ 10–4
aA 2.5 ´ 10–2
aP 1.3 ´ 10–2
Con estos parámetros la fórmula (52) proporciona una gran concordancia con el comportamien-
to promedio de las masas medidas de todos los núcleos estables salvo los que tienen un número mási-
co muy pequeño. En la figura 6 se muestra la energía de enlace promedio que se encuentra a partir de
la fórmula semiempírica de la masa.
La fórmula semiempírica de la masa es de gran utilidad ya que es una fórmula sencilla que predi-
ce con una precisión considerable las masas, y por tanto las energías de enlace, de más de 200 núcleos
estables y otra gran cantidad de núcleos inestables.
10
6
B/A
0
0 50 100 150 200 250
A
Figura 6. Energía de enlace promedio por nucleón obtenida
partir de la fórmula semiempírica de la masa.
El modelo de la gota de líquido es el modelo nuclear más antiguo y el más clásico de todos los
modelos nucleares. En la época en que se desarrolló los únicos datos disponibles eran los de algunas
masas nucleares y no se tenía ningún otro conocimiento adicional sobre los núcleos atómicos. Por
tanto, la fórmula semiempírica supuso un gran éxito al poder explicar con sólo 5 parámetros las ma-
sas de cientos de núcleos. En la actualidad, se tiene una visión más detallada y profunda de los térmi-
nos de asimetría y apareamiento (los dos últimos) de los que no se tenía ni siquiera un conocimiento
cualitativo. Por otra parte, el término principal de volumen puede ahora calcularse en términos de los
detalles de la fuerza nuclear.
2
1
DSn
0
–1 Figura 7. Diferencia entre la
–2 energía de enlace del último
–3 nucleón y la predicción de la
20 82 fórmula semiempírica en
28 50 80 110 126 140 función del número de
N neutrones en el núcleo.
Aparte de estas evidencias hay otras menos convincentes a favor de los números mágicos. La
analogía entre los números mágicos electrónicos y nucleares motivó que muchos físicos buscaran
una explicación a la estructura nuclear similar a la estructura atómica, que consiste en un conjunto de
capas cerradas en las que los electrones se mueven idependientemente unos de otros en el potencial
atómico. Sin embargo, en el campo de la física nuclear parecía muy difícil aceptar la idea de que los
nucleones se movieran independientemente en el núcleo. La razón por la que esta idea no era bien
aceptada era que el modelo de la gota líquida había predominado durante muchos años y para este
modelo parecía ser básica la idea de que un nucleón interacciona fuertemente con los nucleones que
le rodean. Si esto era así, los nucleones serían fuertemente dispersados y por consiguiente llevarían
un movimiento errático más cercano al movimiento browniano que al de un electrón que se mueve in-
dependientemente en su órbita atómica.
V(r)
Figura 8. Un modelo de
potencial adecuada utilizado –Vo
en el modelo de capas del
núcleo atómico.
El modelo del gas de Fermi es el punto de partida del modelo de capas, pues establece la validez
de tratar el movimiento de los nucleones ligados en el núcleo de forma independiente suponiendo que
cada uno de ellos se mueve en un potencial promedio. El paso siguiente será elegir un potencial ade-
cuado y realista y resolver la ecuación de Shrödinger para dicho potencial y encontrar así los niveles
energéticos para neutrones y protones. De acuerdo a lo visto en la distribución de carga en el núcleo,
un potencial adecuado puede ser el dado por la expresión (figura 8):
–V0
V (r )= (54)
1+ e ( r – R) / a
Los parámetros R y a son respectivamente el radio medio y el espesor de la superficie y sus valo-
res son, tal como se vio con anterioridad, R = 1.25 A1/3 fm y a = 0.524 fm. El valor de V0 se ajusta para
dar los valores adecuados de la separación de los niveles de energía y es del orden de 50 MeV. Los ni-
veles de energía que se encuentran son los mostrados en la figura 9a. En ella se muestran a la derecha
el número de nucleones que puede haber en cada nivel y entre círculos el número de niveles acumula-
dos hasta ese nivel. Como se puede observar, llenando las capas ordenadamente encontramos los nú-
meros mágicos 2, 8 y 20, pero los números mágicos más altos no surgen de este cálculo.
De los resultados obtenidos anteriormente se deduce que es necesario introducir algunas mejoras
en el potencial de manera que proporcione los números mágicos adecuados pero que al mismo tiempo
respeten el contenido físico del modelo. Durante los años cuarenta se hicieron muchos intentos para en-
contrar las correcciones adecuadas que no tuvieron éxito. Esto se logró en 1949 cuando Mayer, Haxel
Suess y Jensen mostraron que la inclusión de la interacción spin-órbita en el potencial proporcionaba la
separación adecuada entre los niveles de energía. En la figura 9b se muestra el efecto del desdoblamien-
to de los niveles de energía como consecuencia de la inclusión del término de interacción spin-órbita.
Podemos observar que este modelo reproduce los números mágicos correctamente.
4s 2 168
3d 10 166
2g 18 156
1i 26 138
126
112
3p 6 112
2f 14 106
92
1h 22 92 82
3s 2 70
2d 10 68
58
1g 18 58 50
40
2p 6 40
1f 14 34 28
20 20
2s 2 20
1d 10 18
8 8
1p 6 8
2 2
1s 2 2
a) b)
El modelo de capas no sólo predice adecuadamente los números mágicos sino que además tam-
bién predice el momento angular total de los estados base de casi todos los núcleos. También tuvo
éxito a la hora de explicar la paridad de las funciones de onda de los núcleos con un número A impar.
Sin embargo, este modelo fracasaba a la hora de predecir los momentos dipolares magnéticos nuclea-
res y los momentos cuadrupolares eléctricos.
Uno de los modelos más importantes y de más éxito fue el modelo colectivo del núcleo que com-
bina ciertas características del modelo de capas con otras del modelo de gota líquida. Este modelo,
desarrollado principalmente por A. Bohr y B. R. Mottelson parte de la idea de que los nucleones de
las subcapas no llenas de un núcleo se mueven independientemente en un potencial neto creado por
las subcapas llenas del interior del núcleo (core), igual que en el modelo de capas. Sin embargo, el po-
tencial neto debido a las subcapas interiores no es un potencial estático y esféricamente simétrico
como el utilizado en el modelo de capas, sino que es un potencial que experimenta deformaciones.
Estas deformaciones representan el movimiento colectivo de los nucleones del interior del núcleo, tal
como ocurre en el modelo de gota líquida.
El modelo colectivo ha resultado útil para explicar una gran variedad de propiedades nucleares
como por ejemplo los valores altos del momento cuadrupolar eléctrico que presentan algunos núcleos.
Pero su mayor éxito ha sido la explicación de los niveles de energía de los núcleos con un número par de
protones y neutrones. Estos niveles de energía muestran las características de los sistemas rotatorios o
vibratorios que se esperan según la mecánica cuántica. Las propiedades de estos núcleos más común-
mente medidas tales como las anchuras de los niveles de energía de los estados excitados, el momento
angular, el momento magnético y la forma del núcleo, pueden ser entendidas mediante el modelo colec-
tivo.
Modelos más realistas que profundizan en la unificación del modelo de capas y los efectos co-
lectivos, denominados modelos unificados, han sido desarrollados.
4. RADIACTIVIDAD
Se llama radiactividad a la transformación o desintegración espontánea de núcleos atómicos
mediante la emisión de partículas o de radiación electromagnética. Por tanto, en una desintegración
radiactiva o decaimiento radiactivo se produce el cambio de un núcleo inestable, denominado radiac-
tivo, en otro estable mediante la emisión de ciertas partículas. Los núcleos con un exceso de protones
o neutrones, en comparación con el núcleo estable, decaen hacia el núcleo estable cambiando proto-
nes por neutrones o neutrones por protones o también emitiendo neutrones y protones simples o en
combinación. Los núcleos también son inestables si se encuentran en un estado excitado, es decir, si
no se encuentra en su estado de energía más bajo. En este caso, los núcleos también pueden decaer li-
berando su exceso de energía sin cambiar Z o N mediante la emisión de un rayo g.
Un núcleo se encuentra en un estado excitado como consecuencia de una reacción nuclear. Estas
reacciones pudieron ocurrir en eventos naturales hace billones de años en el proceso de formación del
universo dando lugar a lo que denominamos isótopos radiactivos naturales, de los que se conocen
unos 50. El proceso de decaimiento de estos núcleos es lo que se denomina radiactividad natural.
Además hay cientos de isótopos radiactivos obtenidos de forma artificial mediante reacciones nu-
cleares en los laboratorios, cuyos procesos de desintegración denominamos radiactividad artificial.
Los procesos de desintegración radiactiva más importantes son los siguientes:
co más bajo en una unidad. Pero difiere en que va acompañada de la emisión de un fotón
debido a la transición electrónica que se produce desde los electrones más externos hasta la
vacante dejada por el electrón capturado.
En el segundo tercio del siglo XX se han descubierto otros tipos de procesos radiactivos que son:
– Radiactividad de protones: que consiste en la emisión de protones por parte del núcleo
cuando el número de protones es demasiado elevado en relación con el número de neutrones.
– Radiactividad de iones pesados: es un proceso de desintegración espontánea intermedio
entre la desintegración a y la fisión espontánea, que consiste en la emisión de iones pesa-
dos. Fue predicha en 1980 por A. Sandulescu, D.N. Poenaru, y W. Greiner y en 1984, H.J.
14
Rose and G.A. Jones, observaron la emisión de núcleos de carbono C de 30 MeV por par-
223
te de núcleos de Ra.
unos centímetros de aire o una lámina metálica delgada, se denominaron rayos a. Los componentes
más penetrantes, que resultaban absorbidos por 1 mm de plomo, se denominaron rayos b. Los expe-
rimentos para estudiar su desviación por campos magnéticos permitió conocer que ambas radiacio-
nes eran de naturaleza corpuscular y que tenían carga eléctrica. Posteriormente se descubrió un
tercer tipo de radiación todavía más penetrante capaces de atravesar varios centímetros de plomo a
la que se le denominó rayos g. Esta radiación no era desviada por un campo magnético por lo que
era eléctricamente neutra.
Por otro lado, el tiempo de vida o tiempo de vida medio t se define como el tiempo promedio que un
núcleo es probable que sobreviva antes de la desintegración. El número de núcleos que sobreviven al
tiempo t es N(t), y el número de los que se desintegran entre t y t + dt es |dN/dt| dt. El tiempo de vida es
por tanto:
ò
¥
t |dN / dt |dt
t= 0
(59)
ò
¥
0
|dN / dt |dt
en donde el denominador es el número total de desintegraciones. Evaluando las integrales se tiene que:
1
t= (60)
l
De las expresiones (58) y (59) se tiene que la relación entre el tiempo mitad y el tiempo de vida es:
t1/2= ln 2 t= 0.693 t (61)
Se define la actividad A de una muestra radiactiva como el número de núcleos que se desintegran
en la unidad de tiempo. Por tanto, la actividad viene dada por:
en donde A0 = lN0 es la actividad inicial de la muestra. Vemos que las unidades de la actividad son los
núcleos desintegrados por segundo. Una unidad utilizada para medir la actividad es el curie (Ci), que
originalmente designaba la actividad de un gramo de radio y ahora se define como:
1 Ci = 3.7 ´ 10 núcleos · s
10 –1
(63)
La mayoría de las sustancias radiactivas utilizadas en los laboratorios tienen actividades del orden de
los microcuries (mCi) y los milicuries (mCi). En el sistema internacional la unidad de actividad ra-
diactiva se denomina becquerel o becquerelio (Bq):
–1
1 Bq = 1 núcleos · s (64)
Una situación común es aquella en la que un núcleo radiactivo se desintegra y como resultado produ-
ce otro núcleo que a su vez es radiactivo. De esta manera es posible tener una serie de cadenas de desinte-
gración radiactiva: 1 ® 2 ® 3 ® 4 ... Usualmente se suele denominar al núcleo inicial (1) como núcleo
madre, y a las siguientes generaciones como núcleo hijo (2), núcleo nieto (3), y así sucesivamente.
Supongamos que inicialmente tenemos N0 núcleos de la madre y que inicialmente no existe pre-
sencia de los núcleos resultantes de la desintegración. Es decir:
N1 (t = 0) = N0
(65)
N2 (t = 0) = N3 (t = 0) = ... = 0
Denominemos l1, l2, ... a las constantes de desintegración. Por el momento consideremos que el nú-
cleo nieto es un núcleo estable y es el resultado final del proceso radiactivo. El número de núcleos
madre decrece con el tiempo en la forma:
dN1 = –l1N1dt (66)
Por otra parte, el número de núcleos hijo aumenta como resultado del decaimiento del núcleo madre y
disminuye como consecuencia de su propia desintegración:
dN2 = l1N1dt –l2N2dt (67)
Por otra parte, sustituyendo esta expresión en la ecuación (67) y teniendo en cuenta que N1(t) viene
dado por (68) se tiene que:
A[– l 1 e – l1t + l 2 e – l 2 t ] = l 1 N 0 e – l1t – l 2 N 2 (72)
Si ahora asumimos que hay varias generaciones de núcleos radiactivos, podemos generalizar la
expresión (67) y escribir para cada generación:
dNi = li–1Ni–1dt – liNidt (75)
La solución general para el caso que el número de núcleos madre sea N0 y no exista inicialmente nin-
guno de los otros núcleos viene dada por la ecuación de Bateman, en la que la actividad del término n
de la cadena radiactiva viene dada en función de las constantes radiactivas de todos los miembros pre-
cedentes como:
n
A n ( t ) = N 0 å c i e – l1t (76)
i= 1
en donde:
Õ
n
li
i= 1
cm = (77)
Õ
n
(li – lm )
i= 1
4.3.1. Desintegración a
La desintegración a consiste en la emisión por parte de los núcleos radiactivos de partículas a (nú-
cleo de helio 42 He) que constan de dos protones y dos neutrones. Por consiguiente el núcleo resultante
tendrá un número atómico inferior en dos unidades y un número másico inferior en cuatro unidades.
Este tipo de desintegración ocurre frecuentemente en los núcleos pesados con A > 200 que tie-
nen una relación protón neutrón muy grande. La emisión de una partícula a reduce la relación entre
los protones y los neutrones llevando al núcleo a una situación más estable. La desintegración a pue-
de representarse mediante el siguiente proceso:
A
Z XN ® A– 4
Z– 2 X´N–2 + a (78)
La cantidad del primer miembro de la ecuación anterior es la energía neta que se libera en la desinte-
gración, denominada valor Q o energía de la desintegración:
2
Q = (mX – mX´ – ma)c (81)
Si el núcleo inicial se encuentra en reposo, su momento lineal es cero, y por el principio de conserva-
ción del momento lineal se tiene que:
pX´ = pa (83)
La energía liberada en una desintegración a es típicamente del orden de 5 MeV, por lo que tanto para
el núcleo resultante como para la partícula a la energía cinética es mucho menor que su energía en re-
poso y por tanto podemos considerar que ambas partículas satisfacen las ecuaciones de la física clási-
ca y su energía cinética puede escribirse como K = p2 /2m. Utilizando esta expresión de la energía
cinética y haciendo uso de las expresiones (82) y (83) podemos escribir para la energía cinética de la
partícula a:
Q
Ka = (84)
1+ ma / mX¢
Puesto que el núcleo es un núcleo pesado, su masa es mucho mayor que la masa de la partícula a y por
consiguiente la relación entre las masas es pequeña. Aproximando ma 4 y mX´ A, la expresión
anterior puede escribirse como:
Ka = Q(1 – 4/A) (85)
238 234
Un ejemplo de este tipo de desintegración radiactiva es la desintegración del 92 U en 90 Th:
90 Th + a
U ® 234
238
92 (86)
4.3.2. Desintegración b
Bajo el concepto de desintegración b se agrupan tres procesos nucleares: la desintegración elec-
trónica b–, la desintegración positrónica b+ y la captura electrónica.
La emisión de electrones por los núcleos atómicos fue uno de los primeros fenómenos de desin-
tegración radiactiva observados. El proceso inverso que consiste en la captura por parte del núcleo de
un electrón de sus orbitales atómicos fue observado por Álvarez en 1938, y la emisión de positrones
(electrones positivos), denominada desintegración b+, fue observada por primera vez por Pierre Joliot
e Irene Curie en 1934. Estos tres procesos pueden representarse por:
n®p+e desintegración b
– –
(87)
p®n+e desintegración b
+ +
(88)
p+e ®n
–
captura electrónica (89)
No obstante, por lo que vamos a ver a continuación estos procesos están incompletos.
De forma análoga a como se hace en la desintegración a, se define el factor Q como la diferencia en-
tre las energías de masa nuclear inicial y final:
2
Q = (mn – mp – me – mn) c (91)
Si despreciamos la energía cinética de retroceso del protón, la cual es sólo del orden de 0.3 keV, se tiene
que el electrón y el neutrino comparten la energía liberada en la desintegración, lo cual explica el espectro
continuo del electrón. La máxima energía del electrón se obtiene cuando la energía del neutrino es muy
pequeña Q (Ke)máx. El valor de esta energía cinética máxima resulta ser 0.782 ± 0.013 MeV. Utilizando
los valores medidos de las masas del protón, neutrón y electrón, podemos estimar el valor de Q:
2
Q = (mn – mp – me – mn) c
2
= 939.573 MeV – 938.280 MeV – 0.511 MeV – mn c = (93)
2
= 0.782 MeV – mn c
Por tanto, se obtiene dentro de la precisión de la máxima energía medida; debemos considerar que el
neutrino es una partícula con masa en reposo cero. Los experimentos, aunque bastante complicados,
realizados para comprobar la conservación del momento lineal confirman que la suma vectorial del
momento lineal del núcleo y del electrón es consistente con la existencia de una tercera partícula no
observada que transporta energía y que tiene una masa en reposo cero o casi cero.
Puesto que el neutrino es una partícula de masa en reposo cero se mueve a la velocidad de la luz y su
energía relativista En es igual a su energía cinética: En = Kn. Para el electrón, su energía Ee = Ke + mec2. Por
su parte, como la energía del protón de retroceso es pequeña, podemos tratarlo como una partícula
no relativista.
en donde mN indica la masa nuclear. Para convertir estas masas en las masas atómicas tabuladas, que
representamos por m (AX), utilizaremos la relación:
Z
m( A X )c 2 = mN ( AZ X )c 2 + Zme c 2 – å B i (96)
i= 1
en donde Bi es la energía de enlace del electrón i-ésimo. En términos de las masas atómicas, el valor
de Qb– se escribe como:
ìZ
ï Z+ 1 ü
ï
Qb– = [m( X) – Zme]c – [m( X´) – (Z + 1) me]c – mec + íå B i – å B i ý
A 2 A 2 2
(97)
ï
îi = 1 i= 1
ï
þ
Despreciando la diferencia entre las energías de enlaces de los electrones, encontramos que:
A A 2
Qb– = [m( X) – m( X´)]c (98)
en donde las masas son las masas atómicas. Este valor de Q representa la energía compartida por el
electrón y el neutrino:
Qb– = Ke + En (99)
Para el cálculo de Q es necesario tener en cuenta que el átomo X´ después de la captura electrónica se
encuentra en un estado atómico excitado. Esto es debido a que la captura se realiza de un electrón de
una capa interna, por ejemplo la capa K, dando lugar a una vacante en dicha capa. Esta vacante es rá-
pidamente ocupada por un electrón de la capa más alta mediante una transición energética que da lu-
gar a la emisión de rayos X. Tanto si la emisión consiste en uno o varios rayos X, la energía total de
estos rayos es igual a la energía de enlace del electrón capturado. Por tanto, la masa atómica de X´ in-
4.3.3. Desintegración g
La mayoría de las reacciones nucleares, y en particular los procesos de desintegración a y b, pro-
ducen núcleos cuyo estado final corresponde a un estado excitado. Estos estados decaen rápidamente
hacia el estado fundamental mediante la emisión de uno o más rayos g, que son fotones de alta energía
comprendida entre los 0.1 y 10 MeV.
Consideremos el decaimiento o desintegración g de un núcleo de masa en reposo m desde un es-
tado inicial Ei a un estado final Ef. La conservación del momento lineal implica que el núcleo no pue-
de permanecer en reposo sino que debe tener un momento lineal de retroceso p y una energía cinética
correspondiente K, que si asumimos no es relativista está relacionada con el momento por K = p2/2 m.
La conservación de la energía total y el momento nos dan que:
Ei = Ef + Eg + K (106)
r r
0= p+ p g (107)
La conservación del momento lineal establece que el momento lineal del núcleo debe ser igual y
opuesto al del rayo g:
r r
p = – pg (108)
Llamando DE = Ei – Ef y utilizando la relación relativista entre la energía y el momento Eg = c pg, se
tiene que:
E g2
DE = E g + (109)
2mc 2
La solución de esta ecuación es:
é DE ù
E g = mc 2ê–1± 1+ 2 2 ú (110)
ë mc û
Las diferencias típicas DE son del orden de MeV, mientras que la energía en reposo mc2 es del orden
de A ´ 103 MeV, donde A es el número másico. Por tanto DE << mc2 y tomando el primer término del
desarrollo de la raíz cuadrada se tiene que:
( DE ) 2
E g = DE – (111)
2mc 2
Por tanto, la energía máxima de los rayos g es ligeramente menor que la máxima energía disponible
del decaimiento DE. Esta corrección de retroceso a la energía es generalmente despreciable, pues es
del orden de 10–5 que es más pequeña que el error con el cual medimos la energía.
Para rayos g de baja energía, la energía de retroceso es pequeña y tiene efectos despreciables. Para
rayos g de alta energía (entre 5 y 10 MeV) la energía de retroceso es del orden de los 100 eV, la cual pue-
de ser suficiente para sacar el átomo que retrocede de su posición en una red cristalina. Esos efectos se
conocen como daños de la radiación y tienen una gran importancia en el estudio de los sólidos.
El orden de las transformaciones radiactivas en estas series se muestra en la figura 10. Las tran-
siciones diagonales hacia la izquierda corresponden a una desintegración a y las transiciones diago-
nales hacia la derecha a una desintegración b. Podemos observar que las desintegraciones b tienden a
situar la linea de la serie más cerca de la línea de estabilidad.
Figura 10.
Series radiactivas.
Por sus trabajos en la obtención de radiactividad artificial Pierre Joliot e Irene Curie fueron galardo-
nados con el premio Nobel de Química en el año 1935.
Posteriormente se supo que esta misma generación de isótopos radiactivos tiene lugar en las
transformaciones nucleares provocadas por neutrones.
Una vez que un ser vivo muere, se detiene el proceso de intercambio continuo de carbono
con el entorno. El 14C es radiactivo y experimenta una desintegración b, siendo su vida mi-
tad 5730 años. Por consiguiente, la relación de 14C respecto al 12C que para un ser vivo es de
uno entre un trillón será de uno entre dos trillones 5730 años después de la muerte del ser
vivo y de uno entre cuatro trillones después de 11460 años. Las medidas precisas de la can-
tidad de 14C restantes en un material permiten fechar la muerte de un ser vivo.
Para los objetos inertes se puede utilizar otra técnica similar. El isótopo 40K se desintegra en
40
Ar, que puede almacenarse en las rocas, con un período de tiempo mitad de 1.3 ´ 109 años.
Por tanto, podemos medir la cantidad de 40Ar que surge de la desintegración del potasio ra-
diactivo y comparar esta cantidad con la cantidad de 40K que permanece en la roca. A partir
de esta comparación se puede estimar la edad de la roca.
Esta técnica puede usarse para determinar la edad de nuestra galaxia y la edad de la Tie-
rra. Utilizando la desintegración del uranio y del torio, podemos estimar que la edad de
nuestra galaxia está comprendida entre los 10 y los 20 billones de años, y la de la Tierra es
de 4.6 millones de años.
6. MEDIDAS DE SEGURIDAD
El conocimiento de los efectos de la radiación ionizante proviene de los estudios realizados so-
bre grupos de personas expuestos a esta radiaciones, de experimentos con animales y de los estudios
realizados a nivel celular y molecular. Como es bien conocido, la radiación ionizante tiene efectos in-
mediatos y efectos a medio y largo plazo. Una exposición a altas cantidades de radiación es mortal en
un período de tiempo de varios meses. A exposiciones medias se produce un aumento de la posibili-
dad de desarrollo de tumores en un período de 10 años. A bajos niveles de exposición, el riego de cán-
cer disminuye, pero no se conoce cuál es la relación entre riesgo de cáncer y la cantidad de radiación
recibida. Por otra parte, la exposición a la radiación ionizante de los fetos dan lugar a malformaciones
genéticas y retraso mental.
Es evidente, por tanto, que es necesario tomar un conjunto de medidas que tiendan a minimizar los
riesgos que supone la exposición a la radiación ionizante. La mayoría de países cuentan con una norma-
tiva que regula las dosis máximas de exposición tanto del público en general como de los trabajadores
de los centros en donde habitualmente se trabaja con isótopos radiactivos, no sólo en centrales nuclea-
res, sino también en centros médicos de diagnóstico o terapia nuclear y recintos de investigación.
Una primera medida básica de seguridad consiste en la construcción adecuada tanto de los apara-
tos que utilizan isótopos radiactivos como de aquellas instalaciones de uso o producción de estos radioi-
sótopos. Es necesario tener en cuenta que el poder de penetración de las partículas resultantes de la
desintegración radiactiva depende del tipo de desintegración. Así, las partículas a pierden su energía al
atravesar varios centímetros de aire, mientras que los rayos g pueden atravesar espesores de un metro de
plomo y hormigón. En consecuencia, en el diseño habrá que reforzar los contornos de aparatos e insta-
laciones de manera que pueda realizarse una confinación adecuada de la radiación resultante.
Una segunda medida básica consiste en una adecuada manipulación de los productos radiacti-
vos que permita controlar su presencia. Esto supone el diseño adecuado de los habitáculos así como el
cumplimiento de estrictas normas de conductas del personal.
Por último, es de suma importancia el control y manipulación de los residuos radiactivos resultan-
tes del uso de radioisótopos. Estos productos pueden mantener una radiación residual o bien pueden ser
a su vez radiactivos con vidas medias de miles de años. Por consiguiente, es necesario almacenarlos en
depósitos de plomo y hormigón perfectamente sellados y colocados en zonas geológicas adecuadas de
manera que se garantice su no destrucción. El problema no es, evidentemente, sencillo y es precisamen-
te la ubicación de estos cementerios radiactivos, junto con el riego de accidentes en centrales nucleares,
lo que hace del uso de la energía nuclear un tema extremadamente controvertido.
BIBLIOGRAFÍA
36
Fuerzas fundamentales de la
naturaleza: gravitatoria,
electromagnética, fuerte y
débil. Partículas implicadas.
Estado actual de las teorías de
unificación
ÍNDICE SISTEMÁTICO
2. FUERZA FUERTE
3. FUERZA ELECTROMAGNÉTICA
4. FUERZA DÉBIL
5. FUERZA GRAVITATORIA
BIBLIOGRAFÍA
Según el modelo estándar existen 6 leptones y 6 quarks, todos tienen spin 1/2 y por tanto son fer-
miones que obedecen al principio de exclusión de Pauli. Los leptones son los electrones (e), los muo-
nes (m) y los tauones (t), que tienen carga eléctrica –e, y sus tres neutrinos (ne, nm, nt), con carga
eléctrica cero. Tenemos por tanto tres grupos de leptones:
æv e ö æ v ö æv ö
ç ÷ ç m÷ ç t ÷
ç ÷ ç ÷
÷ ç ÷
(1)
èeø ç èmø èt ø
De forma análoga, la teoría supone la existencia de 6 tipos o sabores de quarks conocidos como
arriba (u), abajo (d), encanto (c), extraño (s), cima (t) y fondo (b), cuyos nombres provienen del inglés
up, down, charm, strange, top y bottom. Los nombres de los quarks son absolutamente arbitrarios y
no encierran ningún significado. En la física de los quarks es frecuente encontrar este tipo de termino-
logía caprichosa, como veremos más adelante. La carga eléctrica de los quarks es de 2e/3 para los
quarks u, c y t, y –e/3 para los quarks d, s y b:
æu ö æc ö æ t ö
ç ÷ ç ÷ ç ÷
ç ÷ ç ÷ ç ÷ (2)
èd ø ès ø èbø
Las masas de los quarks no se conocen con exactitud debido a que no se observan de forma aislada
como partículas libres, sino sólo en estados ligados formando hadrones. No obstante se estima que las ma-
sas se encuentran entre los 300 MeV y los 5 GeV. Al igual que cada leptón tiene asociado un antileptón de
características iguales pero de carga opuesta, a cada quark le corresponde un antiquark de las mismas ca-
racterísticas pero con carga opuesta. En la tabla 1 se resumen algunas de las características de los quarks.
Aunque los quarks tienen una carga fraccionaria, ésta nunca es observada directamente debido a
que los quarks nunca se presentan solos, sino agrupados formando partículas compuestas denomina-
das hadrones, la carga de un hadrón siempre es un número entero. Por otra parte, según una teoría de-
nominada cromodinámica cuántica, además de la carga eléctrica, los quarks transportan una carga de
color que desempeña el mismo papel que la carga eléctrica en la interacción electromagnética.
Obviamente, este término no tiene nada que ver con los colores visuales, sino que es sólo una manera
conveniente de postular una propiedad de los quarks para explicar su comportamiento. Se supone que
sólo existen tres tipos de carga de color denominadas roja (r), verde (v) y azul (b), junto con las anti-
cargas de color: antiroja, antiverde y antiazul. Una combinación de tres quarks con tres colores dife-
rentes o de un quark con un antiquark con la correspondiente anticarga de color da lugar a un sistema
de color neutro o sin color (blanco). Los hadrones son combinaciones de quarks sin color.
Existen dos tipos de hadrones: los bariones y los mesones. Los bariones están compuestos por
tres quarks (u, d, s) mientras que los mesones están compuestos por un quark y un antiquark. Por esta
razón, los bariones poseen spin 1/2 o 3/2 que corresponden a las orientaciones del spin de los quarks
(¯) y (), mientras que los mesones son bosones de spin 0 (¯ ) o 1 ( ). En la tabla 2 se
muestra la estructura de algunos hadrones. Las resonancias son estados excitados de las combinacio-
nes de quarks. El modelo explica otras muchas cuestiones, como por ejemplo el hecho de que los neu-
trones que son una combinación (ddu) tienen carga eléctrica cero, pero posee un momento magnético
que resulta de combinar el momento magnético de los quarks que lo forman.
1
Bariones (spin ) Estructura Mesones (spin 0) Estructura
2
p uud p+ ud
n ddu p0 uu + dd
S+ uus p– ud
S0 uds K+ us
S– dds K0 ds
Ù0 uds h0 uu – dd
Tabla 2. Estructura de quarks de algunos hadrones.
culas cargadas ejercen fuerzas entre ellas a través del campo elec-
tromagnético creado por las partículas. Ahora bien, también sabe-
mos que la radiación electromagnética puede considerarse como
un haz de partículas denominadas fotones. En base a esta dualidad
onda-partícula, podemos considerar que la fuerza electromagnéti-
ca que experimenta una partícula es debido al campo electromag- Figura 1. Diagrama de
nético creado por la otra, o bien, a un intercambio de fotones entre Feynman que muestra cómo
ambas. Este es el punto de vista de la electrodinámica cuántica, y el actúa un fotón como portador
diagrama que describe la fuerza electromagnética como conse- de la fuerza electromagnética
cuencia del intercambio de fotones entre las partículas cargadas se entre dos electrones.
denomina diagrama de Feynman. En la figura 1 se muestra el dia-
grama correspondiente al caso más sencillo en el que una de las partículas emite un fotón y retrocede,
y la segunda partícula absorbe el fotón. En una interacción así, se transfiere energía y momento de
una partícula a la otra siendo el fotón el que transporta esa energía y momento. Puesto que el fotón
emitido por una de las partículas es absorbido muy poco tiempo después por la otra partícula, no se
observa. Por esta razón se le denomina fotón virtual, en contraposición a los fotones libres que sí pue-
den detectarse con los instrumentos de medida adecuados.
El intercambio de estas partículas virtuales puede dar lugar a
fuerzas atractivas o repulsivas. Así por ejemplo, un electrón repele a
otro electrón cuando uno de ellos emite un fotón y el otro lo absorbe; p n
y, de la misma forma, un electrón y un protón se atraen también me-
diante la emisión y absorción de un fotón. Este mecanismo, que a la
vista parece poco intuitivo, puede entenderse mediante un ejemplo mesón
sencillo. Supongamos dos niños patinando en una superficie helada
y supongamos que uno de ellos lleva una pelota pesada. Si uno lanza n
la pelota hacia el otro, el intercambio de momento hace que los dos p
se separen (interacción repulsiva). Sin embargo, si uno intenta arre-
batar la pelota al otro tienden a unirse (interacción atractiva).
La idea de Yukawa era similar a las expuestas anteriormente:
en analogía al intercambio de fotones como intermediarios de la
fuerza electromagnética, debía existir una partícula que fuera inter-
Figura 2. Intercambio de un
mediaria de la fuerza nuclear fuerte, responsable de mantener uni- mesón cuando un protón y un
dos los núcleos atómicos (figura 2). De la misma forma que el fo- neutrón interactúan mediante
tón es el cuanto del campo o de la fuerza electromagnética, la nue- la fuerza nuclear fuerte.
va partícula debería ser el cuanto de la fuerza nuclear fuerte. La
predicción de Yukawa era que la partícula debía tener una masa intermedia entre el electrón y el pro-
tón, por lo que se le denominó mesón (del griego mesos, que significa intermedio). Podemos estimar
de forma aproximada la masa del mesón como sigue. Para que se emita un mesón se debe crear su masa
de la nada, lo que violaría el principio de conservación de la energía. Ahora bien, el principio de incerti-
dumbre de Heisenberg establece que:
DEDt ³h (3)
El principio establece que para medir una energía de un estado con una incertidumbre de DE dicho
estado debe existir al menos durante un tiempo Dt ³h/DE. Por tanto, si se crea una partícula de
energía DE durante un tiempo menor que el indicado, la partícula no podrá ser observada y el prin-
cipio de conservación de la energía se mantiene. La masa del mesón estará relacionada con la ener-
gía por DE = mc2. Por otra parte, si suponemos que el mesón viaja a velocidad cercana a la de la luz,
se tendrá que Dt = R/c, siendo R la separación máxima entre los nucleones que interactúan. De esta
manera, de la expresión (3), se tiene que:
R hc
mc 2 h Þ mc 2 = (4)
c R
Si tenemos en cuenta que el valor del alcance de la fuerza nuclear fuerte es del orden de 1,5 fm =
= 1,5 ´ 10–15 m, de la expresión anterior se tiene que:
(1,05 ´ 10–34 J× s) (3 ´ 108 m / s)
mc 2 = = 2,2 ´ 10–11 J = 130 MeV (5)
1,5 ´ 10–15 m
Lo que acabamos de ver es una característica de todas las partículas virtuales que se intercambian en
los procesos de interacción: el tiempo entre la emisión y la absorción es tan corto que no puede detec-
tarse la no conservación de la energía. En el caso de los fotones, puesto que el alcance de la fuerza
electromagnética es infinito R = ¥, según lo que acabamos de ver su masa en reposo debe ser cero.
Al igual que los fotones existen como partículas libres, se esperaba que los mesones también exis-
tieran como partículas libres y pudieran ser observados directamente. En 1937 se descubrió una partícu-
la en los rayos cósmicos cuya masa era igual a 106 MeV. Su valor era cercano al predicho por Yukawa,
pero se encontró que esta partícula, a la que se denominó mesón m o muón, no interactuaba fuertemente
con la materia, por lo que era imposible que pudiese actuar como intermediaria de la fuerza nuclear
fuerte. La partícula predicha por Yukawa fue descubierta en 1947 y se le denominó mesón p o pión. El
pión presenta tres estados de carga positiva, negativa o neutra. Los mesones p+ y p– tienen una masa
igual a 139,6 MeV , y el pión p0 una masa igual a 135 MeV. Después de su descubrimiento en los rayos
cósmicos, los piones fueron producidos en los aceleradores de partículas en las colisiones pro-
tón-protón. Algunas de las reacciones observadas son:
0
p+p®p+p+p (6)
+
p+p®p+n+p (7)
+ –
p+p®p+p+p +p (8)
De la misma manera que en electrodinámica cuántica la fuerza electromagnética viene del inter-
cambio de fotones virtuales entre las partículas eléctricamente cargadas que interactúan, en cromodi-
námica cuántica la interacción fuerte surge del intercambio de gluones virtuales entre las partículas
con carga de color. Al hacer este intercambio estas partículas con carga de color quedan pegadas. La
diferencia principal entre la fuerza electromagnética y la fuerza de color es que los gluones poseen
ellos mismos carga de color, mientras que los fotones no tienen carga de color ni carga eléctrica. Dos
o más quarks cercanos entre sí intercambian rápidamente gluones, creando un campo de fuerza de co-
lor. Los gluones transportan pares de color/anticolor. Si bien existen 9 combinaciones posibles de pa-
res color/anticolor debido a consideraciones de simetría se elimina una, con lo que un gluón puede
transportar una de las ocho posibles combinaciones de color/anticolor. La carga de color se conserva
siempre, así, cuando un quark emite un gluón el color del quark cambia de manera que se conserve la
carga de color. Así, cuando un quark rojo emite un gluón rojo/antiazul se transforma en un quark azul
y el color neto sigue siendo el rojo. Dentro de los hadrones, los quarks emiten y absorben gluones
muy rápidamente, de modo que no es posible observar el color de un quark individual. En un hadrón,
los dos quarks que intercambian un gluón cambian de color de forma que el sistema se mantenga en
un estado de color neutro.
Cuando quarks y antiquarks se combinan para formar hadrones, ya no pueden ser separados, y a
esta propiedad se le denomina confinamiento de los quarks. Esto se debe a que los gluones producen
una fuerza que aumenta rápidamente con la distancia. De esta manera se explica por qué no hay
quarks libres en el universo, porque fueron confinados poco después de la Gran Explosión.
Al igual que ocurre con la fuerza electromagnética y la fuerza nuclear fuerte, las otras dos fuer-
zas fundamentales de la naturaleza, la fuerza nuclear débil y la fuerza gravitatoria, son también el re-
sultado del intercambio de partículas virtuales. La fuerza nuclear débil, responsable de la desintegra-
ción b y de otras reacciones en las que intervienen neutrinos, es una fuerza de corto alcance causada
por el intercambio de partículas virtuales masivas denominadas bosones W+, W– y Z0. Estas partícu-
las fueron descubiertas en 1983 en el laboratorio europeo del CERN en Ginebra en el transcurso de
experimentos de colisión protón-antiprotón. Los leptones no poseen carga de color e interactúan en-
tre sí y con los quarks mediante la interacción electromagnética y débil intercambiando bosones g,
W± o Z0. Ambas interacciones se pueden combinar en lo que denominamos teoría electrodébil, esta-
blecida a mediados de los años sesenta por Weinberg, Glashow y Salam. Los quarks que sí tienen car-
ga de color interactúan entre ellos a través de la interacción fuerte intercambiando gluones. En estos
procesos, los quarks cambian de color pero no de sabor, mientras que los procesos debidos a las inte-
racciones débiles pueden cambiar de sabor pero no de color.
En cuanto a la fuerza gravitatoria, al igual que la fuerza electromagnética, es una fuerza de largo
alcance. Para este tipo de fuerzas se requiere que Dt sea mucho más grande y DE mucho más pequeño
que para las fuerzas de corto alcance como la fuerza nuclear. De hecho, la teoría cuántica de campos es-
tablece que las fuerzas de largo alcance son debidas a partículas de masa en reposo cero. Así, la fuerza
electromagnética es producida por el intercambio de fotones virtuales, y la fuerza gravitatoria es causa-
da por el intercambio de unas partículas virtuales denominadas gravitones, todavía no detectadas.
En la tabla 3 se muestran las fuerzas fundamentales de la naturaleza, ordenadas en función de su
intensidad relativa, y se especifica la partícula virtual (bosón gauge) que provoca la interacción.
A continuación vamos a estudiar las características de cada una de estas interacciones funda-
mentales y haremos mención a las partículas portadoras de fuerza asociadas a cada una de ellas.
2. FUERZA FUERTE
La fuerza fuerte, también denominada fuerza nuclear fuerte, es
la que mantiene unidos los protones y neutrones que componen los
n
p núcleos atómicos y contrarresta la repulsión mutua entre los proto-
nes cargados positivamente que tienden a separar los núcleos. Es la
fuerza fundamental más intensa y es de corto alcance, del orden de
10–15 m, es decir el diámetro de un núcleo de tamaño medio.
p n
Ya que los protones y neutrones que forman los núcleos están
p
constituidos a su vez por quarks y se considera que los quarks se
mantienen unidos mediante la fuerza de color, la fuerza fuerte pue-
de ser considerada como una fuerza de color residual.
La partícula de intercambio en la interacción fuerte son los piones
(mesones p) como se muestra en la figura 3. Estas partículas son meso-
Figura 3. Diagrama de nes (partículas de masa intermedia) que están compuestas por un quark
Feynman para la interacción y un anti-quark. Como todos los mesones, el pión es un bosón que son
fuerte. partículas que tienen spin entero y por tanto no están limitados por el
principio de exclusión de Pauli. En la tabla (4) se muestran las caracte-
rísticas fundamentales de estas partículas.
Masa en
Partícula Símbolo Antipartícula Constituyentes Vida media Decaimiento
reposo
uu + dd
Pión p0 p0 135,0 0,83 ´ 10–16 2g
2
verde
azul
p – + AZ N ® n+ AZ –– 11 N (10)
3. FUERZA ELECTROMAGNÉTICA
Desde el punto de vista macroscópico es la fuerza, junto con la gravitatoria, que experimenta-
mos en la vida diaria. Es la segunda fuerza en intensidad, pero aun así es el 1% de intensa que la fuer-
za nuclear fuerte. La fuerza electromagnética se manifiesta a través de la fuerza entre cargas (ley de
Coulomb) y de la fuerza magnética, ambas aglutinadas en la fuerza de Lorentz. Ambas fuerzas son
manifestaciones de una fuerza de intercambio en la que se producen intercambio de fotones.
La fuerza electromagnética es inversamente proporcional al cuadrado de la distancia y por con-
siguiente es de alcance infinito. Es la responsable de la fuerza de atracción que mantiene unidos a los
electrones con los protones formando los átomos. Por otra parte, las fuerzas electromagnéticas resi-
duales entre átomos eléctricamente neutros son también las responsables de unir átomos para formar
moléculas. A distancias atómicas y moleculares la fuerza electromagnética es más intensa que las
otras tres fuerzas fundamentales, cuyos efectos pueden despreciarse en la determinación de la estruc-
tura atómica y molecular.
La partícula de intercambio responsable de la interacción elec-
tromagnética es el fotón. Es decir, los fotones (o partículas g) son
las partículas portadoras de la fuerza electromagnética. Así, por e- g e-
ejemplo, la fuerza entre dos electrones puede visualizarse en térmi-
nos de los diagramas de Feynman como se muestra en la figura 5. El
alcance infinito de la fuerza electromagnética es consecuencia de
que la masa en reposo de los fotones es cero. Pero si bien su masa en e- e-
reposo es cero, el momento de los fotones es finito, por lo que puede
ejercer una fuerza. Por otro lado, los fotones son partículas de spin
igual a la unidad. Por tanto, en aquellos procesos electrónicos en los
que se produzca la emisión de un fotón el resultado debe ser la dis-
minución del momento angular del sistema en una unidad. Esto
constituye una de las reglas de selección que permiten establecer Figura 5. Diagrama de
qué transiciones electrónicas pueden producirse y qué transicio- Feynman para la fuerza
nes no pueden tener lugar. electromagnética.
4. FUERZA DÉBIL
La fuerza débil ocurre para todas la partículas fundamentales excepto para los gluones y fotones
e implica el intercambio y la producción de bosones intermedios W o Z. Puesto que las masas de estas
partículas es del orden de 80 GeV, el principio de incertidumbre establece que el alcance de esta fuer-
za es del orden de 10–18 m, es decir, alrededor de la centésima parte del diámetro de un protón. Debido
a este alcance muy corto los efectos de la fuerza débil son despreciables en la materia ordinaria, sin
embargo juegan un papel crucial en la estructura del universo que conocemos hoy. Así, se tiene que:
1. El Sol no podría quemarse sin ella, ya que la interacción débil es la responsable de la transmuta-
ción de los protones en neutrones de manera que se puede producir deuterio que puede fusionarse.
2. Es necesaria para la formación de los núcleos pesados.
El papel tan importante que representa la interacción débil es debido a que esta fuerza débil es la
responsable de los cambios de sabor de los quarks: cualquier tipo de quark puede convertirse en otro
tipo con una carga eléctrica diferente emitiendo o absorbiendo un bosón W. Es decir, que hay unas
pautas en el decaimiento de los quarks: un quark de carga +2/3 (u, c, t) se transforma en un quark de
carga –1/3 (d, s, b), y viceversa. Esto se debe a que el proceso tiene lugar por el intercambio de boso-
nes W cargados, los cuales deben cambiar la carga en una unidad. Por otra parte, la pauta general es
que los quark decaen desde un quark masivo a otro menos masivo, pero de entre todos estos al quark
más masivo posible. Esto se debe a que el proceso contrario violaría el principio de conservación de
la energía. Sin embargo, en los procesos de dispersión se pueden producir los procesos inversos con
tal de que se disponga de suficiente energía.
En la figura 6 se indican esquemáticamente las probabilidades de las diferentes posibles transicio-
nes entre quarks y a continuación se dan algunos de los procesos en los que tienen esas transiciones:
+ +
p + p ® p n + e + ne (u ® d + W ) (11)
n ® p + e– + n e (d ® u + W – ) (12)
K– ® p 0 + e– + n e (s ® u + W – ) (13)
2
10 s
Más probable
3
Raro 10
c
b
Muy raro 104
105
t
El papel de la interacción débil en la transmutación de los quarks hacen que esta interacción se
vea involucrada en muchos procesos de decaimientos de partículas nucleares que requieren el cambio
de sabor de un quark. Cualquier proceso en el que el número de partícula menos el número de antipar-
tículas de un tipo de quark o leptón dado cambia es un proceso de decaimiento débil en el que se pro-
duce un intercambio de bosones W. El decaimiento débil es, así, el responsable de que la materia
ordinaria esté compuesta de quarks arriba y abajo y de electrones. La materia que contiene quarks
más masivos o leptones más masivos sería inestable.
Los procesos que involucran bosones Z son todavía más difíciles de encontrar y no fueron reco-
nocidas hasta que la teoría electrodébil predijo su existencia a principios de los años setenta. A partir
de entonces, cuidadosas investigaciones encontraron procesos que sólo podían explicarse mediante
este tipo de interacción. El descubrimiento en 1983 de los bosones W y Z confirmó las teorías electro-
débil que conectan la fuerza débil con la electromagnética.
La interacción débil fue reconocida por primera vez cuando se intentó catalogar los tipos de ca-
denas de decaimiento radiactivo nuclear como el decaimiento a, b y g. Los decaimientos a y g pueden
entenderse en términos de otras interacciones conocidas (residual fuerte o electromagnética, respecti-
vamente), pero el decaimiento b era imposible de explicar sin la introducción de otro tipo de interac-
ción, denominada débil. Un proceso de decaimiento b es un proceso en el que un neutrón desaparece
y se produce un protón, un electrón y un antineutrino del electrón. De acuerdo con el modelo estándar
el neutrón se compone de un quark arriba (up) y dos quarks abajo (down) mientras que el protón está
formado por dos quarks arriba y uno abajo. Por consiguiente, en el decaimiento desaparece un quark
abajo y se producen un quark arriba y un bosón W. El bosón entonces desaparece dando lugar al elec-
trón y al antineutrino del electrón. Este proceso es el que se produce en la figura 7a. En ella podemos
ver los diagramas de Feynman de otros procesos en el que se producen intercambios de bosones W o
Z. En la figura 7b se representa la interacción de un neutrón y de un neutrino mediante el intercambio
de un bosón W– de manera que el neutrón se transforma en un protón y el neutrino en un electrón. Este
mismo proceso se representa en la figura 7c en el que se obtiene el mismo resultado. Vemos que la ab-
sorción del bosón W– por el neutrino es equivalente a la absorción del bosón W+ por el neutrón. Por
último en la figura 7d se muestra cómo el neutrón o protón puede interactuar con un neutrino o anti-
neutrino por medio del intercambio de un bosón Z0.
_ n, p _
n _
_
e n, n
e _
e
n p p
- Z0
W -
p W
n n W+ n
p, n _
n, n
a) b) c) d)
5. FUERZA GRAVITATORIA
La fuerza gravitatoria es la más débil de las cuatro fuerzas fundamentales de la naturaleza y es
una fuerza de largo alcance. La interacción gravitatoria tiene lugar entre dos objetos que tienen ener-
gía, siendo la masa una de las formas de esta energía (recordemos que los fotones son partículas de
masa en reposo cero pero que experimentan la fuerza gravitatoria).
La interacción gravitatoria entre las partículas fundamentales es extremadamente débil (aproxi-
madamente 30 órdenes de magnitud más pequeña que la interacción débil), por lo que sus efectos son
ignorados en los procesos de la física de partículas en la que se ven involucradas un número pequeño
de éstas. Sin embargo, a escala macroscópica la fuerza gravitatoria es la responsable de la estructura
del universo y de la formación de estrellas y galaxias. La razón por la que la fuerza gravitatoria es una
fuerza importante es que no hay energía negativa, por lo que los efectos gravitatorios de todos los ob-
jetos se suman. Imaginemos por ejemplo la Tierra: las cargas eléctricas están equilibradas, por lo que
la fuerza electromagnética sobre un objeto en la superficie terrestre será pequeña; por el contrario las
masas de todos los objetos sobre la superficie terrestre se suman para dar lugar a un efecto gravitato-
rio importante sobre los objetos en la superficie. Desde el punto de vista fundamental, la fuerza gravi-
tatoria es la menos entendida de todas ellas. Se piensa que la partícula portadora de fuerza
responsable de la interacción es un bosón sin masa (como el fotón) y de spin 2 denominado gravitón.
Sin embargo, no hay hoy en día una teoría cuántica de la gravitación satisfactoria. Además, la natura-
leza extremadamente débil de la fuerza gravitatoria hace que sus efectos se vean tapados por la inten-
sidad de las otras fuerzas, por lo que resulta tremendamente difícil la detección de los gravitones.
neral es que en el origen del universo, cuando la temperatura era muy alta comparada con la actual, las
fuerzas fuerte, débil y electromagnética estaban unificadas en una sola fuerza. Sólo cuando la tempera-
tura descendió se produjo la separación de estas fuerzas: en primer lugar se separó la fuerte, y posterior-
mente la débil y la electromagnética. El proceso de separación de estas fuerzas se conoce como ruptura
espontánea de la simetría. Otra especulación es que a temperaturas todavía más altas (escala de Planck)
las cuatro fuerzas fundamentales estaban unidas en una sola fuerza y al descender la temperatura la gra-
vitación se separó de las otras fuerzas fundamentales. Como se puede apreciar en la figura 8 estas sepa-
raciones tuvieron lugar en instantes diferentes de la evolución del universo, a partir del big bang, y a
temperaturas muy por encima de la temperatura actual del universo (10–12 GeV). En consecuencia, los
físicos ambicionan formular una teoría que unifique todas las fuerzas fundamentales en una.
Las teorías que postulan la unificación de las fuerzas fuerte, débil y electromagnética se denomi-
nan teorías de gran unificación, conocidas también abreviadamente como GUTs (iniciales del inglés
Grand Unified Theories). Las teorías que añaden la fuerza gravitatoria e intentan unificar las cuatro
fuerzas fundamentales se denominan teorías de superunificación (Superunified Theories).
A continuación vamos a exponer de forma breve los pasos dados en el campo de la física teórica
para encontrar esa teoría de la unificación de las fuerzas fundamentales y vamos a comentar los éxitos
parciales y los problemas encontrados en cada una de las teorías.
La primera teoría gauge fue la teoría electromagnética de Maxwell. El carácter de la simetría que
hace que la teoría de Maxwell sea una teoría gauge puede ser entendido con un ejemplo sencillo. Su-
pongamos que en un laboratorio tenemos una distribución de cargas y que medimos el campo electro-
magnético producido por la distribución. Es evidente que si las cargas son estacionarias no habrá
campo magnético. Si ahora elevamos todo el sistema a un potencial más alto y se repiten las medidas
no se observará ningún cambio en el campo eléctrico, puesto que el campo eléctrico depende de la di-
ferencia de potencial y no del valor absoluto del potencial eléctrico. Esta propiedad de la teoría del
campo electromagnético de Maxwell corresponde a una simetría: el campo eléctrico es invariante
respecto a la suma de un potencial constante arbitrario. Un aspecto interesante que merece la pena
destacar es que la simetría descrita anteriormente es de tipo global y no local. Si se aumentara el po-
tencial en una región del laboratorio y en otra no, los resultados experimentales serían distintos. Aho-
ra bien, la teoría electromagnética de Maxwell estudia no sólo las distribuciones estáticas de carga
sino también las cargas en movimiento, que dan lugar a campos magnéticos. Son precisamente los
efectos del campo magnético los que hacen que la teoría electromagnética sea simétrica localmente.
La moderna teoría que explica la interacción electromagnética es la electrodinámica cuántica,
conocida abreviadamente como QED, de las iniciales en inglés de Quantum Electrodynamics. El sis-
tema matemático que describe la teoría está relacionado con un grupo de simetría que se designa por
U(1). Esta simetría refleja dos hechos: la conservación de la carga y que el fotón no tenga masa. El 1
significa que el fotón sólo interacciona con una clase de partículas en un instante. Según esta teoría la
interacción protón-protón constituye una medida de la intensidad mínima de la interacción electro-
magnética. Esta cantidad se denomina constante de acoplamiento electromagnética y constituye una
medida de la interacción electromagnética. Esta constante de acoplamiento se designa por aE.
La electrodinámica cuántica ha sido el modelo utilizado para construir las teorías que abordan
las otras fuerzas de la naturaleza. Es el caso, por ejemplo, de la teoría que hoy prevalece para la fuerza
fuerte, denominada cromodinámica cuántica o QCD que se construyó sobre los mismos principios
que la QED. Ahora bien, la electrodinámica cuántica es una teoría más compleja debido a que en la
fuerza fuerte actúan tres clases de fuerza de color. La cromodinámica cuántica es una teoría SU(3), en
donde el 3 se refiere a los tres colores que se transforman en las interacciones a través de los gluones y
la S indica que la suma de la carga de color en cada familia SU(3) es nula. La simetría de la teoría está
relacionada con la conservación de la carga de color y con el hecho de que los gluones carecen de
masa. Al igual que en la QED, la intensidad de la fuerza fuerte viene dada por un parámetro de aco-
plamiento designado por as que disminuye con la distancia, o lo que es lo mismo disminuye confor-
me aumenta la energía.
Para el análisis de la fuerza débil es necesario tener en cuenta el momento angular de spin. Tanto
leptones como quarks son partículas de spin 1/2, por lo que el momento angular sólo puede tener dos
orientaciones posibles. Cuando el momento de spin está alineado con la dirección del movimiento de
la partícula se dice que la partícula es dextrógira, mientras que en el caso contrario se dice que es levó-
gira. En general, una partícula tiene componentes dextrógiro y levógiro y deben distinguirse los esta-
dos de diferente helicidad debido a que la fuerza débil actúa de diferente manera sobre las componen-
tes dextrógiras y levógiras. Al igual que el resto de fuerzas, la intensidad de la fuerza débil se puede
definir mediante una constante de acoplamiento designada por aw. También de forma análoga a las
demás fuerzas, la fuerza débil se encuentra asociada a una carga, sin embargo es poco usual debido a
que la carga depende de la helicidad. Desde el punto de vista de la teoría de grupos, la fuerza débil se
describe mediante una teoría SU(2), debido a que la fuerza débil actúa sobre dobletes de partículas en
la que los dos miembros del doblete pueden transformarse entre sí.
Las relaciones encontradas entre la teoría electromagnética y la teoría de la fuerza débil llevaron
a formular una teoría unificada para ambas fuerzas denominada teoría estándar electrodébil y desig-
nada por el producto de los grupos de simetría que incorpora: SU(2) U(1). Para poder llegar a esta
conclusión era necesario aclarar el mecanismo por el que el fotón (mediadores de la interacción elec-
tromagnética) llega a tener masa cero, mientras que los bosones W y Z (mediadores de la interacción
débil) tienen una masa grande. La respuesta más aceptada es que efectivamente la fuerza electrodébil
es simétrica y originalmente todos los mediadores son de masa cero, pero la estructura no simétrica
del vacío es la que rompe espontáneamente la simetría, dando lugar a que los mediadores de la fuerza
débil adquieran masa, mientras que el fotón sigue con masa nula. Sin embargo, la teoría electrodébil
es una teoría de unificación parcial puesto que incluye todavía dos fuerzas diferentes, cada una con su
grupo de simetría y su propia constante de acoplamiento, siendo el cociente de ambas constantes un
parámetro libre que se elige para ajustar los datos experimentales.
El modelo estándar hace muchas previsiones, las cuales están siendo chequeadas en los acelera-
dores de partículas, pero presenta algunas deficiencias importantes. Por ejemplo: no predice los valo-
res de las constantes de acoplamiento, no explica por qué hay tres generaciones de leptones y quarks y
tampoco predice las masas de los leptones y de los quarks. Por otra parte hay algunas cuestiones que
permanecen abiertas como son la posible existencia de una relación entre la fuerza fuerte y electrodé-
bil, la relación entre leptones y quarks, y por supuesto la incorporación de la gravedad a las demás
fuerza fundamentales. La respuesta a estas cuestiones va mas allá del modelo estándar y nos lleva a
las teorías de gran unificación, las teorías supersimétricas y la teoría de las supercuerdas.
Las partículas que están emparejadas por la supersimetría deben tener la misma masa. Puesto
que las partículas que se conocen en la actualidad no se producen en parejas con la misma masa, la su-
persimetría debe romperse a alguna escala energía. Por encima de esta energía la supersimetría se
pondría de manifiesto pero no por debajo de ella. En consecuencia, los supercompañeros deberían ser
observados en aceleradores de partículas que operen a energía por encima de la energía límite.
Hay algunos indicios que apuntan a que la supersimetría tendría lugar a una energía del orden del
TeV, de manera que las masas de las partículas supercompañeras de las partículas del modelo estándar
sería del orden de los TeV o menor. Por una parte, esto explicaría el problema de la jerarquía puesto que
la ruptura de la simetría que da lugar a las masas de las partículas tiene lugar muy por debajo de la ener-
gía de la unificación de las fuerzas fundamentales. Por otro lado, esto supone una predicción importante
puesto que la próxima generación de experimentos diseñados en el Fermilab y el CERN explorarán un
rango de energía en el que deberían aparecer estos primeros supercompañeros. No obstante, antes del
año 2020 en el Large Hadron Collider deberían ser descubiertas y en un par de décadas conoceremos si
la supersimetría se produce a esas energías. Desde luego, el descubrimiento de estos supercompañeros
de las partículas del modelo estándar supondría un éxito de la física teórica, que ha predicho su existen-
cia muchos años antes de que puedan ser descubierta experimentalmente.
La supersimetría presenta ciertas ventajas que son las siguientes:
1. Los problemas de cálculos se resuelven introduciendo partículas supercompañeras de signos
opuestos.
2. Unifica fermiones y bosones.
3. Pueden ser extendidas para incluir la geometría del espacio tiempo y por consiguiente la gravedad.
El único fallo es que no hay evidencia experimental alguna sobre toda la teoría.
BIBLIOGRAFÍA
37
Energía nuclear. Principio de
conservación masa-energía. Fisión
y fusión nuclear. Su utilización.
Situación actual. Problemática
de los residuos nucleares
ÍNDICE SISTEMÁTICO
2. FISIÓN NUCLEAR
2.1. Descubrimiento de la fisión nuclear
2.2. Fundamentos del proceso de fisión
2.3. Características de la fisión nuclear
2.3.1. Fragmentos de la fisión y distribución de masa
2.3.2. Neutrones emitidos en la fisión nuclear
2.3.3. Cadenas radiactivas de los productos de la fisión
2.3.4. Sección eficaz de fisión
2.3.5. Energía liberada en la fisión
2.4. Reacciones en cadena
3. FUSIÓN NUCLEAR
3.1. Procesos básicos de fusión
3.2. Energía liberada
3.2.1. Sección eficaz de fusión
3.3. Fusión solar
BIBLIOGRAFÍA
x+X®Y+y (1)
X(x,y)Y (2)
La primera reacción nuclear fue detectada por Rutherford en el año 1919. Bombardeó 14 7 N con
partículas a y obtuvo 178 O y protones. Es decir, Rutherford transmutó el nitrógeno-14 en oxígeno-17:
4
2 He + 147 N® 17
8 O + 11 H (3)
El valor Q puede ser positivo, negativo o cero. Si Q > 0, la masa inicial es mayor que la masa final y la
energía cinética de los productos es mayor que la energía cinética de las partículas iniciales. Es decir,
que parte de la masa nuclear se transforma en energía cinética de los productos de la reacción. A este
tipo de reacciones se les denomina exoérgicas o exotérmicas. Si Q < 0, la reacción se denomina en-
doérgica o endotérmica y parte de la energía cinética de las partículas iniciales se transforma en masa
nuclear o energía de enlace.
Las reacciones endoérgicas sólo tendrán lugar si la energía cinética de la partícula incidente es
mayor que una cierta cantidad que se denomina energía umbral de la reacción. Calculemos, a conti-
nuación, el valor de esta energía umbral en el caso de que el blanco se encuentre en reposo. La reac-
ción de mínima energía es aquélla en la que x y X forman y e Y, los cuales se mueven conjuntamente
después de la reacción. Llamemos m = mx + mX y m´ = my + mY. La conservación de la energía total es-
tablece que:
2 2
mc + Kth = m´c + K´ (6)
Por otro lado, la conservación del momento lineal implica que:
px = p´ (7)
Por otra parte, sabemos que:
2
Ex = Kth + mxc (8)
y
E x2 = p x2 c 2 +( mx c 2 ) 2 (9)
y análogamente:
2
E´ = K´ + m´c (10)
y
2 2 2 2 2
E´ = p´ c + (m´c ) (11)
De las ecuaciones (10) y (11) se tiene que:
2 2 2 2 2 2
(K´ + m´c ) = p´ c + (m´c ) (12)
Por tanto, elevando al cuadrado la expresión (6) y teniendo en cuenta el resultado anterior, se tiene
que:
2 2 2 2 2 2
(mc + Kth) = p´ c + (m´c ) (13)
p x2 c 2 = K th2 + 2K th mx c 2 (14)
( m2 – m' 2 ) 2
K th = – c (17)
2( m – mx )
Si tenemos en cuenta ahora que m – mx = mX, y escribiendo la diferencia de cuadrados como el pro-
ducto de la suma por la diferencia, se tiene que:
( m+ m' )
K th = – ( m – m' )c 2 (18)
2mX
Ahora bien, m – m’ = mx + mX – my – mY, por lo que, teniendo en cuenta la definición del valor de Q
dada por (5), la expresión anterior la podemos escribir como:
mx + mX + m y + mY
K th = –Q (19)
2mX
En el caso de reacciones de baja energía, en las que Q es mucho más pequeña que las energías en
reposo de las partículas, de la expresión (5) se tiene que mx + mX my + mY, por lo que la expresión (19)
se reduce a:
mx + mX
K th = –Q (20)
mX
El núcleo compuesto tiene una vida aproximada de 10–14 s, la cual es demasiado pequeña para
que se pueda medir de forma directa en la actualidad. Una de las razones fundamentales para usar el
modelo del núcleo compuesto es que se forman en la misma proporción los mismos productos de di-
ferentes reacciones, aun cuando se usan diferentes partículas iniciales x y X. Es decir, el núcleo com-
puesto olvida cómo ha sido formado y decae gobernado por reglas estadísticas.
De la definición vemos que tiene las dimensiones de una superficie por núcleo. La sección eficaz se
suele expresar en barn (b), siendo 1 b = 10–28 m. Cada proceso para el mismo núcleo tiene su propia sec-
ción eficaz. Así, por ejemplo, existe una sección eficaz para dispersión elástica, otra para dispersión
inelástica, otra para captura de neutrones, etc.
Para una partícula incidente x, pueden resultar varias partículas salientes diferentes (y, y´, y´´ que
corresponden a diversos canales de la reacción, cada uno de los cuales tiene su propia sección eficaz
s(x,y), s(x,y´)... La sección eficaz total de la reacción para una partícula incidente x es:
La sección eficaz depende del tipo de reacción y es también una función de la energía de las par-
tículas incidentes. A menudo, la sección eficaz presenta picos muy pronunciados denominados reso-
nancias, que corresponden a los valores de la energía para los cuales la reacción está más favorecida o
es más probable y que están íntimamente relacionados con los niveles de energía del núcleo com-
puesto. En la figura 1 se muestra la sección eficaz de captura de neutrones para el aluminio.
20
Sección eficaz (mb)
16 –4
12 –3
8 –2
4 –1
0 0
0 50 100 150 200 250 300 350 400 450 500
E (keV)
2. FISIÓN NUCLEAR
La fisión nuclear es la ruptura del núcleo de un átomo en dos núcleos más ligeros. Principalmente,
suele ocurrir en el caso de núcleos pasados y puede producirse de forma espontánea o de forma inducida
por la excitación de los núcleos mediante el bombardeo con una serie de partículas tales como neutro-
nes, protones o partículas a, o bien mediante la radiación electromagnética en la forma de rayos g.
En un proceso de fisión nuclear, como resultado se obtienen productos radiactivos, se libera una
cierta cantidad de energía y se produce la emisión de neutrones. Estos neutrones pueden, a su vez, in-
ducir el proceso de fisión en núcleos vecinos de material que pueda experimentar el proceso de fisión,
lo cual produce, a su vez, la emisión de nuevos neutrones. Este proceso puede repetirse dando lugar a
una reacción en cadena en la que se fisiona un gran número de núcleos y en la que se libera una gran
cantidad de energía. Si este proceso en cadena es controlado, se puede utilizar para proporcionar
energía utilizable por la sociedad. Los procesos no controlados dan lugar a una explosión de una fuer-
za destructiva impresionante.
En 1939, Frederic Joliot-Curie, Hans von Halban y Lew Kowarski encontraron que, en el proce-
so de fisión del 235U se emitían varios neutrones, lo que condujo a la posibilidad de reacción en cade-
na automantenida. Enrico Fermi y sus colaboradores comprendieron la importancia de este tipo de
reacción si se tuviese un control adecuado sobre la misma. El 2 de diciembre de 1942 lo consiguieron,
y pusieron en marcha el primer reactor nuclear del mundo, conocido como pila. Este dispositivo con-
sistía en una disposición de bloques de uranio y grafito y fue construido en el campus de la Universi-
dad de Chicago.
10
6
B/A
0
0 50 100 150 200 250
Figura 2. Energía de enlace por
A nucleón para diversos núcleos.
En base a este análisis energético, podríamos esperar que todos los núcleos buscasen una confi-
guración más estable con una energía más baja dividiéndose en núcleos más ligeros. Sin embargo,
esta fisión espontánea no aparece debido a la existencia de unas barreras energéticas que producen
otros factores. El modelo de gota líquida proporciona una explicación cualitativa del proceso de fi-
sión. La fuerte fuerza nuclear entre pares de nucleones es de corto alcance y actúa sólo sobre los veci-
nos más cercanos. Como los nucleones de la superficie de la gota tienen menos vecinos que los del in-
terior, aparece una tensión superficial que tiende a que la gota adopte forma esférica en orden a mini-
mizar la energía del sistema. Por otra parte, los protones del núcleo ejercen entre sí una fuerza repulsi-
va de Coulomb. Así, para núcleos con un número de nucleones mayor de 40, el número de protones
debe ser diluido con un exceso de neutrones para mantener cierta estabilidad del núcleo. Cuando el
núcleo es excitado por algún estímulo, se deforma, con lo que aumentará su superficie y, por consi-
guiente, aumentarán las fuerzas superficiales que tienden a mantener la forma esférica. Por otra parte,
la fuerza de Coulomb entre protones disminuye con la distancia y, por tanto, disminuye cuando el nú-
cleo se deforma. El resultado es que la energía del sistema es de la forma indicada en la figura 3, en
donde se representa la energía del sistema en función de la deformación de la gota. En la figura, ob-
servamos la aparición de una barrera de energía. Al principio, la energía aumenta debido a que au-
menta la tensión superficial. Ahora bien, la fuerza de Coulomb disminuye con la deformación más rá-
pidamente que lo hace la tensión superficial, y las dos se igualan en el punto P, el cual nos da la altura
de la barrera de fisión, denominada energía de activación. A partir de este punto, la repulsión de
Coulomb entre los protones hace que el núcleo aumente su deformación hasta que se divide en dos en
un punto S denominado punto de escisión. Energía potencial
Energía de
activación
P
Separación entre fragmentos
Figura 3. Energía de activación
para la fisión nuclear.
La altura y la forma de la barrera de fisión depende de cada núcleo en particular. El proceso de fi-
sión puede ser inducido excitando el núcleo a una energía superior a la de la barrera de fisión mediante
la absorción de partículas de energía adecuada. Esto se puede conseguir mediante rayos g, proceso de-
nominado fotofisión, o bien mediante la captura de partículas tales como neutrones, protones o partícu-
las a, proceso denominado fisión inducida por partículas. El valor de esta barrera de energía permite ex-
plicar porqué, por ejemplo, el 235U puede ser inducido a la fisión por neutrones lentos, mientras que,
para inducir la fisión en el 238U, es necesario la captura de neutrones de energía de al menos 1 MeV.
Las leyes de la mecánica cuántica predicen que un sistema confinado en una barrera de poten-
cial pueda atravesar dicha barrera mediante el efecto denominado efecto túnel. Por tanto, un núcleo
que se encuentra en un estado energético inferior al valor de la barrera de fisión tiene cierta proba-
bilidad, aunque sea pequeña, de atravesar dicha barrera. Este proceso se denomina fisión espontá-
nea, puesto que no depende de ninguna excitación exterior. Así, por ejemplo, la probabilidad de
que el 238U experimente un proceso de fisión espontánea es muy pequeña y la vida media para tal
proceso es de 1015 años. La probabilidad de fisión espontánea aumenta para los núcleos más pesa-
dos conocidos y para algunos llega a ser el modo de desintegración predominante. Por esta razón, el
proceso de fisión espontánea establece un límite para la formación de núcleos superpesados.
1
Rendimiento
0.1
0.01
70 80 90 100 110 120 130 140 150 160 Figura 4. Distribución de masa
de los fragmentos de la fisión
A 235
del U.
El comportamiento de esta distribución es uno de los resultados más sorprendentes del proceso de fi-
sión y depende de la masa del núcleo que se fisiona y de la energía de excitación a la que se produce la fi-
sión. Como se muestra en la figura, en el caso de fisión inducida por neutrones de baja energía, para cada
fragmento pesado hay un fragmento ligero correspondiente (división asimétrica de la masa), pero note-
mos que la fisión en fragmentos iguales o casi iguales (división simétrica de la masa) es mucho menos
probable que otras distribuciones. En concreto, la probabilidad de obtener dos fragmentos de masa simila-
res es 600 veces menor que la máxima probabilidad de tener un núcleo con número másico A1 95 y el
otro con A2 140. Sorprendentemente, no se ha encontrado una explicación convincente para esta distri-
bución de masa típica de los procesos de fisión inducidos por neutrones lentos.
Por otra parte, en los procesos de fisión con neutrones pesados, la probabilidad de tener una se-
paración simétrica de masas aumenta mientras que disminuye la probabilidad de que se produzca una
división asimétrica. De esta manera, el valle entre los dos picos de máximo rendimiento, típico de la
distribución de masa en fisión con neutrones lentos, aumenta su probabilidad y, en el caso de excita-
ción alta, la distribución de masa se transforma en una curva con un solo máximo.
trones térmicos, los valores observados experimentalmente son de n = 2,48 para el 233U, n = 2,42 para
el 235U y n = 2,86 para el 239Pu.
Además de estos neutrones inmediatos, a menudo se emiten otros neutrones, denominados neu-
trones retardados, en los procesos de fisión. Estos neutrones son emitidos como consecuencia de los
procesos de desintegración b de los fragmentos de la fisión, los cuales pueden dar lugar a un estado
excitado del núcleo hijo, el cual emite un neutrón. El tiempo de retraso de estos neutrones es del orden
de segundos y su intensidad es alrededor del 1% de los neutrones inmediatos. Aunque el número de
neutrones retardados es pequeño, son muy importante para el control de las reacciones en cadena de
un reactor nuclear.
Cs ¾ ¾¾® 141 Ba ¾ ¾ ¾
¾® 141 La ¾ ¾
¾® 141 Ce ¾ ¾¾® 141 Pr
141 25 s 18 min 4h 33 d
Estos productos son los materiales de desecho de los reactores nucleares. Algunos de ellos se desinte-
gran rápidamente, mientras que otros tienen una vida media muy larga, en especial, aquéllos que se
encuentran muy cercanos al núcleo estable de la serie.
10
584 b
2
10
1
10 235 U
0
10
–1
10 238 U
–2
10 0,025 eV
–3
10 –3 –2 –1 0 1 2 3 4 5 6 7
10 10 10 10 10 10 10 10 10 10 10
U+n®
235 236
U* (25)
Si suponemos que la energía cinética de los neutrones es pequeña (neutrones térmicos) y, por tanto, la
podemos despreciar, se tiene que:
236 235
m( U*) = m( U) + mn = 235,043924 u + 1,008665 u = 236,052589 u (27)
Por otra parte, la energía de activación para el 236U se calcula que es 6,2 MeV. Por tanto, la energía ne-
cesaria para excitar al núcleo a un estado en que se pueda producir la fisión (energía de activación) es
menor que la energía que se gana añadiendo un neutrón al núcleo 235U. Esto significa que el 235U pue-
de fisionarse con neutrones de cero energía.
Un cálculo similar realizado para la formación del estado 239U* a partir del 238U:
U+n®
238 239
U* (29)
nos da que la energía de excitación es Eex = 4,8 MeV, la cual es más pequeña que la energía de activa-
ción calculada para el 239U*, que resulta ser de 6,6 MeV. Por consiguiente, se necesitará un neutrón de
al menos una energía de Mev para que se produzca la fisión del 238U. Esto explica que la diferencia en
el comportamiento del 235U y el 238U ante la fisión se encuentra en la diferencia entre sus energías de
excitación: 6,5 y 4,8 MeV, respectivamente.
Este resultado puede explicarse a su vez por el valor de la energía de apareamiento D de la fór-
mula semiempírica de la masa (Tema 35, eq. 52), y es común a todos los núcleos que tienen un núme-
ro par de neutrones o un número impar de neutrones. La captura de neutrones por un núcleo con un
número impar de neutrones conduce a configuraciones más estables con un aumento de la energía de
excitación; mientras que la captura de neutrones por núcleos con un número par de neutrones condu-
ce a una reducción de la energía de excitación. Por tanto, los núcleos con N impar requieren neutrones
menos energéticos para la fisión que los núcleos con N par.
Calculemos, a continuación, la energía liberada en un proceso de fisión típico. Para ello, consi-
deremos la reacción:
U+n® U* ® Rb +
235 236 93 141
Cs + 2n (30)
Utilizando las masas de 93Rb (92,92172 u) y de 141Cs (140,91949 u), el valor Q de la reacción se es-
tima que es 181 MeV. Otras reacciones con diferentes productos finales, y probablemente con dife-
rente número de neutrones emitidos, da una energía liberada aproximadamente de la misma magni-
tud. Por lo general, se suele tomar como una cifra media razonable de la energía liberada en la fi-
sión del 235U un valor de 200 MeV. La fuerza de repulsión de Coulomb separará los fragmentos de
la fisión convirtiendo la energía potencial en energía cinética. En la figura 6 se muestra la distribu-
ción de energía observada para los fragmentos de la fisión. Hay dos valores de probabilidad alta de
los fragmentos, aproximadamente a 66 y 98 MeV, que corresponden al fragmento pesado y ligero
respectivamente.
1600
Número de casos
93.1 MeV
1200
61.4 MeV
800
400
Figura 6. Distribución de
energía de los fragmentos de 0
235
fisión del U. Las energías 50 60 70 80 90 100 110
deducidas son unos 5 MeV
más bajas. E (MeV)
Puesto que los neutrones tienen un momento pequeño, la conservación del momento requiere
que los fragmentos de la fisión tengan un momento igual y opuesto:
m 1 u1 = m 2 u2 (31)
De aquí es fácil deducir que la relación entre las energías cinéticas de los fragmentos ha de ser:
1
m1 u 21 m2
2
= (32)
1
2 m2 u 2
2
m1
Es decir, que la relación entre las energías cinéticas de los fragmentos es inversa a la proporción entre
sus masas.
La relación entre las energías cinéticas es 66 MeV/98 MeV = 0,67, que es consistente con la rela-
ción de las masas más probables de los fragmentos (140/95)–1 = 0,68. Por consiguiente, parece que la
distribución de la energía es una característica de la distribución de la masa de los fragmentos y que
aproximadamente el 80% de la energía liberada en la fisión se transforma en energía cinética de los
fragmentos.
En cuanto a los neutrones emitidos en la fisión, en la figura 7 se muestra la distribución de los
neutrones inmediatos correspondientes a la fisión del 235U. La energía media es alrededor de 2 MeV y
el número de neutrones emitidos es aproximadamente n = 2,5 por cada fisión. La energía promedio de
los neutrones en la fisión es de 5 MeV. Por tanto, vemos que el momento de los neutrones es mucho
más pequeño que el de los fragmentos, lo que justifica la aproximación realizada más arriba.
1000
100
N(E) a E exp (–E/129)
10
0 1 2 3 4 5 6 7 8 9 10 11 12
E (MeV)
Figura 7. Espectro de energía de los neutrones emitidos en
235
la fisión del U.
Evidentemente, las cifras dadas anteriormente son sólo estimaciones y sus valores exactos dependen
de la naturaleza exacta de los fragmentos y de sus desintegraciones.
Para una mezcla natural de uranio en la que la presencia de 235U es del 0,72% y de 238U es del 99,28%,
se calcula que h = 1,33, mientras que, para una mezcla enriquecida en la que la proporción de 235U lle-
ga hasta el 3%, el valor de h = 1,84.
De los N neutrones térmicos, una parte será absorbida en otros procesos nucleares y el resto, hN
neutrones rápidos, podrán producir un proceso de fisión. Algunos de estos neutrones rápidos pueden
encontrar en su camino un núcleo de 238U, los cuales tienen una sección eficaz de fisión pequeña. Esto
puede dar lugar a la fisión de estos átomos y a un pequeño incremento del número de neutrones. Por
tanto, introducimos un nuevo factor e, el factor de fisión rápida, que tenga en cuenta esta posibilidad.
El valor de e es aproximadamente de 1,03 para el uranio natural. Por consiguiente, el número de neu-
trones rápidos en el sistema será ahora heN.
Los neutrones rápidos tienen una sección eficaz de fisión pequeña, por lo que es conveniente
moderar su velocidad a velocidades térmicas en las que su sección eficaz es mayor. Este proceso de
moderación se realiza intercalando con el material combustible un material moderador ligero como
puede ser carbón, normalmente en la forma de grafito, o agua pesada. En este proceso, los neutrones
deben pasar por la región de 10-100 eV en la que el 238U presenta muchas capturas por resonancia (fi-
gura 8), con secciones eficaces muy grandes mayores que las de fisión del 235U. Por lo tanto, si quere-
mos tener neutrones térmicos para producir fisión, debemos encontrar un mecanismo para que los
neutrones eviten la captura por resonancia. Para lograr esto, lo que se hace es aumentar el tamaño de
los trozos del material moderador de manera que los neutrones pasan a la región térmica (se termali-
zan) a través de muchas dispersiones dentro del moderador sin abandonarlo y, por tanto, sin encontrar
ningún átomo de 238U. La distancia media que necesitan los neutrones para moderar su velocidad has-
ta las regiones térmicas es del orden de 19 cm en grafito. Por consiguiente, podremos minimizar la
pérdida de neutrones por captura resonante si separamos el material combustible (uranio) mediante
bloques de 19 cm de grafito. Evidentemente, todavía algunos neutrones podrán moverse por la super-
ficie del grafito y alcanzar algún átomo de 238U antes de que estén termalizados, por lo que la captura
resonante no se puede evitar completamente. Para tener en cuenta este efecto, introducimos un factor
p, la probabilidad de escape resonante, de manera que el número de neutrones disponibles después de
la termalización es hepN. Un valor típico para la probabilidad de escape resonante es p = 0,9.
4
10
Sección eficaz total
3
10
2
10
10
1
10 20 30 40 50 60 70 80 90 100 110 120 130
E (MeV)
Figura 8. Resonancias en la sección eficaz de capturas
238
de neutrones para el U.
Una vez que los neutrones se encuentran termalizados, están disponibles para producir la fisión
de los átomos de uranio. Ahora bien, tenemos que tener en cuenta que hay una probabilidad de que es-
tos neutrones sean capturados por el grafito o por cualquiera de los materiales que componen el reac-
tor. El factor de utilización térmica f nos da la proporción de neutrones térmicos disponibles para la fi-
sión del 235U y del 238U, y su valor es aproximadamente 0,9. Por consiguiente, el número de neutrones
que sobreviven a la captura por parte del moderador y otros materiales del reactor es hepfN. La criti-
calidad del sistema dependerá de que este número sea mayor, menor o igual que N.
El factor multiplicador será entonces:
k¥ = hepf (34)
Esta expresión es conocida, por razones obvias, como la fórmula de los cuatro factores. Utilizando
los valores estimados para el uranio natural, se tiene que k¥ = 1,11.
Este valor del factor multiplicador corresponde a un sistema ideal de masa infinita. Para un siste-
ma real, debemos tener en cuenta el escape de neutrones a través de la superficie, tanto para los neu-
trones térmicos como para los neutrones rápidos. Si denominamos lf y lt a las fracciones de los neutro-
nes rápidos y termalizados que se pierden, el factor multiplicador para un sistema real finito queda
como:
k = hepf (1 – lf)(1 – lt) (35)
Conforme el sistema sea mayor, menor será la relación entre su superficie y su volumen y, por tanto,
menor será la fracción de los neutrones que se escapan por la superficie. Si lf y lt son pequeños, enton-
ces se tendrá que:
La constante de proporcionalidad depende de los factores geométricos del sistema. Para una disposi-
ción esférica, se tiene que:
pM
Rc = (40)
k¥ – 1
Para un reactor de uranio natural, se estima que el tamaño crítico es Rc = 5 m. Es decir, una red esféri-
ca formada por bloques de uranio y de grafito debería ser crítica. Este tamaño se puede reducir si se
rodea el sistema con un material que refleje hacia dentro los neutrones que se escapan de él.
Para terminar este análisis de las condiciones necesarias para obtener una reacción en cadena
controlada, vamos a considerar la constante de tiempo involucrada en el proceso de multiplicación de
neutrones. Los neutrones se caracterizan mediante una constante de tiempo t que incluye el tiempo
necesario para la moderación (10–6 s) y el tiempo de difusión a energías térmicas antes de su absor-
ción (10–3 s). Si el factor multiplicador es k y el número de neutrones en un instante de tiempo t es N,
entonces, en promedio, habrá kN neutrones en el instante de tiempo t + t, k2N neutrones, en el instante
de tiempo t + 2t, y, así, sucesivamente. En un intervalo de tiempo corto dt, el aumento en el número
de electrones será:
dt
dN = ( kN – N ) (41)
t
3. FUSIÓN NUCLEAR
La fusión nuclear es el proceso por el que reacciones nucleares entre dos núcleos ligeros producen un
núcleo más pesado (hasta el hierro) y que da lugar, en la mayoría de los casos, a una liberación de energía.
Como fuente de energía, la fusión nuclear presenta claras ventajas frente a la fisión nuclear: los
núcleos ligeros son abundantes y fáciles de obtener, y los productos de la fusión son, por lo general,
núcleos estables y no radiactivos, como los obtenidos en el proceso de fisión. Sin embargo, hay una
clara desventaja frente a proceso de fisión: para que se produzca un proceso de fusión, los núcleos de-
ben vencer la fuerza de repulsión de Coulomb entre ellos. Los procesos de fisión inducida por neutro-
nes no deben vencer ninguna barrera de Coulomb y, por tanto, podemos utilizar partículas de baja
energía. Además, la sección eficaz de fisión para el 235U aumenta conforme disminuimos la energía
de los neutrones. Sin embargo, la sección eficaz para reacciones con partículas cargadas tiende a dis-
minuir con el aumento de la energía.
Acelerar los núcleos de modo que se alcance la energía suficiente para producir la fusión no supo-
ne ningún problema. El inconveniente surge de que los haces que se pueden obtener en los aceleradores
son del orden de los nanoamperios o microamperios. Si disponemos de un haz de un microamperio, y
aun suponiendo que todas las partículas del haz produjeran un proceso de fusión (algo improbable, ya
que los procesos de dispersión son varios órdenes de magnitud más probables que la fusión), la potencia
de salida que se obtendría sería de 2 W, potencia absolutamente ridícula.
Una alternativa es calentar las partículas hasta que su energía térmica sea lo suficientemente
grande como para que exista una probabilidad real de que las partículas tengan energía suficiente para
que se produzca la fusión. La energía cinética media de la partículas de un gas es 3kT/2, que, a tempe-
ratura ambiente, es kT 0,025 eV. Para una temperatura de 106 K es de 130 eV y para T = 108 K es de
13 keV. A estas energías, las secciones eficaces de reacción de los núcleos ligeros ya no son despre-
ciables y, por tanto, hay una probabilidad de que se produzcan procesos de fusión. Ahora bien, estas
temperaturas extremas crean problemas, ya que no se conoce ningún material que las soporte.
A pesar de estos claros inconvenientes, la energía de fusión es uno de los campos en los que se
investiga intensivamente, con el objeto de perfeccionar las técnicas de calentamiento del material fu-
sionable y para aumentar su densidad de manera que el número de reacciones de fusión sea lo sufi-
cientemente grande para que la potencia de salida sea comparable a la obtenida en los reactores de fi-
sión en los que se obtiene una potencia del orden de 109 W.
Por otra parte, la fusión nuclear constituye la fuente fundamental de energía de las estrellas, in-
cluido el Sol. Por consiguiente, un entendimiento de la fusión nuclear es de suma importancia para
conocer los productos finales de las reacciones estelares, cuando el material de combustión se agote y
la estrella pase por una etapa de nova o supernova y acabe como una masa de ceniza cósmica, como
una estrella de neutrones o un agujero negro.
Del principio de conservación del momento lineal, si despreciamos el movimiento inicial de los
núcleos, antes de la reacción se tiene que:
mHeuHe = mnun (50)
1 Q
K n = mn u n2 = (52)
2 1+ mn / mHe
Por tanto, se tiene que el neutrón tiene el 80% de la energía liberada en la reacción. En el caso de la
reacción D – D, los cálculos realizados dan que el protón o neutrón resultante de la reacción lleva el
75% de la energía.
10
4
T(d,n)He
1
Sección eficaz
–1
10 3
D(d,p)T + D(d,n)He
–2
10
3 4
–3
He (d,p)He
10
–4
10
–5
10
20 40 60 80 100
E (keV)
Figura 9. Sección eficaz de la fusión.
Este paso en el ciclo de fusión solar se denomina frecuentemente de embotellamiento o cuello de bo-
tella, debido a que es la reacción más lenta y menos probable.
El paso siguiente a la formación de deuterones es:
H + H ® He + g
2 1 3
Q = 5,49 MeV (55)
La reacción D – D es menos probable debido a que la cantidad de deuterones formada es pequeña en
relación al número de protones existentes (1 deuterón por cada 1018 protones).
La reacción de los núcleos de helio con protones no es posible:
He + H ® Li ® He + H
3 1 4 3 1
(56)
4
El isótopo Li no existe como un sistema estable y, por consiguiente, se divide tan pronto como se for-
ma. Por otra parte, la reacción del 3He con 2H es también poco probable, ya que la presencia de 2H es es-
casa y, además, reacciona muy rápidamente con 1H para formar 3He. Por tanto, el siguiente paso es la
reacción:
He + He ® He + 2 H + g
3 3 4 1
Q = 12,86 MeV (57)
El proceso completo se denomina ciclo protón-protón (figura 10) y la reacción neta es la conver-
sión de 4 protones en helio:
4 H ® He + 2e + 2n
1 4 +
(58)
El factor Q se calcula que es Q = 26,7 MeV.
p p
2 3
H He
p g p
e+ n
4
He
e+
n p
p g
2 3
H He
Figura 10.
p p Ciclo protón-protón.
El valor Q de estas tres reacciones es el mismo, y que se produzca una u otra depende de la com-
posición de la estrella y de su temperatura. En el caso del sol, es posible chequear estas tres alternati-
vas observando los neutrinos. En el primer caso, se tiene una distribución continua de neutrinos con
un máximo de energía igual a 0,42 MeV. En el segundo caso, de captura electrónica por parte del 7Be,
se produce un neutrino de energía 0,862 MeV. Mientras que en el tercer caso, la desintegración del 8B
da una distribución continua de neutrinos con una energía límite de 14 MeV.
La observación de los neutrinos es un método para conocer el interior del sol. La luz del sol que
llega a la Tierra es característica de su superficie y representa los rayos g de las reacciones en el inte-
rior, que luego son dispersados muchas miles de veces en su viaje a la superficie. Quizás esta radia-
ción tarda millones de años en alcanzar la superficie, de manera que la luz que vemos es el resultado
de procesos solares que tuvieron lugar hace millones de años. Por otra parte, los neutrinos llegan a no-
sotros directamente desde el interior del sol a una velocidad igual a la de la luz. No obstante, los expe-
rimentos realizados en la detección de neutrinos están en desacuerdo con la teoría y, por tanto, es ne-
cesario imaginar otros experimentos que sean sensibles al espectro completo de neutrinos.
Además del hidrógeno y de helio, en el interior de las estrellas hay elementos pesados, por lo que
se puede producir una serie de reacciones de fusión. Una de estas series es el denominado ciclo del
carbón o ciclo CNO:
C+ H ® N+g
12 1 13
N ® C+e +n
13 13 +
C+ H ® N+g
13 1 14
N+ H ® O+g
14 1 15
O ® N+e +n
15 15 +
N+ H ®
15 1 12 4
C + He (65)
En este caso, el 12C ni se crea ni se destruye, sólo actúa como catalizador para ayudar en el proceso de
fusión. El proceso neto de esta serie es 41H ® 4He + 2e+ + 2n, exactamente el mismo que en la serie pro-
tón-protón y con el mismo valor de Q. El ciclo del carbón puede ser más rápido que el ciclo pro-
tón-protón debido a que no tiene un proceso semejante al del cuello de botella del deuterio. Sin embar-
go, la barrera de Coulomb es 6 ó 7 veces mayor en las reacciones protón-carbón que en las reacciones
protón-protón. Por lo tanto, el ciclo del carbón será el ciclo dominante a altas temperaturas, donde se ne-
cesita energía térmica adicional para aumentar la probabilidad de penetrar la barrera de Coulomb.
La radiación solar media que alcanza la Tierra es aproximadamente de 1,4 ´ 103 W/m2. Si supo-
nemos que está distribuida uniformemente por el espacio, esto significa que la potencia radiada por el
sol es de 4 ´ 1026 W. Si cada proceso de fusión produce una energía de 25 MeV, el número de fusio-
nes por segundo es alrededor de 1038, que suponen un consumo de 4 ´ 1038 protones por segundo. En
esta proporción, el sol podrá continuar quemando su hidrógeno alrededor de otros 1010 años.
Una vez que el sol consuma su hidrógeno, se pueden producir otras reacciones de fusión, como
34He ® 12C, a más altas temperaturas para penetrar la barrera de Coulomb. Estas reacciones de fusión
de núcleos ligeros pueden continuar hasta llegar al 56Fe, a partir del cual no se puede obtener ganancia
de energía mediante fusión. Este razonamiento es útil para explicar algunas de las categorías de estre-
llas que se observan y nos ayuda a entender la abundancia relativa de las especies atómicas. Así, por
ejemplo: los átomos ligeros con número atómico par, resultados de sucesivas capturas de partículas a
por parte del 12C, son más abundantes que sus vecinos con números atómicos impares; casi todos los
elementos por encima del Fe son menos abundantes que los elementos por debajo de él.
Tipos de reactores
La primera clasificación de los reactores nucleares puede hacerse atendiendo al uso para el que
están diseñados. Tomando como base este criterio, podemos clasificar los reactores nucleares en tres
grupos: reactores de potencia, reactores de investigación y reactores de conversión.
– Reactores de potencia: estos reactores se diseñan con el objetivo de extraer la energía ciné-
tica de los fragmentos de fisión como calor y convertir la energía térmica en energía eléctri-
ca. Normalmente, se hace calentando agua y haciendo funcionar una turbina mediante el
vapor generado. La construcción de estos reactores se hace atendiendo tanto a los aspectos
nucleares como a los aspectos termodinámicos de la eficiencia de la máquina térmica. El
montaje que contiene el combustible nuclear representa una pequeña fracción del coste de
la central. Lo realmente costoso son los sistemas de blindaje y de almacenamiento de los re-
siduos radiactivos, así como el sistema de generación eléctrica. Estos reactores tienen una
eficiencia termodinámica algo inferior a las plantas de combustible fósil.
– Reactores de investigación: se diseñan generalmente para producir neutrones para la inves-
tigación nuclear o en el campo del estado sólido. Normalmente, operan a un nivel de poten-
cia bajo entre 1 y 10 MW.
– Reactores de conversión: se diseñan para convertir material que nos es escindible con neu-
trones en material que sí lo es. Las conversiones típicas que se generan son la de 238U a
239
Pu y la del 232Th a 233U.
tal de los reactores de potencia es la capacidad del refrigerante de transferir calor de forma eficiente.
Los refrigerantes pueden ser gases, como el aire, el helio o el CO2, o puede ser agua u otro líquido.
Los reactores que utilizan agua como refrigerante pueden mantenerla en su estado líquido a presiones
muy altas. Estos son los denominados reactores de agua a presión. En la figura 11, se muestran los es-
quemas de los dos tipos de reactores que utilizan agua como sistema de refrigeración. El reactor de la
figura 11a se denomina reactor de agua en ebullición, el agua circula a través del núcleo y actúa tam-
bién como moderador. Se necesita un contenedor que soporte las altas presiones que alcanza el vapor.
Aunque el agua pura no llega a ser radiactiva, las impurezas, aún de partes por millón, son altamente
radiactivas y circulan fuera del contenedor del núcleo. De este tipo es el reactor de la central de Co-
frentes. El reactor de la figura 11b es de agua a presión y elimina este peligro intercambiando el calor
entre el agua a presión que circula por el núcleo y el circuito de vapor que llega a la turbina. De este
tipo son los de las centrales de Almaraz, Ascó y Trillo.
Recipiente de presión
Vapor Turbina
a)
Condensador
Agua
Combustible
Barras de control
Barras de control
Vapor
b) Agua
Agua
Los reactores que utilizan grafito como moderador son reactores heterogéneos y utilizan gas
como refrigerante. Su construcción se hace para que el gas pueda circular fácilmente por el núcleo
y obtener una buena transferencia de calor. Estos son los reactores que funcionan normalmente en
Gran Bretaña.
Por tanto, si suministramos una energía Eth al plasma y lo confinamos durante un tiempo t, podemos
extraer una energía Ef. El reactor tendrá una ganancia de energía (despreciando la energía perdida por
radiación) si:
Ef > Eth (68)
Teniendo en cuenta las expresiones (68) y (69), esta condición se escribe como:
12kT
n t> (69)
su Q
Para una temperatura de operación de 10 keV para la reacción D-T, como se tiene que ásuñ 10–22 m3/s,
resulta que nt » 1020 s/m3. Este valor estimado del producto de la concentración de iones y el tiempo de
confinamiento se conoce como criterio de Lawson y es la meta a alcanzar en los diseños de los reactores
nucleares de fusión.
El confinamiento magnético más sencillo consiste en un campo magnético uniforme en el que
las partículas cargadas se mueven en espiral alrededor de la dirección del campo. Para evitar la pérdi-
da de partículas a lo largo del eje, se pueden utilizar dos soluciones: utilizar una estructura toroidal o
utilizar espejos magnéticos que reflejen las partículas. En una estructura toroidal real, el campo mag-
nético es menos intenso conforme el radio de la trayectoria de las partículas es mayor, lo que hace que
las partículas tiendan a acercarse a las paredes de la estructura. Con el fin de evitar esto, se introduce
un campo magnético a lo largo de la superficie, denominado campo poloidal. Esto se puede hacer ha-
ciendo pasar una corriente a lo largo del eje de la estructura, con lo cual también puede utilizarse para
calentar el plasma. La estructura básica de un dispositivo de este tipo se denomina tokamak, nombre
que viene del acrónimo en ruso de cámara toroidal. El tokamak (figura 12) es en la actualidad uno de
los dos dispositivos que más posibilidades tienen de ser usados en el diseño de un reactor de fusión
del que podamos extraer energía.
B
I Tokamak
B I
La radiación térmica también decrece como 1/r2 y, además, por un factor exponencial debido a
la absorción y dispersión por la atmósfera. A una distancia de 2 km de la explosión de una bomba de
20 kilotones, la onda de calor, que llega 2 s después de la explosión, es todavía suficiente para produ-
cir quemaduras de tercer grado e incendiar materiales inflamables como madera o ropa.
La radiación nuclear directa también decrece como 1/r2 y exponencialmente. La distancia para
la cual la dosis de radiación es letal, para una bomba de 20 kilotones, es de 1 km. Para mayores distan-
cias, los efectos de la radiación aparecen a medio y largo plazo. Estos efectos incluyen el aumento de
los casos de cáncer, de leucemia y de malformaciones genéticas.
Los productos radiactivos de la fisión son vaporizados y caen a tierra como una lluvia radiactiva.
Algunos de estos materiales pueden permanecer en la atmósfera, produciendo nubes radiactivas que
pueden permanecer durante un año o más, hasta que caen a tierra.
BIBLIOGRAFÍA
38
Partículas elementales.
Estado actual de su estudio.
Partículas fundamentales
constitutivas del átomo.
Del microcosmos al macrocosmos.
Teorías sobre la formación y
evolución del universo
ÍNDICE SISTEMÁTICO
1. PARTÍCULAS ELEMENTALES
1.1. Origen de la física de partículas
1.2. Partículas elementales e interacciones
1.3. Clasificación de las partículas elementales
1.4. Partículas y antipartículas
1.5. Inestabilidad de las partículas y resonancias
1.6. Leyes de conservación
1.6.1. Conservación del número de bariones
1.6.2. Conservación del número de leptones
1.6.3. Conservación del isospin
1.6.4. Conservación de la extrañeza y el encanto
2. MODELO ESTÁNDAR
BIBLIOGRAFÍA
1. PARTÍCULAS ELEMENTALES
La búsqueda de lo elemental ha sido una de las cuestiones que ha ocupado al hombre desde hace
más de 2500 años. En la actualidad no tenemos una respuesta que pueda considerarse definitiva pero
hemos avanzado mucho. En esta sección vamos a ver que las partículas fundamentales no son entida-
des permanentes sino que pueden ser creadas y destruidas. En su estudio ha sido clave el desarrollo
experimentado en el campo de los aceleradores y detectores de partículas que son la herramienta ex-
perimental básica en esta fascinante tarea de la exploración íntima de la materia. Veremos también
cómo podemos clasificar estas partículas fundamentales y las leyes de conservación que se satisfacen
en las interacciones entre ellas.
ción gravitatoria entre dos masas requeriría la existencia de otra partícula portadora, denominada gra-
vitón y que todavía no ha sido observada.
Desde los años sesenta se han detectado otras muchas partículas, de las cuales alrededor de 30
son relativamente estables con una vida media mayor que 10–10 s, y más de cien partículas con un pe-
ríodo de vida media extremadamente corto, del orden de 10–21 s, denominadas resonancias. El descu-
brimiento de estas partículas fue posible gracias a la construcción de aceleradores de partículas de
muy alta energía en donde se pueden obtener partículas con energías de varios GeV, y al avance reali-
zado en los sistemas para la observación y la detección de partículas. Las propiedades e interacciones
de estas partículas, así como las que deben considerarse como fundamentales o elementales es lo que
constituyó el tema de investigación de la física de las partículas elementales. En la actualidad se dis-
pone de una teoría conocida con el nombre de modelo estándar para describir las propiedades y las in-
teracciones de las partículas fundamentales.
e– e–
g
e–
e–
Figura 1. Diagrama de Feynman, que
muestra cómo actúa un fotón como
portador de la fuerza electromagnética
entre dos electrones.
Un ejemplo sencillo de cómo el intercambio de partículas puede dar lugar a fuerzas de interac-
ción puede ser el siguiente. Imaginemos dos niños jugando con unas pelotas de tenis. En el primer
caso, los niños se lanzan una pelota el uno al otro. Cuando cada niño recibe la pelota lanzada por el
otro se mueve hacia atrás como consecuencia del impulso, lo que es equivalente a una fuerza repulsi-
va. Supongamos ahora que los niños se intercambian la pelota tomándose de la mano el uno del otro.
En este caso existirá una fuerza atractiva entre ellos.
La idea de Yukawa era similar a las expuestas anteriormente: en analogía al intercambio de foto-
nes como intermediarios de la fuerza electromagnética, debía existir una partícula que fuera interme-
diaria de la fuerza nuclear fuerte, responsable de mantener unidos los núcleos atómicos (figura 2). De
la misma forma que el fotón es el cuanto del campo o de la fuerza electromagnética, la nueva partícula
debería ser el cuanto de la fuerza nuclear fuerte. La predicción de Yukawa era que la partícula debía
tener una masa intermedia entre el electrón y el protón, por lo que se le denominó mesón (del griego
mesos, que significa intermedio). Podemos estimar de forma aproximada la masa del mesón como si-
gue. Para que se emita un mesón se debe crear su masa de la nada, lo que violaría el principio de con-
servación de la energía. Ahora bien, el principio de incertidumbre de Heisenberg establece que:
DEDt ³ h (1)
p mesón n
El principio establece que para medir una energía de un estado con una incertidumbre de DE di-
cho estado debe existir al menos durante un tiempo Dt ³ h/DE. Por tanto, si se crea una partícula de
energía DE durante un tiempo menor que el indicado, la partícula no podrá ser observada y el princi-
pio de conservación de la energía se mantiene. La masa del mesón estará relacionada con la energía
por DE = mc2. Por otra parte, si suponemos que el mesón viaja a velocidad cercana a la de la luz, se
tendrá que Dt = R/c, siendo R la separación máxima entre los nucleones que interactúan. De esta ma-
nera, de la expresión (1), se tiene que:
R hc
mc 2 h Þ mc 2 = (2)
c R
Si tenemos en cuenta que el valor del alcance de la fuerza nuclear fuerte es del orden de 1.5 fm =
= 1.5 ´ 10–15 m, de la expresión anterior se tiene que:
(1.05´10–34 J×s ) ( 3´108 m / s )
mc 2 = = 2.2´10–11 J= 130 MeV (3)
1.5´10–15 m
Lo que acabamos de ver es una característica de todas las partículas virtuales que se intercambian en los
procesos de interacción: el tiempo entre la emisión y la absorción es tan corto que no puede detectarse la
no conservación de la energía. En el caso de los fotones, puesto que el alcance de la fuerza electromag-
nética es infinito R = ¥, según lo que acabamos de ver su masa en reposo debe ser cero.
Al igual que los fotones existen como partículas libres, se esperaba que los mesones también
existieran como partículas libres y pudieran ser observados directamente. En 1937 se descubrió una
partícula en los rayos cósmicos cuya masa era igual a 106 MeV. Su valor era cercano al predicho por
Yukawa, pero se encontró que esta partícula, a la que se denominó mesón m o muón, no interactuaba
fuertemente con la materia. Por lo que era imposible que pudiese actuar como intermediaria de la
fuerza nuclear fuerte. La partícula predicha por Yukawa fue descubierta en 1947 y se le denominó
mesón p o pión. El pión presenta tres estados de carga positiva, negativa o neutra. Los mesones p+ y
p– tienen una masa igual a 139.6 MeV, y el pión p0 una masa igual a 135 MeV. Después de su descu-
brimiento en los rayos cósmicos, los piones fueron producidos en los aceleradores de partículas en las
colisiones protón-protón. Algunas de las reacciones observadas son:
p+p® p+p+p
0
(4)
p+p® p+n+p
+
(5)
p+p® p+p+p +p
+ –
(6)
El número de piones producidos depende de la energía cinética de los protones. En los años posterio-
res se descubrieron otros mesones a los que se consideró también intermediarios de la fuerza nuclear
fuerte. En la actualidad, las más recientes teorías y experimentos sugieren que tanto los nucleones
como los mesones están constituidos por partículas más elementales denominadas quarks. La partí-
cula virtual fundamental intermediaria de la fuerza nuclear se denomina gluón.
Al igual que ocurre con la fuerza electromagnética y la fuerza nuclear fuerte, las otras dos fuer-
zas fundamentales de la naturaleza, la fuerza nuclear débil y la fuerza gravitatoria, son también el re-
sultado del intercambio de partículas virtuales. La fuerza nuclear débil, responsable de la desintegra-
ción b y de otras reacciones en las que intervienen neutrinos, es una fuerza de corto alcance causada
por el intercambio de partículas virtuales masivas denominadas bosones W+, W– y Z0. Estas partícu-
las fueron descubiertas en 1983 en el laboratorio europeo del CERN en Ginebra en el transcurso de
experimentos de colisión protón-antiprotón.
En cuanto a la fuerza gravitatoria, al igual que la fuerza electromagnética, es una fuerza de largo
alcance. Para este tipo de fuerzas se requiere que Dt sea mucho más grande y DE mucho más pequeño
que para las fuerzas de corto alcance como la fuerza nuclear. De hecho, la teoría cuántica de campos es-
tablece que las fuerzas de largo alcance son debidas a partículas de masa en reposo cero. Así, la fuerza
electromagnética es producida por el intercambio de fotones virtuales, y la fuerza gravitatoria es causa-
da por el intercambio de unas partículas virtuales denominadas gravitones, todavía no detectadas.
En la tabla 1 se muestran las fuerzas fundamentales de la naturaleza, ordenadas en función de su
intensidad relativa, y se especifica la partícula virtual que provoca la interacción.
Fotón g 0
Bosón W W+ 80.4
Bosón Z Z0 91.187
1
Leptones (fermiones (spin )
2
Electrón e– e+ 0.511
Neutrino (e) ve ve 0
Muón m– m+ 106.1
Neutrino (m) vm vm 0
Tauón t– t+ 1784
Neutrino (t) vt vt 0
Hadrones
Los bosones portadores de fuerza están asociados a las diferentes interacciones y parecen ser
verdaderamente fundamentales, es decir, que no están compuestos por otras partículas más pequeñas.
El primer miembro de la familia es el fotón responsable de la fuerza electromagnética. La familia se
completa con los bosones W+, W– y Z0, responsables de la interacción débil. Otros bosones predichos
son el gluón de masa 0, carga cero y spin 1; y el gravitón, de masa cero, carga cero y spin 2.
Los leptones son aquellas partículas que no se ven afectadas por la interacción nuclear fuerte y
se consideran realmente fundamentales. Son algunas de las partículas más ligeras, por lo que reciben
el nombre de leptones que proviene del griego y significa ligero. Los leptones son el electrón y su
neutrino, el muón y su neutrino y el tauón o partícula tau y su neutrino.
La tercera familia es la más amplia de las tres, cuenta con más de 100 partículas, a las que se les
denomina genéricamente hadrones. Los hadrones están sometidos a las cuatro fuerzas fundamenta-
les, y a su vez se dividen en dos subcategorías: en mesones, que son partículas de masa intermedia y
no obedecen al principio de exclusión de Pauli (bosones); y bariones, que son partículas pesadas y
obedecen al principio de exclusión de Pauli (fermiones).
La razón de que se emitan dos fotones es que se debe conservar la energía y el momento. Si la energía
de los electrones es suficientemente grande se pueden producir otro tipo de procesos.
De manera inversa, se puede producir una partícula y su antipartícula simultáneamente, como
por ejemplo:
– +
g®e +e (8)
Para que se produzca este proceso, el fotón debe tener una energía que debe ser al menos igual a
2mec2 = 1.22 MeV. Por otra parte, para que se satisfaga la conservación de la energía y el momento, el
proceso ha de producirse cerca de un núcleo. Como consecuencia del acoplamiento entre el núcleo y el
par electrón-positrón, el núcleo adquirirá la energía y el momento necesario para que se conserven ambas
cantidades. La producción de pares electrón-positrón es mayor en los materiales en los que el acoplamien-
to electromagnético con el par es mayor, lo que se da en los materiales con un número atómico alto, como
el plomo. La producción de pares es uno de los principales procesos que dan cuenta de la absorción de fo-
tones de alta energía por los materiales. A energías pequeñas, el proceso más importante es el efecto fotoe-
léctrico; a energías entre 0.1 MeV y 1 MeV el proceso dominante es el efecto Compton. Si la energía es lo
suficientemente alta se pueden producir otros procesos como la producción de pares m–, m+.
Análogamente a la aniquilación de pares electrón-positrón, puede producirse la aniquilación
protón-antiprotón, que es un proceso más complicado que lleva consigo la producción de varias partí-
culas, en su mayoría piones. También es posible la producción de un par protón-antiprotón en una co-
lisión protón-protón de alta energía. Este fue el tipo de reacción utilizado precisamente en los
experimentos que condujeron al descubrimiento del antiprotón. Para que el proceso se pueda produ-
cir, la energía del protón incidente, suponiendo el otro en reposo, ha de ser al menos de 5.64 GeV.
Leptones
Electrón Estable
Neutrino (e) Estable
Muón m – ® e– + vm + v e 1.52 ´ 10–6
Neutrino (m) Estable
Tauón t– ® e – + v t + v e 3.5 ´ 10–13
t– ® m – + v t + v m 3.5 ´ 10–13
Neutrino (t) Estable
Hadrones
Mesones
Pión p± ® m± + vtovm 1.8 ´ 10–8
p± ® e± + veove 1.8 ´ 10–8
p0 ® g + g 6 ´ 10–17
p0 ® g + e+ + e– 6 ´ 10–17
Kaón K+ ® m + + v m 8.56 ´ 10–9
K+ ® p + + p 0 8.56 ´ 10–9
KS0 ® p+ + p– 6 ´ 10–11
K 0L ® 2p0 6–11
KS0 ® p± + e± + ve 4 ´ 10–8
KS0 ® p± + m± + ve 4 ´ 10–8
Eta h0 ® g + g < 10–16
h0 ® p0 + g + g < 10–16
Bariones
Nucleones
Protón Estable 6 ´ 1031 años
Neutrón n ® p + e– + v e 9 ´ 102
Hiperones
Lambda L0 ® p + p – 1.76 ´ 10–10
L0 ® n + p 0 1.76 ´ 10–10
Sigma S+ ® p + p 0 5.6 ´ 10–11
S+ ® n + p + 5.6 ´ 10–11
S0 ® L 0 + g < 7 ´ 10–15
S ®n+p
– –
1.1 ´ 10–10
Xi X0 ® L 0 + p 0 2.0 ´ 10–10
X– ® L 0 + p – 1.2 ´ 10–10
Omega W– ® L 0 + K– 10–10
W– ® X0 + p – 10–10
Estas leyes de conservación son principios de orden que ayudan a explicar por qué ocurren algunas
reacciones y otras no. No obstante, hay reacciones que cumplen las leyes de conservación enumeradas
anteriormente, y que sin embargo no se han observado nunca. Un ejemplo de este tipo de reacciones es:
p+n®
\ p+p+p (9)
Para explicar por qué esta y otras reacciones no se producen se han introducido otras leyes de conser-
vación que son:
– Conservación del número de bariones.
– Conservación del número de leptones.
– Conservación del isospin.
– Conservación de la extrañeza.
Esta ley de conservación explica por qué la reacción (9) no puede ocurrir, ya que el número bariónico ini-
cial es B = 1 + 1 y el número bariónico final es B =1 + 1 – 1 = 1. Por consiguiente, la reacción violaría la ley
de conservación del número bariónico. Por el contrario, sí puede producirse la reacción dada por:
p+n®p+n+p+p (10)
En efecto, en este proceso, el número bariónico inicial y final es igual a 2. Esta reacción de creación
de un par protón-antiprotón se produce si el protón incidente tiene suficiente energía.
Por otra parte, también se debe conservar el número leptónico por separado para cada tipo de lepto-
nes (e, m, t). Para ello, llamaemos Le al número leptónico del electrón, asignamos Le = + 1 para el electrón
(e–) y el neutrino del electrón (ve), Le = –1 para el positrón (e+) y el antineutrino del electrón (v e ) y Le = 0
para las demás partículas. Análogamente Lm = +1 para el muón (m–) y el neutrino del muón (vm), Lm = –1
para el m+ y el antineutrino v m . De esta manera, se tiene que el decaimiento del muón es:
– –
m ® e + ne + n m (12)
Se puede observar que en ambos lados se tiene que Le = 0 y Lm = 1, por lo que en el decaimiento se
conserva el número leptónico del electrón y del muón. Por el contrario, está prohibida la desintegra-
ción dada por:
– –
m ®e +g (13)
ya que no se conserva el número leptónico del electrón ni del muón.
Los últimos descubrimientos sugirieron otro número cuántico con propiedades similares a la extrañe-
za que inhiben ciertos procesos de decaimiento. Esta propiedad se denomina encanto C. Hay mesones
con encanto, denominados D±, D0 y D0 , que forman un conjunto similar al de los mesones extraños
K; también hay bariones con encanto. La ley de conservación del encanto establece que:
El encanto total se conserva en los procesos debidos a la interacción fuerte y a la
interacción electromagnética.
Al igual que en el caso de la extrañeza en el caso del encanto también tiene lugar la producción
asociada de partículas. La expresión de Gell-Mann-Nishijima se modifica para el caso de partículas
con encanto y queda como:
Q B + S +C
= Iz+ (18)
e 2
1
Bariones (fermiones) (Spin )
2 Protón p +1 0 0 0 +½ +½ 0
Nucleones Neutrón n +1 0 0 0 +½ –½ 0
Lambda L0 +1 0 0 0 0 0 –1
Hiperones Sigma S+ +1 0 0 0 +1 +1 –1
S0 +1 0 0 0 +1 0 –1
S– +1 0 0 0 +1 –1 –1
Xi X0 +1 0 0 0 +½ –½ –2
X– +1 0 0 0 +½ +½ –2
Omega W– +1 0 0 0 0 0 –3
2. MODELO ESTÁNDAR
Como ya hemos visto, las partículas observadas pertenecen a la familia de los leptones o de los
hadrones. La principal diferencia entre ambos grupos de partículas es que los hadrones interactúan a
través de la interacción fuerte mientras que los leptones no lo hacen de esa forma. Otra importante di-
ferencia entre ambos grupos es que los leptones son sólo 6 (4, en la época de los años sesenta) mien-
tras que los hadrones pasaban de cien. El hecho de que existan tantos sugiere que no todos pueden ser
elementales. Murray Gell-Mann y G. Zweig en 1963 propusieron, de forma independiente, que los
hadrones estaban compuestos por ciertas entidades básicas o partículas fundamentales. Originalmen-
te se postuló la existencia de tres quarks y tres antiquarks. Gell-Mann propuso el nombre de quark
para estas partículas elementales.
La teoría que describe las propiedades y estructura de las partículas fundamentales, así como sus
interacciones, se conoce con el nombre de modelo estándar. Este modelo supone que la materia está
constituida por dos tipos de partículas: los leptones, y los quarks, a los cuales añadimos los bosones
intermediarios de los campos de fuerza que transportan las interacciones entre las partículas. Por con-
siguiente, se supone que los leptones y los quarks no tienen estructura interna.
Según el modelo estándar existen 6 leptones y 6 quarks, todos tienen spin 1/2 y por tanto son fer-
miones que obedecen al principio de exclusión de Pauli. Los leptones son los electrones (e), los muo-
nes (m) y los tauones (t), que tienen carga eléctrica –e, y sus tres neutrinos (ve, vm, vt), con carga
eléctrica cero. Tenemos por tanto tres grupos de leptones:
æv e ö æv m ö æv t ö
ç
ç ÷ ÷ ç
ç ÷ ÷ ç
ç ÷ ÷ (19)
èe ø èmø ètø
De forma análoga, la teoría supone la existencia de 6 tipos o sabores de quarks conocidos como
arriba (u), abajo (d), encanto (c), extraño (s), cima (t) y fondo (b), cuyos nombres provienen del inglés
up, down, charm, strange, top y bottom. Los nombres de los quarks son absolutamente arbitrarios y
no encierran ningún significado. En la física de los quarks es frecuente encontrar este tipo de termino-
logía caprichosa, como veremos más adelante. La carga eléctrica de los quarks es de 2e/3 para los
quarks u, c y t, y –1e/3 para los quarks d, s y b:
æu ö æcö æt ö
ç
ç ÷÷ ç
ç÷ ÷ ç
ç ÷÷ (20)
èd ø ès ø èb ø
Las masas de los quarks no se conoce con exactitud debido a que no se observan de forma aisla-
da como partículas libres, sino sólo en estados ligados formando hadrones. No obstante se estima que
las masas se encuentran entre los 300 MeV y los 5 GeV. Al igual que cada leptón tiene asociado un
antileptón de características iguales pero de carga opuesta, a cada quark le corresponde un antiquark
de las mismas características pero con carga opuesta. En la tabla 5 se resumen algunas de las caracte-
rísticas de los quarks.
Según una teoría denominada cromodinámica cuántica, además de la carga eléctrica, los
quarks transportan una carga de color que desempeña el mismo papel que la carga eléctrica en la in-
teracción electromagnética. Obviamente, este término no tiene nada que ver con los colores visua-
les, sino que es sólo una manera conveniente de postular una propiedad de los quarks para explicar
su comportamiento. Se supone que sólo existen tres tipos de carga de color denominadas roja (r),
verde (v) y azul (b), junto con las anticargas de color: antirroja, antiverde y antiazul. Una combina-
ción de tres quarks con tres colores diferentes o de un quark con un antiquark con la correspondien-
te anticarga de color da lugar a un sistema de color neutro o sin color (blanco). Los hadrones son
combinaciones de quarks sin color.
De la misma manera que en electrodinámica cuántica la fuerza electromagnética viene del inter-
cambio de fotones virtuales entre las partículas eléctricamente cargadas que interactúan, en cromodi-
námica cuántica la interacción fuerte surge del intercambio de gluones virtuales entre las partículas
con carga de color. Al hacer este intercambio estas partículas con carga de color quedan pegadas. La
diferencia principal entre la fuerza electromagnética y la fuerza de color es que los gluones poseen
ellos mismos carga de color, mientras que los fotones no tienen carga de color ni carga eléctrica. Dos
o más quarks cercanos entre sí intercambian rápidamente gluones, creando un campo de fuerza de co-
lor. Los gluones transportan pares de color/anticolor. Si bien existen 9 combinaciones posibles de pa-
res color/anticolor debido a consideraciones de simetría se elimina una, con lo que un gluón puede
transportar una de las ocho posibles combinaciones de color/anticolor. La carga de color se conserva
siempre, así, cuando un quark emite un gluón el color del quark cambia de manera que se conserve la
carga de color. Así, cuando un quark rojo emite un gluón rojo/antiazul se transforma en un quark azul
y el color neto sigue siendo el rojo. Dentro de los hadrones, los quarks emiten y absorben gluones
muy rápidamente, de modo que no es posible observar el color de un quark individual. En un hadrón,
los dos quarks que intercambian un gluón cambian de color de forma que el sistema se mantenga en
un estado de color neutro. La teoría que trata de las partículas portadoras de color se denomina cro-
modinámica cuántica.
Los bariones están compuestos por tres quarks (u, d, s) mientras que los mesones están com-
puestos por un quark y un antiquark. Por esta razón, los bariones poseen spin 1/2 o 3/2 que correspon-
den a las orientaciones del spin de los quarks (¯) y (), mientras que los mesones son
bosones de spin 0 (¯) o 1 (). En la tabla se muestra la estructura de algunos hadrones. Las reso-
nancias son estados excitados de las combinaciones de quarks. El modelo explica otras muchas cues-
tiones, como por ejemplo el hecho de que los neutrones que son una combinación (ddu) tienen carga
eléctrica cero, pero posee un momento magnético que resulta de combinar el momento magnético de
los quarks que lo forman.
Los leptones no poseen carga de color e interactúan entre sí y con los quarks mediante la interac-
ción electromagnética y débil intercambiando bosones g, W± o Z0. Ambas interacciones se pueden
combinar en lo que denominamos teoría electrodébil, establecida a mediados de los años sesenta por
Weinberg, Glashow y Salam. Los quarks que sí tienen carga de color interactúan entre ellos a través
de la interacción fuerte intercambiando gluones. En estos procesos, los quarks cambian de color pero
no de sabor, mientras que los procesos debidos a las interacciones débiles pueden cambiar de sabor
pero no de color.
p uud p +
ud
n ddu p0 uu + dd
S+ uus p– ud
S0 uds K+ us
S– dds K0 ds
L0 uds h0 uu – dd
Cuando quarks y antiquarks se combinan para formar hadrones, ya no pueden ser separados, y a
esta propiedad se le denomina confinamiento de los quarks. Esto se debe a que los gluones producen
una fuerza que aumenta rápidamente con la distancia. De esta manera se explica por qué no hay
quarks libres en el universo, porque fueron confinados poco después de la Gran Explosión.
En resumen, en la actualidad se consideran como partículas completamente elementales a los foto-
nes, los leptones, los quarks, los gluones y los bosones W± y Z0. No obstante, algunos físicos creen que
los leptones y los quarks no son los componentes últimos de la materia, sino que están formados por ob-
jetos aún más elementales. La respuesta evidentemente sólo la podremos encontrar en el futuro.
Por otra parte, Edwin Hubble (1889-1953) que se encontraba trabajando en el observatorio del
Monte Wilson en California, desarrolló una técnica que permitía determinar la distancia a las gala-
xias. Hubble combinó sus medidas con los datos de Slipher y encontró un resultado sorprendente:
para la mayoría de las galaxias, la velocidad de recesión u es proporcional a su distancia a la Tierra. El
resultado se conoce como ley de Hubble y se escribe como:
u= H 0 r (21)
en donde H0 es una cantidad experimental denominada constante de Hubble. Puesto que resulta bas-
tante difícil determinar la distancia a cualquier galaxia, se considera que la constante de Hubble varía
entre 1.6 y 3.2 ´ 10–18 s–1, con un valor promedio de 2.4 ´ 10–18 s–1. Las distancias astronómicas sue-
len medirse en años luz:
1 año luz = 9.46 ´ 10 m
15
La conclusión del resultado de Hubble fue revolucionaria: el universo no es estático, sino que se
encuentra en expansión. Otro aspecto de las observaciones de Hubble es que en todas las direcciones,
las galaxias parecen alejarse de nosotros. Puesto que no hay razón ninguna para pensar que la Vía
Láctea se encuentra en el centro de universo, si viviésemos en otra galaxia veríamos también que
cualquier otra parecería alejarse de nosotros. Es decir, el universo se ve más o menos igual, sin impor-
tar en qué parte de él nos encontremos. Esta importante idea es lo que se conoce con el nombre de
principio cosmológico. Existen fluctuaciones locales de densidad, pero, en promedio, el universo se
ve igual desde cualquier parte, por lo que la constante de Hubble es constante en el espacio aunque no
necesariamente en el tiempo, y las leyes de la física son las mismas en todas partes.
Una explicación al resultado encontrado de que el universo se encuentra en expansión es que en
un momento determinado toda la materia del universo estaba concentrada en una pequeña región del
espacio y que el universo comenzó con una gran explosión, denominada Big Bang, dando a la materia
observable las velocidades que ahora observamos. El tiempo en que tuvo lugar la gran explosión pue-
de calcularse de forma aproximada a partir de la ley de Hubble. Según ésta, la materia a una distancia
r de nosotros se mueve a una velocidad u = H0r. El tiempo necesario para viajar esa distancia es:
r r 1
t= = = (23)
u H0r H0
Es decir, que el Big Bang tuvo lugar hace unos 13000 millones de años. En este cálculo hemos desestima-
do la desaceleración debida a la fuerza gravitatoria y hemos supuesto que las velocidades se han manteni-
do constantes después de la gran explosión. Por lo tanto, nuestro cálculo se encuentra por debajo de la
edad real del universo, la cual se calcula que es alrededor de 20000 millones de años (2 ´ 1010 años).
El término gran explosión fue utilizado por primera vez por el inglés Fred Hoyle para describir la
magnitud y velocidad de los procesos ocurridos en los primeros instantes en la formación del universo.
Sin embargo, no es adecuado describir la expansión del universo como una explosión de materia desde
un punto concreto del espacio. En una explosión, las partículas más rápidas se mueven en el espacio va-
cío. Desde el punto de vista de la teoría de la relatividad general el concepto de espacio y de distribución
de materia están íntimamente ligados y la distribución de materia no forma un horizonte observable, las
partículas llenan todo el espacio. Es decir, desde este punto de vista debemos entender que el Big Bang
no fue una expansión en el espacio, sino que fue la expansión del espacio mismo. Por consiguiente, de
acuerdo con la teoría de la relatividad el aumento en la longitud de onda de la luz que proviene de las ga-
laxias no es causada por un desplazamiento Doppler conforme el universo se expande en un espacio va-
cío, sino que es el resultado de la expansión del espacio y de todo lo contenido en el espacio
intergaláctico, incluidas las longitudes de onda de la luz que proviene de las galaxias distantes.
la ebullición de un líquido. En consecuencia, estos modelos predicen una expansión muy rápida en la
que el universo pudo aumentar su tamaño hasta 1030, estableciéndose las condiciones para su expansión
posterior. En 10–32 s, el universo era una mezcla de quarks, leptones y bosones mediadores (gluones, fo-
tones, y los bosones débiles W± y Z0. El universo continuó expandiéndose y enfriándose.
En el instante 10–12 s, la temperatura descendió hasta 1015 K. La energía de las partículas era del
orden de 102 GeV y se produjo una nueva transición de fase o ruptura de simetría. Por debajo de esta
energía los bosones electrodébiles (W± y Z0) no pudieron crearse en estados libres y comenzaron a de-
saparecer del universo. El resultado fue la separación de la fuerza débil de la fuerza electromagnética.
El universo se redujo entonces a una mezcla de quarks, leptones, gluones y fotones.
Entre 1 ms y 100 ms. En el instante 10–6 s, la temperatura se redujo hasta unos 1013 K y la energía
típica era de 1 GeV (comparable a la energía en reposo de un nucleón). El universo entró en la era del
confinamiento de los quarks: los quarks se combinaron entre sí para formar los nucleones y los anti-
nucleones. El universo estaba compuesto mayoritariamente por protones, antiprotones, neutrones y
antineutrones, juntos con los leptones. Las partículas interactuaban con sus antipartículas dando lu-
gar a una gran cantidad de fotones g. Por otra parte, estos fotones de gran energía colisionaban entre sí
dando lugar a la creación de pares partícula-antipartícula.
Cuando la temperatura descendió a 1013 K, en un tiempo aproximadamente igual a 100 ms, los
fotones dejaron de tener la energía suficiente para producir pares protón-antiprotón y neu-
trón-antineutrón. El resultado fue la aniquilación de pares protón-antiprotón y neutrón-antineutrón
hasta que no quedaron antiprotones y antineutrones. Casi todos los protones y neutrones fueron tam-
bién aniquilados, pero no todos, evidentemente. La razón por la que no quedó antimateria es debido a
una ligera asimetría en las leyes fundamentales que dio lugar a que el número de quarks formados ori-
ginalmente fuese superior al de los antiquarks en una proporción de 1 en 109.
Entre 100 ms y 1 s. El equilibrio entre leptones y fotones resultado de las reacciones:
– +
e +e ®g+g (25)
– +
g + g® e + e (26)
se mantuvo hasta un tiempo aproximado de 1 s cuando, a consecuencia de la expansión, la temperatu-
ra se redujo hasta 6 x 109 K en la que el segundo proceso no podía tener lugar debido a la energía de
los fotones. En consecuencia, los electrones y los positrones se aniquilaron no quedando antimateria
de forma significativa.
Entre 1 s y 10 s. Las reacciones dominantes en este intervalo de tiempo fueron:
–
p + e ® n + ve (27)
+
n + e ® p + ve (28)
Sin embargo en el instante t = 2 s, la temperatura era lo suficientemente baja como para que no se pro-
dujeran las interacciones:
–
ve + n ® p + e (29)
+
ve + p ® n + e (30)
Esto dio lugar a dos efectos importantes. El primero es que el universo se hizo transparente a los neu-
trinos: los neutrinos continuaron su expansión sin interaccionar y dio lugar a una radiación de fondo
de neutrinos cósmicos que existe en la actualidad, aunque muy enfriado por la expansión. Por otro
lado, los neutrones libres son inestables y se desintegran con una vida de unos 900 s:
–
n ® p + e + ve (31)
Esto era debido a que la energía de enlace del deuterio es solamente 2.2 MeV, por lo que era imposi-
ble la formación de ningún núcleo pesado.
A partir del instante t 100 s, la temperatura descendió por debajo del nivel necesario para que
los fotones tuviesen energía suficiente para producir la reacción anterior, por lo que se hizo posible la
formación por fusión termonuclear de 21 H, 32 He y 42 He. Sin embargo, la excepcional estabilidad del
4
2 He y la ausencia de un núcleo estable con número atómico A = 5 y A = 8 impidió la formación de nú-
cleos más pesados.
Entre 100 s y 300000 años. En este período la temperatura había descendido a un valor tal que
se podían formar los primeros átomos. Un protón podía capturar un electrón y daba lugar a un átomo
de hidrógeno. Sin embargo, la energía de los fotones era lo suficientemente alta como para producir la
ionización de tales átomos:
–
g + 11 H (Atómico) ® p e (34)
Finalmente, transcurridos alrededor de 300000 años, la energía de los fotones se hizo insuficiente
para ionizar los átomos. De esta manera, los electrones se combinaron con los núcleos para dar lugar
a átomos estables de hidrógeno, de helio y de litio. El universo se hizo transparente a los fotones y la
materia y la radiación se separaron. Estos fotones, enfriados por la expansión subsiguiente, forman la
radiación de fondo, la cual en la actualidad tiene una temperatura de cuerpo negro de aproximada-
mente 2.7 K. La observación de esta radiación por Robert Wilson y Arno Penzias en 1964 proporcio-
nó una de las confirmaciones experimentales más convincentes del modelo del Big Bang.
Después de los 300000 años. La separación entre radiación y materia preparó el camino para la
formación de estrellas y galaxias. Las pequeñas fluctuaciones aleatorias en la densidad en una deter-
minada región desencadenó la contracción gravitatoria alrededor de un centro de densidad ligera-
mente aumentada. La distribución de grupos de galaxias que se observa parece indicar que las
fluctuaciones en la densidad debieron producirse bastante pronto en la evolución del universo.
Tal como hemos visto, en el Big Bang sólo tuvo lugar la formación de los elementos muy lige-
ros. Los demás elementos por debajo del hierro se produjeron en los procesos de fusión termonuclear
en las estrellas. Los elementos pesados, que existen en el universo con una abundancia relativa pe-
queña, se cree que se formaron durante los procesos exóticos que tienen lugar en las supernovas.
largo alcance es la gravitacional. Por consiguiente, la atracción gravitatoria debería frenar la expan-
sión del universo.
Si la densidad del universo es mayor que cierto valor denominado densidad crítica, la atracción
gravitatoria será lo suficientemente fuerte de manera que la expansión del universo se hará más lenta
hasta que se detenga cuando la energía cinética se haya convertido en energía gravitatoria. A partir de
este momento el universo empezará a contraerse hasta llegar a una situación que se ha venido deno-
minado Gran Contracción o Big Crunch. El universo podría entonces rebotar con un Big Bounce y
empezar todo de nuevo. Se tendría así un universo oscilante que sería un universo cerrado.
Si la densidad de masa fuese menor que la densidad crítica el universo sería plano o abierto. En
este caso, la expansión continuará indefinidamente.
La densidad crítica se estima que es del orden de rc = 2 ´ 10–26 kg/m3. Es decir, aproximadamente
de 12 nucleones por metro cúbico. La evidencia presente, basada en estimaciones de materia luminosa
(materia que interacciona con la radiación electromagnética) en galaxias, así como en el proceso de nu-
cleosíntesis, indica que la densidad de masa energía del universo es del orden de 0.05 rc, lo que favorece la
idea de que el universo es abierto. Sin embargo, existe una gran incertidumbre sobre la materia real del
universo. Algunos teóricos creen que la densidad de masa es igual a la densidad crítica. Para que esto fuera
así, debería existir una gran cantidad de materia oscura no visible en el universo. La naturaleza de esta ma-
teria oscura es en la actualidad un misterio y son varias las posibilidades. La primera son los neutrinos con
masa, la segunda los agujeros negros, y la tercera las WIMP (partículas masivas de interacción débil). La
presencia de materia oscura viene también sugerida por las recientes mediciones del efecto Doppler de los
lados opuestos de una galaxia en rotación. Las medidas indican que se requiere 10 veces más de la masa
visible para mantener unidas estas galaxias mediante la fuerza gravitatoria. Por consiguiente, podemos
decir que la naturaleza de la mayor parte de la materia de nuestro universo sigue siendo un misterio para la
ciencia. De su cantidad depende de cómo será el universo, aunque los indicios apuntan a que el universo
es abierto, o cuanto más, plano en continua expansión.
BIBLIOGRAFÍA
39
Sistema solar. Fenómenos
de astronomía de posición.
Observación y medida
en astrofísica. Evolución
estelar. Estructura
y composición del universo
ÍNDICE SISTEMÁTICO
1. EL SISTEMA SOLAR
1.1. Origen del sistema solar
1.2. Situación del sistema solar
1.3. Estructura del sistema solar
1.3.1. El Sol
1.3.2. Los planetas y sus satélites
1.3.3. Asteroides
1.3.4. Cometas
2. ASTRONOMÍA DE POSICIÓN
2.1. La esfera celeste
2.2. Movimiento aparente de los objetos celestes
2.2.1. Efecto del movimiento de rotación de la Tierra
2.2.2. Efecto del movimiento orbital de la Tierra
2.3. Coordenadas astronómicas
2.3.1. Coordenadas horizontales o altacimutales
2.3.2. Coordenadas horarias o ecuatoriales locales
2.3.3. Coordenadas ecuatoriales absolutas
2.3.4. Coordenadas eclípticas
2.4. Medidas del tiempo en astronomía
2.5. Tiempo solar
2.6. Tiempo sidéreo
2.7. Tiempo de efemérides
BIBLIOGRAFÍA
1. EL SISTEMA SOLAR
La astronomía moderna tiene su origen en el estudio de nuestro sistema solar. Las grandes ci-
vilizaciones antiguas de Egipto, Grecia, China o la India fueron las primeras en encontrar grupos de
estrellas fijas, hoy denominadas constelaciones, que giraban en el cielo noche tras noche mante-
niendo la misma forma, y a los que asociaron con objetos, animales e incluso con elementos de sus
propias mitologías y cultura. Además de estas estrellas fijas, los antiguos observaron otros objetos
brillantes que se movían siguiendo esquemas regulares. Estos objetos eran algunos de los planetas
del sistema solar.
Los antiguos reconocían cinco planetas, que eran los que podían verse sin utilizar ningún tipo de
instrumento, y el objetivo último de la observación de los cuerpos celestes era eminentemente prácti-
co y estaba relacionado con la navegación o la posibilidad de construir calendarios. En aquellas épo-
cas todas las explicaciones se basaban en la idea de que la Tierra era el centro de todo el Universo y no
fue hasta el siglo XVI cuando los trabajos de Nicolás Copérnico establecieron las bases científicas de
la moderna astronomía.
En la actualidad sabemos que el sistema solar está compuesto por nueve planetas y una miríada
de objetos más pequeños como satélites, asteroides, cometas y polvo. No obstante, el descubrimiento
de nuevos objetos y nuevos tipos de objetos es continuo, por lo que nuestra visión del sistema solar es
absolutamente cambiante con los nuevos datos y observaciones realizadas. El conocimiento de nues-
tro sistema solar ha adquirido una nueva dimensión en las últimas décadas debido a la posibilidad de
realizar exploraciones interplanetarias que han proporcionado imágenes y datos de los planetas y de-
más objetos inimaginables hace algunos años. Por otro lado, los nuevos desarrollos tecnológicos y la
utilización de nuevas técnicas han permitido mejorar las observaciones realizadas desde la Tierra y
realizar nuevos descubrimientos sobre la composición y estructura del sistema solar.
En otro orden de cosas, recientemente hemos asistido a un descubrimiento de enorme importan-
cia: la detección de posible material biológico en meteoritos procedentes de Marte. A pesar de ser un
tema muy controvertido, este descubrimiento pondría de manifiesto la posibilidad de existencia de
vida en otros planetas de condiciones similares. Un tema que ha interesado a la humanidad y no sólo
desde el punto de vista científico.
que dieron lugar a la formación de los planetas internos: Mercurio, Venus, La Tierra y Marte. Por el con-
trario, en las zonas lejanas, las temperaturas eran lo suficientemente frías como para que existiera una gran
cantidad de hielo, que se unió a los planetesimales para dar lugar a los núcleos de los planetas gigantes: Jú-
piter, Saturno, Urano y Neptuno. Por otra parte, en las zonas lejanas la densidad de hidrógeno y helio era
aproximadamente igual a la original por lo que los planetas externos incorporaron gran cantidad de estos
elementos y aumentaron aún más su tamaño. Este modelo podría explicar el hecho de que los planetas Jú-
piter y Saturno presenten la concentración de hidrógeno y helio más alta, mientras que Urano y Neptuno
que se formaron en una región más fría contienen las cantidades de hielo más altas.
A continuación vamos a describir cada uno de los componentes del sistema solar.
1.3.1. El Sol
El Sol (figura 1) es una estrella ordinaria que sigue la
secuencia principal (ver apartado 4). De acuerdo con su es-
pectro, el Sol está clasificado como una estrella enana G2,
lo que significa que la parte principal de su espectro se en-
cuentra en el visible y presenta un pico en las longitudes de
onda correspondientes al amarillo.
El radio del Sol, Ru, es de 696.000 km (aproximada-
mente 109 veces el radio de la Tierra) y tiene una masa, Mu Figura 1. Imagen de rayos X del Sol.
de 1,989 ´ 1030 kg (330.000 veces la masa de la Tierra) con
una densidad media de 1,41 g/cm3. La masa del Sol supone el 99,85% de la masa del sistema solar,
pero sólo el 0,5% de su momento angular. Esto se debe fundamentalmente a la transferencia de mo-
mento angular entre el Sol y el disco de acumulación que dio lugar a la formación de los planetas y a
la pérdida gradual de momento angular debido al momento angular transportado por el viento solar.
El Sol se compone básicamente de hidrógeno (75%), helio (23%) y elementos más pesados
(2%). Debido a la fuerza gravitatoria, la masa del Sol presiona hacia dentro y para evitar el colapso de
la estrella la presión central debe ser suficiente como para soportar su peso. Esto hace que la densi-
dad, la presión y la temperatura sean diferentes a distintas distancias del centro de la estrella.
En lo que se refiere a la estructura del Sol podemos distinguir una estructura interna formada por
un núcleo, una zona de radiación y una zona convectiva; y la atmósfera solar formada por la fotosfera,
la cromosfera y la corona solar (figura 2).
Zona Zona
radiativa convectiva
Fotosfera
Núcleo
Corona
Cromosfera Protuberancia
3
– El núcleo es la zona central del sol con una densidad de aproximadamente 150 g/cm que se
6
encuentra a una temperatura aproximada de 10 K. A estas temperaturas, los átomos se en-
cuentran separados de sus electrones y debido a la enorme presión son capaces de vencer
las fuerzas electrostáticas de repulsión, colisionan con otros átomos y dan lugar a reaccio-
nes nucleares y a liberación de energía, crucial para la existencia de vida en la Tierra. Estas
reacciones nucleares son las siguientes. En primer lugar un protón se fusiona con otro pro-
tón para dar lugar a un deuterón
1 1 2 +
H + H ® D + e + n + 1,44 MeV (1)
El paso siguiente a la formación de deuterones es:
2 1 3
D + H ® He + g + 5,49 MeV (2)
La atmósfera solar está formada por tres regiones: la fotosfera, la cromosfera y la corona solar.
– La fotosfera es una zona de unos 300 km de espesor en la que se produce la radiación visi-
ble de espectro continuo y es la superficie visible del Sol. En esta zona, los fotones atrapa-
dos en las regiones internas escapan dando lugar a un descenso de la temperatura que es del
orden de los 5.800 K en la superficie visible y que disminuye hasta un mínimo de 4.000 K a
una distancia de unos 500 km por encima. Cuando se observa mediante un telescopio se
pueden distinguir las corrientes de convección que se producen en la zona inferior. El mo-
vimiento continuo de materia hacia arriba y hacia abajo en la zona de convección produce
un esquema denominado granulación que le da a la fotosfera una apariencia irregular. La
duración de cada gránulo es del orden de 10 minutos y tienen una extensión de unos 2.000
km. Pero también hay células de granulación de una extensión de alrededor de 30.000 km y
que tienen una duración del orden del día.
– La cromosfera es una capa de gas en forma de anillo de color rosa de unos 2.000 km de es-
pesor que puede verse durante los eclipses cuando la fotosfera se encuentra oculta. En la
cromosfera la energía es transportada por radiación: los átomos de hidrógeno absorben la
energía de la fotosfera y la mayor parte de esta energía es emitida como luz roja. Por eso, la
cromosfera también puede verse fácilmente mediante filtros que sólo dejen pasar la luz
roja. Las medidas realizadas revelan que la temperatura de la cromosfera es del orden de
8.000 K, un poco mayor que la de la fotosfera. Por tanto, la cromosfera es la zona de transi-
ción entre la región de temperatura relativamente baja que representa la fotosfera (5.800 K)
y la región de alta temperatura (1.000.000 K) que representa la corona solar. Otro aspecto
interesante de la cromosfera es que su parte más externa presenta una serie de salientes con-
tinuamente cambiantes denominados espículas. La espículas son como llamaradas de mi-
les de kilómetros de longitud que aparecen y desaparecen de forma rápida y continua.
– La corona solar es una especie de halo que rodea a la
cromosfera y que se extiende una gran distancia alrede-
dor del Sol (figura 3). Al igual que la cromosfera, la co-
rona puede apreciarse cuando se producen los eclipses
de Sol en los que la fotosfera se encuentra oculta o me-
diante un telescopio especial que simula un eclipse cu-
briendo completamente el disco solar. La forma de la
corona está determinada principalmente por el campo
magnético del Sol. Los electrones libres se mueven a lo
largo de las líneas de campo magnético y forman es-
tructuras de muy diversa forma. En ocasiones el campo
magnético emerge de las regiones más bajas y vuelve
de nuevo hacia el Sol describiendo un arco. Puesto que
las partículas siguen el camino marcado por el campo
Figura 3. Corona solar.
magnético producen lazos y arcos dinámicos que se
pueden ver mediante telescopios especiales y que se
denominan protuberancias solares.
Las partículas de la corona también fluyen a lo largo de líneas del campo magnético que se
alejan del Sol hacia el espacio interestelar. Este flujo de partículas se denomina viento solar
y puede alcanzar velocidades de 400 km/s. Cuando el viento solar alcanza la Tierra, el cam-
po magnético terrestre en ocasiones atrapa estos electrones y protones y los arrastra hasta la
atmósfera en donde interactúan con los átomos que absorben energía y luego la liberan en
forma de luz coloreada. Este fenómeno, cuando se produce en el hemisferio norte, se deno-
mina Aurora Boreal.
la eclíptica. En primera aproximación, despreciando los efectos de los otros planetas y del resto de
materia del sistema solar, el movimiento de los planetas alrededor del Sol viene descrito por las leyes
de Kepler:
1. Los planetas describen órbitas elípticas alrededor del Sol, con éste en uno de sus focos.
2. El radio vector de un planeta respecto del Sol barre áreas iguales en tiempos iguales.
3. El cuadrado de los períodos de revolución de cada planeta alrededor del Sol es proporcional al
cubo de los semiejes mayores de las elipses.
Marte
Mercurio La Tierra
Plutón
Neptuno
Urano
Júpiter Saturno
Figura 5. Órbitas
alrededor del Sol
de los planetas
más lejanos.
En la tabla (1) se muestran las características de las órbitas de los nueve planetas del sistema so-
lar alrededor del Sol. Las distancias se dan en unidades astronómicas (AU, 1 AU = 149.600.000 km),
y la inclinación se da en grados respecto al plano de la eclíptica.
Debido a que los planetas tienen una masa finita, su interacción gravitatoria es pequeña pero
no nula. Como consecuencia de esta interacción mutua, las órbitas de los planetas se separan de su
forma elíptica ideal y el efecto más significativo es la precesión del perihelio. Por otro lado, en un
sistema dinámico, pequeñas variaciones en las condiciones iniciales o la imposibilidad de poder es-
pecificar con precisión las condiciones iniciales pueden conducir a un error creciente con el tiempo
en las predicciones a largo plazo. Si el error crece exponencialmente se dice que el sistema es caóti-
co. Algunos estudios han demostrado que las órbitas de los planetas son caóticas. Ahora bien, esto
no significa que Júpiter y Marte pudieran cruzarse algún día, lo que quiere decir es que la posición
de cualquier planeta sobre su órbita no puede predecirse para períodos de tiempo muy largo. Por su-
puesto, esto significa que la interacción mutua entre los planetas tampoco puede predecirse a muy
largo tiempo y por tanto puede variar.
La estructura interna de un planeta está formada por tres partes: el núcleo, el manto y la corteza,
y atendiendo a su composición se dividen en dos grupos: los planetas tipo Tierra o telúricos y los pla-
netas tipo Júpiter o jovianos, también denominados gigantes. En la tabla (2) se muestran las caracte-
rísticas físicas de los planetas y del Sol.
lar del que captura iones de hidrógeno y helio. Debido a su cercanía al Sol la tempe-
ratura es del orden de los 370 ºC durante el día pero debido a su casi inexistente at-
mósfera no puede retener el calor por lo que su temperatura nocturna puede alcanzar
los –185 ºC. Esta falta de atmósfera hace que el planeta no esté protegido de impac-
tos exteriores, por lo que su superficie es bastante parecida a la de la Luna con una
gran cantidad de cráteres. Además, la imposibilidad de fenómenos atmosféricos hace
que su superficie no pueda ser erosionada.
Ø Venus es el segundo planeta más cercano al Sol (figura 7). Su superficie está domina-
da por una amplia variedad de terreno volcánico y su superficie es casi plana debido a
dos factores: la espesa atmósfera del planeta, y la actividad volcánica. La atmósfera de
Venus está compuesta fundamentalmente de CO2 y ni-
trógeno en mucha menor proporción, siendo la presión
en su superficie 94 veces la presión atmosférica terres-
tre. Esta espesa capa atmosférica rompe los pequeños
asteroides y cometas antes de que puedan golpear su su-
perficie. Por otro lado, la actividad volcánica ha dado
lugar a que la mayoría de los viejos cráteres hayan de-
saparecido bajo los materiales volcánicos. Por otro
lado, la espesa atmósfera de Venus da lugar a un inten-
so efecto invernadero: la energía solar puede llegar a la
superficie del planeta pero no puede escaparse de nue-
vo hacia el espacio exterior. Como consecuencia la
temperatura en la superficie alcanza valores de 460 ºC.
La parte media y alta de la atmósfera está compuesta
Figura 7. El planeta Venus. de nubes de ácido sulfúrico y agua que impide que la
superficie pueda ser vista desde el exterior.
Ø La Tierra (figura 8) es el único planeta que reúne las condiciones para sustentar vida
humana. Es el único planeta con placas tectónicas activas que producen el movimien-
to de grandes placas sobre la superficie del planeta cuyas colisiones dan lugar a las
montañas y a los fenómenos volcánicos. Además es el único planeta en el que la pre-
sión atmosférica y la temperatura permite la existencia de agua sobre su superficie, de
la que ocupa casi el 70%. La atmósfera de la Tierra es única puesto que contiene gran
cantidad de oxígeno libre, el cual, en otros planetas, se encuentra ligado a materiales
superficialmente oxidados. Este hecho se debe a la presencia de vida en la Tierra. Los
organismos microscópicos vivos en los océanos primitivos convirtieron los gases at-
mosféricos originales en aire. Hay indicios suficientes para creer que la atmósfera pri-
mitiva consistía principalmente de dióxido de carbono. Mientras que en la actualidad
el 78% es nitrógeno, el 21% oxígeno y el 1% restante vapor de agua y argón.
Figura 8.
La Tierra.
Ø La Luna es el único satélite de la Tierra y es poco común comparada con el resto de saté-
lites naturales del sistema solar (figura 9). Mientras que casi todos los planetas son mucho
más grande que sus lunas, del orden de 40 o 50 veces, la Tierra es tan sólo 4 veces el tama-
ño de la Luna. En la actualidad está ampliamente extendida la creencia que la Luna fue el
resultado de la colisión de la proto-Tierra con otro
protoplaneta del tamaño aproximado de Marte. Esto
podría explicar, entre otras cosas, el hecho de que la
Luna está compuesta principalmente por silicatos si-
milares a los del manto terrestre y que tenga sólo un
núcleo muy pequeño de hierro. La superficie de la
Luna está cubierta de cráteres resultantes de los in-
tensos impactos con cientos de miles de meteoros
hace millones de años. El hecho de que los cráteres
lunares se hayan mantenido durante todos estos
años se debe a que la Luna no tiene atmósfera apre-
ciable, por lo que no hay lluvia o viento que puedan
erosionarlos; que en la Luna no hay volcanes acti- Figura 9. La Luna.
vos, pues su interior no está caliente; y que los movi-
mientos sísmicos son millones de veces menos in-
tensos que en la Tierra y no tienen efectos apreciables en la superficie. Tal como hemos
dicho, la Luna, como el resto de satélites naturales del sistema solar, no tienen atmósfera
apreciable. Sólo tienen una atmósfera transitoria debida a los átomos de helio del viento
solar que golpean la superficie lunar y son atrapados, y a átomos de argón liberados por
las rocas de la superficie y atrapados temporalmente durante la noche lunar. También se
han detectado algunos átomos de sodio y de potasio como resultado del arranque de ma-
teria de la superficie lunar por las partículas del viento solar. En la tabla (3) se dan las ca-
racterísticas físicas y orbitales de la Luna.
Tabla 3. Parámetros físicos y orbitales de los satélites de los planetas telúricos (tipo Tierra).
como muestra un cañón de longitud igual al ancho de los Estados Unidos. La atmósfera
de Marte es una delgada capa de unos 35 km de espesor que está formada básicamente
por dióxido de carbono y un porcentaje pequeño de nitrógeno y de argón. En el pasado,
según los rastros geológicos comentados anteriormente, la atmósfera debió de ser más
densa y caliente de manera que permitiera la existencia de agua líquida sobre la superfi-
cie del planeta.
Marte tiene dos satélites naturales, Fobos y Deimos, que son dos cuerpos pequeños e
irregulares en órbitas relativamente cercanas al planeta. La composición superficial
de estos objetos es carbonosa, lo que ha dado lugar a la hipótesis de que son dos aste-
roides capturados. Sin embargo, esta hipótesis presenta algunas inconsistencias. Por
un lado, Marte se encuentra en el interior del cinturón de asteroides en el que predomi-
nan los asteroides de silicatos y en donde los carbonosos son muy raros; por otro, am-
bos satélites se encuentran en órbitas muy cercanas al planeta y casi circulares, lo que
es algo poco habitual en objetos capturados. En la tabla (3) se especifican las caracte-
rísticas de las dos lunas de Marte.
– Los planetas jovianos o de tipo Júpiter, también denominados gigantes, son Júpiter, Sa-
turno, Urano y Neptuno. Estos planetas se caracterizan por una menor densidad y por tener
unas atmósferas espesas de hidrógeno y de helio. Su composición es similar a la del Sol
pero con la presencia de elementos más pesados. Debido a su composición y a su tempera-
tura y presión internas, los planetas jovianos carecen de superficie sólida. Sin embargo pue-
den tener un núcleo sólido de hierro o de silicatos. Por otra parte, los planetas jovianos, a di-
ferencia de los planetas telúricos, tienen numerosos satélites naturales y están ordenados en
sistemas complejos. Otra característica de los planetas jovianos es que todos tienen una es-
tructura de anillos a su alrededor y que es diferente para cada uno de ellos.
Ø Júpiter es el planeta más grande del sistema solar (figura 11). De hecho es tan grande
que se comporta como un pequeño sol que nunca llegó a desarrollarse completamente,
pero su masa debería ser 100 veces mayor para que se pudieran producir las reaccio-
nes nucleares que se producen en las estrellas. El núcleo de Júpiter podría alcanzar los
30.000 ºC y este calor interno es lo que controla el clima del planeta, pues emite el do-
ble de la energía que recibe del Sol. Estas condiciones internas hacen que el planeta no
tenga una superficie sólida. La superficie visible de Júpiter es la capa alta de su atmós-
fera que está formada por un conjunto de muchos tipos de nubes en las que predomi-
nan las moléculas que contienen hidrógeno, como el metano, el amoníaco y el agua.
Esta nubes forman bandas de diferentes colores que hacen que el planeta se vea desde
la Tierra con el aspecto de una enorme pelota playera.
Júpiter tiene cuatro satélites mayores y doce satélites meno-
res. Los satélites mayores son Io, Europa, Ganimedes y Ca-
listo, cuyas características principales se dan en la tabla (4).
Io es el satélite mayor más interno y tiene un tamaño aproxi-
mado al de la Luna y presenta una importante actividad vol-
cánica lanzando con frecuencia polvo de azufre amarillo y
rojo hasta alturas de 300 km. La siguiente luna mayor más
cercana al planeta es Europa, que está cubierta por una capa
gruesa de hielo que podría cubrir grandes mares de agua lí-
quida. El siguiente satélite mayor en proximidad es Ganime-
des, que es el satélite más grande del sistema solar, mayor
que el planeta Mercurio. Ganimedes es otro satélite de hielo
y su superficie da muestras de haber sido recompuesta varias
veces de forma parcial en el pasado. El último de los satélites
es Calisto. Se trata de otro satélite de hielo que presenta mues-
Figura 11. El planeta Júpiter. tras de impactos de cometas y asteroides.
Tabla 4. Parámetros físicos y orbitales de los satélites de los planetas jovianos (tipo Júpiter).
Figura 13.
El planeta Urano.
Figura 14.
El planeta Neptuno.
Ø Plutón es el planeta más alejado del sistema solar y no es fácilmente clasificable como
planeta telúrico o joviano. Es bastante parecido a Tritón, el satélite más grande de
Neptuno, y a los planetesimales helados del cinturón de Kuiper que se encuentra de-
trás de la órbita de Neptuno. Es por esta y por otras razones por lo que todavía se deba-
te la consideración o no de Plutón como un planeta. Plutón está constituido de hielo y
roca en proporciones todavía desconocidas. Su superficie parece estar cubierta en
gran parte por metano helado y por nitrógeno helado, en menor medida. El planeta tie-
ne una tenue atmósfera, de nitrógeno y metano, la cual se escapa progresiva y lenta-
mente debido al pequeño campo gravitatorio del planeta. Plutón tiene un solo satélite,
llamado Caronte, cuyo tamaño es algo más grande que la mitad del planeta.
Durante mucho se tiempo se ha especulado con la posibilidad de que existiera un décimo planeta
en el sistema solar, denominado planeta X. Sin embargo, todas las observaciones realizadas y los aná-
lisis de las trayectorias de naves espaciales, como las Pioneer 10 y 11 y las Voyager 1 y 2, han resulta-
do negativos.
1.3.3. Asteroides
Los asteroides son objetos rocosos, carbonosos o metálicos más pequeños que los planetas que
orbitan alrededor del Sol. Sus tamaños oscilan entre 1 y 1.000 km. Los más grandes tienen forma es-
férica mientras que los más pequeños suelen tener formas alargadas e irregulares. Los astrónomos
han descubierto miles de asteroides en el sistema solar y es posible que existan millones de ellos más.
No obstante, la masa de todos ellos es menor que la masa del más pequeño de los planetas, Plutón.
La mayoría de asteroides se encuentran en órbitas situadas entre Marte y Júpiter formando un am-
plio anillo que se ha denominado cinturón de asteroides. No obstante, hay otros muchos asteroides si-
tuados en otras regiones del espacio. Así por ejemplo, unos 81 asteroides, denominados de Amor, cru-
zan la órbita de Marte; unos 91, denominados asteroides de Apolo, cruzan la órbita de la Tierra; y unos
11, asteroides de Atón, tienen órbitas más pequeñas que la de la Tierra. Se estima que aproximadamente
deben haber 100 asteroides de Atón, 700 de Apolo y 1.000 de Amor. Puesto que mucho de estos asteroi-
des cruzan la órbita de la Tierra pueden colisionar con la Tierra. De hecho, algunos científicos piensan
que uno de los asteroides de Apolo pudo haber causado la extinción de los dinosaurios cuando chocó
contra la Tierra hace 65 millones de años. En 1991, uno de estos asteroides con un diámetro estimado de
10 metros pasó a una distancia de la Tierra menor que la mitad de la distancia entre la Tierra y la Luna.
Los asteroides están formados de diferentes tipos de rocas constituidas de hierro y otros metales.
Medidas de la cantidad de luz reflejada a distintas longitudes de ondas y otras técnicas, junto con el
análisis de trozos de meteoritos llegados a la superficie terrestre, han permitido clasificar a los aste-
roides en diferentes grupos de acuerdo a su composición. Se estima que el 75% de los asteroides per-
tenecen a la clase C, el 15% a la clase S, el 5% a la clase M, y el resto a una variedad muy amplia de
otras clases menores. Los asteroides de clase C están constituidos de un material relacionado con un
tipo de meteoritos conocidos como condritos carbonáceos. Estos asteroides son de color muy oscuro,
probablemente causado por su contenido en hidrocarburos, y son los predominantes en la zona media
y más externa del cinturón de asteroides. Los de clase S están relacionados con los meteoritos pé-
treos-ferrosos y contienen cantidades significativas de silicatos y metales. Estos asteroides son los
dominantes en la región interior del cinturón de asteroides. Los asteroides de clase M están relaciona-
dos con los meteoritos de níquel-hierro y están compuestos por una aleación de estos metales. Por úl-
timo, unos pocos asteroides quizá estén relacionados con la clase más extraña de meteoritos: los
acondritos. Estos asteroides parecen tener en su superficie una composición ígnea semejante a la de
muchos torrentes de lava terrestres y lunares. Estos asteroides se encuentran en la parte más interna
del cinturón a distancias inferiores a 2,6 AU.
El asteroide más grande es Ceres. Es un asteroide de la clase C, tiene un diámetro de 913 km y se
encuentra orbitando a una distancia de 2,77 AU. El segundo de los asteroides, en tamaño, es Palas. Se
trata también de un asteroide de clase C, con un diámetro de 523 km y una órbita a 2,77 AU del Sol.
El origen de los asteroides es incierto, pero los astrónomos piensan que hace millones de años,
en la época en que los planetas se estaban formando, sólo había unos cuantos asteroides muy gran-
des en el cinturón de los asteroides. La atracción gravitacional de Júpiter evitó que se unieran para
formar un planeta y en su lugar, con el tiempo, fueron colisionando produciendo así fragmentos
más pequeños. Todavía hoy siguen produciéndose colisiones que dan lugar a polvo y asteroides
más pequeños.
1.3.4. Cometas
Los cometas son objetos celestes compuestos de una parte importante de hielo y de roca. El as-
trónomo americano Fred Whipple los describió como “sucias bolas de nieve”. Los cometas son obje-
tos más pequeños que los planetas y orbitan alrededor del Sol en órbitas muy excéntricas. Debido a
esta alta excentricidad y a su origen, los cometas pasan la mayor parte de sus vidas mucho más allá de
los planetas del sistema solar. Sin embargo, cuando visitan el interior del sistema pueden conocerse
fácilmente debido al aspecto que presentan. Al acercarse al Sol el objeto se calienta y el hielo se eva-
pora de su superficie formando una nube larga y tenue que se denomina coma o cabellera. Las partí-
culas cargadas del viento solar expulsan las moléculas de la cabellera formando una cola larga y bri-
llante. Esta cola del cometa siempre se encuentra en dirección opuesta al Sol, incluso cuando el come-
ta se aleja de la estrella.
Los cometas, probablemente, se formaron al mismo tiempo que el sistema solar hace aproxima-
damente 4.600 millones de años pero debido a los efectos gravitatorios de los planetas gigantes fue-
ron lanzados lejos del Sol. Los astrónomos creen que alrededor entre 1012 y 1013 cometas se encuen-
tran en una región denominada nube de Oort que se encuentra a una distancia aproximada de un año
luz del Sol. Un segundo depósito de cometas lo constituye el denominado cinturón de Kuiper que se
extiende desde detrás de la órbita de Neptuno hasta varios cientos de AU.
Atendiendo a su período de revolución alrededor del Sol los cometas se clasifican en cometas
de período largo (más de 200 años) y los cometas de período corto (menos de 200 años). Muchos de
los cometas de período largo observados en las regiones cercanas a los planetas tienen su proceden-
cia en la nube de Oort. Algunos de los cometas de período corto, como el cometa Halley, son come-
tas que han evolucionado debido al efecto gravitatorio de los planetas y han pasado de tener un pe-
ríodo largo a tener un período corto. Este mismo efecto se ha observado en unos 60 cometas proce-
dentes del cinturón de Kuiper que debido a su interacción con Júpiter tienen períodos cortos que
varían entre 3,3 y 9 años. A estos cometas se les dice que son de la familia de Júpiter porque sus ór-
bitas pasan muy cerca de la órbita de Júpiter. Por otra parte, la alteración de sus órbitas originales
por la acción gravitatoria de los planetas puede ser tan grande que algunos cometas pueden no vol-
ver jamás al sistema solar.
2. ASTRONOMÍA DE POSICIÓN
La astronomía es la ciencia que estudia el universo en su conjunto. Se ocupa del origen, la evolu-
ción, composición, posición y movimiento de todos los cuerpos y materia del universo. La astrono-
mía se suele dividir en varias ramas: astrometría (que fue una rama importante de la astronomía a
principios del siglo XX) que estudia las posiciones y movimientos de los cuerpos celestes; la mecáni-
ca celeste, que trata del estudio matemático de los movimientos de los objetos y la astrofísica, que es-
tudia las propiedades y estructura de la materia del universo.
La astronomía de posición forma parte de la astrometría y se ocupa de describir la posición de un
objeto celeste en el cielo. Para realizar esta descripción es necesario establecer los sistemas de coor-
denadas adecuados para cada situación y conocer cómo se transforman los diferentes sistemas de
coordenadas. A estas cuestiones son a las que vamos a dedicar las próximas líneas.
de
Celeste
l lu
línea que pasa por estos polos se denomina eje
gar
Paralelo celeste E del mundo puesto que a su alrededor parece gi-
rar la esfera celeste.
Me
Meridiana
S
te
ridiano
s
Horizonte
ele
W
plomada en dicho lugar y corta a la esfera celeste
do
Ecua
Desde el punto de vista de un observador en el polo norte, la posición del horizonte, el cenit y el
eje del mundo es el que se indica en la figura 16. En este caso el eje del mundo coincide con la vertical
del lugar y es perpendicular al plano del horizonte.
Horizonte
Puesto que los astros se mueven a lo largo de paralelos celestes, sus trayectorias son siempre para-
lelas al plano del horizonte, tal como se indica en la figura. Como se puede apreciar sólo son visibles la
mitad de las estrellas de la bóveda celeste ya que la otra mitad están siempre ocultas por el horizonte.
Supongamos ahora un observador situado en el ecuador terrestre. En este caso, la vertical del lu-
gar y el eje del mundo son perpendiculares, como se muestra en la figura 17. Los astros aparentan te-
ner trayectorias perpendiculares al horizonte.
Cenit
Cenit
Horizonte Horizonte
Eje del mundo
Para un observador en una latitud intermedia, la situación es la que se muestra en la figura 18.
Los astros seguirían trayectorias inclinadas.
Cenit
Cenit
Polo norte
celeste Figura 19. Situación
irreal en la que
consideramos que el
eje de rotación es
Ecuador perpendicular al
celeste plano de la órbita
Eclíptica terrestre:
a) Movimiento de la
Tierra alrededor del
Sol.
b)
a) b) El plano de la
Polo sur eclíptica y del
celeste ecuador celeste
coincidirían.
Cenit
Cenit
Eclíptica Orto
Horizonte
Horizonte
Ocaso
Figura 20. Salida y puesta del Sol en una situación irreal en la que consideramos
que el eje de rotación es perpendicular al plano de la órbita terrestre.
Ahora bien, el eje de rotación de la Tierra forma un ángulo de aproximadamente 23,45º con el
plano de su órbita, el cual permanece constante, tal y como se muestra en la figura 21a. Por tanto, si
representamos el movimiento aparente del Sol sobre la esfera celeste, el plano de la eclíptica y el
plano del ecuador terrestre formarán un ángulo de 23,45 grados (figura 21b). La eclíptica tiene cua-
tro puntos importantes. El punto en el que el Sol alcanza su altura máxima sobre el ecuador de he-
misferio norte se denomina solsticio de verano y en este punto los días son más largos que las no-
ches. Siguiendo con el movimiento aparente del Sol sobre la eclíptica, el punto donde la eclíptica
corta al ecuador cuando el Sol pasa desde el hemisferio Norte al hemisferio Sur se denomina equi-
noccio de otoño o Punto Libra (W). El punto en el que el Sol se encuentra en la posición más baja se
denomina solsticio de invierno y los días son más cortos que las noches. Por último, el punto de in-
tersección de la eclíptica cuando el Sol pasa del hemisferio sur al norte se denomina equinoccio de
primavera, Punto Vernal o Punto Aries (g). En los equinoccios los días y la noches tienen la misma
duración, 12 h.
Polo norte
Equinoccio
celeste
de primavera
Solsticio Solsticio
Solsticio de invierno Equinoccio de verano
de verano
Eclíptica
de otoño
W
Ecuador
celeste
Equinoccio
de otoño g Equinoccio
Solsticio de primavera
a) de invierno
b)
Polo sur
celeste
Figura 21. Situación real del movimiento de la Tierra alrededor del Sol:
a) Movimiento de la Tierra alrededor del Sol.
b) Plano de la eclíptica y del ecuador sobre la esfera celeste.
Una consecuencia de este hecho es que los puntos de salida del Sol (orto) y de puesta de Sol
(ocaso) varían constantemente a lo largo del año. Esta situación se muestra en la figura 22. En ella se
representa la posición del Sol para un observador en una latitud media en diferentes épocas del año.
En el punto 1 se encuentra en el solsticio de verano, en los puntos 2 en los equinoccios de primavera y
otoño, y en el punto 3 en el solsticio de invierno.
Polo sur
celeste
Figura 22. Salida y puesta del Sol en diferentes épocas del año.
El equinoccio de primavera tiene lugar el 21 de marzo. En esta fecha, el sol sale por el este y se
pone por el oeste. Conforme van pasando los días, el orto y el ocaso se desplazan hacia el norte hasta
llegar al 21 de junio, fecha en que tiene lugar el solsticio de verano en el que el Sol alcanza la posición
más alta sobre el cielo. A partir de esta fecha, el orto y el ocaso se desplazan hacia el sur hasta llegar
de nuevo al este y al oeste, respectivamente, en el equinoccio de otoño que tiene lugar el 22 o 23 de
septiembre. A partir de entonces se desplazan hacia el sur hasta el 22 de diciembre en que tiene lugar
el solsticio de invierno. A partir de entonces, los puntos vuelven a desplazarse hacia el norte hasta lle-
gar de nuevo al este y oeste en el equinoccio de primavera.
Otro efecto del movimiento de la Tierra alrededor del Sol es
que, salvo las estrellas circumpolares (y por tanto las constelacio-
A nes), algunas constelaciones que se encuentran ocultas por el hori-
zonte son visibles sólo en algunas épocas del año. Por ejemplo, se
1 suele decir que Orión es una constelación de invierno, mientras que
Sagitario es una constelación de verano. Estas constelaciones pue-
den verse en la misma época del año en la misma posición en el cie-
2 lo. En la figura 23 se muestra este hecho. Cuando la Tierra se en-
B cuentra en la posición 1, durante la noche se pueden ver constelacio-
nes como la A y no las constelaciones como B que se encuentran
próximas al Sol. Cuando la Tierra se encuentra en la posición 2, las
constelaciones visibles son entonces las B, mientras que las conste-
Figura 23. Efecto del laciones A no lo son. Por consiguiente, mientras que la Tierra va gi-
movimiento de la Tierra sobre rando alrededor del Sol, unas constelaciones se hacen visibles mien-
la visibilidad de las tras que otras se van acercando al Sol y por tanto van haciéndose in-
constelaciones. visibles. El ciclo se repite anualmente.
Los sistemas de referencia más comunes son: el sistema de coordenadas horizontales, el sistema
de coordenadas horarias o ecuatoriales locales, el sistema de coordenadas ecuatoriales absolutas y el
sistema de coordenadas eclípticas. A continuación vamos a exponer cada uno de estos sistemas de
coordenadas astronómicas.
de
l lu
ras, minutos y segundos desde las 0 horas hasta las 24 ho-
ga r
ras. La declinación es el arco del círculo horario compren-
d H
dido entre el ecuador celeste y el centro del astro. Se mide
N S
en grados y su valor oscila entre 0º y 90º y puede ser posi-
Horizonte
tiva para astros situados en el hemisferio boreal y negativa
para astros en el hemisferio austral. A veces, en vez de la Ecuador
celeste
declinación se utiliza la distancia polar (P) definida como
el arco del círculo horario medido desde el polo boreal Polo Sur
hasta el astro. Evidentemente, se tiene que P = 90º – d. Nadir o Austral
Puesto que el movimiento diurno es uniforme, el tiem-
po puede medirse en unidades angulares. Así, como 360º Figura 25. Coordenadas horarias.
corresponden a 24 horas, se tiene que 1 hora corresponde a
15º, 1 minuto a 15´ y 1 segundo a 15´´.
de
l lu
ta está relacionada con el ángulo horario por la ecuación fun-
ga r
d
damental de la astronomía de posición:
N
a
S t = a+ H (4)
Horizonte
Ecuador
celeste en donde t es el tiempo sidéreo.
Punto Aries
Eclíptica
La ventaja de utilizar este sistema de coordenadas es cla-
ra, pues se trata de un sistema de coordenadas universales. Es
Polo Sur
Nadir o Austral
decir, no dependen ni del instante ni del lugar de la observa-
ción ya que el Punto Aries es un punto fijo en la esfera celeste
Fitgura 26. Coordenadas que se desplaza con ésta en su rotación. Por el contrario, la al-
ecuatoriales. tura, el acimut, y el ángulo horario varían constantemente con
la rotación de la esfera celeste.
l
eclíptica medido en sentido directo que va desde el Punto Aries
hasta el máximo de longitud del astro. Se mide en grados y su va-
Eclíptica g lor oscila entre 0º y 360º. La latitud celeste es el arco máximo de
Punto Aries
longitud que pasa por el astro comprendido entre la eclíptica y el
astro. Se mide en grados y su valor oscila entre 0º y 90º.
Polo Sur Polo de la
o Austral eclíptica Al igual que las coordenadas ecuatoriales absolutas, las coor-
denadas eclípticas son universales, pues no dependen ni del lugar
Figura 27. Coordenadas ni del momento de la observación. Se puede encontrar la transfor-
eclípticas. mación de coordenadas ecuatoriales a eclípticas mediante relacio-
nes entre triángulos esféricos dibujados sobre la bóveda celeste.
20
Tiempo Solar Verdadero - Tiempo Solar Medio
15
10
5
May.
Nov.
Ago.
Sep.
Mar.
Ene.
Feb.
Abr.
Oct.
Jun.
Dic.
Jul.
0
Figura 28. Ecuación del -5
tiempo: diferencia entre el
tiempo solar verdadero y el -10
tiempo solar medio cuando el -15
Sol se encuentra sobre el
meridiano del lugar. -20
El tiempo local medio podía ser una buena herramienta para medir la duración de los eventos
cuando las comunicaciones y los desplazamientos eran muy lentos. Pero con la llegada del ferrocarril
y, sobre todo, del telégrafo la situación se convirtió en un problema. Para resolverlo se instituyó el
tiempo civil medio o tiempo estándar. Para su definición se dividió la superficie de la Tierra en 24 zo-
nas horarias, cada una de ellas de 15º de longitud de extensión y definiendo el meridiano central de
cada zona como un múltiplo de 15º. El tiempo de referencia para cada una de las zonas son las 12:00
horas cuando el Sol se encuentra sobre el meridiano central de cada zona. El primer país en establecer
este tiempo estándar fue Estados Unidos, que en 1883 dividió el país en 4 zonas horarias. En cada una
de estas zonas, los relojes se ajustaban al tiempo local medio de un punto geográfico de una longitud
estándar: 75º en la zona este, 90º en la zona central, 105º en la zona de las montañas y 1200 en la re-
gión del Pacífico. De esta manera cada una de las zonas difería de sus vecinas en 1 hora.
El resto del mundo pronto siguió la línea iniciada por Estados Unidos en la definición de un
tiempo estándar que sirviera para medir los eventos de la vida cotidiana. El tiempo así definido se co-
noce como tiempo universal y el tiempo de referencia se toma en un punto geográfico de longitud 0º.
Esta longitud es por definición la de una línea grabada en un placa de latón sobre el suelo del Old Ro-
yal Observatory en Greenwich, Inglaterra. De aquí que al tiempo universal se le denomine también
tiempo medio de Greenwich (GMT). La superficie de la Tierra queda dividida en 24 zonas o husos
horarios de extensión igual a 15º de longitud, salvo variaciones excepcionales para mantener fronte-
ras políticas. La diferencia entre cada zona horaria es de 1 hora y cada país puede elegir libremente re-
ferir su tiempo a uno o varios de estos husos horarios. Por ejemplo, España está adscrita al huso cero
de Europa occidental. En la figura 29 se muestra el huso horario internacional y las diferencias hora-
rias de cada zona con respecto a la hora universal de Greenwich.
Si el día es la unidad natural de tiempo basada en la rotación de la Tierra sobre su eje, el año es la
unidad natural de tiempo basada en la rotación de la Tierra alrededor del Sol. Se define el año trópico
como el tiempo transcurrido entre dos pasos consecutivos del Sol por el Punto Aries. La duración de
este año es de 365,2422 días solares medios.
Como vemos, la naturaleza no ha querido que el año tenga un número exacto de días solares con las
repercusiones que esto tiene sobre la elaboración de calendarios. Este hecho ya era conocido por los astró-
nomos de la antigüedad que estimaban que la duración de un año era de 365 días y un cuarto. Fue Julio
César quien estableció un calendario (calendario Juliano) de años bisiestos que tuviera en cuenta este
cuarto de día. Sumando un día extra al calendario cada cuatro años se esperaba que los cambios de esta-
ciones como el comienzo de la primavera tuviera lugar siempre el mismo día del año. Evidentemente,
este calendario hubiera sido adecuado si el año hubiese tenido exactamente 365 días y un cuarto, algo
que no es así. La diferencia con el año trópico es de 11 minutos y 14 segundos al año. Este error suma al-
rededor de 3 días cada cuatro siglos y era conocido por los astrónomos de la época, pero creyeron que
era demasiado pequeño para que importara. No obstante, en el siglo XVI el primer día de la primavera
ocurría el 11 de marzo en vez del 21 de marzo. Para mejorar el calendario, el papa Gregorio XIII promo-
vió una reforma del calendario que reajustara el comienzo de las estaciones. Los puntos fundamentales
de la reforma fueron suprimir los días comprendidos entre los días 5 y 14 de octubre de 1582, ambos in-
clusive, y mantener el año bisiesto cada cuatro años excepto los múltiplos de 100 que no lo sean de 400.
Este calendario se conoce con el nombre de Gregoriano. El año Gregoriano también tiene un error, pero
éste es sólo de 26 segundos, por lo que en el año 4905 el error acumulado será de 1 día.
la Tierra, el movimiento de la Tierra en su órbita produce un efecto despreciable en la duración del día
sidéreo. Esto lo podemos ver en la figura 30. Supongamos un Sol medio que se mueve a una veloci-
dad constante sobre el ecuador, o lo que es lo mismo, una Tierra que se mueve a velocidad constante
sobre una órbita circular alrededor del Sol. Si tenemos en cuenta que el año trópico es de 365,2422
días, en un día la Tierra habrá girado respecto del Sol Medio un ángulo de 0,9856º, aproximadamente.
Estrella
0
0,9856
0,98560
Sol Tierra
Órbita terrestre
Por consiguiente, en un día, la Tierra habrá girado sobre su eje un ángulo de 360,9856º.
Por el contrario, en un día sidéreo, puesto que las estrellas se encuentran muy lejos de la Tierra,
ésta habrá girado sobre sí misma un ángulo de 360º. Por tanto, si un día solar medio es de 24 horas,
para el día sidéreo tendremos una duración de:
360
1 día sidéreo » ´ 24 horas » 23 horas 56 minutos 4,09 segundos (5)
360,9856
El tiempo sideral local se define como el ángulo horario del Punto Aries. Por tanto, cuando el
Punto Aries se encuentra sobre el meridiano el tiempo sidéreo es 0:00 horas. Vemos que, por defini-
ción, el tiempo sidéreo es igual a la ascensión recta de cualquier objeto que se encuentre en el meri-
diano del lugar. Para comprobar que esto es así, observemos la figura 31. En la figura de la izquierda
el Punto Aries o Vernal se encuentra sobre el meridiano del lugar y el tiempo sidéreo es cero. En la fi-
gura de la derecha se muestra el cielo una hora después, cuando la Tierra ha girado 15º y por tanto la
esfera celeste ha girado hacia la derecha ese mismo ángulo. La hora sidérea es entonces 1:00 hora.
Observemos que la ascensión recta (a) de cualquier astro que se encuentre en el meridiano del lugar
en ese momento es precisamente 1:00 hora.
Se define el año sideral como el tiempo que tarda la Tierra en dar una vuelta al Sol respecto de
una estrella lejana. El año sidéreo tiene una duración de 365,2564 días solares medios o, lo que es lo
mismo:
1 año sidéreo = 365 días 6 horas 9 minutos 10 segundos (6)
Por otro lado, el efecto Doppler explica también la variación en la anchura de las líneas espectra-
les. Como sabemos, las moléculas de un gas están en movimiento constante, por lo que si realizamos
un análisis espectroscópico en un instante dado algunas moléculas se mueven hacia el espectroscopio
y otras se alejan de él. Este movimiento provoca que las longitudes de onda de algunos de los fotones
sean más cortas, y las de otros más largas. Esto da lugar a que cada línea del espectro se ensanche lige-
ramente. Al aumentar la temperatura, aumenta la agitación de las moléculas y por consiguiente, la ve-
locidad media de las moléculas se hace mayor, dando como resultado unas líneas espectrales todavía
más anchas. Por consiguiente, la medida del ancho de determinadas líneas espectrales proporciona
una indicación de la temperatura de la fuente de radiación.
3.2. Radiotelescopios
Los objetos celestes emiten radiación electromagnética en una gama de frecuencias que van des-
de los rayos gamma hasta las ondas de radio. El estudio de los cuerpos celestes mediante las medidas
de la radiación electromagnética en la zona de radio del espectro, constituye una rama de la astrono-
mía denominada radioastronomía.
Las medidas de las ondas de radio se llevan a cabo mediante los denominados radiotelescopios,
que consisten en una superficie reflectora (reflector) de forma parabólica con un receptor en el centro.
Debido a que las longitudes de onda de radio van desde 1mm hasta más de 1km, las superficies reflecto-
ras han de ser grandes si se quiere obtener una imagen clara del objeto enfocado. En la actualidad, el ra-
diotelescopio fijo más grande del mundo, con un reflector de más de 300 m de diámetro, se encuentra en
el Observatorio Arecibo en Puerto Rico. Los radiotelescopios orientables de mayor tamaño pueden te-
ner un diámetro entre 50 y 100 m. Las ondas de radio que llegan al reflector son enfocadas por la super-
ficie parabólica sobre una pequeña antena que las conduce a un receptor de radio de gran sensibilidad
(pueden detectar señales del orden de 10–17 W). En general, debido a que las longitudes de onda capta-
das son muy grandes, el poder de resolución de los radiotelescopios es bastante inferior al de los teles-
copios ópticos. Para aumentar la resolución se utilizan los radiointerferómetros que son conjuntos de
antenas conectadas a un mismo receptor, con lo que se observa un mismo objeto simultáneamente, y
que permiten obtener resoluciones de hasta 1 segundo de arco
(figura 32). El mayor radiointerferómetro es el denominado
VLA (Very Large Array) situado cerca de Socorro, Nuevo
México (Estados Unidos). Este radiointerferómetro está for-
mado por 27 radiotelescopios de 26 m de diámetro cada uno
distribuidos a largo de tres brazos de 20 km aproximadamente
configurados en forma de Y. La resolución puede mejorarse si
los radiotelescopios se sitúan a miles de kilómetros de distan-
cia. Esta técnica se denomina VLBI (Very Long Base Interfe-
rometer) y requiere la utilización de relojes atómicos de gran Figura 32. Radiointerferómetro
precisión para sincronizar las grabaciones realizadas indivi- VLA en Socorro, Nuevo México.
dualmente en cada radiotelescopio.
La radioastronomía ha permitido catalogar un gran número de radiofuentes distantes que se
han identificado con galaxias distantes. Fruto de la investigación en este campo fue el descubri-
miento de los quásares que son fuentes de radio a enormes distancias de la Tierra. Aunque en prin-
cipio se creían que se trataba de estrellas, su extaordinariamente grande desplazamiento hacia el
rojo parecía indicar que se trataba de otro tipo de objetos de ahí su nombre “Quasi stellar objets”.
En 1967 un pulso repetitivo de radiofrecuencias fue descubierto en el plano de nuestra galaxia. Al
principio incluso se pensó que podía tratarse de un radio faro de alguna civilización inteligente. En
la actualidad se le denomina púlsar y son atribuidos a estrellas de neutrones en rotación a grandes
velocidades. Las variaciones detectadas se atribuyen a pérdida de energía o también a la posible
existencia de planetas alrededor del púlsar.
Otro de los hechos de crucial importancia, consecuencia del estudio de las ondas de radio proce-
dentes del espacio, fue el descubrimiento de la radiación de fondo del universo. En 1965, los estadou-
nidenses Arno Penzias y Robert W. Wilson encontraron una radiación de fondo uniforme en la región
de las microondas del espectro electromagnético. Esta radiación era observada en todas las direccio-
nes y mostraba una dependencia con la longitud de onda semejante a la de un cuerpo negro a una tem-
peratura de 3 K. Esta radiación de fondo ha sido interpretada como los restos de la radiación emitida
en el instante en que el universo en expansión se hizo transparente a una temperatura aproximada de
3000 K. El descubrimiento de la radiación de fondo constituyó uno de los peldaños que llevaron a la
formulación del modelo estándar del origen del universo, el modelo del Big Bang o gran explosión.
Para el caso de una estrella se utiliza como distancia de referencia el radio medio de la órbita te-
rrestre alrededor del Sol. Se obtiene así el paralaje anual de la estrella (figura 33).
Por consiguiente, para medir la distancia de una estrella basta determinar el paralaje. Una vez
determinado éste la distancia D de la estrella a la Tierra vendrá dada por:
R
d= (8)
sen p
en donde R es el valor medio del radio de la órbita de la Tierra alrededor del Sol y p es el paralaje.
En astronomía, la distancia media de la Tierra al Sol, es decir, el radio medio de la órbita terres-
tre se denomina unidad astronómica AU (UA) y es igual a 149.600.000 km. Se define el parsec (pc)
como la distancia de una estrella cuyo paralaje anual es de 1 segundo de arco. Teniendo en cuenta la
relación anterior:
1 pc = 206,265 AU (9)
El parsec es una unidad de distancia que se utiliza frecuentemente en astronomía junto con la
unidad astronómica y el año luz, definido como la distancia recorrida por la luz en el vacío en un pe-
ríodo de tiempo de un año.
De la definición queda claro que cuanto más lejana se encuentra una estrella menor es el parala-
je. Ahora bien, la medida de paralajes muy pequeños es bastante complicada y difícil, por lo que este
método de determinación de las distancias estelares no es adecuado. Se utilizan entonces otros méto-
dos directos o indirectos basados en la determinación de la intensidad de la luz de la estrella o, como
para el caso de galaxias distantes, el efecto Doppler junto con la ley de Hubble.
Para determinar el valor de la constante k se establece que las estrellas de magnitud 6 sean 100 veces
menos brillantes que las de magnitud 1, es decir que f6 = 10–2f1. Por tanto, se tendrá que:
2
log k = = 0,4 ® k = 2,512 (11)
5
Es decir, que las estrellas de magnitud aparente 1 son 2,512 veces más brillantes que las de magnitud
aparente 2, y éstas son 2,512 más brillantes que las de magnitud aparente 3.
Para completar la escala nos falta elegir un origen. Se elige de manera que las estrella Vega ten-
ga una magnitud aparente cero. Por tanto, de la expresión (10) se obtiene que la magnitud aparente de
una estrella vendrá dada por:
1 f f
m= – log = –2,5 log (12)
log k f Vega f Vega
Puesto que la magnitud aparente no tiene en cuenta la distancia a la que se encuentran las estre-
llas, no es una magnitud que sirva para comparar el brillo de dos estrellas diferentes. Es por esto por lo
que se introduce la magnitud absoluta, definida como la magnitud aparente de una estrella a una dis-
tancia de 10 pc (parsec). Supongamos una estrella de magnitud aparente m. Si la colocásemos a una
distancia de 10 pc su brillo sería diferente y por consiguiente su magnitud aparente también. Denomi-
nemos M a la magnitud de las estrella situada a 10 pc, es decir, su magnitud absoluta. Evidentemente,
se tendría que:
f
m= –2,5 log (13)
f Vega
y
f'
M = –2,5 log (14)
f Vega
en donde f ´ sería el brillo cuando se sitúa a una distancia de 10 pc. Ahora bien, el brillo es inversa-
mente proporcional a la distancia al cuadrado, es decir f = a/d2. Por consiguiente, se tendría que:
f d2
M – m= –2,5 log = –2,5 log 2 (15)
f' d'
en donde d es la distancia real al cuadrado de la estrella y d´ es igual a 10 pc. Por tanto, se tiene que:
d
M = m – 5 log = m+ 5 – 5 log d (16)
10
expresión que nos proporciona una relación entre la magnitud aparente, la magnitud absoluta y la dis-
tancia a la que se encuentra la estrella.
La relación entre las magnitudes absolutas de dos estrellas nos proporciona una relación entre
sus luminosidades. La luminosidad de una estrella es la energía total radiada por unidad de tiempo.
Para una estrella de radio R y temperatura T, la luminosidad viene dada por:
L = 4pR 2 sT 4 (17)
en donde (s) es la constante de Stefan-Boltzmann. El brillo, f, la luminosidad L y la distancia de una
estrella están relacionadas por:
L = 4pd 2 f (18)
De estas dos últimas expresiones, se tiene que las magnitudes absolutas están relacionadas por:
L f
M – M '= m – m'–2,5 log + 2,5 (23)
L' f'
Es decir, que las magnitudes aparentes de dos estrellas sirven para comparar el brillo, y las magnitu-
des absolutas sirven para comparar la luminosidad.
– Clase O. Este grupo incluye a las estrellas azules con temperaturas superficiales que oscilan
entre los 20.000 y 30.000 K. El espectro de las estrellas de este grupo se caracteriza en primer
lugar por las líneas de helio ionizado. Otra característica importante es que incluye líneas de
oxígeno, carbono y nitrógeno, doblemente ionizado, y de silicio triplemente ionizado.
– Clase B. Incluye las estrellas azules-blancas con temperaturas superficiales comprendidas
entre 10.000 y 30.000 K, como la estrella Epsilon Orionis. Su espectro se caracteriza por lí-
neas de helio y de oxígeno, nitrógeno y magnesio simplemente ionizados.
– Clase A. En este grupo se encuentran las estrellas llamadas de hidrógeno. Son estrellas
blancas cuyas temperaturas superficiales oscilan entre los 7500 y los 10.000 K. Un ejemplo
de este tipo de estrella es Sirio. Sus espectros están dominados por las líneas de absorción
del hidrógeno. Estas líneas van apagándose conforme el hidrógeno va siendo ionizado a
temperaturas más elevadas.
– Clase F. Incluye a las estrellas de color amarillo-blanco cuyas temperaturas están com-
prendidas entre los 6000 y 7500 K. En este grupo las líneas fuertes del espectro son las lí-
neas H y K del calcio. Las líneas del hidrógeno son más débiles que en las estrellas del gru-
po A. Una estrella de este tipo es la estrella Aquilae.
– Clase G. Este grupo comprende las estrellas de color amarillo, como el Sol, cuyas tempera-
turas superficiales oscilan entre los 5000 y 6000 K. Los espectros de estas estrellas están
dominados por las líneas características de los metales, en particular de hierro, calcio, so-
dio, magnesio y titanio. Particularmente fuertes son las líneas H y K del calcio ionizado.
– Clase K. Pertenecen a este grupo las estrellas cuyas temperaturas superficiales oscilan en-
tre los 3500 y 5000 K y son de color amarillo-naranja. Su espectro exhibe abundantes líneas
metálicas e indican la presencia de fragmentos de moléculas como cianógeno (CN) y del
radical hidroxilo (OH).
– Clase M. Este grupo comprende estrellas con temperaturas inferiores a los 3500 K y son de
color rojo. Un ejemplo típico de este tipo es la estrella Betelgeuse. Sus espectros indican la
presencia de metales familiares, que incluyen hierro, calcio y magnesio, y de moléculas de
óxidos metálicos, sobre todo las de óxido de titanio.
Estas clases se han suplementado con otros tipos denominados R, N (hoy denominadas común-
mente como estrellas de carbón o de tipo C) y S. Estas tres últimas clases difieren de las clases están-
dar en su composición química y las estrellas que pertenecen a ellas son estrellas gigantes o supergi-
gantes. Cada una de estas clases se subdivide además en subclases que se designan con la letra de la
clase y un número que va de 0 a 9 para indicar su luminosidad. Así por ejemplo, Alpha Persei es de
clase F5 y el Sol es de clase G2. Además, se le suele añadir un sufijo para indicar el tipo de estrella se-
gún su luminosidad. El sufijo I indica que se trata de una estrella supergigante: las supergigantes bri-
llantes son del tipo Ia y las menos brillante del tipo Ib. El sufijo II se utiliza para las estrellas gigantes
brillantes, el III indica que se trata de una estrella gigante, IV indica que es subgigante y V una estrella
que pertenece a la secuencia principal.
-10 106
Supergigantes
-5 104
Luminosidad (Sol = 1)
Magnitud absoluta
Gigantes
0 10
2
Secuencia Principal
+5 1.0
Enanas Blancas
+10 0.01
+15
B A F G K M Clase Espectral
25.000 10.000 5.000 3.000 T (K)
Como puede apreciarse, la mayoría de las estrellas se sitúan en posiciones cercanas a la línea
diagonal que recibe el nombre de secuencia principal. La distribución comienza en las calientes es-
trellas azules de tipo O y B que son 10.000 veces más brillantes que el Sol, baja hacia la zona de las es-
trellas tipo A, pasa por las estrellas de tipo K y termina en las estrellas rojas de tipo M con una lumino-
sidad cientos de veces más débiles que el Sol. La secuencia es continua y la luminosidad desciende
suavemente conforme disminuye la temperatura. En el diagrama podemos observar, en la parte supe-
rior derecha, un grupo de estrellas gigantes, que pueden ser amarillas, naranjas o rojas, y son unas 100
veces más brillantes que el Sol. Un grupo de estrellas supergigantes incluye estrellas de todos los ti-
pos espectrales de luminosidad muy variable. Las estrellas supergigantes son objetos celestes muy
raros debido a su corta vida pero pueden ser vistos a gran distancia por su gran luminosidad. El grupo
de las enanas blancas se sitúa por debajo de la secuencia principal. Su luminosidad es 100 veces más
pequeña que la del Sol y son estrellas que se encuentran en los últimas etapas de su evolución.
Alrededor del 90% de las estrellas conocidas se distribuyen a lo largo de la secuencia principal y
su luminosidad sigue de forma aproximada la siguiente relación:
3 ,5
L éM ù
=ê ú (25)
LS ë M S û
Esta expresión nos proporciona una medida de la luminosidad de una estrella en relación a la lumino-
sidad del Sol.
comienza a elevarse. Por otro lado, aumentan la reacciones de fusión en las capas externas
produciéndose una expansión que hace que la estrella se enfríe adquiriendo un color rojo.
Debido a la disminución de la fuerza gravitatoria se produce una pérdida de masa de la cor-
teza. Por otro lado, el núcleo continúa calentándose hasta adquirir temperaturas a las que
tiene lugar la fusión del helio que se transforma en núcleos más masivos y la estrella se ex-
pansiona hasta adquirir un radio del orden de 200 veces su radio inicial. Se llega así a la si-
tuación de una estrella gigante roja. Una vez que se ha quemado todo el helio, la estrella no
tiene masa suficiente para que se produzcan reacciones de fusión del ciclo del carbono y la
estrella se contrae hacia una enana blanca. Tal como hemos visto anteriormente, la contrac-
ción acaba por la presión que surge de la degeneración electrónica.
– Estrellas con 1,44 Mu < M < 3Mu. Tal como acabamos de ver, las enanas blancas se
mantienen en equilibrio entre las fuerzas de gravitación, por un lado, y la presión del flui-
do de electrones degenerado que se encuentra en su interior, por otro. Ahora bien, este
equilibrio se mantiene si la masa de la estrella es inferior a 1,5 veces la masa del Sol (lími-
te de Chandrasekhar). Si la masa es superior a este límite, la materia interior seguiría
comprimiéndose. En este proceso, los electrones adquieren cada vez mayor velocidad de-
bido al principio de exclusión y, finalmente, empiezan a penetrar en los núcleos atómi-
cos, combinándose con los protones para dar neutrones, cambiando la composición de
esos núcleos. Esta disminución de electrones en el material hace que la presión disminu-
ya y la estrella se hunde sobre sí misma. Con este hundimiento, los electrones siguen pe-
netrando los núcleos y los nuevos neutrones que se forman son expulsados y comienzan a
formar un gas de neutrones. Puesto que los electrones no pueden ocupar el mismo estado,
una vez ocupados los estados de menor energía los neutrones se ven forzados a ocupar es-
tados de energía más alto y esto se traduce en una presión que detiene el colapso gravita-
torio de la estrella. Se produce así una estrella de neutrones con un radio pequeño del or-
den de 10 km (mucho menor que el de una enana blanca) y con una densidad de cientos de
millones de toneladas por centímetro cúbico.
Si la masa de la estrella es del orden de 2 o 3 veces la masa solar el colapso gravitacional no
se detiene y el proceso continua hasta el estado de agujero negro. Sin embargo, la mayoría
de las estrellas de neutrones y de agujeros negros se creen que son debidos a la evolución de
estrellas mucho más masivas que el Sol.
Si la masa del residuo colapsado es inferior a 2 o 3 masas solares la presión del gas degenerado
de sus neutrones puede compensar la fuerza gravitatoria y el astro puede estabilizarse como una estre-
lla de neutrones. Si la masa del residuo colapsado es mayor, la materia sigue comprimiéndose hasta
alcanzar el estado de un punto de densidad infinita denominado singularidad. El campo gravitatorio
de este objeto es tan intenso que ni siquiera la luz puede escapar de él, es por esto por lo que recibe el
nombre de agujero negro.
5.1. Galaxias
El universo está formado por unidades denominadas galaxias formadas por estrellas y por mate-
ria interestelar las cuales se mantienen cohesionadas por las fuerzas gravitatorias. En 1771, Charles
Messier publicó un catálogo de objetos celestes en el que aparecían algunos objetos no estelares que
eran en realidad galaxias. Sin embargo, su consideración como galaxias no se produjo hasta que en
1920 Edwin Hubble demostró su naturaleza extragaláctica al determinar la distancia de Andrómeda y
mostrar que se encontraba fuera de la Vía Láctea y que además presentaba unas dimensiones simila-
res a la de ésta. En la actualidad se conocen miles de galaxias que están formadas por millones de es-
trellas y tienen unas dimensiones del orden de 100 años luz. Las Galaxias se identifican por su núme-
ro Messier (una M seguida de un número); así, Andrómeda es la galaxia M31.
Atendiendo a su forma se puede hacer una primera clasificación de las galaxias, aunque en la ac-
tualidad las nuevas fotografías permiten hacerlo de forma más detallada, en tres grandes tipos: gala-
xias elípticas, galaxias espirales y galaxias irregulares. A esta clasificación se le denomina secuencia
de Hubble y puede verse en la figura 35.
Secuencia de Hubble
Sc
Sb
Sa Irregulares
S0
E0 E3 E7 SB0
SBc
SBa
SBb
SBc
a) b)
Otras galaxias, denominadas lenticulares, no presentan esta estructura de brazos. Existe un nú-
mero reducido de galaxias (aproximadamente el 3%) que presentan formas irregulares y que están
constituidas por un gran número de estrellas jóvenes y de gran cantidad de gas y polvo. Suelen estar
situadas alrededor de galaxias más grandes. Por último, hay un número de galaxias de características
muy singulares que suponen el 2% del total. Estas galaxias se denominan galaxias activas debido a la
extraordinaria variabilidad y existencia de fuertes interacciones en el núcleo galáctico. Algunos
ejemplos de estas galaxias son las denominadas galaxias Seyfert, los objetos B L Lacertae, los blása-
res, y los quásares. Las galaxias Seyfert se caracterizan por la presencia de anchas líneas de emisión
procedentes de un núcleo extremadamente brillante que emite también ondas de radio. Los objetos B
L Lacertae se caracterizan por rápidas variaciones de su luminosidad (períodos de días) y por la au-
sencia de líneas de emisión en su espectro. Si las variaciones tienen lugar en períodos inferiores al
día, se denominan blásares. Los quásares son objetos parecidos a las estrellas pero con un extraordi-
nario desplazamiento hacia al rojo que impide considerarlos como tales por encontrarse a enormes
distancias. Por ello, muchos astrónomos los consideran galaxias activas, y se piensa, que las galaxias
Seyfert son galaxias espirales con un centro de tipo quásar.
Las propiedades de las galaxias pueden conocerse mediante el análisis de sus espectros. El estu-
dio de los espectros ópticos y de radio han puesto de manifiesto la relación entre la proporción de los
diferentes tipos de estrellas, nebulosas y gas frío que componen una galaxia con su clasificación se-
gún su forma. Las galaxias elípticas tienen pocas estrellas jóvenes y polvo, y también poco gas. El nú-
mero de estrellas jóvenes y de regiones de gas de hidrógeno ionizado (H II) aumenta en las galaxias
espirales y se hace aún mayor en las galaxias irregulares. Por otro lado, la medida de la desviación de
las rayas de los espectros obtenidos de diferentes puntos de la galaxia ha permitido conocer los movi-
mientos de las galaxias y sus movimientos internos: las estrellas y nubes de gas orbitan alrededor del
centro de las galaxias. La estimación de las velocidades de giro ha permitido deducir que la masa de
una galaxia no está tan concentrada en su centro sino que una gran parte de su masa se encuentra a
mucha distancia del centro. Estos estudios han reforzado la teoría de que el Universo está formado en
gran parte por materia oscura que sólo puede ser detectada por sus efectos gravitatorios.
La determinación de las distancias de las galaxias se hace mediante métodos indirectos compa-
rando alguna magnitud observada, como su luminosidad o tamaño, con la de objetos celestes de dis-
tancia conocida. Un método especialmente interesante consiste en utilizar las estrellas de tipo cefei-
das que son estrellas de luminosidad variable. Se ha encontrado que el período de variabilidad de es-
tas estrellas depende de su luminosidad, por lo que midiendo el período podemos determinar la
luminosidad y después la distancia a la Tierra.
La galaxia se origina a partir de una inmensa nube de gas en rotación que va contrayéndose por
la pérdida de energía en los choques de las nubes más pequeñas que la constituyen. De estas colisio-
nes, nacen las estrellas, lo que da a lugar a una pérdida de gas en la galaxia y a un aplanamiento per-
pendicular al eje de rotación. La evolución de las galaxias está íntimamente unida a la evolución de
sus constituyentes: las estrellas y el gas. Conforme las estrellas envejecen van cediendo gas a la gala-
xia, pero este nuevo gas es rico en elementos más pesados originados en las estrellas. Esto da lugar a
que, conforme una galaxia evoluciona, se produzca una pérdida de gas y un aumento de elementos
pesados en el espacio interestelar.
Por otra parte, las galaxias de un cúmulo están constantemente en movimiento debido a la fuerza
gravitacional mutua entre ellas y sus vecinas. Esto hace que en alguna ocasión pueda producirse dra-
máticas interacciones. Los efectos de estas colisiones son diferentes dependiendo de la similitud o no
de las masas de las galaxias que interaccionan. Si dos galaxias espirales de masa similar se acercan
una a otra, a medida que lo hacen impulsan simultáneamente a las estrellas de la otra de sus órbitas y
las galaxias van siendo desprendidas de sus brazos. Si las galaxias pasan suficientemente cerca, se
produce su unión. Cuando las galaxias colisionan de este modo, las estrellas que contienen no se to-
can en realidad entre sí: los espacios entre estrellas son tan grandes que las posibilidades de colisión,
incluso en una unión galáctica, son en verdad mínimos. Si la interacción tiene lugar entre dos galaxias
de tamaño muy desigual, entonces la más pequeña sufre alteraciones importantes mientras que la ma-
yor sufre sólo ligeras alteraciones. El efecto de las colisiones galácticas sobre las nubes de gas que
contienen es la producción de nuevas estrellas. Esto se debe a que las nuevas fuerzas gravitatorias
pueden dar lugar a que partes de la nube de gas se concentre y comience el colapso gravitatorio origen
del nacimiento de las estrellas.
BIBLIOGRAFÍA